Author 作者 甘侦蓉/清华大学人文社会AI 应用与发展研究中心博士後研究学者。人工智慧演算法伦理风险AI 应用深伪技术人脸辨识技术Take Home Message
►Facebook或Instagram的讯息推荐、YouTube或Netflix推荐观赏影片、扫描脸部以解锁手机,AI应用早已在我们日常生活中随处可见。
►AI应用中四种常见的伦理和风险:演算法偏误、相关技术或产品偏离原先使用目的、拥有善恶两种用途,以及演算法设计不良或现有技术限制。
►近年来各国家皆制定有关AI发展的规范,台湾则在2019年制定「AI科研发展指引」,期望能改善AI发展带来的问题与风险。
当谈到人工智慧(artificial intelligence, AI)、也就是AI 时,读者会想到什麽?是多年前由史匹柏(Steven Spielberg)导演的那部《A.I.人工智慧》(A.I. Artificial Intelligence)中那个一直盼不到人类母爱而令人心碎的机器人小男孩?还是由史密斯(Will Smith)主演的《机械公敌》(I, Robot)里那些没遵守机器人三大法则的机器人或中央系统?
或许未来有一天,人类真的可以设计出如电影中那些像人一样的AI 系统或机器人。但目前为止,你常听到的AI 其实既很厉害又很不厉害,为什麽呢?厉害的是它下围棋可赢过世界冠军,还能够比放射科技师更快、更准确地辨识X 光片中疑似病变的细胞;但它不厉害的是,很会下围棋的AI 就只能下围棋,别说不会打牌,连扑克牌是什麽都不知道!而且每次学新事物几乎都是打掉重练,得不断做好多考古题才有可能学得会,不像人类通常教几次就会举一反三。不过,即使目前世界上的AI 都是这种只具备特定功能的「弱AI」(artificial narrow intelligence, ANI),但已经为这个世界带来相当大的进步与便利。所以,以下要谈的就是ANI 的伦理与风险。
谈到这种只具特定功能的ANI,读者知道目前生活周遭有哪些事物有利用AI 技术吗?其实Google上的搜寻资讯、Facebook 或Instagram 的讯息推荐、对智慧型手机喊「Siri 现在外面有下雨吗?」等功能,或是以扫瞄脸部解锁手机与进入大楼、YouTube 或Netflix 推荐观赏影片,甚至是投履历求职、银行审核贷款申请等都常用到AI 技术,它早在我们日常生活中随处可见。
但也正是如此,让人们这几年在使用AI 时,逐渐发现它可能造成的问题或伤害,以下简单介绍常见的四种AI 应用可能造成的伦理问题或风险。演算法偏误第一种是演算法偏误(algorithmic bias)。什麽是演算法偏误?简单来说就是AI 在某些群体的判断准确率或预测结果上总是很差,导致结果可能对於此群体造成系统性的不利。但为何会造成演算法偏误?常见原因有三项。
第一项原因是,建立AI 模型的研究资料集有偏误,在性别、种族、社经地位等特徵上,没有真实世界的人口分布代表性。例如数位装置采用AI脸部辨识技术解锁,原本是希望保护个人使用数位装置的安全性,结果皮肤深的人却常常遇到辨识失败而无法解锁。这通常是因为目前许多AI 模型都是以机器学习技术设计,而机器学习的主要特性就是从过去人类留下的大量资料中学习。当初提供电脑学习脸部辨识的图片时,如果多数都是白皮肤而非黑皮肤、多数都是男性的脸而非女性的脸,那麽电脑在学习辨识人脸的准确率上,整体而言辨识男性白人就会比辨识女性黑人要高出许多。
第二项产生演算法偏误的原因是建立AI 模型的研究资料集不只有偏误,还反映现实社会中的性别、种族、社经地位等歧视。例如美国警政单位以过往犯罪资料训练出狱後犯人再犯风险评估的AI 模型,那些资料不意外地有色人种的犯罪纪录远多於白人犯罪纪录。然而,那些纪录也反映美国社会长久以来对於有色人种的歧视,其中包含警察对於有色人种的盘查比例远高於白人、法院对於有色人种的定罪比例及判刑严重程度也远高於白人、警力通常被派往多黑人与拉丁裔人种居住的穷困社区盘查等。所以根据过往犯罪资料所训练出来的AI 模型,不意外地也就会预测有色人种的再犯机率普遍来说比白人高。
第三项产生演算法偏误的原因则是AI 学会了连系统开发者都没有察觉到,潜藏在资料里的偏误。例如科技公司人资部门本来想借助AI 更有效率地筛选出适合来面试的履历,所以挑选在该公司任职一定年资且曾升迁二次的员工履历来训练AI 模型。问题是,高科技公司向来男多女少,所提供给AI 学习的资料自然就男女比例相当不均。AI 也就学会了凡是出现偏向女性名字、嗜好、毕业学校系所等文字的履历,平均所给的评分都比出现偏向男性等相关文字的履历还低。
但目前科技公司阳盛阴衰,是受到以往鼓励男性就读理工、女性就读人文科系,或男性在外工作女性在家带小孩等性别刻板偏见所影响。所以20 ~ 30年来许多人做出各种努力以消除这种性别刻板偏见所带来的不良影响,政府也努力制定各种政策来消除这种不当的性别偏见,像是求才广告基本上不能限定性别、公司聘雇员工应该达到一定的性别比例等。因此,训练AI 的研究资料一旦隐藏类似前述性别比例不均的现象,训练出来的AI 预测结果就彷佛带有性别歧视,让人们过往致力消除性别不平等的各种努力都白费了!其他AI 应用带来的伦理与风险除了演算法偏误的问题外,第二种可能带来的伦理问题或风险是AI 技术已经偏离原先使用目的,例如深伪技术(deepfake)原本用来解决图片资料量不够的问题,後来却被利用在伪造名人性爱影片等。
第三种则是有些AI 技术或产品本身就可能有善恶两种用途(dual-use)。例如AI 人脸辨识技术可用在保护数位装置的使用者或大楼保全,但也可用来窥探或监控特定个人;无人机可以在农业上帮助农夫播种,但也可作为自动杀人武器;可用来搜寻如何产生毒性最少的药物合成演算法,也能反过来成为搜寻如何产生毒性最强的药物合成演算法。
最後,第四种是演算法设计不良或现有技术限制所导致的问题。在演算法设计不良方面,例如下棋机器人手臂可能因为没有设计施力回馈或移动受阻暂停等防呆装置,而造成误抓人类棋手的手指且弄断的意外。在现有技术限制方面,道路驾驶的交通标志在现实中可能时常有老旧或脏污的情况,尽管对於人类驾驶来说可能不影响判读,但对於自驾车来说很可能就因此会严重误判,例如无法正确辨识禁止通行标志而继续行驶,或是将速限35 公里误判成85 公里等。但前述情况也有可能是自驾车网路、控制权限或物件辨识模型受到恶意攻击所致。
以上介绍了AI 常见的四种伦理问题或风险:演算法偏误、相关技术或产品偏离原先使用目的、拥有善恶两种用途,以及演算法设计不良或现有技术限制。但人们该如何减少这些伦理问题与风险呢?培养AI 使用伦理与风险的敏锐度近五、六年来国际组织如联合国教育科学及文化组织(United Nations Educational, Scientific and Cultural Organization, UNESCO)、欧盟(European Union, EU)、电机电子工程师学会(Institute of Electrical and Electronics Engineers, IEEE)或是国家、国际非营利组织皆纷纷制订有关AI 发展的白皮书或伦理指引(ethical guidelines),甚至逐渐朝向法律治理的方向,如欧盟的人工智慧规则草案等。尽管这些文件所提出的伦理价值、原则或行为规范,看似各有不同,但经过这些年的讨论与摸索,也逐渐汇聚出一些共识。
台湾相较於前述国际文件来说,在制订的时间上比较晚。2019年由当时的科技部(现改为国科会)制订「人工智慧科研发展指引」,里面提出的三项伦理价值以及八项行为指引,基本上涵盖了前述各种国际AI 发展指引文件最常提及的内容。所谓三项伦理价值包含以人为本、永续发展、多元包容,行为指引则有共荣共利、安全性、问责与沟通、自主权与控制权、透明性与可追溯性、可解释性、个人隐私与数据治理、公平性与非歧视性共八项。
未来当读者看到又出现哪些AI 新技术或产品时,不妨试着评估看看是否有符合这三项价值及八项行为指引。若没有,究竟是哪项不符合?不符合的原因是上述所介绍常见的四种伦理问题或风险的哪一种?若都不是,还有哪些伦理问题或风险过去被忽略了但值得重视?
AI 技术发展日新月进,在日常生活中的应用也愈来愈广。但考量法律条文有强制性,在制订时必须相当谨慎,免得动辄得咎,也很可能在不清楚状况下反而制订了不当阻碍创新发展的条文。再加上法律制定也必须有一定的稳定性,不能朝令夕改,否则会让遵守法规者无所适从。因此可以想见,法令规范赶不上新兴科技所带来的问题与风险本来就是常态,而非遇到AI 科技才有这种情况。
人们若能培养自身对於AI 伦理问题或风险的敏锐度,便可发挥公民监督或协助政府监督的力量,评估AI 开发或使用者有无善尽避免伤害特定个人或群体之嫌,逐渐改善AI 开发者与大众媒体常过度夸大AI 功能,但对於可能带来的伦理问题或风险却常闪烁其词或避而不谈的不好现象。
本文感谢工业技术研究院产业科技国际策略发展所支持。