生成式AI –— ChatGPT的崛起,被誉为超越「iPhone高光时刻」的壮举。但究竟是AI的iPhone时刻,还是哀痛时刻?
2023年5月,生成式AI –— ChatGPT在正式开放使用者注册後的半年,它以异军突起的多语言流利对答能力、深入至微的使用者意图理解能力、以及前瞻的逻辑推理能力,搏出惊人的一击。加上行动装置版本APP的及时推出,ChatGPT在资本市场继续引领一场AI应用情境的热潮。
同时,美军在近期一次模拟测试中,却传出为了解AI无人机的成效,在过程中采取了「高度无法预期的战略」,无预警的杀害了它的操作员。虽然此传闻立即遭到官方否认,但人工智慧的风险无所不在,却是无可否认的事实。
早在2018年三月,特斯拉执行长马斯克 (Elon Musk) 就提出「AI比核弹还要危险」的观点。无独有偶,美国国会日前对人工智慧影响的公听会中,联邦参议员霍利(Josh Hawley)也警告:「生成式AI的规模宛如网际网路的全球布局,可能酿成类似原子弹的巨大灾祸」。
图/人工智慧教父辛顿直言,人工智慧给人类带来的威胁可能比气候变迁「更加急迫」。(图片来源/达志影像)
ChatGPT推手OpenAI的执行长阿特曼(Sam Altman)亦附和,生成式AI的出现好比「印刷机发明」,能够改善和创造工作,但他更对AI可能对世界带来危害深感忧心。研究人工智慧的先驱,被视为「人工智慧教父」之一的辛顿(Geoffrey Hinton)在接受国际媒体访问时直言,人工智慧给人类带来的威胁可能比气候变迁「更加急迫」。
辛顿认为,人类对於气候变迁,已经找出了减碳的路径或方向,只要去落实,情况可能会好转。而关於人工智慧,大家目前根本「置身迷途」。
生成式AI所造成的危机,除了众所皆知,被用以撰写骇客网路攻击程式、挖掘系统漏洞、创作拟真的钓鱼邮件,或是如三星集团因使用ChatGPT而泄漏商业等等层出不穷的资安事件外,更令AI专家与政治人物担心的是愈来愈无法受控的资讯迷雾风暴,充斥真假难辨及资讯污染的网际空间,甚至利用AI的能力,引发新型态犯罪和道德违规行为。
近期一位美国律师利用ChatGPT来协助整理开庭所需的参考判决与案例,然而却被发现这些判决是ChatGPT杜撰的,引起轩然大波,不但律师可能会被惩处,连「司法」这道维护正义的最後一道防线都可能受到ChatGPT的影响。依据世界经济论坛 (World Economic Forum, WEF)预测,於2026年时网际网路上可能将有高达90%以上的内容将由人工智慧生成。
除了咏唱师,新人工智慧还需要「调音师」
图/已有企业开始招募无需科技背景,年薪号称逾千万新台币的「AI咏唱师」、或「AI沟通师」。此为示意图。(图片来源/Pexel by Matheus Bertelli)
无论政府是否将对科技和AI市场的繁荣展开更深层的监管,迈向数位转型的企业都必须具备风险意识和自救能力。
在人工智慧商用的新赛道上,企业除了大量招聘资讯工程师,投入各种AI相关的模型或延伸应用开发,更有积极进行数位转型的企业,开始招募无需科技背景,但年薪号称逾千万新台币的「AI咏唱师」、或「AI沟通师」,他们被定位为一群擅长使用ChatGPT、Midjourney等新AI工具的专家,同时运用商业知识与专业语言,唤醒生成式AI的灵魂,企图让人工智慧发挥最大的商业价值与创造最高的生产力。
然而除了一群「咏唱师」外,我们也乐见AI的「调音工程师」新角色,已经在部分AI科技巨擘,及台湾企业出现。例如美国有公司成立了致力於开发和部署「当责人工智慧(Responsible AI)」的专门委员会,分别是为技术团队提供有关如何实作人工智慧风险管理的开发指引,同时与使用者及社会大众分享人工智慧知识,做到技术知识透明化。
在台湾,我们也看见少数具备前瞻思维的公司,将人工智慧治理,引进数位转型的流程中,开始招聘「AI策略与治理顾问」,负责预防生成式AI商用可能引发的道德和法规问题。
为了进一步避免内部开发与治理人员的同质性,无形中转化内建为新应用的「AI偏见」,企业需要把更多不同利益群体,例如政策制定者、网路使用者,及外部风险顾问等的观点,引入AI开发和应用过程,这也是当责人工智慧的当务之急。
避免AI危机引爆的拆弹工程
图/OpenAI执行长阿特曼(Samuel Harris Altman)。(图片来源/Samuel Harris Altman 推特)
因为人工智慧带来的迫切危机,OpenAI执行长阿特曼在前述的听证会建议美国政府,考虑成立新的机构核准AI模型、建立一套AI安全准则规范,及要求独立专家对AI模型进行审核。此外,在美国已有法官考量到ChatGPT生成的资讯的正确度亟待商榷,也开始求诉讼双方必须揭露是否使用生成性AI技术准备诉讼文件,也必须提出已通过人类审查内容正确性的证明。
近期美国会计师协会公布的一篇专文中也特别提到,ChatGPT号称可以运用其巨大的知识资料库回答任何问题,然而其设计者却从未揭露此知识资料库的范围与规模。未来当责人工智慧,更被期待应如同企业财报一样,针对系统功能范围(避免误用)、安全性(避免系统与演法模型被攻击)、稳健性(避免答案不一致)、可靠性(避免答案错误)、合规性(避免违反与道德)、可解释性(避免决策过程黑箱难以理解)、公平性(避免偏见)等,由第三方机构进行稽核、审查、确信或验证,来确保人工智慧应用的可信任程度。
面对AI的机会与挑战,企业需扮演当责人工智慧的倡导者,结合咏唱专家、调音工程师及接受利害关系方监督,以确保AI在创新与伦理之间取得平衡,让科技的力量更具社会价值。
(专栏观点不代表本社立场;本文作者KPMG安侯建业顾问服务部营运长暨安侯企业管理股份有限公司董事总经理)