全球首部人工智能法案,有望引领全球标准的欧盟AiAct,它是如何监管和规范人工智能AI系统?

欧洲议会2023年6月14日以499比28票的差距,表决通过《人工智能法》,法案旨在为人工智慧引入一个共同的监管和法律框架,为针对AI监管提供基本成型的轮廓。这是西方第一部全面的AI法规。早在2021年,欧盟便已启动立法程序,但在去年底ChatGPT等生成式AI工具发布后,立法者们又根据这些新工具调整了草案。

欧洲议会的立法,通常要经过繁复的程序,投票只是过程中的一个步骤,目前法案已进入欧盟监管流程的「三方会议」阶段,其中欧洲议会、欧盟委员会和欧盟理事会的代表将进行谈判和讨论。接下来,欧洲议会将与欧盟理事会和欧盟执行机构欧洲委员会商讨细节,针对目前各自手上的法案进行讨论,最终正式通过的法律将是不同草案间权衡折冲结果。由于目前草案之间存在很大差异,预计实施约需两年的时间。

人工智能法案开宗明义,把立法目的讲得很清楚,要确保欧盟的人工智能系统安全、透明、可追踪、不含歧视,以及环境友善。另外,AI系统应该要由人类监督,而不是自动化管理,以免导致有害的后果。作为监管产品的一部分,它不会赋予个人权利,但会规范人工智能系统的提供者,以及以专业身份使用它们的实体。除军事用途外,法案范围涵盖所有人工智能类型的范畴。

依照风险严重程度,把AI系统分成四大类。

第一类是风险无法接受。这类AI由于对人类构成严重威胁,因此要全面禁止,包括:利用人工智能来进行操纵人类潜意识,或利用人类或人性的弱点,可能导致人类身体上或心理上伤害;或在公共场所中,滥用实时远程生物特征识别进行执法;或使用人工智能进行「社会评分」并造成对某些人或团体不公平的对待。什么风险是高到不能接受的?其实引发不少讨论,尤其是能不能为了国安和执法,有条件开放实时性的远端生物特征辨识系统。但最终辩论结果,连为了抓捕恐怖份子,或寻找失踪儿童,都不开放实时辨识,只能允许非实时性辨识,以免AI系统沦为大规模监控的工具。

1、禁止情感辨识AI的使用:禁止在执法、学校和职场中使用试图辨识人们情感的AI工具。情感辨识软件的制造者声称,产品能判断学生是否理解特定内容,或驾驶是否在打瞌睡。主要是因为利用AI进行脸部侦测和分析被认为精准度有待商议且具有偏见。不过,其他两个机构欧盟理事会和欧洲委员会的草案中并未禁止相关使用,预期未来将可能出现争议。

2、禁止于公共场所使用实时生物特征辨识和预测式执法:不过执法团体认为这项应用对于现代执法而言,具有必要性,并不赞成对实时生物特征技术实行禁令。部分国家,如法国实际上也计划增加对脸部辨识的使用。

3、禁止社会评分:意指禁止在公共机构使用人们社会行为的数据来建立或针对个人情况进行 评分。大多数认为该评分应用主要被用于威权政府,但是,在房贷和保险费率的设定、招募和广告中,使用社会行为资料对人们进行评分是很常见的作法。

第二类是高度风险,也就是有可能损害人身安全或基本人权的AI系统,必须要在上市前接受审查,上市后也要持续追踪。例如,交通、医疗、电梯设备等等,安全性非常重要的产品。另外,关键基础建设、教育职业训练、边防移民、司法和民主程序等等,可能牵扯到歧视或基本人权的领域,也属于这一类。

针对社群媒体的推荐算法使用新限制:草案将推荐系统列为「高风险」类别,这是从其他提议的法案中升级而来。这意味着,社群媒体平台的推荐系统可能会受到更严格的审查,而科技公司将对用户的内容影响负起更多责任。

第三类是有限风险,爆红的ChatGPT等生成式AI就属于这一类。这类的规范重点是信息透明,必须标示AI生成的内容、必须让用户知道自己正在跟AI互动。目的是希望AI不要被拿来传播假信息。另外,如果AI系统的训练过程使用任何有版权的文字、影像、声音作品,也必须明确列出。这样一来,等于给了版权持有人要求分润的机会。

针对生成式AI提出限制:这是首个提出对生成式AI进行监管的草案,并禁止在大型语言模型(如OpenAI的GPT-4)的训练集中使用任何受版权保护的资料。OpenAI已经因为资料隐私和版权问题,受到欧洲立法单位的关注。该草案也要求必须在AI生成的内容上,标注其为AI生成。不过,针对这点,仍需要寻求欧洲其他国家的认可。

最后一类则是风险极低的,例如过滤垃圾信件、游戏软件等等,其实绝大多数应用应该是属于这类,就不需要面对任何特殊规范。

小结:企业必须提交有关其使用AI的风险评估。如果立法者认为风险「不可接受」,一些AI应用将被完全禁止;而被视为「高风险」的应用将受特定法律要求,包括新的使用限制和透明度要求。
  ►生成式AI系统的制造商,必须采取保护措施,以防止它生成非法内容。
  ►公司必须标记AI生成的内容,以防止AI被滥用来传播谎言。
  ►制造商必须提供摘要,揭露用来训练AI模型的资料来源。
  ►当出版商和内容创作者的作品被ChatGPT等工具用作生成内容的材料时,制造商要向创作者提供分润方案。
   如果违规,欧盟将依照情节轻重和比例原则处以罚款。例如,如果推出风险无法接受的AI系统,将面对4000万欧元或全球营收7%的罚款,而且是取两者较高的为准。相较之下,欧盟为了保护个资的GDPR法规,罚款最高是1000万欧元或全球营收的2%,所以AI法的罚则算是蛮重的。

欧盟AI法有望引领全球标准

针对欧盟的AI法草案,微软和IBM等正在拼命开发AI的大公司,都给予正面评价,表示乐见相关法律规范,但是也提醒,具体要如何划分风险层级,尤其是哪些系统属于高风险,恐怕需要更细致的规范。

虽然在开发先进AI方面,欧盟落后美国,但美国的相关立法工程迟迟没有开始动工,2023年7月22日美国总统拜登 (Joe Biden)宣布,包括Google、亚马逊、Meta和ChatGPT开发商OpenAI等人工智能(AI)巨擘承诺同意执行政府的科技新措施,包括在AI生成的内容上加上水印,以加强这项科技的安全性。承诺加入的科技业者还包括亚马逊、微软、Anthropic和Infection,业者承诺会研发一个系统,把所有AI生成的内容,包括文字、影像、语音和影片加上「水印」,让使用者知道何时使用这项科技。这个水印会以技术方式嵌人内容,可以让使用者更快认出深伪的影像或语音,例如显示某些暴力事件根本没有发生过,只是为了制造更好的诈骗,或是扭曲一位政客的照片,破坏公众对他的观感。