12月8日,在经过一周的马拉松式的谈判和激烈争论后,欧盟委员会、欧洲议会和欧盟成员国代表就《人工智能法案》(AI Act)达成初步协议,新法案涉及包括ChatGPT在内的通用目的AI系统。
这是全球首份针对AI监管的全面法规,意在保护人类基本权利和不阻碍人工智能行业发展之间寻求平衡。法案的技术细节内容还在讨论中,最终文本没有对外公布。
根据欧洲议会和欧盟委员会公布的信息,法案将AI系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,按照风险级别制定相应规定。
不可接受风险等级的AI应用将被直接禁止,包括在特定情况下使用生物特征分类系统和人脸识别系统。法案还专门针对通用AI系统(general-purpose AI)设置规定,存在系统性威胁的通用AI将接受更严格监管。
图片来源:欧洲议会
欧洲议会官网8日的声明列出了将被禁止的AI应用类型,包括:
- 使用敏感特征的生物特征分类系统,敏感特征涉及政治、宗教、哲学信仰、性取向、种族。
- 网络或视频监控进行无目标的人脸信息收集以创建人脸识别数据库。
- 工作场所和教育机构进行表情识别。
- 根据社会行为或者个人特征进行社会评分。
- 操纵人类行为、绕开人类自由意志的AI系统。
- 剥削脆弱人群的AI系统。
欧盟委员会解释,对人类基本权利构成明显威胁的AI系统属于不可接受风险级别,此类系统将全部禁用。
但在包括人脸识别在内的生物识别系统应用中,欧盟的AI法案将允许执法部门在严格限制条件下,对涉嫌或者已经被判决犯下重罪的人员进行非实时远程生物识别。
执法部门要进行实时生物识别只能在特定情况下,例如寻找受害人、阻止恐怖袭击威胁、定位识别犯下谋杀等严重罪行的嫌犯。
AI系统风险分级。图片来源:欧洲委员会
高风险级别为有很大可能伤害人类健康、人身安全、基本权利或者破坏环境、民主和法治的AI系统。例如,能源领域和医疗机构关键基建使用的AI系统,招聘员工、教育机构接收学员的系统,执法部门、边境管控使用的AI系统。能影响选举结果和选民行为的系统也被视为高风险。
这类系统在使用时需要符合一系列严格要求,包括设立风险缓释系统、活动日志记录、详细归档、详细的使用者信息、人类工作人员监督。一旦认为自己的权利受到损坏,公民将有权对相关AI系统进行投诉。
低风险级别系统则为没有对公民权利或者安全构成威胁或者威胁很小的AI系统。此类系统可以自由使用,例如垃圾邮件过滤器、推荐系统。
特定透明度风险则涉及聊天机器人、深度伪造内容。在提供聊天机器人服务时,提供方需让用户知道与自己对话的是机器;深度伪造和其他AI生成的内容则应该被标记说明。提供方在使用表情识别或者生物特征分类系统时应该告知用户。
除此之外,提供方在设计系统时需要将合成的视频、音频、文字和图像标注为机器可读格式,并且能够被检测出是AI生成内容。
对于类似ChatGPT的通用AI系统(GPAI)以及相关的GPAI模型,提供方需要制作技术文件、遵守欧盟版权法、披露训练系统时使用的数据内容汇总。
如果高强度的GPAI模型构成系统性风险,则还需满足一系列更严格的要求,包括进行模型评估、对抗测试、降低系统性风险、发生严重事故时向欧盟委员会汇报。欧洲议会和欧盟委员会周五公布的说明没有解释哪些风险属于系统性风险。
在监督上,欧盟成员国的市场监督部门将负责监督AI法在各国的执行。欧盟委员会则将设立新的欧洲AI办公室负责成员国间的协调,AI办公室还将负责监督GPAI模型规则的执行情况。
各企业和机构违反欧盟的AI法将面临罚款。罚款金额最低为750万欧元或公司营业额的1.5%,最高3500万欧元或公司全球营业额的7%。
之后,欧盟代表还将对AI法案的部分技术细节进行完善,最终文本或有所调整。确定法案最终文本后,欧洲议会和欧盟委员会将对法案进行投票。法案全部实施最早预计需到2025年,彼时AI领域很可能已经有了新的发展。
欧盟科技领域部分人士指责新的AI法案阻碍行业发展、浪费企业资源。科技行业组织“数字欧洲”总干事博内费尔德-达尔(Cecilia Bonefeld-Dahl)认为欧盟AI法的严苛要求会让科技公司为遵守法律而耗费大量资源,还需要花更多钱请律师而不是聘请AI工程师。
但人权组织不满欧盟的法案存在诸多漏洞,没有规范AI系统在移民和边境管控上的使用,还为企业避免系统被定为高风险提供了操作空间。
虽然不完美,但欧盟的首个AI法将成为其他国家的重要参考。美国媒体指出,欧盟此前推出的数字隐私法案、数据保护规定已经让部分美国科技公司调整了欧盟外的用户数据处理流程。美国也在探索制定自己的AI法。
文章来自于微信公众号 “界面新闻”(ID:wowjiemian),作者 “安晶”
发评论,每天都得现金奖励!超多礼品等你来拿
登录 后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则