近期,人工智能领域无论是技术发展还是政策制定,都进展迅速。2024年3月,欧盟通过了全球首部生成式人工智能法案,4月,英美建立了人工智能安全科学合作伙伴关系,成为全球首批就人工智能的安全发展进行合作的国家。此外,还有更多关于人工智能应用的讨论。

法案禁止某些威胁公民权利的人工智能应用,包括基于敏感特征的生物识别分类系统,以及无针对性地从互联网或闭路电视录像中抓取面部图像以创建面部识别数据库。
2024年3月13日,欧洲议会批准了全球首部《人工智能法案》,旨在促进以人为本、值得信赖的人工智能的发展应用。
被禁止的应用
法案禁止某些威胁公民权利的人工智能应用,包括基于敏感特征的生物识别分类系统,以及无针对性地从互联网或闭路电视录像中抓取面部图像以创建面部识别数据库。工作场所和学校中的情绪识别、社会评分、预测性警务(当它完全基于对一个人的剖析或对其特征的评估时)以及操纵人类行为或利用人的弱点的人工智能,也将被禁止。
执法豁免
原则上,禁止执法部门使用生物特征识别系统(RBI)。只有在符合严格的保障措施情况下,才能使用“实时”RBI,其使用时间和地理范围会受到限制,并须事先获得特定的司法或行政授权,例如,这种用途包括有针对性地搜索失踪人员或防止恐怖袭击。事后使用此类系统(“事后远程”RBI)被视为高风险用例,需获得与刑事犯罪相关的司法授权。
高风险系统的义务
对于其他高风险人工智能系统,由于其对公民的健康、安全、基本权利、环境、民主和法治存在重大潜在危害,法案也对其做出了规定。这些高风险人工智能系统包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(例如医疗保健、银行)、执法、移民和边境管理、司法和民主进程中(如影响选举)的某些系统。对此类系统,必须评估和降低风险,并确保其受到人工监督。公民将有权提交有关人工智能系统的投诉,并获得基于高风险人工智能系统所作出的决策影响其权利的解释。
透明度要求
通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足一定的透明度要求,包括遵守欧盟版权法和公布用于训练的内容的详细摘要。对于那些可能带来系统性风险的更强大的GPAI模型,其透明度要求更高,包括模型评估、评估和降低系统性风险以及报告事件。
此外,经过人工或其他方式处理的图像、音频或视频内容(深度伪造)需进行明确标记。
支持创新和中小企业的措施
法案规定,各成员国必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以便在创新型人工智能投放市场之前,对其进行开发和训练。
(来源:欧洲议会官网)