人工智能(AI)技术正在改变世界,也在重塑着人类社会。然而发展至今,AI技术已经显露出许多亟需关切的监管问题,如数据隐私和数据安全、算法黑箱、技术滥用等,尤其是个人隐私不经允许被互联网公司泄露和滥用已经成为当今世界一大共同难题。
欧盟委员会于4月21日正式发布一项针对AI的法律草案。这份长达81页的草案指出,欧盟将禁止使用AI系统建立社会征信体系,同时将彻底禁止一些对个人隐私构成“高风险”的AI应用。这意味着未来不符合准入标准的AI系统,可能无法进入欧盟。如果该法案获得通过,欧盟将有望成为全球首个对AI立法的地区,这会对其他国家和地区AI监管法规的出台起到示范作用。
加强AI监管
根据欧盟委员会公布的这项草案,AI在一系列活动中的使用将受到限制,这些活动包括自动驾驶汽车、申请银行贷款、大学招生录取以及考试评分等。它还将涵盖执法系统和法院对AI的使用,这一领域通常被视为“高风险”,因其可能威胁到人们的安全或基本权利。
草案规定,如有公司违反欧盟规则使用被禁止的AI应用,比如使用AI应用严重扭曲人们的行为、剥削弱势群体或在社会评分中使用有偏见的数据,则有可能会被处以最高3000万欧元或相当于其全球营收6%的罚款,高于此前提议的4%。此外,企业如果要部署被视为对个人隐私构成“高风险”的AI系统,那么不仅需要受到审查,而且系统的创建者必须证明其是通过可追溯的方式并处于人工监督之下。
草案的另一部分涉及支持欧盟AI发展的措施,包括推动欧盟成员国建立监管沙箱(虚拟系统程序)计划,在将AI系统推向市场之前,初创企业和中小企业可以优先获得开发和测试AI系统的支持。草案规定,主管部门“应被授权对参与沙箱实体的AI项目行使酌处权和比例杠杆,同时充分保留主管部门的监督和纠正权力”。
欧洲议会和欧盟委员会指出,新的法律框架旨在避免欧洲在人工智能开发、部署和使用方面落后于其他国家及地区,并希望通过制定新的规则助力欧盟在这一领域的领先地位。
积极酝酿立法
近年来,欧盟不断试图在支持创新和确保AI技术不侵犯欧盟5亿人口隐私两方面寻求适当的平衡。在发布此次草案之前,欧盟对AI监管的计划已经酝酿了一段时间。
2018年4月,欧盟委员会发布了一份政策文件《欧盟人工智能》。欧盟认为,AI的发展可能会引发新的伦理和法律问题,欧盟必须确保AI在适宜的框架内发展。这个框架既能促进科技创新,又能尊重欧盟的价值观、基本权利和道德原则。在欧洲价值观的基础上,欧盟委员会提出了一种三管齐下的方法:增加公共和私人投资,为AI带来的社会经济变革做好准备,并建立适当的道德和法律框架。
2019年4月8日,欧盟委员会发布一份AI道德准则。准则由2018年12月公布的AI道德准则草案演变而来,要求不得使用公民个人资料作出伤害或歧视他们的行为。
2020年2月,欧盟委员会发布了一份《人工智能白皮书》,提出欧洲的AI战略旨在提高AI领域的创新能力,同时促进道德、可信赖AI技术在欧洲经济领域的应用。委员会没有在此阶段提供拟议的法规,而是提出了任何法规框架都必须涵盖的法律要求,以确保AI仍然值得信赖,并尊重欧盟的价值观和原则。
2020年10月20日,欧洲议会通过了有关欧盟如何更好地监管AI的三份立法倡议报告,期望推动AI的立法进程,以促进创新、道德标准和技术信任。
此次提出的立法草案是欧盟扩大其作为全球科技执法者角色努力的一部分。如果草案获得通过,不仅将对亚马逊、谷歌、脸书和微软等大型科技公司产生深远影响,同时还将对使用这一技术来研发药物、承销保险以及评判信用度的其他公司产生冲击。
通过尚需时日
欧盟在技术行业监管方面一直是全球最积极的,其发布的监管政策常被其他国家用作模板。目前,全球仅有少数机构提出要针对AI制定全面的法律框架,因此欧洲议会此次对AI拟定的法律新规则意义特殊、影响深远。
欧盟委员会执行副总裁韦斯特格表示,这一监管法规解决了AI在某些特殊用途方面给人类和社会带来的风险。“我们认为这是紧急事件,我们是这个星球上首个提出这一法律框架的。”
欧洲议会认为,完善法律条款对AI的商业发展有两大促进作用:一是为AI解决方案的开发者和部署者提供法律确定性,从而提高商业可预测性并促进投资;二是在全球范围内创建公平的监管竞争环境,促进行业发展。
全球最大的隐私保护组织IAPP协会副主席Omer Tene在社交媒体上表示:“这项立法代表了欧盟在新技术和创新方面的新尝试,当人们对数据的使用边界不清晰时,那么请用法律来监管。”
不过,也有人指出,草案有些条款似乎过于模糊,有太多漏洞可钻。
尽管褒贬不一,但可以肯定的是,这份草案在成为法律之前还有很长的路要走。在欧盟,此类法律必须得到代表欧盟27国政府的欧洲理事会和直接选举产生的欧洲议会的批准,整个过程可能需要数年时间。如果届时法案被采纳,那么欧洲也将成为首个以法律形式规范AI数据采集使用的地区。
本报见习记者 王卫 本报记者 吴琼