人工智能(AI)的进化速度远远超出了预期。人们越来越担心,一旦失控,这项技术可能会带来严重风险。同时,各国也在争相摸索监管标准和尺度,希望在规范发展的同时不损害其创新。


(资料图)

英国政府率先开展了一轮“闪电式外交”。据英国《泰晤士报》6月3日报道,该国政府正考虑仿照国际原子能机构(IAEA),在伦敦设立一个国际AI监管机构。首相苏纳克希望借此将英国打造为全球AI中心,承诺将在制定“安全可靠”的规则方面发挥“领导作用”。

6月7日-8日,苏纳克将带领政商表团访美。届时他将寻求美国总统拜登的支持,于今年秋季在伦敦召开峰会,与各国政府和跨国公司高层讨论制定AI的国际规则,以及建立类似IAEA的全球机构。成立于1957年的IAEA现有176个签署国,总部设在奥地利首都维也纳,致力于推广以和平方式使用核能。

另据《每日电讯报》透露,英国科学、创新和技术大臣史密斯(Chloe Smith)将于下周二在巴黎举行的经合组织技术论坛上与外国同行就相关AI议题进行会谈。该活动由英国政府资助,受邀国家包括美国、日本、韩国、以色列、澳大利亚、新西兰、巴西、智利、挪威、土耳其、乌克兰、塞内加尔。

据《经济学人》进行的联合调查,过去6年,专家们就AI对人类影响的预期趋于负面。

英国政府消息人士告诉《卫报》,希望在帮助协各国家不同的监管努力方面发挥作用,与早前欧盟选择禁止部分个人AI产品(如面部识别软件)的立场相比,建立于基本原则之上的途径更有可能获得广泛支持。

2021年,欧盟就监管AI应用公布严格法规,包括限制警方在公共场合使用人脸识别软件。今年3月,专注于AI的非营利组织Future of Life Institute发布了由超过1000名技术专家和研究人员签署的公开信,呼吁暂停六个月的大型AI模型的开发,只有当确保强大的AI系统的效果是积极的、风险是可控的,才能继续开发。

中国也不落后。早在4月11日,国家互联网信息办公室就《生成式AI服务管理办法》公开征求意见,从明确条件要求、划定责任主体、形成问题处理机制、清晰法律责任几个方面为行业划定底线。

2023年5月,欧盟推出了《人工智能法》提案,要求开发ChatGPT等生成式AI的公司,披露用于训练其模型的任何版权材料。5月24日,美国白宫科技政策办公室发布了面向公众的问卷调查,为正在制定中的综合性国家监管战略提供依据和参考。

5月30日,跨国非营利组织“人工智能安全中心”发布联名公开信——减轻AI灭绝人类的风险,应该与其他社会规模的风险(例如流行病和核战争)共同成为全球优先议题。这封公开信最初由350多名在各国从事AI工作的高管、研究人员和工程师共同签署。

紧接着在第二天,苏纳克就与OpenAI、谷歌DeepMind和Anthropic等公司的负责人进行了会谈,表示将携手确保社会从AI技术中受益,并讨论了AI带来的风险,涉及虚假信息、国家安全和生存威胁等。

在谈到上述专家的公开信时,苏纳克说到,人们会对AI构成类似流行病或核战争等生存风险的报道感到担忧,“我希望他们放心,(英国)政府正在非常仔细地研究这一课题。”

伦敦作为老牌发达国家的首都,具有政治稳定、法制完善、人才储备丰富、语言无障碍等优势。尤其是在行业集聚效应上,伦敦市政府自从2011年起便开始大力推进东伦敦科技城(Tech City)项目,是众多高科技巨头设立欧洲总部、甚至全球总部的首选。

一名高官在接受《泰晤士报》采访时就表现出十足的自信,称英国是“真正的科技超级大国,应该展现出全球领导力,并建立一个植根于共同价值观,确保国际资金支持这项工作。”

(文章来源:界面新闻)

推荐内容