人工智能(AI)米卡“Mika”成为全球首位类人机器人CEO (图片来源:FABRICE COFFRINI/AFP via Getty Images)
【看中国2024年3月28日讯】华盛顿——联合国大会3月21日以共识方式通过了一项美国牵头的倡议,旨在管理人工智能(AI)的风险,同时利用其优势。这是联大通过的首项此类决议。
美国驻联合国大使琳达・托马斯-格林菲尔德(Linda Thomas-Greenfield)当天的一番话应该道出了世界对AI的复杂情绪。她说:“今天,联合国和人工智能终于交汇在一起,我们有机会也有责任选择作为一个团结的全球社区来治理这项技术,而不是让它治理我们。”
但在此之前,美国、欧洲、中国和其他跻身AI热潮的国家已经在试图通过政策和立法规避AI的风险因素,尽管政府监管的速度总是难以追上这一新科技的发展速度。
2024年里,世界将忙着思考AI的监管。美国之音为你简单梳理一下世界各国为保障AI安全迄今已做的监管努力。
为何需要AI立法?
AI正只手掀起人类“第四次工业革命”--新闻写作、新闻主持、艺术创作、起草法案、金融分析、病情诊断、脑部手术、赛事预测、无人驾驶、核反应堆、精尖武器、作战指挥……以及在2023年爆红的生成式AI聊天机器人ChatGPT。
“它比火或电更加影响深远”,谷歌母公司Alphabet首席执行官桑德尔・皮查伊(Sundar Pichai)如此描述人工智能(AI)。
AI为人类开拓新机会的每一步令人惊喜,然而,AI行业领袖们在去年纷纷警告,AI技术将来可能威胁到人类的生存,应与大流行病及核战争一同视为人类社会面临的风险。AI将拯救人类,还是毁灭人类?
AI带来的风险正在显现:黑客攻击,隐私和个人权益侵犯,替代人类工作致失业问题,真假难辨的错误及虚假信息迅速传播、社会偏见和歧视不断加深、社会不公正扩大,以及在军事、医疗、司法领域使用AI带来的伦理困境,等等。
AI创建和传播虚假图像和视频的例子层出不穷。最近引发广泛关注的事件包括AI生成的美国歌星泰勒・斯威夫特(Taylor Swift)露骨照片在网络上疯传,以及AI生成的一张五角大楼附近发生爆炸的虚假照片在社媒上疯传,导致美国股市一度闻风跳水。
最近,一张假照片在网络上引起了一阵骚动。这张照片显示的是美国五角大楼附近的一次大爆炸,但实际上,这只是一张人工智能生成的假照片。这张照片在社交媒体上广泛传播后,甚至影响到了股市,导致美股短暂下跌。… pic.twitter.com/ZEVs6FouSU
— AI游人 (@yr_0042) May 26, 2023
“在监管技术方面,政府有低估该技术新特性的记录,”美国科技公司Unanimous AI首席执行官路易斯・罗森伯格(Louis Rosenberg)此前告诉美国之音。
欧盟如何监管AI?
欧洲议会3月13日通过了一项被舆论普遍视为迄今全球最全面的AI立法,预计5月生效。法案引入严格的透明度要求,并要求科技公司对高性能AI模型的应用进行风险评估。
- 法案将AI技术分为“不可接受”、“高”、“中”和“低”四个风险等级。风险级别越高,相关科技企业需遵守的要求就越严格。
- 该法案禁止某些威胁公民权利的AI应用,比如无目标抓取面部图像以扩建面部识别数据库,在工作场所和校园识别情绪,对求职申请进行分类,预测性警务等等
- 法案要求高性能AI模型的开发商--比如创建ChatGPT的生成式AI领军机构OpenAI--需对这些AI模型进行最先进的安全评估。一旦模型发生严重事故,须上报监管部门。法案也规定这类AI开发商必须报告它们的能源消耗,实施潜在风险缓解措施和针对黑客的网络安全保护措施。
- 法案要求对“深度合成”(Deep Fake)的图像、视频和音频进行明确标记。深度合成即通过AI生成和操纵看似真实的图像、视频和音频。
- 违反规定的公司将面临最高约合3770万美元或该公司全球营收7%的罚款。
该法案适用于所有在欧盟市场上的AI产品,不管其开发地在哪里。在“布鲁塞尔效应”下,欧盟的AI标准可能影响全球。《华尔街日报》报道说:“因为大型AI公司不太可能愿意放弃进入拥有约4.48亿人口的欧盟。其他司法管辖区也可能将该新法作为其AI法规的范本,从而产生连锁反应。”
美国如何监管AI?
与欧洲不同,美国至今还没有专门针对AI的联邦法规。但特定行业的AI应用受该行业现行法律法规的约束。比如,美国食品和药物管理局(FDA)监管AI医疗,联邦贸易委员会(FTC)监管AI驱动的产品和服务,交通部监管无人驾驶汽车,等等。
- 拜登总统10月30日签署了一项监管AI的行政命令,设定了国家安全、消费者隐私和公民权利保护、公平竞争的标准,建立一套早期的AI“护栏”,以便后期通过立法和全球协议进一步落实规范。其中,行政令要求科技公司在开发高风险AI模型时通知政府,并通过“红队”(Red Team)测试评估AI模型的安全风险。
- 美国国会已开始针对AI立法采取更多动作,对建构一套监管机制非常感兴趣。拜登在此前的国情咨文演讲中也呼吁国会紧急行动起来,立法监管人工智能。
- 路易斯安那州共和党参议员约翰・肯尼迪(John Kennedy)与夏威夷州民主党参议员布莱恩・沙茨(Brian Schatz)合作提出《AI标识法案》(AI Labeling Act),要求科技公司对AI生成的内容进行标识、并告知消费者相关AI科技背后的所有者身份。
- 密苏里州共和党参议员乔什・霍利(Josh Hawley)和康涅狄格州民主党参议员理查德・布卢门撒尔(Richard Blumenthal)合作启动一项AI立法框架,寻求建立一个专门监管AI的联邦机构,要求科技企业在推出ChatGPT这样级别的大语言模型之前需获得许可,并对侵犯隐私和民权的科技公司问责。
- 也有一些针对特定领域AI使用的提案:其中一项寻求禁止允许AI或没有人类控制的自动化系统发射核武器。另一项将要求政治竞选广告中人工智能生成的图像和声音被明确标注。
- 彭博社援引美国各州议会的数据报道称,2023年,美国至少有25个州考虑了与AI相关的立法,其中15个州通过了相关法律或决议。拟议的立法旨在限制在就业、保险决策、医疗保健、选举计票和公共场合的面部识别等方面使用人工智能。
“对美国来说,最有可能的结果是由行政部门的行动自下而上地拼凑出一套法规,”美国战略与国际研究中心(CSIS)战略技术项目高级顾问比尔・怀曼(Bill Whyman)写道。“与欧洲不同,美国不太可能在未来几年通过一项广泛的全国性的人工智能立法。成功的相关立法可能集中在争议较少和有针对性的措施上,比如对人工智能研究的资助和人工智能儿童安全。”
“美国式的监管通常没有欧洲和亚洲那么严格。长期以来,倾向于自由放任或最低限度监管是美国制度的特点,”纽约大学媒体技术教授W・罗素・纽曼(W.Russell Neuman)此前接受美国之音采访时说。“这是美国联邦和州对商业的态度的特点,即对监管持谨慎态度,担心监管会比监管机构最初的担心的更糟糕。”
布鲁金斯学会(Brookings Institution)人工智能和新兴科技倡议项目政策总监杰西卡・布兰特(Jessica Brandt)此前对美国之音说:“自由民主国家面临的挑战是,既要确保人工智能以负责任的方式发展和部署,也要支持一个能吸引人才和投资的有活力的创新生态系统。”
中国如何监管AI?
去年8 15日,中国的《生成式人工智能服务管理暂行办法》正式施行。该法被认为是全球首部生成式AI立法。当中24条法规的监管对象是创建图像、视频、文本和其他内容的生成式AI服务,比如ChatGPT。法规强调开发人员对他们创建的AI模型所输出的内容“负有责任”。
- 法规规定,“提供具有舆论属性或者社会动员能力的生成式人工智能服务的”科技公司需对AI模型进行安全评估,并将其算法在监管机构备案。
- 通过AI生成的内容必须进行明确标注。
- 科技公司须确保其AI模型生成的文字和图片是缺准、可靠的,获取数据的来源是合法的。
- 法规提出了尊重数据隐私、保护知识产权和公民权利方面的规定。
- 但与大多数其他国家不同的是,该法规规定生成式AI输出的内容必须反映“社会主义核心价值观”,遵守政府的审查规定,避免诋毁中国领导人或触碰政治红线,“不得含有颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一”的内容。
中国科技巨头百度当8月31日正式向公众发布了自行研发的生成式人工智能聊天机器人“文心一言”。美国之音的测试发现,这款希望能与ChatGPT竞争的大型语言模型带有重重审查,极力避免回答涉及敏感话题的问题。在一些情况下,“文心一言”会自动结束对话,并建议使用者输入别的问题。https://t.co/7nSRcudiIu pic.twitter.com/HbFsW2JhJH
— 美国之音中文网 (@VOAChinese) September 1, 2023
尽管中国在AI技术创新方面仍落后于美国,但在AI监管立法方面被广泛视为先行者之一。这部专门针对生成式AI的立法建立在更早前出台的深度合成和算法推荐相关的人工智能法规基础上--
- 《互联网信息服务深度合成管理规定》于2023年1月10日生效。其中一项要求就是向网信办提交深度合成算法进行备案。
- 《互联网信息服务算法推荐管理规定》于2022年3月1日生效,规范了使用算法推荐技术在中国境内提供网络服务的行为。
- 中国互联网监管机构也在去年8月宣布了旨在约束人脸识别技术应用的规则草案。草案在限制人脸识别技术使用的同时又为国家安全相关的使用开了许多绿灯。
AI治理的未来需要全世界的共同努力。今年5月,联合国国际电信联盟将主办人工智能向善峰会;今年9月,联合国未来峰会将寻求通过《全球数字契约》。
(文章仅代表作者个人立场和观点) 来源:看完这篇文章觉得
排序