content

与核战同样危险 专家们警告:AI恐灭绝人类(图)

 2023-05-31 11:04 桌面版 正體 打赏 2

2023年2月7日,OpenAI 首席执行官阿特曼(Sam Altman)在华盛顿雷德蒙德的 Microsoft宣布为Bing集成ChatGPT的主题演讲中发表讲话。
2023年2月7日,OpenAI 首席执行官阿特曼(Sam Altman)在华盛顿雷德蒙德的 Microsoft宣布为Bing集成ChatGPT的主题演讲中发表讲话。(图片来源:Jason Redmond/AFP via Getty Images)

【看中国2023年5月31日讯】30日,一群业界高管与专家提出警告,全球领导人应该致力于降低人工智能AI)技术带来之“人类灭绝”的风险。

根据法新社报导指出,包括了阿特曼(Sam Altman)在内的数十位专家们连署一份简短的声明。该声明表示,应对AI所带来的人类灭绝风险,应该要列为“与应对疫情及核战同层级的全球优先要务”。而阿特曼的公司即是OpenAI研发了ChatGPT聊天机器人。

ChatGPT能够依据简短的指令来编写文章、诗歌与对话,所以在去年底就一炮而红。该程式的巨大成功已经吸引了AI领域数十亿美元之投资,不过批评者与业界人士皆发出了警告。

常见的忧心包括聊天机器人可能会导致假消息充斥网络,且带有偏见的算法将可能会产出种族主义的内容,甚至AI驱动的自动化亦也可能摧毁整个产业等。

公布于非营利组织“人工智能安全中心”(Center for AI Safety,CAIS)网页上的这份最新声明中,并没有详细说明了AI可能带来之潜在生存威胁。

CAIS表示,此份“言简意赅的声明”旨于开启对于AI技术风险之讨论。

在声明中有数名签署人,其中包括被称是“人工智能教父”的辛顿(Geoffrey Hinton),他在过去也曾经提出类似的警告。

他们最大的忧心就是所谓的“通用人工智能”(Artificial General Intelligence,AGI)之崛起,亦即具备人类认知能力的人工智能。

他们害怕,人类将会失去对于这些超智慧机器之掌控权。专家曾经警告称,这可能会对物种及地球造成灾难性的后果。

声明的连署人之中,也包括来自于AI领先企业谷歌(Google)与微软(Microsoft)的专家。

早在2个月之前,亿万富豪马斯克(Elon Musk)与其他数百名专家也曾发表了一封公开信,他们呼吁在确定安全无虞之前,应该暂缓AI的研发工作。

然而,马斯克的信却引来广泛批评。有人则认为,信中关于社会与文明崩溃的警告太过夸大了。

阿特曼赴美国国会听证 AI应制定规范

17日,美国国会正针对监管AI寻求共识,而OpenAI的执行长阿特曼第一次赴国会听证,在面对议员提出关于AI影响选举、就业与过度集中在少数企业之问题,他呼吁应该成立一个专责机构来加强规范。

OpenAI在去年底推出了聊天机器人ChatGPT,在2个月活跃用户竟然破亿,使得外界对加速控管AI之呼声高涨,近期美国政府与国会也对立法监管AI进行研议,这是阿特曼首次赴国会听证,而被视为两党议员就此议题来寻求共识的重要一步。

阿特曼在听证会中建议美国政府应考虑实施3项计划,也就是成立新的机构批准AI模型、应建立一套安全准则规范AI的模型、要有独立专家学者来对AI模型进行审核。

甚至他支持设立一个国际组织来为AI制定标准,而举出管制核武已经有前例。

据《华尔街日报》指出,阿特曼于15日已经与两党大约60名众议员私下会晤,此外,《华盛顿邮报》援引不具名国会议员助理的消息表示,17日下午阿特曼与国会负责人工智能议题成员进行一场简报会议。

責任编辑: 王君 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意