content

Open AI担心未来十年超级智能导致人类灭绝(图)

 2023-07-10 05:26 桌面版 正體 打赏 0

OLIVIER DOULIERY/AFP via Getty Images -
人工智能(AI)技术公司OpenAI(OLIVIER DOULIERY/AFP via Getty Images)

【看中国2023年7月10日讯】人工智能(AI)技术公司OpenAI担心,未来十年超级智能的实现可能导致人类灭绝,该公司正在正在组建团队防止这一切的发生。

全球流行的聊天机器人ChatGPT的制造者OpenAI表示,人工智能将为新的超级智能提供动力,帮助解决世界上最重要的问题,并成为人类发明的最重要技术。

然而,OpenAI联合创始人兼首席科学家苏茨克韦尔(Ilya Sutskever)和OpenAI联盟负责人雷克(Jan Leike)警告,人类还没有准备好应付超级智能。“超级智能的巨大力量可能非常危险,可能导致人类丧失权力,甚至灭绝,”苏茨克韦尔和雷克在OpenAI的博客上写道,“虽然超级智能现在看起来还很遥远,但我们相信它可能在十年内到来。”

OpenAI最顶尖的科学家表示尚无计划阻止AI推动的世界末日即将到来。“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控,”两人写道,“我们目前调整人工智能的技术,如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”

两人透露,公司正在招聘研究工程师、科学家和管理人员,以组建新团队,并限期四年通过解决超级智能的技术挑战来帮助预防世界末日。

OpenAI领导人表示,他们并不能保证能阻止人类潜在的终结,但仍持乐观态度。

美国国会也担忧AI的潜在风险。参议院多数党领袖舒默(Charles E.Schumer)呼吁制定管理AI的新规则,参议院司法委员会将继续举办AI监督的听证会,包括对AI可能导致网络攻击、政治不稳定和部署大规模杀伤性武器的担忧进行审查。

5月,OpenAI首席执行官奥尔特曼(Sam Altman)在参议院司法委员会作证时表示,他担忧AI工具可能被滥用来操纵人类。

参议院司法主席德宾(Richard J.Durbin)表示有兴趣创建“AI问责制度”,其中包括人工智能工具造成损害时潜在的联邦和州民事责任。

谷歌和微软等大型科技公司(OpenAI的捐助者)也呼吁对AI进行新的监管,联邦政府正在倾听。

拜登政府正忙于制定国家AI战略,白宫高级官员每周会就AI相关问题举行多次会议。

OpenAI周四表示,它正在向公众提供其“最强大”的人工智能模型GPT-4,以提高开发人员的可访问性。

来源:看中国 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意