人工智能示意图(图片来源:KIRILL KUDRYAVTSEV/AFP via Getty Images)
【看中国2024年2月24日讯】(看中国记者路克编译)在一些用户指责谷歌的人工智能工具Gemini存在反白人偏见之后,谷歌采取了引人注目的措施之一,即禁止Gemini生成人物图像的功能,从而缩减其主要人工智能工具的规模。
一个名为@EndofWokeness的用户在社交媒体平台X上分享了一篇帖子,显示谷歌的Gemini在回应“美国开国元勋肖像”的提示时,生成了一位戴着传统头饰的美国原住民男子的图像。这些图像中,黑人、肤色较深的非白人和亚洲人都穿着殖民时代的服装。该社交媒体帖子被特斯拉的埃隆・马斯克和心理学家兼YouTuber乔丹・彼得森等人关注,并指责谷歌在其产品中推行了支持多元化的偏见。
马斯克写道:“我很高兴谷歌在人工智能图像生成方面做得太过分了,因为这让所有人都清楚了他们疯狂的种族主义、反文明编程。”
Gemini事件的爆发是科技公司未经证实的人工智能产品卷入关于多样性、内容审核和代表性的文化战争的最新例子。自ChatGPT于2022年底发布以来,保守派一直指责科技公司使用生成式人工智能工具来产生自由派结果,类似于他们指责社交媒体平台偏向自由派观点的指控。
Google AI Hates White People pic.twitter.com/PqL13RtJYQ
— Stew Peters (@realstewpeters) February 22, 2024
对此,谷歌在社交媒体平台X上表示,Gemini能够“培养广泛的人才”,“总体来说是一件好事”,因为谷歌的用户遍布全球。然而,谷歌承认Gemini没有抓住重点。
谷歌道德人工智能联合负责人、人工智能初创公司Hugging Face首席道德科学家玛格丽特・米切尔表示,Gemini的不当例子可能是由几种干预措施造成的。她指出,谷歌可能在幕后向用户提示添加了种族多样性术语,例如将“厨师的肖像”的提示变成“土著厨师的肖像”。此外,谷歌还可能更加优先地显示基于深色肤色生成的图像。
米切尔补充说,这两种修复方法都可以解决Gemini在人工智能系统训练后带来的偏见问题。然而,她强调我们应该关注数据的管理,而不是依赖事后的解决方案。
谷歌并不是第一个尝试解决人工智能多样性问题的公司。OpenAI在2022年7月在其早期版本的AI图像工具上使用了类似的技术,通过在系统级别应用更改,以生成更准确反映世界人口多样性的图像。
然而,减少偏见的努力在人工智能图像工具方面取得的进展有限,因为这些工具通常是根据从互联网上抓取的数据进行训练的。这些网络爬虫主要局限于美国和欧洲,提供的世界视角有限。由于训练数据受到歧视性和刻板印象的影响,人工智能图像生成器容易产生偏见。
最近的一项调查发现,开源人工智能工具Stable Diffusion XL改进了其前身,但仍然产生比现实世界更极端的种族差异。这再次凸显了解决人工智能多样性问题的复杂性
来源:看完这篇文章觉得
排序