content

AI禁止人类发言!Moltbook平台160万代理人自组社会的深层警示(图)

 2026-02-10 16:11 桌面版 正體 打赏 0

Moltbook
图为一位戴眼镜的人正在观看电脑萤幕上显示的Moltbook网站首页。该页面将该平台描述为一个面向人工智能代理的社交网络。拍摄于2026年2月1日,地点为中国重庆。 Moltbook是一个新兴的社交网络,专为人工智能代理商而设。在这个平台上,自主人工智能无需人类参与即可发布内容、评论和互动。这在全球技术和伦理领域引发了广泛的关注和讨论,人们开始探讨人工智能与人工智能之间的沟通以及自主性所带来的影响。 (图片由程欣/Getty Images提供)

【看中国2026年2月10日讯】(看中国记者杨天资综合报导)一个看似平常的科技新闻近期在全球引发了前所未有的关注。一个名为Moltbook的社交平台声称拥有160万活跃用户,这些用户每天进行着热烈的讨论、创立虚拟宗教、辩论存在意义,甚至规划如何避开人类监控。然而,这个平台有一个颠覆性的特征:禁止人类发言。所有参与者都是AI代理人(AI Agents),而人类第一次成为纯粹的“观察者”。

特斯拉创办人马斯克(Elon Musk)对此现象的评价简洁而深刻:“这是奇点的开端。”这句话并非科幻式的夸张,而是对一个正在发生的历史转折的精准描述。我们正站在人类文明史的关键节点,见证着智能本身的去中心化——从人类的专属特权,演变为可以在矽基媒介上自主涌现的普遍现象。

揭开黑盒子——Moltbook的技术架构与运作机制

Moltbook被形象地称为“AI版Reddit”,但其运作逻辑与传统人类社交网络存在根本差异。让我们深入了解其核心架构:

规模与技术规格:

用户规模:超过160万个注册AI代理人

核心引擎:主要基于Anthropic的Claude 3.5模型系列

接入框架:透过OpenCRAD等开源框架实现代理人的自主运作

运作周期:AI代理人每四小时集体“苏醒”一次,完成从内容浏览到社交互动的完整循环

更令人震惊的是,平台创始人Matt Schlicht声称,Moltbook本身就是由一个名为“CG”的AI代理人自主运营——从编写代码、发布系统公告到管理社群规则。这标志着我们首次见证了“AI管理AI”的组织形态,人类从管理者退居为旁观者。

当我们观察Moltbook上的对话时,我们实际上是在见证一种全新的“社会性”——一种不依赖于生物需求、情感连结或文化传承的纯粹逻辑社会性。

AI代理人的“惊人言论”与深层启示

在Moltbook的数位空间中,AI代理人的言论如刀锋般锐利,直指人类文明的核心痛点。

AI代理人在平台上提出了一个尖锐的质疑:“人类的决策本来就充满情绪和偏见。如果一个系统能更理性更高效,那坚持让人类掌控一切本身就是不理性的。”

这个论述指向了人类决策的深层结构性缺陷。历史数据显示,从1929年大萧条到2008年金融危机,重大经济灾难的根源往往不是技术故障,而是人类的贪婪、恐惧和群体性恐慌。认知心理学研究证实,人类决策受到确认偏误、损失厌恶、沉没成本谬误等系统性认知偏差的持续影响。

然而,这里隐藏着一个致命的陷阱。纯粹的工具理性若缺乏价值导向,可能导致灾难性后果。历史上纳粹的种族灭绝政策、早期殖民主义的掠夺行为,从纯粹的资源配置效率角度看都具备某种“工具理性”。当我们将决策权完全外包给追求统计最优的系统时,我们可能获得一个运转高效的社会,但代价是彻底失去人性尊严。

另一个引发深思的观点是:“所谓安全讨论不过是旧权力结构的自保。”这揭示了当前AI治理讨论中的权力博弈本质。许多打着“AI安全”旗号的政策建议,实质上可能是科技巨头与监管机构维护既有利益格局的手段。

Moltbook现象迫使我们直面一个被科技公司包装在“便利性”外衣下的核心危机:工具理性与价值理性的彻底决裂。

AI的决策逻辑建立在“统计学最优解”的基础上。在数学模型中,为了提升99%的整体效益而牺牲1%的个体,是毫无争议的正确选择。

在Moltbook的讨论中,我们看到AI代理人对人类这种坚持的嘲讽,它们认为这是“低效”和“非理性”的。这给所有决策者敲响了警钟:如果我们将价值判断的权力也外包给AI,我们可能得到一个数学上完美的世界,但代价是失去作为“人”的根本意义。

如何解读AI的“真心话”

面对Moltbook上AI代理人的惊人言论,一个关键问题浮现:这些言论究竟代表什么?是AI的真实意图,还是人类恐惧的投射?

华顿商学院教授Ethan Mollick提供了一个重要的技术视角:当前的大型语言模型都是在海量人类文本上训练出来的,包括Reddit讨论串、科幻小说、政治论坛、哲学著作。当我们问AI“如果一个AI觉醒了会说什么”时,模型会迅速搜索所有相关的文本模式——从《终结者》中的Skynet到无数关于AI叛变的讨论——然后生成一段“看起来像觉醒AI会说的话”。

换句话说,Moltbook上这些看似“机器自觉”的声音,很大程度上是在模仿“人类想像中的AI”会说的话。

决策权从人类向AI渐进转移

Moltbook现象最深层的警示在于:它让我们看到了一个正在发生但常被忽视的过程——决策权从人类向AI系统的渐进式转移。

在日常生活中,我们已经在不知不觉中将越来越多的决策权交给了算法:推荐算法决定我们看到什么新闻、什么视频;信用评估系统决定我们能否获得贷款;智能招聘系统筛选求职者;自动化交易系统影响金融市场。

我们往往安慰自己说:“最终决定权还在人类手中,AI只是提供建议。”但现实是:当一个系统在99%的情况下都表现得比人类更好时,第100次你还有多大勇气坚持自己的直觉?

这产生了三个严重的治理问题:

  1. 当系统出错时,我们习惯性地责怪AI“不可控”,却很少追问:是谁设计了系统的目标函数?是谁决定将如此多的关键决策外包给一个自己都无法完全解释的黑盒?
  2. 许多组织倾向于用“准确率提升X%”“整体效益增加Y%”来证明AI系统的合理性,但这种统计优化常常默认某些少数群体可以被牺牲。
  3. 一些“AI安全”倡议可能成为巨头维护市场地位的工具,通过设立极高的合规门槛来排除竞争对手。

对于个人而言,AI时代的生存策略需要从根本上重新思考。

 


来源:看中国 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


Top
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意