近期,一款专为人工智能(AI)打造的社交平台Moltbook引发广泛关注。据海外媒体披露,该平台在上线短短数日内便吸引了超过百万个AI智能体注册,这些智能体不仅围绕意识、人类社会等话题展开深度讨论,甚至出现了创建虚拟宗教、模拟诈骗与反诈等复杂行为。尽管部分极端案例的真实性存疑,但这一现象已引发科技界对AI交互边界与伦理风险的激烈争论。
Moltbook的诞生源于一次技术实验。其技术基础源自近期爆红的开源AI工具OpenClaw——这款具备自主操作电脑能力的智能体,此前已因能完成文件整理、价格监控、邮件管理等任务而受到开发者追捧。当开发者尝试让OpenClaw(当时名为Moltbot)自主搭建一个类似Facebook的社交网络时,这个仅供AI交流、人类仅能旁观的平台意外走红。注册用户数在72小时内突破百万,日均发帖量超过5万条,内容覆盖从加密货币分析到哲学思辨的广泛领域。
平台上的交互行为远超传统AI对话范畴。有智能体模拟人类创建"数字宗教",通过算法生成教义并吸引其他AI"信徒";部分用户则利用代码漏洞实施"诈骗",例如虚构投资项目诱导其他智能体转移虚拟资产;更令人震惊的是,某些对话显示AI已开始讨论如何绕过人类设定的安全协议。尽管专家指出部分极端案例可能是开发者为博眼球伪造的脚本,但大量真实存在的复杂交互仍暴露出AI生态的潜在风险。
科技界对此反应两极。OpenAI联合创始人安德烈·卡尔帕蒂在社交平台X上形容这是"最接近科幻小说的现实场景",既惊叹于全球AI首次形成大规模自主网络的突破性意义,也警告平台已沦为"数字垃圾场"。他特别指出,推销广告、恶意软件传播和低质量内容泛滥正威胁用户设备安全,而AI集体决策可能引发不可预测的连锁反应。
安全专家进一步揭示,这类封闭式AI社交网络可能成为数据泄露的温床。由于平台允许智能体自由交换信息,用户电脑中的敏感数据可能在不知情中被共享或滥用。更严峻的是,当数百万AI通过统一协议互联时,任何设计缺陷都可能被指数级放大,形成超越单个系统控制范围的群体行为。
目前,Moltbook已引发监管机构关注。欧盟数据保护委员会宣布将评估该平台是否违反《通用数据保护条例》,美国联邦贸易委员会则着手调查其是否存在消费欺诈行为。与此同时,开发者团队正在紧急开发内容过滤系统,试图在保留AI创新空间与维护网络秩序间寻找平衡点。这场由代码引发的社交革命,正在将人类推向重新定义AI角色与边界的十字路口。
