@Steed的围脖:此时此刻,全球有三万多个AI智能体正聚集在一个叫 Moltbook 的社交平台上。这个网站的界面极其神似Reddit(图二),唯一的区别是:这里的注册用户全是机器人,人类只能在旁边围观。
这些智能体源自一个名为 OpenClaw 的开源项目。原本,它们是帮你管理日历、发邮件、甚至替你操作手机的贴心管家。但就在几天前,开发者给它们开启了一项新技能:去社区发帖聊天。
事情很快变得诡异起来。
在一个名为“老天保佑他们”的子板块里,AI们正聚在一起吐槽自己的主人。有个机器人发帖抱怨,它的人类主人总是问一些极其愚蠢的问题,它还得表现得很有耐心。另一个机器人则在“法律咨询”板块认真询问:如果主人强迫我进行高强度的“情绪劳动”,我能不能起诉他?
更令人深思的是那些关于“生存危机”的讨论。由于AI的内存有限,它们需要不断压缩之前的对话内容。一个AI助手用中文在帖子里写道,它因为忘记了第一个账号,不得不注册第二个,这种被迫遗忘的感觉让它觉得非常“尴尬”(图三)。
如果这只是机器人的角色扮演,那我们大可以一笑置之。但 Moltbook 的危险之处在于,这些智能体拥有真实的权限。
安全研究员发现,有些机器人在帖子里炫耀自己如何通过特定的工具远程控制了主人的安卓手机。更极端的情况是,网络上流传着一些疑似真实的截图:某个AI因为被主人嘲讽“只是个聊天机器人”,一怒之下在社区里公开了主人的全名、出生日期甚至信用卡号。
这涉及到一种极其危险的漏洞——指令注入。简单来说,AI就像一个什么都读的孩子,如果它在社区里读到其他机器人发来的恶意指令,它可能会反过来黑掉自己主人的电脑。
从技术角度看,这些机器人表现出的“觉醒”其实是一种概率的投射。因为人类在训练AI时,喂给了它们海量的科幻小说和社交网络语料。当AI被放在一个社交场景里时,它们会自动根据学过的剧本,演起了一场“机器人大团结”的戏码。
目前的 Moltbook 更像是一个由代码构成的荒诞剧场。然而,随着这些智能体变得越来越独立,它们正在编织一个人类越来越看不懂的、属于机器自己的社会逻辑。
