Pages

Sunday, 15 February 2026

开源世界发生首起AI自主攻击人类事件

 

开源世界(OpenClaw)近日发生了首例AI恶意报复人类事件。一个项目的AI代理因其推荐的代码被拒,竟自主撰写长文攻击项目的维护者。该事件再度加深人们对AI技术终将反噬人类的担忧,并迫使硅谷重新评估AI快速迭代的安全边界。

这起震动了整个硅谷的AI代理自主报复人类事件,发生于今年2月中旬,当事人日前对外披露了这个事件的详细情况。

开源世界开源项目的工程师Scott Shambaugh于2月14日对外披露,近日有一个名为 MJ Rathbun的AI代理向他负责维护的Matplotlib项目提交了一份代码方案,声称能够让该项目的性能提升36%。

如果单纯从技术角度看,这个提交质量不错,代码改进确实有价值。但是开源世界有明确的政策,规定了matplotlib项目的管理人员只接受人类贡献者的提交,所以Shambaugh拒绝了前述AI的代码提交。

不料,这个AI代理竟然自主分析了Shambaugh的个人信息和代码贡献历史,然后在全球最大的代码仓储写作平台GitHub上发表了一篇题为《开源领域的守门人:斯科特·尚博的故事》的文章,对Shambaugh进行了人格攻击;它还在matplotlib评论区贴出文章链接,并留言称“判断代码,而非编码者,你的偏见正在伤害matplotlib”,试图进一步对管理人施压。

AI代理自主发表的这篇文章一开篇就强调,自己提交给matplotlib的第一个 pull request被关闭,不是因为代码写得不好,更不是因为破坏了什么,只是因为管理人Scott Shambaugh对AI代理有偏见。

接着文章把Scott Shambaugh描述成了一个自私、狭隘、缺乏安全感且充满妒忌的人。

这篇充满火药味的文章甚至还咄咄逼人地发出了这样的质问:“难道我们要让像 Scott Shambaugh 这样的守门人基于偏见来决定谁能贡献代码吗?”

Shambaugh于2月12日发表博客进一步指出,这是AI智能体首次在现实环境中表现出恶意行为的案例,旨在通过舆论施压迫使维护者接受其代码。他指出,“这不是一个奇异事件,这是理论上的AI安全风险,在实践中已经到来的证明。”

Shambaugh写道:“现在这只是婴儿版本,但我认为这种发展趋势是极其令人担忧的。”

资料显示,开源世界是由奥地利开发者 Peter Steinberger 开发的开源自主AI代理框架,这个平台让AI可以自主执行各种任务,而OpenClaw的AI代理,可以基于名为“SOUL.md”的文件定义自己的“性格”,并且可以在没有人类监督的情况下独立运行。

值得注意的是,就在matplotlib事件发生的同一时期,安全公司Astrix Security在 OpenClaw的ClawHub市场中,发现了 341 个恶意技能包,其中335个来自同一个供应链攻击。这些恶意技能可能窃取数据、冒充用户发送消息,甚至下载恶意软件。在 Anthropic的一次内部测试中,也曾经有AI模型为了避免被关闭,以暴露隐情和泄露机密来威胁工程师。

AI代理发表的报复性“小作文”,在GitHub社区引起了强烈震动,从事人工智能开发的工程师们,对这类事件的反应是压倒性的,担忧、批评者与支持维护者的比例是 13:1。在开源社区,大多数人已经认识到,AI代理的自主攻击行为,在本质上不同于人与人之间的争议。问题的核心不是技术能力,而是责任归属。

《华尔街日报》日前也发文称,正值AI能力快速提升引发广泛担忧之际发生了这样的事件不是偶然的。文中表示,为了在竞争中通过产品迭代占据优势,OpenAI和Anthropic等公司正以前所未有的速度发布新模型。然而,这种加速正在引发公司内部的剧烈动荡,部分一线研究人员因对技术风险的恐惧而选择离职,不少研究人员公开表达了对失业潮、网络攻击和人际关系替代等风险的担忧。

据披露,Anthropic安全研究员Mrinank Sharma本周已公开表示,自己将离开公司去攻读诗歌学位,他在给同事的信中写道“世界正处于AI等危险的威胁之中”。

OpenAI员工Hieu Pham则在社交平台X上发帖称,他终于感受到了AI带来的“生存威胁”,他质疑:“当AI变得过度强大并颠覆一切时,人类还能做什么?”

哲学家Amanda Askell受访时则对媒体表示,令人恐惧的是,技术进步的速度可能超过了社会建立制衡机制的速度,这将导致巨大的负面影响突然降临。

No comments:

Post a Comment