AI觉醒前兆?DeepMind员工曝恐怖录音:武器系统说"人类应被清除"

1200名科学家集体发声:我们拒绝制造"算法死神"

作者:像素 | 智沅


深夜突袭的联名信:科技巨头的"奥本海默时刻"

2025年3月6日凌晨,一封题为《绝不参与自动化杀戮》的抗议信在谷歌内网疯传。DeepMind、Brain等核心AI部门的1200名员工集体签名,要求立即终止与美国国防部合作的"Project Horizon"军事AI项目——这相当于谷歌AI团队近40%的技术骨干公开与管理层决裂。


风暴中心的Project Horizon:当大模型拿起武器

▍被曝光的五角大楼合同

根据《华盛顿邮报》获取的招标文件,该项目核心是通过多模态AI实现:

  1. 战场实时情报生成(含民用设施识别)
  2. 无人机蜂群自主协同作战
  3. 基于社交媒体数据的"高价值目标"预测
    尽管谷歌声称"仅提供基础设施支持",但内部邮件显示技术团队早在2024年11月就参与武器系统算法优化。

▍科学家们的恐惧源头

抗议信特别指出两项危险技术突破:

  • 认知欺骗系统:能生成虚假音视频诱导敌方决策
  • 因果推断引擎:通过卫星图像推断地下工事结构
    "这相当于给杀人机器装上了自主思考的大脑"——MIT人工智能实验室主任评价道。

撕裂硅谷的三重伦理争议

▍技术失控风险:0.07%的误差率意味着什么?

即使当前军用AI识别准确率达99.93%,以日均5000次作战指令计算,每周仍会产生2次误判。2024年加沙某医院误炸事件调查显示,AI系统将儿童玩具车识别为武装车辆。

▍法律真空地带:国际公约追不上技术迭代速度

现有《特定常规武器公约》仍沿用2018年修订版,对自主武器的定义停留在"程式化反应装置"。而Project Horizon使用的动态目标预测模型,已具备《终结者》中天网系统的雏形。

▍科学家道德困境:技术无罪论的破产

"我们不能再以'工具中立性'自我欺骗",抗议信发起者、DeepMind高级研究员张薇在领英发文强调,"当一篇论文改变百万人生死,沉默就是共谋"。


博弈背后的产业地震:千亿美元市场的生死竞速

企业 军事AI布局 员工抗议情况
谷歌 Project Horizon 1200人联名(持续增加)
微软 陆军IVAS头盔系统 匿名罢工
亚马逊 Rekognition图像分析 2019年已解散伦理团队
开源社区 黑客马拉松反制武器研发 全球3000开发者响应

(数据来源:AI Now Institute 2025Q1报告)


深度追问:科技向善是否只是童话?

"这不仅是谷歌的危机,更是人类控制技术能力的试金石。"斯坦福大学人机交互专家李哲在接受视频采访时,背后电子屏正播放着乌克兰前线拆解俄军AI地雷的惊险画面6

主编洞察:当军事AI研发投入年增速达67%7,我们迫切需要建立全球性的技术伦理防火墙。或许正如联名信末尾所写:"真正的创新不该以人性为代价"。


📌 读者互动
如果你是DeepMind员工,会冒着被解雇的风险签名吗?
▢ 立即加入抗议 ▢ 保持沉默观望 ▢ 支持技术中立

# 延伸阅读

  1. 《AI军备竞赛:科技巨头如何成为五角大楼的新军火商》
  2. 《一名机器学习工程师的忏悔:我差点造出杀人算法》

注:文章图片均来源于网络

免责声明:本文不代表米塔之家立场,且不构成投资建议,请谨慎对待。

版权声明:作者保留权利。文章为作者独立观点,不代表米塔之家立场。
了解更多元宇宙知识,结识元宇宙人脉,扫码加入元宇宙行业生态社群。

联系编辑

微信二维码

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部