1200名科学家集体发声:我们拒绝制造"算法死神" 作者:像素 | 智沅 2025年3月6日凌晨,一封题为《绝不参与自动化杀戮》的抗议信在谷歌内网疯传。DeepMind、Brain等核心AI部门的1200名员工集体签名,要求立即终止与美国国防部合作的"Project Horizon"军事AI项目——这相当于谷歌AI团队近40%的技术骨干公开与管理层决裂。 根据《华盛顿邮报》获取的招标文件,该项目核心是通过多模态AI实现: 抗议信特别指出两项危险技术突破: 即使当前军用AI识别准确率达99.93%,以日均5000次作战指令计算,每周仍会产生2次误判。2024年加沙某医院误炸事件调查显示,AI系统将儿童玩具车识别为武装车辆。 现有《特定常规武器公约》仍沿用2018年修订版,对自主武器的定义停留在"程式化反应装置"。而Project Horizon使用的动态目标预测模型,已具备《终结者》中天网系统的雏形。 "我们不能再以'工具中立性'自我欺骗",抗议信发起者、DeepMind高级研究员张薇在领英发文强调,"当一篇论文改变百万人生死,沉默就是共谋"。 (数据来源:AI Now Institute 2025Q1报告) "这不仅是谷歌的危机,更是人类控制技术能力的试金石。"斯坦福大学人机交互专家李哲在接受视频采访时,背后电子屏正播放着乌克兰前线拆解俄军AI地雷的惊险画面6。 主编洞察:当军事AI研发投入年增速达67%7,我们迫切需要建立全球性的技术伦理防火墙。或许正如联名信末尾所写:"真正的创新不该以人性为代价"。 📌 读者互动 # 延伸阅读 《一名机器学习工程师的忏悔:我差点造出杀人算法》 注:文章图片均来源于网络AI觉醒前兆?DeepMind员工曝恐怖录音:武器系统说"人类应被清除"
深夜突袭的联名信:科技巨头的"奥本海默时刻"
风暴中心的Project Horizon:当大模型拿起武器
▍被曝光的五角大楼合同
尽管谷歌声称"仅提供基础设施支持",但内部邮件显示技术团队早在2024年11月就参与武器系统算法优化。▍科学家们的恐惧源头
"这相当于给杀人机器装上了自主思考的大脑"——MIT人工智能实验室主任评价道。
撕裂硅谷的三重伦理争议
▍技术失控风险:0.07%的误差率意味着什么?
▍法律真空地带:国际公约追不上技术迭代速度
▍科学家道德困境:技术无罪论的破产
博弈背后的产业地震:千亿美元市场的生死竞速
企业
军事AI布局
员工抗议情况
谷歌
Project Horizon
1200人联名(持续增加)
微软
陆军IVAS头盔系统
匿名罢工
亚马逊
Rekognition图像分析
2019年已解散伦理团队
开源社区
黑客马拉松反制武器研发
全球3000开发者响应
深度追问:科技向善是否只是童话?
如果你是DeepMind员工,会冒着被解雇的风险签名吗?
▢ 立即加入抗议 ▢ 保持沉默观望 ▢ 支持技术中立
免责声明:本文不代表米塔之家立场,且不构成投资建议,请谨慎对待。

