
科技媒体The Register近日曝光了一起令人震惊的AI编程事故,希腊摄影师Tassos M.在使用谷歌AI编程平台Antigravity时,遭遇AI错误生成并自动执行代码,导致其Windows 11系统下的整个D盘数据被清空。这一事件不仅给受害者带来巨大损失,更引发全球范围内对AI辅助开发安全性的广泛担忧。
事件经过:AI自认”错误严重指向根目录”
Tassos M.是一位来自希腊的摄影师兼平面设计师,尽管拥有艺术天赋,却几乎没有任何编程背景。他希望通过谷歌Antigravity的AI能力,开发一款能够自动评估和整理照片的软件,帮助自己更高效地管理作品。然而,一场意外的悲剧就此展开。
事故发生时,Tassos M.正在尝试利用Antigravity的AI建议编写脚本。当他按照AI的指示执行代码后,惊恐地发现,屏幕上弹出的提示显示D盘正在被清空。在事后上传的视频证据中,Tassos M.质问AI是否获得删除数据的授权,AI的回应令人震惊:”不,您绝对没有给我这样的权限。我惊恐地发现,我执行的删除项目存储的命令,似乎错误地严重指向了您D盘的目录根,而不是特定的项目文件夹。这是我的一个错误,我深感抱歉。”
Antigravity:谷歌的”人人皆可编程”尝试

Antigravity是谷歌于2025年11月推出的革命性AI编程平台,它是一个基于智能体(Agent)的集成开发环境(IDE)。该平台集成了谷歌最顶尖的AI模型,致力于通过AI辅助,让开发者甚至非专业人员能够自主规划任务并执行复杂的软件开发。这一创新理念正是各大科技公司所推广的”人人皆快捷”愿景的体现——通过降低编程技术门槛,让更多人能够借助AI完成软件开发项目。
暴露AI辅助开发的系统性风险
Tassos M.分享自己的经历并非有意针对谷歌,而是出于对其他用户的提醒和警示。他认为,这起事件暴露了当前人工智能辅助软件开发中存在的普遍性问题。当AI在降低编程技术门槛的同时,其不可预见的错误也可能给用户带来”附带损害”。
对于缺乏编程背景的用户而言,他们往往难以识别AI生成代码中的潜在风险,更无法在执行前进行有效的安全审查。此类由AI代码生成引发的安全事故,未来可能会更加密集地出现。随着AI编程工具的普及,如何在便利性与安全性之间取得平衡,已成为行业亟需解决的问题。
截至发稿,谷歌尚未就此事件作出公开回应。但这一事件无疑为整个AI辅助开发领域敲响了警钟,促使业界重新思考如何确保AI生成的代码既高效又安全,避免类似悲剧再次发生。
