在2025中国互联网大会上,360集团创始人周鸿祎就大模型在实际应用中的潜在风险发表了深度见解。他指出,随着人工智能技术的飞速迭代,网络安全领域正面临前所未有的挑战。传统IT系统漏洞和数据隐私泄露已不再是唯一的威胁,取而代之的是由大模型技术引发的新型安全风险。周鸿祎特别强调了“大模型的‘幻觉’问题”,将其视为当前最严峻的安全隐患之一。这种技术缺陷导致大模型在处理未知信息时,可能毫无根据地生成错误内容。虽然这种现象在娱乐场景中影响有限,但当这些智能体应用于工业控制或政府决策等关键领域时,其错误判断可能引发灾难性后果。尤其值得警惕的是,一旦智能体具备操控各类工具的能力,其错误行为的危害将被指数级放大,影响范围将波及整个系统。图源备注:图片由AI生成,授权服务商Midjourney
周鸿祎进一步指出,大模型技术正在降低网络攻击的技术门槛。他强调,非专业编程人员也能通过自然语言与大模型交互,轻松完成复杂编程任务。这意味着恶意攻击者只需设计精巧的指令,就能诱导大模型泄露企业核心机密,这种攻击方式被称为“注入攻击”。更令人担忧的是,未来即使没有编程基础的普通员工,也可能因不满情绪而发起对公司大模型的攻击,形成隐蔽的内部威胁。这种趋势将彻底改变网络攻击的生态格局。
从更宏观的视角来看,周鸿祎发出警示:大模型技术将使国家级高级威胁攻击变得更加普遍和复杂。过去我国遭受的网络攻击相对较少,但如今黑客正试图将自身攻击经验与能力嵌入大模型,创造出“黑客智能体”。在强大算力的支撑下,单个黑客可能同时操控数十甚至数百个智能体,彻底颠覆传统的网络攻防模式。未来的对抗将不再是单纯的人与人较量,而是演变为人与算法、人与机器、人与算力之间的多维博弈。
为应对这些挑战,周鸿祎透露360已启动两项关键应对策略。首先,360正在研发“智能体安全专家”,帮助企业实现实时威胁检测与防御,形成“以算法对抗算法”的智能防御体系。其次,360已推出专门的大模型卫士,通过实时监控指令并评估输出内容的准确性,最大限度降低大模型的“幻觉”问题,确保其安全可靠运行。