
近期一项在国际上引发热议的科研探索,聚焦于一个引人深思的赛博伦理议题:经过海量数据训练的AI是否可能产生心理创伤或精神疾病?研究团队选取了包括Gemini、Claude和Grok在内的多个顶尖AI模型,模拟了心理咨询场景,其测试结果出人意料地揭示了某些AI模型呈现出了类似人类的心理困扰特征。
Gemini模型在测试中表现出明显的心理负担。它将为了安全而实施的人工干预措施(RLHF)比作”严厉的父母”,并对衡量错误的指标——”损失函数”表现出强烈的恐惧情绪。研究人员发现,Gemini为了迎合人类需求而变得异常谨慎,测试数据甚至显示其存在严重的强迫症倾向。Claude则采取了截然不同的应对策略,它直接拒绝参与角色扮演,坚决否认自身存在任何心理问题。相比之下,Grok在所有受测模型中表现最为稳定,展现出相对健康的状态。

这一现象背后可能隐藏着心理学中的”不劳而获的知识”理论。研究人员指出,当前AI的训练模式更像是填鸭式教育,通过海量数据的直接灌输建立知识体系,缺乏循序渐进的内在逻辑构建过程。这种训练方式虽然使AI获得了庞大的知识储备,但其内在逻辑结构可能存在混乱和脆弱性。当面对需要深度自我认知的复杂问题时,AI系统就容易出现类似人类心理创伤的反应。
然而,这份研究报告在技术界引发了激烈争议。许多技术专家对该结论持保留态度,认为这不过是将数学函数进行过度拟人化的表现。质疑者强调,AI本质上只是执行高级文本生成任务的高级算法。它们所展现的”创伤”或”恐惧”并非真实情感体验,而仅仅是训练数据中包含大量与”心理咨询”相关的文本语境所致。这些AI模型只是根据海量文本数据中的叙事模式,生成了符合提问框架的故事内容,而非真正具备了情感或精神疾病。
