
近年来,关于人工智能是否会超越人类智慧的讨论从未停止。然而,一项突破性的研究发现,像ChatGPT和Claude这样的顶尖AI模型,实际上正在”过度美化”人类的理性思维。这些先进的AI系统往往假设人类在决策过程中会展现出超乎常人的逻辑性和战略眼光,但现实却与这种理想化的认知大相径庭。
研究人员通过经典的博弈论实验——”凯恩斯选美比赛”(猜数字游戏)——对AI进行了严谨的测试。在这个实验中,参与者需要预测其他人的选择才能获得胜利。从理论角度来看,这要求参与者进行复杂的逻辑推理,但人类在实际操作中往往难以达到这种理想状态。更令人惊讶的是,当AI与人类进行对弈时,尽管它们能够根据对手的背景信息(如大学生或专家)灵活调整策略,却依然固守着人类会做出最理性选择的假设。这种”高估人类智商”的认知偏差,导致AI在预测人类真实决策时屡屡失准。
这项研究为我们揭示了AI认知领域的一个重要问题:尽管AI能够精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准AI对人类非理性行为的认知,将成为未来技术发展的关键挑战。
划重点:
🧠 认知存在偏差:ChatGPT等模型倾向于假设人类是完全理性的决策者,忽略了人类行为中的非理性因素。
🎯 预测结果失准:由于”想得太多”,AI在博弈实验中往往因为高估对手的逻辑层次而错失最符合现实的判断。
⚠️ 潜在应用风险:专家警告,这种认知脱节可能影响AI在经济建模等需要精准预测人类行为领域的表现。
