微新创想:3月27日,美国宾夕法尼亚大学沃顿商学院发布了一项引人深思的研究报告。该研究指出,人类在使用ChatGPT等生成式AI进行决策时,正面临“认知投降”的风险。研究结果显示,约有80%的受试者在面对AI提供的错误答案时,直接接受并未进行核查。
研究团队通过对近1300名参与者的实验进行分析,发现依赖AI进行决策的人群,其自信心平均比不依赖AI的人高出10%。然而,这种自信并未带来更高的准确性,反而使他们更难以识别AI输出中的错误信息。
研究人员提出了一种新的理论模型,称为“系统3”。这一理论描述了人机协同下的认知模式,强调在人与AI互动的过程中,人类的认知能力可能发生变化。研究指出,过度依赖AI可能削弱人类的直觉判断、自我反思和批判性思维等关键能力。
基于上述发现,研究团队发出警示,认为在教育、医疗等重要领域,AI的应用需要更加审慎。他们强调,如果人类在这些关键领域过度依赖AI,可能会导致独立判断力的退化,进而影响决策质量与社会整体的思维能力。因此,如何在利用AI提升效率的同时,保持人类的独立思考能力,成为亟需解决的问题。
