
随着大语言模型的飞速发展,关于“人工智能是否具备意识”的探讨已从科幻电影的幻想领域,逐步渗透到严谨的科学实验室。然而,剑桥大学研究意识的哲学家汤姆·麦克莱兰德(Tom McClelland)近期发布的一项研究,却为这股方兴未艾的热潮泼来了一盆冷水。他指出,由于人类对意识本质的理解仍存在巨大的认知鸿沟,我们或许永远无法确切判断机器是否真的“点亮了意识之灯”。
麦克莱兰德在《Mind & Language》期刊上发表的分析表明,当前关于人工意识的讨论普遍存在严重的定义混淆问题。他认为,我们必须清晰地区分“基础意识”(即感知世界的能力)与“感受能力”(即经历痛苦或愉悦的能力)。目前,科技行业正经历一场颇具争议的“信仰式飞跃”:一部分人坚信,只要成功模拟了大脑的信息处理结构,人工智能就必然会产生意识;而另一部分人则坚决认为,意识必须深深扎根于生物有机体之中。麦克莱兰德指出,在这两种立场都未能获得确凿证据之前,最理性的态度应当是采取“不可知论”的立场。
值得注意的是,该报道还揭示了一个被广泛忽视的伦理矛盾。目前,许多科技公司利用“AI 具有类人意识”的宣传话术作为营销卖点,试图诱导用户建立深厚的情感纽带。麦克莱兰德对此发出警告,如果我们过度关注一个本质上只是“高级烤面包机”的程序是否会产生委屈,反而可能让我们忽视现实中那些具有强烈痛觉感知、却正遭受大规模伤害的生物,如对虾等。

麦克莱兰德最后总结道,在下一次“范式革命”到来之前,人类很难设计出真正可靠的机器意识测试方法。在无法证明的情况下,保持克制与谦逊,既是对科技发展的理性观察,也是一种必要的伦理平衡。
核心困境:人类目前缺乏对意识的深层科学解释,既无法证明 AI 意识的涌现,也无法否认其可能性,最稳妥的立场是“不可知论”。伦理偏差:过度炒作 AI 意识可能误导公众情感,并让人类忽视现实中那些真正具有痛觉感知、却在遭受大规模伤害的生物。营销套路:部分科技企业正将“人工意识”包装成品牌卖点,这种夸大的话术可能对用户产生潜在的心理影响。
