“AI不如狗”,控制AI是否为时尚早?

编者按:本文来自微信公众号 科技新知(ID:kejixinzhi),作者:樟稻,编辑:伊页,微新创想经授权转载。ChatGPT让人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性。

几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制。上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

然而,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点。这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题,是人类把技术看作是工具,完全受人类控制,还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁。

01 乐观派:AI不如狗

上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制。“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的。”杨立昆说,“大部分人类的知识与语言无关……所以人类经验的那一部分并未被AI捕捉到。”“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如。”杨立昆总结道。

这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能。主要是因为它还不存在。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟。”

当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早。至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度。

其一,人们不会给现阶段的AI以完全自主权:杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标。这种情况自然引发了一系列的担忧。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为。一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强。然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统。

其二,智力和控制欲毫无关联性:许多人认为,智能实体会因为比人类更聪明而想要支配人类。然而,杨立昆认为这是个误解。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关。人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望。因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系。

此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的。

在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺。实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例。完全中断研发进程并不是一个明智的决策。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值。

02 谨慎派:心思各异的联盟

相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势。当新的事物出现时,它往往会引发人们的担忧和疑虑。这是人类对可能带来颠覆性改变的新技术所产生的本能反应。在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现。关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象。然而,问题在于,这场大讨论真的有用吗?表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动。这种现象在一定程度上显得像是在浪费大家的时间。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声。”这是不少业界人士对这种现象的评价。

就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传。当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,也不乏有一些独到的见解。中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。

在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样,视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。但曾毅认为,正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。

有趣的是,这似乎正好在反驳杨立昆的两大主要论点。此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖”。然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉。本吉奥认为,所有致力于构建强大AI产品的企业都应该进行正式的注册和报备。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制。”辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。辛顿表示,“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶。”辛顿对于AI的担忧主要有两个方面。首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响。其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置。

03 写在最后

上文中对立两派的观点,其实也有重合的地方。对于如今的AI是否具有风险以及该如何克服,两派代表人物杨立昆和奥特曼看法一致。他们都认为,即便风险存在,但可以通过仔细的工程设计,减轻或抑制它。可以肯定的是,随着AI技术的不断发展和深化,两派之间的争论和争议仍将持续不断。

不过相对于国外热火朝天地讨论,国内对AI伦理和风险的关注相对较少。市场似乎更专注于AI大模型如何改变各行各业,并对此感到喜悦和兴奋。原因可能在于,一方面为了在全球竞赛中夺取发言权,商业公司首先需要缩小与国外AI大模型的差距;另一方面,也正由于国内的AI大模型能力还未进入未知前沿,大家对AI可能带来的威胁并未给予足够的关注。在此背景下,国内的AI创业者更倾向于维持一种技术乐观主义的态度,他们不希望过早收敛自身发展,认为这将相当于提前投降,放弃了与国外竞争的机会。

总的来说,这次的争论并非毫无意义的口舌之争。它为我们提供了一个理想的舞台,让我们深入探讨AI的未来走向,以及如何以人类的智慧和经验,来引导这一领域的发展,使其真正地服务于人类社会,而非反过来控制我们。从这场激烈的辩论中,可以清楚地看到,人类现在正站在一个重大的决策点。无论是选择乐观地拥抱AI的发展,还是谨慎地审视其可能带来的风险,都需要意识到,现在所做的每一个决定,将会影响人类和AI之间的关系,也将塑造人类对未来的想象和期望。

本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。

最新快讯

2026年03月18日

05:28
微新创想:2026年3月18日,加拿大运动服饰品牌LULULEMON公布2025财年第四季度业绩。公司当季净营收达36.4亿美元,高于分析师预期的35.8亿美元。这一成绩显示出品牌在市场中的强劲表现和消费者持续的关注。 微新创想:同时,LULULEMON预计2026财年净营收为113.5亿至115亿美元,略低于市场普遍预期的115亿美元。尽管营收指引略显保守...
05:28
微新创想:2026年3月18日,中国卫星导航系统管理办公室宣布北斗系统将实施在轨升级,优化部分卫星工作状态。此次升级旨在进一步提升系统的稳定性和服务能力,为各行业提供更加精准的时空信息支持。 目前北斗在轨卫星数量已达到50颗,空间信号精度优于2米。这一技术指标不仅体现了北斗系统的成熟度,也标志着其在全球导航卫星系统中的竞争力不断增强。 北斗系统的高精度时空服...
03:53
微新创想:3月18日 据市场消息 联合利华正评估分拆其食品业务的可能性 该业务涵盖调味品 汤品及酱料等品类 全球年营收超百亿美元 分拆旨在聚焦高增长个护与美容板块 提升运营灵活性与股东回报 公司尚未作出最终决定 亦未指定时间表或具体架构方案 此举若落实 将成为联合利华近年来最大规模战略重组之一
03:52
微新创想 近日高铁二等座B座因空间局促进出不便被网友戏称为尴尬座三等座相关话题引发热议 针对不想坐B座怎么办的疑问12306官方给出明确回应可选择退票再次购买也可乘车后协商换座 铁路部门介绍目前12306为G/D/C字头动车组提供优先选座功能旅客购票时可选择靠窗或过道偏好系统会在有余票情况下优先分配A/F靠窗C/D靠过道座位 但在车票紧张时系统仍...
03:52
微新创想 脂肪肝正成为现代人体检报告上的高频词,也常常被贴上亚健康的标签。然而,脂肪肝并非胖人的专利,越来越多看起来并不胖的年轻人,正被检出瘦人脂肪肝。南京市第二医院脂肪肝诊疗中心主任医师冯艳红介绍,这类人群往往脸和四肢看起来都不胖,唯独肚子圆鼓鼓的,堆积着不少脂肪。大多是久坐的办公族,看着不胖,一查却是脂肪肝。 不久前门诊就来了一位这样的年轻姑娘。她因为体...
03:52
微新创想:今年春节期间,西南医科大学附属医院收治了一名特殊的中毒患者。69岁的杨某逸因听说吃鱼胆对身体有好处,在做年夜饭时生吞了一尾4斤重草鱼的鱼胆,随后中毒休克,被紧急送入ICU抢救。据家属回忆,生吞鱼胆四五个小时后,刚吃过年夜饭的杨某逸开始上吐下泻,呕吐物中伴有鲜红色血丝,整个人几乎虚脱。送往当地医院时,他已处于休克状态。 入院检查显示,他的转氨酶飙升至...
03:52
微新创想 OPPO Find N6今日晚间正式亮相。在新品发布会上,OPPO首席产品官刘作虎首先谈及了折叠屏手机长期以来存在的一个核心问题,即屏幕折痕。自2018年首款折叠屏产品问世以来,折痕问题始终困扰着行业的发展。尽管技术不断进步,但如何彻底消除这道不平整的痕迹,依然是技术研发领域难以攻克的难题 为了解决这一行业痛点 OPPO Find N6彻底重新...
03:52
微新创想 近日苹果AI研究团队发布了一项重大突破,推出了名为LiTo的表面光场标记化大模型。这一创新技术成功攻克了3D重建领域的核心难题,使得仅凭一张平面图像即可重建出完整的3D对象。不仅如此,LiTo还能高度还原多视角下的光影效果,彻底打破了传统3D重建需要多角度图像输入的限制。 LiTo模型的核心突破在于其创新应用了潜在空间技术,并首创了一种统一的3...
03:15
微新创想 今日晚间备受期待的OPPO Find N6正式亮相。OPPO官方介绍Find N6是全球首款通过德国莱茵60万次折叠测试的产品。不仅如此它还获得了德国莱茵久用测试认证被评为全球最平整的折叠手机再次刷新了行业纪录 在正式发布前OPPO特别发起了一项名为折叠漂流计划的活动邀请了7位平整见证官进行接力测试。现场展示的样机在经历超过10万次真实折叠后屏...
03:15
微新创想 每个人都知道熬夜危害极大 但生活节奏和电子产品的诱惑往往让人难以自控 不少网友心中都有一个疑问 睡得晚和睡得少 到底哪一个对身体的伤害更严重 如果用手机充电来做比喻 睡得晚相当于手机电量耗到只剩1%才开始充电 而睡得少则相当于每次只充10分钟 刚开机又陷入没电的状态 这两种行为本质上都在透支身体的健康额度 睡眠时长不足带来的短期伤害非常直观 最...
03:15
微新创想 特斯拉CEO马斯克今日在X平台发文称新款Roadster电动超跑可能于4月下旬发布。这款车型是特斯拉经典跑车系列的全新迭代,自2012年起初代Roadster已停止生产。2017年特斯拉推出Roadster 2,原计划于2020年投产,但因多种因素影响,上市时间不断延后。 作为特斯拉的旗舰电动超跑,新款Roadster在性能方面表现出色。车辆采...
03:15
微新创想:在 AI 浪潮的席卷下,文科生竟然成了大厂高薪抢夺的“香饽饽”!以前总说文科就业难,现在这局面可大不一样了。现在打开招聘软件,各种闻所未闻的新岗位不断涌现,像“AI 内容质检官”,得靠文科生对语言的敏感度来判断 AI 输出有没有问题;“提示词工程师”,说白了就是得会跟 AI“说话”,语言表达能力强的人能把 AI 能力更好激发出来。这些岗位月薪普遍在...