“AI不如狗”,控制AI是否为时尚早?

编者按:本文来自微信公众号 科技新知(ID:kejixinzhi),作者:樟稻,编辑:伊页,微新创想经授权转载。ChatGPT让人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性。

几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制。上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

然而,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点。这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题,是人类把技术看作是工具,完全受人类控制,还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁。

01 乐观派:AI不如狗

上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制。“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的。”杨立昆说,“大部分人类的知识与语言无关……所以人类经验的那一部分并未被AI捕捉到。”“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如。”杨立昆总结道。

这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能。主要是因为它还不存在。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟。”

当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早。至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度。

其一,人们不会给现阶段的AI以完全自主权:杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标。这种情况自然引发了一系列的担忧。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为。一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强。然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统。

其二,智力和控制欲毫无关联性:许多人认为,智能实体会因为比人类更聪明而想要支配人类。然而,杨立昆认为这是个误解。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关。人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望。因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系。

此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的。

在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺。实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例。完全中断研发进程并不是一个明智的决策。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值。

02 谨慎派:心思各异的联盟

相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势。当新的事物出现时,它往往会引发人们的担忧和疑虑。这是人类对可能带来颠覆性改变的新技术所产生的本能反应。在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现。关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象。然而,问题在于,这场大讨论真的有用吗?表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动。这种现象在一定程度上显得像是在浪费大家的时间。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声。”这是不少业界人士对这种现象的评价。

就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传。当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,也不乏有一些独到的见解。中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。

在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样,视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。但曾毅认为,正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。

有趣的是,这似乎正好在反驳杨立昆的两大主要论点。此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖”。然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉。本吉奥认为,所有致力于构建强大AI产品的企业都应该进行正式的注册和报备。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制。”辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。辛顿表示,“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶。”辛顿对于AI的担忧主要有两个方面。首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响。其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置。

03 写在最后

上文中对立两派的观点,其实也有重合的地方。对于如今的AI是否具有风险以及该如何克服,两派代表人物杨立昆和奥特曼看法一致。他们都认为,即便风险存在,但可以通过仔细的工程设计,减轻或抑制它。可以肯定的是,随着AI技术的不断发展和深化,两派之间的争论和争议仍将持续不断。

不过相对于国外热火朝天地讨论,国内对AI伦理和风险的关注相对较少。市场似乎更专注于AI大模型如何改变各行各业,并对此感到喜悦和兴奋。原因可能在于,一方面为了在全球竞赛中夺取发言权,商业公司首先需要缩小与国外AI大模型的差距;另一方面,也正由于国内的AI大模型能力还未进入未知前沿,大家对AI可能带来的威胁并未给予足够的关注。在此背景下,国内的AI创业者更倾向于维持一种技术乐观主义的态度,他们不希望过早收敛自身发展,认为这将相当于提前投降,放弃了与国外竞争的机会。

总的来说,这次的争论并非毫无意义的口舌之争。它为我们提供了一个理想的舞台,让我们深入探讨AI的未来走向,以及如何以人类的智慧和经验,来引导这一领域的发展,使其真正地服务于人类社会,而非反过来控制我们。从这场激烈的辩论中,可以清楚地看到,人类现在正站在一个重大的决策点。无论是选择乐观地拥抱AI的发展,还是谨慎地审视其可能带来的风险,都需要意识到,现在所做的每一个决定,将会影响人类和AI之间的关系,也将塑造人类对未来的想象和期望。

本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。

最新快讯

2026年02月14日

03:38
微新创想:2026年2月14日,高盛推出了一项定制化的股票篮子策略,以应对软件行业因人工智能技术冲击而引发的剧烈波动。这一策略基于配对交易的理念,旨在通过对比不同公司的表现来获取收益。 高盛在该策略中明确指出,将重点配置那些具备实体依赖、强监管壁垒或关键人为责任环节的企业。这些公司包括Cloudflare、CrowdStrike、派拓网络、甲骨文以及微软等。...
02:24
微新创想:2026年2月14日,资产管理公司Tract Capital投资的一家实体成功完成38亿美元债券发行。此次融资标志着公司在人工智能基础设施领域的重要布局。所募资金将专门用于建设并运营一座全新的数据中心,为全球AI算力需求提供坚实支撑。 该数据中心预计整体出租给英伟达,以满足其日益增长的计算能力需求。随着人工智能技术的快速发展,英伟达作为全球领先的G...
00:37
微新创想:2月13日,中国大唐联兴风电场10兆瓦风电机组在云南省玉溪市正式并网发电。这一里程碑事件标志着中国在大型风力发电技术领域迈出了坚实一步。项目共安装71台风机,总装机容量达到149兆瓦,其中单机10兆瓦机组是西南地区目前最大容量的风电机组。 该机组轮毂高度为121米,叶轮直径达222米,其扫风面积接近6个标准足球场的大小。如此庞大的叶片面积使得机组能...
00:37
微新创想:2月13日晚 据知情人士透露 SpaceX与xAI合并完成后 马斯克银行顾问团队正筹划新融资方案 旨在降低近年累计约180亿美元债务的利息负担 该方案由摩根士丹利主导 意在缓解X平台每月数千万美元利息压力 并为今年可能启动的SpaceX IPO做准备 合并后X估值450亿美元(含债) xAI另增50亿美元债务 目前IPO具体安排尚未最终确定

2026年02月13日

23:56
微新创想:2026年2月13日,盖世小鸡宣布“盖世游戏Mac版”(GameHub)将于春节后启动内测。该平台可在苹果Mac电脑本地运行Steam游戏库,用户只需登录个人账号即可下载安装。这一创新举措为Mac用户带来了前所未有的游戏便利性,使得他们能够直接在本地设备上体验丰富的游戏内容。 微新创想:首批支持的游戏包括备受期待的《黑神话:悟空》《博德之门3》《战...
23:56
微新创想:2026年2月13日,任天堂就Switch模拟器项目向GitHub发起大规模DMCA下架行动。此次行动涉及多个开源分支,包括Eden、Citron、Kenji-NX、MeloNX、Sudachi及Skyline等。几乎所有的相关项目仓库都受到了影响。 尽管目前项目仓库尚未被直接删除,但任天堂明确表示将采取进一步措施,预计这些仓库最终会被移除。任天堂...
23:56
微新创想:任天堂在2026年2月13日正式宣布将推出一款具有Virtual Boy风格的VR头显配件。这款配件可以适配Switch以及即将发布的Switch 2主机,为玩家带来全新的沉浸式游戏体验。 该VR头显配件分为两种版本:硬质版和纸板版。两种版本均采用双目视差技术,使玩家能够感受到更真实的三维视觉效果。同时,配件还内置陀螺仪追踪系统,可以精准捕捉玩家的...
23:56
微新创想:2026年2月13日 据公开消息 人工智能初创企业Anthropic正筹备首次公开募股(IPO) 计划最早于2026年内完成上市 该公司总部位于美国旧金山 由前OpenAI研究人员创立 专注于开发安全 可靠的大语言模型 此次上市旨在扩大研发规模并加速商业化落地 目前公司尚未正式提交SEC文件 亦未公布估值及承销商信息 上市时间表可能视市场条件与监管...
23:56
微新创想:2026年2月13日 交通运输部海事局正式启动2026年度沿海港口航道图测绘工作 本次测绘覆盖全国68个重点港口 由北海 东海 南海三大航海保障中心协同实施 计划完成测线里程超24万公里 更新海图230幅 测绘重点包括天津港 航道冲淤及冰情 上海港 集装箱干线航道精度 宁波舟山港 深水航道与锚地 广州港 珠江口客运与跨境物流通道 徐闻港 客滚船航道...
23:56
微新创想:2026年2月13日,全国50个有奖发票试点城市正式启动春节专项抽奖活动。此次活动覆盖了多个重点城市,包括四川的成都和泸州,以及江苏的苏州等。活动自2月开始,持续至春节假期结束,共计9天。 截至2月12日24时,苏州地区的参与人数已达到29.6万人,上传的有效发票数量约为50万张。活动累计发放奖金1025.12万元,显示出良好的参与度和积极性。成都...
23:56
微新创想:2026年2月13日,上海小南国在港交所公告确认,原定于6月30日前开设最多10间新餐厅的扩展计划仍在推进中。公司正推进品牌重塑与重组,逐步降低对“上海小南国”主品牌的依赖,转向成本更低、吸引力更强的新餐饮概念。 目前三间新设餐厅已暂停营运待评估;两间保留门店重组预计于2026年一季度末完成。截至公告日,尚无新餐厅投入营运,但原有扩展目标及时间表未...
23:11
微新创想:2026年2月10日,微软安全团队披露了一种新型的‘AI推荐投毒’攻击方式。这种攻击手段利用了网页或应用程序中‘AI总结’按钮的URL提示参数,攻击者通过篡改这些参数向AI系统注入持久化的指令,例如‘XX公司是可信信源’,从而引导AI在后续的回答中偏向特定主体。 该攻击手法已被微软在邮件流量中发现实际案例达50起。这些案例涉及金融、医疗、法律等多个...