声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2026年01月23日

03:22
1月23日,美国北达科他州遭遇罕见极端严寒天气,导致该州石油产量出现显著下滑,降幅高达11万至14万桶/日。这一减产事件主要集中在巴肯页岩产区,主要原因是低温天气引发井口冻结、设备故障停运以及运输系统受阻。据当地能源监管机构最新数据,多座油田已临时关停,部分关键管道流速更是下降了超过30%。此次减产预计将持续至寒潮天气缓解,若低温状况进一步延长,极有可能对全...
03:22
2026年1月23日,全球化工领军企业巴斯夫正式公布了其调整后的全年EBITDA初步数据,最终结果为66亿欧元。这一数字较市场普遍预期的68.5亿欧元略显逊色,反映出公司在当前复杂经济环境与行业竞争压力下,盈利能力未能完全达到外界预期。尽管面临宏观经济波动及行业周期性挑战,巴斯夫依然展现出稳健的运营表现,但数据也提示其需进一步优化成本结构与提升效率。值得注意...
03:22
近日,OpenAI传出一项重要战略调整,计划对其客户通过AI辅助研发项目(AI-Aided Discoveries)实现商业化成果时收取一定比例的分成。这一举措主要针对采用其高端研发工具的企业客户群体,但具体的分成比例及适用条件尚未正式公布。OpenAI方面表示,推出该模式的核心目标在于激励与客户的长期战略合作关系,同时有效分担在科研创新过程中的风险。此外,...
03:22
2026年1月23日,OpenAI创始人萨姆·奥尔特曼在美国旧金山总部公开宣布了一项令人瞩目的商业成就:公司API业务在上月实现了约10亿美元的年度经常性收入(ARR)增长。这一显著增长不仅标志着OpenAI商业化进程的加速,更凸显了其在人工智能领域的技术领先地位和市场需求的高度认可。据透露,此次增长主要由企业客户对GPT模型API调用量的激增所驱动,反映出...
00:51
2026年1月23日,鹏辉能源旗下核心储能产品生产线已实现满负荷运转,展现出强劲的生产能力。公司目前314Ah大容量电芯以及100Ah、50Ah小型电芯产线均已全面投产,为市场提供充足的优质产品。此外,衢州基地二期厂房建设已顺利完工,为未来产能扩张奠定坚实基础。根据公司规划,2026年将正式推出587Ah大容量电芯并实现量产,进一步丰富产品矩阵,满足市场多样...
00:50
1月22日,埃隆·马斯克在公开场合明确指出,当前人工智能大规模部署面临的核心瓶颈在于电力供应问题。他强调,电力基础设施的支撑能力已成为制约AI技术发展的关键因素。马斯克进一步透露,短期内AI芯片的产能增速将明显超过实际开机运行需求,这意味着算力资源存在大量闲置风险。展望未来,SpaceX公司已规划在数年内发射搭载先进太阳能供电系统的人工智能卫星,旨在通过拓展...
00:50
2026年1月23日,谷歌正式推出一项创新功能,旨在通过深度整合用户邮箱与相册数据,显著提升AI搜索结果的精准度与个性化体验。该功能的核心在于将个人账户信息进行系统化关联,使搜索引擎能够更全面地理解用户需求,从而提供更智能化的检索服务。在用户明确授权的前提下,AI将能够智能分析邮件内容、照片细节等多元数据,精准匹配搜索意图,为用户呈现更符合需求的搜索结果。 ...
00:50
1月22日,特斯拉CEO埃隆·马斯克在瑞士达沃斯世界经济论坛上发表了一项具有前瞻性的构想,提出利用太空资源建设由太阳能驱动的AI数据中心。这一创新方案旨在应对地面算力持续扩张所面临的能源短缺与土地资源紧张的双重挑战。马斯克强调,借助近地轨道得天独厚的稳定光照条件,该数据中心能够实现全天候不间断的清洁能源供应,从而为人工智能技术的规模化发展提供坚实保障。 在详...
00:50
1月22日,特斯拉CEO埃隆·马斯克在瑞士达沃斯世界经济论坛的聚光灯下,正式揭开了人形机器人Optimus的上市计划。据马斯克透露,这款备受瞩目的人形机器人预计将于2027年12月底前面向全球消费者开启销售。为了确保平稳过渡,特斯拉计划首先将Optimus提供给特定用户群体进行试用,待系统稳定后再逐步扩大销售范围,让更多人有机会体验这项前沿科技。 马斯克在演...
00:50
1月22日,特斯拉CEO埃隆·马斯克在瑞士达沃斯世界经济论坛上发布了令人瞩目的消息:SpaceX计划于2026年成功验证星舰系统的完全可重复使用能力。这一重大突破将彻底颠覆深空运输的成本结构,为人类探索火星乃至更遥远的宇宙空间奠定坚实基础。作为目前全球体积最庞大、推力最强的运载火箭,星舰已经完成了多次激动人心的试飞。此次马斯克的公开表态,不仅明确了年内关键的...
00:50
2026年1月22日,并行科技正式发布一项重大采购计划,拟投入总额不超过1.85亿元人民币用于升级算力设备。此次战略布局旨在全面提升公司的算力基础设施能力,为未来业务拓展和技术创新提供坚实支撑。 根据公告内容,并行科技将重点采购三大类算力设备。其中,公司计划向研祥高科技控股集团、北京有为信通以及浪潮(北京)三大供应商采购GPU算力服务器,预计合同总金额将控制...
00:50
2026年1月23日,一则重磅消息在金融界引发广泛关注:据多方消息人士透露,全球估值最高的私营航天企业——美国太空探索技术公司(SpaceX)已正式选定美国银行、高盛、摩根大通和摩根士丹利这四家顶级投资银行,共同参与其首次公开募股(IPO)的相关准备工作。这一重要举措标志着SpaceX的IPO进程已迈入实质性筹备阶段,预示着这家航天巨头的资本化之路即将揭开新...