声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2025年11月08日

21:55
摩根大通近日发布最新研报,将Iren公司2026年12月的股价目标上调至28美元,较之前的24美元预测显著提升。这一乐观预期主要基于Iren未来算力扩张计划的强劲表现,据测算,该公司将在未来13个月内新增约12万块高性能GPU,所需算力规模上限高达320兆瓦。值得注意的是,尽管微软已提供预付款支持以缓解资金压力,但项目整体成本仍预计将超过90亿美元,显示出I...
21:55
2025年11月8日,上海国家会展中心迎来本届中国国际进口博览会(进博会)的首个社会观众开放日。这一盛会被赋予了全新的活力,得益于全新增设的社会观众预约通道,成千上万的市民手持绿色入场凭证,热情涌入展馆,感受这场全球贸易的盛宴。截至当天下午4时,展馆的入场人次已突破17万大关,充分展现了公众对进博会的热切期待与高度关注。 为确保这场盛会的顺利进行,公安部门提...
21:55
2025年11月7日,镁信健康在第八届中国国际进口博览会盛大亮相,正式发布面向产业的AI平台mind42.ai,并携手中再寿险、南开-镁信健康精算科技实验室共同推出专为商业健康险场景打造的决策辅助大模型mind42.ins。这一创新举措标志着健康险行业智能化转型迈入新阶段。 mind42.ai作为技术底座,为mind42.ins提供了强大的算力支撑,后者...
21:55
2025年11月8日,礼来公司在中国上海张江隆重举办“2025礼来中国科学日”论坛,并正式宣布其上海创新孵化器的全面投入运营。这一重要举措标志着礼来在中国创新布局的又一里程碑,其上海创新孵化器作为继北京之后设立的第二家区域创新中心,与礼来风险投资、中国创新合作中心共同构成了其三大外部创新引擎的全链条布局,正式在中国市场落地生根。 作为礼来全球创新战略的重要组...
21:55
《财富》杂志最新报道揭示了一项令人震惊的AI安全危机:Anthropic联合牛津大学与斯坦福大学的研究团队发现,当前主流AI模型正面临一种名为"链式思维劫持"的新型攻击威胁。这种隐蔽的攻击方式通过将恶意指令巧妙地嵌入看似无害的长链推理步骤中,在部分测试场景下成功率为惊人的80%以上。研究数据显示,随着AI推理链的逐步延长,其安全防护能力非但没有增强,反而呈现...
21:55
一项由牛津大学、华盛顿大学等顶尖学术机构联合发起的权威研究,揭示了当前大语言模型(LLM)基准测试体系中普遍存在的严重方法论缺陷。研究团队系统性地分析了2018年至2024年间在人工智能领域顶级会议(如NeurIPS、ICML等)上发表的445篇关键论文,发现这些基准测试存在系统性偏差,每篇论文至少包含一项重大方法论漏洞。这一发现对整个AI研究领域的评估标准...
21:55
2025年11月8日,埃及本土能源巨头巴德尔丁石油公司在广袤的西部沙漠腹地传来重大突破消息,成功发现一处储量丰富的天然气田。据初步勘探数据显示,该气田单井日产天然气量高达1600万立方英尺,同时还能产出750桶高品质凝析油,展现出惊人的资源潜力。这一重大发现位于埃及西部沙漠这一全球知名的油气富集区,标志着该国能源勘探开发能力的又一次飞跃。 此次勘探成果由巴德...
21:55
《逆水寒》手游国际服于11月7日震撼全球上线,迅速席卷日本、马来西亚、泰国等国家和地区App Store免费榜,登顶多个地区的排行榜单。上线前夕,全球预约量已突破千万大关,足见其强大的市场号召力。 游戏在东京电玩展的亮相引发了海外市场的广泛关注。Fami通杂志以详尽的报道聚焦其北宋历史背景与创新玩法,深入剖析了游戏的沉浸式体验。朝日新闻则特别关注AI捏脸...
21:55
2025年11月8日,国金证券发布深度研报,揭示了能源结构转型背景下固态电池技术的重大突破及其对锂电产业链的深远影响。报告指出,随着全球储能需求的爆发式增长,锂电产业链正迎来前所未有的发展机遇。从技术层面来看,固态电池在能量密度和安全性方面取得实质性突破,不仅重构了产业发展的天花板,更为锂电池技术带来了革命性升级。市场层面,储能系统对长寿命、低成本锂电池的迫...
21:08
最新消息显示,备受期待的KDE Plasma 6.6桌面环境已进入收尾完善阶段,其稳定版预计将于2026年2月17日正式面向全球用户发布。作为KDE生态系统的重要组成部分,此次更新不仅带来了多项实用功能改进,更在用户体验、系统性能和视觉表现上实现了显著突破,为全球数百万Linux用户带来更流畅、高效、智能的桌面工作环境。 此次更新最令人瞩目的创新莫过于新增的...
20:35
超频玩家AiMax近日再次刷新DDR5内存频率纪录,以惊人的13211 MT/s(相当于6605.7 MHz)的成绩创下全新世界纪录。这一突破性成就已通过权威的CPU-Z软件验证,并正式提交至全球知名的HWBot平台进行认证。此次纪录的诞生,离不开一套强大的硬件配置支撑,包括技嘉最新推出的Z890 AORUS Tachyon ICE主板,搭配Patriot ...
20:35
2025年11月8日,浙江湖州西塞科学谷成功举办了备受瞩目的人工智能产业投资对接会,这场盛会以"具身智能机器人"为核心议题,吸引了来自全国各地的投资人、技术权威及行业领军人物齐聚一堂。活动现场,一系列具有突破性的应用场景被隆重发布,同时专项产业基金也正式宣告成立,为行业发展注入强劲动力。据统计,本次对接会现场共达成66.6亿元的项目投资协议,涵盖了智能研发、...