声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2026年02月03日

15:05
尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感...
15:05
最近一项名为 “人类终极考试”(HLE)的测试结果让我们重新审视 AI 的真实能力。根据《自然》杂志的报道,GPT-4o 在这 2500 道由全球专家出题的测试中,仅获得了可怜的 2.7 分(满分 100 分),而表现最好的 AI 模型也仅得 8 分。这一结果让人质疑,AI 的强大究竟是实打实的实力,还是表面的繁荣?传统的 AI 测试越来越无法反映真实能力,...
15:05
OpenAI正经历自ChatGPT问世以来最严峻的内部变革。据《金融时报》深度报道,这家估值高达5000亿美元的科技巨头正在经历一场痛苦的转型阵痛——从纯粹的学术研究机构向以产品为导向的商业实体转变。这场战略调整不仅引发了组织架构的深刻变革,更导致了多位资深高管与核心研究人员的集体离职。 在首席执行官萨姆·奥特曼的强力主导下,OpenAI正在完成从硅谷前沿实...
15:05
根据 QuestMobile 最新发布的数据,截止到 2025 年 12 月,中国的月活跃用户总数已经突破了惊人的 12.76 亿人,用户的月均使用时长达到 186.2 小时,比去年增长了 8.4%。这一数据的背后,反映出用户对于移动互联网服务的热情日益高涨,尤其是在人工智能技术不断进步的推动下。数据显示,尤其在 12 月份,AIGC(人工智能生成内容)应用...
14:56
2月3日,浙江省AI智能体产业发展联盟在杭州正式成立。传化物流凭借在“AI+物流”领域的深度融合与实践积累,成为该联盟中物流行业唯一副理事单位。此举旨在推动人工智能技术在物流场景的规模化应用与协同创新。联盟由浙江省经信厅指导,多家高校、科研机构及龙头企业共同发起,聚焦智能体技术研发、标准制定与产业落地。传化物流将参与联盟战略规划、技术攻关及生态共建工作。
14:56
2月3日,中通云仓科技精英骨干培训特训营(第二阶)在杭州总部举办。本次为期两天的培训面向内部骨干人员,聚焦管理能力提升与业务实战赋能。课程涵盖成本管控、精益分析、数字化应用、目标管理及团队协作五大核心模块,旨在系统强化参训人员的综合管理水平和一线实战能力。培训由中通云仓科技组织,属其人才梯队建设计划的重要环节。
14:56
2026年2月,宠物预防护理平台Snout宣布完成1000万美元A轮融资,由Footwork领投,Bread & Butter Ventures、Pear VC和Restive Ventures跟投。该公司总部位于美国,致力于为兽医诊所提供订阅式健康计划及先行垫付服务,降低宠物主人获取常规预防性医疗的经济门槛。通过该模式,兽医团队可聚焦诊疗而非支付协调,提...
14:56
2026年2月3日,现代化宠物预防护理平台Snout宣布获得Clear Haven Capital Management 1亿美元战略投资。总部位于美国的Snout致力于为兽医诊所提供健康计划解决方案,降低常规护理经济门槛,提升服务可及性。本轮融资将用于扩建全国基础设施,支持数百万宠物在任意地区获取标准化预防性护理。平台使兽医团队聚焦临床诊疗,减少支付流程...
14:56
2026年2月3日,阿里巴巴集团宣布将旗下大模型品牌统一命名为“千问”(Qwen)。此举旨在解决此前“千问”“通义千问”“Qwen”等多名称并存造成的混淆。统一后,中文品牌名为“千问大模型”,英文品牌名为“Qwen”,而“通义实验室”作为研发主体,仍为阿里巴巴集团下属组织。该调整即日起生效,覆盖基础大模型及各专业领域模型。
14:56
2026年2月,武汉市龙点睛智能科技有限公司自主研发的龙点睛穿刺手术导航设备获国家药监局(NMPA)三类医疗器械注册批准。该设备系国内首个明确集成深度学习AI功能的经皮穿刺手术导航系统,在中南大学湘雅二医院喻风雷团队指导下完成临床验证。其AI算法可自动分割CT影像关键结构,将穿刺靶点误差控制在1mm内,一次穿刺成功率提升,气胸等并发症显著减少,手术时间缩短...
14:56
2026年2月2日,分布式版本控制系统 Git 正式发布 2.53 版本。本次更新距前版仅两个月,主要新增 maintenance is-needed 子命令,支持自动判断仓库是否需执行打包或引用优化等维护操作,减少冗余资源消耗。git blame 支持自定义差异算法;git apply/diff 强化空白错误识别;git replay 默认启用单事务更新...
14:56
2026年2月3日,58到家最新发布的数据显示,随着春节假期日益临近,家庭清洁需求呈现爆发式增长,其中"深度保洁擦玻璃"服务订单量更是较上周激增6.3倍,展现出强劲的市场需求。值得注意的是,这项服务近期才正式上线,目前已成功覆盖全国主要城市及广大下沉市场,显示出其强大的市场渗透能力。 同期数据显示,下沉城市生活服务整体需求量已达到去年同期的3.3倍,这一增长...