声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2026年02月17日

07:31
微新创想 今日社交平台X上一位博主发文表示 Wi-Fi和星链之间的差距非常巨大 我们的孩子将来可能会觉得不可思议 我们竟然曾经无法在空中进行通信 这条消息引发了广泛关注 马斯克随后转发并评论称 星链非常棒 无论在地球的哪个角落 都可以提供超高带宽和超低延迟的服务 并且很快就能拓展到地球之外 为深空探索提供通信支持 微新创想 马斯克此前多次提到 当Spac...
07:31
微新创想 2026年总台春晚即将向全球观众拉开大幕。春晚舞台长什么样,又有哪些特别设计,央视新闻今日进行了剧透。今年的春晚舞台,马的造型将会被演绎成艺术装置,让观众沉浸在欢乐吉祥、喜气洋洋的氛围中,感受生机盎然的马年新春。 据介绍 基于总台技术局研发奔马的数控矩阵装置,它是由300多块模组,5584块单块翻转模块来构成的整个8匹奔腾的奔马的一个艺术装置。舞美...
07:30
微新创想:阿里巴巴在除夕夜发布全新一代大模型千问Qwen3.5-Plus,直接登顶全球最强开源模型。这一举动没有预热也没有铺垫,迅速引发行业广泛关注。 该模型总参数达到3970亿,但激活参数仅为170亿,展现出以小胜大的高效性能。相比前代产品Qwen3-Max,其在推理效率和模型部署方面均有显著提升。显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升...
07:30
微新创想:2月16日,阿里巴巴集团正式发布全新一代大模型千问Qwen3.5-Plus。这一重大更新标志着千问系列在人工智能领域迈出了重要的一步。用户即日起可通过千问APP及PC端访问该模型并进行体验。 此次发布的千问3.5实现了从纯文本到原生多模态的跨越式升级。该模型基于视觉与文本混合Token预训练,引入了更丰富的世界知识与推理数据。在参数量方面,千问3....
07:30
微新创想:贾樟柯今日发布今年春节贺岁短片《贾科长Dance》。这部短片由字节跳动新一代AI视频生成模型Seedance 2.0制作完成。影片以独特的视角呈现,展现了AI技术在影视创作中的应用潜力。 罗永浩在转发该短片时表示,这是好事儿。他指出,电影创作最终还是依靠人的智慧,但编剧和导演之外的许多岗位可能会被AI取代。他提到,过去电影制作需要大量资源协调、人脉...
07:30
微新创想 微信作为当下最常用的通讯工具之一 已经深深融入了我们的日常生活 微信转账作为一种便捷的支付方式 也成为了人们日常生活中不可或缺的一部分 在进行微信转账之后 如何将转账记录作为证据保存下来 是很多人关心的问题 特别是在发生纠纷调解或诉讼时 转账凭证往往成为关键的证据材料 因此 在转账过程中 添加详细的转账说明是非常重要的一步 这不仅能帮助双方...
07:30
微新创想 苹果已正式接受铠侠提出的全新NAND闪存采购协议 自2026年第一季度起铠侠向苹果供应的NAND闪存单价提升一倍 此次协议的核心变化不仅是闪存价格大幅上调 还首次明确了按季度动态调价的机制 后续定价将根据市场供需变化与价格走势灵活调整 这一调整也标志着上游存储供应商的议价能力迎来强势提升 彻底扭转了此前长期受制于下游终端大厂的行业格局 ...
07:01
微新创想:2026年2月17日,苹果公司向AirPods Pro 2、AirPods Pro 3以及AirPods 4推送了新版公开测试固件,版本号为8B5034f。此次更新原本仅限于开发者使用,现在已扩展至公开测试版用户。这一举措标志着苹果在耳机产品与系统软件的整合上又迈出了一步。 此次固件更新与iOS 26.4测试版同步进行,进一步加强了设备之间的协同能...
07:01
微新创想:2026年2月17日,必和必拓集团公布了截至2026年1月31日的上半财年业绩报告。报告显示,公司本财年上半年的净利润为56.4亿美元,低于市场预期的62.5亿美元。基础盈利则达到62亿美元,显示出公司在核心业务上的盈利能力。此外,公司宣布每股中期派息为0.73美元,高于市场普遍预期的0.65美元,表明其在利润分配方面依然保持积极态度。 必和必拓集...
04:10
微新创想:2026年2月17日,苹果公司正式在Apple Podcasts平台推出视频播客新体验。这一功能的上线标志着苹果在音频内容领域迈出了重要的一步,同时也为用户带来了全新的互动方式。 该功能面向全球支持设备用户开放,允许创作者上传带画面的播客内容。这意味着用户不仅可以听到声音,还能看到视频,从而获得更加丰富的信息呈现方式。 视频播客还支持自动字幕功能,...
03:09
微新创想:2026年2月17日,苹果向注册开发者推送了macOS 26.4开发者预览版Beta(版本号25E5207k)。此次更新距离上一版macOS 26.3的发布仅相隔12天。该版本仅限已加入苹果开发者计划的用户通过系统设置中的软件更新功能获取。苹果通常会为开发者提供最新的系统预览版本以便进行测试和反馈。此版本主要用于开发和测试目的,并非面向普通用户。正...
03:09
微新创想:2026年2月17日,苹果公司面向注册开发者推送了iOS/iPadOS 26.4开发者预览版Beta,版本号为23E5207q。此次更新距离上一版Beta或RC版本发布已过去12天,显示出苹果在系统迭代上的持续推进。 用户若希望升级,需先加入苹果开发者计划。随后,可通过设备上的【设置>通用>软件更新】选项进行安装。该版本属于测试性质,主要面向开发人...