声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2026年02月18日

22:13
微新创想:2026年2月17日,法国人工智能公司Mistral AI宣布完成对云基础设施初创企业Koyeb的收购,这是其首次进行并购交易。此次收购不仅标志着Mistral在扩展其技术生态方面迈出重要一步,也意味着Koyeb的团队将整体加入Mistral,共同致力于构建更强大的AI云平台Mistral Compute。 交易完成后,Koyeb现有的业务将在过渡...
22:13
微新创想:2026年1月21日,微软发现Microsoft 365 Copilot存在安全漏洞(CW1226324),该漏洞可能导致AI助手在未经授权的情况下读取并摘要用户‘已发送邮件’和‘草稿’文件夹中带有机密敏感度标签的邮件。此行为可能绕过数据丢失防护(DLP)策略,从而引发数据泄露风险。 此次安全问题源于代码缺陷,影响的是使用Copilot Chat‘...
22:13
微新创想:2026年2月17日,日本EIZO公司宣布推出首款采用OLED面板的ColorEdge专业显示器。这款显示器拥有31.5英寸的超高清分辨率,支持HDR(HLG/PQ)与SDR双工作流,满足不同创作需求。 EIZO凭借数十年积累的色彩管理技术,对OLED核心的ABL自动亮度限制机制进行了优化。通过提升触发阈值,确保在高亮度场景下依然保持稳定的色彩表现...
22:13
微新创想:2026年2月18日 美国食品药品监督管理局(FDA)正式启动对Moderna在研季节性流感疫苗的上市申请审查 该疫苗基于mRNA技术平台 设计用于提供更广谱 更持久的流感防护效果 Moderna表示 此次申报是基于多项Ⅲ期临床试验数据 这些数据显示出疫苗对甲型和乙型流感病毒株具有显著的保护效力 审查过程将全面评估疫苗的安全性 有效性以及生产质量 ...
22:13
微新创想:2月18日,意大利米兰-科尔蒂纳冬奥会单板滑雪男子坡面障碍技巧决赛圆满落幕,中国选手苏翊鸣凭借出色的表现成功摘得金牌。这是中国体育代表团在本届冬奥会中的首枚金牌,也是中国单板滑雪项目在冬奥赛场上的重要突破。 苏翊鸣在决赛的第二轮中展现了极高的竞技水平,完成了一套高难度的动作组合,最终以95.25分的优异成绩获得冠军。他的表现不仅赢得了现场观众的热烈...
22:13
微新创想:2026年2月18日,腾讯宣布其AI助手产品元宝日活跃用户(DAU)突破5000万,月活跃用户(MAU)达1.14亿。该数据覆盖中国大陆地区全平台用户,统计截至当日。 元宝于2025年正式上线,自推出以来便持续进行技术优化与功能升级。依托腾讯自研的混元大模型,元宝不断迭代更新,逐步完善其人工智能服务能力。通过微信、QQ、PC客户端及独立App等多端...
22:13
微新创想:2026年2月18日,优步宣布启动充电枢纽扩张计划,首批覆盖美国旧金山湾区、洛杉矶和达拉斯。这一计划标志着优步在推动可持续交通方面迈出了重要一步。 微新创想:优步将在上述城市便利停车点建设直流快速充电站,投资超1亿美元打造高容量电动汽车充电枢纽。通过这一举措,优步希望为电动车主提供更加便捷的充电体验。 微新创想:此举旨在提升司机电动车使用便利性,降...
22:13
微新创想:2026年2月18日,NZXT(恩杰)正式发布C850 SFX Gold电源。这款电源采用了100mm标准SFX规格,符合ATX 3.1规范,为用户提供了更高的兼容性与安装灵活性。全模组设计让用户能够根据需求选择线材,不仅节省空间,还提升了整体系统的整洁度与散热效率。 该产品通过了80 PLUS金牌及Cybenetics白金牌效率认证,确保了在不同...
21:05
微新创想:2026年2月17日,美国加州NZXT公司正式推出H2 Flow Mini-ITX机箱 这款新机箱采用了立式设计,为用户提供了更加紧凑且高效的机箱结构。其主板与显卡采用背对背布局,不仅优化了内部空间利用,还提升了散热效率,使得硬件组件能够更稳定地运行。此外,该机箱支持PCIe Gen5转接线,满足了高性能硬件的连接需求。 H2 Flow Mini-...
21:05
微新创想:2026年2月,梅赛德斯-奔驰正加速测试代号‘Little G’的入门级G级车型,计划于2027年正式上市。这款新车基于全新专属平台打造,不仅延续了G级经典的设计语言,还引入了多种新的技术元素,以满足现代消费者对性能与环保的双重需求。 新车提供纯电与燃油两种动力形式,为不同市场和用户群体带来更广泛的选择。其中,纯电测试车已经曝光,从外观上看,其底部...
21:05
微新创想:2026年2月13日和16日,华硕在台北总部正式发布ExpertBook B5 G2与B3 G2两款商务笔记本电脑。这两款新品均搭载了英特尔第3代酷睿Ultra(Panther Lake)处理器,为用户提供更强大的性能支持。产品提供14英寸和16英寸两种屏幕尺寸,满足不同用户对便携性与显示效果的需求。 微新创想:ExpertBook B5 G2与B...
21:05
微新创想:2026年2月5日,照片分享平台Flickr发现系统存在安全漏洞,遭黑客利用非法下载部分用户资料。事件影响范围包括真实姓名、邮箱、用户名、IP地址、通用地理位置及活动记录,但密码与信用卡信息未被泄露。 Flickr在数小时内切断问题端点并启动内外部联合调查,同时强化安全机制与第三方供应商管理。公司已向受影响用户发送通知,建议立即重置密码并防范钓鱼邮...