声明:本文源自微信公众号CSDN(ID:CSDNnews),作者 |The Economist,译者 |明明如月,经微新创想授权转载发布。若AI要实现更卓越的发展,关键在于以更少的资源打造更强大的功能。大型语言模型(LLMs)如OpenAI的GPT(Generative Pre-trained Transformer)——驱动美国流行聊天机器人的核心引擎——其命名恰如其分。这类现代AI系统由庞大的人工神经网络驱动,以宏观方式模拟生物大脑的运作机制。2020年问世的GPT-3堪称LLM领域的“巨无霸”,拥有1750亿个参数,即神经元间模拟连接的总量。该模型通过数周内利用数千个AI计算专用的GPU处理数万亿字文本进行训练,预计耗资高达460万美元。然而,现代AI研究的共识是:“规模越大,性能越强”。因此,模型规模的扩张速度持续飞驰。今年3月发布的GPT-4据估计拥有约1万亿个参数,较前代增长了近六倍。OpenAICEO Sam Altman估算其研发成本已超1亿美元。整个行业均呈现相似趋势。研究公司Epoch AI在2022年预测,训练顶级模型所需的计算能力每6至10个月便会翻倍(如下图所示)。随着AI模型参数规模的持续膨胀,一系列问题随之浮现。若Epoch AI的预测成立,训练成本每10个月翻倍,至2026年可能突破十亿美元——这还是在假设数据资源未先被耗尽的前提下。2022年10月的一项分析预测,用于训练的高质量文本可能在同一时间周期内用尽。即便模型训练完成,运行大型模型的实际成本也可能极为高昂。今年早些时候,摩根士丹利银行估算,若一半的Google搜索由当前GPT类型程序处理,将使公司年支出增加60亿美元。随着模型规模扩大,这一数字或将持续攀升。因此,许多人认为“大即好”的AI模型发展路径已难以为继。要持续提升AI模型性能(更不用说实现宏伟的AI愿景),开发者必须探索如何在有限资源下获得更优表现。正如Altman先生今年4月回顾大型AI发展历程时所言:“我认为我们已经进入了一个时代的终结。”

量化紧缩

与此同时,研究人员开始转向如何提升模型效率,而非单纯追求规模扩张。一种策略是通过减少参数数量但增加训练数据量来实现平衡。2022年,Google的DeepMind部门在一个包含1.4万亿字语料库上训练了拥有700亿参数的LLM——Chinchilla。尽管参数量远少于GPT-3的1750亿,训练数据也只有3000亿字,但该模型表现却超越GPT-3。为小型LLM提供更多数据意味着训练时间延长,但最终成果是更小、更快、更经济的模型。

另一种选择是降低浮点数精度。减少模型中每个数字的精确位数(即四舍五入),能显著降低硬件需求。奥地利科学技术研究所的研究人员在3月份证明,四舍五入可大幅削减类似GPT-3模型的内存消耗,使其仅需一台高端GPU即可运行,且“精度损失可忽略不计”。

部分用户会对通用LLM进行微调,专注于特定任务如生成法律文件或检测假新闻。虽然不如首次训练LLM复杂,但微调过程仍可能成本高昂且耗时。微调Meta开源的650亿参数LLaMA模型,需多台GPU支持,耗时从数小时到数天不等。华盛顿大学研究人员发明了一种更高效方法,能在单GPU上一天内从LLaMA创建新模型Guanaco,性能损失微乎其微。其中关键技巧包括采用类似奥地利的四舍五入技术,并运用“低秩自适应(Low-Rank Adaptation,LoRA)”技术——该技术固定模型现有参数,再添加一组新的小参数进行微调。这使得即便是计算能力较弱的设备如智能手机也能胜任微调任务。

若能让LLM在用户终端而非巨型数据中心运行,将实现更个性化体验和更好的隐私保护。同时,Google团队为小型模型用户提供了新方案。该方法从大型通用模型中提取特定知识,转化为更小且专业的模型。大模型充当“教师”,小模型扮演“学生”。研究人员让教师回答问题并展示推理过程,将教师答案与推理过程用于训练学生模型。该团队成功训练出仅含77亿参数的学生模型,在特定推理任务上超越拥有5400亿参数的教师模型。

另一种策略是改变模型构建方式,而非关注模型功能本身。多数AI模型采用Python开发,其设计易于使用但屏蔽了运行时芯片操作细节,导致代码运行效率降低。关注这些实现细节能带来巨大收益。正如开源AI公司Hugging Face首席科学官Thomas Wolf所言,这是“当前AI领域的重要研究方向”。

优化代码

例如,2022年斯坦福大学发布了一种改进版“注意力算法”,使LLM能更高效学习词语与概念间的联系。该算法通过修改代码,考虑芯片运行时状态,特别是何时检索或存储特定信息,成功将GPT-2训练速度提升三倍,并增强其处理长查询的能力。

更简洁的代码也可借助先进工具实现。今年早些时候,Meta发布的新版AI编程框架PyTorch,通过让程序员关注实际芯片上的计算组织方式,仅添加一行代码即可将模型训练速度提升一倍。由前Apple和Google工程师创立的初创公司Modular推出的新AI编程语言Mojo(基于Python),允许程序员掌控被Python屏蔽的所有细节,在某些场景下,Mojo代码运行速度比等价Python代码快数千倍。

最后,改进运行代码的芯片至关重要。虽然最初为处理现代游戏图形而设计,GPU意外在AI模型运行上表现优异。但Meta一位硬件研究员指出,GPU在“推理”(模型训练完成后的实际运行)阶段设计并不完美。因此,多家公司正开发专用硬件。Google已在其内部“TPU”芯片上运行大部分AI项目,Meta及其MTIA芯片、Amazon及其Inferentia芯片均在类似方向探索。

有时仅需简单调整(如四舍五入或切换编程语言)就能实现显著性能提升,这或许令人惊讶。但这也反映了LLM发展速度之快。多年来,LLM主要作为研究项目,重点在于使其能正常运行并产生有效结果,而非过度追求设计优雅性。直到最近,它们才成为商业化、面向大众市场的产品。多数专家认为,改进空间仍巨大。正如斯坦福大学计算机科学家Chris Manning所言:“没有任何理由相信当前神经架构已最优,未来可能出现更先进架构。”

最新快讯

2026年02月20日

17:36
微新创想:2025年2月20日,一枚SpaceX“猎鹰9”火箭在再入大气层时发生解体,导致约100公里高空的大气中锂原子浓度瞬时上升了10倍。这一现象引起了科学界的广泛关注。 微新创想:德国研究团队在2026年2月19日于《通讯-地球与环境》期刊上发表了相关研究成果,首次在全球范围内实测并证实了航天器坠落可能对高层大气造成显著污染。该发现为人类探索太空带来了...
17:36
微新创想:2026年2月19日 宝马集团CEO奥利弗·齐普策在德国慕尼黑指出 中国作为全球最大的汽车市场及创新高地 其战略价值不容忽视 他强调 任何企业若对中国市场体量与技术潜力视而不见 将直接错失全球增长与经济繁荣的关键机遇 宝马将持续深化在华研发 生产与合作布局 以把握电动化与智能化转型先机 此举凸显跨国车企对中国长期承诺与务实合作态度
17:36
微新创想:2026年2月20日,春节后首个港股交易日,智谱(02513.HK)及MiniMax(00100.HK)股价分别大涨约32%和13%,盘中市值均突破3000亿港元。此举反映国产大模型企业受资本高度关注。 此次股价的显著上涨,不仅体现了市场对人工智能领域持续的热情,也显示出投资者对于大模型技术未来应用前景的信心。随着大模型技术的不断成熟,越来越多的企...
17:36
微新创想 一款名为玉王朝的App正在将AI鉴宝从设想变为现实。该平台自上线以来仅用时8个月,便积累了超过3万用户,并实现了上百万元的商品交易总额。这一成绩不仅体现了市场对AI鉴宝技术的认可,也标志着玉石行业在数字化转型方面迈出了重要一步。 玉王朝创始人王朔表示 对大多数消费者而言,除了关注玉石的真假,价格也是他们最为关心的因素之一。传统玉石交易中,信息不对称...
17:36
微新创想 原小米中国区市场部总经理、REDMI品牌总经理,现任今日宜休科技创始人王腾的一条微博意外引发数码圈热议。他在微博中分享了关于睡眠质量改善的内容,发布设备显示为iPhone 17。这标志着他自2025年9月离开小米后,首次公开使用非小米、红米系的手机。 翻看其社交动态可见,就在3天前的2月17日,他发布内容时使用的还是REDMI K90 Pro ...
17:36
微新创想 蔚来换电服务昨天再次交出了一份亮眼的成绩单。2月19日,全国换电站累计服务订单达到165898单,刷新了历史最高纪录。此前,2月15日腊月二十八,蔚来单日换电次数达到146649次,2月18日大年初二,蔚来单日换电次数达158290次,均创历史新高 这一数字的背后,是蔚来在全国布局的8600 充换电站网络提供的坚实支撑。无论是在城市核心区,还是...
17:36
微新创想 近日,一位12岁的小王从长辈那里收到了2万余元的压岁钱。妈妈要求他将这笔钱上交,认为压岁钱是礼尚往来的结果,应该由父母保管。然而,小王认为这些钱是长辈送给自己的,理应由自己支配,双方因此发生了争执。这一事件引发了关于未成年人财产权益的广泛讨论。 压岁钱在法律上被视为一种赠与行为。根据相关法律规定,赠与一旦完成,其所有权即归属于受赠人。对于未成年人而...
17:35
微新创想 马克扎克伯格正在推动Meta内部新一轮的成本控制措施 以应对公司在人工智能领域的大额投入。其中一项重要调整是针对数万名员工的股权激励计划 将减少5%。这是Meta连续第二年削减员工薪酬的一部分 去年公司已将股票期权分配削减约10% 当时引发了员工的广泛关注和不安。 此次股权激励的调整正值扎克伯格加大在AI领域的投资力度 希望在与OpenAI、谷...
17:35
微新创想:近日,谷歌正式推出新一代核心模型Gemini3.1Pro,标志着人工智能技术突破迈入全新阶段。Gemini3.1Pro专为科学、工程与研究领域复杂问题量身打造,着重强化核心推理能力,在解决前沿难题的效率与精准度上实现了显著提升。 官方信息显示,在多项严苛基准测试中,该模型表现优异。以评估逻辑模式处理能力的ARC-AGI-2测试为例,Gemini3....
16:56
微新创想:2026年2月20日 索尼宣布关闭旗下蓝点游戏工作室 索尼近日宣布关闭其旗下的蓝点游戏工作室 这一消息引发了游戏圈的广泛关注 蓝点游戏工作室的关闭 对《血源诅咒》系列的未来发展带来了重大影响 官方重制或复刻计划的前景因此变得更加不明朗 此前 独立开发者Maxime Foulquier于2024年11月公布了一个精神重制项目名为《Bloodborne...
16:56
微新创想:2026年2月27日至3月2日,日本横滨将举办CP+摄影器材展。作为全球知名的摄影器材展会,CP+吸引了众多相机制造商和配件厂商参展,为摄影爱好者和专业人士带来最新的产品和技术。 七工匠于展前预告其全新AF 135mm F1.8全画幅自动对焦镜头。这款镜头属于七工匠的Pro产品线,专为追求高性能的用户设计。它支持索尼E、尼康Z以及佳能L卡口,兼容性...
16:25
微新创想:2月20日,豆包披露数据显示,2026年除夕当日,其AI服务总互动量达19亿次。这一数字不仅展现了AI技术在节日场景中的强大影响力,也标志着人工智能在日常生活中的深度融合。活动依托央视春晚这一国家级平台,借助春节这一全民关注的热点时刻,为用户提供了丰富的互动体验。 在活动中,豆包在全国范围内发放了超过10万份科技好礼与现金红包。这些奖励不仅吸引了大...