编者按:本文源自微信公众号硅兔赛跑(ID:sv_race),作者林檎,编辑蔓蔓周,经微新创想授权转载。当前,全球顶尖的科研与工业力量正汇聚于一个前所未有的目标——提升语言模型(LLMs)的性能与实用性。通过与众多业界及学界同仁的深入交流,我整理出以下十大蓬勃发展的研究方向,它们正引领着LLMs技术的革新浪潮。

01 减少和衡量幻觉
幻觉,即AI模型生成虚假或无意义内容的现象,是当前LLMs发展面临的核心挑战之一。尽管在创意场景中,幻觉难以完全避免,但在大多数应用场景中,它已成为亟待解决的缺陷。近期,我参与了一个由Dropbox、Langchain、Elastics和Anthropic等公司组成的LLM讨论小组,与会者普遍认为,幻觉问题是制约企业大规模应用LLMs的关键障碍。因此,减少幻觉现象并建立有效的衡量指标,已成为学术界和初创企业竞相探索的热点领域。目前,已有多种临时代码可减少幻觉,如增加提示中的上下文信息、采用思维链、提升自洽性,或要求模型输出简洁化。以下是一些值得参考的学术成果:
· Survey of Hallucination in Natural Language Generation (Ji et al., 2022)
· How Language Model Hallucinations Can Snowball (Zhang et al., 2023)
· A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity (Bang et al., 2023)
· Contrastive Learning Reduces Hallucination in Conversations (Sun et al., 2022)
· Self-Consistency Improves Chain of Thought Reasoning in Language Models (Wang et al., 2022)
· SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models (Manakul et al., 2023)

02 优化上下文长度和上下文构建
绝大多数AI问题都依赖于上下文信息。例如,询问”哪家越南餐厅最好?”时,地理位置是关键上下文,因为不同地区的最佳餐厅可能截然不同。根据《SituatedQA》(Zhang&Choi,2021)的研究,大量信息查询问题依赖于上下文,NQ-Open数据集中约16.5%的问题属于此类。对于企业应用场景,这一比例可能更高。假设某公司为客户开发聊天机器人,若要机器人能回答任何产品问题,则需整合客户历史记录或产品信息作为上下文。模型通过上下文”学习”的过程,即上下文学习,对检索增强生成(RAG)尤为重要。RAG分为两阶段:首先将文档分块并存储为向量数据库,然后通过查询嵌入匹配最相似的文档块。上下文长度越长,可插入的文档块越多,但模型能否有效利用这些信息,是另一关键问题。提升上下文学习效率,即”提示工程”,同样重要。近期研究显示,模型从索引开头和结尾获取信息的效果远优于中间部分:Lost in the Middle: How Language Models Use Long Contexts (Liu et al., 2023)。

03 融入其他数据模态
多模态技术具有巨大潜力,却常被低估。医疗、机器人、电商等领域大量应用场景需处理多模态数据,如医学预测需结合文本(医生笔记、患者问卷)与图像(CT、X射线等);产品数据常包含图像、视频、描述及表格信息。多模态模型能同时理解文本和图像,性能远超纯文本模型。随着文本训练数据可能耗尽,利用其他模态成为必然趋势。近期令人兴奋的应用包括帮助视障人士浏览互联网和导航现实世界。以下是一些多模态研究进展:
· [CLIP] Learning Transferable Visual Models From Natural Language Supervision (OpenAI, 2021)
· Flamingo: a Visual Language Model for Few-Shot Learning (DeepMind, 2022)
· BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models (Salesforce, 2023)
· KOSMOS-1: Language Is Not All You Need: Aligning Perception with Language Models (Microsoft, 2023)
· PaLM-E: An embodied multimodal language model (Google, 2023)
· LLaVA: Visual Instruction Tuning (Liu et al., 2023)
· NeVA: NeMo Vision and Language Assistant (NVIDIA, 2023)

04 提高LLMs的速度和降低成本
GPT-3.5推出后,其生产中的延迟和成本问题曾引发广泛关注。半年内,模型社区开发出内存占用仅为GPT-3.5 2%的模型,性能却接近GPT-3.5。这一现象印证了”优秀的技术总会被优化”的观点。以下为Guanaco 7B与ChatGPT GPT-3.5和GPT-4的性能对比数据。尽管进展显著,但大幅提升LLM性能仍极具挑战性。四年前,我撰写《设计机器学习系统》时,主要模型优化技术包括:
1. 量化:通过减少参数位数(如从32位降至16位或4位)降低模型大小
2. 知识蒸馏:训练小模型模仿大模型
3. 低秩分解:用低维张量替代高维张量
4. 剪枝:去除贡献较小的权重或连接
这些技术至今仍广泛应用。Alpaca采用知识蒸馏,QLoRA结合低秩分解和量化。

05 设计新的模型架构
自2012年AlexNet以来,LSTM、seq2seq等架构虽兴衰交替,但Transformer自2017年推出后表现异常稳定。开发超越Transformer的新架构极具挑战性。Transformer经过六年优化,在合适硬件上已实现令人惊叹的规模和效果。2021年Chris Ré实验室的”Efficiently Modeling Long Sequences with Structured State Spaces”引发行业热议。该实验室持续开发新架构,近期与初创公司Together推出Monarch Mixer,其核心思想是降低注意力机制和MLP的次二次复杂度。其他实验室也在探索类似思路,但公开研究较少。

06 开发GPU替代方案
自AlexNet以来,GPU一直是深度学习硬件主流。AlexNet的成功部分归功于首次成功使用GPU训练神经网络,相比之下,此前训练同等规模模型需成千上万个CPU。十年间,多家公司尝试开发AI专用硬件,包括Google的TPU、Graphcore的IPU、Cerebras及SambaNova(后转型为生成式AI平台)。量子计算也备受期待,主要参与者有IBM、Google及高校实验室。光子芯片作为另一前沿方向,通过光子传输数据实现更快更高效的计算。该领域已吸引数亿美元投资,包括Lightmatter、Ayar Labs、Lightelligence和Luminous Computing。以下是光子矩阵计算三种主要方法的进展时间线:
· 平面光转换(PLC)
· 马赫-曾德干涉仪(MZI)
· 波分复用(WDM)

07 提高agent的可用性
Agent作为能执行操作的LLMs(如浏览网页、发送邮件),是相对较新的研究方向。尽管Auto-GPT和GPT-Engineering等库已获极高关注,但人们对LLMs的可靠性、性能和行动能力仍存疑。斯坦福实验显示,生成式agent能从单一指令(如举办情人节派对)衍生出复杂社会行为,自主传播邀请、结识新朋友。Adept公司(由两位Transformer合著者及前OpenAI副总裁创立)已获近5亿美元融资,其agent已能浏览网页并添加Salesforce账户。

08 提升从人类偏好中学习的能力
RLHF(从人类偏好中进行强化学习)虽有效,但流程繁琐。人们正探索更优的LLMs训练方法。RLHF面临诸多挑战:
· 如何数学化人类偏好?当前通过比较确定优劣,但未量化程度差异
· 人类偏好定义:Anthropic从”有帮助、诚实、无害”三维度衡量;DeepMind试图生成最符合大众偏好的回答
· 偏好来源:需考虑文化、宗教、政治倾向差异,但现有标注数据存在偏见(如OpenAI的InstructGPT数据中90.5%标注者为男性)

09 提高聊天界面的效率
ChatGPT引发关于聊天界面适用性的持续讨论。聊天界面优势包括易学性、易访问性(支持语音输入)和强交互性。可改进方向:
· 一轮内多条消息:支持插入图像、位置、链接等
· 多模态输入:现有研究多集中于模型构建,界面优化空间大
· 将生成式AI融入工作流程:如指向图表列提问
· 编辑和删除消息:优化对话流程

10 为非英语语言构建LLMs
当前以英语为主的LLMs在非英语语言中的表现不佳。尽管有人认为这更多是资源问题而非研究问题,但低资源语言(如与英语/汉语相比数据量少)需要特殊技术。悲观者认为未来语言将趋同于英语和汉语。以下相关研究:
· ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large Language Models in Multilingual Learning (Lai et al., 2023)
· All languages are NOT created (tokenized) equal (Yennie Jun, 2023)
· Low-resource Languages: A Review of Past Work and Future Challenges (Magueresse et al., 2020)
· JW300: A Wide-Coverage Parallel Corpus for Low-Resource Languages (Agić et al., 2019)

结论
上述十大挑战中,非英语语言LLMs(第10项)直接关乎资源投入,幻觉问题(第1项)因LLMs概率性任务本质而更难解决,LLMs性能优化(第4项)永无止境,新架构和硬件(第5、6项)最具挑战性且不可或缺。部分问题需技术外策略(如人类偏好学习第8项)和用户体验(聊天界面第9项)协同解决。本文(含图片)经微新创想授权转载,不代表其立场,转载请联系原作者。如有疑问,请联系http://www.idea2003.com/。

最新快讯

2025年11月21日

11:59
斗鱼集团最新财务报告彰显强劲增长动力 2025年Q3盈利能力显著提升 微新创想11月21日讯 斗鱼集团近日正式发布2025年第三季度未经审计财务报告,数据显示公司整体盈利能力持续向好,各项关键指标均呈现显著增长态势。报告显示,斗鱼第三季度总收入高达8.99亿元,毛利润达到1.16亿元,同比增长率高达90.9%,毛利率提升至12.9%。尤为亮眼的是净利润表现...
11:59
微新创想11月21日讯,一加Ace 6T的神秘面纱即将揭晓!今日,安兔兔官方账号在后台监测到一款型号为PLR110的新机信息,其搭载的高通骁龙8 Gen 5芯片,正是这款备受期待的旗舰机型。根据安兔兔V11版跑分结果显示,这款16GB 1TB版本的一加Ace 6T,在性能测试中取得了3561559的惊人总分,这一成绩甚至超越了骁龙8至尊版,展现了其卓越的性能...
11:59
微新创想11月21日讯 小鹏汽车迎来历史性时刻——第100万台整车正式下线,标志着这家新势力车企在短短几年内实现了惊人的产能飞跃。何小鹏董事长在广州车展期间分享了一组令人瞩目的数据:从首台车下线到突破50万台,小鹏汽车耗时82个月;而仅仅14个月后,产量便翻倍达到100万台。这一速度体现了小鹏汽车在智能制造和供应链管理上的卓越能力。 数据显示,小鹏汽车正迎来...
11:59
最新消息显示,华为常务董事余承东于11月21日通过视频展示了华为Mate 80 Pro Max的强大性能。在烈日暴晒环境下,该机屏幕显示内容依然清晰可见,充分彰显了其出色的抗光能力。余承东特别强调,Mate 80 Pro Max不仅拥有卓越的屏幕素质,更具备出色的护眼功能,为用户带来极致的视觉体验。他预告称,11月25日将在直播间揭晓更多产品细节,引发广泛关...
11:59
谷歌旗下AI研究助手NotebookLM迎来颠覆性升级,全新"Slide Decks"(幻灯片生成)功能震撼上线!这一革命性工具能将用户上传的任何资料——无论是PDF文档、网页链接还是视频内容——一键转化为专业级演示文稿(PPT),生成效果远超Gemini App的内置工具,迅速引发AI领域热议,被业界誉为"PowerPoint和Canva的终结者"。全新S...
11:59
OpenAI 近期震撼发布其尖端 GPT-5模型,这一突破性技术预示着数学与科研领域即将迎来革命性变革。在人工智能浪潮席卷全球的今天,各大科技巨头纷纷将目光聚焦于AI在药物研发和新材料发现中的无限可能。GPT-5的问世正是顺应时代脉搏,它将作为科研人员的得力助手,显著提升复杂问题的解决效率。 据OpenAI官方权威介绍,GPT-5在计算能力和语言理解层面实现...
11:59
语音AI创新企业Wispr近日宣布成功完成2500万美元B+轮融资,由知名投资机构Notable Capital独家领投,Steven Bartlett旗下飞行基金Flight Fund强势参投。此次融资完成后,Wispr累计融资金额已攀升至8100万美元,彰显了资本市场对其技术实力与市场前景的高度认可。 作为公司核心产品的Flow Dictation自上线...
11:42
2025年11月21日,中国邮政储蓄银行正式揭晓了其2025年度AI服务器(鲲鹏)及配件采购项目(第二次)的最终中标名单,烽火通信旗下长江计算凭借卓越实力斩获亚军席位,中标金额突破3000万元大关。此次采购项目作为邮储银行强化人工智能算力基础设施的关键举措,将为其金融业务的智能化转型注入强劲动力。长江计算能够成功入围,主要得益于其在国产化算力技术领域的深厚积...
11:42
2025年11月21日,广州国际车展盛大启幕,广汽丰田执行副总经理文大力在展会期间公开了公司未来三年的战略蓝图。文大力透露,广汽丰田计划于2026年实现年产销突破80万台,这一目标的达成将主要得益于新能源汽车销量的显著提升。据公司内部预测,随着电动化转型的深入推进,到2027年,广汽丰田的销量预计将同比增长超过10%,进一步巩固其在新能源汽车市场的领先地位。...
11:42
2025年11月21日,国内领先的视频制作Agent平台Nemo Video正式宣布成功完成近千万美元Pre-A轮及天使轮融资。此次Pre-A轮由知名风险投资机构IDG资本独家领投,而天使轮则获得了锦秋资本、钛动科技、微光创投等多家投资机构的联合支持,同时前零一万物创始人联创谷雪梅个人也参与了投资。棕榈资本作为独家财务顾问全程参与本轮融资。Nemo Vide...
11:42
2025年11月21日,国内领先的AI生成硬件解决方案提供商指数科技正式宣布成功完成Pre-A轮战略融资,投资方阵容强大,包括知名风险投资机构誉尊基金、云启资本以及尚势资本联合领投。作为生成式AI技术在电子产品设计与制造领域的先行者,指数科技凭借其创新性的技术平台,实现了从产品需求分析到PCBA电路板图纸及嵌入式代码的全流程自动化生成,为传统硬件研发模式带来...
11:42
2025年11月20日,微软正式公布一项重要战略布局,宣布将于2026年2月推出Microsoft 365 Copilot官方浏览器扩展,并优先登陆全球领先的Chrome浏览器平台。这一创新举措标志着微软在AI办公生态建设上的又一重要里程碑,其核心功能将深度整合Copilot Chat与Search两大核心能力,为企业用户提供前所未有的智能办公体验。 该扩展...