编者按:本文源自微信公众号硅兔赛跑(ID:sv_race),作者林檎,编辑蔓蔓周,经微新创想授权转载。当前,全球顶尖的科研与工业力量正汇聚于一个前所未有的目标——提升语言模型(LLMs)的性能与实用性。通过与众多业界及学界同仁的深入交流,我整理出以下十大蓬勃发展的研究方向,它们正引领着LLMs技术的革新浪潮。

01 减少和衡量幻觉
幻觉,即AI模型生成虚假或无意义内容的现象,是当前LLMs发展面临的核心挑战之一。尽管在创意场景中,幻觉难以完全避免,但在大多数应用场景中,它已成为亟待解决的缺陷。近期,我参与了一个由Dropbox、Langchain、Elastics和Anthropic等公司组成的LLM讨论小组,与会者普遍认为,幻觉问题是制约企业大规模应用LLMs的关键障碍。因此,减少幻觉现象并建立有效的衡量指标,已成为学术界和初创企业竞相探索的热点领域。目前,已有多种临时代码可减少幻觉,如增加提示中的上下文信息、采用思维链、提升自洽性,或要求模型输出简洁化。以下是一些值得参考的学术成果:
· Survey of Hallucination in Natural Language Generation (Ji et al., 2022)
· How Language Model Hallucinations Can Snowball (Zhang et al., 2023)
· A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity (Bang et al., 2023)
· Contrastive Learning Reduces Hallucination in Conversations (Sun et al., 2022)
· Self-Consistency Improves Chain of Thought Reasoning in Language Models (Wang et al., 2022)
· SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models (Manakul et al., 2023)

02 优化上下文长度和上下文构建
绝大多数AI问题都依赖于上下文信息。例如,询问”哪家越南餐厅最好?”时,地理位置是关键上下文,因为不同地区的最佳餐厅可能截然不同。根据《SituatedQA》(Zhang&Choi,2021)的研究,大量信息查询问题依赖于上下文,NQ-Open数据集中约16.5%的问题属于此类。对于企业应用场景,这一比例可能更高。假设某公司为客户开发聊天机器人,若要机器人能回答任何产品问题,则需整合客户历史记录或产品信息作为上下文。模型通过上下文”学习”的过程,即上下文学习,对检索增强生成(RAG)尤为重要。RAG分为两阶段:首先将文档分块并存储为向量数据库,然后通过查询嵌入匹配最相似的文档块。上下文长度越长,可插入的文档块越多,但模型能否有效利用这些信息,是另一关键问题。提升上下文学习效率,即”提示工程”,同样重要。近期研究显示,模型从索引开头和结尾获取信息的效果远优于中间部分:Lost in the Middle: How Language Models Use Long Contexts (Liu et al., 2023)。

03 融入其他数据模态
多模态技术具有巨大潜力,却常被低估。医疗、机器人、电商等领域大量应用场景需处理多模态数据,如医学预测需结合文本(医生笔记、患者问卷)与图像(CT、X射线等);产品数据常包含图像、视频、描述及表格信息。多模态模型能同时理解文本和图像,性能远超纯文本模型。随着文本训练数据可能耗尽,利用其他模态成为必然趋势。近期令人兴奋的应用包括帮助视障人士浏览互联网和导航现实世界。以下是一些多模态研究进展:
· [CLIP] Learning Transferable Visual Models From Natural Language Supervision (OpenAI, 2021)
· Flamingo: a Visual Language Model for Few-Shot Learning (DeepMind, 2022)
· BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models (Salesforce, 2023)
· KOSMOS-1: Language Is Not All You Need: Aligning Perception with Language Models (Microsoft, 2023)
· PaLM-E: An embodied multimodal language model (Google, 2023)
· LLaVA: Visual Instruction Tuning (Liu et al., 2023)
· NeVA: NeMo Vision and Language Assistant (NVIDIA, 2023)

04 提高LLMs的速度和降低成本
GPT-3.5推出后,其生产中的延迟和成本问题曾引发广泛关注。半年内,模型社区开发出内存占用仅为GPT-3.5 2%的模型,性能却接近GPT-3.5。这一现象印证了”优秀的技术总会被优化”的观点。以下为Guanaco 7B与ChatGPT GPT-3.5和GPT-4的性能对比数据。尽管进展显著,但大幅提升LLM性能仍极具挑战性。四年前,我撰写《设计机器学习系统》时,主要模型优化技术包括:
1. 量化:通过减少参数位数(如从32位降至16位或4位)降低模型大小
2. 知识蒸馏:训练小模型模仿大模型
3. 低秩分解:用低维张量替代高维张量
4. 剪枝:去除贡献较小的权重或连接
这些技术至今仍广泛应用。Alpaca采用知识蒸馏,QLoRA结合低秩分解和量化。

05 设计新的模型架构
自2012年AlexNet以来,LSTM、seq2seq等架构虽兴衰交替,但Transformer自2017年推出后表现异常稳定。开发超越Transformer的新架构极具挑战性。Transformer经过六年优化,在合适硬件上已实现令人惊叹的规模和效果。2021年Chris Ré实验室的”Efficiently Modeling Long Sequences with Structured State Spaces”引发行业热议。该实验室持续开发新架构,近期与初创公司Together推出Monarch Mixer,其核心思想是降低注意力机制和MLP的次二次复杂度。其他实验室也在探索类似思路,但公开研究较少。

06 开发GPU替代方案
自AlexNet以来,GPU一直是深度学习硬件主流。AlexNet的成功部分归功于首次成功使用GPU训练神经网络,相比之下,此前训练同等规模模型需成千上万个CPU。十年间,多家公司尝试开发AI专用硬件,包括Google的TPU、Graphcore的IPU、Cerebras及SambaNova(后转型为生成式AI平台)。量子计算也备受期待,主要参与者有IBM、Google及高校实验室。光子芯片作为另一前沿方向,通过光子传输数据实现更快更高效的计算。该领域已吸引数亿美元投资,包括Lightmatter、Ayar Labs、Lightelligence和Luminous Computing。以下是光子矩阵计算三种主要方法的进展时间线:
· 平面光转换(PLC)
· 马赫-曾德干涉仪(MZI)
· 波分复用(WDM)

07 提高agent的可用性
Agent作为能执行操作的LLMs(如浏览网页、发送邮件),是相对较新的研究方向。尽管Auto-GPT和GPT-Engineering等库已获极高关注,但人们对LLMs的可靠性、性能和行动能力仍存疑。斯坦福实验显示,生成式agent能从单一指令(如举办情人节派对)衍生出复杂社会行为,自主传播邀请、结识新朋友。Adept公司(由两位Transformer合著者及前OpenAI副总裁创立)已获近5亿美元融资,其agent已能浏览网页并添加Salesforce账户。

08 提升从人类偏好中学习的能力
RLHF(从人类偏好中进行强化学习)虽有效,但流程繁琐。人们正探索更优的LLMs训练方法。RLHF面临诸多挑战:
· 如何数学化人类偏好?当前通过比较确定优劣,但未量化程度差异
· 人类偏好定义:Anthropic从”有帮助、诚实、无害”三维度衡量;DeepMind试图生成最符合大众偏好的回答
· 偏好来源:需考虑文化、宗教、政治倾向差异,但现有标注数据存在偏见(如OpenAI的InstructGPT数据中90.5%标注者为男性)

09 提高聊天界面的效率
ChatGPT引发关于聊天界面适用性的持续讨论。聊天界面优势包括易学性、易访问性(支持语音输入)和强交互性。可改进方向:
· 一轮内多条消息:支持插入图像、位置、链接等
· 多模态输入:现有研究多集中于模型构建,界面优化空间大
· 将生成式AI融入工作流程:如指向图表列提问
· 编辑和删除消息:优化对话流程

10 为非英语语言构建LLMs
当前以英语为主的LLMs在非英语语言中的表现不佳。尽管有人认为这更多是资源问题而非研究问题,但低资源语言(如与英语/汉语相比数据量少)需要特殊技术。悲观者认为未来语言将趋同于英语和汉语。以下相关研究:
· ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large Language Models in Multilingual Learning (Lai et al., 2023)
· All languages are NOT created (tokenized) equal (Yennie Jun, 2023)
· Low-resource Languages: A Review of Past Work and Future Challenges (Magueresse et al., 2020)
· JW300: A Wide-Coverage Parallel Corpus for Low-Resource Languages (Agić et al., 2019)

结论
上述十大挑战中,非英语语言LLMs(第10项)直接关乎资源投入,幻觉问题(第1项)因LLMs概率性任务本质而更难解决,LLMs性能优化(第4项)永无止境,新架构和硬件(第5、6项)最具挑战性且不可或缺。部分问题需技术外策略(如人类偏好学习第8项)和用户体验(聊天界面第9项)协同解决。本文(含图片)经微新创想授权转载,不代表其立场,转载请联系原作者。如有疑问,请联系http://www.idea2003.com/。

最新快讯

2026年02月11日

13:42
微新创想:2月10日,ICS Corporate Services Group Inc.(ICS集团)向港交所主板递交上市申请,农银国际为独家保荐人。该公司是中国领先的企业出海专业服务提供商,专注于为企业提供全方位的出海支持服务。其主营业务涵盖企业服务、基金行政管理以及财务税务服务等多个领域。 据弗若斯特沙利文数据,ICS集团在2024年以10.5%的市场份...
13:42
微新创想:2026年2月 欧洲云计算提供商Nebius宣布达成收购AI搜索初创公司Tavily的协议 交易金额为2.75亿美元 预计于未来两个月内完成交割 Tavily成立于2024年 总部位于欧洲 专注于为AI智能体提供实时网络访问层服务 此次收购旨在强化Nebius在AI基础设施领域的技术能力与产品生态 双方未披露具体交割条件及整合计划
13:42
微新创想:2月11日12时13分 西藏阿里地区改则县发生3.8级地震 2月11日12时13分 西藏阿里地区改则县发生3.8级地震 地震发生的具体位置为北纬33.04度 东经85.12度 震源深度为10千米 此次地震属于浅源地震 地震波传播较快 但影响范围相对较小 目前未接到人员伤亡和财产损失的报告 地震感轻微 部分居民短暂感到晃动 相关部门已启动应急响应 开...
13:41
微新创想:2025年国家开发银行在基础设施建设方面持续发力,向网络型、产业升级、城市、农业农村、国家安全五大领域发放贷款共计1.64万亿元。这一举措体现了国家对关键领域发展的高度重视,旨在通过金融支持推动重大项目的实施与推进。 微新创想:其中,广州至湛江高铁项目的开通运营成为重点支持对象之一。该项目不仅将极大改善区域交通条件,还将促进沿线城市的经济发展与资源...
13:41
微新创想:2026年2月11日,中芯国际联合CEO赵海军在业绩交流会上表示,受AI算力需求激增驱动,高带宽内存(HBM)缺货将延续数年,瓶颈正转向后端测试环节 晶圆前端产能预计9个月后释放,但新增产能将优先投向手机、电脑等消费类产品 叠加渠道库存释放,中低端手机及PC市场有望于2026年第三季度出现需求回升
13:41
微新创想:2026年2月10日,江苏深蓝航天有限公司在江苏南通成功完成了“雷霆-RS”液氧煤油变推力发动机的两次整机点火试验。试验分别持续了5秒和40秒,标志着该发动机在关键技术领域取得了重要突破。 微新创想:此次试验的发动机推力达到130吨,成为国内目前推力最大的针栓式液氧煤油发动机。该发动机采用先进的变推力技术,能够根据任务需求灵活调节推力,为后续火箭发...
13:41
微新创想:近日,安徽合肥肥西一名25岁小伙解皓明在打扫老房子时,意外发现了一块奶奶生前用来压锅盖的石头。这块看似普通的石头却意外地在网络上引发了一场温情回忆潮,让无数网友为之动容。 解皓明在过年放假期间回到家乡,当他看到这块石头时,记忆的闸门瞬间被打开。他说,这块石头虽不起眼,却承载着奶奶做饭时的温暖记忆,看到它就会想起奶奶音容笑貌。 民俗学者指出,随着气压...
13:03
微新创想:2026年2月11日,裕同科技(002831.SZ)发布公告,拟以4.49亿元自有或自筹资金,向关联方观点投资收购其持有的华研新材51%股份。此次交易的双方存在关联关系,因裕同科技的实际控制人王华君、吴兰兰夫妇全资控股观点投资。交易完成后,华研新材将正式纳入裕同科技的合并报表范围,成为其控股子公司。 此次收购是裕同科技在战略布局上的重要一步。通过整...
13:03
微新创想:2026年2月10日,芝奇(G.Skill)就DDR4/DDR5内存速度宣传误导集体诉讼达成和解,同意支付240万美元 诉讼指控其未明确告知消费者:标称高频需通过BIOS启用XMP/EXPO超频功能,否则仅以JEDEC基础频率运行 和解要求芝奇自2026年起在包装、官网及规格表中添加“最高(up to)”标识及免责声明,说明性能依赖主板与CPU设置...
12:32
微新创想:2026年2月6日至10日,京东在德国法兰克福Ambiente展期间,与双立人、STAUB、爱仕达、凌丰、三头鹰、三禾、Joseph Joseph、德国唯宝、永丰源、Alluflon等十余家全球优质厨具品牌签署战略合作协议。此次合作不仅涵盖了多个国际知名品牌,也包括了国内优秀的厨具制造商,体现了京东对厨具品类的高度重视。 微新创想:合作的核心目标是...
12:32
微新创想:2026年2月11日 抖音生活服务正式启动“春节不打烊”服务保障专项 抖音生活服务在2026年2月11日宣布全面启动“春节不打烊”服务保障专项。这一举措标志着平台正式进入春节消费高峰的备战阶段。专项服务覆盖全国范围,涵盖餐饮、旅游、娱乐等多个本地生活领域,为商家和消费者提供全方位支持。 此次专项的推出旨在应对春节期间的大量消费需求。随着人们出行和聚...
12:32
微新创想:2026年2月10日,波兰开源咨询公司3mbdeb成功将AMD新一代开源固件openSIL移植到MSI PRO B850-P主板上。该主板基于Zen 5架构,这一突破性进展早于AMD官方公布的计划,意味着openSIL替代封闭AGESA微码的进程提前进入了Zen 5时代。 openSIL采用了模块化设计,能够与Coreboot等开源固件平台无缝结合...