什么样的技术能够穿越时光的洗礼依然历久弥新?答案或许藏在一条清晰的“三部曲”规律中——兴起、发展与大规模应用,随后开启新一轮迭代升级。以史为鉴,蒸汽机引领了第一次工业革命,当它进化为内燃机并开始普及时,第二次工业革命的驱动力——电能及其相关设备正处于萌芽期。而当电力技术迈向微电子的革新阶段,燃油引擎仍在持续优化与推广中。这条技术演进规律启示我们:尽管大语言模型(LLM)如今占据AI领域的聚光灯,但这并不意味着“LLM之前无AI”。在大模型风光无限的同时,那些曾经以决策见长的传统机器学习应用,以及专注于感知能力的深度学习应用,并未沉寂,它们正从喧嚣的青春期稳步过渡到实战阶段。
某芯片巨头近期发布的一系列AI实战手册,生动印证了这一趋势。手册分别聚焦制造与能源、医药、金融、交通与物流,以及教育等行业的AI实践。尤其在物流交通和医疗健康领域的最新手册中,详细记录了众多已落地或正在推进的AI应用案例,并分享了如何将这些技术顺利部署、充分释放性能潜力,以及头部企业一线实战的宝贵经验。这充分说明,AI的版图远不止大模型,AI的成熟阶段也绝非仅有大模型的时代。
或许你还未意识到,如今即便是小小的快递包裹,背后已有AI技术的默默加持。事实上,AI已深度渗透物流全流程:从下单、发货、分拣、转运到配送,AI几乎全程参与。以OCR(光学字符识别)技术为例,它在物流领域堪称基石,极大提升了作业效率。无论是寄件人填报的地址、身份信息,还是电商仓库核对货品信息,OCR都能实现“一键录入”,效率惊人。随着AI技术的日趋成熟,这种速度实现了“没有最快,只有更快”。韵达快递的案例尤为典型:在三段码OCR识别中,原定95%的准确率目标被AI轻松超越,准确率接近98%,同时处理时间也从130ms压缩至114ms。△基于韵达2022年10月测试的性能数据
OCR识别只是AI赋能物流的一角。从宏观视角看,AI正为各行各业注入强大动力。以交通领域为例,AI视频分析技术可实时监测高速公路路况,实现车流流量监控、车牌识别、事故预警等功能,为路面管理提供精准数据支持。在机场,AI摄像头能精细识别航空器、车辆、人员及违边情况,显著提升飞行区域安全水平……这些案例表明,尽管“明星级”AI应用热度有所回落,但它们已深度融入生活,核心价值在于“节支增效”。
那么,AI如何实现高效“节支增效”?答案藏在英特尔®️平台的软硬件协同方案中。作为该平台的核心提供者,英特尔不仅推出了多行业AI实战手册,更通过一系列技术优化助力AI应用落地。至强®️可扩展处理器及其内置AI加速器、OpenVINO™️、oneAPI等框架与软件,共同构建了强大的AI性能基础。当前影响AI应用性能的关键要素是算力与数据访问速度。第四代至强®️可扩展处理器单核最高达60核,内存通道数、缓存大小、访问速度等均获优化,CPU Max系列更集成HBM高带宽内存技术。在指令集层面,英特尔®️AMX(高级矩阵扩展)硬件加速器成为CPU加速AI应用的“C位”,其性能较前代VNNI指令集提升8倍以上。AMX由2D寄存器文件和TMUL模块组成,支持INT8和BF16数据类型,其中BF16计算效率更优。
除了核心硬件,英特尔还提供了一系列“亲生”但“不私享”的AI软件工具。以OCR加速为例,OpenVINO™️通过删减冗余计算、优化推理流程,仅需5行代码即可完成框架替换,用户可灵活调整参数以适应不同场景。这套软硬件组合拳不仅释放了CPU计算潜力,更在推理场景中实现近乎GPU的性能,同时具备低成本、易部署等优势。
然而,英特尔的AI加速远不止于此。在大模型领域,英特尔同样展现出前瞻布局。尽管大模型距离大规模落地尚有距离,但其技术领先性毋庸置疑,甚至有望赋能传统AI应用焕发新生。英特尔作为基础算力提供者和应用性能加速器,已在大模型竞赛中占据有利位置。首先,针对大模型高昂的部署成本,英特尔推出SmoothQuant技术,通过模型压缩(量化、剪枝、蒸馏、神经架构搜索)显著降低模型体积(瘦身3/4),提升准确性与推理性能。该技术已整合至英特尔®️Neural Compressor开源库,支持TensorFlow、PyTorch等主流框架及多款英特尔®️架构硬件。
在硬件层面,英特尔持续发力。第四代至强®️可扩展处理器内置的英特尔®️AMX大幅提升模型微调速度,CPU Max系列集成HBM满足大模型高内存带宽需求。△英特尔® AMX技术架构此外,Habana®️Gaudi®️2深度学习加速芯片可在单服务器部署8张96GB内存的加速卡(HPU),为千亿级大模型(如BLOOMZ)提供充足算力,经优化后性能时延控制在3.7秒。对于70亿参数的BLOOMZ-7B模型,Gaudi®️2单设备时延仅为第一代Gaudi®️的37.21%,8卡部署时进一步降至约24.33%。△BLOOMZ在Gaudi®️2和第一代Gaudi®️上的推理时延对比
软件层面,英特尔通过OpenVINO™️为ChatGLM等热门大模型实现模型压缩与优化,降低内存带宽使用率,提升推理速度。这充分体现英特尔“软硬一体”的打法。硬件方面,Gaudi®️加速卡在训练与推理性能上媲美GPU,性价比突出。安全方面,英特尔®️SGX/TDX可信执行环境(TEE)为AI应用提供安全运行保障,无需牺牲性能。这些举措共同构成了英特尔在大模型时代的“加速之道”。
展望未来,英特尔的AI战略遵循“用起来才是硬道理”的原则。其创新使命已升级为:在各类硬件产品中融入AI能力,通过开放、多架构的软件解决方案推动AI普及,促进“芯经济”崛起。英特尔的“加速之道”不仅是加速技术落地,更是以用促用、以用促新、以用促变,为下一代技术变革埋下伏笔。正如Intel Innovation 2023反复强调的愿景:让AI无处不在(AI Everywhere)。