微新创想:Luma Labs 于 3 月 23 日正式发布图像生成模型 Uni-1 这是该公司基于 Unified Intelligence 架构打造的首款公开模型 官网已开放免费试用 API 定价方案同步公布 企业接入通道也将逐步上线
架构变化方面 Uni-1 完全摒弃了当前主流的扩散模型路线 转而采用 decoder-only 自回归 Transformer 架构 将文本 token 与图像 token 交错排列成单一序列 实现了在同一个前向传播过程中完成推理和像素生成 这一设计突破了传统生成模型的两阶段流程 有效减少了信息损耗 Luma CEO Amit Jain 表示 传统方案通常是先用语言模型进行规划 再由扩散模型生成图像 但两个阶段之间容易出现信息断层 而 Uni-1 的设计目标正是消除这种断层

在功能上 Uni-1 支持通过单张或多张参考图来引导图像生成 可以保留人物的身份 姿势以及整体构图 官方测试表明 在处理角色一致性与人像控制时 多参考图模式表现尤为稳定 模型声称能够支持 76 种不同的视觉风格 包括写实摄影 漫画 浮世绘等 在演示中 输入“画一张金门大桥信息图”后 模型不仅自动规划布局 还生成了桥梁结构图并标注“1711 Meters”等数据 内部推理过程也能够实时展示
在基准测试中 Uni-1 表现突出 在 RISEBench 推理基准测试中 总分为 0.51 高于 Google Nano Banana 2 的 0.50 和 OpenAI GPT Image 1.5 的 0.46 空间推理单项得分为 0.58 逻辑推理得分为 0.32 后者约为 GPT Image 的两倍 在 ODinW-13 物体检测任务中 得分达到 46.2 mAP 接近 Google Gemini 3 Pro 的 46.3 人类偏好 Elo 排名方面 Uni-1 在整体偏好 风格与编辑 参考生成三项测试中均排名第一 文生图单项排名第二

在定价方面 API 按 token 计费 输入文本为 $0.50/百万 token 输入图像为 $1.20/百万 token 输出文本与思考链为 $3.00/百万 token 输出图像为 $45.45/百万 token 换算为单张图像的成本 文生图(2048px)大约为 $0.0909 带单张参考图的编辑成本为 $0.0933 8 张参考图的成本为 $0.1101 VentureBeat 报道指出 在 2K 分辨率的企业应用场景下 Uni-1 的成本比 Google Nano Banana 2 低 10% 至 30%
Luma Labs 之前主要以视频生成产品 Dream Machine(Ray3 系列)为业务核心 今年 3 月 5 日推出了基于 Unified Intelligence 架构的 Luma Agents 创意代理平台 Uni-1 是该架构首次在静态图像产品上实现落地 发布数小时内 相关帖子在 X 平台获得了超过 230 万次浏览 Luma 表示未来将陆续推出视频和音频版本 具体时间尚未公布
目前 Uni-1 已在官网开放免费试用 有兴趣的用户可以前往 lumalabs.ai/uni-1 进行体验
