

微新创想:在3D重建这个一直被视为“硬骨头”的AI领域,苹果公司刚刚秀出了一项足以改变游戏规则的黑科技。据最新报道,苹果AI研究团队发布了一项名为LiTo(表面光场标记化)的最新模型。它的核心突破在于:仅凭一张普通的2D平面图像,就能重建出完整的3D对象,且细节还原度达到了物理级别的真实感。

长期以来,单图生成3D模型最大的痛点在于“光影的一致性”。当你旋转视角时,物体表面的反射、高光往往会变得扭曲或失真。而LiTo模型通过引入创新的“潜在空间”(Latent Space)表示法,成功攻克了这一难题。它不再是死记硬背像素,而是通过数学向量掌握了光线与表面交互的底层规律。

简单来说,LiTo具备了极强的“脑补”能力。哪怕只有一张正面照,它也能精准预测出物体背面在不同光照条件下的镜面高光和菲涅尔反射。在官方公布的对比测试中,LiTo在多视角光影还原度上,已经显著超越了目前行业领先的TRELLIS模型。
为了打磨这个“细节控”AI,研究人员使用了数千个3D对象,在150个视角和3种光照条件下进行了高强度训练。这种对光影近乎偏执的追求,显然是在为空间计算生态铺路。想象一下,未来你只需用iPhone拍一张照片,LiTo就能瞬间将其转化为一个栩栩如生的3D模型,并无缝置入Vision Pro的虚拟空间中。
这种从2D内容到3D资产的极简跨越,或许正是苹果在AI赛道上实现“后发制人”的关键杀手锏。
