8月30日,由微新创想倾力主办的2023AIGC技术应用大会在深圳盛大召开。本届大会以”元载万物·智启新界”为核心主题,旨在深度聚焦AIGC技术的创新应用,为行业同仁搭建一个探索AIGC产业落地实践的交流平台。会上,加拿大工程院外籍院士、HiDream.ai创始人兼CEO梅涛先生发表了题为《AIGC掀起未来创意无限可能》的主题演讲,其精彩观点如下:
1. 我们运用AI辅助动漫创作,并非意图取代传统电影工业,而是希望通过AI技术激发创作者的潜能与想象力,显著提升生产力,同时有效降低创作成本。
2. 预计在2025年至2026年间,AI辅助创作的图片和视频数量将超越人类自主创作的总量,这意味着整个数字创意领域将迎来AIGC的全面赋能。
3. 类似于自动驾驶技术分级,我们将AIGC的视觉创作能力划分为五个层级:纯人工编辑→创意创作工具→部分生产力创作工具→完全生产力创作工具→设计大师。目前行业仍处于从L2迈向L3的关键发展阶段,未来发展潜力巨大。
4. 在AIGC蓬勃发展的时代,我们期待与勇于创新的创业者携手,共同构建健康良性的产业生态,推动行业持续进步。
以下为演讲内容整理,由微新创想团队精心汇编:
非常荣幸参加微新创想精心组织的这场盛会,今天我将与各位探讨生成式人工智能在数字创意领域的无限可能及技术发展趋势。首先,我为大家呈现一部短片,这部作品是我们与北京电影学院教师团队联合创作,其中所有视频画面、运镜设计均由HiDream.ai的Pixeling创作工具独立完成,未使用任何第三方软件。通过人工智能生成一部完整影片的流程大致分为五个步骤:脚本创作→分镜设计→关键帧生成→镜头渲染→视频合成。相较于传统人工制作,借助AI工具完成影片创作的优势十分显著:一个人仅需一到两周即可完成;而若依靠人工团队完成同等作品,从选角、场景搭建到导演统筹等环节,至少需要一个月时间。
AIGC重塑创意世界
我们运用AI辅助动漫创作,并非意图取代电影工业,而是希望通过技术手段提升创作效率、降低制作成本、优化创作体验。今天我们重点探讨视觉AIGC话题,首先分享两个典型案例。第一个案例是去年登上美国著名时尚杂志封面的AIGC生成图片。在这张照片中,”在浩瀚宇宙中,一位女性宇航员在火星上,昂首阔步地走向广角镜头”这一完整场景被完美呈现,而人类艺术家绘制这样一幅作品,至少需要一两周时间。第二个案例是人工智能工具创作的油画作品,曾荣获柯罗拉多州州立美术大奖,尽管引发了不少争议。这两个案例都在传递一个明确信号:AI赋能艺术创作是大势所趋。
数据显示,文艺复兴时期人类创作了数十万幅绘画作品,但留存至今的不足十万幅。而如今,人类每天在社交平台上传的图片和视频数量已超过十亿。预计在2025年至2026年间,AI辅助创作的图片和视频数量将超越人类自主创作的总量,这意味着整个数字创意领域将迎来AIGC的全面赋能。以世界名画《戴珍珠耳环的少女》为例,17世纪荷兰画家约翰内斯·维米尔花费数月时间才完成这幅杰作。但在今天,AI可以将这位少女置身于厨房、咖啡店、沙滩等不同场景,极大丰富原作之外的画面想象力。
生成式人工智能艺术创作的发展现状及未来
类似于自动驾驶技术分级,我们将AIGC视觉创作能力分为五个层级:纯人工编辑→创意创作工具→部分生产力创作工具→完全生产力创作工具→设计大师。目前行业仍处于从L2迈向L3的关键发展阶段,未来发展潜力巨大。事实上,从创意素材产生到融入完整工作流,还有很长的探索之路要走。视觉生成领域要创造出令人惊艳的作品,仍面临诸多挑战。首先,在细节处理上,我们常遇到”恐怖谷效应”,特别是手指等部位的控制精度仍需提升。其次,如何设计有效的prompt以充分发挥大模型威力,是一个重要课题。第三,可控性问题包括IP保护、人物特征保持和SKU精准控制等。此外,视频制作中不同镜头间的连续性问题也是一大挑战。
那么,视觉AIGC未来的想象空间究竟有多大?有预测称,GPT-4的参数量已达1.2万亿个,而GPT-5可能更大。如果机器学习技术能在未来几年有效吸收和理解人类产生的高质量语言数据,这种增长可能将迎来新的发展天花板。目前视觉AIGC能力表现,无论是Imagen还是Stable Diffusion,模型参数基本在几十亿级别,仍处于GPT-2时代。我们致力于突破这一瓶颈,探索基于视觉的多模态底层大模型,让视觉AIGC从GPT-2时代跃迁至GPT-3时代。目前我们自研的基础模型数据量级已达60亿,相信很快将突破百亿模型目标。
Pixeling:掀起未来创意无限可能
HiDream的产品Pixeling工具基于自研的生成式视觉多模态基础模型开发,支持多种模态间的无缝转换,不仅支持文生图、文生视频、视频编辑,还将支持图片编辑、图生视频、图生3D等功能。以图片素材生产为例,涵盖品牌调性、版权图片、材质特写、模特换装、商品摄影等多种类型,目前提供16种不同图片风格选择。Pixeling还支持文本生成视频以及图片生成视频,包括影片中展示的宇航员在月球上行走的全景画面,还能实现转弯动作,这一技术难度较高。除了背景运动外,我们还实现了前景运动、人物运动和运镜功能。此外,我们的产品最近在学习镜头语言,包括镜头构图、运镜和剪辑技巧,旨在为从业者提供更高效、更节省时间的创作工具。
在电商领域,Pixeling能够根据用户提供的SKU图片,结合给定prompt和背景图生成与背景无缝衔接的商品图片;若用户未提供背景图,我们也可根据SKU图片结合多种prompt生成对应商品图,整个过程仅需几秒钟。产品问世不久,我们已参加香港中文大学发布的HPS v2文生图模型客观评测。该评测将包含绘画风格、概念艺术、动漫风格以及真实图片在内的3200个prompt分别放入不同文生图模型进行验证。Pixeling1.0版本的模型上线和训练仅用了约三个月时间,经过测试,目前在该数据集的文生图模型中排名第二。当然,Pixeling1.0版本的表现与顶尖竞品仍有差距,但它毕竟是个”三个月大的孩子”,我们有信心它未来会成长得更加完善。
我们十分认同其他嘉宾提出的AIGC”落地为王”观点,这也是我们今后持续努力的方向。在AIGC蓬勃发展的时代,我们期待与勇于创新的创业者携手,共同构建健康良性的产业生态,推动行业持续进步。再次感谢大家的聆听!
