AI大模型如何实现商业化变现,已成为当前AI领域创业者既想回避又不得不面对的核心难题。尽管ChatGPT Plus等付费增值服务看似前景广阔,实则只是杯水车薪。效仿苹果App Store、谷歌Play Store构建分发平台,或许才是AI大模型商业化的正道,而行业领头羊OpenAI已率先迈出这一步。继其推出插件支持、开放API并转型平台模式后,国内相关厂商也纷纷效仿。近日,百度集团副总裁吴甜在公开场合详细分享了百度自研大语言模型”文心一言”的最新进展,包括面向开发者推出的AI Studio星河大模型社区、插件机制,以及文心大模型”星河”共创生态计划等创新举措。
据百度官方介绍,星河社区致力于为开发者提供一站式大模型开发体验,并设有丰富功能促进开发者交流协作。目前该社区已汇聚超过300个创意应用案例。百度基于”文心一言”核心技术,为开发者提供了低门槛的插件开发工具集(ERNIE Bot SDK),支持信息服务类、工具类、大语言模型创新类等多种插件开发。开发者完成插件后,可通过平台接入文心一言大模型,实现与应用层生态的深度融合。事实上,百度布局AI社区、打造自有平台早已埋下伏笔。在世界互联网大会数字文明尼山对话上,百度创始人李彦宏在《大模型重塑数字世界》主题演讲中明确指出:”国际竞争的关键不在于拥有多少个大模型,而在于大模型上承载多少原生AI应用,以及这些应用如何提升生产效率”。
显然,在投资规模惊人的AI大模型赛道,构建社区生态或许是打通可循环商业模式的最佳路径。然而从客观角度看,插件模式在满足大模型应用层开发者需求方面成效有限。以OpenAI的ChatGPT为例,尽管超过77%的公司采用其API开展AI业务,但OpenAI创始人Sam Altman坦言:”这一模式未达预期”。OpenAI对谷歌Chrome插件模式的模仿之所以效果不佳,原因显而易见——即便Chrome插件生态本身呈现高开低走趋势,该模式仍缺乏可持续性。反观App Store这类应用商店的成功则毋庸置疑,过去十余年间,以App Store和Play Store为代表的应用商店经济已成为移动互联网生态的核心引擎,创造了万亿美元级价值,使开发者真正实现职业化。应用商店经济作为平台经济的一种形式,通过搭建多边市场连接供需双方,既能通过抽成让开发者付费,又能直接向用户收费。苹果、谷歌只需维护平台正常运转即可实现”躺赚”,日常运维团队规模相对较小,这正是应用商店模式的魅力所在。
然而应用商店这类分发平台起步阶段充满挑战,关键在于如何吸引用户使用。苹果凭借iOS系统、谷歌依赖Android系统、手机厂商依靠硬件优势,而曾经盛极一时的豌豆荚、360等第三方渠道如今已难觅踪影。在AI赛道,百度和OpenAI同样具备天然优势,分别拥有文心一言和ChatGPT,在各自市场的先发优势十分明显。在国内市场,百度作为首个推出中文AI大模型的厂商,仍是普通用户体验中文AI大模型最便捷的选择。但百度的时间优势有限,阿里的通义千问、字节跳动的豆包、腾讯的混元、京东的言犀等竞品已陆续进入测试阶段。百度借助中文AI大模型的先发优势及用户基础,搭建星河大模型社区吸引开发者,正是利用了时间差策略。
促使百度上线大模型社区的关键因素之一,可能是瞄准了Mass(模型即服务)领域。通过为企业提供模型精调、评测、推理等全方位服务,出售底层模型能力获利,这已成为ChatGPT和文心一言的商业模式。但这一独门生意或许难以为继,因为海外有Meta的Llama2开源大模型,国内则有字节跳动的大模型服务平台火山方舟。文心一言的热度不仅源于先发优势,更得益于百度飞桨平台多年的积累,在此基础上搭建的星河大模型社区更为成熟,具备可商用、市场更近、数据资产更安全、本地化服务等全方位优势。当前,专注大模型应用层的开发者可选平台更多,例如Meta的Llama2需在活跃用户超7亿时才需申请特殊商业许可证,火山方舟则背靠字节跳动庞大的流量优势。
归根结底,AI大模型本身成本高昂,英伟达GPU价格昂贵且难以购买,AI开发者人工成本高,训练大模型需要消耗大量资源。各大厂商目前投入这一”无底洞”的资金,几乎全凭预期支撑。但画饼终究无法解决实际问题,业务跑通、实现盈利才是王道。因此,百度的星河大模型社区、插件机制、”星河”共创生态计划,正是在做”筑巢引凤”的工作。毕竟只有有了开发者,才能产生AI应用;有了落地的AI应用,才能吸引更多用户;有了更大规模的用户群体,才能形成繁荣的生态——百度自然深谙此道。