声明:本文来自于微信公众号 浅黑科技(ID:qianheikeji),作者:史中,授权微新创想转载发布。
(一)ChatGPT和宋丹丹,谁陪你聊天更贵?
“有人花钱吃喝,有人花钱点歌,有人花钱美容,有人花钱按摩,今儿我雇个好活,有人花钱,雇我陪人儿唠嗑儿。”2000年,作为一个小屁孩在电视前看春晚时,我决计想不到,有生之年世界上真能出现一个陪人唠嗑的机器人,还能唠得和小品《钟点工》里宋丹丹演的“大妹子”一样好。。。二十三年以后,我等到了 ChatGPT。先问你个问题:ChatGPT 和宋丹丹,你觉得谁陪你聊天会更贵一些?看上去有点儿无厘头,其实这是个严肃的问题。你先在心里盲猜一个答案,然后我给你求解:先来看钟点工的价格。小品里宋丹丹说了,唠一小时40块。再来看 ChatGPT。它唠嗑的价格,一般人不知道,但中哥我知道。这是浚源告诉我的。给你介绍一下,浚源有三个身份:一、人工智能老师傅;二、字节跳动火山引擎旗下“方舟平台”的研发负责人;三、不仅关心AI马儿跑,更关心马儿吃多少草的“现实主义者”。话说,2022年底,ChatGPT 刚横空出世那阵儿,作为人工智能界的“老炮儿”,浚源简单跟它对话了几句,就得出了两个了不得的结论:一、这种大模型加持的AI,掌握了理解上下文的能力,可以像人一样你一言我一语地“连续对话”。就凭这一样,已经华丽丽地实现了几代人工智能科学家半个多世纪的梦想。二、能做到这一点,是因为他们掌握了 AI 大模型的“涌现机制”。从专业角度看,这个进步不是“骗炮”,它很可能让人工智能摆脱如中世纪般漫长的“人工智障阶段”,得以在各行各业迅速普及!一想到“普及”两个字,他不困了,按捺不住想要算算这大模型运转的成本是多少。话说,ChatGPT 的“工资”也是明码标价的——它是按照 Token 来计算的。啥是 Token?咱们人类理解语言的基本单位是字词,但是大模型理解语言的方法稍有不同,它的基本单位就是 Token。一个 Token 有时候对应半个词,有时候对应多个词,大部分时候对应一个词。为了方便,咱们就简单理解为一个 Token 对应一个词吧。这张图直观展示了啥是“Token”。ChatGPT 跟你聊天,分为两步:1)先理解你说的话;2)再生成它说的话。这“一听”+“一说”,里头总共有多少Token,它就收你多少钱。现在 ChatGPT 有两个版本,普通版的 ChatGPT3.5,还有史诗级的 ChatGPT4.0。调用 ChatGPT3.5的价格是“每1000个 Token0.002美金”;调用 ChatGPT4.0的成本大概是“每1000个 Token0.06美金”。咱们就按一问一答500个Token算:ChatGPT3.5回答一个问题大概是不到1分钱人民币,ChatGPT4.0回答一个问题大概是不到5毛钱人民币。也就是说,如果你打字飞快,把 ChatGPT4.0壁咚到墙角一顿唠,一小时能问出去几十个问题,极限状态也能耗费掉30-40块钱。说到这儿,我们的问题大概就有答案了:目前人类最先进的 AI 大模型——ChatGPT4.0——竟然和宋丹丹老师陪聊的价格差不多。。。它聊一小时也相当于黄宏老师的1小锤,0.5大锤。。。相当于赵丽蓉老师的0.22杯宫廷玉液酒。。。好,不开玩笑了。其实刚才这些计算都是非常粗略的,不足作为商业参考,我讲这些只是为了让你能直观地感受到:人工智能不是省油的灯——“大模型”干起活来,其实成本并不低。而我们今天要讲的所有故事,皆与此相关。话说,大模型干活的成本高低,本来和浚源也没太大关系。因为他当时还在忙另一个项目,测试大模型只是满足一下自己该死的求知欲。可是,2023年3月底的一天,他的命运轨迹突然如秋名山的赛道,来了一个急转弯。当时火山引擎智能算法负责人吴迪找到他,开门见山:眼看大模型的浪头已经开始翻涌,火山引擎准备跳进这个历史大潮里,你要不要来?“来!”浚源回答很干脆。浚源(二)一帮人工智能老师傅,发现了啥惊天大幂幂?老规矩,在讲“老师傅搞事情”之前,为了让浅友们都能上车,咱们还是先把时间暂停,强势科普一点儿基本姿势。问:到底啥是大模型?答:就像飞机是用钢铁模仿鸟儿翅膀一样,大模型是用计算机模仿人类的大脑。咱们的大脑之所以能做决策,是因为它把过的学知识、见过的人、想过的事情都做成了“缩略图”存在了脑细胞里——遇到啥问题,去“缩略图”上查一下,就能得出答案。你老板之所以给你发工资,不就是因为你有这个技能点么?大模型也是一样——你只要把全世界的知识都拿来,然后像虎妈一样督促它“好好学习”,也能在它“大脑”里生成缩略图。和你一样,大模型也能用这个能力打工赚钱!问:那一个大模型从“啥也不是”到能“打工赚钱”,中间拢共分几步?答:分五步。1、找一座“贵族学校”。众所周知,训练“AI 模型”需要用 GPU 卡。训练 AI 大模型,更是得用成千上万个 GPU 卡。GPU 卡堪比黄金,每张都得一万美元起步,堆在一起妥妥就是盖了一座贵族学校嘛!这也没办法,大模型的本质就是氪金魔法,没有金刚钻,别练大模型。2、找来一堆“课本”。所谓课本,就是数据,成吨的数据。(训练一个靠谱的大模型,怎么也得几千亿 Token 吧。。。)课本里的知识越多、越纯、越高级,最终学出来的大模型就越厉害。3、找一群“老师”来上课。所谓老师,就是“机器学习平台”。把一个小孩纸丢进学校里,他是没办法自学成才的,得有老师来讲课。同样,AI 也需要“灵魂的工程师”。机器学习平台负责“安排课表”,然后对照“课本”上的知识一堂一堂地给大模型“上课”。所有知识都学完,大模型就毕业了。4、找一群“师傅”来带徒弟。你懂的,很多毕业生虽然满脑袋都是知识,但啥也干不好,因为没有专业领域的实践经验嘛!大模型也一样,得根据它将要承担的具体工作,找个“师傅”来继续做“职业培训”。这个过程就叫对模型的“精调”。至此,大模型的“训练”阶段终于结束,可以出徒了。5、大模型开始“搬砖”。大模型搬砖的姿势,学名叫做“推理”。比如,我给大模型提一个请求,它在“大脑”里过一下,输出一个结果,就完成了一次推理。当然,每次推理都会耗费一些计算力。注意,有趣的事情来了:推理的计算力成本和“模型大小”有关系。说到一个模型的大小,其实就在说它包含多少个参数。就拿 ChatGPT3.5来说,它的模型大概有几千亿个参数(具体数量没有公布),而 ChatGPT4.0大概有上万亿个参数(具体数量也没公布)。你可以把参数类比为人的“脑细胞”。思考同样的问题,脑细胞多的“大脑袋”比脑细胞少“小脑袋”更耗费能源。当然,“大脑袋”能解决的问题也更复杂。很公平,对吧?诶,就在这里,老师傅们发现了一个惊天大幂幂。啥秘密呢?AI大模型的复杂度并不是随着任务复杂度“同步增加”。任务复杂,模型必须指数级增大。这也意味着推理成本会随之提升。人脑则不同:随着思考问题难度的增加,推理成本几乎不会上升。(当然人脑存在一个思考极限。)大幂幂来了:假如要处理的问题难到一定程度,“AI 大模型解题的成本”就会超过“人脑解题的成本”。那 AI 大模型大到啥程度,就会比(同等聪明的)人更贵了呢?拿2023年的科技水平来说,至少在 ChatGPT4.0能处理的任务复杂度这个级别,人和 AI 的成本已经大致相当了。(这下你明白为啥我在文章开头要算那个账了吧?)当然,浚源强调这样简单比较并不准确。但一个总体趋势是:特别难的任务推理成本还太高,目前不太实用。了解了这些,我们再回到吴迪和浚源他们身边,你就能跟上这群“AI 老炮儿”当时的思考逻辑了:像 GPT4.0那样超大的模型,更靠近通才——靠一个模型就能胜任多种工作。虽然研发一劳永逸,适配各行各业相对简单,但是它的推理成本会很高,甚至超过真人!明显用人来干更便宜的情况下,谁会用 AI 去干呢?像 GPT3.5那样或者更小一点的大模型,更靠近专才——必须针对各个工作单独调整模型,才能完美胜任。(或者说它也是通才,但比真正的通才更专一些。)虽然适配工作很麻烦,但是,它的推理成本低啊!大家用得起,才有商业化的动力。话说,就在我们故事开始的2023年3月,眼看中国大大小小的企业都已经开始研发大模型,堪称“百模大战”。当时很多看客觉得,中国大模型要想追上 ChatGPT3.5的水平,起码得2-3年。但浚源掐指一算,不用那么久——预计到2023年底,大家就能追上 ChatGPT3.5的水平。这也意味着,“小而专”的大模型在中国的商用已经箭在弦上。有了这些共识,老师傅们再盘腿坐在一起,商量火山引擎要搞点儿啥事情。他们得出结论:既然这么多小而专的大模型想进入各行各业,必然需要根据具体的工作种类进行定向精调、各种适配。那作为云计算服务商,能不能把各家大模型都放在一起,火山引擎提供统一的平台和工具,帮这些大模型在各行各业落地呢?这不就是那个经典逻辑么?在美国西部淘金热的时候,赚大钱的不是那些亲自淘金的,而是在一旁卖铲子的。。。但我转念一想:不对啊!帮大模型在各行各业落地,这是你说帮就帮的么?这些大模型愿意么?各行各业的客户愿意么?其实,2023年春天吴迪忽悠浚源“入伙”时,浚源就提出了这个疑问:“咱们家里到底有啥矿,让人家非得和我们火山引擎合作不可嘞??”吴迪呵呵一笑:你有所不知,就在此时此刻,智谱、MiniMax、出门问问、澜舟科技、百川智能这些明星公司的大模型已经跑在咱们火山引擎上了!吴迪(三)火山引擎的“朋友圈”来之不易实话实说,第一次听到吴迪说“中国很多明星大模型都跑在火山引擎上”,我也觉得他在吹牛。怎么可能有这么多嘛?!但是仔细了解了“火山简史”之后我发现,如果我是大模型创业公司,可能也会把大模型放在火山引擎上来训练。听我来讲讲这段故事。火山引擎跟人工智能的关系,怎么说呢。。。就主打一个“家传”。话说,字节跳动的两大天王——抖音和今日头条——它们火爆的原因有千万条,但如果只能说一条,那肯定