文|周小燕
在ChatGPT成为“全民应用”的半年时间内,随着入场做大模型的角色增多,关于大模型创业风口的争议点已发生了一轮转变:从讨论大模型是否为大厂专属,转而关注大模型创业的核心壁垒,在此背景之下,创业公司的竞争力在哪里?VC的投资策略需要做哪些调整?
腾讯科技“AI未来指北”系列,本期专访国内大模型独角兽公司MiniMax背后早期投资方云启合伙人陈昱,对以上问题进行探讨,核心观点:
- 1大模型时代下,未来的应用也有一个“二八定律”,大约有80%会是现在的应用接入大模型后的「升级版」,有20%是基于大模型的新能力开发出的新应用。
- 2各行各业的整体格局都不会因为大模型而发生大的改变,即便大模型改变了应用入口,也不会对商业格局的本身产生大的改动,它只是一个体验升级。AI原生应用的机会可能在:跨境电商、面向开发者的AI解决方案(AI for Developers)、私有化部署和AI安全。
- 3很多人认为模型层面的创业机会比较小,可能数据层面的创业机会比较多,但其实认为市场并不缺数据,公开的数据很多都还没有用好,ChatGPT的数据也只更新到2021年9月,对私有数据的考虑可以靠后,先把公有数据用好。并且数据的独特性本身比数据量更重要,真正拥有自己独特私有数据并能转化商业价值的公司几乎很少甚至是没有的。
- 4一个模型做到80分可能不算拥有壁垒,但如果能做到95分,肯定是一种壁垒。虽然国内各种公司都在做模型,但真正能全面碾压GPT-4的还没有出现,因为它的核心壁垒是工程上的优化,而这是Open AI没有公开的“秘密”。
- 5国内外大模型投资策略的差异源自于项目退出途径。在国外,投资人愿意投资单点技术创新类的项目,此类项目能通过并购退出。反观国内,由于并购案例稀少,投资机构更愿意在最终能上市退出的大idea上下注。
云启合伙人陈昱
以下为访谈全文:
腾讯科技:ChatGPT让大模型赛道的创业和投资变得很热闹,云启重点投资了哪些项目?当时做投资决策背后有哪些考量?
陈昱:ChatGPT在半年前进入大众视线,我们大约在18个月之前投资了一款主打社交聊天软件的多模态企业MiniMax,MiniMax以多模态大模型研发为主,有三种模态基础架构:文本到视觉(text to visual)、文本到语音(text to audio)、文本到文本(text to text),基于大模型的主要产品是智能对话机器人Glow,目前有五百万用户,并且也开放了API接口,与WPS等众多企业合作。
我们的决策逻辑主要是赌团队和技术大方向。早在2021年1月份,我们就开始接触MiniMax创始团队,彼时他们还没决定正式出来创业。当时GPT-2和GPT-3也已经出世,只是不像ChatGPT做得这么好。到2021年底,团队认为时机成熟,MiniMax正式成立,我们便投了天使轮。
MiniMax的出发点是希望沿着通用人工智能的方向做产品,底层是多模态大模型,这个想法和我们不谋而合,我们当时正好也在思考通用大模型这件事情。
具象地说,通用人工智能相当于复刻一个数字人脑,人类拥有自由的思维、能够通过学习推理出新的知识,通用人工智能也应该能像人类一样思考,它能够完成多任务操作,即便面对没见过的东西,也能给出一个答案。
我们已经投资了MiniMax,并且聊过市面上大部分的模型创业公司,在这波潮流热起来之后,至少在基建层目前不需要再投第二家大模型公司了,投资重心会转移到应用层,重点关注能够利用大模型特性做应用的项目。同时我们也会关注Open AI以外会有什么新的技术出现,希望能投资一些更具备创新性的东西。
腾讯科技:有一种说法认为,未来所有产业都值得用大模型重新做一遍,很多行业可能会利用大模型做升级,比如美团、淘宝这些生意是不是都能用大模型做一遍?创业公司有没有机会为这些大公司的改变提供更多帮助?
陈昱:大模型时代下,未来的应用也有一个“二八定律”,大约有80%会是现在的应用接入大模型后的「升级版」,有20%是基于大模型的新能力开发出的新应用。
大模型是不是适用于所有行业,现在还没有定论,第一个挑战就是国内还没有成熟的中文大语言模型可用,光这一步的优化就需要很多年时间。现在也不能确定国内哪一个模型使用体验更强,因为使用的感觉非常主观,并且每个模型都有自己擅长的地方,到最后还是看综合用户体验。
如果中文大语言模型发展得很成熟了,这波产业升级肯定也会先从互联网行业开始,然后再逐渐过渡到传统行业,这个过程可能也会持续5-8年时间。
未来大模型可能会变成所有应用的入口,举例来说,现在大家买东西要上美团APP或者小程序,未来可能直接对大模型说帮我买一个东西,就完成了整个购买操作动作,就没有类似美团这种一级入口了,它的APP或小程序反而变成二级入口。未来,随着人机交互方式的改变,这些都是很可能会发生的。
但这些改变之前也被尝试过,比如苹果Siri、各种智能音箱都尝试做这样的场景改变,也闹出过很多笑话,可能就是因为语言模型还不够好,影响用户的使用体验,如果花一样的时间但体验不好,用户就不会再用它了。
再看创业公司在这波产业升级中的机会,我认为各行各业的整体格局都不会因为大模型而发生大的改变,比如外卖行业原先就只有美团和饿了么,本来也没有创业公司存在,即便大模型改变了应用入口,也不会对商业格局的本身产生大的改动,它只是一个体验升级。
腾讯科技:如果说80%的存量应用可能会在接入大模型后做升级,那么你提及的20%基于大模型开发出的新应用就相当于增量市场的机会,你认为这类AI原生应用会优先产生在哪些场景?从云启已经投资的项目中看,哪些属于这20%的增量机会?
陈昱:先回答后一个问题,大家可能存在一个误区,好像今天投资了以后明天就能看到结果,这是不可能的事情。一个创业公司真正能够做出东西、让大家看到结果,至少要等18-24个月,一周能做出来的东西没有壁垒和想象力,我们会关注更实际的东西。
从我们投资的案例来看,因为我们一般都在非常早期的阶段进行投资,整体项目本身发展都还处于很早期,所以也很难判断这20%的原生应用是否已经做到。即便是MiniMax这样已经能看出潜力的企业,回溯对它的投资历程,其实我们在投资之前也观察了近一年的时间。
再回到关于AI原生应用的机会预测上,我认为AI原生应用的探寻挖宝过程,就像以往西部牛仔的淘金历程一样,需要敢于探险,这波的机会可能在这几个地方:
第一,跨境电商,因为涉及多语言(multilingual)交流;
第二、面向开发者的AI解决方案(AI for Developers),帮助程序员写代码或者检查错误和安全漏洞;
第三、私有化部署,企业客户会有个性化模型和数据安全方面的需求;
第四、AI安全,大模型的广泛应用会带来一系列安全问题,譬如模型生成的内容造成的虚假信息传播,还有针对模型进行提示词注入攻击(prompt injection)导致企业内部信息泄漏等。
腾讯科技:在大模型带来的机会中,高效利用有限数据的能力,比如数据标注、数据提炼等,以及利用私有数据做垂直模型,是否是创业公司潜在的增长点?对投资人来说机会点在哪里?
陈昱:前阵子谷歌内部泄露一份文件,谷歌内部一名研究员认为Open AI没有护城河,里面也提到你可以通过一个开源模型做fine tuning得到一个80分的模型,但是它和GPT-4这样95分的模型还是有很大的差距。
虽然创业者通过开源可以将做模型的成本极度降低,但不意味着他们能做出95分的模型,而95分的模型会吃掉大部分的市场。这里可以类比历史上的谷歌,刚开始搜索引擎市场也百花齐放,但最后90%以上的市场占有率都在谷歌身上,所以当一个东西被做到极致之后,没有多少终端消费者会愿意使用非主流的产品。
在这样的情况下,很多人认为模型层面的创业机会比较小,可能数据层面的创业机会比较多,但我认为市场并不缺数据,公开的数据大家都还没有用好,ChatGPT和GPT-4的数据也只更新到2021年9月,对私有数据的考虑可以靠后,先把公有数据用好。
至于怎么用好这块数据,就要各显神通了,这就需要团队不断改进算法、改进工程能力,本质上还是看人。在软件科技创新领域,我们一直强调要投“聪明”并且“有野心”的“年轻人”,因为技术每年都会更新迭代,年轻人跟进的速度最快。
对于投资拥有自己独特私有数据的垂直模型,我们持保留态度。我们在研究机器学习的时候也能了解到,数据的独特性本身比数据量更重要,但我认为真正拥有自己独特私有数据的公司几乎很少甚至是没有的,而当通用大模型的训练数据里某领域的数据足够多的时候,垂直模型的表现不一定会比通用大模型好。
举个例子,比如某教育类上市公司披露自己有很多私有的试卷数据,但实际上用公共网络上已有的试卷数据就能训练出不错的结果,并不需要上市公司提供的私有数据。很多公司拥有的所谓私有数据其实没有想象中的那么重要,真正有价值的私有数据是独特的数据,而且不需要很多的量就能做出不错的效果,而这类独特数据实在太少了,专有独特的数据公司在整个市场可能都找不出几家,即便有了这类数据,也不代表就能利用好它们或让其产生商业价值,这几个条件一卡,就会发现没什么项目可以投资。
此外,即便没有大模型,类似智能制造这些传统行业也会拥有自己的数据,但如果在大模型出现之前并没有利用好这些数据,有了大模型后也不一定能显著提升数据利用效率,如果它们真的有投资价值,在大模型出现之前应该已经被大家看到了。
腾讯科技:一方面,按照你的说法,模型的出现并不会提升拥有私有数据的公司的壁垒;另一方面,做大模型好像并不难,在ChatGPT刚火的时候,行业默认大模型是大厂专属,但从最近三个月的情况来看,越来越多的非大厂出品的大模型也出现了。在这样的背景下,是否可以认为大模型创业的门槛本身就不稳固?投资人是否需要重新评估投资机会?
陈昱:关于模型壁垒的问题,需要分层看待。一个模型做到80分可能不算拥有壁垒,但如果能做到95分,那肯定是一种壁垒。
虽然国内各种公司都在做模型,但真正能全面碾压GPT-4的还没有出现,因为它的核心壁垒是工程上的优化,即团队对工程细节的反复打磨,并且不仅仅是一两个地方的优化,可能涉及50个甚至100个子工程的优化,而这是Open AI没有公开的“秘密”,需要技术团队自己在创新的过程中反复试水调优,很难产生能被国内公司借鉴的方法论,它是一项工程创新,而非技术创新。
在GPT-3.5及之前,Open AI还是比较开放的,他们会在论文里仔细地描述自己做了什么,发展到GPT-4阶段就开始“语焉不详”了,外界只能靠猜测或者找Open AI里面的人去聊的方式,来了解一二,但团队里的人也不能泄露公司的秘密,对于外界来说这就像一个令人琢磨不透的黑匣子。
我曾经在谷歌担任工程师,谷歌的搜索引擎质量非常好,它的壁垒也在于工程优化。15年前谷歌就有超过200个工程师全职做搜索质量的改进工作。每个工程师都会以不同的方式去优化搜索引擎,通过A/B测试的方式,决定某项改进工作是否能最终发布,这样做的结果是量变引起质变,每年数百项的改进极大的提高了搜索质量,但在这中间没有任何一个人知道全景是怎么样的。
在这样的背景下,如果总结对这类项目的投资判断标准,我认为有这几点:
第一,团队成员至少长期耕耘在这个领域;
第二,要有很强的工程创新和实践能力;
第三,做这类创业非常烧显卡、烧算力,这就要求团队有很强的融资能力,否则很难上牌桌。
腾讯科技:国内大模型如雨后春笋涌现,对比国内外大模型,可以看出国外代表性的ChatGPT目前走的是to C订阅模式,国内模型很多接入到产业层面。从投资角度看,大模型国内外投资方法和风格有哪些不同?国外AI发展的经验比我们快,有没有可以copy to China的东西?
陈昱:从国内外模型的差异来看,目前核心还是技术的差异,第一梯队的OpenAI GPT-4、第二梯队的谷歌PaLM 2,还有从Open AI离职出来创业的Anthropic,他们都做得非常好,如果做测评的话,会发现中外模型之间的差异主要在技术层面。
另外,虽然国外目前主流大模型ChatGPT是to C的订阅付费模式,但不代表国外没有做to B,他们的模型应用也是百花齐放的,但国外做to C的一个优势是他们用户付费意愿强,比如Midjourney团队只有11个人,但是却有1亿美金的收入,这在国内是难以想象的。
从投资角度来看:
第一,在国外我们更愿意投资单点技术创新类的项目,在国内的话很多投资机构会设想项目idea能不能做到IPO;
第二,从投资人的经验来看,国内外各有擅长的东西,国外软件做得普遍比国内好,国内偏硬件的东西做得比国外好。所以国内的投资机会更偏向机器人、电动车这类硬件的出海,因为它们利用了国内供应链优势将生产成本降到很低。如果在AI层面做到80分,再和硬件结合起来,产品的竞争力就很强了。我们看好通用人形机器人,它会是大模型和机器人的结合。
腾讯科技:为什么国内外大模型投资策略会产生这样的差异?
陈昱:国内外大模型投资策略的差异源自于项目退出途径。在国外,投资单点技术创新类的项目能通过并购退出。反观国内,由于并购案例稀少,投资机构更愿意在最终能上市退出的大idea上下注。
不同的投资人可能有不同的风格,对于偏早期的投资人而言,投资就是投“变量”,如果一个项目缺乏未来想象空间,我们就不会投;如果它只是停留在想象力层面,团队没有落地能力和坚定信仰,我们也不会投。大模型才刚刚开始,能到上市阶段至少是好几年之后的事情,如果要投资“确定性”,可能就要等到项目上市前一两年再投进去,这可能不是早期基金的风格。
另一方面,大家确实会考虑宏观环境,比如当下大家投资硬科技项目会相对多一些,模式和软件类的偏少一些,但大家的思路和想法是没有变的,还是跟随变量、投资想象空间大的东西,并不断关注技术带来的产业变革。
可能这几年受大环境的影响,很多人非常思虑退出问题,我认为不用过于忧虑,比如美元基金可以通过中外合资或QFLP投资项目,并且退出途径也是比较多元的,港股也是其中一个选择。
我们是比较早期的基金,很多项目都会经过多轮融资,在这中间也能实现适度退出,所以我们目前的投资都保持着自己的节奏。
腾讯科技:Open AI做出来的ChatGPT,算是近几年国外单点技术创新的代表性案例,能否预测Open AI的下一个关键变化节点?
陈昱:Open AI可能确实有“后招”:
第一,大语言模型未来会往多模态方向发展。“多模态”不仅体现在“输入”,“输出”也可以是文本、图像或视频;
第二,未来生成式AI的输出结果可能从二维图像变成三维模型。OpenAI 近日对外发布条件生成模型 Shap-E,它可以用来生成3D资产。Shap-E 可以生成隐含函数的参数,这些函数可以被渲染成纹理网格或神经辐射场(NeRF),从而可以生成多功能的、现实的3D资产。
腾讯科技:最后,回到国内看AI治理,最近网信办也颁布了关于大模型相关的数据管理办法,中国的生成式AI应该如何正确地应对监管法规?
陈昱:以前纯靠人工去做监管,现在可能需要用模型去监管模型,因为模型生成的内容数量巨大,且容易以假乱真,监管部门需要思考如何更好的利用技术来规范行业。此外,模型本身是有价值观的,企业在训练模型的时候,就得对训练数据做仔细的筛选和清洗,并使之与正确的价值观对齐。OpenAI在这方面下了很大的功夫,值得国内企业学习。