百度沈抖:开源模型大概率不会成为主流,也不会形成完整闭环的商业模式

  9月6日消息,2023百度云智大会上,百度智能云千帆大模型平台宣布实现2.0全面升级,首次公布月活企业数已近万家,覆盖金融、制造、能源、政务、交通等行业的400多个业务场景。

  8月31日起,包括“文心一言”在内的多款大模型陆续通过备案,正式对公众开放。沈抖说,在文心一言开放当天,在百度智能云千帆大模型平台上,日活企业数增长超过 40%。——后者是百度面向企业端推出的大模型开发与管理平台。在“文心一言”放开后的第24个小时,沈抖进到后台看数据,发现文心一言回答了用户“3342 万个”问题,这个数字超出了他的预期。

  对此,极客公园与百度集团执行副总裁、百度智能云事业群总裁沈抖进行了一次对话。

  (图源百度智能云公众号截图)

  在对话中,沈抖表示用户对文心一言的期待超乎他的预期。“我们本来也觉得‘看热闹’的少了,所以预期没有那么高。没想到当天有3342万个回答量,这说明用户对文心一言期待还是很高的。大家不是上来问一句、两句就走了,而是经过了多轮的对话。从这个角度上来说,用户的热情还在。”

  沈抖透露,做千帆的目的,就是要降低大模型的部署门槛、推动大模型的广泛应用。

  对于开源模型的看法,沈抖认为机器、数据的成本都太高了。“我觉得它大概率不会成为主流,也不会形成完整闭环的商业模式。”

  图注:百度集团执行副总裁、百度智能云事业群总裁沈抖

  (图源百度智能云公众号)

  以下为《极客公园》与沈抖的对话内容:

  问:看热闹到了真正干实事的时候。前两天,百度在C端开放了文心一言,你怎么看这个用户使用数据?在意料之中还是意料之外?后台的运维能力是怎样的?

  沈抖:数据是我当天晚上12点半发到群里,同事们第二天就发布了这个数据。数据是我从系统里截的,原封不动地呈现给了外界,绝对真实。

  我们本来也觉得“看热闹”的少了,所以预期没有那么高。没想到当天有3342万个回答量,这说明用户对文心一言期待还是很高的。大家不是上来问一句、两句就走了,而是经过了多轮的对话。从这个角度上来说,用户的热情还在。

  文心一言从3月16号开始内测已经有五六个月时间,无论在效果提升、还是成本降低上,都给了我们比较充裕的准备时间。比如文心大模型的推理速度已经较当初提升了30多倍,大幅降低了推理成本,也让我们能够承载得了这么大的用户量。

  问:所以这段时间百度大模型的技术进步,也包含成本上的进步?

  沈抖:对,大模型本身就是资源密集型的技术范式。

  我们开始没有想到流量会这么大,机器(算力)资源本身很宝贵,我们觉得放太多机器在那儿也是浪费,就没有额外放太多机器。当天用户规模上来以后,好在因为我们的推理性能提高了,所以还是给用户提供了稳定的服务。

  我们手里也握着不错的算力储备,接下来也会继续降低训练、推理的成本,满足用户需求没有问题。当时我们内部群里讨论,流量来了能不能抗住。我说,让流量来得更猛烈些,都是幸福的烦恼。

  问:文心一言在C端的放开,对百度的好处是什么?

  沈抖:你可能担心的是,向C端开放如果不能带来商业价值,是不是可持续的问题。

  事实上,只要真正给用户创造了价值,商业化只是时间早晚的问题。技术发展史上,那些有价值但变现难的事例很少。文心一言确实给C端用户带来了真真实实的价值,昨天我看有一些评论讲,没有了文心一言,他的办公效率就会下降。所以只要有价值,未来文心一言的商业化是顺其自然的。

  问:中国大模型的C端产品形态,会跟Chat GPT保持一致吗?也就是订阅制收费吗?

  沈抖:现在讲大模型的产品形态还太早了,它的定义也还没有那么清楚。

  当年移动互联网起来的时候,我们可以用几个关键词讲清楚它的定义,比如SoLo Mo(Social、Local、Mobile,利用社交媒体、地理定位服务和移动终端设备提供更好的用户体验)。但现在大模型还无法用几个明确的词定义。它的能力更强大,但边界也更宽泛,还远没到收敛产品形态的时候。

  Open AI是技术驱动的公司,用户体验其实不是它的强项。它今天设计出的产品形态还很早期,接下来产品的迭代速度会非常快、形态也会剧烈变化。

  问:Chat GPT向C端用户收订阅费的商业模式,在中国是可行的吗?

  沈抖:我们可能会演变出新的变现方式,比如常见的广告、电商加游戏三大变现方式。

  如果你愿意一个月花两千块钱雇一个助理,那当AI能做助理1/10的事情,比如帮你制定旅游行程、预定机票和酒店、甚至调动打车和外卖软件等,你会不会愿意花两百块?只是变现方式不一定是会员费,可能是交易佣金或其他方式。

  再比如,游戏里边一堆NPC角色都是生成式AI驱动的、电商领域“数字人”直播也由生成式AI支撑,这都可能产生不同的变现方式。最终C端的产品形态,决定了它的变现方式。

  问:如果C端产品最终是生产力工具,有没有可能不是个人掏钱、而是公司给个人掏钱?

  沈抖:有可能。比如百度网盘也算是一个效率工具,很多公司会买网盘账号给员工用。我们还接触过企业,给每个员工配一个Copilot账号写程序。这都是企业给个人买单的案例。

  问:作为内容公司,我们也特别想用大模型来生产文章。你们刚上线了ToB的大模型服务平台“千帆”,推出“千帆”的背景是怎样的?能怎么帮助零程序员的公司部署大模型?

  沈抖:这是非常好的问题。事实上,这就是我们做千帆平台的原因。

  这次大模型在B端落地的特点是大公司先行,很多客户都是金融机构、能源机构、教育机构等。它们有一个明显的特点是需要私有化部署,但这样门槛很高,还要自己培养一堆技术人员迭代模型,可能会减慢大模型生效的时间。

  反倒像很多中小公司,你们大概率不会排斥一个(平台型)SaaS产品,也不会排斥公有云。千帆平台就是这样的产品。企业可以在上面直接调用API,也可以训练样本做微调,几乎零代码打造自己的模型。我们做千帆的目的,就是要降低大模型的部署门槛、推动大模型的广泛应用。

  问:似乎你们和OpenAI的路径有所不同。OpenAI是先推C端产品ChatGPT,再慢慢推B端产品,百度却是C端和B端齐头并进。为什么会有这种差异?

  沈抖:技术都有接受度的问题,得让更多的用户真正用它,找到它的价值所在。大家都在谈大模型,但多少人真的用过大模型?B端企业客户更能感受到大模型对它们整个生产范式的潜在影响,它们更需要用起来。

  但如果它们既不用公有云的API,也不自己搭一套环境去体验、尝试,那就是纯粹在那儿天马行空地想象。所以我们需要做千帆,让它们先把大模型用起来。其实关于大模型的全方位开放,C端等了很久,B端也等了很久。只是B端离商业化更近。

  问:文心一言放开后,千帆平台的B端需求被拉动了多少?

  沈抖:在文心一言开放的当天,在百度智能云千帆大模型平台上,日活企业数增长超过40%,考虑到TOB的反应速度通常滞后一些,实际的情况会更好一些。

  放开不仅会拉动C端数据上涨,也一定会拉动B端的数据上涨。因为这会帮B端企业降低成本、加快迭代速度(注:用国内模型成本更低、更方便)。

  但从数据涨幅上,B端暂时还比不上C端。今天假设有人要在B端用“文心一言”,他与其上来就调用API,不如先去C端体验一下。当他认为体验好,才会来千帆上用它。让B端用起来,需要一个培育的过程。

  问:如果C端和B端齐头并进,你们怎么设置优先级?重点主要放在C端还是B端?

  沈抖:当资源出现冲突时,才需要设置优先级。大模型的特点是,它在底下很厚的一层都是通用的,那在上面找应用,无论To B还是To C,都是百度要齐头并进做的。没有到资源冲突的地步。

  在C端,百度正在积极研究大模型可落地的产品形态和商业模式。百度要基于大模型重构自己的C端产品,比如从百度自己的产品数据来看,百度网盘、百度文库等产品,基于大模型重构后,用户使用粘性和会员付费率都有很大提高;全新打造的文心一言APP和重构后的百度搜索,也成为大模型应用新入口。在B端,百度智能云通过打造出最好的大模型平台,服务好To B市场。

  问:其实最通用的基座是你们的云计算,无论服务内部客户、还是外面客户,都是你们的成功。

  沈抖:是的,你服务好了内部客户、就服务好了外部客户,服务好了外部客户、就服务好了内部客户,这是MaaS的美妙之处。否则的话,假设外部和内部完全是两套技术栈,成本就太高了。

  我们是两条腿走路。百度当然希望能做出一鸣惊人的ToC产品,但我们也非常愿意通过底层大模型和算力,支撑更多的企业和开发者做出好的ToC应用。其实无论上面谁成功,都是底层大模型的成功。

  问:除了文心一言外,千帆平台还上线了其他模型。千帆跟Hugging Face这样的模型聚合平台有什么区别?

  沈抖:在目前或相当长一段时间内,不管是出于模型的场景适配性、还是客户的心理需求,企业都希望能尝试不同的模型。从这个角度来讲,我们也需要提供第三方模型。

  但也不是每一个模型都值得去试,那会是很大的资源浪费。所以千帆有自己的筛选原则,我们放上来的都是相对比较优秀、易用的模型。

  问:所以Hugging Face的定位是社区,千帆的定位是平台?

  沈抖:没错。千帆不只是解决你来选模型的问题,更解决你把模型真正用起来的问题。用起来又包括数据、训练、调优、Prompt工程,以及应用搭建等一系列问题,还要充分考虑到成本和效率。千帆提供的是一站式服务,这是千帆跟Hugging Face的区别。

  Hugging Face模型广度足够,而千帆依托云厂商天然的优势,有足够大的运营空间,也可以做到端到端的训练和推理性能优化。例如,训练过程中的加速,故障的快速感知、定位、恢复;推理过程中基于百度庞大的异构计算集群的扩展性,有非常好的资源弹性,也可以提供serverless的服务,使得客户获得低基础设施成本、无需运维、高扩展性的收益。这是千帆要比Hugging Face做得更深的地方。

  问:你似乎不看好开源模型,但开源摊薄了企业部署大模型的成本,也不能说它没有意义。你到底怎么看开源模型?

  沈抖:你说LLaMA(注:Facebook的开源大模型)的成本谁摊?是Facebook。那Facebook的成本谁摊?如果想不清楚这个问题的终点,那它(开源)就是无源之水、无本之木,终归有一天会出问题。

  因为这跟传统的开源软件不一样,过去一个人参与开源的投入,就是他自己的时间成本。但今天如果一个人想搞开源大模型,机器、数据的成本都太高了。

  问:可以用爱发电,不能用爱计算。

  沈抖:对,训一轮你得扔几千万进去。

  今天跟传统开源玩法有一点相似是,它们都是用开源来吸引用户的注意力,最终还是希望选其他(闭源)大模型。

  问:有没有可能出现类似RedHat和IBM的关系(注:2018年,IBM宣布收购全球最大的开源公司红帽)?假设像IBM这样不甘心的有钱企业主,愿意支持开源方呢?这样开源就有资金、数据支持了。

  沈抖:开源肯定是会长期存在的。随着大模型越来越受关注,政府、企业都可能捐赠去支撑这方面的研究,促进整个市场教育。但它最后能产生多大的价值?我觉得它大概率不会成为主流,也不会形成完整闭环的商业模式。

  传统的软件开发可以形成闭环。比如你写了一段代码或升级了一个功能,可以很快checkin(签入),整个开源软件的能力一下就提高了一层。但今天LLaMA发布完了以后,不管有多少人在用,它没法checkin回去,数据放不回去、算力放不回去、能力也放不回去,形成不了闭环。

  问:很多开源派认为,开源模型读过万亿参数,虽然比不上闭源模型,但是也是很可用的了。就像模型本身虽然没有985和211毕业的水平,但至少是个专科水平可以用来做更垂直的微调了。

  沈抖:Foundation Model(基础模型)到底要不要进步?如果说今天Foundation Model已经很好了,不用再改了,那没有问题。但今天的情况是,Foundation Model只有60分,我们要争取做到90分、95分的问题。

  问:为什么要进步?很多企业的真实感受是,GPT3.0都已经能解决问题,那进步的意义是什么?

  沈抖:这是一个很好的问题,我们内部也讨论过。今天Foundation Model做到60分也能解决很大一部分问题,但它离完美地解决,差距还是很大的。而人性的需求是,但凡你能让我一次解决的,分两次绝对不干。

  今天你在Foundation Model只有60分的基础上,训练出了85分。那之后Foundation Model达到85分,你是不是能得95分呢?人在这方面的追求是无极限的。

  这个极限肯定是要继续往上拉的。拿搜索举例,20多年前的搜索就能用,那谷歌这20多年都在干嘛?你看似结束了,实际上没有。

  问:怎么看大模型接下来的竞争格局?

  沈抖:今天市面上有非常多模型,但我认为它们很多都会迅速消失。

  现在很多模型之所以还存在,是因为很多人还不知道它的好坏。反正谁也试不了,谁也用不了,一测排名还挺靠前。但随着模型的放开,优劣更容易评判了。今天这些做大模型的,你给他三千万个问题输进去试试,估计一大半都得干趴下。

  这会导致流量的逐步集中,头部模型更容易形成规模效应,从而进一步分摊模型研发的成本。差距会进一步拉大。

  问:淘汰赛会什么时候开始?

  沈抖:不好说,毕竟大家融的钱可能还得花一段时间。对于大企业来讲,烧还是烧得起的,但也要看它烧的价值何在。有一些企业是冲着反正自己的应用场景很多,这时候让它去调别人家的大模型API肯定不干,所以一定会做一个自己的模型。好点、差点(无所谓),至少不用依赖外部。大企业做模型这件事还会持续一段时间。

  问:未来大模型会不会成为所有应用的底座?这会诞生一个完全不同的开发、应用生态吗?

  沈抖:毫无疑问,大模型会成为一个新时代的操作系统,变成很多应用的底座。

  一直以来,人和人、和机器打交道,都是用语言作为指令。但过去,机器不懂自然语言,我们就硬生生写了一套程序语言让它理解。现在大模型理解了自然语言,整个应用开发范式就发生了根本性的变化。开发变得由创意驱动,而不是由代码能力驱动。

  另外,大模型也有把系统串联起来的能力。像现在插件的出现,也就是独立完成某种能力、等待被调用的组件,大模型可以把插件组合起来完成一个特定的任务。这都会进一步改变开发范式。

  问:如果大模型能打通所有插件解决问题,这是不是变相实现了互联互通?

  沈抖:其实依然没有。实际上,这些APP现在也都存在于同一个手机上、同一个应用程序里,它照样没有实现互联互通。将来在大模型基座上,美团接进来、滴滴接进来,但它们还是没有互通的。

  问:底层的问题没有解决。

  沈抖:对,互联互通应该指的是数据打通,你的数据我可以访问、我的数据你可以访问。但在大模型底座下,我们只是愿意跟这个中枢对话,但我们插件彼此之间并没有对话。

  问:这种不互联互通的情况,会不会导致开发者不能流畅地实现跨资源调度?这会是中国大模型开发生态的缺陷吗?

  沈抖:我觉得主要的原因是没放开、流量规模没起来。比如文心一言一下子有了3000多万的流量,开发者一算可能1%是自己的,那也有30万的访问了,他就会决定来干。

  问:在大模型时代,百度云怎么定义自己在生态里的位置?利益机制如何分配?

  沈抖:以百度一家之力是绝对干不过来的。不是恐怕干不过来,是绝对干不过来。

  首先,插件一定会是非常繁荣的生态,它和大模型之间是相辅相成的。插件要从大模型中获取流量,大模型又需要插件能力的支持,就像今天假设手机上没有微信、抖音,用户可能都不用它了。

  其次,在面向终端客户的应用上,无论是私有云部署、还是通过千帆这样的平台级方案,最终一定需要生态伙伴完成最后一公里交付的问题,比如金蝶、用友、软通动力等。它们有特别熟悉的客户和业务流程,最终需求都会被它集成。

  总结一下,一是开发生态的能力聚合、二是帮大模型做交付的合作伙伴、三是用大模型强化自身服务的客户,这都是生态。

  问:大模型的技术范式,给云计算带来了哪些改变?

  沈抖:技术发展的脉络是越来越高级。换句话讲,离底层越来越远,越来越不需要关注细节,封装越来越好,有大量的人在背后把这些活给干了。这本身也是云贡献的价值。

  早期的CPU云贡献的价值,就是客户不用自己买机器一个一个卡绑,它封装得越来越好、可以在上边直接用。随着大模型时代到来,“AI加速芯片”GPU慢慢成为算力中心,算力增长速度远远超过CPU。这会加速我们从CPU云向GPU云的切换。

  在GPU云的时代,最终我们会把云的能力进一步封装,不让底层暴露出来,形成更高级的交互形态,直接对接大模型的API。今天的云还是给工程师开发的,交互形态还不够彻底,但未来底层的工程师会减少,更多人会往上层走。这是一个大幅的变化。

  问:大模型会重塑云计算的市场格局吗?如果会,什么时候能看到信号?

  沈抖:我喜欢这个问题。如果没有大模型的话,百度的云会打得非常吃力。我们过去一直在喊“深入行业、聚焦场景、云智一体、AI普惠”,百度智能云想做的就是把AI放到整个ToB的服务里,让它成为一个增长点。

  但过去,传统的AI是非常碎片化的。它要针对一个问题生成一个能力,再解决这个问题,通用性比较差。这就导致它都是项目制,很难规模化,毛利也低。

  而生成式AI出来以后,我们看到它的通用性非常好、一下子能解决很多问题,在应用层往下基本都是统一的,哪怕需要微调、需要插件,都是标准化的动作。这跟之前非常碎片化的AI应用完全不一样。这本身就是云业务的巨大变化,所谓的IaaS变成了MaaS。

  问:过去中国的AI公司都是要落项目,非常苦。没法像现在这样,通过标准化的产品解决问题。

  沈抖:我们那时候跟Robin(注:百度创始人、董事长兼CEO李彦宏)讨论云战略,他也要求我们必须得标准化、规模化,不然体现不出来百度作为一个技术公司的价值。

  问:所以接下来长期都会是标准化和规模化?

  沈抖:大模型在早期有很大的不确定性,今天,很多客户对大模型的能力上限、边界、成本、交付、需求方式都还没有统一认知。短时间内,我们还不能保证客户都到公有云上来,肯定还是先通过项目制的方式去做。

  但即使是这样的项目制,也跟以前的项目制不一样。比如我给你私有化部署了模型,它更像是Windows或者是office,先是95版,接着是97版,又来了2000版,你得不断的升级。看似我给你一个光盘装到家里了,实际上你得不断地订阅。这跟原来搭建的也不一样。

  问:但你们的财务已经出现了改善。今年一季度百度智能云首次实现季度盈利,你们提到原因就是云服务的标准化,实现了规模复用、降低了成本。

  沈抖:是的。在单纯项目制、或者项目制占比比较高的情况下,交付后毛利太低了。

  问:作为百度最高决策层的一员,你平常最关心和焦虑的问题是什么?经常要跟团队讨论的问题是什么?

  沈抖:在产品形态上,Robin有一个要求,一定要用AI原生思维来重构所有的产品。是重构,而不是接入。

  在技术上,我们思考的是今天生成式AI的能力还能往上蹦多高。文心一言现在的评测结果还不错,但它还远远没到人类语言、或者优秀人类语言理解的上限。怎么能继续快速拉升这个能力,肯定是我们第一位思考的问题。

  接着是行业应用上,模型怎么能真正用起来、在哪些场景能用起来、用起来的门槛有多高、边界有多宽、怎么能提高它的效率、怎么激发大家想到更好的用法……这都是我们要不断思考的东西。

  问:这些都是比较偏软的层面,偏硬的层面呢?

  沈抖:现在算力集群从千卡到万卡,百度是中国真正在万卡级别上跑单一任务的公司。

  在万卡集群下,组织、效率、保障这些真正底层的工作大家看不见,但是它们极其重要。比如,我们要提高底层硬件和软硬一体的训练、推理效率。这都是蛮关键的东西。

  问:你在百度这么多年一直都负责搜索、广告业务,直到去年才主掌智能云,马上就遇到了大模型的历史机遇。会觉得是一种幸运吗?你的感受是怎样的?

  沈抖:没那么夸张,但我确实很兴奋、很幸运能去做这么一件事。

  去年接手的时候,我就有(把云服务)规模化、标准化的思路。但因为AI能力太碎片化了,做起来非常难。当时我就使劲在想,有什么东西是既需要AI能力、又需要AI算力、同时还能让很多人同时去用的?找半天找不着。

  然后,大模型就出现了。一下子就感觉顺手了。

  问:你个人学的是人工智能方向,大模型是不是也跟你更匹配?

  沈抖:这跟我研究生做的事情很相似。虽然我一直学计算机的,但我做得偏软件的多一些,一直在人工智能这条线上做。

  当时接了云(偏底层硬件)以后,我真的又把操作系统、计算机组成原理的书拿来看了一遍。如果说真是CPU时代的IaaS、网络组件、存储计算那套东西,我觉得还是有点难的。

  但大模型出来以后,我发现那些东西被封装在下面了,我现在主要研究大模型就可以,比如读论文、自己用Python把千帆上的API调用一遍等等。我觉得顺手多了。

  问:接下来,你对百度智能云的发展增速有怎样的预期?

  沈抖:百度智能云现在就接近两百亿的盘子,还相对比较小。在大模型的加持下,我们的客户需求变得很旺盛,现在都忙不过来。不过要想真正让用户用起来、做好交付,还需要一个过程。

  问:四季度会迎来小爆发吗?

  沈抖:有人估计四季度会是爆发的。需求确实开始起来了,但我觉得爆发的话,可能要到明年。

  问:你怎么评价自己的运气?

  沈抖:我觉得这是百度的运气。百度做AI做了这么多年,下了这么大功夫,如果大模型不来的话,云的商业化路径确实更难一些,也很辛苦。这正好说明有Vision的公司,最后运气也不会太差吧。

电商资讯*版权声明:本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。 本网站所提供的信息,只供参考之用。本网站不保证信息的准确性、有效性、及时性和完整性。本网站及其雇员一概毋须以任何方式就任何信息传递或传送的失误、不准确或错误,对用户或任何其他人士负任何直接或间接责任。在法律允许的范围内,本网站在此声明,不承担用户或任何人士就使用或未能使用本网站所提供的信息或任何链接所引致的任何直接、间接、附带、从属、特殊、惩罚性或惩戒性的损害赔偿。
文章网址:http://www.cnecn.com.cn/hangye/renwu/2023-09-06/13551.html
赞 | 0