登录

直击博鳌|百度沈抖:大模型产业落地不能用爆款思维


速读:而今天有了大模型就不用了,大模型变成一个很厚的技术底座,只要用少量数据微调一下就能达到很好的效果,这样就能把产业智能化最后一公里的事变得越来越简单,让更多人参与开发。 直击博鳌|百度沈抖:大模型产业落地不能用爆款思维2024-03-2914:21:53来源:央广网。 但是从百度过去一年的实践看,很多企业在核心场景中都在使用大模型,你会发现它其实已经潜移默化在我们生产生活的不少环节中发生作用了。
2024-03-29 14:21:53 来源:央广网

AI已经成为数字经济发展的重要驱动力,对企业来说,AI已不是选择题,而是必答题。

3月28日,在博鳌亚洲论坛2024年年会上,百度集团执行副总裁、百度智能云事业群总裁沈抖表示,大模型的产业落地,既不能冒进,也不能坐在那里等“爆款”,而应该先把大模型应用到企业研-产-供-销-服的各个环节里面去,实现降本增效。

谈到生成式AI在中国的产业落地情况,沈抖表示,过去一年,生成式AI已经被企业真正用起来了。从百度的数据来看,百度文心一言C端用户已经超过了1亿;而在B端,用百度智能云千帆大模型平台开发应用的客户已经超过了8万,开发出了16万余种应用。

在博鳌亚洲论坛上,沈抖也对大模型在国内的产业落地提出建议,对中小企业如何应用大模型、算力需求持续增大怎么解决等业界关注的话题一一作出解答。

问:目前大模型在国内的产业落地如何?对企业做智能化升级有什么建议?

沈抖: 首先,不能只是谈大模型和人工智能技术,关键是在哪里用起来,能用出什么结果。实际上,去年3月博鳌亚洲论坛期间,是大模型最火的时候,大家想象的东西会多一点,真正应用的东西会少一点。但是过去一年确实发生了非常多的变化。比如百度的文心一言,C端的用户已经超过了1亿,在B端,用百度的千帆大模型平台来开发应用的客户已经超过了8万,开发了十几万种应用。从这个角度来讲,生成式AI是真的用起来了。但我们也发现,这个过程中还是有不少问题,我觉得可以一块探讨。

第一个是,千万不能冒进。有的企业觉得大模型什么都能解,所以要先花大价钱做一个底座。而且现在很多人认为大模型越大越好,参数百亿不行,非得上千亿、万亿,而且确实有企业会迎合这样的需求,反正你要多大的参数我都有。我觉得这是不够客观、不够实事求是的。在解决行业问题的时候,一定要根据自己的需求,绝对不是模型越大越好;而且一些小模型,针对特定的场景经过微调之后,出来的效果比大模型还要好,而且成本低。

第二个,也不能不积极,不能只想着做爆款。大家都在聊大模型要到产业里面去、到场景里面去,其实很多场景是靠挖掘出来的。大模型出来后,我们发现它能力很强,但它也不是神器,不是妙药,不是放到哪里它就能立刻生效。其实它应该是在研-产-供-销-服的每个环节,但凡与信息流通有关的环节,都应该把大模型加进去提效。

我觉得,大模型的产业落地不是“爆款思维”,反倒我认为大模型的能力最后就像氧气一样,深入到我们生活的方方面面,就是这样一个过程。

第三个我觉得还是要有一点耐心。其实我们拉长周期来看,任何一个新技术出现以后,你回头看当时的改变都是疾风骤雨似的,但是当时身在其中的时候反而没太感觉到。大家感觉大模型现在真的影响了我们很多吗?也没太感觉到。但是从百度过去一年的实践看,很多企业在核心场景中都在使用大模型,你会发现它其实已经潜移默化在我们生产生活的不少环节中发生作用了。

所以我觉得既不能做技术的冒进,也不能坐在这里等,而应该把生成式AI应用到自己的研、产、供、销、服的各个环节里面去,实现降本增效。

问:中小企业如何实现数字化、智能化升级?

沈抖: 因为中小企业的需求很分散,过去讲数字化和智能化升级的时候,很多中小企业会觉得成本高,不值得,我觉得这也正是大模型出现之后可以马上改变的。过去的AI要想实现产业落地,还是要用旧的研发范式,每次都要端到端的重新训练一遍。而今天有了大模型就不用了,大模型变成一个很厚的技术底座,只要用少量数据微调一下就能达到很好的效果,这样就能把产业智能化最后一公里的事变得越来越简单,让更多人参与开发。如果说这个问题解决的话,在一定程度上,中小企业就可以把AI用起来了。

举个例子,比如说现在村里面,如果说村民想去问村干部一些政策问题的话,那谁愿意去开发这样一个功能,去为村里提供这样一个服务?其实现在有了大模型之后,开发这样一个应用就会非常便捷。

在河南、重庆的一些县里,基层政府在管理中基于文心大模型开发了“居民助理”,把AI政务问答做进微信小程序,村民在微信群内@这个AI“居民助理”提问,比如医保缴费、婚姻登记、户籍办理等,就能立刻获得解答。春节期间,它每天的调用量能达到60-70万次。

问:大模型在产业中不断落地,算力需求会大幅增加吗?

沈抖: 算力是一个永恒的话题,随着人工智能的发展,对算力的需求肯定会持续扩张。目前国内算力还是紧张的,但是相比去年理性了很多,去年其实是存在着恐慌式囤卡的现象,为了做大模型,很多人疯狂采购,今年大家都回到了理性消费的阶段。卡的资源还是紧张,但是相对于去年,有所缓和。

大模型真的规模化用起来之后,算力需求会很大,甚至不只是算力,将来电力需求也会很大。所以现在国内外的科技企业都在持续推动芯片、算力的迭代和进步。

另外,异构算力这件事,我觉得从技术上是可以突破的。百度已经实现了GPU卡和几款国产芯片,不同卡放在同一个计算集群里,去训练同一个模型。这个我觉得是可以在技术上实现的,也会变成一个趋势。将来卡的多元化、异构化是一个必然。因为也很难一家垄断,大家只用一款芯片。

问:一句话总结一下数实融合该怎么做?

沈抖: 想多了都是问题,做起来全是答案。大模型,早拥抱,早受益。

主题: