當前位置: 華文頭條 > 推薦

【李彥宏WAIC圓桌訪談:智慧體門檻足夠低,套用生態正在爆發】

2024-07-06推薦

在2024世界人工智慧大會(WAIC 2024)期間,百度創始人、董事長兼執行長李彥宏,與第一財經傳媒集團總編輯楊宇東和【矽谷101】創始人陳茜,進行了一場圓桌訪談。在一個小時的對話中,李彥宏對開源閉源、大模型價格戰、智慧體、超級套用、AGI等業界熱點問題,表達了自己的看法。

李彥宏認為,開源其實是一種智商稅。「當你理性地去想,大模型能夠帶來什麽價值,以什麽樣的成本帶來價值的時候,就會發現,你永遠應該選擇閉源模型。今天無論是ChatGPT、還是文心一言等閉源模型,一定比開源模型更強大,推理成本更低。」

談及「AI超級套用什麽時候出現」時,李彥宏表示,「不是說一定在等待一個超級套用的出現」。他認為,在基礎模型之上,應該能夠誕生 數以百萬計的各種各樣的套用 。「如果僅僅是從0到1,你可能會希望出現某幾個Super APP,也就是幾個公司從中受益。但是今天,幾乎各行各業所有的公司,被大模型加持之後,它都能受益。這種影響力,對於整個社會、對於人類來說,無疑是更大的。」

李彥宏稱, 智慧體代表著AI時代的未來趨勢。 「智慧體正在爆發,只是現在基數還比較小,大家的體感沒有那麽強烈。」基礎模型需要靠套用才能顯現出價值,智慧體是一個幾乎「放之四海而皆準」的基於大模型的套用,由於它門檻足夠低,可能你連編程都不用,就可以做出一個效果不錯的智慧體。「讓更多人進來,他們發揮聰明才智,指不定哪條路跑通了,它就是一個Super APP。」

以下為訪談精編全文:

超級套用什麽時候出現?

基礎模型之上將誕生數以百萬計的套用

楊宇東:由ChatGPT掀起的這個熱潮已經持續一年多了,你也曾表達,接下來超級套用什麽時候出現?我們看到國內面向C端的大模型產品形態,看起來都差不多,都是搜尋框+問答這種模式,你怎麽看?有沒有可能產生一種差異化的競爭?什麽樣的好產品會出現?

李彥宏:我倒不是說一定在等待一個超級套用的出現。我更覺得,在基礎模型之上,應該能夠誕生數以百萬計各種各樣的套用。 這些套用有些是很小的領域,一個大家可能不太容易想到的套用,但它對於那個領域的問題,解決得比以前好很多。確切的講,我現在還沒有看到,能夠比肩行動網際網路時期超級套用那樣的AI時代的原生套用。但是已經看到,越來越多在各種各樣場景、尤其是To B場景中,利用大模型提升了效率,產生了更多的收入,或者說節省了更多成本的情況出現。
今天,大家都在想,我能不能從0到1,做出一個人們想也沒想到過的東西?變成一個DAU10億的超級套用?這個當然很重要,假以時日也一定會出現。 但是,更重要的是大模型在各個領域、各個場景的套用。
從百度文心一言的日呼叫量來看,已經非常明顯。我們在4月份曾經公布過一個數據,文心一言的呼叫量每天有2億次。前幾天,我們再公布的時候, 文心一言呼叫量已經到了5億次。也就是說,兩個月的時間呼叫量是double。 呼叫背後意味著什麽?意味著它在給套用產生價值。因為沒有價值的話,人家也不會花錢去呼叫。

楊宇東:C端使用者會有什麽樣很好的場景?包括端側、手機上的APP,如何去呼叫AI能力?

李彥宏: 我覺得分兩類:一類是大家比較關註的,過去從來沒有過的套用。現在比較流行的、類似於ChatGPT這樣的ChatBot,就是聊天機器人。國內每一個大模型公司,都會推出一個相應的APP,或者是網站來做ChatBot。
對於現有這些To C的套用,其實它的資訊增益作用也是非常大的 。我們在4月份的時候,公布過一個數據,百度搜尋今天有11%的搜尋結果會由AI來生成,這個比例還在不斷提升。再比如說百度文庫,過去,百度文庫是大家在上面找一些現成的文件。今天,百度文庫經過大模型改造之後,已經更多地變成了生成式AI套用。你不管想要生產什麽樣的文件,是PPT、是論文的格式、甚至是漫畫,它都可以根據你的要求生成。今年以來,文庫已經有大約2600萬付費使用者。如果說用超級套用的標準來看,它也沒有達到超級套用的水準,但是要看它實際產生的價值,有那麽多人願意為這個產品付費,還是很厲害。 這些產品都是過去已經存在,但經過了大模型改造之後,它的能力跟以前完全不一樣了

陳茜:我特別同意你最近在多個場合強調的,去卷AI原生套用,大模型才有意義。但到今天,我們還沒有看到套用的爆發,可能很多套用出來也不太盡人意。所以我的問題或者疑惑在於,如果從模型能力上看,是不是現在還沒有到去卷套用的時候?

李彥宏:大模型套用其實已經逐步在浮現出來,它對於現有業態的改造作用,比從0到1的顛覆作用,更早到來。 這個過程一開始大家覺得,沒有那麽性感,但是它對於人的工作效率的提升,對於成本的下降,對於開啟新的可能性,產生的促進作用,是比那些從0到1的套用,反而更大。如果僅僅是從0到1,你可能會希望出現某幾個Super APP,也就是幾個公司從中受益。但是今天,幾乎各行各業所有的公司,被大模型加持之後,它都能受益。這種影響力,對於整個社會、對於人類來說,無疑是更大的。
只是大家覺得,以前都存在,這個東西我以前見過,所以沒有新鮮感。或者它更多誕生在生產力場景,它的受眾群體,或者單一套用的受眾群體,不會過億過十億。尤其在C端,在公眾層面體感沒有那麽集中。這是大家一直在尋找一個Super APP的原因。

為什麽智慧體是未來趨勢?

門檻足夠低,跑通了就是Super APP

楊宇東:我們前面聊的是「卷套用」,接下來還有一個關鍵詞叫「智慧體」。你說過好多次,AI時代最看好的套用是智慧體。但我們目前並沒有看到智慧體的爆發,為什麽你認為智慧體是AI時代的未來趨勢呢?

李彥宏: 我覺得 智慧體正在爆發 ,只是說它現在基數還比較小,大家的體感沒有那麽強烈。但是你要看業界大模型公司,都在做智慧體。智慧體就是一個幾乎可以「放之四海而皆準」的基於大模型的套用。今天大多數AI原生套用,你用智慧體的方式都可以做出來,效果也不錯。 由於它門檻足夠低,可能你連編程都不用,就可以做出一個效果不錯的智慧體。
門檻足夠低,就意味著越來越多的人,可以做出他想要的智慧體。這個有點像90年代中期時候的互聯網網站。你可以把它做得非常復雜,比如雅虎就是很厲害的網站。但是在學校讀書的大學生,他也可以做一個自己的Home Page。由於做網站很簡單,在90年代中後期,就誕生了數以百萬計的網站。大浪淘沙之後,最終出來了一些非常優秀的網站,像Google、Facebook,這是若幹年之後才出現。但是早期看,這些網站都是亂糟糟的,一個大學生就能做一個網站出來,這有啥價值?但是你必須得門檻足夠低的時候,讓更多人進來,他們發揮聰明才智,指不定哪條路跑通了,它就是一個Super APP。

陳茜:業界對AI Agent的定義,還是有一點不同。你對Agent的定義是什麽?

李彥宏: 我首先要考慮,這個門檻要足夠低,一個小白,大一的學生,他也可以很方便地制作一個智慧體。當然在此之上,可以有各種各樣比較fancy的玩法,呼叫工具、反思、長期的記憶等等,這些能力會逐步加進去。
不是說用了最先進的這些能力之後,它才叫一個AI Agent。我反而覺得, 我們要把門檻降得足夠低,讓大家覺得,我也可以搞一個AI Agent
說實話,我認為現在AI Agent用到的這些能力,仍然是非常初級的,未來還會產生我們今天想也想不到的Agent能力。但是這些能力的誕生,反而要依賴數以百萬計的開發者,去開發各種各樣的套用。在他們使用的過程當中產生新的需求,這些需求被解決的過程,就是一個創新過程,就是AI Agent前進演化的過程。

陳茜:百度有什麽比較有意思的AI Agent案例,可以給我們分享一下嗎?

李彥宏 :有很多。國內高考是一個非常大的事件,不僅是學生,還有家長都非常重視。過去大模型在幹什麽事?高考有作文題,我們用大模型來寫一個作文,看它能得多少分。其實你想一想,這個東西在哪用呢?不可能讓一個考生帶著大模型去參加高考。但是高考完了之後,你要估分,要報誌願,要選擇學校,你要選擇專業,一個考生他該報哪個學校,哪個專業,每個人情況都是不一樣,每個人的問題也都是不一樣。這種情況下,哪有一個全能的輔導老師可以告訴你,你最適合的是哪個學校哪個專業?但是AI Agent就可以幹這個事情。我們開發了一個高考填報誌願的AI Agent。在高峰時期,一天有200萬人在使用,足見大家對這個東西的認可度和依賴度還是非常高的。

大模型對B端的改造比互聯網更大

規模更小一點的模型市場需求量更大

楊宇東:通用大模型和行業垂直大模型,它將來到底是什麽樣的關系?

李彥宏: 大模型在各個垂直場景裏怎麽用?我們經過了一個探索過程。最初我們的想法是,我把這個基礎模型做得越來越強大,大家叫通用人工智慧,在什麽場景我都能做得很好。後來發現這件事情沒有那麽容易,每個場景都有它自己的道。當套用場景需要反應快的時候,我們需要更小的模型。這種小的模型,它由於沒有大模型通用的能力,所以在垂直場景當中,還要對它做精調,就是SFT,把你行業的數據怎麽灌進去,再經過各種各樣的調教,在這個場景裏的效果,就能夠跟大模型相比差不多。
類似這種場景,我們也見了很多。去年10月份,我們發了文心4.0之後,主要精力在做什麽呢?就是根據最強大的模型,去裁剪各種體量的小模型,比如說十億量級的模型,百億量級的模型,千億量級的模型,這個模型也許擅長角色扮演,那個模型也許擅長邏輯推理等等,根據客戶不同使用場景的不同要求,做出各種各樣的模型。這些模型大多數速度都比EB4要快,推理成本比它要低,所以這種套用是大家更愛用的。今天你要看市場需求的話,規模更小一點的模型,市場需求量是更大的。

楊宇東:你為什麽認為,大模型對B端的改造,比互聯網對B端的影響更大?

李彥宏:互聯網對C端的改造,我們都是感同身受的,是非常徹底的,是顛覆性的。但是互聯網對B端的改造,我覺得一般般。用的技術比較簡單,產生的增益也沒有那麽明顯。但大模型不一樣。我們接觸到的一些能源電力、生產制造等企業,都有類似的需求。比如說,現在國內電動車卷得也很厲害,車內的對話系統,很多也在用文心大模型,使用量也不小,但是對百度來說,這就是一個To B的套用,我們不直接提供給使用者,它是經過了OEM,經過了車廠的整合之後,把這個套用提供給了終端消費者。這種事情其實非常多,而且我們就看呼叫量,如果呼叫量上得很快,這就說明我們的客戶需要這些東西,B端靠著這個大模型,靠著AI原生套用產生了價值。

楊宇東:在金融、醫療等這些比較嚴謹的領域,生成式AI的幻覺問題,怎麽破解?

李彥宏: 今天,應該說你會很少發現幻覺問題了, 尤其是用最大規模、最強大模型的時候,已經很少出現幻覺問題了。 為什麽呢?一開始,純粹用原來的Transformer去做出來的大模型,它確實是非常難避免幻覺的,因為它是個機率模型。
要解這個問題,就要在原來Transformer架構上,增加一些東西,專業詞語叫RAG。我只要稍微借助一點工具,就可以消除這樣的幻覺。隨著使用這種工具的能力越來越強,你就會發現,在各種場景下,幻覺是越來越少的。
當然,今天這種生成式人工智慧,更像是一個Copilot,在特別嚴肅、對準確度要求特別高的場景下,我們還不能讓它全部自動實作,還要靠人把最後一道關。這樣,一方面可以提升效率;另一方面,在準確度上、在消除幻覺上,也能夠起到比較重要的作用。

陳茜:現在企業對AI的使用成本怎麽看?是否願意為AI付費?你在跟一些企業客戶交流的時候,他們的態度是什麽樣子的?
李彥宏:當你處在市場經濟環境當中,企業其實是非常理性的。尤其是中小企業,賬算得非常精。如果這件事情能夠讓我降本增效,能夠讓我賺到更多的錢,那我就會用它。如果不能,你再吹破天,我也不會用。市場會告訴你,大模型到底有用還是沒用?我們看到呼叫量的迅速提升,確實是因為在使用者側、在客戶側,它為企業產生了降本增效的作用。
我再舉個例子,比如說在招聘場景。過去是怎麽做的?是HR坐在那,一份一份簡歷篩查,然後一個一個面試,面試100個人,最後篩出來10個人,再進行下一步面試,效率是非常非常低。但是大模型進來之後,它可以非常明顯地去提升效率。因為,用大模型去理解這是一個什麽人,理解這個老板要招什麽樣的人,然後進行匹配,它的效率就會高很多。
而且,你去算一算模型的推理成本,其實幾乎是可以忽略不計的。尤其在國內,現在大模型價格戰是非常厲害的,百度的輕量級模型都是免費的,這個免費不僅僅指的是模型免費,實際上算力也送你了,你本來要有電腦,要有頻寬等等,這些都沒有了,你只要來用就好。

如何看「開源閉源之爭」?

開源是一種智商稅

閉源模型比開源模型更強大

楊宇東:開源閉源問題是業界關註焦點。你認為,閉源模型會持續領先。但我們看到,開源大模型越來越多,甚至有些能力都不亞於我們說謂的GPT4了,這個問題你怎麽看,你們還是會堅定的走閉源路線?
李彥宏:我覺得,開源其實是一種智商稅。你仔細想一想,我們為什麽要做大模型?是它能夠有套用,這些套用在各種場景下,能夠為客戶為使用者提升效率、降低成本,產生過去產生不了的作用。所以當你理性的去想,大模型能夠給我帶來什麽價值?以什麽樣的成本給我帶來價值?你永遠應該選擇閉源模型。今天這些閉源模型,無論是ChatGPT還是文心一言,以及其他各種各樣的閉源模型,它的平均水平,一定是比這些開源模型更強大,推理成本一定是比開源模型更低。

陳茜:百度對To B客戶,是「閉源+公有雲」這樣一套打法,有什麽考量嗎?
李彥宏:ToB的客戶,他要選擇的是一個價效比最好的模型。一方面,模型要對他的套用產生價值,另外一方面,成本要足夠低。很多時候,你看著有用,一算成本不劃算,客戶就放棄了。這是為什麽我剛才講,開源模型打不過閉源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就會發現,最好還是去選擇閉源模型。當然,閉源模型不是一個模型,它是一系列的模型,根據你的使用場景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的變種,可以根據使用者的需求,讓他來做選擇。
閉源模型還有一個開源模型不具備的優勢:這些相對來說規模更小的模型,都是從最大最powerful的模型裁剪出來的,裁剪出來這些更小規模的模型,仍然比那些同樣規模的開源模型要效果更好。

陳茜:百度對於中小模型、模型蒸餾上,有什麽樣的策劃?
李彥宏:我們看到的真實需求,在絕大多數情況下都不是最大的模型,它都要求這個模型變小。變小意味著什麽?速度快,成本低。比如說,我幹這個事兒,總共能夠給我帶來每年100萬的增益,但使用最大的模型要120萬的成本,那我肯定不幹了。那我就會給大模型公司提要求,把成本降到80萬,甚至降到8萬。那我們就得想,怎麽把最強大的模型,蒸餾到足夠小,成本足夠低,滿足這個場景需求。因為閉源有一個最強大的基礎模型,根據模型蒸餾或者裁剪出來的小模型,比那些開源模型做出來的東西更有競爭力。所以我們覺得,To B的機會仍然在閉源不在開源。

大模型價格戰不可避免

最終還是比誰的技術好、效率高

楊宇東:我們現在看到價格戰已經開始打起來,其實還是蠻出乎我們的預料,這麽快。
李彥宏:價格戰幾乎不可避免,在中國互聯網幹了這麽長時間,其實已經對價格戰非常熟悉。但就像你講的,確實來得比我想象的更早一點,這麽早就開始把價格打到幾乎不可思議低的地步。但某種意義上講也不是壞事兒,當你足夠低,甚至免費的時候,就會有更多人有積極性來嘗試,在大模型基礎上去開發各種各樣的套用,大模型對於各行各業的滲透速度會更快。

楊宇東:很多閉源大模型API呼叫費越來越低,大模型靠推理收費的商業模式未來成不成立?以後大模型比拼的是哪些點?
李彥宏:大模型技術天花板還是很高的,今天我們還是對於大模型的能力有很多不滿意的地方,仍然需要很多非常優秀的技術人員、需要很多算力、需要很多數據,才能訓練出下一代大模型,我們還可能需要下下一代、下下下一代的大模型。
所以最終我覺得大家是要去拼誰的技術更好,你的技術好,你為客戶產生了更好的價值。今天之所以把這個模型打到足夠低,是因為現在模型的這個能力其實還沒有到最好,沒到最好的時候,大家都差不多的時候,就會誰的價格低就用誰的。
時間長了之後,市場本身會回歸理性。最終還是比誰的技術好,誰的效率高,誰會勝出。

陳茜:你覺得這個價格戰會持續多久的一個時間呢?
李彥宏:這個很難講,現在有些創業公司是玩家,也有很多非常大型的互聯網平台公司是玩家,其實理論上講是可以燒很長時間。但我覺得燒錢不是事情本質,事情本質仍然是誰的技術更好,誰的效率更高,當你的技術好、效率高的時候,你就不怕去打這個價格戰,所以多長時間都OK,最終會是優勝劣汰的過程。

陳茜:你覺得在中國市場會是一個贏家通吃這樣的一個局面嗎?還是說等價格戰之後會剩下幾個主要的?可能還有一些更小一點的?
李彥宏:這次生成式AI是對整個IT技術棧的大變革,過去IT技術棧是芯片層、作業系統層、套用層或者軟體層,就這三層。到生成式AI之後,IT技術棧變成了四層,芯片、深度學習框架層、模型層、套用層,我認為在每一層可能都會誕生至少2—3個大玩家。
套用層的話,可能會有數以百萬計、甚至數以千萬計的各種各樣套用出來,也會逐步出現超級套用,既然是超級套用,當然不會很多,可能是三五個。
模型層我覺得也許兩三個就足夠了,因為最後大家比拼的是效率,你的效率如果不夠高的話,慢慢就覺得說還不如用別的。

Scaling Law短期內不會被顛覆

圖靈測試不再是標準

AGI需要十年以上才能實作

楊宇東:Scaling Law還會持續有效嗎?
李彥宏:Scaling Law可能還會有若幹年的生命周期。但與此同時,在此之上會疊加各種各樣的創新。剛才講的智慧體,它的反思、前進演化能力等,其實跟Scaling Law已經是兩個路線在發展,但它仍然是基於Transformer這類大模型往上做。未來再過一兩年,還會出現什麽新的技術創新,在此基礎上再去疊加,大家都在探索。換句話說,我覺得Scaling Law短期之內不會被顛覆,但是在Scaling Law之上會疊加出來很多我們現在可能還無法想象的創新。

楊宇東:你認為AGI實作的標準是什麽?還有哪些路徑可以讓我們更快地通向AGI?
李彥宏:業界確實還沒有一個標準答案。以前大家覺得,透過圖靈測試就實作AGI了,實際上現在大模型已經透過了圖靈測試。人們所說的AGI,其實大多數時候已經不是只透過圖靈測試了。
那麽什麽叫AGI?在我心目中,AGI就是機器或者說AI,能夠具備人在任何場景下所具備的能力。Artificial General Intelligence,就是通用人工智慧,它不管在什麽場景下,能力都是跟人一樣的,這是一個很高的要求。
所以真正要實作AGI,我認為還需要很多很多年。業界有人說AGI可能再過2年,或者再過5年能實作。我自己的判斷是10年以上,也許更長的時間。我們聽到很多人講,AGI是一種信仰,當你把它當做一種信仰的時候,誰的信仰會明年就實作?這是自相矛盾的。如果是一個信仰,它就是你值得為之長期奮鬥的一個目標。

陳茜:現在GPT5一直在延後,擔憂的聲音也越來越高,AGI沒有辦法用Scaling Law這個方式去帶我們實作了,你對這個有擔憂嗎?
李彥宏:我不是很擔心這件事情,我覺得大家應該更關註套用,而不是關註基礎模型,某種意義上基礎模型叠代速度稍微放緩一點不是壞事,如果今天的套用開發者,有一個相對穩定的基礎來開發套用,其實是效率更高一些的,如果模型天天在那兒練,每天都要重寫一遍過去的程式碼,那是很累的。但是在現有基礎模型上不斷去做微調,去做一些漸進式的叠代和和創新,其實你看到是一直在發生的,無論是OpenAI不斷在推的,還有百度我們的Turbo模型、更小量級的模型等等,都是在根據市場的需求在做叠代。
但長遠來講,我確實認為下一代大模型一定會比現在這一代模型強大得多。什麽時候推出來我不是很著急,我們應該更多的去看真實的市場需求,下一代模型在叠代的時候,要根據市場需求來叠代。