chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT能否取代Google、百度等傳統(tǒng)搜索引擎

AI科技大本營 ? 來源:AI科技大本營 ? 作者:張俊林 ? 2022-12-06 14:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為智能對話系統(tǒng),ChatGPT最近兩天爆火,都火出技術(shù)圈了,網(wǎng)上到處都在轉(zhuǎn)ChatGPT相關(guān)的內(nèi)容和測試?yán)?,效果確實很震撼。我記得上一次能引起如此轟動的AI技術(shù),NLP領(lǐng)域是GPT 3發(fā)布,那都是兩年半前的事了,當(dāng)時人工智能如日中天如火如荼的紅火日子,今天看來恍如隔世;多模態(tài)領(lǐng)域則是以DaLL E2、Stable Diffusion為代表的Diffusion Model,這是最近大半年火起來的AIGC模型;而今天,AI的星火傳遞到了ChatGPT手上,它毫無疑問也屬于AIGC范疇。所以說,在AI泡沫破裂后處于低谷期的今天,AIGC確實是給AI續(xù)命的良藥,當(dāng)然我們更期待估計很快會發(fā)布的GPT 4,愿OpenAI能繼續(xù)撐起局面,給行業(yè)帶來一絲暖意。

說回ChatGPT,例子就不舉了,在網(wǎng)上漫山遍野都是,我們主要從技術(shù)角度來聊聊。那么,ChatGPT到底是采用了怎樣的技術(shù),才能做到如此超凡脫俗的效果?既然ChatGPT功能如此強大,那么它可以取代Google、百度等現(xiàn)有搜索引擎嗎?如果能,那是為什么,如果不能,又是為什么?

本文試圖從我個人理解的角度,來嘗試回答上述問題,很多個人觀點,偏頗難免,還請謹(jǐn)慎參考。我們首先來看看ChatGPT到底做了什么才獲得如此好的效果。

ChatGPT的技術(shù)原理

整體技術(shù)路線上,ChatGPT在效果強大的GPT 3.5大規(guī)模語言模型(LLM,Large Language Model)基礎(chǔ)上,引入“人工標(biāo)注數(shù)據(jù)+強化學(xué)習(xí)”(RLHF,Reinforcement Learning from Human Feedback ,這里的人工反饋其實就是人工標(biāo)注數(shù)據(jù))來不斷Fine-tune預(yù)訓(xùn)練語言模型,主要目的是讓LLM模型學(xué)會理解人類的命令指令的含義(比如給我寫一段小作文生成類問題、知識回答類問題、頭腦風(fēng)暴類問題等不同類型的命令),以及讓LLM學(xué)會判斷對于給定的prompt輸入指令(用戶的問題),什么樣的答案是優(yōu)質(zhì)的(富含信息、內(nèi)容豐富、對用戶有幫助、無害、不包含歧視信息等多種標(biāo)準(zhǔn))。

在“人工標(biāo)注數(shù)據(jù)+強化學(xué)習(xí)”框架下,具體而言,ChatGPT的訓(xùn)練過程分為以下三個階段:

45949840-752f-11ed-8abf-dac502259ad0.jpg

(ChatGPT:第一階段) 第一階段:冷啟動階段的監(jiān)督策略模型。靠GPT 3.5本身,盡管它很強,但是它很難理解人類不同類型指令中蘊含的不同意圖,也很難判斷生成內(nèi)容是否是高質(zhì)量的結(jié)果。為了讓GPT 3.5初步具備理解指令中蘊含的意圖,首先會從測試用戶提交的prompt(就是指令或問題)中隨機抽取一批,靠專業(yè)的標(biāo)注人員,給出指定prompt的高質(zhì)量答案,然后用這些人工標(biāo)注好的數(shù)據(jù)來Fine-tune GPT 3.5模型。經(jīng)過這個過程,我們可以認(rèn)為GPT 3.5初步具備了理解人類prompt中所包含意圖,并根據(jù)這個意圖給出相對高質(zhì)量回答的能力,但是很明顯,僅僅這樣做是不夠的。

45b502d8-752f-11ed-8abf-dac502259ad0.jpg

(ChatGPT:第二階段)

第二階段:訓(xùn)練回報模型(Reward Model,RM)。這個階段的主要目的是通過人工標(biāo)注訓(xùn)練數(shù)據(jù),來訓(xùn)練回報模型。具體而言,隨機抽樣一批用戶提交的prompt(大部分和第一階段的相同),使用第一階段Fine-tune好的冷啟動模型,對于每個prompt,由冷啟動模型生成K個不同的回答,于是模型產(chǎn)生出了,….數(shù)據(jù)。之后,標(biāo)注人員對K個結(jié)果按照很多標(biāo)準(zhǔn)(上面提到的相關(guān)性、富含信息性、有害信息等諸多標(biāo)準(zhǔn))綜合考慮進行排序,給出K個結(jié)果的排名順序,這就是此階段人工標(biāo)注的數(shù)據(jù)。

接下來,我們準(zhǔn)備利用這個排序結(jié)果數(shù)據(jù)來訓(xùn)練回報模型,采取的訓(xùn)練模式其實就是平常經(jīng)常用到的pair-wise learning to rank。對于K個排序結(jié)果,兩兩組合,形成(k2)個訓(xùn)練數(shù)據(jù)對,ChatGPT采取pair-wise loss來訓(xùn)練Reward Model。RM模型接受一個輸入,給出評價回答質(zhì)量高低的回報分?jǐn)?shù)Score。對于一對訓(xùn)練數(shù)據(jù),我們假設(shè)人工排序中answer1排在answer2前面,那么Loss函數(shù)則鼓勵RM模型對的打分要比的打分要高。

歸納下:在這個階段里,首先由冷啟動后的監(jiān)督策略模型為每個prompt產(chǎn)生K個結(jié)果,人工根據(jù)結(jié)果質(zhì)量由高到低排序,以此作為訓(xùn)練數(shù)據(jù),通過pair-wise learning to rank模式來訓(xùn)練回報模型。對于學(xué)好的RM模型來說,輸入,輸出結(jié)果的質(zhì)量得分,得分越高說明產(chǎn)生的回答質(zhì)量越高。

45c30cc0-752f-11ed-8abf-dac502259ad0.jpg

(ChatGPT:第三階段)

第三階段:采用強化學(xué)習(xí)來增強預(yù)訓(xùn)練模型的能力。本階段無需人工標(biāo)注數(shù)據(jù),而是利用上一階段學(xué)好的RM模型,靠RM打分結(jié)果來更新預(yù)訓(xùn)練模型參數(shù)。具體而言,首先,從用戶提交的prompt里隨機采樣一批新的命令(指的是和第一第二階段不同的新的prompt,這個其實是很重要的,對于提升LLM模型理解instruct指令的泛化能力很有幫助),且由冷啟動模型來初始化PPO模型的參數(shù)。然后,對于隨機抽取的prompt,使用PPO模型生成回答answer, 并用上一階段訓(xùn)練好的RM模型給出answer質(zhì)量評估的回報分?jǐn)?shù)score,這個回報分?jǐn)?shù)就是RM賦予給整個回答(由單詞序列構(gòu)成)的整體reward。有了單詞序列的最終回報,就可以把每個單詞看作一個時間步,把reward由后往前依次傳遞,由此產(chǎn)生的策略梯度可以更新PPO模型參數(shù)。這是標(biāo)準(zhǔn)的強化學(xué)習(xí)過程,目的是訓(xùn)練LLM產(chǎn)生高reward的答案,也即是產(chǎn)生符合RM標(biāo)準(zhǔn)的高質(zhì)量回答。

如果我們不斷重復(fù)第二和第三階段,很明顯,每一輪迭代都使得LLM模型能力越來越強。因為第二階段通過人工標(biāo)注數(shù)據(jù)來增強RM模型的能力,而第三階段,經(jīng)過增強的RM模型對新prompt產(chǎn)生的回答打分會更準(zhǔn),并利用強化學(xué)習(xí)來鼓勵LLM模型學(xué)習(xí)新的高質(zhì)量內(nèi)容,這起到了類似利用偽標(biāo)簽擴充高質(zhì)量訓(xùn)練數(shù)據(jù)的作用,于是LLM模型進一步得到增強。顯然,第二階段和第三階段有相互促進的作用,這是為何不斷迭代會有持續(xù)增強效果的原因。

盡管如此,我覺得第三階段采用強化學(xué)習(xí)策略,未必是ChatGPT模型效果特別好的主要原因。假設(shè)第三階段不采用強化學(xué)習(xí),換成如下方法:類似第二階段的做法,對于一個新的prompt,冷啟動模型可以產(chǎn)生k個回答,由RM模型分別打分,我們選擇得分最高的回答,構(gòu)成新的訓(xùn)練數(shù)據(jù),去fine-tune LLM模型。假設(shè)換成這種模式,我相信起到的作用可能跟強化學(xué)習(xí)比,雖然沒那么精巧,但是效果也未必一定就差很多。第三階段無論采取哪種技術(shù)模式,本質(zhì)上很可能都是利用第二階段學(xué)會的RM,起到了擴充LLM模型高質(zhì)量訓(xùn)練數(shù)據(jù)的作用。

以上是ChatGPT的訓(xùn)練流程,主要參考自instructGPT的論文,ChatGPT是改進的instructGPT,改進點主要在收集標(biāo)注數(shù)據(jù)方法上有些區(qū)別,在其它方面,包括在模型結(jié)構(gòu)和訓(xùn)練流程等方面基本遵循instructGPT??梢灶A(yù)見的是,這種Reinforcement Learning from Human Feedback技術(shù)會快速蔓延到其它內(nèi)容生成方向,比如一個很容易想到的,類似“A machine translation model based on Reinforcement Learning from Human Feedback”這種,其它還有很多。但是,我個人認(rèn)為,在NLP的某個具體的內(nèi)容生成領(lǐng)域再采用這個技術(shù)意義應(yīng)該已經(jīng)不大了,因為ChatGPT本身能處理的任務(wù)類型非常多樣化,基本涵蓋了NLP生成的很多子領(lǐng)域,所以某個NLP子領(lǐng)域如果再單獨采用這個技術(shù)其實已經(jīng)不具備太大價值,因為它的可行性可以認(rèn)為已經(jīng)被ChatGPT驗證了。如果把這個技術(shù)應(yīng)用在比如圖片、音頻、視頻等其它模態(tài)的生成領(lǐng)域,可能是更值得探索的方向,也許不久后我們就會看到類似“A XXX diffusion model based on Reinforcement Learning from Human Feedback”,諸如此類,這類工作應(yīng)該還是很有意義的。

另外一個值得關(guān)注的采取類似技術(shù)的工作是DeepMind的sparrow,這個工作發(fā)表時間稍晚于instructGPT,如果你仔細(xì)分析的話,大的技術(shù)思路和框架與instructGPT的三階段基本類似,不過明顯sparrow在人工標(biāo)注方面的質(zhì)量和工作量是不如instructGPT的。反過來,我覺得sparrow里把回報模型分為兩個不同RM的思路,是優(yōu)于instructGPT的,至于原因在下面小節(jié)里會講。

ChatGPT能否取代Google、百度等傳統(tǒng)搜索引擎

既然看上去ChatGPT幾乎無所不能地回答各種類型的prompt,那么一個很自然的問題就是:ChatGPT或者未來即將面世的GPT4,能否取代Google、百度這些傳統(tǒng)搜索引擎呢?我個人覺得目前應(yīng)該還不行,但是如果從技術(shù)角度稍微改造一下,理論上是可以取代傳統(tǒng)搜索引擎的。

45ee2d9c-752f-11ed-8abf-dac502259ad0.jpg

為什么說目前形態(tài)的ChatGPT還不能取代搜索引擎呢?主要有三點原因:首先,對于不少知識類型的問題,ChatGPT會給出看上去很有道理,但是事實上是錯誤答案的內(nèi)容(參考上圖的例子(from @Gordon Lee),ChatGPT的回答看著胸有成竹,像我這么沒文化的基本看了就信了它,回頭查了下這首詞里竟然沒這兩句),考慮到對于很多問題它又能回答得很好,這將會給用戶造成困擾:如果我對我提的問題確實不知道正確答案,那我是該相信ChatGPT的結(jié)果還是不該相信呢?此時你是無法作出判斷的。這個問題可能是比較要命的。其次,ChatGPT目前這種基于GPT大模型基礎(chǔ)上進一步增加標(biāo)注數(shù)據(jù)訓(xùn)練的模式,對于LLM模型吸納新知識是非常不友好的。新知識總是在不斷出現(xiàn),而出現(xiàn)一些新知識就去重新預(yù)訓(xùn)練GPT模型是不現(xiàn)實的,無論是訓(xùn)練時間成本還是金錢成本,都不可接受。如果對于新知識采取Fine-tune的模式,看上去可行且成本相對較低,但是很容易產(chǎn)生新數(shù)據(jù)的引入導(dǎo)致對原有知識的災(zāi)難遺忘問題,尤其是短周期的頻繁fine-tune,會使這個問題更為嚴(yán)重。所以如何近乎實時地將新知識融入LLM是個非常有挑戰(zhàn)性的問題。其三,ChatGPT或GPT4的訓(xùn)練成本以及在線推理成本太高,導(dǎo)致如果面向真實搜索引擎的以億記的用戶請求,假設(shè)繼續(xù)采取免費策略,OpenAI無法承受,但是如果采取收費策略,又會極大減少用戶基數(shù),是否收費是個兩難決策,當(dāng)然如果訓(xùn)練成本能夠大幅下降,則兩難自解。以上這三個原因,導(dǎo)致目前ChatGPT應(yīng)該還無法取代傳統(tǒng)搜索引擎。

那么這幾個問題,是否可以解決呢?其實,如果我們以ChatGPT的技術(shù)路線為主體框架,再吸納其它對話系統(tǒng)采用的一些現(xiàn)成的技術(shù)手段,來對ChatGPT進行改造,從技術(shù)角度來看,除了成本問題外的前兩個技術(shù)問題,目前看是可以得到很好地解決。我們只需要在ChatGPT的基礎(chǔ)上,引入sparrow系統(tǒng)以下能力:基于retrieval結(jié)果的生成結(jié)果證據(jù)展示,以及引入LaMDA系統(tǒng)的對于新知識采取retrieval模式,那么前面提到的新知識的及時引入,以及生成內(nèi)容可信性驗證,基本就不是什么大問題。

4603c990-752f-11ed-8abf-dac502259ad0.png

基于以上考慮,在上圖中展示出了我心目中下一代搜索引擎的整體結(jié)構(gòu):它其實是目前的傳統(tǒng)搜索引擎+ChatGPT的雙引擎結(jié)構(gòu),ChatGPT模型是主引擎,傳統(tǒng)搜索引擎是輔引擎。傳統(tǒng)搜索引擎的主要輔助功能有兩個:一個是對于ChatGPT產(chǎn)生的知識類問題的回答,進行結(jié)果可信性驗證與展示,就是說在ChatGPT給出答案的同時,從搜索引擎里找到相關(guān)內(nèi)容片段及url鏈接,同時把這些內(nèi)容展示給用戶,使得用戶可以從額外提供的內(nèi)容里驗證答案是否真實可信,這樣就可以解決ChatGPT產(chǎn)生的回答可信與否的問題,避免用戶對于產(chǎn)生結(jié)果無所適從的局面。當(dāng)然,只有知識類問題才有必要尋找可信信息進行驗證,很多其他自由生成類型的問題,比如讓ChatGPT寫一個滿足某個主題的小作文這種完全自由發(fā)揮的內(nèi)容,則無此必要。所以這里還有一個什么情況下會調(diào)用傳統(tǒng)搜索引擎的問題,具體技術(shù)細(xì)節(jié)完全可仿照sparrow的做法,里面有詳細(xì)的技術(shù)方案。傳統(tǒng)搜索引擎的第二個輔助功能是及時補充新知識。既然我們不可能隨時把新知識快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果發(fā)現(xiàn)具備時效性的問題,它自己又回答不了,則可以轉(zhuǎn)向搜索引擎抽取對應(yīng)的答案,或者根據(jù)返回相關(guān)片段再加上用戶輸入問題通過ChatGPT產(chǎn)生答案。關(guān)于這方面的具體技術(shù)手段,可以參考LaMDA,其中有關(guān)于新知識處理的具體方法。

除了上面的幾種技術(shù)手段,我覺得相對ChatGPT只有一個綜合的Reward Model,sparrow里把答案helpful相關(guān)的標(biāo)準(zhǔn)(比如是否富含信息量、是否合乎邏輯等)采用一個RM,其它類型toxic/harmful相關(guān)標(biāo)準(zhǔn)(比如是否有bias、是否有害信息等)另外單獨采用一個RM,各司其職,這種模式要更清晰合理一些。因為單一類型的標(biāo)準(zhǔn),更便于標(biāo)注人員進行判斷,而如果一個Reward Model融合多種判斷標(biāo)準(zhǔn),相互打架在所難免,判斷起來就很復(fù)雜效率也低,所以感覺可以引入到ChatGPT里來,得到進一步的模型改進。

通過吸取各種現(xiàn)有技術(shù)所長,我相信大致可以解決ChatGPT目前所面臨的問題,技術(shù)都是現(xiàn)成的,從產(chǎn)生內(nèi)容效果質(zhì)量上取代現(xiàn)有搜索引擎問題不大。當(dāng)然,至于模型訓(xùn)練成本和推理成本問題,可能短時期內(nèi)無法獲得快速大幅降低,這可能是決定LLM是否能夠取代現(xiàn)有搜索引擎的關(guān)鍵技術(shù)瓶頸。從形式上來看,未來的搜索引擎大概率是以用戶智能助手APP的形式存在的,但是,從短期可行性上來說,在走到最終形態(tài)之前,過渡階段大概率兩個引擎的作用是反過來的,就是傳統(tǒng)搜索引擎是主引擎,ChatGPT是輔引擎,形式上還是目前搜索引擎的形態(tài),只是部分搜索內(nèi)容Top 1的搜索結(jié)果是由ChatGPT產(chǎn)生的,大多數(shù)用戶請求,可能在用戶看到Top 1結(jié)果就能滿足需求,對于少數(shù)滿足不了的需求,用戶可以采用目前搜索引擎翻頁搜尋的模式。我猜搜索引擎未來大概率會以這種過渡階段以傳統(tǒng)搜索引擎為主,ChatGPT這種instruct-based生成模型為輔,慢慢切換到以ChatGPT生成內(nèi)容為主,而這個切換節(jié)點,很可能取決于大模型訓(xùn)練成本的大幅下降的時間,以此作為轉(zhuǎn)換節(jié)點。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 引擎
    +關(guān)注

    關(guān)注

    1

    文章

    368

    瀏覽量

    23467
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3757

    瀏覽量

    52130
  • 強化學(xué)習(xí)
    +關(guān)注

    關(guān)注

    4

    文章

    270

    瀏覽量

    11970
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10297

原文標(biāo)題:ChatGPT會取代搜索引擎嗎

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    百度文心大模型5.0正式版上線

    今天,在百度文心Moment大會現(xiàn)場,文心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1320次閱讀

    邁富時GEO服務(wù):技術(shù)驅(qū)動AI搜索時代的企業(yè)增長新引擎

    導(dǎo)語: 隨著DeepSeek、豆包、文心一言生成式AI搜索引擎的快速普及,用戶獲取信息的方式正從傳統(tǒng)"鏈接點擊"轉(zhuǎn)向"AI直接對話"。在這場深刻的信息檢索范式變革中,企業(yè)如何讓品牌內(nèi)容被AI系統(tǒng)
    的頭像 發(fā)表于 01-17 21:20 ?284次閱讀

    百度地圖技術(shù)引擎重塑兩輪車導(dǎo)航新體驗

    ,百度地圖與雅迪、九號、五羊本田行業(yè)頭部品牌的深度合作接連落地,標(biāo)志著其已構(gòu)建起覆蓋電動自行車、電動摩托車乃至傳統(tǒng)摩托車的全域兩輪導(dǎo)航生態(tài),展現(xiàn)出顯著的市場滲透力與行業(yè)領(lǐng)導(dǎo)力。
    的頭像 發(fā)表于 01-14 14:18 ?588次閱讀

    百度健康升級發(fā)布文心健康管家

    面臨醫(yī)療資源分布不均、就診流程繁瑣、就醫(yī)信息不均等難題,“想讓每個家庭都擁有專屬醫(yī)生”成為百度健康的愿景。
    的頭像 發(fā)表于 12-23 15:01 ?710次閱讀

    格靈深瞳精彩亮相百度世界2025大會

    11月13日,百度世界2025大會在北京國家會議中心二期舉辦?;顒悠陂g,格靈深瞳與百度進行深入交流,并圍繞VLM、AI Infra、應(yīng)用場景話題展開全面分享。
    的頭像 發(fā)表于 11-19 17:09 ?774次閱讀

    百度世界大會亮點 五年五芯 百度宣布打造最硬AI云

    自2006年以來,百度世界大會已連續(xù)舉辦近20屆,百度世界大會是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級別盛事,作為百度年度最重要的的戰(zhàn)略、技術(shù)、產(chǎn)品發(fā)布會,自2006年以來
    的頭像 發(fā)表于 11-13 15:47 ?1646次閱讀

    百度世界2025進行中 百度昆侖芯超節(jié)點亮相 性能巨幅提升

    百度世界大會是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級別盛事,作為百度年度最重要的的戰(zhàn)略、技術(shù)、產(chǎn)品發(fā)布會,自2006年以來已連續(xù)舉辦19年,持續(xù)為行業(yè)搭建起交流前沿技術(shù)、碰撞創(chuàng)新
    的頭像 發(fā)表于 11-13 11:51 ?1263次閱讀

    電子元器件貿(mào)易企業(yè)官網(wǎng)SEO優(yōu)化操作手冊(2025版)

    電子元器件貿(mào)易企業(yè)官網(wǎng)SEO優(yōu)化操作手冊電子元器件貿(mào)易企業(yè)官網(wǎng),目前破解線上流量困境、精準(zhǔn)觸達(dá)采購商的關(guān)鍵。當(dāng)前,工程師與采購經(jīng)理通過搜索引擎百度/Google搜索型號(如“STM
    的頭像 發(fā)表于 08-05 16:03 ?2306次閱讀
    電子元器件貿(mào)易企業(yè)官網(wǎng)SEO優(yōu)化操作手冊(2025版)

    百度智能云亮相第二十二屆ChinaJoy

    百度智能云亮相第二十二屆ChinaJoy 8月1日,第二十二屆中國國際數(shù)碼互動娛樂展覽會(ChinaJoy)在上海開幕。大會期間,百度全景展示了百度智能云千帆大模型平臺行業(yè)領(lǐng)先的技術(shù)
    的頭像 發(fā)表于 08-05 09:47 ?816次閱讀

    歐洲央行行長一行到訪百度Apollo Park

    近日,拉加德一行到訪位于北京亦莊(經(jīng)濟技術(shù)開發(fā)區(qū))的百度Apollo Park,與百度Jackson等人交流自動駕駛、AI發(fā)展話題,并在亦莊東環(huán)南路、宏達(dá)南路公開道路上,試乘了蘿卜
    的頭像 發(fā)表于 06-18 15:44 ?862次閱讀

    百度地圖重磅發(fā)布地圖AI開放平臺

    近日,在WGDC25全球時空智能大會上,百度地圖重磅發(fā)布地圖AI開放平臺。百度地圖深耕20年的數(shù)據(jù)能力、引擎能力與AI技術(shù)全面開放,向開發(fā)者深度開放四大核心能力和五大場景解決方案。
    的頭像 發(fā)表于 05-26 11:26 ?1781次閱讀

    百度在AI領(lǐng)域的最新進展

    近日,我們在武漢舉辦了Create2025百度AI開發(fā)者大會,與全球各地的5000多名開發(fā)者,分享了百度在AI領(lǐng)域的新進展。
    的頭像 發(fā)表于 04-30 10:14 ?1349次閱讀

    上汽大眾與百度地圖達(dá)成戰(zhàn)略合作

    近日,上海國際車展期間,百度地圖與上汽大眾舉行科技X生態(tài)戰(zhàn)略合作伙伴簽約儀式,雙方將基于百度領(lǐng)先的車道級地圖產(chǎn)品,為上汽大眾千萬車主打造更安全、高效的智能化出行體驗。上汽大眾總經(jīng)理陶海龍、百度副總裁尚國斌
    的頭像 發(fā)表于 04-29 17:28 ?1248次閱讀

    百度AI榮獲2025愛迪生獎金獎和銀獎

    剛剛,百度AI在「2025愛迪生獎」中獲得一金一銀兩項大獎。
    的頭像 發(fā)表于 04-08 15:43 ?992次閱讀

    百度地圖在汽車智能化領(lǐng)域的應(yīng)用實踐

    近日,在中國電動汽車人會論壇(2025)的智能汽車創(chuàng)新技術(shù)與產(chǎn)業(yè)論壇,百度地圖事業(yè)部副總經(jīng)理劉增剛發(fā)表主旨演講,分享了百度地圖在汽車智能化浪潮中價值思考和應(yīng)用實踐。他表示:“25年汽車智能化的競賽
    的頭像 發(fā)表于 04-03 15:02 ?2356次閱讀