chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研究人員提出了一種全新的語言模型推理框架——「思維樹」(ToT)

AI智勝未來 ? 來源:新智元 ? 2023-05-24 11:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】由普林斯頓和谷歌DeepMind聯(lián)合提出的全新「思維樹」框架,讓GPT-4可以自己提案、評估和決策,推理能力最高可提升1750%。

2022年,前谷歌大腦華人科學(xué)家Jason Wei在一篇思維鏈的開山之作中首次提出,CoT可以增強LLM的推理能力。

但即便有了思維鏈,LLM有時也會在非常簡單的問題上犯錯。

最近,來自普林斯頓大學(xué)和Google DeepMind研究人員提出了一種全新的語言模型推理框架——「思維樹」(ToT)。

ToT將當(dāng)前流行的「思維鏈」方法泛化到引導(dǎo)語言模型,并通過探索文本(思維)的連貫單元來解決問題的中間步驟。

e39de16a-f967-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/abs/2305.10601

項目地址:https://github.com/kyegomez/tree-of-thoughts

簡單來說,「思維樹」可以讓LLM:

· 自己給出多條不同的推理路徑

· 分別進行評估后,決定下一步的行動方案

· 在必要時向前或向后追溯,以便實現(xiàn)進行全局的決策

論文實驗結(jié)果顯示,ToT顯著提高了LLM在三個新任務(wù)(24點游戲,創(chuàng)意寫作,迷你填字游戲)中的問題解決能力。

比如,在24點游戲中,GPT-4只解決了4%的任務(wù),但ToT方法的成功率達到了74%。

讓LLM「反復(fù)思考」

用于生成文本的大語言模型GPT、PaLM,現(xiàn)已經(jīng)證明能夠執(zhí)行各種廣泛的任務(wù)。

所有這些模型取得進步的基礎(chǔ)仍是最初用于生成文本的「自回歸機制」,以從左到右的方式一個接一個地進行token級的決策。

e3b089e6-f967-11ed-90ce-dac502259ad0.png

那么,這樣一個簡單的機制能否足以建立一個通向「解決通用問題的語言模型」?如果不是,哪些問題會挑戰(zhàn)當(dāng)前的范式,真正的替代機制應(yīng)該是什么?

恰恰關(guān)于「人類認知」的文獻為這個問題提供了一些線索。

「雙重過程」模型的研究表明,人類有兩種決策模式:快速、自動、無意識模式——「系統(tǒng)1」和緩慢、深思熟慮、有意識模式——「系統(tǒng)2」。

e3b78e62-f967-11ed-90ce-dac502259ad0.png

語言模型簡單關(guān)聯(lián)token級選擇可以讓人聯(lián)想到「系統(tǒng)1」,因此這種能力可能會從「系統(tǒng)2」規(guī)劃過程中增強。

「系統(tǒng)1」可以讓LLM保持和探索當(dāng)前選擇的多種替代方案,而不僅僅是選擇一個,而「系統(tǒng)2」評估其當(dāng)前狀態(tài),并積極地預(yù)見、回溯以做出更全局的決策。

e3c185f2-f967-11ed-90ce-dac502259ad0.png

為了設(shè)計這樣一個規(guī)劃過程,研究者便追溯到人工智能和認知科學(xué)的起源,從科學(xué)家Newell、Shaw和Simon在20世紀(jì)50年代開始探索的規(guī)劃過程中汲取靈感。

Newell及其同事將問題解決描述為「通過組合問題空間進行搜索」,表示為一棵樹。

一個真正的問題解決過程包括重復(fù)使用現(xiàn)有信息來探索,反過來,這將發(fā)現(xiàn)更多的信息,直到最終找到解決方法。

e3c85d8c-f967-11ed-90ce-dac502259ad0.png

這個觀點突出了現(xiàn)有使用LLM解決通用問題方法的2個主要缺點:

1. 局部來看,LLM沒有探索思維過程中的不同延續(xù)——樹的分支。

2. 總的來看,LLM不包含任何類型的計劃、前瞻或回溯,來幫助評估這些不同的選擇。

為了解決這些問題,研究者提出了用語言模型解決通用問題的思維樹框架(ToT),讓LLM可以探索多種思維推理路徑。

ToT四步法

當(dāng)前,現(xiàn)有的方法,如IO、CoT、CoT-SC,通過采樣連續(xù)的語言序列進行問題解決。

而ToT主動維護了一個「思維樹」。每個矩形框代表一個思維,并且每個思維都是一個連貫的語言序列,作為解決問題的中間步驟。

e3df2fee-f967-11ed-90ce-dac502259ad0.png

ToT將任何問題定義為在樹上進行搜索,其中每個節(jié)點都是一個狀態(tài)

e3e766b4-f967-11ed-90ce-dac502259ad0.png

,表示到目前為止輸入和思維序列的部分解。

ToT執(zhí)行一個具體任務(wù)時需要回答4個問題: 如何將中間過程分解為思維步驟;如何從每個狀態(tài)生成潛在的想法;如何啟發(fā)性地評估狀態(tài);使用什么搜索算法。1. 思維分解CoT在沒有明確分解的情況下連貫抽樣思維,而ToT利用問題的屬性來設(shè)計和分解中間的思維步驟。 根據(jù)不同的問題,一個想法可以是幾個單詞(填字游戲) ,一條方程式(24點) ,或者一整段寫作計劃(創(chuàng)意寫作)。 一般來說,一個想法應(yīng)該足夠「小」,以便LLM能夠產(chǎn)生有意義、多樣化的樣本。比如,生成一本完整的書通常太「大」而無法連貫 。 但一個想法也應(yīng)該「大」,足以讓LLM能夠評估其解決問題的前景。例如,生成一個token通常太「小」而無法評估。2.思維生成器e3ebfaee-f967-11ed-90ce-dac502259ad0.png

給定樹狀態(tài)

e3f1bec0-f967-11ed-90ce-dac502259ad0.png

,通過2種策略來為下一個思維步驟生成k個候選者。

(a)從一個CoT提示采樣e3f92962-f967-11ed-90ce-dac502259ad0.png思維:

e3ff652a-f967-11ed-90ce-dac502259ad0.png

e4082c6e-f967-11ed-90ce-dac502259ad0.png

在思維空間豐富(比如每個想法都是一個段落),并且e40e1584-f967-11ed-90ce-dac502259ad0.png導(dǎo)致多樣性時,效果更好。

(b)使用「proposal prompt」按順序提出想法:

e412c156-f967-11ed-90ce-dac502259ad0.png

。這在思維空間受限制(比如每個思維只是一個詞或一行)時效果更好,因此在同一上下文中提出不同的想法可以避免重復(fù)。

3.狀態(tài)求值器e4188ee2-f967-11ed-90ce-dac502259ad0.png

給定不同狀態(tài)的前沿,狀態(tài)評估器評估它們解決問題的進展,作為搜索算法的啟發(fā)式算法,以確定哪些狀態(tài)需要繼續(xù)探索,以及以何種順序探索。 雖然啟發(fā)式算法是解決搜索問題的標(biāo)準(zhǔn)方法,但它們通常是編程的(DeepBlue)或?qū)W習(xí)的(AlphaGo)。這里,研究者提出了第三種選擇,通過LLM有意識地推理狀態(tài)。 在適用的情況下,這種深思熟慮的啟發(fā)式方法可以比程序規(guī)則更靈活,比學(xué)習(xí)模型更有效率。與思維生成器,研究人員也考慮2種策略來獨立或一起評估狀態(tài):對每個狀態(tài)獨立賦值;跨狀態(tài)投票。4.搜索算法最后,在ToT框架中,人們可以根據(jù)樹的結(jié)構(gòu),即插即用不同的搜索算法。 研究人員在此探索了2個相對簡單的搜索算法: 算法1——廣度優(yōu)先搜索(BFS),每一步維護一組b最有希望的狀態(tài)。 算法2——深度優(yōu)先搜索(DFS),首先探索最有希望的狀態(tài),直到達到最終的輸出e41eb6e6-f967-11ed-90ce-dac502259ad0.png,或者狀態(tài)評估器認為不可能從當(dāng)前的e4238e3c-f967-11ed-90ce-dac502259ad0.png為閾值e42bfb08-f967-11ed-90ce-dac502259ad0.png解決問題。在這兩種情況下,DFS都會回溯到s的父狀態(tài)以繼續(xù)探索。

e439ba40-f967-11ed-90ce-dac502259ad0.png

由上,LLM通過自我評估和有意識的決策,來實現(xiàn)啟發(fā)式搜索的方法是新穎的。

實驗

為此,團隊提出了三個任務(wù)用于測試——即使是最先進的語言模型GPT-4,在標(biāo)準(zhǔn)的IO提示或思維鏈(CoT)提示下,都是非常富有挑戰(zhàn)的。

e44ed74a-f967-11ed-90ce-dac502259ad0.png

24點(Game of 24)

24點是一個數(shù)學(xué)推理游戲,目標(biāo)是使用4個數(shù)字和基本算術(shù)運算(+-*/)來得到24。

例如,給定輸入「4 9 10 13」,答案的輸出可能是「(10-4)*(13-9)=24」。

e4582b74-f967-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團隊將模型的思維過程分解為3個步驟,每個步驟都是一個中間方程。

如圖2(a)所示,在每個節(jié)點上,提取「左邊」的數(shù)字并提示LLM生成可能的下一步。(每一步給出的「提議提示」都相同)

其中,團隊在ToT中進行寬度優(yōu)先搜索(BFS),并在每一步都保留最好的b=5個候選項。

如圖2(b)所示,提示LLM評估每個思維候選項是「肯定/可能/不可能」達到24。基于「過大/過小」的常識消除不可能的部分解決方案,保留剩下的「可能」項。

e45dedd4-f967-11ed-90ce-dac502259ad0.png

結(jié)果

如表2所示,IO,CoT和CoT-SC提示方法在任務(wù)上的表現(xiàn)不佳,成功率僅為7.3%,4.0%和9.0%。相比之下,ToT在廣度為b=1時已經(jīng)達到了45%的成功率,而在b=5時達到了74%。

團隊還考慮了IO/CoT的預(yù)測設(shè)置,通過使用最佳的k個樣本(1≤k≤100)來計算成功率,并在圖3(a)中繪出5個成功率。

不出所料,CoT比IO擴展得更好,最佳的100個CoT樣本達到了49%的成功率,但仍然比在ToT中探索更多節(jié)點(b>1)要差。

e4626dc8-f967-11ed-90ce-dac502259ad0.png

錯誤分析

圖3(b)分析了CoT和ToT樣本在哪一步失敗了任務(wù),即思維(在CoT中)或所有b個思維(在ToT中)都是無效的或無法達到24。

值得注意的是,大約60%的CoT樣本在第一步就已經(jīng)失敗了,或者說,是前三個詞(例如「4+9」)。

創(chuàng)意寫作

接下來,團隊設(shè)計了一個創(chuàng)意寫作任務(wù)。

其中,輸入是四個隨機句子,輸出應(yīng)該是一個連貫的段落,每段都以四個輸入句子分別結(jié)束。這樣的任務(wù)開放且富有探索性,挑戰(zhàn)創(chuàng)造性思維以及高級規(guī)劃。

值得注意的是,團隊還在每個任務(wù)的隨機IO樣本上使用迭代-優(yōu)化(k≤5)方法,其中LLM基于輸入限制和最后生成的段落來判斷段落是否已經(jīng)「完全連貫」,如果不是,就生成一個優(yōu)化后的。

e4697f3c-f967-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團隊構(gòu)建了一個深度為2(只有1個中間思維步驟)的ToT。

LLM首先生成k=5的計劃并投票選擇最佳的一個(圖4),然后根據(jù)最佳計劃生成k=5的段落,然后投票選擇最佳的一個。

一個簡單的zero-shot投票提示(「分析以下選擇,然后得出哪個最有可能實現(xiàn)指令」)被用來在兩個步驟中抽取5票。

e4710932-f967-11ed-90ce-dac502259ad0.png

結(jié)果

圖5(a)顯示了100個任務(wù)中的GPT-4平均分數(shù),其中ToT(7.56)被認為比IO(6.19)和CoT(6.93)平均生成更連貫的段落。

雖然這樣的自動評測可能會有噪音,但圖5(b)通過顯示人類在100個段落對中有41個更喜歡ToT而只有21個更喜歡CoT(其他38對被認為「同樣連貫」)來確認這一發(fā)現(xiàn)。

最后,迭代優(yōu)化在這個自然語言任務(wù)上更有效——將IO連貫性分數(shù)從6.19提高到7.67,將ToT連貫性分數(shù)從7.56提高到7.91。

團隊認為它可以被看作是在ToT框架下生成思維的第三種方法,新的思維可以通過優(yōu)化舊的思維而產(chǎn)生,而不是i.i.d.或順序生成。

迷你填字游戲

在24點游戲和創(chuàng)意寫作中,ToT相對較淺——最多需要3個思維步驟就能完成輸出。

最后,團隊決定通過5×5的迷你填字游戲,來設(shè)置一個更難的問題。

同樣,目標(biāo)不僅僅是解決任務(wù),而是研究LLM作為一個通用問題解決者的極限。通過窺視自己的思維,以有目的性的推理作為啟發(fā),來指導(dǎo)自己的探索。

e47c3fbe-f967-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團隊利用深度優(yōu)先搜索保持探索最有可能成功的后續(xù)單詞線索,直到狀態(tài)不再有希望,然后回溯到父狀態(tài)以探索替代的思維。

為了使搜索可行,后續(xù)的思維被限制不改變?nèi)魏我烟顚懙膯卧~或字母,這樣ToT最多有10個中間步驟。

對于思維生成,團隊在每個狀態(tài)下將所有現(xiàn)有的思維(例如,「h2.motor; h1.tasks」對于圖6(a)中的狀態(tài))轉(zhuǎn)換為剩余線索的字母限制(例如,「v1.To heap: tm___;...」),從而得到下一個單詞填寫位置和內(nèi)容的候選。

重要的是,團隊也提示LLM給出不同思維的置信度,并在提案中匯總這些以獲得下一個要探索的思維的排序列表(圖6(a))。

對于狀態(tài)評估,團隊類似地將每個狀態(tài)轉(zhuǎn)換為剩余線索的字母限制,然后評估每個線索是否可能在給定限制下填寫。

如果任何剩余的線索被認為是「不可能」的(例如,「v1. To heap: tm_s_」),那么該狀態(tài)的子樹的探索就被剪枝,并且DFS回溯到其父節(jié)點來探索下一個可能的候選。

e485b1a2-f967-11ed-90ce-dac502259ad0.png

結(jié)果

如表3所示,IO和CoT的提示方法在單詞級成功率上表現(xiàn)不佳,低于16%,而ToT顯著改善了所有指標(biāo),實現(xiàn)了60%的單詞級成功率,并解決了20個游戲中的4個。

鑒于IO和CoT缺乏嘗試不同線索、改變決策或回溯的機制,這種改善并不令人驚訝。

局限性與結(jié)論

ToT是一個讓LLM可以更自主、更智能地做決策和解決問題的框架。

它提高了模型決策的可解釋性以及與人類對齊的機會,因為ToT所生成的表征表形式是可讀的、高級的語言推理,而不是隱式的、低級的token值。

對于那些GPT-4已經(jīng)十分擅長的任務(wù)來說,ToT可能并是不必要的。

此外,像ToT這樣的搜索方法需要更多的資源(如GPT-4 API成本)來提高任務(wù)性能,但ToT的模塊化靈活性讓用戶可以自定義這種性能-成本平衡。

不過,隨著LLM被用于更多真實世界的決策應(yīng)用(如編程、數(shù)據(jù)分析、機器人技術(shù)等),ToT可以為研究那些即將出現(xiàn)的更為復(fù)雜的任務(wù),提供新的機會。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11258
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16720
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    12141

原文標(biāo)題:GPT-4推理提升1750%!普林斯頓清華姚班校友提出全新「思維樹ToT」框架,讓LLM反復(fù)思考

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    摩爾線程新代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新代大語言模型對齊框架——URPO統(tǒng)
    的頭像 發(fā)表于 11-17 16:03 ?244次閱讀
    摩爾線程新<b class='flag-5'>一</b>代大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>對齊<b class='flag-5'>框架</b>URPO入選AAAI 2026

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺上的推理性能瓶頸。為實現(xiàn)這
    的頭像 發(fā)表于 10-21 11:04 ?791次閱讀

    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM框架

    由于傳統(tǒng)視覺SLAM在動態(tài)場景中容易會出現(xiàn)嚴重的定位漂移,本文提出了一種新穎的基于場景-對象的可靠性評估框架,該框架通過當(dāng)前幀質(zhì)量指標(biāo)以及相對于可靠參考幀的場景變化,全面評估SLAM的
    的頭像 發(fā)表于 08-19 14:17 ?658次閱讀
    <b class='flag-5'>一種</b>適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM<b class='flag-5'>框架</b>

    利用自壓縮實現(xiàn)大型語言模型高效縮減

    隨著語言模型規(guī)模日益龐大,設(shè)備端推理變得越來越緩慢且耗能巨大。個直接且效果出人意料的解決方案是剪除那些對任務(wù)貢獻甚微的完整通道(channel)。我們早期的
    的頭像 發(fā)表于 07-28 09:36 ?376次閱讀
    利用自壓縮實現(xiàn)大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>高效縮減

    無刷直流電機雙閉環(huán)串級控制系統(tǒng)仿真研究

    Madlab進行BLDC建模仿真的方法,并且也提出了很多的建模仿真方案。例如有研究人員提出采用節(jié)點電流法對電機控制系統(tǒng)進行分析,通過列寫m函數(shù),建立BLDC控制系統(tǒng)真模型,這種方法實質(zhì)
    發(fā)表于 07-07 18:36

    模型推理顯存和計算量估計方法研究

    (如全連接層、卷積層等)確定所需的顯存大??; (3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡(luò)剪枝的顯存估計 神經(jīng)網(wǎng)絡(luò)剪枝是一種減少模型參數(shù)數(shù)量的技術(shù),可以降低顯存需求。通過剪枝,可以
    發(fā)表于 07-03 19:43

    模型自適應(yīng)控制在永磁同步電機轉(zhuǎn)速中的仿真研究

    摘要:針對永磁同步電機非線性、時變不確定性及難以建立精確的數(shù)學(xué)模型等問題,不同于動態(tài)線性時變模型替代般非線性系統(tǒng),提出一種基于模糊過程和系
    發(fā)表于 06-25 13:01

    研究人員開發(fā)出基于NVIDIA技術(shù)的AI模型用于檢測瘧疾

    瘧疾曾度在委內(nèi)瑞拉銷聲匿跡,但如今正卷土重來。研究人員已經(jīng)訓(xùn)練出模型來幫助檢測這種傳染病。
    的頭像 發(fā)表于 04-25 09:58 ?744次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進展,特別是自DeepSeekR1發(fā)布后興起的推理時間計算擴展相關(guān)內(nèi)容。在LLM中實施和改進推理簡單來說,基于LLM的推理模型一種
    的頭像 發(fā)表于 04-03 12:09 ?1268次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現(xiàn)狀

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是款集成化的離線大語言模型(LLM)推理模塊,專為需要高效、智能交互的終端設(shè)備設(shè)計。Module13
    的頭像 發(fā)表于 03-28 18:49 ?905次閱讀
    新品 | Module LLM Kit,離線大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>模塊套裝

    小白學(xué)大模型:訓(xùn)練大語言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時代,大型語言模型(LLMs)正以其強大的語言理解和生成能力,改變著我們的生活和工作方式。在最近的研究中,科學(xué)家
    的頭像 發(fā)表于 03-03 11:51 ?1220次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:訓(xùn)練大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的深度指南

    AI大模型在汽車應(yīng)用中的推理、降本與可解釋性研究

    佐思汽研發(fā)布《2024-2025年AI大模型及其在汽車領(lǐng)域的應(yīng)用研究報告》。 推理能力成為大模型性能提升的驅(qū)動引擎 2024下半年以來,國內(nèi)外大模型
    的頭像 發(fā)表于 02-18 15:02 ?1852次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應(yīng)用中的<b class='flag-5'>推理</b>、降本與可解釋性<b class='flag-5'>研究</b>

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,可開發(fā),靈活擴展···LLM630ComputeKit是款A(yù)I大語言模型推理開發(fā)平臺,專為邊緣計算和智能
    的頭像 發(fā)表于 01-17 18:48 ?1213次閱讀
    新品| LLM630 Compute Kit,AI 大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>開發(fā)平臺

    中國電提出模型推理加速新范式Falcon

    的 Falcon 方法是一種 增強半自回歸投機解碼框架 ,旨在增強 draft model 的并行性和輸出質(zhì)量,以有效提升大模型推理速度。Falcon 可以實現(xiàn)約 2.91-3.51
    的頭像 發(fā)表于 01-15 13:49 ?1475次閱讀
    中國電<b class='flag-5'>提出</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速新范式Falcon

    NaVILA:加州大學(xué)與英偉達聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達,共同推出了款創(chuàng)新的視覺語言模型——NaVILA。該模型在機
    的頭像 發(fā)表于 12-13 10:51 ?963次閱讀