chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視覺信號(hào)輔助的自然語(yǔ)言文法學(xué)習(xí)

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:通信信號(hào)處理研究所 ? 作者:通信信號(hào)處理研究 ? 2021-01-05 14:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

長(zhǎng)久以來(lái),自然語(yǔ)言的文法學(xué)習(xí)(Grammar Learning)只考慮純文本輸入數(shù)據(jù)。我們?cè)噲D探究視覺信號(hào)(Visual Groundings),比如圖像,對(duì)自然語(yǔ)言文法學(xué)習(xí)是否有幫助。為此,我們提出了視覺信號(hào)輔助下的概率文法的通用學(xué)習(xí)框架。 該框架依賴于概率文法模型(Probabilistic Context-Free Grammars),具有端到端學(xué)習(xí)、完全可微的優(yōu)點(diǎn)。其次,針對(duì)視覺輔助學(xué)習(xí)中視覺信號(hào)不足的問(wèn)題。我們提出在語(yǔ)言模型(Language Modeling)上對(duì)概率文法模型進(jìn)行額外優(yōu)化。我們通過(guò)實(shí)驗(yàn)驗(yàn)證視覺信號(hào)以及語(yǔ)言模型的優(yōu)化目標(biāo)有助于概率文法學(xué)習(xí)。 論文一作趙彥鵬:愛丁堡大學(xué)語(yǔ)言、認(rèn)知和計(jì)算研究所博士生,導(dǎo)師是Ivan Titov和Mirella Lapata教授。他的研究興趣是結(jié)構(gòu)預(yù)測(cè)和隱變量模型?,F(xiàn)在主要關(guān)注語(yǔ)言結(jié)構(gòu)和圖像結(jié)構(gòu)的學(xué)習(xí),以及二者之間的聯(lián)系。 1

背景

本次分享內(nèi)容是,用視覺信號(hào)來(lái)輔助概率文法學(xué)習(xí)的一個(gè)通用學(xué)習(xí)框架。我們關(guān)注的問(wèn)題是,視覺信號(hào)能否幫助我們來(lái)推理出自然語(yǔ)言的句法結(jié)構(gòu)? 接下來(lái)我將從以下幾個(gè)部分展開。 首先介紹視覺信號(hào)輔助下的概率文法學(xué)習(xí)的一些背景知識(shí)和現(xiàn)有的一些工作。 然后介紹本文提出的Visually Grounded Compound PCFGs (VC-PCFGs)。 最后實(shí)驗(yàn)驗(yàn)證VC-PCFGs的有效性。 論文:《Visually Grounded Compound PCFGs》

首先了解問(wèn)題定義:給定一張圖片以及它的自然語(yǔ)言描述,比如這里有一張鴿子的圖片,它的語(yǔ)言描述是a white pigeon sniffs flowers,我們的目標(biāo)是通過(guò)圖片和文字兩個(gè)輸入,得到對(duì)應(yīng)句子的句法結(jié)構(gòu),也就是右邊的圖。句法結(jié)構(gòu)由不同的詞組嵌套而成,每個(gè)詞組可能有不同的類型,它可以是一個(gè)名詞詞組或者是一個(gè)動(dòng)詞的組。在學(xué)習(xí)過(guò)程中,這種詞組的類別信息依賴于文法模型的選擇,但是評(píng)測(cè)的時(shí)候一般會(huì)忽略。 為什么視覺信號(hào)可以幫助文法結(jié)構(gòu)的學(xué)習(xí)?這依賴于如下觀測(cè):給定一個(gè)句子,如果相鄰的兩個(gè)詞組,比如white和pigeon,對(duì)應(yīng)/關(guān)聯(lián)于圖片中一個(gè)相同的區(qū)域,那么就有理由相信它們更有可能形成一個(gè)大的詞組,進(jìn)而把它們合并起來(lái)。接下來(lái)的問(wèn)題是如何表示這種相關(guān)性信息?我們的想法是通過(guò)相似度來(lái)量化相關(guān)性。

dd1e71a6-4e9c-11eb-8b86-12bb97331649.png

如何去學(xué)習(xí)相似度?之前的模型應(yīng)用對(duì)比學(xué)習(xí)的方式(Contrastive Learning)。首先給定一張圖片以及句子,然后通過(guò)文法模型,得到句子的句法結(jié)構(gòu)的表示。剛才已經(jīng)提到句法結(jié)構(gòu)對(duì)應(yīng)的就是一些嵌套的詞組,我們可以把這些詞組提取出來(lái),和相應(yīng)的圖片組成詞組圖片對(duì),稱之為正樣本。 然后固定一個(gè)詞組,從數(shù)據(jù)集里面隨機(jī)采樣一些圖片。并將采樣得到的圖片和當(dāng)前固定的詞組同樣組成新的詞組圖片對(duì),作為負(fù)樣本。對(duì)比學(xué)習(xí)的優(yōu)化目標(biāo)就是使正樣本的得分比負(fù)樣本的得分高。類似的,我們也可以固定圖片,從其他句子里面隨機(jī)的采樣一些詞組,和當(dāng)前圖片組合構(gòu)成負(fù)樣本。這樣就完整定義了一個(gè)詞組圖片對(duì)的損失函數(shù)。 因?yàn)橐粋€(gè)句子可以包含多個(gè)不同的詞組,那么在所有的詞組圖片對(duì)上加和,就可以得到一個(gè)句子圖片對(duì)的損失函數(shù)。需要注意的是這里提到的這些詞組是來(lái)自于一個(gè)句法結(jié)構(gòu),這個(gè)句法結(jié)構(gòu)是從一個(gè)文法模型里面采樣得到的。 我們已經(jīng)能夠表示和學(xué)習(xí)這種相似度,接下來(lái)如何從相似度學(xué)習(xí)文法模型?

ddd7bb70-4e9c-11eb-8b86-12bb97331649.png

首先了解一下之前的工作,其選擇了一個(gè)貪心文法模型。所謂貪心就是每次它只會(huì)選擇最有可能合并到一起的兩個(gè)詞組,進(jìn)行合并。其次,貪心意味著它只能去采樣,不能夠在有限時(shí)間內(nèi)枚舉所有可能的句法結(jié)構(gòu),所以它學(xué)習(xí)就依賴于強(qiáng)化學(xué)習(xí)的方法。直觀理解是,如果當(dāng)前合并起來(lái)的兩個(gè)詞組和給定的圖像相似度很高,那么有理由相信它們更有可能被合并。我們應(yīng)用之前定義的詞組圖片對(duì)之間的相似度,作為一個(gè)reward,強(qiáng)化合并操作。 雖然這樣一個(gè)模型比較直觀,但是還有下列這些缺陷,首先強(qiáng)化學(xué)習(xí)依賴于采樣,所以在優(yōu)化過(guò)程中,即評(píng)估梯度的時(shí)候會(huì)有很大的噪聲。

dcdd9e60-4e9c-11eb-8b86-12bb97331649.png

其次對(duì)于視覺信號(hào)輔助下的自然語(yǔ)言文法學(xué)習(xí),有一個(gè)本質(zhì)的問(wèn)題,即有些句法結(jié)構(gòu)的信息在相應(yīng)的圖片里面是找不到支撐信息的。比如這里稍微改變一下這個(gè)句子, a white pigeon is sitting in the grass peacefully。我們很難去找到sitting這樣一個(gè)動(dòng)詞以及peacefully這樣一個(gè)副詞在這個(gè)圖片里面所對(duì)應(yīng)的視覺信號(hào)是什么。觀察之前的文章作者匯報(bào)的一些結(jié)果,我們發(fā)現(xiàn)他們的模型在名詞詞組,即NPs,相對(duì)于在動(dòng)詞VPs上的結(jié)果要好很多。為了緩解這個(gè)問(wèn)題,他們不得不借助于語(yǔ)言特定的先驗(yàn)信息。 2

我們的模型:VC-PCFGs

那么我們是如何解決這些問(wèn)題的呢?首先,對(duì)于強(qiáng)化學(xué)習(xí)帶來(lái)的梯度評(píng)估中的噪聲問(wèn)題。我們提出把貪心文法模型替換為概率文法模型,即PCFGs。替換之后我們可以將采樣操作去掉,同時(shí)優(yōu)化過(guò)程是完全可微的。我們稱之為,Visually Grounded Compound PCFGs。至于compound這個(gè)名詞的解釋稍后會(huì)提到。 其次是視覺信號(hào)不充分的問(wèn)題。對(duì)于一個(gè)概率文法模型,只給定純文本,而沒(méi)有視覺信號(hào)的情況下,我們可以通過(guò)優(yōu)化語(yǔ)言模型的目標(biāo)函數(shù)來(lái)學(xué)習(xí)概率文法模型,所以我們提出在語(yǔ)言模型目標(biāo)函數(shù)上對(duì)概率文法模型進(jìn)行優(yōu)化。 也就是說(shuō)我們的模型包含兩部分,首先是引入視覺信號(hào)的概率文法模型的學(xué)習(xí),其次在語(yǔ)言模型目標(biāo)上來(lái)優(yōu)化概率文法模型。值得注意的是,這兩個(gè)過(guò)程都是完全可微的。接下來(lái)我們?cè)斒鲞@兩部分。

decbff28-4e9c-11eb-8b86-12bb97331649.png

首先回顧視覺信號(hào)輔助的文法模型學(xué)習(xí)中的一個(gè)重要的損失函數(shù),在之前的工作中,給定一個(gè)文法模型,即parser,采樣得到一個(gè)句法結(jié)構(gòu),通過(guò)枚舉這個(gè)句法結(jié)構(gòu)所定義的所有詞組,之后在詞組圖片對(duì)上把它們的loss加和,得到一個(gè)句子圖片對(duì)上的loss。我們的目標(biāo)是把這樣一個(gè)采樣過(guò)程去掉,也就意味著必須想辦法計(jì)算句法結(jié)構(gòu)分布下的損失函數(shù)的期望值。

dfe2f736-4e9c-11eb-8b86-12bb97331649.png

期望可以寫成加和的形式。給定一個(gè)句子的話,這個(gè)句法結(jié)構(gòu)空間是指數(shù)級(jí)別的,我們不可能枚舉所有句法結(jié)構(gòu)。但是我們可以把這個(gè)式子中的兩個(gè)加法操作交換順序。第一個(gè)加法操作是枚舉所有的句法結(jié)構(gòu),第二個(gè)加法是要枚舉句法結(jié)構(gòu)中所有的詞組。交換順序之后做一些簡(jiǎn)單的推導(dǎo),就可以得到最右邊的等式。這個(gè)等式意味著只需要枚舉給定句子的所有的詞組,這是很容易做到的,因?yàn)槠渌械脑~組數(shù)目也就N平方級(jí)別。 接下來(lái)問(wèn)題轉(zhuǎn)換成如何來(lái)評(píng)估條件概率?即給定一個(gè)句子,其中一個(gè)詞組的條件概率是什么?這就是通常所說(shuō)的后驗(yàn)評(píng)估的問(wèn)題。其次,還需要得到這個(gè)詞組Span c的表示。我們需要用它和圖像做一個(gè)相似度的計(jì)算。最終的問(wèn)題可以劃分成兩個(gè)部分:后驗(yàn)評(píng)估和Span的表示。

e002856a-4e9c-11eb-8b86-12bb97331649.png

首先第一個(gè)部分,后驗(yàn)評(píng)估。我們選擇了一個(gè)概率文法模型,PCFG parser。因?yàn)橛眠@樣一個(gè)概率文法模型的話,可以通過(guò)動(dòng)態(tài)規(guī)劃的方法方便地計(jì)算后驗(yàn)概率。然后通過(guò)計(jì)算句法樹分布下的損失函數(shù)期望值,得到去除采樣過(guò)程的損失函數(shù)。同時(shí)它的優(yōu)化是完全可微的。其次,因?yàn)楦怕饰姆P偷膬?yōu)化本身可以不依賴于視覺信號(hào),所以我們可以直接去優(yōu)化它的語(yǔ)言模型上的目標(biāo)函數(shù),這個(gè)過(guò)程同樣是完全可微的,同時(shí)緩解了視覺信號(hào)不充分的問(wèn)題。 對(duì)于概率文法模型,我們選擇了當(dāng)前最好的一個(gè)概論文法模型,即Compound PCFGs。需要指出的就是Compound PCFGs只是PCFGs的一個(gè)擴(kuò)展,所以之前提到的關(guān)于PCFGs的所有的優(yōu)點(diǎn)它都是具備的。這樣便得到我們的完整模型,即Visually Grounded Compound PCFGs。

e06bb904-4e9c-11eb-8b86-12bb97331649.png

接下來(lái)來(lái)看第二個(gè)模塊。第二個(gè)模塊是給定一個(gè)句子如何來(lái)表示它的詞組。我們這里選擇了雙向的LSTM模型。對(duì)于一個(gè)句子中所有不同長(zhǎng)度的詞組,我們?cè)谠~組級(jí)別上做編碼,得到詞組的向量化表示。這樣一個(gè)模型能夠保證當(dāng)前詞組的表示,不會(huì)用到詞組之外的信息。通過(guò)一些代碼實(shí)現(xiàn)上的技巧,我們可以在線性時(shí)間復(fù)雜度內(nèi)得到所有詞組的表示。 3

結(jié)論驗(yàn)證

最后是實(shí)驗(yàn)部分。

e0b01dba-4e9c-11eb-8b86-12bb97331649.png

實(shí)驗(yàn)部分使用了MSCOCO數(shù)據(jù)集,每個(gè)圖片對(duì)應(yīng)有一個(gè)自然語(yǔ)言的描述。由于數(shù)據(jù)集中的自然語(yǔ)言描述沒(méi)有真實(shí)的句法結(jié)構(gòu)標(biāo)注,為了評(píng)測(cè),我們使用了當(dāng)前最好的一個(gè)有監(jiān)督的文法模型,得到自然語(yǔ)言描述的句法結(jié)構(gòu)。對(duì)于圖像的編碼,我們沿用之前工作的方法,對(duì)每個(gè)模型用預(yù)練好的,ResNet-101,把每個(gè)圖片編碼成一個(gè)向量的表示。

e0fb6734-4e9c-11eb-8b86-12bb97331649.png

評(píng)測(cè)中,我們?cè)诿恳环N設(shè)置下重復(fù)運(yùn)行模型4次并取平均,每次使用了不同的隨機(jī)數(shù)種子。評(píng)測(cè)指標(biāo)使用句子級(jí)別的F1評(píng)測(cè)。模型之間的對(duì)比,這里主要有三組模型: 1.第一組是很簡(jiǎn)單的對(duì)比模型,比如Left Branching, Right Branching, Random Trees。 2.第二組是之前模型,即VG-NSL,我們對(duì)比它在使用和不使用語(yǔ)言特定先驗(yàn)下的結(jié)果。 3.第三組是我們的模型,因?yàn)檫@里主要評(píng)測(cè)兩個(gè)模塊: a)僅應(yīng)用語(yǔ)言模型的目標(biāo)函數(shù),對(duì)應(yīng)Compound PCFGs(C-PCFGs)。 b)只應(yīng)用視覺信號(hào),也就第二個(gè)without language mode objective(w/o LM)。 最后是我們完整的模型VC-PCFG,既用語(yǔ)言模型的目標(biāo)函數(shù),又用視覺信號(hào)信息。

e18d73b8-4e9c-11eb-8b86-12bb97331649.png

接下來(lái)看一下整體結(jié)果。首先是Right-branching模型表現(xiàn)強(qiáng)勢(shì),只有Compound PCFG以及VC-PCFG,遠(yuǎn)遠(yuǎn)的超過(guò)了它,其他模型都比這個(gè)簡(jiǎn)單的模型表現(xiàn)要差。

e297751a-4e9c-11eb-8b86-12bb97331649.png

這里對(duì)比C-PCFG和VC-PCFG。模型如果額外使用視覺信號(hào)的話,可以帶來(lái)接近6%的提升。

e2ef4394-4e9c-11eb-8b86-12bb97331649.png

這里對(duì)比只使用視覺信號(hào)的模型(w/o LM)與加入語(yǔ)言模型目標(biāo)函數(shù)的完整模型(VC-PCFG),我們可以看出語(yǔ)言模型目標(biāo)函數(shù)帶來(lái)將近9%的一個(gè)提升。

e373dd7a-4e9c-11eb-8b86-12bb97331649.png

我們想知道這些模型提升主要來(lái)自于哪一種類型的詞組?我們這里選擇了測(cè)試集里面四個(gè)頻率比較高的詞組類型。首先第一個(gè)是名詞詞組,然后第二個(gè)是動(dòng)詞詞組,第三個(gè)是介詞詞組,第四個(gè)是連詞詞組。因?yàn)槟P驮诮樵~和連詞上的性能和在動(dòng)詞詞組上的性能比較類似,接下來(lái)我們只在名詞詞組和動(dòng)詞詞組上做比較。

e41331cc-4e9c-11eb-8b86-12bb97331649.png

首先先看一下之前的模型VG-NSL,這里重新驗(yàn)證了作者的實(shí)驗(yàn)結(jié)果。VG-NSL在NP上的性能超過(guò)VP上的性能大于35%。

e42a38b8-4e9c-11eb-8b86-12bb97331649.png

這里顯示的是我們的完整模型,VC-PCFG對(duì)應(yīng)的是紅色柱狀圖??梢钥闯鱿鄬?duì)于其他模型,它的效果雖然不是最好的,但是它整體來(lái)說(shuō)是較好的。然后在VP上,相對(duì)于之前的VG-NSL,我們的模型比它高出了55%。

e494638c-4e9c-11eb-8b86-12bb97331649.png

接下來(lái)驗(yàn)證視覺信號(hào)的有效性。沒(méi)有用視覺信號(hào)的是黃色柱狀圖,使用了視覺信號(hào)的是紅色柱狀圖。在NP上,使用視覺信號(hào)可以帶來(lái)將近11%的一個(gè)提升,也就是說(shuō)視覺信號(hào)對(duì)NP是有幫助的。

這里驗(yàn)證語(yǔ)言模型的目標(biāo)函數(shù)的有效性。同樣我們發(fā)現(xiàn)語(yǔ)言模型目標(biāo)函數(shù)也是在NP上帶來(lái)一個(gè)很大的提升,提升了大概19%。

e52f2ba6-4e9c-11eb-8b86-12bb97331649.png

最后我們從另外一個(gè)角度來(lái)分析模型。即這些模型在不同長(zhǎng)度的詞組上的效果如何。這張圖首先可以看有一個(gè)明顯的差別:上面兩個(gè)對(duì)應(yīng)的是C-PCFG以及VC-PCFG,這兩個(gè)模型明顯是要優(yōu)于之前的VG-NSL。 具體來(lái)說(shuō)的話,當(dāng)詞組的長(zhǎng)度大于4的時(shí)候,這兩個(gè)模型始終是優(yōu)于之前的VG-NSL,即便之前的VG-NSL加了一個(gè)語(yǔ)言特定的先驗(yàn)知識(shí)。

e5722bb8-4e9c-11eb-8b86-12bb97331649.png

這里對(duì)比視覺信號(hào)是否有幫助。藍(lán)色是是我們完整的模型,橙色的是沒(méi)有加入視覺信號(hào)的模型。我們發(fā)現(xiàn)當(dāng)詞組的長(zhǎng)度小于5的時(shí)候,藍(lán)色對(duì)應(yīng)的模型,即使用了視覺信號(hào)模型是要顯著優(yōu)于不用視覺信號(hào)的模型,所以我們結(jié)論是視覺信號(hào)對(duì)于短的一些詞組是有幫助的。然而我們發(fā)現(xiàn)這些短詞組占了整個(gè)數(shù)據(jù)集所有詞組大概75%,而在75%里面又有60%是名詞詞組,所以我們可以說(shuō)視覺信號(hào)對(duì)于文法學(xué)習(xí)的幫助主要體現(xiàn)在名詞詞組上。 4

結(jié)論

我們提出了VC-PCFGs。它應(yīng)用Compound-PCFGs作為文法模型,是一個(gè)端到端可微,在視覺信號(hào)輔助下的文法學(xué)習(xí)通用框架。 VC-PCFGs允許我們額外優(yōu)化一個(gè)語(yǔ)言模型的目標(biāo)函數(shù),進(jìn)而緩解視覺信號(hào)不充分的問(wèn)題。 我們實(shí)驗(yàn)驗(yàn)證了視覺信號(hào)以及語(yǔ)言模型的優(yōu)化目標(biāo)函數(shù)對(duì)于文法學(xué)習(xí)都有幫助。

原文標(biāo)題:EMNLP 2020最佳論文榮譽(yù)提名:視覺信號(hào)輔助的自然語(yǔ)言文法學(xué)習(xí)

文章出處:【微信公眾號(hào):通信信號(hào)處理研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 信號(hào)
    +關(guān)注

    關(guān)注

    11

    文章

    2908

    瀏覽量

    79872
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13953

原文標(biāo)題:EMNLP 2020最佳論文榮譽(yù)提名:視覺信號(hào)輔助的自然語(yǔ)言文法學(xué)習(xí)

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    云知聲論文入選自然語(yǔ)言處理頂會(huì)EMNLP 2025

    近日,自然語(yǔ)言處理(NLP)領(lǐng)域國(guó)際權(quán)威會(huì)議 ——2025 年計(jì)算語(yǔ)言學(xué)與自然語(yǔ)言處理國(guó)際會(huì)議(EMNLP 2025)公布論文錄用結(jié)果,云知聲提交的《面向門診病歷生成的高質(zhì)量醫(yī)患對(duì)話合成技術(shù)
    的頭像 發(fā)表于 11-10 17:30 ?694次閱讀
    云知聲論文入選<b class='flag-5'>自然語(yǔ)言</b>處理頂會(huì)EMNLP 2025

    HarmonyOSAI編程自然語(yǔ)言代碼生成

    安裝CodeGenie后,在下方對(duì)話框內(nèi),輸入代碼需求描述,將根據(jù)描述智能生成代碼,生成內(nèi)容可一鍵復(fù)制或一鍵插入至編輯區(qū)當(dāng)前光標(biāo)位置。 提問(wèn)示例 使用ArkTs語(yǔ)言寫一段代碼,在頁(yè)面中間部分
    發(fā)表于 09-05 16:58

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無(wú)需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語(yǔ)言輕松控板

    引言:為什么需要 “自然語(yǔ)言控板”? 痛點(diǎn)引入 :嵌入式開發(fā)中,開發(fā)者常需通過(guò) SSH 等工具登錄開發(fā)板,手動(dòng)輸入復(fù)雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    milvus向量數(shù)據(jù)庫(kù)的主要特性和應(yīng)用場(chǎng)景

    Milvus 是一個(gè)開源的向量數(shù)據(jù)庫(kù),專門為處理和分析大規(guī)模向量數(shù)據(jù)而設(shè)計(jì)。它適用于需要高效存儲(chǔ)、檢索和管理向量數(shù)據(jù)的應(yīng)用場(chǎng)景,如機(jī)器學(xué)習(xí)、人工智能、計(jì)算機(jī)視覺自然語(yǔ)言處理等。
    的頭像 發(fā)表于 07-04 11:36 ?938次閱讀
    milvus向量數(shù)據(jù)庫(kù)的主要特性和應(yīng)用場(chǎng)景

    DevEco CodeGenie 鴻蒙AI 輔助編程初次使用

    :基于 DeepSeek-R1 智能體,解答 HarmonyOS 開發(fā)問(wèn)題(如 ArkTS 語(yǔ)法、多線程實(shí)現(xiàn)等)。 代碼生成與續(xù)寫 :支持 ArkTS/C++ 代碼片段生成,可根據(jù)自然語(yǔ)言描述或代碼
    的頭像 發(fā)表于 06-26 08:48 ?808次閱讀

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    會(huì)議。會(huì)議涵蓋了機(jī)器學(xué)習(xí)的各個(gè)前沿方向,包括但不限于深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、自然語(yǔ)言處理、計(jì)算機(jī)視覺、貝葉斯方法及優(yōu)化算法等。
    的頭像 發(fā)表于 06-16 09:23 ?1383次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    人工智能浪潮下,制造企業(yè)如何借力DeepSeek實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型?

    DeepSeek,憑借其強(qiáng)大的深度學(xué)習(xí)自然語(yǔ)言處理能力,能夠理解復(fù)雜問(wèn)題并提供精準(zhǔn)解決方案。它不僅能夠作為學(xué)習(xí)、工作、生活的助手,滿足用戶在不同場(chǎng)景下的需求,更能在制造業(yè)中發(fā)揮重要作用。通過(guò)
    的頭像 發(fā)表于 05-29 16:17 ?543次閱讀

    云知聲四篇論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    近日,第63屆國(guó)際計(jì)算語(yǔ)言學(xué)年會(huì)ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡(jiǎn)稱ACL)論文接收
    的頭像 發(fā)表于 05-26 14:15 ?1212次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語(yǔ)言</b>處理頂會(huì)ACL 2025

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過(guò)學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語(yǔ)言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問(wèn)答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1179次閱讀
    小白學(xué)大模型:從零實(shí)現(xiàn) LLM<b class='flag-5'>語(yǔ)言</b>模型

    自然語(yǔ)言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示了自然語(yǔ)言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?869次閱讀

    拒絕“人工智障”!VLM讓RDK X5機(jī)器狗真正聽懂“遛彎”和“避障

    項(xiàng)目思路現(xiàn)有跨形態(tài)機(jī)器人控制需為不同硬件單獨(dú)設(shè)計(jì)策略,開發(fā)成本高且泛化性差。本課題嘗試使用語(yǔ)言指令統(tǒng)一接口,用戶用自然語(yǔ)言指揮不同形態(tài)機(jī)器人完成同一任務(wù),通過(guò)分層強(qiáng)化學(xué)習(xí)框架,高層視覺
    的頭像 發(fā)表于 03-28 18:57 ?1232次閱讀
    拒絕“人工智障”!VLM讓RDK X5機(jī)器狗真正聽懂“遛彎”和“避障

    ?VLM(視覺語(yǔ)言模型)?詳細(xì)解析

    視覺語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與
    的頭像 發(fā)表于 03-17 15:32 ?8174次閱讀
    ?VLM(<b class='flag-5'>視覺</b><b class='flag-5'>語(yǔ)言</b>模型)?詳細(xì)解析

    AI商業(yè)應(yīng)用平臺(tái)的特點(diǎn)

    AI商業(yè)應(yīng)用平臺(tái)集成了自然語(yǔ)言處理、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等前沿的人工智能技術(shù)。以下,是對(duì)AI商業(yè)應(yīng)用平臺(tái)特點(diǎn)的整理,由AI部落小編整理。
    的頭像 發(fā)表于 02-22 09:58 ?960次閱讀

    中科馭數(shù)DPU助力大模型訓(xùn)練和推理

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,大模型(如GPT、BERT等)在自然語(yǔ)言處理、計(jì)算機(jī)視覺等領(lǐng)域取得了顯著成果。然而,大模型的參數(shù)量和計(jì)算量極其龐大,傳統(tǒng)的硬件架構(gòu)或者單臺(tái)設(shè)備(如單個(gè)GPU)難以滿足其計(jì)算需求。
    的頭像 發(fā)表于 02-19 09:48 ?1199次閱讀
    中科馭數(shù)DPU助力大模型訓(xùn)練和推理

    一文詳解視覺語(yǔ)言模型

    視覺語(yǔ)言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?3576次閱讀
    一文詳解<b class='flag-5'>視覺</b><b class='flag-5'>語(yǔ)言</b>模型