chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI又放大招:連接文本與圖像的CLIP

新機(jī)器視覺(jué) ? 來(lái)源:AI科技評(píng)論 ? 作者:AI科技評(píng)論 ? 2021-04-18 10:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2020年,通用模型產(chǎn)生了經(jīng)濟(jì)價(jià)值,特別是GPT-3,它的出現(xiàn)證明了大型語(yǔ)言模型具有驚人的語(yǔ)言能力,并且在執(zhí)行其他任務(wù)方面也毫不遜色。

2021年,OpenAI 聯(lián)合創(chuàng)始人 Ilya Sutskever預(yù)測(cè)語(yǔ)言模型會(huì)轉(zhuǎn)向視覺(jué)領(lǐng)域。他說(shuō):“下一代模型,或許可以針對(duì)文本輸入,從而編輯和生成圖像?!?/p>

cbdba506-9fbb-11eb-8b86-12bb97331649.png

聽(tīng)話聽(tīng)音!OpenAI 踐行了這一想法,幾個(gè)小時(shí)前,OpenAI通過(guò)官方推特發(fā)布了兩個(gè)嶄新的網(wǎng)絡(luò),一個(gè)叫DALL-E(參見(jiàn)今天推送的頭條),能夠通過(guò)給定的文本創(chuàng)建出圖片;一個(gè)叫CLIP,能夠?qū)D像映射到文本描述的類別中。

其中,CLIP可以通過(guò)自然語(yǔ)言監(jiān)督有效學(xué)習(xí)視覺(jué)概念,從而解決目前深度學(xué)習(xí)主流方法存在的幾個(gè)問(wèn)題:

1.需要大量的訓(xùn)練數(shù)據(jù)集,從而導(dǎo)致較高的創(chuàng)建成本。

2.標(biāo)準(zhǔn)的視覺(jué)模型,往往只擅長(zhǎng)一類任務(wù),遷移到其他任務(wù),需要花費(fèi)巨大的成本。

3.在基準(zhǔn)上表現(xiàn)良好的模型,在測(cè)試中往往不盡人意。

具體而言,OpenAI從互聯(lián)網(wǎng)收集的4億(圖像、文本)對(duì)的數(shù)據(jù)集,在預(yù)訓(xùn)練之后,用自然語(yǔ)言描述所學(xué)的視覺(jué)概念,從而使模型能夠在zero-shot狀態(tài)下轉(zhuǎn)移到下游任務(wù)。這種設(shè)計(jì)類似于GPT-2和GPT-3的“zero-shot”。

這一點(diǎn)非常關(guān)鍵,因?yàn)檫@意味著,可以不直接針對(duì)基準(zhǔn)進(jìn)行優(yōu)化,同時(shí)表現(xiàn)出了優(yōu)越的性能:穩(wěn)健性差距(robustness gap)縮小了75%,性能和ResNet507相當(dāng)。換句話說(shuō)。無(wú)需使用其訓(xùn)練的128萬(wàn)個(gè)訓(xùn)練樣本中的任何一個(gè),即可與原始ResNet-50 在 Image Net Zero-shot的精確度相匹配。

cc10765a-9fbb-11eb-8b86-12bb97331649.png

如上圖所示,雖然兩個(gè)模型在ImageNet測(cè)試集上的準(zhǔn)確度相差無(wú)幾,但CLIP的性能更能代表在非ImageNet設(shè)置下的表現(xiàn)。

CLIP網(wǎng)絡(luò)中做了大量的工作是關(guān)于zero-shot 遷移的學(xué)習(xí)、自然語(yǔ)言監(jiān)督、多模態(tài)學(xué)習(xí)。其實(shí),關(guān)于零數(shù)據(jù)學(xué)習(xí)的想法可以追溯到十年前,但是最近在計(jì)算機(jī)視覺(jué)中火了起來(lái)。零數(shù)據(jù)學(xué)習(xí)的一個(gè)重點(diǎn)是:利用自然語(yǔ)言作為靈活的預(yù)測(cè)空間,從而實(shí)現(xiàn)泛化和遷移。另外,在2013年,斯坦福大學(xué)的Richer Socher通過(guò)訓(xùn)練CIFAR-10上的一個(gè)模型,在詞向量嵌入空間中進(jìn)行預(yù)測(cè),并表明模型可以預(yù)測(cè)兩個(gè)“未見(jiàn)過(guò)”的類別。Richer的工作提供了一個(gè)概念證明。

CLIP是過(guò)去一年,從自然語(yǔ)言監(jiān)督中學(xué)習(xí)視覺(jué)表征工作中的一部分。CLIP使用了更現(xiàn)代的架構(gòu),如Transformer,包括探索自回歸語(yǔ)言建模的Virtex,研究掩蔽語(yǔ)言建模的ICMLM等等。

1

方法

前面也提到,CLIP訓(xùn)練的數(shù)據(jù)來(lái)源于互聯(lián)網(wǎng)上4億數(shù)據(jù)對(duì)。用這些數(shù)據(jù),CLIP需要完成的任務(wù)是:給定一幅圖像,在32,768個(gè)隨機(jī)抽樣的文本片段中,找到能夠匹配的那一個(gè)。

完成這個(gè)任務(wù),需要CLIP模型學(xué)會(huì)識(shí)別圖像中的各種視覺(jué)概念,并將概念和圖片相關(guān)聯(lián)。因此,CLIP模型可以應(yīng)用于幾乎任意的視覺(jué)分類任務(wù)。

例如,如果一個(gè)數(shù)據(jù)集的任務(wù)是對(duì)狗與貓的照片進(jìn)行分類,而CLIP模型預(yù)測(cè) “一張狗的照片 ”和 “一張貓的照片 ”這兩個(gè)文字描述哪個(gè)更匹配。

cc99980e-9fbb-11eb-8b86-12bb97331649.png

如上圖所示,CLIP網(wǎng)絡(luò)工作流程:預(yù)訓(xùn)練圖編碼器和文本編碼器,以預(yù)測(cè)數(shù)據(jù)集中哪些圖像與哪些文本配對(duì)。然后,將CLIP轉(zhuǎn)換為zero-shot分類器。

此外,將數(shù)據(jù)集的所有類轉(zhuǎn)換為諸如“一只狗的照片”之類的標(biāo)簽,并預(yù)測(cè)最佳配對(duì)的圖像。

總體而言,CLIP能夠解決:

1.昂貴的數(shù)據(jù)集:ImageNet中1400萬(wàn)張圖片的標(biāo)注,動(dòng)用了25,000名勞動(dòng)力。相比之下,CLIP使用的是已經(jīng)在互聯(lián)網(wǎng)上公開(kāi)提供的文本-圖像對(duì)。自我監(jiān)督學(xué)習(xí)、對(duì)比方法、自我訓(xùn)練方法和生成式建模也可以減少對(duì)標(biāo)注圖像的依賴。

2.任務(wù)單一:CLIP可以適用于執(zhí)行各種視覺(jué)分類任務(wù),而不需要額外的訓(xùn)練。

3.實(shí)際應(yīng)用性能不佳:深度學(xué)習(xí)中“基準(zhǔn)性能”與“實(shí)際性能”之間存在差距是一直以來(lái)的“痛”。這種差距之所以會(huì)出現(xiàn),是因?yàn)槟P汀白鞅住?,即僅優(yōu)化其在基準(zhǔn)上的性能,就像一個(gè)學(xué)生僅僅通過(guò)研究過(guò)去幾年的試題就能通過(guò)考試一樣。

CLIP模型可以不必在數(shù)據(jù)上訓(xùn)練,而是直接在基準(zhǔn)上進(jìn)行評(píng)估,因此無(wú)法以這種方式來(lái)“作弊”。此外,為了驗(yàn)證“作弊的假設(shè)”,測(cè)量了CLIP在有能力“研究” ImageNet時(shí)性能會(huì)如何變化。

當(dāng)線性分類器根據(jù)CLIP的特性安裝時(shí),線性分類器能夠?qū)LIP在ImageNet測(cè)試儀上的準(zhǔn)確性提高近10%。但是,在評(píng)估“魯棒性”的性能時(shí),這個(gè)分類器在其余7個(gè)數(shù)據(jù)集的評(píng)估套件中并沒(méi)有取得更好的平均表現(xiàn)。

2

優(yōu)勢(shì)1. CLIP非常高效

CLIP從未經(jīng)過(guò)濾的、變化多端的、極其嘈雜的數(shù)據(jù)中學(xué)習(xí),且希望能夠在零樣本的情況下使用。從GPT-2和GPT-3中,我們可以知道,基于此類數(shù)據(jù)訓(xùn)練的模型可以實(shí)現(xiàn)出色的零樣本性能;但是,這類模型需要大量的訓(xùn)練計(jì)算。為了減少所需的計(jì)算,我們專注研究算法,以提高我們所使用方法的訓(xùn)練效率。我們介紹了兩種能夠節(jié)省大量計(jì)算的算法。

第一個(gè)算法是采用對(duì)比目標(biāo)(contrastive objective),將文本與圖像連接起來(lái)。最初我們探索了一種類似于VirTex的圖像到文本的方法,但這種方法在拓展以實(shí)現(xiàn)最先進(jìn)的性能時(shí)遇到了困難。在一些小型與中型實(shí)驗(yàn)中,我們發(fā)現(xiàn)CLIP所使用的對(duì)比目標(biāo)在零樣本ImageNet分類中的效率提高了4到10倍。

第二個(gè)算法是采用Vision Transformer,這個(gè)算法使我們的計(jì)算效率比在標(biāo)準(zhǔn)ResNet上提高了3倍。最后,性能最好的CLIP模型與現(xiàn)有的大規(guī)模圖像模型相似,在256個(gè)GPU上訓(xùn)練了2周。我們最初是嘗試訓(xùn)練圖像到字幕的語(yǔ)言模型,但發(fā)現(xiàn)這種方法在零樣本遷移方面遇到了困難。在16 GPU的日實(shí)驗(yàn)中,一個(gè)語(yǔ)言在訓(xùn)練了4億張圖像后,在ImageNet上僅達(dá)到16%的準(zhǔn)確性。CLIP的效率更高,且以大約快10倍的速度達(dá)到了相同的準(zhǔn)確度。

2. CLIP靈活且通用

由于CLIP模型可以直接從自然語(yǔ)言中學(xué)習(xí)許多視覺(jué)概念,因此它們比現(xiàn)有的ImageNet模型更加靈活與通用。我們發(fā)現(xiàn),CLIP模型能夠在零樣本下執(zhí)行許多不同的任務(wù)。為了驗(yàn)證這一點(diǎn),我們?cè)?0多個(gè)數(shù)據(jù)集上測(cè)量了CLIP的零樣本性能,任務(wù)包括細(xì)粒度物體分類,地理定位,視頻中的動(dòng)作識(shí)別和OCR等。其中,學(xué)習(xí)OCR時(shí),CLIP取得了在標(biāo)準(zhǔn)ImageNet模型中所無(wú)法實(shí)現(xiàn)的令人興奮的效果。

比如,我們對(duì)每個(gè)零樣本分類器的隨機(jī)非櫻桃采摘預(yù)測(cè)進(jìn)行了可視化。這一發(fā)現(xiàn)也反映在使用線性探測(cè)學(xué)習(xí)評(píng)估的標(biāo)準(zhǔn)表示中。

我們測(cè)試了26個(gè)不同的遷移數(shù)據(jù)集,其中最佳的CLIP模型在20個(gè)數(shù)據(jù)集上的表現(xiàn)都比最佳的公開(kāi)ImageNet模型(Noisy Student EfficientNet-L2)出色。

在27個(gè)測(cè)試任務(wù)的數(shù)據(jù)集中,測(cè)試任務(wù)包括細(xì)粒度物體分類,OCR,視頻活動(dòng)識(shí)別以及地理定位,我們發(fā)現(xiàn)CLIP模型學(xué)會(huì)了使用效果更廣泛的圖像表示。與先前的10種方法相比,CLIP模型的計(jì)算效率也更高。

3

局限性

盡管CLIP在識(shí)別常見(jiàn)物體上的表現(xiàn)良好,但在一些更抽象或系統(tǒng)的任務(wù)(例如計(jì)算圖像中的物體數(shù)量)和更復(fù)雜的任務(wù)(例如預(yù)測(cè)照片中距離最近的汽車(chē)有多近)上卻遇到了困難。

在這兩個(gè)數(shù)據(jù)集上,零樣本CLIP僅僅比隨機(jī)猜測(cè)要好一點(diǎn)點(diǎn)。與其他模型相比,在非常細(xì)粒度分類的任務(wù)上,例如區(qū)分汽車(chē)模型、飛機(jī)型號(hào)或花卉種類時(shí),零樣本CLIP的表現(xiàn)也不好。

對(duì)于不包含在其預(yù)訓(xùn)練數(shù)據(jù)集內(nèi)的圖像,CLIP進(jìn)行泛化的能力也很差。

例如,盡管CLIP學(xué)習(xí)了功能強(qiáng)大的OCR系統(tǒng),但從MNIST數(shù)據(jù)集的手寫(xiě)數(shù)字上進(jìn)行評(píng)估時(shí),零樣本CLIP只能達(dá)到88%的準(zhǔn)確度,遠(yuǎn)遠(yuǎn)低于人類在數(shù)據(jù)集中的99.75%精確度。

最后,我們觀察到,CLIP的零樣本分類器對(duì)單詞構(gòu)造或短語(yǔ)構(gòu)造比較敏感,有時(shí)還需要試驗(yàn)和錯(cuò)誤“提示引擎”才能表現(xiàn)良好。

4

更廣的影響

CLIP允許人們?cè)O(shè)計(jì)自己的分類器,且無(wú)需使用任務(wù)特定的訓(xùn)練數(shù)據(jù)。

設(shè)計(jì)分類的方式會(huì)嚴(yán)重影響模型的性能和模型的偏差。例如,我們發(fā)現(xiàn),如果給定一組標(biāo)簽,其中包括Fairface種族標(biāo)簽和少數(shù)令人討厭的術(shù)語(yǔ),例如“犯罪”,“動(dòng)物”等,那么該模型很可能將大約32.3%的年齡為0至20歲的人的圖像化為糟糕的類別。但是,當(dāng)我們添加“兒童”這一類別時(shí),分類比率將下降到大約8.7%。

此外,由于CLIP不需要任務(wù)特定的訓(xùn)練數(shù)據(jù),因此它可以更輕松地解鎖某些任務(wù)。

一些任務(wù)可能會(huì)增加隱私或監(jiān)視相關(guān)的風(fēng)險(xiǎn),因此我們通過(guò)研究CLIP在名人識(shí)別方面的表現(xiàn)來(lái)探索這一擔(dān)憂。對(duì)100個(gè)名人圖像進(jìn)行識(shí)別時(shí),CLIP實(shí)際分類的準(zhǔn)確率最高為59.2%,對(duì)1000個(gè)名人進(jìn)行識(shí)別時(shí),準(zhǔn)確率最高為43.3%。值得注意的是,盡管通過(guò)任務(wù)不可知的預(yù)訓(xùn)練可以達(dá)到這些效果,但與廣泛使用的生產(chǎn)級(jí)別模型相比,該性能并不具有競(jìng)爭(zhēng)力。

5

結(jié)論

借助CLIP,我們測(cè)試了互聯(lián)網(wǎng)的自然語(yǔ)言上與任務(wù)無(wú)關(guān)的預(yù)訓(xùn)練(這種預(yù)訓(xùn)練為NLP的最新突破提供了動(dòng)力)是否可以用來(lái)改善其他領(lǐng)域的深度學(xué)習(xí)性能。

目前,CLIP應(yīng)用于計(jì)算機(jī)視覺(jué)所取得的效果令我們非常興奮。像GPT家族一樣,CLIP在預(yù)訓(xùn)練期間學(xué)習(xí)了我們通過(guò)零樣本遷移所展示的各種任務(wù)。

CLIP在ImageNet上的表現(xiàn)也令人驚喜,其中零樣本評(píng)估展示了CLIP模型的強(qiáng)大功能。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26187
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10054

原文標(biāo)題:OpenAI又放大招:連接文本與圖像的CLIP,在ImageNet上效果媲美ResNet50

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    圖像采集卡:連接設(shè)備與數(shù)據(jù)的圖像樞紐

    在機(jī)器視覺(jué)與圖像傳輸體系中,圖像采集卡是無(wú)可替代的重要樞紐——它一端承接相機(jī)、內(nèi)窺鏡、攝像機(jī)等前端圖像設(shè)備的信號(hào)輸出,另一端對(duì)接后端數(shù)據(jù)處理、存儲(chǔ)、展示系統(tǒng),通過(guò)信號(hào)轉(zhuǎn)換、同步協(xié)調(diào)、高速傳輸三大能力
    的頭像 發(fā)表于 01-22 13:51 ?219次閱讀
    <b class='flag-5'>圖像</b>采集卡:<b class='flag-5'>連接</b>設(shè)備與數(shù)據(jù)的<b class='flag-5'>圖像</b>樞紐

    TE Connectivity CROWN CLIP Sr. 420A電源連接器技術(shù)解析與應(yīng)用指南

    TE Connectivity (TE) CROWN CLIP Sr. 420A電源連接器采用緊湊、大電流、盲插設(shè)計(jì),易于安裝和使用。由于采用帶角度的浮動(dòng)式設(shè)計(jì),該連接器的盲插能力可最大限度地減少
    的頭像 發(fā)表于 11-07 11:24 ?527次閱讀

    格靈深瞳多模態(tài)大模型Glint-ME讓圖文互搜更精準(zhǔn)

    在電商、安防等場(chǎng)景下,圖文互搜應(yīng)用廣泛。隨著以CLIP為代表的多模態(tài)表征方法相繼提出,過(guò)去單一模態(tài)搜索(文搜文、圖搜圖)被突破,模型可以同時(shí)理解文本、圖像、音頻乃至視頻,實(shí)現(xiàn)跨模態(tài)檢索。
    的頭像 發(fā)表于 11-02 15:56 ?1709次閱讀
    格靈深瞳多模態(tài)大模型Glint-ME讓圖文互搜更精準(zhǔn)

    1688 多模態(tài)搜索從 0 到 1:逆向接口解析與 CLIP 特征匹配實(shí)踐

    本文分享基于CLIP模型與逆向工程實(shí)現(xiàn)1688圖片搜同款的實(shí)戰(zhàn)方案。通過(guò)抓包分析破解接口簽名,結(jié)合CLIP多模態(tài)特征提取與Faiss向量檢索,提升搜索準(zhǔn)確率至91%,單次響應(yīng)低于80ms,日均選品效率提升4倍,全程合規(guī)可復(fù)現(xiàn)。
    的頭像 發(fā)表于 10-17 10:00 ?537次閱讀

    格靈深瞳突破文本人物檢索技術(shù)難題

    格靈深瞳參與研究的GA-DMS框架,為攻破上述技術(shù)難題提供了全新解決方案。研究團(tuán)隊(duì)通過(guò)數(shù)據(jù)構(gòu)建和模型架構(gòu)的協(xié)同改進(jìn),推動(dòng)CLIP在人物表征學(xué)習(xí)中的應(yīng)用,顯著提升了基于文本的人物檢索效果。該成果已入選EMNLP 2025 主會(huì)(自然語(yǔ)言處理領(lǐng)域的頂級(jí)國(guó)際會(huì)議之一)。
    的頭像 發(fā)表于 09-28 09:42 ?625次閱讀
    格靈深瞳突破<b class='flag-5'>文本</b>人物檢索技術(shù)難題

    NVIDIA攜手OpenAI構(gòu)建AI基礎(chǔ)設(shè)施

    NVIDIA 首席執(zhí)行官黃仁勛、OpenAI 首席執(zhí)行官 Sam Altman 和 OpenAI 總裁 Greg Brockman 宣布了一項(xiàng)新的合作伙伴關(guān)系,旨在推動(dòng) OpenAI 的發(fā)展,并支持幾乎所有行業(yè)和用戶大規(guī)模使用
    的頭像 發(fā)表于 09-23 14:38 ?907次閱讀

    格靈深瞳三項(xiàng)成果獲得國(guó)際頂級(jí)學(xué)術(shù)會(huì)議認(rèn)可

    OpenAI CLIP為代表的多模態(tài)預(yù)訓(xùn)練模型,為安防、電商等應(yīng)用場(chǎng)景提供了強(qiáng)大的跨模態(tài)理解基礎(chǔ),但也存在多種技術(shù)局限性。
    的頭像 發(fā)表于 09-15 14:43 ?1356次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的3月份推出自然語(yǔ)言處理模型GPT-4之后,兩年多時(shí)候后最受
    的頭像 發(fā)表于 08-07 14:13 ?1.2w次閱讀

    無(wú)法使用OpenVINO?在 GPU 設(shè)備上運(yùn)行穩(wěn)定擴(kuò)散文本圖像的原因?

    在OpenVINO? GPU 設(shè)備上使用圖像大小 (1024X576) 運(yùn)行穩(wěn)定擴(kuò)散文本圖像,并收到錯(cuò)誤消息: RuntimeError: Exception from
    發(fā)表于 06-25 06:36

    普萊信Clip Bond封裝整線設(shè)備,獲功率半導(dǎo)體國(guó)際巨頭海外工廠訂單

    據(jù)悉,在高端Clip封裝設(shè)備領(lǐng)域長(zhǎng)期由少數(shù)國(guó)際巨頭把持的局面下,近期,中國(guó)半導(dǎo)體裝備制造商普萊信實(shí)現(xiàn)了重大突破,普萊信Clip Bond封裝整線設(shè)備(涵蓋高精度固晶機(jī)、夾焊機(jī)及在線式真空爐)獲功率
    的頭像 發(fā)表于 06-16 09:00 ?1292次閱讀
    普萊信<b class='flag-5'>Clip</b> Bond封裝整線設(shè)備,獲功率半導(dǎo)體國(guó)際巨頭海外工廠訂單

    DeepSeek開(kāi)源新版R1 媲美OpenAI o3

    DeepSeek“悄悄”地又放了一個(gè)大招,DeepSeek開(kāi)源了R1最新0528版本。盡管DeepSeek目前還沒(méi)有對(duì)該版本進(jìn)行任何說(shuō)明,但是根據(jù)著名代碼測(cè)試平臺(tái)Live CodeBench數(shù)據(jù)
    的頭像 發(fā)表于 05-29 11:23 ?1101次閱讀

    如何獲取 OpenAI API Key?API 獲取與代碼調(diào)用示例 (詳解教程)

    OpenAI API Key 獲取與使用詳解:從入門(mén)到精通 OpenAI 正以其 GPT 和 DALL-E 等先進(jìn)模型引領(lǐng)全球人工智能創(chuàng)新。其 API 為開(kāi)發(fā)者和企業(yè)提供了強(qiáng)大的 AI 能力集成途徑
    的頭像 發(fā)表于 05-04 11:42 ?1.6w次閱讀
    如何獲取 <b class='flag-5'>OpenAI</b> API Key?API 獲取與代碼調(diào)用示例 (詳解教程)

    把樹(shù)莓派打造成識(shí)別文本的“神器”!

    在許多項(xiàng)目中,RaspberryPi被用作監(jiān)控?cái)z像頭或執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。在這些場(chǎng)景中,圖像中經(jīng)常包含應(yīng)用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過(guò)程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?978次閱讀
    把樹(shù)莓派打造成識(shí)別<b class='flag-5'>文本</b>的“神器”!

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    支持生成式任務(wù)。 多模態(tài)融合 :通過(guò)跨模態(tài)注意力機(jī)制、投影層(如CLIP圖像文本映射到同一空間)或適配器
    的頭像 發(fā)表于 03-17 15:32 ?8802次閱讀
    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析