chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中科院針對(duì)NL2Code任務(wù),調(diào)研了27個(gè)大模型,并指出5個(gè)重要挑戰(zhàn)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AINLPer ? 2023-05-18 14:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

對(duì)于NL2Code任務(wù)相信大家都不陌生。它主要目的就是將自然語(yǔ)言轉(zhuǎn)換成可執(zhí)行代碼來(lái)提高開(kāi)發(fā)人員的工作效率,終極目標(biāo)就是干翻所有程序員,最近,隨著大模型的出現(xiàn),距離這一天又稍稍進(jìn)了一步。基于該背景,分享中科院和微軟亞洲研究院在ACL2023國(guó)際頂會(huì)上一篇文章:他們調(diào)研了NL2Code領(lǐng)域中的「27個(gè)大型語(yǔ)言模型以及相關(guān)評(píng)價(jià)指標(biāo)」,分析了「LLMs的成功在于模型參數(shù)、數(shù)據(jù)質(zhì)量和專家調(diào)優(yōu)」,并指出了「NL2Code領(lǐng)域研究的5個(gè)機(jī)遇挑戰(zhàn)」,最后作者建立了一個(gè)分享網(wǎng)站來(lái)跟蹤LLMs在NL2Code任務(wù)上的最新進(jìn)展。https://nl2code.github.io

1ffb74c8-f545-11ed-90ce-dac502259ad0.png

背景介紹

新手程序員,甚至是那些沒(méi)有任何編程經(jīng)驗(yàn)的程序員,是否有可能僅僅通過(guò)用自然語(yǔ)言描述他們的需求來(lái)創(chuàng)建軟件?實(shí)現(xiàn)這一設(shè)想將對(duì)我們的生活、教育、經(jīng)濟(jì)和勞動(dòng)力市場(chǎng)產(chǎn)生前所未有的影響。自然語(yǔ)言-代碼(NL2Code)因其廣闊的應(yīng)用場(chǎng)景,是一項(xiàng)重要的研究任務(wù),在學(xué)術(shù)界和工業(yè)界都引起了廣泛的興趣。

關(guān)于NL2Code的發(fā)展,其實(shí)和自然語(yǔ)言理解的發(fā)展類似,一開(kāi)始,基本都是基于專家規(guī)則進(jìn)行算法設(shè)計(jì),但是此類方法需要對(duì)不同編程語(yǔ)言進(jìn)行設(shè)計(jì),泛化性差;隨著技術(shù)發(fā)展,人們逐步開(kāi)始使用靜態(tài)語(yǔ)言模型,并使用向量空間來(lái)描述文字,此類方法在初期一般向量空間比較稀疏,不能建立長(zhǎng)期的依賴關(guān)系;再后來(lái),就用到了我們比較熟悉的神經(jīng)網(wǎng)絡(luò),例如CNN、RNN、LSTM,此類方法通過(guò)標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練來(lái)構(gòu)建自然語(yǔ)言(NL)和代碼(Code)之間的關(guān)系,但實(shí)際效果對(duì)NL2Code任務(wù)的能力有限;現(xiàn)在,在ChatGPT風(fēng)靡全球的背景下,越來(lái)越多的大型語(yǔ)言模型(LLMs)如雨后春筍一樣出現(xiàn),通過(guò)語(yǔ)言指令,它們可以在零樣本狀況下生成代碼,并在NL2Code任務(wù)上中取到了驚人的成績(jī)。具有標(biāo)志性的一個(gè)LLM模型就是Codex,它擁有120億個(gè)參數(shù),在Python編程任務(wù)上測(cè)試,可解決72.31%的問(wèn)題,并且該模型已經(jīng)商用可在實(shí)踐中提高開(kāi)發(fā)人員的工作效率。

NL2Code任務(wù)與27個(gè)LLMs

對(duì)于NL2Code任務(wù),其主要目的是基于給定自然語(yǔ)言問(wèn)題描述生成所需要的代碼。以下是一個(gè)關(guān)于Python編程問(wèn)題的示例。其中灰色塊部分表示問(wèn)題描述,綠色塊部分表示模型生成代碼,黃色塊部分表示測(cè)試樣例。

202a89ca-f545-11ed-90ce-dac502259ad0.png

針對(duì)NL2Code任務(wù)對(duì)27個(gè)具有代表性的LLMs進(jìn)行了全面調(diào)研,下表總結(jié)了每個(gè)模型的詳細(xì)信息,其中主要包括:模型架構(gòu)、模型大小、模型層數(shù)(L)、注意力頭數(shù)量(A)、隱藏維度(H)、模型參數(shù)是否開(kāi)放(P)等五個(gè)方面。

204ee482-f545-11ed-90ce-dac502259ad0.png

為了更好地可視化,下圖按時(shí)間順序展示了這些模型,繪制了最大的模型大小。觀察到的一個(gè)趨勢(shì)是,隨著研究領(lǐng)域的發(fā)展,這些大型語(yǔ)言模型的規(guī)模也在不斷擴(kuò)大。此外,只有解碼器的架構(gòu)更適合于規(guī)模較大的預(yù)訓(xùn)練模型。

2082b53c-f545-11ed-90ce-dac502259ad0.png

27個(gè)LLMs評(píng)估

上面總結(jié)了NL2Code現(xiàn)有的大型語(yǔ)言模型(LLMs),但是這些模型在架構(gòu)、模型規(guī)模等方面各不相同,無(wú)法進(jìn)行統(tǒng)一的評(píng)估。為此,作者在HumanEval基準(zhǔn)上進(jìn)行了Zero-shot統(tǒng)一評(píng)估,其中HumanEval基準(zhǔn)由164個(gè)手寫(xiě)的Python編程問(wèn)題組成,對(duì)于每個(gè)編程問(wèn)題都提供了測(cè)試用例,以評(píng)估生成代碼正確性。使用pass@k作為評(píng)估指標(biāo),即通過(guò)k次嘗試可以正確回答的問(wèn)題的比例。下表顯示根據(jù)模型大小進(jìn)行分組,在該測(cè)試集上的測(cè)試結(jié)果。

20b55230-f545-11ed-90ce-dac502259ad0.png

從上表可以看出,這些LLM在該數(shù)據(jù)集上的性能差異很大,盡管模型參數(shù)相似但效果差異也是很大??梢园l(fā)現(xiàn)Codex 在各種尺寸上都處于領(lǐng)先地位。為什么會(huì)存在這個(gè)問(wèn)題呢?影響模型效果的關(guān)鍵因素是啥呢?作者經(jīng)過(guò)分析給出的結(jié)論有:模型大小、數(shù)據(jù)質(zhì)量、專家調(diào)優(yōu)。

模型大小

根據(jù)前面的整理用于NL2Code的LLMs時(shí)間發(fā)展圖可以發(fā)現(xiàn),只要模型參數(shù)越多性能就越好。為了進(jìn)一步說(shuō)明模型參數(shù)大小和模型效果之間的關(guān)系,作者整理了10個(gè)比較有代表性的模型,在HumanEval基準(zhǔn)上的pass@1結(jié)果,如下圖所示:

20fcf0a4-f545-11ed-90ce-dac502259ad0.png

根據(jù)上圖,很明顯的可以「發(fā)現(xiàn)較大的模型通常會(huì)產(chǎn)生更好的結(jié)果」。此外,「當(dāng)前模型無(wú)論大小,仍然可以通過(guò)進(jìn)一步增加模型參數(shù)來(lái)實(shí)現(xiàn)性能的提升」。

數(shù)據(jù)質(zhì)量

隨著LLMs模型參數(shù)的增加,其訓(xùn)練數(shù)據(jù)規(guī)模也在不斷的增加。這在數(shù)據(jù)選擇和預(yù)處理方面也有更高的要求。早期的模型,例如CodeSearchNet、CoST、XLCoST等都是基于人工標(biāo)注數(shù)據(jù)對(duì)進(jìn)行訓(xùn)練(耗時(shí)耗力);GPT系列模型(GPT-3 、GPT-Neo、GPT-J )開(kāi)始在大規(guī)模無(wú)監(jiān)督數(shù)據(jù)集上進(jìn)行訓(xùn)練,但是由于代碼數(shù)據(jù)限制,并沒(méi)有顯示出很強(qiáng)的代碼生成能力。由于LLMs模型的出現(xiàn),它們可以在更大規(guī)模的未標(biāo)記代碼數(shù)據(jù)集上進(jìn)行訓(xùn)練,最終模型效果驚人。

在驚嘆于LLMs效果的同時(shí),也要知道LLMs在訓(xùn)練之前通常會(huì)對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。為此作者調(diào)研了Codex、AlphaCode、CodeGen、InCoder和PyCodeGPT等5個(gè)強(qiáng)大模型的數(shù)據(jù)預(yù)處理方法。發(fā)現(xiàn)它們具有幾個(gè)共同的特點(diǎn):一是刪除可能自動(dòng)生成或未完成的代碼文件,二是使用特定的規(guī)則來(lái)過(guò)濾不常見(jiàn)的代碼文件?!缚傊?,這些預(yù)處理策略的目標(biāo)是實(shí)現(xiàn)一個(gè)不重復(fù)的、完整的、正確的、干凈的和通用的代碼語(yǔ)料庫(kù)」。

專家調(diào)優(yōu)

訓(xùn)練一個(gè)優(yōu)秀的模型需要認(rèn)真考慮模型訓(xùn)練階段的各個(gè)參數(shù)。通過(guò)對(duì)27個(gè)LLMs模型的研究發(fā)現(xiàn),它們都有一些共同的設(shè)置,比如都應(yīng)用了Adam相關(guān)優(yōu)化器并在初始化階段相差不大。除此之外,還有需要調(diào)節(jié)的超參數(shù),如lr、batch、窗口大小、預(yù)熱、梯度累積和temperature。對(duì)于學(xué)習(xí)率來(lái)說(shuō),隨著模型的增大,學(xué)習(xí)率會(huì)逐步變小。如下圖所示:

212561ec-f545-11ed-90ce-dac502259ad0.png

對(duì)于temperature,這里對(duì)比了兩個(gè)模型在HumanEval任務(wù)上使用不同temperature后模型的性能。結(jié)果發(fā)現(xiàn),更高的temperature產(chǎn)生更低的pass@1和更高的pass@100,這表明更高的temperature使LLM產(chǎn)生更多樣化的預(yù)測(cè),反之亦然。如下圖所示:

2145be74-f545-11ed-90ce-dac502259ad0.png

此外,有研究表明窗口大小也是一個(gè)關(guān)鍵因素,具有大窗口的小模型會(huì)有時(shí)優(yōu)于具有小窗口的大模型。此外,強(qiáng)大的LLMs通常主要使用兩種技術(shù)在代碼語(yǔ)料庫(kù)上訓(xùn)練新的標(biāo)記器:字節(jié)級(jí)字節(jié)對(duì)編碼和sentencepece 。新的標(biāo)記器可以更有效和準(zhǔn)確地將代碼內(nèi)容拆分為Tokens。這些經(jīng)過(guò)驗(yàn)證的調(diào)優(yōu)技術(shù)將為培訓(xùn)更強(qiáng)大的llm提供有價(jià)值的參考。

評(píng)估基準(zhǔn)指標(biāo)

「對(duì)NL2Code任務(wù)的評(píng)估,高質(zhì)量的基準(zhǔn)和可靠的度量是基礎(chǔ)和必要的」。作者總結(jié)了17個(gè)NL2Code基準(zhǔn)測(cè)試,每個(gè)基準(zhǔn)測(cè)試在大小、語(yǔ)言、復(fù)雜性和場(chǎng)景方面都有自己的特點(diǎn),如下表所示。

216d164a-f545-11ed-90ce-dac502259ad0.png

但大多數(shù)基準(zhǔn)測(cè)試只包含有限數(shù)量的實(shí)例。例如,HumanEval和MBPP分別有164和974個(gè)實(shí)例。這是因?yàn)檫@些基準(zhǔn)通常是手寫(xiě)的以防數(shù)據(jù)泄露?!冈诖笮驼Z(yǔ)言模型時(shí)代,在創(chuàng)建新基準(zhǔn)時(shí)避免數(shù)據(jù)泄漏至關(guān)重要」。此外,大多數(shù)當(dāng)前的基準(zhǔn)測(cè)試都有英文的問(wèn)題描述和Python的代碼解決方案。最近,已經(jīng)提出了幾個(gè)多語(yǔ)言基準(zhǔn),例如涵蓋「多種編程語(yǔ)言的MBXP,HumanEvalX和MultiPL ,以及涵蓋多種自然語(yǔ)言的ODEX」。多語(yǔ)言基準(zhǔn)測(cè)試的詳細(xì)信息如下表所示:

21cab7f0-f545-11ed-90ce-dac502259ad0.png

「手動(dòng)評(píng)估生成的代碼是不切實(shí)際的,這就需要自動(dòng)度量」。上述基準(zhǔn)均提供了基于執(zhí)行的評(píng)估的測(cè)試用例,其中指標(biāo)如 pass@k、n@k、測(cè)試用例平均值和執(zhí)行精度。但是,「這種方法對(duì)測(cè)試用例的質(zhì)量有嚴(yán)格的要求,并且只能評(píng)估可執(zhí)行代碼。對(duì)于不可執(zhí)行的代碼」,使用了 BLEU 、ROUGE 和 CodeBLEU等指標(biāo),無(wú)法準(zhǔn)確評(píng)估代碼的正確性。到目前為止,「在設(shè)計(jì)指標(biāo)來(lái)評(píng)估代碼的各個(gè)方面(例如漏洞、可維護(hù)性、清晰度、執(zhí)行復(fù)雜性和穩(wěn)定性)方面存在許多開(kāi)放性挑戰(zhàn)」。

NL2Code挑戰(zhàn)與機(jī)遇

大預(yù)言模型在NL2Code的應(yīng)用對(duì)學(xué)術(shù)界和工業(yè)界都有相當(dāng)大的影響。雖然取得了驚人的進(jìn)展,但仍然有很多挑戰(zhàn)需求解決,這也為研究人員提供了充足的機(jī)會(huì)。下面作者總結(jié)了 NL2Code任務(wù)的五個(gè)挑戰(zhàn)和機(jī)會(huì)。

「1、理解能力」:人類能夠理解不同抽象層次的各種描述, 相比之下,當(dāng)前的 LLM 往往對(duì)給定的上下文敏感,這可能會(huì)導(dǎo)致性能下降。作者認(rèn)為探索LLM的理解能力是一個(gè)重要的研究方向。

「2、判斷能力」:人類能夠判定一個(gè)編程問(wèn)題是否被解決。當(dāng)前模型不論輸入什么都會(huì)給出答案,而且該答案正確與否都不能確定,這在實(shí)際應(yīng)用中會(huì)存在一定的問(wèn)題。目前為了提高LLM的判斷能力,需要根據(jù)用戶反饋采用強(qiáng)化學(xué)習(xí)的方式進(jìn)行調(diào)優(yōu)。作者認(rèn)為探索LLM自我判斷能力,也是一個(gè)比較重要的研究方向。

「3、解釋能力」:人類開(kāi)發(fā)人員能夠解釋他們編寫(xiě)的代碼,這對(duì)教育的和軟件維護(hù)至關(guān)重要。最近的研究表明,LLM 具有自動(dòng)生成代碼解釋的潛力。作者認(rèn)為針對(duì)該能力也需要進(jìn)一步的研究和探索,以充分發(fā)揮LLM在這方面的潛力。

「4、自適應(yīng)能力」:當(dāng)前的大型語(yǔ)言模型與人類之間的一個(gè)根本區(qū)別是它們適應(yīng)新知識(shí)和更新知識(shí)的能力。人類開(kāi)發(fā)人員能夠根據(jù)文檔資料實(shí)現(xiàn)API的快速開(kāi)發(fā),而LLM需要大量的知識(shí)和訓(xùn)練。作者認(rèn)為如何提高LLM快速自學(xué)習(xí)能力也是一個(gè)比較大挑戰(zhàn)。

「5、多任務(wù)處理能力」:LLM在多任務(wù)處理方面與人類存在較大差異。人類可以在任務(wù)之間無(wú)縫切換,而LLM可能需要復(fù)雜的提示工程。為此作者任務(wù)提升LLM多任務(wù)能力同樣是一個(gè)重要的研究方向。


審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    566

    瀏覽量

    11179
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4848

    瀏覽量

    88946
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13838

原文標(biāo)題:ACL2023 | 中科院 針對(duì)NL2Code任務(wù),調(diào)研了27個(gè)大模型,并指出5個(gè)重要挑戰(zhàn)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    中科技大學(xué)與東風(fēng)汽車首批6個(gè)科研項(xiàng)目簽約

    8月30日,華中科技大學(xué)-東風(fēng)汽車聯(lián)合研究管委會(huì)召開(kāi)第一次會(huì)議,首批6個(gè)科研項(xiàng)目簽約,標(biāo)志著聯(lián)合研究在華中科技大學(xué)軍山校區(qū)正式落地校企合
    的頭像 發(fā)表于 09-01 10:12 ?412次閱讀

    中科院寧波材料所:雙結(jié)構(gòu)石墨烯/PDMS復(fù)合傳感器,用于可穿戴設(shè)備應(yīng)用

    在實(shí)際應(yīng)用中,柔性傳感器需要在寬廣的測(cè)量范圍內(nèi)展現(xiàn)出足夠高的靈敏度;然而,這種需求總是伴隨著權(quán)衡取舍。本文通過(guò)對(duì)激光誘導(dǎo)石墨烯(LIG)導(dǎo)電路徑的幾何創(chuàng)新,解決上述挑戰(zhàn)。本文, 中科院寧波材料所趙
    的頭像 發(fā)表于 08-26 18:02 ?3103次閱讀
    <b class='flag-5'>中科院</b>寧波材料所:雙結(jié)構(gòu)石墨烯/PDMS復(fù)合傳感器,用于可穿戴設(shè)備應(yīng)用

    中科曙光助力中科院高能物理研究所打造溪悟大模型

    近年來(lái),以大規(guī)模預(yù)訓(xùn)練模型為代表的人工智能技術(shù)迅猛發(fā)展,為科研創(chuàng)新提供全新范式。中科院高能物理研究所依托正負(fù)電子對(duì)撞機(jī)等大科學(xué)裝置,積累了海量高價(jià)值實(shí)驗(yàn)數(shù)據(jù),如何高效利用數(shù)據(jù)、加速成果產(chǎn)出,成為研究所面臨的核心課題。
    的頭像 發(fā)表于 05-06 15:19 ?576次閱讀

    萬(wàn)里紅入選中國(guó)信通模型應(yīng)用交付供應(yīng)商名錄

    近日,中國(guó)信息通信研究與中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)聯(lián)合發(fā)布《大模型應(yīng)用交付供應(yīng)商名錄(2025年Q1)》。該名錄基于問(wèn)卷調(diào)研統(tǒng)計(jì),通過(guò)對(duì)政務(wù)、金融、醫(yī)療等十大重點(diǎn)行業(yè)大
    的頭像 發(fā)表于 04-25 17:25 ?978次閱讀

    中科昊芯DSP產(chǎn)品及公司信息

    )、SPI、I2C、LIN、eCAN等多種通信協(xié)議,為用戶提供極大的便利。在數(shù)學(xué)計(jì)算能力上,中科昊芯的DSP也進(jìn)行了針對(duì)性的優(yōu)化。在矢量計(jì)算、三角函數(shù)、數(shù)字微積分以及浮點(diǎn)計(jì)算等方面,
    發(fā)表于 04-07 09:16

    安徽省水利科學(xué)研究攜手中科曙光完成DeepSeek大模型部署

    近日,安徽省(水利部淮河水利委員會(huì))水利科學(xué)研究攜手中科曙光,成功完成國(guó)產(chǎn)大模型DeepSeek、BGE-M3嵌入模型及重排模型的本地化部
    的頭像 發(fā)表于 03-25 11:36 ?730次閱讀

    中科本原完成B2輪融資

    。 中科本原源于中科院,長(zhǎng)期專注DSP芯片研發(fā),在該領(lǐng)域有20余年技術(shù)積累。公司采用自主創(chuàng)新架構(gòu),面向工業(yè)控制、新能源、電動(dòng)汽車、軌道交通、人形機(jī)器人和視音頻處理等領(lǐng)域提供具有國(guó)際競(jìng)爭(zhēng)力的DSP芯片。
    的頭像 發(fā)表于 03-13 09:42 ?723次閱讀

    合肥市科技局蒞臨中科馭數(shù)調(diào)研

    近日,合肥市科技局副局長(zhǎng)呂波一行來(lái)訪中科馭數(shù)考察調(diào)研
    的頭像 發(fā)表于 02-27 14:27 ?906次閱讀

    了解DeepSeek-V3 和 DeepSeek-R1兩個(gè)大模型的不同定位和應(yīng)用選擇

    采購(gòu)套件)。 4. 多模態(tài)分析 CLIP-EC (開(kāi)源社區(qū)模型針對(duì)電路圖-文本對(duì)齊訓(xùn)練的模型,可識(shí)別原理圖生成網(wǎng)表描述(需配合視覺(jué)模型
    發(fā)表于 02-14 02:08

    直播預(yù)約 |數(shù)據(jù)智能系列講座第5期:理解改進(jìn)基礎(chǔ)模型

    鷺島論壇數(shù)據(jù)智能系列講座第5期「理解改進(jìn)基礎(chǔ)模型2月19日(周三)20:00精彩開(kāi)播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目理解
    的頭像 發(fā)表于 02-11 14:33 ?601次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第<b class='flag-5'>5</b>期:理解<b class='flag-5'>并</b>改進(jìn)基礎(chǔ)<b class='flag-5'>模型</b>

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+第一章初體驗(yàn)

    能,大幅降低計(jì)算成本。 四、典型應(yīng)用場(chǎng)景與挑戰(zhàn) 1智能問(wèn)答系統(tǒng):結(jié)合企業(yè)知識(shí)庫(kù)提供精準(zhǔn)回答。 2內(nèi)容生成工具:例如基于行業(yè)報(bào)告的自動(dòng)摘要生成。 3個(gè)性化推薦:通過(guò)用戶歷史行為檢索相似內(nèi)容
    發(fā)表于 02-07 10:42

    中科院基于新型sic復(fù)合襯底的低成本MOSFET取得重要進(jìn)展

    行業(yè)芯事行業(yè)資訊
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年01月10日 11:40:31

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    模型展示強(qiáng)大的泛化能力,能夠?qū)⒃谀M環(huán)境學(xué)到的技能遷移到真實(shí)場(chǎng)景。RT-2的改進(jìn)版本更是引入了視覺(jué)-語(yǔ)言預(yù)訓(xùn)練技術(shù),使模型能夠理解更抽象的任務(wù)
    發(fā)表于 12-24 15:03

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    挑戰(zhàn)的方法。 2 目標(biāo)檢測(cè)模型介紹 在目標(biāo)檢測(cè)的任務(wù)中,有著許許多多的模型,如 Picodet、Faster R-CNN、YOLO、SSD等
    發(fā)表于 12-19 14:33

    從零開(kāi)始訓(xùn)練一個(gè)大語(yǔ)言模型需要投資多少錢?

    一,前言 ? 在AI領(lǐng)域,訓(xùn)練一個(gè)大型語(yǔ)言模型(LLM)是一個(gè)耗時(shí)且復(fù)雜的過(guò)程。幾乎每個(gè)做大型語(yǔ)言模型(LLM)訓(xùn)練的人都會(huì)被問(wèn)到:“從零開(kāi)始,訓(xùn)練大語(yǔ)言
    的頭像 發(fā)表于 11-08 14:15 ?1166次閱讀
    從零開(kāi)始訓(xùn)練一<b class='flag-5'>個(gè)大</b>語(yǔ)言<b class='flag-5'>模型</b>需要投資多少錢?