chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌證實(shí)大模型能頓悟,特殊方法能讓模型快速泛化,或?qū)⒋蚱拼竽P秃谙?/h1>
在特定情況下,人工智能模型會(huì)超越訓(xùn)練數(shù)據(jù)進(jìn)行泛化。在人工智能研究中,這種現(xiàn)象被稱(chēng)為「頓悟」,而谷歌現(xiàn)在正在提供對(duì)最近發(fā)現(xiàn)的深入了解。在訓(xùn)練過(guò)程中,人工智能模型有時(shí)似乎會(huì)突然「理解」一個(gè)問(wèn)題,盡管它們只是記住了訓(xùn)練數(shù)據(jù)。在人工智能研究中,這種現(xiàn)象被稱(chēng)為「頓悟」,這是美國(guó)作家Robert A. Heinlein創(chuàng)造的一個(gè)新詞,主要在計(jì)算機(jī)文化中用來(lái)描述一種深刻的理解。當(dāng)人工智能模型發(fā)生頓悟時(shí),模型會(huì)突然從簡(jiǎn)單地復(fù)制訓(xùn)練數(shù)據(jù)轉(zhuǎn)變?yōu)榘l(fā)現(xiàn)可推廣的解決方案——因此,你可能會(huì)得到一個(gè)實(shí)際上構(gòu)建問(wèn)題模型以進(jìn)行預(yù)測(cè)的人工智能系統(tǒng),而不僅僅是一個(gè)隨機(jī)的模仿者。谷歌團(tuán)隊(duì):「頓悟」是一種「有條件的現(xiàn)象」。「頓悟」在希望更好地理解神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方式的人工智能研究人員中引起了很大的興趣。這是因?yàn)椤割D悟」表明模型在記憶和泛化時(shí)可能具有不同的學(xué)習(xí)動(dòng)態(tài),了解這些動(dòng)態(tài)可能為神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)提供重要見(jiàn)解。盡管最初是在單個(gè)任務(wù)上訓(xùn)練的小型模型中觀察到,但谷歌的最新研究表明,頓悟也可以發(fā)生在較大的模型中,并且在某些情況下可以被可靠地預(yù)測(cè)。然而,在大型模型中檢測(cè)這種頓悟動(dòng)態(tài)仍然是一個(gè)挑戰(zhàn)。

在這篇文章中,谷歌研究人員提供了有關(guān)這一現(xiàn)象和當(dāng)前研究的視覺(jué)展示。該團(tuán)隊(duì)對(duì)超過(guò)1000個(gè)不同訓(xùn)練參數(shù)的小型模型進(jìn)行了算法任務(wù)的訓(xùn)練,展示了「有條件的現(xiàn)象——如果模型大小、權(quán)重衰減、數(shù)據(jù)大小和其他超參數(shù)不合適,這種現(xiàn)象會(huì)消失?!?/span>

wKgaomT91BaABA6IAAAl6LOgh3c203.png

了解「頓悟」可能會(huì)改進(jìn)大型AI模型

根據(jù)該團(tuán)隊(duì)的說(shuō)法,仍然有許多未解之謎,例如哪些模型限制會(huì)可靠地引起「頓悟」,為什么模型最初更喜歡記住訓(xùn)練數(shù)據(jù),以及研究中用于研究小型模型中這一現(xiàn)象的方法在大型模型中是否適用。對(duì)「頓悟」的理解進(jìn)步可能會(huì)為未來(lái)大型AI模型的設(shè)計(jì)提供信息,使它們能夠可靠且快速地超越訓(xùn)練數(shù)據(jù)。

wKgaomT91BaAWlNhAAEe3J6zviQ243.png

在2021年,研究人員在對(duì)一系列微型模型進(jìn)行玩具任務(wù)訓(xùn)練時(shí)發(fā)現(xiàn):一組模型,在經(jīng)過(guò)更長(zhǎng)時(shí)間的訓(xùn)練后,突然從僅僅「記住」之前的訓(xùn)練數(shù)據(jù),轉(zhuǎn)變?yōu)樵谖匆?jiàn)過(guò)的輸入上表現(xiàn)出正確的泛化能力。這種現(xiàn)象被稱(chēng)為「頓悟」,并引發(fā)了一系列的興趣和研究。更復(fù)雜的模型是否也會(huì)在經(jīng)過(guò)更長(zhǎng)時(shí)間的訓(xùn)練后突然表現(xiàn)出泛化能力呢?大型語(yǔ)言模型看起來(lái)似乎具有很強(qiáng)的對(duì)外部世界的理解能力,但可能模型只是在重復(fù)記憶訓(xùn)練過(guò)的海量文本數(shù)據(jù)的片段,而沒(méi)有真正理解其內(nèi)容。到底如何判斷它們是在泛化還是在記憶?在這篇文章中,研究人員將研究一個(gè)微型模型的訓(xùn)練動(dòng)態(tài)過(guò)程,并對(duì)其找到的解決方案進(jìn)行逆向工程——在此過(guò)程中,研究人員將闡述這個(gè)令人振奮的新興機(jī)制中那些能被研究人員理解的部分。雖然如何將這些技術(shù)應(yīng)用于當(dāng)今最大的模型,現(xiàn)在還沒(méi)有頭緒。但從小模型入手可以更容易地培養(yǎng)直覺(jué),隨著研究人員的逐步努力,關(guān)于大型語(yǔ)言模型的這些關(guān)鍵問(wèn)題也將最終獲得解答。 wKgaomT91BaAQjGBAAAuhh9-KLM451.png

頓悟模加法

模加法是檢測(cè)「頓悟」最好的方法。(模加法指的是兩個(gè)數(shù)據(jù)相加,如果合大于某一個(gè)值,結(jié)果就自動(dòng)回歸某一個(gè)值。以12小時(shí)計(jì)時(shí)為例,時(shí)間相加超過(guò)12點(diǎn)之后就會(huì)自動(dòng)歸零,就是一個(gè)典型的模加法。)

wKgaomT91BeAM5uoAAGbfKCGwKI292.png

突然的泛化往往發(fā)生在在對(duì)于訓(xùn)練數(shù)據(jù)的記憶之后,模型一開(kāi)始的輸出與訓(xùn)練數(shù)據(jù)吻合,但隨著訓(xùn)練不斷持續(xù),和測(cè)試數(shù)據(jù)的吻合度不斷提高,出現(xiàn)了泛化。這個(gè)過(guò)程就叫做「頓悟」上圖來(lái)自于一個(gè)被訓(xùn)練來(lái)進(jìn)行預(yù)測(cè)a+b mod 67 (即a+b的合超過(guò)67之后就會(huì)歸零的模加法)的模型。研究人員首先隨機(jī)將所有成對(duì)數(shù)據(jù)分成測(cè)試數(shù)據(jù)集和訓(xùn)練數(shù)據(jù)集。在訓(xùn)練過(guò)程中,訓(xùn)練數(shù)據(jù)被用來(lái)調(diào)整模型,讓模型輸出正確答案,而測(cè)試數(shù)據(jù)僅用于檢查模型是否已經(jīng)學(xué)會(huì)了一個(gè)通用的解決方案。模型的架構(gòu)也很簡(jiǎn)單:wKgaomT91BeAGNIpAAAvVIJjixA312.png一個(gè)具有24個(gè)神經(jīng)元的單層MLP。模型的所有權(quán)重如下面的熱圖所示;通過(guò)將鼠標(biāo)懸停在上面的線性圖上,可以看到它們?cè)谟?xùn)練過(guò)程中如何變化。wKgaomT91BeAGvs6AB7niTd6ENQ924.gif模型通過(guò)選擇與輸入a和b對(duì)應(yīng)的兩列wKgaomT91BeAH2vdAAAGFJYAcWA071.png,然后將它們相加以創(chuàng)建一個(gè)包含24個(gè)獨(dú)立數(shù)字的向量來(lái)進(jìn)行預(yù)測(cè)。接下來(lái),它將向量中的所有負(fù)數(shù)設(shè)置為0,最后輸出與更新向量最接近的wKgaomT91BiAPD_9AAAKPoEchfU739.png列。模型的權(quán)重最初非常嘈雜,但隨著測(cè)試數(shù)據(jù)上的準(zhǔn)確性提高和模型逐漸開(kāi)始泛化,它們開(kāi)始展現(xiàn)出周期性的模式。在訓(xùn)練結(jié)束時(shí),每個(gè)神經(jīng)元,也就是熱圖的每一行在輸入數(shù)字從0增加到66時(shí)會(huì)多次在高值和低值之間循環(huán)。如果研究人員根據(jù)神經(jīng)元在訓(xùn)練結(jié)束時(shí)的循環(huán)頻率將其分組,并將每個(gè)神經(jīng)元分別繪制成一條單獨(dú)的線,會(huì)更容易看出產(chǎn)生的變化。wKgaomT91BiAVge7ACjvlrYGM-4837.gif這些周期性的模式表明模型正在學(xué)習(xí)某種數(shù)學(xué)結(jié)構(gòu);當(dāng)模型開(kāi)始計(jì)算測(cè)試樣本時(shí)出現(xiàn)這種現(xiàn)象,意味著模型開(kāi)始出現(xiàn)泛化了。但是為什么模型會(huì)拋開(kāi)記憶的解決方案?而泛化的解決方案又是什么呢? wKgaomT91BiASfU4AAAtJ0fTuoM800.png

在0和1的數(shù)列中訓(xùn)練模型泛化

同時(shí)解決這兩個(gè)問(wèn)題確實(shí)很困難。研究人員可以設(shè)計(jì)一個(gè)更簡(jiǎn)單的任務(wù),其中研究人員知道泛化解決方案應(yīng)該是什么樣的,然后嘗試?yán)斫饽P妥罱K是如何學(xué)習(xí)它的。研究人員又設(shè)計(jì)了一個(gè)方案,他們先隨機(jī)生成30個(gè)由0和1組成的數(shù)字組成一個(gè)數(shù)列,然后訓(xùn)練一個(gè)模型去預(yù)測(cè)數(shù)列中前三個(gè)數(shù)字中是否有奇數(shù)個(gè)1,如果有奇數(shù)個(gè)1,輸出就為1,否則輸出為0。例如,010110010110001010111001001011等于1 。000110010110001010111001001011等于0。基本上這就是稍微復(fù)雜一些的異或運(yùn)算,略微帶有一些干擾噪聲。而如果一個(gè)模型產(chǎn)生了泛化能力,應(yīng)該就只關(guān)注序列的前三位數(shù)字進(jìn)行輸出;如果模型是在記憶訓(xùn)練數(shù)據(jù),它就會(huì)使用到后邊的干擾數(shù)字。研究人員的模型仍然是一個(gè)單層MLP,使用固定的1,200個(gè)序列進(jìn)行訓(xùn)練。起初,只有訓(xùn)練數(shù)據(jù)準(zhǔn)確性增加了,說(shuō)明模型正在記憶訓(xùn)練數(shù)據(jù)。與模算數(shù)一樣,測(cè)試數(shù)據(jù)的準(zhǔn)確性一開(kāi)始基本上是隨機(jī)的。但是模型學(xué)習(xí)了一個(gè)泛化解決方案后,測(cè)試數(shù)據(jù)的準(zhǔn)確性就急劇上升。wKgaomT91BiAGi_VAAJRVuBi8yU312.gif下面的權(quán)重圖標(biāo)顯示,在記憶訓(xùn)練數(shù)據(jù)時(shí),模型看起來(lái)密集而嘈雜,有許多數(shù)值很大的權(quán)重(顯示為深紅色和藍(lán)色方塊)分布在數(shù)列靠后的位置,表明模型正在使用所有的數(shù)字進(jìn)行預(yù)測(cè)。隨著模型泛化后獲得了完美的測(cè)試數(shù)據(jù)準(zhǔn)確性,研究人員看到,與干擾數(shù)字相關(guān)的所有權(quán)重都變?yōu)榛疑?,值非常低,模型?quán)重全部集中在前三位數(shù)字上了。這與研究人員預(yù)期的泛化結(jié)構(gòu)相一致。wKgaomT91BiAZ7y6AAWKst02EWo545.gif通過(guò)這個(gè)簡(jiǎn)化的例子,更容易理解為什么會(huì)發(fā)生這種情況:其實(shí)在訓(xùn)練過(guò)程中,研究人員的要求是模型要同時(shí)完成兩個(gè)目標(biāo),一個(gè)是盡量高概率地輸出正確的數(shù)字(稱(chēng)為最小化損失),另一個(gè)是使用盡量小的全權(quán)重來(lái)完成輸出(稱(chēng)為權(quán)重衰減)。在模型泛化之前,訓(xùn)練損失略微增加(輸出準(zhǔn)確略微降低),因?yàn)樗跍p小與輸出正確標(biāo)簽相關(guān)的損失的同時(shí),也在降低權(quán)重,從而獲得盡可能小的權(quán)重。wKgaomT91BmAEIs-AAS1WQYI5sk167.gif而測(cè)試數(shù)據(jù)損失的急劇下降,讓模型看起來(lái)像是似乎突然開(kāi)始了泛化,但其實(shí)不是,這個(gè)過(guò)程在之前就已經(jīng)在進(jìn)行了。但是,如果觀察記錄模型在訓(xùn)練過(guò)程中的權(quán)重,大部分權(quán)重是平均分布在這兩個(gè)目標(biāo)之間的。當(dāng)與干擾數(shù)字相關(guān)的最后一組權(quán)重被權(quán)重衰減這個(gè)目標(biāo)「修剪」掉時(shí),泛化馬上就發(fā)生了。wKgaomT91BmANrMnAAoCoHJWuq8931.gif ?wKgaomT91BmAUcC5AAAr2pbNr48629.png

何時(shí)發(fā)生頓悟?

值得注意的是,「頓悟」是一種偶然現(xiàn)象——如果模型大小、權(quán)重衰減、數(shù)據(jù)大小以及其他超參數(shù)不合適,它就不會(huì)出現(xiàn)。當(dāng)權(quán)重衰減過(guò)小時(shí),模型無(wú)法擺脫對(duì)訓(xùn)練數(shù)據(jù)的過(guò)擬合。增加更多的權(quán)重衰減會(huì)推動(dòng)模型在記憶后進(jìn)行泛化。進(jìn)一步增加權(quán)重衰減會(huì)導(dǎo)致測(cè)試數(shù)據(jù)和訓(xùn)練數(shù)據(jù)的不準(zhǔn)確率提高;模型直接進(jìn)入泛化階段。當(dāng)權(quán)重衰減過(guò)大時(shí),模型將無(wú)法學(xué)到任何東西。在下面的內(nèi)容中,研究人員使用不同的超參數(shù)在「1和0」任務(wù)上訓(xùn)練了一千多個(gè)模型。因?yàn)橛?xùn)練是有噪聲的,所以每組超參數(shù)都訓(xùn)練了九個(gè)模型。

wKgaomT91BmAY0pPAAMc5MGn5h0862.png

可以看到,這個(gè)「1和0」任務(wù)模擬出了模型的記憶和泛化,但為什么這種情況會(huì)發(fā)生在模加法中呢?首先,讓我們更多地了解一層MLP如何通過(guò)構(gòu)建一個(gè)可解釋的泛化解決方案來(lái)解決模加法。

wKgaomT91BqATs5aAAAtTL4L6hI800.png

五個(gè)神經(jīng)元的模加法

舉個(gè)例子,模加法問(wèn)題a+b mod 67是周期性的。從數(shù)學(xué)上講,可以將式子的和看成是將a和b繞在一個(gè)圓圈上來(lái)表示。泛化模型的權(quán)重也具有周期性,也就是說(shuō),解決方案可能也會(huì)有周期性。

wKgaomT91BqACgixAACmUeahPlw896.png

研究人員訓(xùn)練了一個(gè)更簡(jiǎn)單的模型,利用cos和sin構(gòu)建一個(gè)嵌入矩陣,將a和b放在一個(gè)圓上。wKgaomT91BqARsFVAAFpTckONDY404.png模型只用了5個(gè)神經(jīng)元就完美地找到了解決方案。wKgaomT91BqAfja1AEyZ6nEWQRg552.gif然后還是回到a+b mod 67的問(wèn)題上,研究人員從頭訓(xùn)練模型,沒(méi)有內(nèi)置周期,這個(gè)模型有很多頻率。wKgaomT91BuAF7aaABuy9gFQiGU602.gif然后研究人員使用離散傅里葉變換分離出頻率,會(huì)分離出輸入數(shù)據(jù)中的周期性模式。wKgaomT91BuAbj0hAAG_x0sx6-I597.gif而結(jié)果就和之前在數(shù)列中數(shù)1的任務(wù)一樣,隨著模型的泛化,權(quán)重會(huì)迅速衰減到很低。而且在不同的頻率任務(wù)中,模型也都出現(xiàn)了「頓悟」。 wKgaomT91BuAdyjAAAAvmrE3n7I626.png

進(jìn)一步的問(wèn)題

什么原因?qū)е路夯某霈F(xiàn)?雖然研究人員現(xiàn)在對(duì)用單層MLP解決模加法的機(jī)制以及它們?cè)谟?xùn)練過(guò)程中出現(xiàn)的原因有了深入的了解,但仍然存在許多關(guān)于記憶和泛化的有趣的懸而未決的問(wèn)題。從廣義上講,權(quán)重衰減確實(shí)會(huì)導(dǎo)致多種模型不再記憶訓(xùn)練數(shù)據(jù) 。其他有助于避免過(guò)度擬合的技術(shù)包括 dropout、較小的模型,甚至數(shù)值不穩(wěn)定的優(yōu)化算法 。這些方法以復(fù)雜、非線性的方式相互作用,使得很難預(yù)先預(yù)測(cè)最終什么原因和方式會(huì)導(dǎo)致泛化。

wKgaomT91BuAJ1mJAAL94jZ4zJw337.png

為什么記憶比概括更容易?

一種理論:記憶訓(xùn)練數(shù)據(jù)集的解決方法可能比泛化解決方法多得多。因此從統(tǒng)計(jì)上看,記憶應(yīng)該更有可能先發(fā)生。有研究表明泛化與結(jié)構(gòu)良好的表示相關(guān)。然而,這不是必要條件;一些沒(méi)有對(duì)稱(chēng)輸入的 MLP 變體在求解模加法時(shí)學(xué)習(xí)的「循環(huán)」表示較少 。研究人員還觀察到,結(jié)構(gòu)良好的表示并不是泛化的充分條件。比如這個(gè)小模型(沒(méi)有權(quán)重衰減的情況下訓(xùn)練)開(kāi)始泛化,然后切換到使用周期性嵌入進(jìn)行記憶。wKgaomT91BuAA5R4ABwHfQaEvJ0751.gif甚至可以找到模型開(kāi)始泛化的超參數(shù),然后切換到記憶,然后再切換回泛化!wKgaomT91ByAPQpxACcr6cl0UuE564.gif

而較大的模型呢?

首先,之前的研究證實(shí)了小型Transformer和MLP算法任務(wù)中的頓悟現(xiàn)象。涉及特定超參數(shù)范圍內(nèi)的圖像、文本和表格數(shù)據(jù)的更復(fù)雜的任務(wù)也出現(xiàn)了頓悟研究人員認(rèn)為:1)訓(xùn)練具有更多歸納偏差和更少移動(dòng)部件的更簡(jiǎn)單模型,2)用它們來(lái)解釋更大模型難以理解的部分是如何工作的3)根據(jù)需要重復(fù)。都可以有效幫助理解更大的模型。而且本文中這種機(jī)制化的可解釋性方法可能有助于識(shí)別模式,從而使神經(jīng)網(wǎng)絡(luò)所學(xué)算法的研究變得容易,甚至有自動(dòng)化的潛力。參考資料:https://pair.withgoogle.com/explorables/grokking


原文標(biāo)題:谷歌證實(shí)大模型能頓悟,特殊方法能讓模型快速泛化,或?qū)⒋蚱拼竽P秃谙?/p>

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:谷歌證實(shí)大模型能頓悟,特殊方法能讓模型快速泛化,或?qū)⒋蚱拼竽P秃谙?/p>

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在vivadoHLS中使用.TLite模型

    使用read_checkpoint命令通過(guò)界面導(dǎo)入模型文件。 2. 檢查模型的輸入和輸出節(jié)點(diǎn)名稱(chēng) 可以使用model.summary()其他
    發(fā)表于 10-22 06:29

    模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過(guò)深度學(xué)習(xí)模型進(jìn)行預(yù)測(cè)分類(lèi)的過(guò)程。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較
    發(fā)表于 07-03 19:43

    FA模型卡片和Stage模型卡片切換

    srcPath,不帶文件名srcEntry,帶文件名 語(yǔ)言srcLanguage支持配置為jsets無(wú)此配置項(xiàng),只支持ets 是否使卡片formsEnabled無(wú),type配置項(xiàng)配置為form即使
    發(fā)表于 06-06 08:10

    從FA模型切換到Stage模型時(shí):module的切換說(shuō)明

    升級(jí)到Stage模型時(shí),Stage模型的name需要和FA模型的package保持一致,否則會(huì)導(dǎo)致升級(jí)失敗。 name標(biāo)識(shí)HAP的類(lèi)名。/FA模型中實(shí)際未使
    發(fā)表于 06-05 08:16

    數(shù)據(jù)標(biāo)注與大模型的雙向賦:效率與性能的躍升

    ??在人工智能蓬勃發(fā)展的時(shí)代,大模型憑借其強(qiáng)大的學(xué)習(xí)與能力,已成為眾多領(lǐng)域創(chuàng)新變革的核心驅(qū)動(dòng)力。而數(shù)據(jù)標(biāo)注作為大模型訓(xùn)練的基石,為大模型
    的頭像 發(fā)表于 06-04 17:15 ?1629次閱讀
    數(shù)據(jù)標(biāo)注與大<b class='flag-5'>模型</b>的雙向賦<b class='flag-5'>能</b>:效率與性能的躍升

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility說(shuō)明

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility 概述 無(wú)論FA模型還是Stage模型,數(shù)據(jù)讀寫(xiě)功能都包含客戶(hù)端和服務(wù)端兩部分。 FA
    發(fā)表于 06-04 07:53

    Stage模型啟動(dòng)FA模型PageAbility方法

    Stage模型啟動(dòng)FA模型PageAbility 本小節(jié)介紹Stage模型的兩種應(yīng)用組件如何啟動(dòng)FA模型的PageAbility組件。 UIAbility啟動(dòng)PageAbility
    發(fā)表于 06-04 06:36

    如何一個(gè)FA模型開(kāi)發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何一個(gè)FA模型開(kāi)發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如下動(dòng)作: 工程切換:新建一個(gè)Stage模型
    發(fā)表于 06-04 06:22

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器技術(shù),能夠
    的頭像 發(fā)表于 05-24 16:39 ?773次閱讀

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    KaihongOS中提供了不同的開(kāi)發(fā)方式和架構(gòu)選擇,Stage模型因其在分布式應(yīng)用開(kāi)發(fā)中的優(yōu)勢(shì)而被推薦使用。 說(shuō)明:KaihongOS文檔中心中應(yīng)用開(kāi)發(fā)(開(kāi)發(fā)準(zhǔn)備、快速入門(mén)、進(jìn)階提高模塊中的示例代碼均基于Stage模型。)
    發(fā)表于 04-24 07:27

    YOLOv4模型轉(zhuǎn)換為IR的說(shuō)明,無(wú)法模型轉(zhuǎn)換為T(mén)ensorFlow2格式怎么解決?

    遵照 YOLOv4 模型轉(zhuǎn)換為 IR 的 說(shuō)明,但無(wú)法模型轉(zhuǎn)換為 TensorFlow2* 格式。 YOLOv4 darknet
    發(fā)表于 03-07 07:14

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    重復(fù)項(xiàng)使用編輯距離算法比較文本相似度。數(shù)據(jù)標(biāo)注:高質(zhì)量的數(shù)據(jù)標(biāo)注直接影響模型的性能。標(biāo)注過(guò)程應(yīng)遵循明確標(biāo)注規(guī)則、選擇合適的標(biāo)注工具、進(jìn)行多輪審核和質(zhì)量控制等原則。數(shù)據(jù)增強(qiáng):提高模型
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗(yàn)】營(yíng)銷(xiāo)領(lǐng)域大模型的應(yīng)用

    解目標(biāo)市場(chǎng),從而制定更有效的營(yíng)銷(xiāo)策略。 大模型擅長(zhǎng)分析,可以非常好的提煉IP,為決策者提供輔助參考。 基于消費(fèi)者的歷史數(shù)據(jù)和行為模式,大模型能夠提供個(gè)性的產(chǎn)品服務(wù)推薦。這種個(gè)性
    發(fā)表于 12-24 12:48

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    介紹了如何使用分類(lèi)任務(wù)進(jìn)行手寫(xiě)數(shù)字的分類(lèi)。相信大家腦海中可能會(huì)產(chǎn)生如下疑問(wèn): 數(shù)據(jù)依賴(lài)性強(qiáng):分類(lèi)模型的表現(xiàn)通常依賴(lài)于大量的標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練。獲取高質(zhì)量、大規(guī)模的數(shù)據(jù)集既耗時(shí)又昂貴。 能力有限:
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    多個(gè)因素以確保所選模型能夠滿(mǎn)足企業(yè)的具體需求和目標(biāo)。首先,企業(yè)需要明確自己的客服需求和目標(biāo)。例如,是否需要24小時(shí)在線客服服務(wù)?是否需要處理復(fù)雜問(wèn)題的能力?是否需要個(gè)性服務(wù)?明確這些需求有助于企業(yè)更好
    發(fā)表于 12-17 16:53