chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

揭秘ChatGPT的優(yōu)秀性能:新訓(xùn)練范式下的啟示與發(fā)展預(yù)測

SDNLAB ? 來源:SDNLAB ? 2023-03-28 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT應(yīng)該是近期當(dāng)之無愧的“炸子雞”,不論是因它掀起的微軟、谷歌、百度等在AI領(lǐng)域血雨腥風(fēng)、或明或暗的“狂飆”,抑或是微軟將GPT 4植入Office引起的打工人們的恐慌或狂歡,有關(guān)ChatGPT的新聞不絕于耳。那么,為什么在一眾AI技術(shù)和產(chǎn)品中,ChatGPT能殺出重圍引發(fā)海量關(guān)注呢?“不是我優(yōu)秀,全靠同行襯托”,其優(yōu)秀的性能表現(xiàn)將AI的發(fā)展帶入了一個新階段。那么,它是如何實(shí)現(xiàn)的呢?

本文作者對ChatGPT的版本發(fā)展和特點(diǎn)進(jìn)行了梳理,發(fā)現(xiàn)明明更擅長RL(強(qiáng)化學(xué)習(xí))的ChatGPT技術(shù)團(tuán)隊(duì),在GPT 3中融入了情景學(xué)習(xí),并在后續(xù)的InstructGPT/ChatGPT中利用人類反饋優(yōu)化模型,在參數(shù)數(shù)量減少的情況下,通過語言模型的預(yù)訓(xùn)練、獎勵模型訓(xùn)練、利用RL方式微調(diào)LM等新訓(xùn)練范式,使得ChatGPT模型的性能和質(zhì)量得到了極大提升,并由此對機(jī)器學(xué)習(xí)的研究方法有了新的啟示:機(jī)器學(xué)習(xí)技術(shù)的交叉和融合、數(shù)據(jù)的價(jià)值、ChatGPT的影響與挑戰(zhàn)等。

在ChatGPT處在風(fēng)口浪尖的當(dāng)下,希望讀者朋友們不論是進(jìn)行技術(shù)研究還是投資布局,在閱讀本文后都會有所收獲。

前 言

經(jīng)過了近十年的高速發(fā)展和擴(kuò)張,數(shù)據(jù)驅(qū)動的人工智能模型已經(jīng)廣泛應(yīng)用于計(jì)算機(jī)視覺(Computer Vision , CV)、自然語言處理(Natural Language Processing, NLP)、智能控制等諸多領(lǐng)域。為了獲得更強(qiáng)的模型性能,工程師們不斷增加模型的參數(shù)、壓榨訓(xùn)練設(shè)備的性能極限,模型結(jié)構(gòu)也經(jīng)歷著不斷迭代和更新。隨著對算法模型性能的提升逐漸趨于穩(wěn)定,業(yè)界對人工智能(Artificial Intelligence, AI)快速發(fā)展和擴(kuò)張的熱情也逐漸冷卻,L4級別的自動駕駛和NLP問答機(jī)器人等領(lǐng)域發(fā)展均遇到瓶頸。在此背景下,ChatGPT的出現(xiàn)成為人工智能領(lǐng)域的一個全新亮點(diǎn),為人工智能的發(fā)展注入動力。

ChatGPT是OpenAI公司提出的一種多模態(tài)大型語言模型(Large Language Model, LLM)。一經(jīng)推出,憑借著出色的性能立刻吸引了全球無數(shù)用戶的目光。

OpenAI公司發(fā)展的主要事件如下:

2015年12月11日,OpenAI成立;

2016年4月27日,發(fā)布OpenAI Gym Beta;

2017年7月20日,發(fā)布Proximal Policy Optimization (PPO)算法;

2019年7月22日,微軟投資OpenAI并與其合作;

2021年1月5日,研究從文本創(chuàng)建圖像神經(jīng)網(wǎng)絡(luò)DALL-E;

2022年12月1日,ChatGPT發(fā)布;

2023年2月2日,OpenAI宣布推出ChatGPT Plus訂閱服務(wù)。

可見,OpenAI是一家以強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)立足,并逐漸在AIGC(AI Generated Content)領(lǐng)域深耕的公司。OpenAI構(gòu)建的Gym庫是常用于測試RL算法性能的環(huán)境庫,而PPO算法憑借優(yōu)秀的性能以及泛用性,成為了RL算法的基準(zhǔn)。一個在RL領(lǐng)域有深厚積淀的公司推出了ChatGPT,而不是專職研究NLP的團(tuán)隊(duì),這是非常有趣的事。從之前發(fā)布的論文看,該方法的主要研究人員中,甚至很多作者更擅長RL領(lǐng)域。

ChatGPT的由來

在ChatGPT問世之前,OpenAI公司已經(jīng)推出了3代GPT模型以及InstructGPT模型,它們的公布時間、主要研究點(diǎn)和參數(shù)規(guī)模如表1所示[1]。

表1 GPT系列模型指標(biāo)

00b06ae0-ccde-11ed-bfe3-dac502259ad0.png

從ChatGPT的發(fā)展歷程可見,從GPT3開始,它加入了情景學(xué)習(xí)的要素,使得模型的輸出可以聯(lián)系前后文的語義和語境,產(chǎn)生的結(jié)果性能更符合邏輯。而在InstructGPT中加入了人類反饋,成為了GPT系列模型性能取得突破的關(guān)鍵因素,即以RL方式依據(jù)人類反饋優(yōu)化原模型,這就是Reinforcement Learning from Human Feedback。

對于數(shù)據(jù)驅(qū)動的語言模型(Language Model, LM),常規(guī)的方法是以預(yù)測下一個單詞的方式和損失函數(shù)來建模,通過降低損失函數(shù)使模型預(yù)測的準(zhǔn)確度提高。這種方式的目標(biāo)是最小化損失函數(shù),與用戶希望獲得的體驗(yàn)在優(yōu)化方向上并不完全一致。因此,用人類反饋?zhàn)鳛樾阅芎饬繕?biāo)準(zhǔn)調(diào)整模型,使模型的輸出與人類價(jià)值對齊,取得了很好的效果。兩種思路的對比如圖1所示。

00c99736-ccde-11ed-bfe3-dac502259ad0.png

| 圖1 對于機(jī)器學(xué)習(xí)模型追求目標(biāo)的不同

因此,在GPT3的基礎(chǔ)上,InstructGPT由于加入了人類反饋,取得了驚人的性能。從GPT1到GPT3,模型的規(guī)??焖贁U(kuò)張,參數(shù)量從1.17億飆升至1750億[1]。但規(guī)模的擴(kuò)張沒有帶來性能的跨代提升。為何InstructGPT僅用了不到GPT3百分之一的參數(shù)量,卻取得了更好的效果,RLHF發(fā)揮了巨大的作用。

*由于ChatGPT的算法細(xì)節(jié)官方還沒有公開,考慮到InstructGPT使用的方法和ChatGPT接近,下面的討論和應(yīng)用的文獻(xiàn)以InstructGPT為主。

優(yōu)秀的性能從何而來

ChatGPT/InstructGPT的模型訓(xùn)練主要分為三個部分[2][3]

語言模型的預(yù)訓(xùn)練

原始的語言模型是不需要嚴(yán)格意義上的標(biāo)簽的,可以從數(shù)據(jù)庫中抽取樣本進(jìn)行訓(xùn)練。在ChatGPT/InstructGPT中,OpenAI雇傭了40位專家對從數(shù)據(jù)集抽取的提示(prompt)編寫了理想的輸出,即進(jìn)行了數(shù)據(jù)編寫及標(biāo)記數(shù)據(jù),制作了包含11295個樣本的監(jiān)督學(xué)習(xí)訓(xùn)練集[4],如圖2所示。利用該數(shù)據(jù)集對原始模型進(jìn)行了監(jiān)督訓(xùn)練,得到了SFT(supervised fine-tune)模型。

010cab3e-ccde-11ed-bfe3-dac502259ad0.png

| 圖2 InstructGPT的數(shù)據(jù)集數(shù)量

獎勵模型訓(xùn)練

利用預(yù)訓(xùn)練的SFT模型,可以根據(jù)不同的prompt輸出回答了。但生成的回答不一定都能讓用戶滿意。解決該問題的一個合理的思路是請標(biāo)記者(labeler)對模型的輸出進(jìn)行打分,給更優(yōu)秀的答案賦予更高的分值,以引導(dǎo)模型產(chǎn)生更合適的回答。但面臨著以下問題:1.labeler很難一直跟上模型訓(xùn)練的過程;2.人工成本高昂;3.分值容易受到labeler主觀因素影響。因此,考慮構(gòu)建一個獎勵模型。

首先針對同一個prompt利用模型產(chǎn)生多個結(jié)果,labeler僅需要對生成的結(jié)果按照從好到壞的順序排序即可。該方法一方面可以降低labeler的工作量,另一方面,對于直接打分存在主觀影響,給結(jié)果排序更可能獲得一個相對收斂的結(jié)果。再引入Elo排位系統(tǒng),將針對結(jié)果的排序轉(zhuǎn)換成數(shù)值。該數(shù)值就以標(biāo)量的形式表示了不同回答的好壞。也就構(gòu)建起了《samples, reward》的訓(xùn)練樣本。利用這些訓(xùn)練樣本即可訓(xùn)練得到獎勵模型。

利用RL方式微調(diào)LM

將該微調(diào)(fine-tune)任務(wù)描述為一個RL問題。InstructGPT是利用PPO算法微調(diào)語言模型。首先將一個prompt輸出微調(diào)的LM模型和輸出的SFT模型。微調(diào)的LM模型是根據(jù)RL策略產(chǎn)生的輸出,并根據(jù)步驟2的獎勵模型產(chǎn)生獎勵值,以評價(jià)輸出結(jié)果的好壞。根據(jù)PPO算法的原理,除了需要以獲得更多獎勵的方向進(jìn)行微調(diào)LM模型的訓(xùn)練,還要計(jì)算該微調(diào)模型和SFT模型的KL散度,如下式所示[4]。

01300890-ccde-11ed-bfe3-dac502259ad0.png

式中,期望的第一項(xiàng) 即為獎勵函數(shù)反饋的獎勵值。第二項(xiàng) 為微調(diào)模型和SFT模型的KL散度,該懲罰項(xiàng)有助于保證模型輸出合理連貫的文本片段。如果沒有該懲罰項(xiàng),優(yōu)化可能會產(chǎn)生亂碼的文本。第三項(xiàng) 是在預(yù)訓(xùn)練模型上求的期望,提升模型的泛化能力,防止模型僅關(guān)注當(dāng)前任務(wù)。隨著RL策略的更新,由于有獎勵模型的引導(dǎo),微調(diào)LM模型的輸出為逐漸向人類評分較高的結(jié)果靠近。

*對于該訓(xùn)練過程,用戶還可以繼續(xù)將這些輸出與模型的早期版本進(jìn)行排名,目前還沒有論文討論這一點(diǎn)。這引入了RL策略和獎勵模型演變的復(fù)雜動態(tài),是一個復(fù)雜而開放的研究問題。

ChatGPT的思考和啟示

ChatGPT的成功在給用戶和研究者帶來震撼的同時,也將目前機(jī)器學(xué)習(xí)的研究方法清晰的展現(xiàn)在人們面前。

機(jī)器學(xué)習(xí)技術(shù)的交叉和融合

016912fc-ccde-11ed-bfe3-dac502259ad0.png

| 圖3 機(jī)器學(xué)習(xí)技術(shù)融合

傳統(tǒng)上,機(jī)器學(xué)習(xí)可以分成監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。非監(jiān)督學(xué)習(xí)專注以挖掘數(shù)據(jù)之間的規(guī)律和價(jià)值。監(jiān)督學(xué)習(xí)建立起數(shù)據(jù)和標(biāo)簽之間的映射關(guān)系,即 。強(qiáng)化學(xué)習(xí)則是可以根據(jù)當(dāng)前狀態(tài)進(jìn)行智能決策。算法的進(jìn)步不僅是在各自的領(lǐng)域深挖和探索,分支之間的技術(shù)融合也可以迸發(fā)出強(qiáng)大的性能提升。2013年,DeepMind提出用神經(jīng)網(wǎng)絡(luò)取代RL中的價(jià)值表格,可看作是利用深度學(xué)習(xí)(Deep Learning, DL)對RL的優(yōu)化方法。該方法解決了價(jià)值表格由于表達(dá)能力不足無法適用于具有高緯度離散狀態(tài)空間和連續(xù)動作空間的RL問題,極大地?cái)U(kuò)展了RL的研究范圍和使用場景,開拓了深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning, DRL)這一領(lǐng)域[5]。該成果在后續(xù)優(yōu)化后于2015年發(fā)表在Nature上[6]。而ChatGPT則是利用RL算法優(yōu)化了DL模型的一個很好的例子。目前,利用RL進(jìn)行fine-tune已經(jīng)出現(xiàn)成為全新的模型訓(xùn)練范式的趨勢??梢灶A(yù)見,該范式未來會廣泛應(yīng)用于其他研究領(lǐng)域。ChatGPT是否會像DQN那樣,成為新的訓(xùn)練范式促進(jìn)DL發(fā)展的標(biāo)志,我們拭目以待。

*根據(jù)2023年2月26日的新聞,google計(jì)劃將利用RL微調(diào)模型的訓(xùn)練范式引入到CV。

數(shù)據(jù)的價(jià)值

傳統(tǒng)上對于深度模型的研究,無論是設(shè)計(jì)更巧妙的模型結(jié)構(gòu)、或者是標(biāo)記更多的訓(xùn)練樣本、再或者是擴(kuò)大模型參數(shù)期望大力出奇跡,都在“大”或者“多”的方向深挖。ChatGPT讓我們看到了“質(zhì)”的重要性。

0182f302-ccde-11ed-bfe3-dac502259ad0.png

| 圖4 分階段的模型訓(xùn)練方法

OpenAI公開表示將模型和人類意圖對齊的投資,相較于訓(xùn)練更大的模型,投入產(chǎn)出比更高更好。就像前文所說,GPT3的參數(shù)有1750億個,而InstructGPT的參數(shù)僅有13億。數(shù)據(jù)量大幅縮減的同時,反而取得了碾壓的性能優(yōu)勢。這是否意味著,目前超大規(guī)模的模型在“體型”方面是否已經(jīng)足夠應(yīng)付目前研究的任務(wù),而真正缺少的是高質(zhì)量的關(guān)鍵數(shù)據(jù)呢?

RLHF的訓(xùn)練范式被越來越多的研究驗(yàn)證,對于模型性能的提升是空前的。那么未來針對不同的問題構(gòu)建fine-tune的數(shù)據(jù)集就成為了關(guān)鍵。如圖5所示。傳統(tǒng)的、大量的數(shù)據(jù)集可能構(gòu)建起了模型的初始性能,在此基礎(chǔ)上需要專家樣本對其進(jìn)行引導(dǎo),這部分?jǐn)?shù)據(jù)的量遠(yuǎn)小于初始的數(shù)據(jù)集,但對模型取得的效果卻遠(yuǎn)超簡單的增加原始數(shù)據(jù)集的效果。針對任務(wù),如何構(gòu)建高質(zhì)量的fine-tune數(shù)據(jù)也是需要解決的問題。

0199b63c-ccde-11ed-bfe3-dac502259ad0.png

| 圖5 不同質(zhì)量的數(shù)據(jù)支撐模型訓(xùn)練

ChatGPT的影響與挑戰(zhàn)

在NovaAI問世之初,人們就見識到了AIGC的威力。如今,ChatGPT已經(jīng)出現(xiàn)在我們的面前,高超的性能讓很多行業(yè)的從業(yè)者感受到了巨大的壓力。未來,GPT4的公布和投入使用,將會很大程度地影響當(dāng)前的業(yè)界態(tài)勢。

工作效率的提升

狹義上說,ChatGPT直接改變了文本處理、簡單的代碼編寫、資料查詢等生產(chǎn)和生活方式。微軟已經(jīng)將ChatGPT融合進(jìn)bing搜索引擎,直接對google和baidu等搜索引擎取得了絕對的優(yōu)勢;將ChatGPT融合進(jìn)office,提升工作效率。一些工作組也在嘗試制作插件融合進(jìn)集成開發(fā)環(huán)境(Integrated Development Environment, IDE),輔助程序員更快的完成項(xiàng)目代碼等。

廣義上說,受到ChatGPT啟發(fā),未來在更多的領(lǐng)域?qū)a(chǎn)生性能直逼人類專家的AI模型和算法。ChatGPT是將RLHF應(yīng)用與LLM的成功案例,但相信利用此方法產(chǎn)生高性能模型的探索會迎來快速增長,未來將會在各領(lǐng)域涌現(xiàn)。工具性能的差距某種程度上會影響社會信息化的發(fā)展進(jìn)度,掌握未來核心算法和數(shù)據(jù)也是國內(nèi)研究者需要面臨的問題。

用戶數(shù)據(jù)的獲取

ChatGPT在上線之后僅5天就實(shí)現(xiàn)了獲得超過100萬用戶的里程碑。這個速度遠(yuǎn)超twitter、FB等知名應(yīng)用,大量的用戶為ChatGPT帶來了海量的數(shù)據(jù)。在大數(shù)據(jù)的時代,先入場往往就能夠吸引更多的數(shù)據(jù)。但從目前的研究看,fine-tune數(shù)據(jù)是提升模型性能的關(guān)鍵,而這些數(shù)據(jù)往往需要具備專業(yè)知識的專家標(biāo)記。大量的用戶數(shù)據(jù)由于質(zhì)量參差不齊,是否會使GPT的后續(xù)模型性能越來越優(yōu)秀,并逐漸成為該領(lǐng)域獨(dú)樹一幟的存在,也是一個值得觀察和研究的問題。

在生成模型之上的新范式

ChatGPT依然是一個文本生成模型,即使利用RLHF進(jìn)行了和人類價(jià)值的對齊,但依然無法和人類輸出的結(jié)果在任何情形下都一樣。例如,當(dāng)向ChatGPT詢問某領(lǐng)域或者某會議的論文時,輸出的結(jié)果從形式上看有模有樣。但如果查閱,會發(fā)現(xiàn)很多文章是ChatGPT杜撰的。因此,ChatGPT目前只學(xué)到了“形似”。但將ChatGPT和bing搜索引擎融合的new bing一定程度上克服了這個問題。因?yàn)橄噍^于ChatGPT的生成,new bing是搜索+生成的模型,而搜索得到的結(jié)果是客觀存在的。因此,當(dāng)使用new bing獲取某領(lǐng)域或者某會議的文章時,產(chǎn)生的結(jié)果是真實(shí)存在的。這在一些領(lǐng)域可能更有使用價(jià)值。

國內(nèi)缺少可對標(biāo)的產(chǎn)品

ChatGPT帶來的工作效率的提升是顯而易見的,并且當(dāng)該模型投入商業(yè)化后,能夠取得的收益相信也是非??捎^的。目前國內(nèi)還沒有性能可與之對標(biāo)的產(chǎn)品。該模型訓(xùn)練不僅需要高昂的成本和時間,對于fine-tune的構(gòu)建和后續(xù)的優(yōu)化也非常重要。我們期待能夠媲美GPT系列的國內(nèi)語言模型的問世。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134566
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8959

    瀏覽量

    140151
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9077

原文標(biāo)題:揭秘ChatGPT的優(yōu)秀性能:新訓(xùn)練范式下的啟示與發(fā)展預(yù)測

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    的負(fù)載平衡、多token預(yù)測技術(shù)(MTP) 等,大幅提升了模型的性能。 在模型訓(xùn)練方面,DeepSeek 依托自研的輕量級分布式訓(xùn)練框架 HAI-LLM,通過算法、框架和硬件的緊密配合
    發(fā)表于 06-09 14:38

    如何高效訓(xùn)練AI模型?這些常用工具你必須知道!

    大模型的發(fā)展同樣面臨瓶頸,訓(xùn)練所需的硬件資源日益增加,比如英偉達(dá)的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業(yè)界有觀點(diǎn)認(rèn)為,在大多數(shù)情況,并不需要全能的大模型,而
    的頭像 發(fā)表于 04-17 16:43 ?1684次閱讀
    如何高效<b class='flag-5'>訓(xùn)練</b>AI模型?這些常用工具你必須知道!

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進(jìn)制數(shù)據(jù),以便提升訓(xùn)練效果。 ChatGPT發(fā)布后,當(dāng)代大語言模型(LLM)的訓(xùn)練流程基本遵循Open
    的頭像 發(fā)表于 03-21 18:24 ?1633次閱讀
    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    OpenAI嘗試減少對ChatGPT的審查

    近日,OpenAI宣布了一項(xiàng)新政策,旨在改變其訓(xùn)練人工智能模型的方式,以明確擁護(hù)“知識自由”的理念。OpenAI強(qiáng)調(diào),無論一個話題多么具有挑戰(zhàn)性或爭議性,都應(yīng)當(dāng)被平等對待和呈現(xiàn)。 據(jù)OpenAI表示
    的頭像 發(fā)表于 02-17 14:42 ?1666次閱讀

    ?性能猛獸降臨!RK3588 Mini PC 驚艷亮相

    還在為找不到一款性能炸裂又功耗友好的迷你主機(jī)而發(fā)愁嗎?今天,必須給大家重磅揭秘這款 RK3588 Mini PC,絕對能打破你對迷你主機(jī)的固有印象! ?它搭載 Rockchip 新一代旗艦 AIoT
    發(fā)表于 02-15 11:51

    基于梯度下降算法的三元鋰電池循環(huán)壽命預(yù)測

    摘要:隨著電動汽車產(chǎn)銷量的持續(xù)攀升,對于動力電池循環(huán)壽命性能的評估及預(yù)測已成為行業(yè)內(nèi)重點(diǎn)關(guān)注的問題之一。對某款三元鋰電池進(jìn)行了25℃及45℃的長周期循環(huán)壽命試驗(yàn),將試驗(yàn)得到的循環(huán)壽命數(shù)據(jù)進(jìn)行了
    的頭像 發(fā)表于 01-16 10:19 ?508次閱讀
    基于梯度下降算法的三元鋰電池循環(huán)壽命<b class='flag-5'>預(yù)測</b>

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實(shí)現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機(jī)制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。在預(yù)訓(xùn)練-微調(diào)范式中,我們要注意任務(wù)表示的重要性:好的表示
    發(fā)表于 12-24 15:03

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時代的新鑰匙

    ,NVDIA與微軟的競爭 。計(jì)算能力的飛速提升是大模型得以興起的重要基石。GPU/TPU 等高性能計(jì)算設(shè)備的迅猛發(fā)展,宛如為大模型的訓(xùn)練打造了一臺強(qiáng)大的引擎。它們能夠以極高的速度處理海量的數(shù)據(jù),使得
    發(fā)表于 12-24 13:10

    【「大模型啟示錄」閱讀體驗(yàn)】營銷領(lǐng)域大模型的應(yīng)用

    今天跟隨「大模型啟示錄」這本書,學(xué)習(xí)在營銷領(lǐng)域應(yīng)用大模型。 大模型通過分析大量的消費(fèi)者數(shù)據(jù),包括購買歷史、瀏覽記錄、社交媒體互動等,能夠識別消費(fèi)者的偏好和行為模式。這種分析能力有助于企業(yè)更好地理
    發(fā)表于 12-24 12:48

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    內(nèi)為企業(yè)帶來效益。在選擇模型時,需要評估其性能表現(xiàn)。這包括模型的準(zhǔn)確性、響應(yīng)速度、對話流暢性、情感理解能力等方面??梢酝ㄟ^對比不同模型的測試結(jié)果、查看用戶反饋和評分等方式來評估模型性能。選擇性能表現(xiàn)
    發(fā)表于 12-17 16:53

    ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

    ChatGPT作為智能對話生成模型,可以幫助打造智能客服體驗(yàn)的重要工具。以下是一些方法和步驟:1.數(shù)據(jù)收集和準(zhǔn)備:收集和整理與客服相關(guān)的數(shù)據(jù),包括常見問題、回答示例、客戶對話記錄等。這將用于訓(xùn)練
    的頭像 發(fā)表于 11-01 11:12 ?437次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗(yàn)的重要工具?

    如何評估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性

    評估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性是一個復(fù)雜的過程,因?yàn)樗婕暗蕉鄠€因素,包括但不限于數(shù)據(jù)的質(zhì)量和多樣性、模型的訓(xùn)練、上下文的理解、以及輸出內(nèi)容的邏輯一致性。以下是一些評估 ChatGPT 輸出
    的頭像 發(fā)表于 10-25 17:48 ?1143次閱讀

    ChatGPT 與人工智能的未來發(fā)展

    ChatGPT是人工智能領(lǐng)域的一個重要里程碑,它代表了自然語言處理(NLP)技術(shù)的最新進(jìn)展。ChatGPT是由人工智能研究實(shí)驗(yàn)室OpenAI開發(fā)的一種深度學(xué)習(xí)模型,它能夠理解和生成自然語言文本。這種
    的頭像 發(fā)表于 10-25 16:30 ?2524次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺。 選擇模型 : ChatGPT目前支持GPT3.5和GPT4兩個模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來說,GPT4在性能和生成質(zhì)量上可能更優(yōu)。 明確創(chuàng)作目標(biāo) : 在開始創(chuàng)作之前,明確您的創(chuàng)作目標(biāo),如文章
    的頭像 發(fā)表于 10-25 16:08 ?1009次閱讀

    端到端InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

    ChatGPT對技術(shù)的影響引發(fā)了對人工智能未來的預(yù)測,尤其是多模態(tài)技術(shù)的關(guān)注。OpenAI推出了具有突破性的多模態(tài)模型GPT-4,使各個領(lǐng)域取得了顯著的發(fā)展。 這些AI進(jìn)步是通過大規(guī)模模型訓(xùn)練
    的頭像 發(fā)表于 10-23 11:26 ?1964次閱讀
    端到端InfiniBand網(wǎng)絡(luò)解決LLM<b class='flag-5'>訓(xùn)練</b>瓶頸