chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何打造中文版 GPT-3?GPT-4 可能如何演化?

如意 ? 來源:品玩 ? 作者:Decode ? 2020-09-02 10:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

既能問答、翻譯、寫文章,也能寫代碼、算公式、畫圖標(biāo)。..。..OpenAI 2020 年 5 月推出的 GPT-3,因其神奇的通用性而走紅 AI 領(lǐng)域。

GPT-3 是用英文語料做預(yù)訓(xùn)練的,主要應(yīng)用于英文相關(guān)場景,而中文業(yè)界和學(xué)術(shù)界已經(jīng)出現(xiàn)了期待中文版 GPT-3 的聲音。

“GPT-3 與出門問問的技術(shù)基礎(chǔ)緊密相關(guān)。雖然現(xiàn)階段 GPT 模型還并非完美,但它是目前我們能看到,通往更加通用的語言智能的重要路徑之一?!睆氖轮形恼Z音交互的 AI 公司出門問問創(chuàng)始人兼 CEO 李志飛告訴品玩。

出門問問一直對更加通用的語言智能很感興趣。團(tuán)隊(duì)正深入理解 GPT-3 的相關(guān)論文,推進(jìn)相關(guān)實(shí)驗(yàn),嘗試提升訓(xùn)練效率等工作。

如何打造中文版 GPT-3?

那么,如果要打造一個(gè)中文版的 GPT-3,該怎么操作?

“與英文相比,中文版 GPT-3 的誕生將經(jīng)歷一個(gè)從零到一的過程,可以借鑒英文 GPT-3 技術(shù)迭代的相關(guān)經(jīng)驗(yàn)?!崩钪撅w對品玩表示。GPT-3 的技術(shù)迭代之路,是一個(gè)不斷增大訓(xùn)練數(shù)據(jù)量和模型參數(shù)規(guī)模的過程。

本質(zhì)上,GPT-3 是一個(gè)大規(guī)模預(yù)訓(xùn)練 NLP(自然語言處理) 模型。大規(guī)模預(yù)訓(xùn)練是指,先用大量沒有標(biāo)注的語料做無監(jiān)督學(xué)習(xí),得到一套模型參數(shù),然后再用少量標(biāo)注語料精調(diào),最后應(yīng)用于具體的下游 NLP 任務(wù)。這種模式已經(jīng)誕生了不少成功的 NLP 模型,如 Google 2018 年推出的 Bert,但其通用性上依然不足。直到 GPT-3 推出,讓這類預(yù)訓(xùn)練模型的通用性上了一個(gè)臺階。

從 GPT 第一代到 GPT-3,其模型層面一直都是基于 Transformer(一種領(lǐng)先的提取語義特征方法)做預(yù)訓(xùn)練,沒有什么改變,但訓(xùn)練數(shù)據(jù)量和模型規(guī)模十倍、千倍地增長。

2018 年 6 月發(fā)布的 GPT 第一代,預(yù)訓(xùn)練數(shù)據(jù)量僅為 5GB。GPT-2 增長為 40GB,GPT-3 更是猛增到 45TB(等于 45000GB)。而模型規(guī)模方面,從 GPT 第一代的 1.17 億參數(shù)量,指數(shù)增長為 1750 億。

隨著數(shù)據(jù)量和模型規(guī)模的增大,GPT 逐漸舍棄了用少數(shù)標(biāo)注語料精調(diào)這一步,完全基于預(yù)訓(xùn)練得出的參數(shù),去做下游任務(wù),精確度依然有一定保證。

GPT 所需算力也越來越夸張,初代 GPT 在 8 個(gè) GPU 上訓(xùn)練一個(gè)月就行,而 GPT-2 需要在 256 個(gè) Google Cloud TPU v3 上訓(xùn)練(256 美元每小時(shí)),訓(xùn)練時(shí)長未知。到 GPT-3,預(yù)估訓(xùn)練一個(gè)模型的費(fèi)用超過 460 萬美元。

相應(yīng)地,參與到 GPT 論文的作者從初代的 4 位,增加到第三代的 31 位。并且,31 位作者分工明確,有人負(fù)責(zé)訓(xùn)練模型,有人負(fù)責(zé)收集和過濾數(shù)據(jù),有人負(fù)責(zé)實(shí)施具體的自然語言任務(wù),有人負(fù)責(zé)開發(fā)更快的 GPU 內(nèi)核。

借鑒 GPT-3 的迭代經(jīng)驗(yàn),李志飛認(rèn)為開展中文 GPT-3 模型訓(xùn)練比較合理的路徑是:“從中小規(guī)模的模型入手,開展研究及實(shí)驗(yàn),達(dá)到一定效果后再推廣到大模型上進(jìn)行驗(yàn)證”。

至于人力方面的配置,他表示 GPT 是一個(gè)非常綜合的大系統(tǒng)工程,涉及到學(xué)術(shù)、工程、商業(yè)等團(tuán)隊(duì)之間的大規(guī)模協(xié)同。一般需要搭建幾十人的團(tuán)隊(duì),其中包括科學(xué)家、工程師、項(xiàng)目經(jīng)理等角色。

雖然可以借鑒英文 GPT-3 技術(shù)迭代的相關(guān)經(jīng)驗(yàn),但是在創(chuàng)建中文版 GPT-3 的過程中,也需要解決很多獨(dú)特的問題,如中文訓(xùn)練數(shù)據(jù)、算力等。

“一方面,我們需要將更多的時(shí)間精力,投入在高質(zhì)量、多樣性的訓(xùn)練文本的獲取上?!崩钪撅w說,“另一方面,計(jì)算的效率問題,也是目前大規(guī)模深度學(xué)習(xí)模型訓(xùn)練所面臨的共同挑戰(zhàn)。”

從總體規(guī)模、數(shù)據(jù)質(zhì)量及多樣性上看,目前能夠從互聯(lián)網(wǎng)上獲取到的高質(zhì)量中文數(shù)據(jù),相比英文數(shù)據(jù)要少一些,這可能會影響到中文模型的訓(xùn)練效果。不過,從已有的研究分析結(jié)果來看,數(shù)據(jù)并非越多越好。

“我們可以結(jié)合數(shù)據(jù)優(yōu)化、數(shù)據(jù)生成等方式來提高訓(xùn)練語料的有效性。初步來看,具體訓(xùn)練語料,主要包括百科問答、新聞資訊、博客電子書類數(shù)據(jù)及其它泛爬數(shù)據(jù),經(jīng)過數(shù)據(jù)處理后其規(guī)模在 500GB 左右?!崩钪撅w說。

GPT-3 模型參數(shù)到達(dá) 1750 億,其背后訓(xùn)練資源的開銷非常龐大,預(yù)估訓(xùn)練一個(gè)模型的費(fèi)用超過 460 萬美元。不過,隨著國內(nèi)外各項(xiàng)研究的推進(jìn),預(yù)訓(xùn)練模型的訓(xùn)練效率將會不斷提升。

“我們可以借鑒其他預(yù)訓(xùn)練語言模型的優(yōu)化經(jīng)驗(yàn),在訓(xùn)練語料、網(wǎng)絡(luò)結(jié)構(gòu)、模型壓縮等方面多做工作,預(yù)計(jì)將模型的單次訓(xùn)練成本降低一個(gè)數(shù)量級?!崩钪撅w說。

看上去,構(gòu)建中文 GPT-3 是一件很費(fèi)勁的事情,但這項(xiàng)工作帶來的回報(bào)也非??捎^。李志飛對品玩表示,GPT-3 展現(xiàn)出的通用能力,可以將其視為下一代搜索引擎和 AI 助理,所以這項(xiàng)技術(shù)本身的商業(yè)應(yīng)用場景可以很廣闊。

其次,構(gòu)建 GPT 模型的過程中,將涉及到超算中心和AI算法平臺的建設(shè),這些算力和算法平臺可以為企業(yè)、科研機(jī)構(gòu)、政府提供底層服務(wù),通過開放平臺為產(chǎn)業(yè)賦能,如智能車載、智慧城市、科技金融等領(lǐng)域。

另外,雖然 GPT 本質(zhì)是一個(gè)關(guān)于語言的時(shí)序模型,但語言之外的其它時(shí)序問題,如經(jīng)濟(jì)、股票、交通等行為預(yù)測,也有可能成為潛在應(yīng)用場景。

GPT-4 可能如何演化?

GPT-3 目前的表現(xiàn)雖然令人震驚,但它本身還存在著很多問題,比如它并不能真正理解文本的含義,只是對詞語進(jìn)行排列組合。而且,研究員也并未完全了解它的工作機(jī)制。李志飛預(yù)測,下一個(gè)版本 GPT-4 將會在模型規(guī)模、小樣本學(xué)習(xí)、多模態(tài)、學(xué)習(xí)反饋機(jī)制和與任務(wù)執(zhí)行結(jié)合方面進(jìn)行改進(jìn)。

毫無疑問,GPT-4 模型會更加暴力。李志飛說:“下一代 GPT 模型必然在數(shù)據(jù)規(guī)模、模型參數(shù)、算力等方面都會有很大提升。另外,下一代的 GPT 模型可能不局限于英文,將能處理更多跨語言層面的任務(wù)。”

目前的 GPT-3 模型還嚴(yán)重依賴小樣本學(xué)習(xí)機(jī)制。雖然 GPT-3 不需要精調(diào),但是在完成具體的 NLP 任務(wù)時(shí),還是會把少量和任務(wù)相關(guān)的實(shí)例給模型。在零樣本和單樣本的任務(wù)上,GPT-3 退化比較明顯,事實(shí)上后面兩個(gè)任務(wù)才是更普遍遇到的問題。

“下一代 GPT 模型需要加強(qiáng)在理論上的泛化能力,以便更好地處理零樣本和單樣本的任務(wù)?!崩钪撅w表示。

下一代的 GPT 模型極有可能是一個(gè)多模態(tài)的模型。OpenAI 認(rèn)為,純文本的自回歸預(yù)訓(xùn)練模型達(dá)到當(dāng)下的規(guī)模,已經(jīng)快接近極限了,需要往多模態(tài)模型方向發(fā)展,把文本、語音、圖像這些內(nèi)容結(jié)合起來進(jìn)行學(xué)習(xí)。李志飛認(rèn)為,多模態(tài)模型,一方面可以引入語言之外的更多維度的信息,另外一方面可以促使模型學(xué)習(xí)完成更通用化的表示,以此加強(qiáng)模型的泛化能力。

另外一個(gè)重要的進(jìn)化,是引入學(xué)習(xí)反饋機(jī)制。目前GPT模型只是能夠在完全無監(jiān)督的條件下,讀取海量互聯(lián)網(wǎng)文本數(shù)據(jù)進(jìn)行學(xué)習(xí),但是人類的學(xué)習(xí)過程是跟物理世界有交互的,只有這樣才能建立更多物理世界的“常識”,比如說杯子應(yīng)該在桌子上面而不是下面。如果要到達(dá)更加通用的狀態(tài),除了多模態(tài)外,還要在學(xué)習(xí)過程中引入物理世界的反饋機(jī)制。

“當(dāng)然,這個(gè)反饋也是通過數(shù)據(jù)來實(shí)現(xiàn)的,而不是讓GPT真正像人一樣去探索物理世界。”李志飛說道,“另外,鑒于 GPT 希望實(shí)現(xiàn)完全無監(jiān)督學(xué)習(xí)的初衷,這個(gè)反饋更多是隱式的和延遲的,而不是顯式的和及時(shí)的。為了做到這些,需要引入強(qiáng)化學(xué)習(xí)(re-inforcement learning)之類的機(jī)制?!?/p>

李志飛還認(rèn)為,GPT-4 可能引入任務(wù)執(zhí)行能力?,F(xiàn)在的 GPT 主要是一個(gè)預(yù)測和生成的引擎,而不是一個(gè)任務(wù)的執(zhí)行器。

比如,你跟GPT說“幫我訂一下明天下午三點(diǎn)左右北京去上海的經(jīng)濟(jì)艙的機(jī)票”,目前GPT也許能理解這句話的意思,但還沒有能力自動調(diào)取訂票網(wǎng)站的 API(應(yīng)用程序接口)去執(zhí)行任務(wù)。如果不具備這種執(zhí)行能力,GPT的通用性就很有限,因?yàn)槊恳粋€(gè)任務(wù)都需要額外增加代碼用以執(zhí)行理解后的任務(wù)。所以,GPT 必須學(xué)習(xí)怎么直接執(zhí)行任務(wù)。

總體而言,李志飛對 GPT 的未來發(fā)展非常樂觀:“未來互聯(lián)網(wǎng)上的很多內(nèi)容或知識,都會是由類 GPT 模型產(chǎn)生或加工過的。所以某種程度上,GPT的發(fā)展代表著語言主權(quán)的演進(jìn),且它將有潛力成為一種生態(tài)系統(tǒng)?!?br /> 責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人機(jī)交互
    +關(guān)注

    關(guān)注

    12

    文章

    1246

    瀏覽量

    56434
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35109

    瀏覽量

    279631
  • 應(yīng)用程序
    +關(guān)注

    關(guān)注

    38

    文章

    3335

    瀏覽量

    59024
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    OpenAI宣布GPT 4o升智計(jì)劃

    透露,GPT 4o的智力水平將得到顯著提升,目標(biāo)直指o3 pro的水平。這一升級不僅意味著GPT 4o在理解和生成文本方面的能力將得到質(zhì)的飛
    的頭像 發(fā)表于 02-17 14:24 ?595次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在GPT-4.5發(fā)布后不久
    的頭像 發(fā)表于 02-13 13:43 ?641次閱讀

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得一提的是,GPT-5模型將被廣泛應(yīng)用于OpenAI的聊天機(jī)器人ChatGPT以及API平臺。這意味著用戶將能夠體驗(yàn)到更加智能
    的頭像 發(fā)表于 02-13 11:21 ?584次閱讀

    OpenAI CEO預(yù)告GPT-4.5及GPT-5未來規(guī)劃

    全新的GPT-5模型。這一模型將整合包括o3在內(nèi)的多項(xiàng)OpenAI先進(jìn)技術(shù),旨在為用戶帶來更加智能、高效的使用體驗(yàn)。值得注意的是,免費(fèi)版的ChatGPT也將在標(biāo)準(zhǔn)智能設(shè)置下無限制地使用GPT-5進(jìn)行對話,這無疑將進(jìn)一步提升用戶的
    的頭像 發(fā)表于 02-13 10:02 ?440次閱讀

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    GPT4-V的能力:MiniCPM-V 2.6 。 MiniCPM-V 2.6是MiniCPM-V系列最新、性能最佳的模型,基于SigLip-400M和Qwen2-7B構(gòu)建,共8B參數(shù)。在最新版
    的頭像 發(fā)表于 01-20 13:40 ?622次閱讀
    如何在邊緣端獲得<b class='flag-5'>GPT4</b>-V的能力:算力魔方+MiniCPM-V 2.6

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強(qiáng)大的 GPT-4o。本文將分享 2024 年 ChatGPT
    的頭像 發(fā)表于 10-29 18:17 ?2478次閱讀

    Llama 3GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術(shù)競賽中,Llama 3GPT-4作為兩個(gè)備受矚目的模型,它們代表了當(dāng)前AI領(lǐng)域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1149次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1068次閱讀

    英偉達(dá)預(yù)測機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1073次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報(bào)道,英偉達(dá)高級科學(xué)家Jim Fan在近期預(yù)測,機(jī)器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3在語言處理領(lǐng)域的革命性突破,他稱之為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-19 15:13 ?942次閱讀

    OpenAI宣布啟動GPT Next計(jì)劃

     9月4日最新資訊,OpenAI Japan 在KDDI峰會上亮相,揭開了其即將問世的下一代AI模型的神秘面紗,并正式宣布了旨在2024年啟動的GPT Next宏偉計(jì)劃。
    的頭像 發(fā)表于 09-04 14:51 ?930次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們將詳細(xì)介紹如何申請OpenAI的GPT-4.0 API Key。通過這個(gè)教程,你將能夠輕松獲取OpenAI API KEY并使用GPT-4.0的強(qiáng)大功能。 目錄 注冊
    的頭像 發(fā)表于 08-06 15:16 ?4546次閱讀
    OpenAI api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT-4</b>o、<b class='flag-5'>GPT-4</b>omini

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對話新紀(jì)元

    OpenAI近日宣布了一項(xiàng)令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗(yàn)到GPT-4o的語音模式,這一創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4o的高級語音模式以其卓越的實(shí)時(shí)對話能力和對用戶情緒的細(xì)膩感知,為用戶帶來了前所未
    的頭像 發(fā)表于 08-01 18:24 ?1499次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表現(xiàn)優(yōu)于
    的頭像 發(fā)表于 07-21 10:20 ?1676次閱讀
    OpenAI 推出 <b class='flag-5'>GPT-4</b>o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜