chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

后ChatGPT時代NLP的下一個方向:增強式大規(guī)模語言模型

深度學習自然語言處理 ? 來源:復旦DISC ? 2023-04-20 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

目前,大規(guī)模語言模型(LLM)在自然語言處理領(lǐng)域表現(xiàn)出了驚人的性能,能夠完成前所未有的任務,為更多的人機交互形式打開了大門,ChatGPT是一個最好的例子。然而,LLM在大規(guī)模推廣中受到了一些限制,其中一些限制源于其單參數(shù)模型和有限的上下文(N個token)等基本缺陷。隨著硬件和軟件技術(shù)的不斷發(fā)展,LLM需要更長的上下文來展現(xiàn)其更強大的能力,但在實踐中,大多數(shù)LLM仍然只能使用較小的上下文尺寸。為了解決這些問題,出現(xiàn)了增強語言模型(ALM),它是一種利用外部信息來增強語言模型的方法。ALM包括推理、工具和行為三個方面,通過這些方面的增強,語言模型可以調(diào)用其他工具來解決更加復雜的任務,并對虛擬或真實世界產(chǎn)生影響并觀察結(jié)果。本文介紹2種最近出現(xiàn)的增強式語言模型去完成各種模態(tài)的交互式任務:1)VisualChatGPT;2)Toolformer。

文章概覽

文章概覽

Visual-ChatGPT

b2136350-dedb-11ed-bfe3-dac502259ad0.png

微軟最近的一個開源項目:Visual ChatGPT,讓用戶能夠用交互的形式與大規(guī)模語言模型完成圖片操作的任務。以此為 ChatGPT 提供了新的玩法。

論文:https://arxiv.org/abs/2303.04671

論文細節(jié)

介紹

Visual ChatGPT 是一種智能交互系統(tǒng),它將不同的視覺基礎模型與 ChatGPT 相結(jié)合,使得用戶可以通過發(fā)送語言和圖像與 AI 系統(tǒng)進行交互。與傳統(tǒng)的 ChatGPT 僅支持文字交互不同,Visual ChatGPT 可以支持文字+圖片的交互方式。除了可以進行簡單的對話外,Visual ChatGPT 還可以接收復雜的視覺問題或視覺編輯指令,并要求多個 AI 模型之間進行協(xié)作和多步驟操作。用戶還可以給出反饋,并要求修改結(jié)果,從而實現(xiàn)更加智能化、人性化的交互體驗。簡而言之,Visual ChatGPT 使用戶可以以一種更加豐富、直觀和自然的方式與 AI 系統(tǒng)進行交互。

用戶可以發(fā)送以下幾種指令進行交互:

發(fā)送和接收不僅是語言而且是圖像

提供復雜的視覺問題或視覺編輯指令,需要多個 AI 模型之間的協(xié)作和多步驟操作

提供反饋并要求修改結(jié)果,并且它能夠根據(jù)用戶反饋修改結(jié)果

b23ceaea-dedb-11ed-bfe3-dac502259ad0.gif

方法

文中作者讓ChatGPT與其他視覺模型進行交互,下游模型稱作VFM, 是 Visual Foundation Model(視覺基礎模型)縮寫,其中Stable Diffusion、ControlNet、BLIP 等圖像處理類模型。作者還提出了提示管理器(Prompt Manger)作為 ChatGPT 和 VFM 之間的橋梁。提示管理器(Prompt Manger)明確告知 ChatGPT 每個 VFM 的功能并指定必要的輸入輸出格式; 它將各種類型的視覺信息(例如 png 圖像、深度圖像和遮罩矩陣)轉(zhuǎn)換為語言格式以幫助 ChatGPT 理解。同時管理不同 VFM 的歷史記錄、優(yōu)先級和沖突; 通過使用提示管理器,ChatGPT 可以有效地利用 VFM 并以迭代的方式接收他們的反饋,直到滿足用戶的要求或達到結(jié)束條件。

b25c6546-dedb-11ed-bfe3-dac502259ad0.png

詳細的整體結(jié)構(gòu)如下:

b275100a-dedb-11ed-bfe3-dac502259ad0.png

從左到右分為了三個部分,中間部分詳細展示了模型接收到提問(Query)后,會判斷是否需要使用 VFM 進行處理,如果需要則會調(diào)用下游的VFM相應的模型為這個指令進行回答。

Visual-ChatGPT特點

Visual ChatGPT 擴展了聊天機器人的輸入和輸出范圍,超越了傳統(tǒng)的基于文本的通信。它可以處理文本和圖像信息,并根據(jù)用戶需求生成各種格式的回復。

Visual ChatGPT 提高了聊天機器人的智能水平。傳統(tǒng)的聊天機器人只能在單一領(lǐng)域或任務上表現(xiàn)出智能行為,而 Visual ChatGPT 可以在多個領(lǐng)域或任務上表現(xiàn)出智能行為,并且可以根據(jù)上下文切換不同模式。

Visual ChatGPT 增加了聊天機器人的趣味性和互動性。與傳統(tǒng)的聊天機器人只能進行簡單而枯燥的對話不同,Visual ChatGPT 可以進行富有創(chuàng)意和想象力的對話,并且可以根據(jù)用戶喜好調(diào)整風格。

文章概覽

Toolformer

b28e5d12-dedb-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2302.04761v1.pdf

論文細節(jié)

介紹

大型語言模型存在一些局限性,例如無法獲取最新信息、可能會產(chǎn)生“信息幻覺”、難以理解低資源語言以及缺乏進行精確計算的數(shù)學技能等。為了解決這些問題,一種簡單的方法是為模型提供外部工具,例如搜索引擎、計算器或日歷。然而,現(xiàn)有方法通常需要大量的人工注釋或?qū)⒐ぞ叩氖褂孟拗圃谔囟ㄈ蝿赵O置下,這使得語言模型與外部工具的結(jié)合使用難以推廣。為了克服這種瓶頸,Meta AI 最近提出了一種名為 Toolformer 的新方法,該方法使得語言模型能夠?qū)W會“使用”各種外部工具。

Toolformer滿足了以下實際需求:

大型語言模型應該在自監(jiān)督的方式下學習工具的使用,而不需要大量的人工注釋。人工注釋的成本很高,而且人類認為有用的東西可能與模型認為有用的東西不同。

語言模型需要更全面地使用不受特定任務約束的工具。Toolformer打破了大語言模型的瓶頸。接下來我們將詳細介紹Toolformer的方法

方法

Toolformer基于帶有in-context learning(ICL)的大型語言模型從頭開始生成數(shù)據(jù)集。這種方法只需要提供少量人類使用API的樣本,就可以讓語言模型用潛在的API調(diào)用標注一個巨大的語言建模數(shù)據(jù)集。然后,使用自監(jiān)督損失函數(shù)來確定哪些API調(diào)用實際上有助于模型預測未來的token,并根據(jù)對LM本身有用的API調(diào)用進行微調(diào)。由于Toolformer與所使用的數(shù)據(jù)集無關(guān),因此可以將其用于與模型預訓練完全相同的數(shù)據(jù)集,這確保了模型不會失去任何通用性和語言建模能力。具體來說,該研究旨在讓語言模型具備一種能力——通過API調(diào)用使用各種工具。為了實現(xiàn)這個目標,每個API的輸入和輸出都可以表征為文本序列。這允許將API調(diào)用無縫插入到任何給定文本中,并使用特殊的token來標記每個此類調(diào)用的開始和結(jié)束。

該工作把每個API調(diào)用建模為一個元祖,如下所示:

b2a89f88-dedb-11ed-bfe3-dac502259ad0.png

其中 是 API 的名稱, 是相應的輸入。給定一個API調(diào)用c和一個對應的結(jié)果r,上面的式子表示不帶有結(jié)果的API調(diào)用,下面的式子表示帶有API調(diào)用的結(jié)果的線性化序列。其中,和→是特殊的 token。這種方法讓 LM 學會了控制各種工具,并為自己選擇在何時以及如何使用哪種工具。

b2b54292-dedb-11ed-bfe3-dac502259ad0.png

b2c559b6-dedb-11ed-bfe3-dac502259ad0.png

給定一個只含有普通文本的數(shù)據(jù)集

b2d0c35a-dedb-11ed-bfe3-dac502259ad0.png

作者首先將這個數(shù)據(jù)集轉(zhuǎn)換成一個增加了 API 調(diào)用表示的數(shù)據(jù)集 C*。這個操作分為三步如下圖所示

b2dad26e-dedb-11ed-bfe3-dac502259ad0.png

1)首先,該研究利用 LM 的 in-context learning 能力對大量潛在的 API 調(diào)用進行采樣

2)然后執(zhí)行這些 API 調(diào)用

3)再檢查獲得的響應是否有助于預測未來的 token,以用作篩選標準。

4) 篩選之后,該研究合并對不同工具的 API 調(diào)用,最終生成數(shù)據(jù)集 C*,并在此數(shù)據(jù)集上微調(diào) LM 本身。

Toolformer結(jié)合了一系列的工具,包括一個計算器、一個Q/A系統(tǒng)、兩個不同的搜索引擎、一個翻譯系統(tǒng)和一個日歷。Toolformer在各種下游任務中實現(xiàn)了大幅提高的零樣本性能,通常與更大的模型競爭,而不犧牲其核心語言建模能力。

總結(jié)

本文介紹了兩種增強式大語言模型(Visual-ChatGPT,Toolformer),使得大語言模型能夠通過調(diào)用其他基礎視覺模型,來通過交互讓用戶能夠與大規(guī)模語言模型進行多模態(tài)任務的溝通;并且,通過構(gòu)建API數(shù)據(jù)集的方式微調(diào),讓大規(guī)模語言模型學會利用調(diào)用API來執(zhí)行各種任務。在當今火爆的大語言模型的浪潮下,增強式語言模型的范式為我們前往通用人工智能提供了有力的支持。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10770
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25400
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9029

原文標題:后ChatGPT時代NLP的下一個方向:增強式大規(guī)模語言模型

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ChatGPT爆火背后,NLP呈爆發(fā)式增長!

    種自然語言處理技術(shù),用于計算機中模擬人類的對話和文本理解。主要源于AI大模型化的NLP技術(shù)突破是將深度學習技術(shù)與傳統(tǒng)的NLP方法結(jié)合在起,
    的頭像 發(fā)表于 02-13 09:47 ?3444次閱讀

    名單公布!【書籍評測活動NO.30】大規(guī)模語言模型:從理論到實踐

    ,在大模型實踐和理論研究的過程中,歷時8月完成 《大規(guī)模語言模型:從理論到實踐》 書的撰寫。
    發(fā)表于 03-11 15:16

    【大語言模型:原理與工程實踐】大語言模型的基礎技術(shù)

    處理各種自然語言任務時都表現(xiàn)出了驚人的能力。這促使新的研究方向誕生——基于Transformer 的預訓練語言
    發(fā)表于 05-05 12:17

    大規(guī)模語言模型:從理論到實踐】- 每日進步點點

    非常推薦大家去讀 【大規(guī)模語言模型:從理論到實踐】這本書,系統(tǒng)的講解了大模型的前世今生,對各個環(huán)節(jié)知識進行了普及。 今天跟我起學習歸
    發(fā)表于 05-31 19:54

    名單公布!【書籍評測活動NO.34】大語言模型應用指南:以ChatGPT為起點,從入門到精通的AI實踐教程

    主要包括以下 5 方向。 數(shù)據(jù)是最重要的競爭優(yōu)勢,它扮演著護城河的角色,可以實現(xiàn)循環(huán)增值。閉源大語言模型的制造商會經(jīng)常探索新的產(chǎn)品形態(tài),以不斷積累新的數(shù)據(jù)。例如,OpenAI 推出了
    發(fā)表于 06-03 11:39

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    大算力、高成本,用大規(guī)模的數(shù)據(jù)“喂”出來的AI模型。 03 看清方向,謹慎入局 ChatGPT總共可以分為三訓練階段:人工“投喂”數(shù)據(jù)進行
    發(fā)表于 03-03 14:28

    人類科技的下一個時代將是VR/AR的時代

    最近的30年,第次計算科技的浪潮給我們帶來了個人計算機、互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng),而下一個30年,將是個人頭顯(眼鏡)、虛擬混合世界和移動虛擬混合世界的時代,也就是我們說VR/AR科技。
    發(fā)表于 08-30 10:05 ?1681次閱讀

    C 語言下一個 ISO標準將會是 C2x ?

    C 語言下一個 ISO 標準將會是 C2x ?
    的頭像 發(fā)表于 02-27 16:40 ?3010次閱讀

    下一個更智能的物聯(lián)網(wǎng)時代:RFID的機會與挑戰(zhàn)

    下一個更智能的物聯(lián)網(wǎng)時代,RFID的價值如何最大化?
    的頭像 發(fā)表于 05-08 17:48 ?2630次閱讀

    如何向大規(guī)模預訓練語言模型中融入知識?

    本文關(guān)注于向大規(guī)模預訓練語言模型(如RoBERTa、BERT等)中融入知識。
    的頭像 發(fā)表于 06-23 15:07 ?4682次閱讀
    如何向<b class='flag-5'>大規(guī)模</b>預訓練<b class='flag-5'>語言</b><b class='flag-5'>模型</b>中融入知識?

    NVIDIA NeMo最新語言模型服務幫助開發(fā)者定制大規(guī)模語言模型

    NVIDIA NeMo 大型語言模型(LLM)服務幫助開發(fā)者定制大規(guī)模語言模型;NVIDIA BioNeMo 服務幫助研究人員生成和預測分子
    發(fā)表于 09-22 10:42 ?1041次閱讀

    檢索增強語言模型方法的詳細剖析

    啟發(fā)。 1 簡介:Retrieval-based LMs = Retrieval + LMs 首先對于常規(guī)的(自回歸)語言模型,其任務目標為通過計算 并加以采樣來預測句子中的
    的頭像 發(fā)表于 08-21 09:58 ?2000次閱讀
    檢索<b class='flag-5'>增強</b>的<b class='flag-5'>語言</b><b class='flag-5'>模型</b>方法的詳細剖析

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構(gòu)建流程

    大規(guī)模語言模型(Large Language Models,LLM),也稱大規(guī)模語言模型或大型
    的頭像 發(fā)表于 12-07 11:40 ?5690次閱讀
    <b class='flag-5'>大規(guī)模</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構(gòu)建流程

    nlp自然語言處理模型怎么做

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的重要分支,它涉及到計算機對人類語言的理
    的頭像 發(fā)表于 07-05 09:59 ?1130次閱讀

    llm模型chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是類使用深度學習技術(shù)構(gòu)建的自然語言處理(NLP
    的頭像 發(fā)表于 07-09 09:55 ?1983次閱讀