chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ToolLLM:促進(jìn)大型語言模型掌握16000+真實(shí)世界的APIs

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-08-02 16:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為了促進(jìn)開源LLMs的工具使用能力,作者引入了 ToolLLM,這是一個(gè)數(shù)據(jù)構(gòu)建、模型訓(xùn)練和評估的通用工具使用框架。

4885e696-3076-11ee-9e74-dac502259ad0.png

論文:ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs
地址:https://arxiv.org/abs/2307.16789
項(xiàng)目:https://github.com/OpenBMB/ToolBench
單位:清華、人大、耶魯、微信、騰訊、知乎

盡管開源大語言模型 (LLM) 及其變體(例如 LLaMA 和 Vicuna)取得了進(jìn)步,但它們在執(zhí)行更高級別的任務(wù)方面仍然受到很大限制,例如遵循人類指令使用外部工具 (API)。

這是因?yàn)楫?dāng)前的指令調(diào)優(yōu)主要集中在基本語言任務(wù)而不是工具使用領(lǐng)域。

這與最先進(jìn) (SOTA) 的LLMs(例如 ChatGPT)形成鮮明對比,后者展示了出色的工具使用能力,但不幸的是閉源的。

48b7033e-3076-11ee-9e74-dac502259ad0.png

為了促進(jìn)開源LLMs的工具使用能力,我們引入了 ToolLLM,這是一個(gè)數(shù)據(jù)構(gòu)建、模型訓(xùn)練和評估的通用工具使用框架。

我們首先介紹 ToolBench,這是一個(gè)供工具使用的指令調(diào)整數(shù)據(jù)集,它是使用 ChatGPT 自動創(chuàng)建的。

具體來說,我們從 RapidAPI Hub 收集了 16,464 個(gè)真實(shí)世界的 RESTful API,涵蓋 49 個(gè)類別,然后提示 ChatGPT 生成涉及這些 API 的各種人工指令,涵蓋單工具和多工具場景。

48de00c4-3076-11ee-9e74-dac502259ad0.png

最后,我們使用 ChatGPT 為每條指令搜索有效的解決方案路徑(API 調(diào)用鏈)。

為了使搜索過程更加高效,我們開發(fā)了一種新穎的基于深度優(yōu)先搜索的決策樹(DFSDT),使LLMs能夠評估多個(gè)推理軌跡并擴(kuò)展搜索空間。我們證明 DFSDT 顯著增強(qiáng)了LLMs的規(guī)劃和推理能力。

4942a056-3076-11ee-9e74-dac502259ad0.png

為了有效評估工具使用情況,我們開發(fā)了一個(gè)自動評估器:ToolEval。

4969e40e-3076-11ee-9e74-dac502259ad0.png49874cce-3076-11ee-9e74-dac502259ad0.png

我們在ToolBench上微調(diào)LLaMA并獲得ToolLLaMA。

49a2fed8-3076-11ee-9e74-dac502259ad0.png

我們的 ToolEval 表明 ToolLLaMA 表現(xiàn)出執(zhí)行復(fù)雜指令和泛化到未見過的 API 的卓越能力,并且表現(xiàn)出與 ChatGPT 相當(dāng)?shù)男阅堋?/p> 49cd61f0-3076-11ee-9e74-dac502259ad0.png

為了使管道更加實(shí)用,我們設(shè)計(jì)了一個(gè)神經(jīng) API 檢索器來為每條指令推薦合適的 API,從而無需手動選擇 API。

49f19782-3076-11ee-9e74-dac502259ad0.png



聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7254

    瀏覽量

    91787
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3673

    瀏覽量

    43787
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10779

原文標(biāo)題:劉知遠(yuǎn)等眾多機(jī)構(gòu)提出ToolLLM:促進(jìn)大型語言模型掌握16000+真實(shí)世界的APIs

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    大型語言模型在關(guān)鍵任務(wù)和實(shí)際應(yīng)用中的挑戰(zhàn)

    大型語言模型的出現(xiàn)極大地推動了自然語言處理領(lǐng)域的進(jìn)步,但同時(shí)也存在一些局限性,比如模型可能會產(chǎn)生看似合理但實(shí)際上是錯(cuò)誤或虛假的內(nèi)容,這一現(xiàn)象
    的頭像 發(fā)表于 08-15 09:33 ?1799次閱讀
    <b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>在關(guān)鍵任務(wù)和實(shí)際應(yīng)用中的挑戰(zhàn)

    探索高效的大型語言模型大型語言模型的高效學(xué)習(xí)方法

    大型語言模型(LLMs)的應(yīng)用中,提示工程(Prompt Engineering)是一種關(guān)鍵技術(shù),用于引導(dǎo)模型生成特定輸出或執(zhí)行特定任務(wù)。通過精心設(shè)計(jì)的提示,可以顯著提高LLMs的性
    發(fā)表于 12-13 14:21 ?1037次閱讀
    探索高效的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>!<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的高效學(xué)習(xí)方法

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    。 大語言模型的縮放定律對于深度學(xué)習(xí)研究和應(yīng)用具有重要意義。它提供了更強(qiáng)大的泛化能力和適應(yīng)性,使得模型能夠更好地處理現(xiàn)實(shí)世界中的復(fù)雜任務(wù)和不確定性問題。同時(shí),縮放定律也
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    和微調(diào)的積累,無需額外知識。然而,大模型掌握世界知識具有時(shí)效性,對于訓(xùn)練后發(fā)生的事件或訓(xùn)練集中未涵蓋的知識,大語言模型往往無法應(yīng)對。當(dāng)面
    發(fā)表于 05-07 17:21

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運(yùn)行 llama_chat Python* Demo 時(shí)遇到錯(cuò)誤。
    發(fā)表于 03-05 08:07

    KT利用NVIDIA AI平臺訓(xùn)練大型語言模型

    韓國先進(jìn)的移動運(yùn)營商構(gòu)建包含數(shù)百億個(gè)參數(shù)的大型語言模型,并使用 NVIDIA DGX SuperPOD 平臺和 NeMo Megatron 框架訓(xùn)練該模型。
    的頭像 發(fā)表于 09-27 09:24 ?1588次閱讀

    NVIDIA AI平臺為大型語言模型帶來巨大收益

    隨著大型語言模型( LLM )的規(guī)模和復(fù)雜性不斷增長, NVIDIA 今天宣布更新 NeMo Megatron 框架,提供高達(dá) 30% 的訓(xùn)練速度。
    的頭像 發(fā)表于 10-10 15:39 ?1156次閱讀
    NVIDIA AI平臺為<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>帶來巨大收益

    大型語言模型有哪些用途?

    大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。 AI 應(yīng)用在大型語言模型的幫助下,可
    的頭像 發(fā)表于 02-23 19:50 ?5636次閱讀

    大型語言模型有哪些用途?大型語言模型如何運(yùn)作呢?

    大型語言模型能識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。
    的頭像 發(fā)表于 03-08 13:57 ?8740次閱讀

    淺析AI大型語言模型研究的發(fā)展歷程

    大型語言模型研究的發(fā)展有三條技術(shù)路線:Bert 模式、GPT 模式、混合模式。其中國內(nèi)大多采用混合模式, 多數(shù)主流大型語言
    發(fā)表于 06-09 12:34 ?6095次閱讀
    淺析AI<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>研究的發(fā)展歷程

    基于Transformer的大型語言模型(LLM)的內(nèi)部機(jī)制

    本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內(nèi)部機(jī)制,以提高它們的可靠性和可解釋性。 隨著大型語言
    的頭像 發(fā)表于 06-25 15:08 ?1922次閱讀
    基于Transformer的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>(LLM)的內(nèi)部機(jī)制

    大型語言模型的應(yīng)用

    ?? 大型語言模型(LLM) 是一種深度學(xué)習(xí)算法,可以通過大規(guī)模數(shù)據(jù)集訓(xùn)練來學(xué)習(xí)識別、總結(jié)、翻譯、預(yù)測和生成文本及其他內(nèi)容。大語言模型(LL
    的頭像 發(fā)表于 07-05 10:27 ?2443次閱讀

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構(gòu)建流程

    使用自然語言與系統(tǒng)交互,從而實(shí)現(xiàn)包括問答、分類、摘要、翻譯、聊天等從理解到生成的各種任務(wù)。大型語言模型展現(xiàn)出了強(qiáng)大的對世界知識
    的頭像 發(fā)表于 12-07 11:40 ?5703次閱讀
    大規(guī)模<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構(gòu)建流程

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價(jià)值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運(yùn)營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?405次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價(jià)值

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?519次閱讀