chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2023 LLM技術(shù)報告—— LLM的工具和平臺

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2024-01-29 15:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開源開發(fā)者圈子來看,2023 年是大模型 LLM 年、生成式 AI GenAI 年,LLM 領(lǐng)域大放異彩。

LLM 是利用深度學(xué)習(xí)和大數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng),專門設(shè)計(jì)來理解、生成和回應(yīng)自然語言。這些模型通過分析大量的文本數(shù)據(jù)來學(xué)習(xí)語言的結(jié)構(gòu)和用法,從而能夠執(zhí)行各種語言相關(guān)任務(wù)。

本篇將為大家介紹一下 LLM 相關(guān)的工具和平臺。

LLMOps

LLMOps 平臺專注于提供大模型的部署、運(yùn)維和優(yōu)化服務(wù),旨在幫助企業(yè)和開發(fā)者更高效地管理和使用這些先進(jìn)的 AI 模型,快速完成從模型到應(yīng)用的跨越,如 Dify.AI 、LangChain等。

ad9c3fe4-b9dd-11ee-8b88-92fbcf53809c.png

開源框架 LangChain 是一個幫助開發(fā)者使用 LLM 創(chuàng)建應(yīng)用的開源框架,它可以將 LLM 與外部數(shù)據(jù)源進(jìn)行連接,并允許與 LLM進(jìn)行交互。LangChain 于 2022 年 10 月作為開源項(xiàng)目推出,并于2023 年 4 月注冊成立公司,累計(jì)獲得超過 3000 萬美元的投資,估值達(dá)到了 2 億美元。在 GitHub 上,LangChain 已經(jīng)獲得了超過 7 萬個 Star 和超過 2000 名貢獻(xiàn)者。

ada0e53a-b9dd-11ee-8b88-92fbcf53809c.png

大模型聚合平臺

大模型聚合平臺主要用于整合和管理多個大型機(jī)器學(xué)習(xí)模型,在聚合平臺之上,衍生出 MaaS(Model-as-a- Service,大模型即服務(wù))的服務(wù)模式——通過提供統(tǒng)一的接口和框架,以更高效地部署、運(yùn)行和優(yōu)化這些模型,Hugging Face、Replicate 以及 Gitee AI 均為 MaaS 平臺。

ada4e40a-b9dd-11ee-8b88-92fbcf53809c.png

Gitee AI 是開源中國旗下的 MaaS 平臺,提供模型、數(shù)據(jù)集,以及應(yīng)用托管能力,同時接入了豐富的國產(chǎn)算力平臺,為開發(fā)者提供了更高效、實(shí)惠的微調(diào)方案,降低使用門檻,目前已進(jìn)入內(nèi)測階段。

adb1bf72-b9dd-11ee-8b88-92fbcf53809c.png

開發(fā)工具

其它開發(fā)相關(guān)的 LLM 工具,如云原生構(gòu)建多模態(tài)AI應(yīng)用的工具 Jina,嵌入式數(shù)據(jù)庫 txtai 等。

adc3750a-b9dd-11ee-8b88-92fbcf53809c.png

比較有代表性的 LLM 開發(fā)工具有:

PromptPerfect:幫助用戶極致優(yōu)化給大模型的提示詞(prompt),使得對大語言模型提問時,可以獲得更理想的輸出。

adcfc8dc-b9dd-11ee-8b88-92fbcf53809c.png

txtai:用于語義搜索、LLM 編排和語言模型工作流的一體化嵌入數(shù)據(jù)庫,可以使用SQL、對象存儲、主題建模、圖形分析和多模態(tài)索引進(jìn)行矢量搜索。

imgcook:專注以 Sketch、PSD、靜態(tài)圖片等形式的視覺稿作為輸入,通過智能化技術(shù)一鍵生成可維護(hù)的前端代碼,包含視圖代碼、數(shù)據(jù)字段綁定、組件代碼、部分業(yè)務(wù)邏輯代碼。

另一個視角來看,在大模型繁榮發(fā)展的背后,少不了工具和平臺的發(fā)力,如 LLMOps 平臺、大模型聚合平臺以及相關(guān)的開發(fā)工具,此外還有它們所依賴的最重要的資源——算力。在這些工具、平臺和資源的有力支撐下,大模型才得以一步一個臺階,引領(lǐng)全球開發(fā)者步入一個技術(shù)新時代。

add42648-b9dd-11ee-8b88-92fbcf53809c.png

以上內(nèi)容出自《2023 LLM 技術(shù)報告》,此報告濃墨重彩地梳理了 2023 年 LLM 的技術(shù)行情。報告整體圍繞 LLM Tech Map 梳理邏輯來展開,從基礎(chǔ)設(shè)施、大模型、Agent、AI 編程、工具和平臺,以及算力幾個方面,為開發(fā)者整理了當(dāng)前 LLM 中最為熱門和硬核的技術(shù)領(lǐng)域以及相關(guān)的軟件產(chǎn)品和開源項(xiàng)目。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124424
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3661

    瀏覽量

    5197
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    347

    瀏覽量

    1338

原文標(biāo)題:2023 LLM技術(shù)報告—— LLM的工具和平臺

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    芯盾時代如何破局LLM供應(yīng)鏈漏洞危機(jī)

    隨著人工智能技術(shù)進(jìn)入 2026 年的爆發(fā)期,大語言模型(LLM)已不再是實(shí)驗(yàn)室里的原型,而是支撐企業(yè)核心業(yè)務(wù)的“數(shù)字引擎”。然而,LLM的強(qiáng)大高度依賴于全球化的AI生態(tài)。從海量的互聯(lián)網(wǎng)訓(xùn)練數(shù)據(jù),到
    的頭像 發(fā)表于 02-04 16:53 ?1271次閱讀

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計(jì)算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉(zhuǎn)接板組成。核心加速卡
    的頭像 發(fā)表于 01-30 16:11 ?1090次閱讀
    新品 | <b class='flag-5'>LLM</b>-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標(biāo)準(zhǔn)嵌入式開發(fā)板

    小藝開放平臺平臺功能

    三種開發(fā)模式支撐智能體靈活構(gòu)建 LLM模式 LLM 模式是一種基于大模型的智能體編排方式。開發(fā)者按需選擇大模型,根據(jù)業(yè)務(wù)邏輯編寫提示詞,以LLM為理解中樞,結(jié)合意圖識別、工具調(diào)用、對話
    發(fā)表于 01-30 15:24

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具

    一種基于LLM的可通過圖像語音控制的元件庫管理工具 項(xiàng)目概述 ? 庫存管理在我們的生活中幾乎無處不在,在許多小型的庫存當(dāng)中,比如實(shí)驗(yàn)室中的庫存管理,往往沒有人去專職維護(hù),這就會導(dǎo)致在日積月累中逐漸
    發(fā)表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺上的推理性能瓶頸。為實(shí)現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實(shí)現(xiàn)路徑:一方面,針對需
    的頭像 發(fā)表于 10-21 11:04 ?1200次閱讀

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1123次閱讀
    TensorRT-<b class='flag-5'>LLM</b>的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4473次閱讀
    DeepSeek R1 MTP在TensorRT-<b class='flag-5'>LLM</b>中的實(shí)現(xiàn)與優(yōu)化

    Votee AI借助NVIDIA技術(shù)加速方言小語種LLM開發(fā)

    了精準(zhǔn)的方言及小語種大語言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語言復(fù)雜及計(jì)算效率等挑戰(zhàn),為全球數(shù)以百萬計(jì)、缺乏數(shù)字化資源的語言使用者提供了技術(shù)支持。
    的頭像 發(fā)表于 08-20 14:21 ?868次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2210次閱讀

    Qualys TotalAI 降低 Gen AI 和 LLM 工作負(fù)載的風(fēng)險

    “在AI時代,最大的風(fēng)險不是不去創(chuàng)新,而是在沒有穩(wěn)固基礎(chǔ)的情況下創(chuàng)新?!?生成式人工智能 (Gen AI) 和大語言模型 (LLM) 正在革新各行各業(yè),但是,它們的快速應(yīng)用帶來了嚴(yán)峻的網(wǎng)絡(luò)安全挑戰(zhàn)
    的頭像 發(fā)表于 06-25 14:18 ?502次閱讀
    Qualys TotalAI 降低 Gen AI 和 <b class='flag-5'>LLM</b> 工作負(fù)載的風(fēng)險

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1910次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實(shí)踐

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場景不斷擴(kuò)展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運(yùn)行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1198次閱讀
    LM Studio使用NVIDIA<b class='flag-5'>技術(shù)</b>加速<b class='flag-5'>LLM</b>性能

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1321次閱讀
    小白學(xué)大模型:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b>語言模型

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1640次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀