chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

KT利用NVIDIA AI平臺(tái)訓(xùn)練大型語(yǔ)言模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-09-27 09:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

韓國(guó)先進(jìn)的移動(dòng)運(yùn)營(yíng)商構(gòu)建包含數(shù)百億個(gè)參數(shù)的大型語(yǔ)言模型,并使用 NVIDIA DGX SuperPOD 平臺(tái)和 NeMo Megatron 框架訓(xùn)練該模型。

在韓國(guó)受歡迎的 AI 語(yǔ)音助手 GiGA Genie 每天會(huì)與 800 萬(wàn)人交談。

這款 AI 賦能的揚(yáng)聲器由電信公司 KT 提供,不僅能控制電視和提供實(shí)時(shí)流量更新信息,還能根據(jù)語(yǔ)音命令完成大量其他家居輔助任務(wù)。得益于大型語(yǔ)言模型 (LLM)(能根據(jù)龐大的文本數(shù)據(jù)集識(shí)別、理解、預(yù)測(cè)和生成人類語(yǔ)言的機(jī)器學(xué)習(xí)算法),這款揚(yáng)聲器掌握了以極為復(fù)雜的韓語(yǔ)進(jìn)行對(duì)話的技能。

該公司構(gòu)建了包含數(shù)百億個(gè)參數(shù)的 LLM,并且使用NVIDIA DGX SuperPOD數(shù)據(jù)中心基礎(chǔ)架構(gòu)平臺(tái)與NeMo Megatron框架來(lái)訓(xùn)練和部署這些模型。

毫無(wú)疑問(wèn),韓語(yǔ) (Hangul) 是一種極為復(fù)雜的語(yǔ)言。它包含四種類型的復(fù)合動(dòng)詞,而且詞語(yǔ)通常由兩個(gè)或更多個(gè)詞根組成。

KT 是韓國(guó)先進(jìn)的移動(dòng)運(yùn)營(yíng)商,擁有超過(guò) 2200 萬(wàn)用戶。該公司通過(guò)開(kāi)發(fā)包含大約 400 億個(gè)參數(shù)的 LLM,提高了智能揚(yáng)聲器對(duì)此類詞語(yǔ)的理解能力。此外,通過(guò)與 Amazon Alexa 進(jìn)行集成,GiGA Genie 也可以使用英語(yǔ)與用戶交談。

KT 的 LLM 開(kāi)發(fā)團(tuán)隊(duì)負(fù)責(zé)人 Hwijung Ryu 說(shuō)道:“借助基于Transformer的模型,我們顯著改善了 GiGA Genie 智能揚(yáng)聲器和我們客戶服務(wù)平臺(tái) AI 聯(lián)絡(luò)中心 (AICC) 的品質(zhì)?!?/p>

AICC 是基于云的一體式平臺(tái),可提供 AI 語(yǔ)音代理和其他與客戶服務(wù)相關(guān)的應(yīng)用。

它可以接聽(tīng)電話并提供客戶需要的信息,或者快速將客戶轉(zhuǎn)接到人工代理,以便對(duì)更詳細(xì)的詢問(wèn)進(jìn)行解答。Ryu 指出,無(wú)需人工干預(yù)的 AICC 每天可以管理韓國(guó)各地打來(lái)的 10 萬(wàn)多個(gè)電話。

他補(bǔ)充說(shuō)道:“LLM 使 GiGA Genie 能夠更好地理解語(yǔ)言并生成更接近人類語(yǔ)言的句子,而 AICC 能更快地對(duì)詢問(wèn)類型進(jìn)行匯總和分類,從而將咨詢時(shí)間縮短 15 秒?!?/p>

訓(xùn)練大型語(yǔ)言模型

開(kāi)發(fā) LLM 可能是一個(gè)成本高昂且耗費(fèi)時(shí)間的過(guò)程,并需要深厚的專業(yè)技術(shù)知識(shí)和巨大的全棧技術(shù)投資。

NVIDIA AI 平臺(tái)簡(jiǎn)化并加快了 KT 的這一過(guò)程。

Ryu 說(shuō):“我們利用 NVIDIA DGX SuperPOD 的強(qiáng)大性能以及 NeMo Megatron 的優(yōu)化算法和 3D 并行技術(shù),更有成效地訓(xùn)練了 LLM 模型。NeMo Megatron 不斷采用新功能,這是我們認(rèn)為它在提高模型準(zhǔn)確性方面的巨大優(yōu)點(diǎn)?!?/p>

3D 并行對(duì)訓(xùn)練 KT 的 LLM 至關(guān)重要,它是一種分布式訓(xùn)練方法,可將超大規(guī)模的深度學(xué)習(xí)模型分散到多臺(tái)設(shè)備上。Ryu 指出,NeMo Megatron 使團(tuán)隊(duì)能夠以盡可能高的吞吐量輕松完成這項(xiàng)任務(wù)。

他補(bǔ)充道:“我們考慮過(guò)使用其他平臺(tái),但很難找到從硬件級(jí)別到推理級(jí)別都能提供全棧環(huán)境的替代平臺(tái)。NVIDIA 還提供來(lái)自產(chǎn)品、工程團(tuán)隊(duì)等的出色專業(yè)知識(shí),使我們輕松解決了多個(gè)技術(shù)問(wèn)題?!?/p>

Ryu 表示,通過(guò)使用 NeMo Megatron 中的超參數(shù)優(yōu)化工具,KT 訓(xùn)練其 LLM 的速度比使用其他框架快 2 倍。借助這些工具,用戶可以自動(dòng)找到更適合 LLM 訓(xùn)練和推理的配置,從而簡(jiǎn)化和加快開(kāi)發(fā)與部署過(guò)程。

KT 還計(jì)劃使用NVIDIA Triton 推理服務(wù)器來(lái)提供優(yōu)化的實(shí)時(shí)推理服務(wù),以及使用NVIDIA Base Command Manager輕松監(jiān)控和管理其 AI集群中的數(shù)百個(gè)節(jié)點(diǎn)。

Ryu 說(shuō):“得益于 LLM,KT 可以比以往更快地發(fā)布充滿競(jìng)爭(zhēng)力的產(chǎn)品。我們還確信我們的技術(shù)可以推動(dòng)其他公司的創(chuàng)新,因?yàn)樗梢杂脕?lái)增加價(jià)值和創(chuàng)造新穎的產(chǎn)品?!?/p>

KT 計(jì)劃在 11 月向開(kāi)發(fā)者發(fā)布 20 多個(gè)自然語(yǔ)言理解和自然語(yǔ)言生成 API(應(yīng)用程序編程接口)。這些 API 可用于多種任務(wù),包括文檔摘要和分類、情緒識(shí)別和潛在不當(dāng)內(nèi)容的過(guò)濾等。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5494

    瀏覽量

    109016
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38002

    瀏覽量

    295921
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    570

    瀏覽量

    11246

原文標(biāo)題:GTC22 | 不會(huì)掛機(jī)的韓語(yǔ)語(yǔ)音服務(wù):KT 利用 NVIDIA AI 訓(xùn)練智能揚(yáng)聲器和客戶呼叫中心

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用NVIDIA Cosmos開(kāi)放世界基礎(chǔ)模型加速物理AI開(kāi)發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開(kāi)放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)生成。借助
    的頭像 發(fā)表于 12-01 09:25 ?346次閱讀

    NVIDIA推出面向語(yǔ)言、機(jī)器人和生物學(xué)的全新開(kāi)源AI技術(shù)

    NVIDIA 秉持對(duì)開(kāi)源的長(zhǎng)期承諾,推出了面向語(yǔ)言、機(jī)器人和生物學(xué)的全新開(kāi)源 AI 技術(shù),為構(gòu)建開(kāi)源生態(tài)系統(tǒng)做出貢獻(xiàn),擴(kuò)展 AI 的普及并推動(dòng)創(chuàng)新。
    的頭像 發(fā)表于 11-06 11:49 ?642次閱讀

    Votee AI借助NVIDIA技術(shù)加速方言小語(yǔ)種LLM開(kāi)發(fā)

    Votee AI 利用 NVIDIA 的 GPU 硬件、NeMo Curator 數(shù)據(jù)處理軟件、NeMo Framework 模型訓(xùn)練框架及
    的頭像 發(fā)表于 08-20 14:21 ?633次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒(méi)有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級(jí)AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    應(yīng)用開(kāi)發(fā)不用“等平臺(tái)”,徹底釋放開(kāi)發(fā)效率和模型接入自由度。 自DeepSeek橫空出世以來(lái),這種更適合端側(cè)部署,回答效率更高效的訓(xùn)練模式快速引爆了AI行業(yè),主流大
    發(fā)表于 04-13 19:52

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長(zhǎng)領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI智能體、定制化行業(yè)大型
    的頭像 發(fā)表于 03-26 14:42 ?567次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)人工智能<b class='flag-5'>平臺(tái)</b>,加速企業(yè)人工智能應(yīng)用

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢(shì)

    AI模型訓(xùn)練需要強(qiáng)大的計(jì)算資源、高效的存儲(chǔ)和穩(wěn)定的網(wǎng)絡(luò)支持,這對(duì)服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢(shì),成為托管AI模型
    的頭像 發(fā)表于 03-18 10:08 ?510次閱讀

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18

    小白學(xué)大模型訓(xùn)練語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家們?yōu)榱松钊肓私馊绾胃咝У?/div>
    的頭像 發(fā)表于 03-03 11:51 ?1195次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:<b class='flag-5'>訓(xùn)練</b>大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的深度指南

    NVIDIA發(fā)布Cosmos?平臺(tái),助力物理AI系統(tǒng)發(fā)展

    基礎(chǔ)模型、高級(jí)tokenizer、護(hù)欄以及加速視頻處理管線等多項(xiàng)先進(jìn)技術(shù)。其中,Cosmos世界基礎(chǔ)模型(WFM)是平臺(tái)的核心,它使開(kāi)發(fā)者能夠輕松生成大量基于物理學(xué)的逼真合成數(shù)據(jù)。這些數(shù)據(jù)對(duì)于
    的頭像 發(fā)表于 01-08 15:36 ?888次閱讀

    NVIDIA Cosmos世界基礎(chǔ)模型平臺(tái)發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺(tái)由先進(jìn)的生成式世界基礎(chǔ)模型、高級(jí) tokenizer、護(hù)欄和加速視頻處理管線組成,將推動(dòng)自動(dòng)駕駛汽車(AV)和機(jī)器人等物理
    的頭像 發(fā)表于 01-08 10:39 ?1014次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?1282次閱讀

    AI語(yǔ)言模型開(kāi)發(fā)步驟

    開(kāi)發(fā)一個(gè)高效、準(zhǔn)確的大語(yǔ)言模型是一個(gè)復(fù)雜且多階段的過(guò)程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計(jì)、訓(xùn)練與優(yōu)化、評(píng)估與調(diào)試等多個(gè)環(huán)節(jié)。接下來(lái),AI
    的頭像 發(fā)表于 12-19 11:29 ?1199次閱讀

    語(yǔ)言模型開(kāi)發(fā)框架是什么

    語(yǔ)言模型開(kāi)發(fā)框架是指用于訓(xùn)練、推理和部署大型語(yǔ)言模型的軟件工具和庫(kù)。下面,
    的頭像 發(fā)表于 12-06 10:28 ?810次閱讀