chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用 NVIDIA Jetson 實(shí)現(xiàn)生成式 AI

NVIDIA英偉達(dá) ? 來(lái)源:未知 ? 2023-11-07 21:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,NVIDIA 發(fā)布了 Jetson 生成式 AI 實(shí)驗(yàn)室(Jetson Generative AI Lab),使開(kāi)發(fā)者能夠通過(guò) NVIDIA Jetson 邊緣設(shè)備在現(xiàn)實(shí)世界中探索生成式 AI 的無(wú)限可能性。不同于其他嵌入式平臺(tái),Jetson 能夠在本地運(yùn)行大語(yǔ)言模型(LLM)、視覺(jué) Transformer 和 stable diffusion,包括在 Jetson AGX Orin 上以交互速率運(yùn)行的 Llama-2-70B 模型。

wKgZomVKO9uARD1rAAEX6RZYLcQ926.jpg

圖 1. 領(lǐng)先的生成式 AI 模型在

Jetson AGX Orin 上的推理性能

如要在 Jetson 上快速測(cè)試最新的模型和應(yīng)用,請(qǐng)使用 Jetson 生成式 AI 實(shí)驗(yàn)室提供的教程和資源?,F(xiàn)在,您可以專(zhuān)注于發(fā)掘生成式 AI 在物理世界中尚未被開(kāi)發(fā)的潛力。

本文將探討可以在 Jetson 設(shè)備上運(yùn)行和體驗(yàn)到的振奮人心的生成式 AI 應(yīng)用,所有這些也都在實(shí)驗(yàn)室的教程中予以了說(shuō)明。

邊緣生成式 AI

在快速發(fā)展的 AI 領(lǐng)域,生成式模型和以下模型備受關(guān)注:

  • 能夠參與仿照人類(lèi)對(duì)話(huà)的 LLM。

  • 使 LLM 能夠通過(guò)攝像機(jī)感知和理解現(xiàn)實(shí)世界的視覺(jué)語(yǔ)言模型(VLM)。

  • 可將簡(jiǎn)單的文字指令轉(zhuǎn)換成驚艷圖像的擴(kuò)散模型。

這些在 AI 領(lǐng)域的巨大進(jìn)步激發(fā)了許多人的想象力。但是,如果您去深入了解支持這種前沿模型推理的基礎(chǔ)架構(gòu),就會(huì)發(fā)現(xiàn)它們往往被“拴”在云端,依賴(lài)其數(shù)據(jù)中心的處理能力。這種以云為中心的方法使得某些需要高帶寬、低延遲的數(shù)據(jù)處理的邊緣應(yīng)用在很大程度上得不到開(kāi)發(fā)。

視頻 1. NVIDIA Jetson Orin 為邊緣帶來(lái)強(qiáng)大的生成式 AI 模型

在本地環(huán)境中運(yùn)行 LLM 和其他生成式模型這一新趨勢(shì)正在開(kāi)發(fā)者社群中日益盛行。蓬勃發(fā)展的在線(xiàn)社區(qū)為愛(ài)好者提供了一個(gè)討論生成式 AI 技術(shù)最新進(jìn)展及其實(shí)際應(yīng)用的平臺(tái),如 Reddit 上的 r/LocalLlama。在 Medium 等平臺(tái)上發(fā)表的大量技術(shù)文章深入探討了在本地設(shè)置中運(yùn)行開(kāi)源 LLM 的復(fù)雜性,其中一些文章提到了利用 NVIDIA Jetson。

Jetson 生成式 AI 實(shí)驗(yàn)室是發(fā)現(xiàn)最新生成式 AI 模型和應(yīng)用,以及學(xué)習(xí)如何在 Jetson 設(shè)備上運(yùn)行它們的中心。隨著該領(lǐng)域快速發(fā)展,幾乎每天都有新的 LLM 出現(xiàn),并且量化程序庫(kù)的發(fā)展也在一夜之間重塑了基準(zhǔn),NVIDIA 認(rèn)識(shí)到了提供最新信息和有效工具的重要性。因此我們提供簡(jiǎn)單易學(xué)的教程和預(yù)構(gòu)建容器。

而實(shí)現(xiàn)這一切的是 jetson-containers,一個(gè)精心設(shè)計(jì)和維護(hù)的開(kāi)源項(xiàng)目,旨為 Jetson 設(shè)備構(gòu)建容器。該項(xiàng)目使用 GitHub Actions,以 CI/CD 的方式構(gòu)建了 100 個(gè)容器。這些容器使您能夠在 Jetson 上快速測(cè)試最新的 AI 模型、程序庫(kù)和應(yīng)用,無(wú)需繁瑣地配置底層工具和程序庫(kù)。

通過(guò) Jetson 生成式 AI 實(shí)驗(yàn)室和 jetson-containers,您可以集中精力使用 Jetson 探索生成式 AI 在現(xiàn)實(shí)世界中的無(wú)限可能性。

演示

以下是一些振奮人心的生成式 AI 應(yīng)用,它們?cè)?Jetson 生成式 AI 實(shí)驗(yàn)室所提供的 NVIDIA Jetson 設(shè)備上運(yùn)行。

stable-diffusion-webui

wKgZomVKO9uAFjpQAB6-4qyjh1k756.gif

圖 2. Stable Diffusion 界面

A1111 的 stable-diffusion-webui 為 Stability AI 發(fā)布的 Stable Diffusion 提供了一個(gè)用戶(hù)友好界面。您可以使用它執(zhí)行許多任務(wù),包括:

  • 文本-圖像轉(zhuǎn)換:根據(jù)文本指令生成圖像。

  • 圖像-圖像轉(zhuǎn)換:根據(jù)輸入圖像和相應(yīng)的文本指令生成圖像。

  • 圖像修復(fù):對(duì)輸入圖像中缺失或被遮擋的部分進(jìn)行填充。

  • 圖像擴(kuò)展:擴(kuò)展輸入圖像的原有邊界。

網(wǎng)絡(luò)應(yīng)用會(huì)在首次啟動(dòng)時(shí)自動(dòng)下載 Stable Diffusion v1.5 模型,因此您可以立即開(kāi)始生成圖像。如果您有一臺(tái) Jetson Orin 設(shè)備,就可以按照教程說(shuō)明執(zhí)行以下命令,非常簡(jiǎn)單。

git clone https://github.com/dusty-nv/jetson-containers
cd jetson-containers
./run.sh$(./autotagstable-diffusion-webui)

有關(guān)運(yùn)行 stable-diffusion-webui 的更多信息,參見(jiàn) Jetson 生成式 AI 實(shí)驗(yàn)室教程。Jetson AGX Orin 還能運(yùn)行較新的 Stable Diffusion XL(SDXL)模型,本文開(kāi)頭的主題圖片就是使用該模型生成的。

text-generation-webui

wKgZomVKO9yANroxAAdIysar7b8049.gif

圖 3. 在 Jetson AGX Orin與 Llama-2-13B 互動(dòng)聊天

Oobabooga 的 text-generation-webui 也是一個(gè)基于 Gradio、可在本地環(huán)境中運(yùn)行 LLM 的常用網(wǎng)絡(luò)接口。雖然官方資源庫(kù)提供了各平臺(tái)的一鍵安裝程序,但 jetson-containers 提供了一種更簡(jiǎn)單的方法。

通過(guò)該界面,您可以輕松地從 Hugging Face 模型資源庫(kù)下載模型。根據(jù)經(jīng)驗(yàn),在 4 位量化情況下,Jetson Orin Nano 一般可容納 70 億參數(shù)模型,Jetson Orin NX 16GB 可運(yùn)行 130 億參數(shù)模型,而 Jetson AGX Orin 64GB 可運(yùn)行驚人的 700 億參數(shù)模型。

現(xiàn)在很多人都在研究 Llama-2。這個(gè) Meta 的開(kāi)源大語(yǔ)言模型可免費(fèi)用于研究和商業(yè)用途。在訓(xùn)練基于 Llama-2 的模型時(shí),還使用了監(jiān)督微調(diào)(SFT)和人類(lèi)反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)。有些人甚至聲稱(chēng)它在某些基準(zhǔn)測(cè)試中超過(guò)了 GPT-4。

Text-generation-webui 不但提供擴(kuò)展程序,還能幫助您自主開(kāi)發(fā)擴(kuò)展程序。在以下 llamaspeak 示例中可以看到,該界面可以用于集成您的應(yīng)用,還支持多模態(tài) VLM,如 Llava 和圖像聊天。

wKgZomVKO9yAYZ3rABx48ytUgUw669.gif

圖 4. 量化的 Llava-13B VLM 對(duì)圖像查詢(xún)的響應(yīng)

有關(guān)運(yùn)行 text-generation-webui 的更多信息,參見(jiàn) Jetson 生成式 AI 實(shí)驗(yàn)室教程:https://www.jetson-ai-lab.com/tutorial_text-generation.html

llamaspeak

wKgZomVKO92AN0YHAB-xE7O8IBU182.gif

圖 5. 使用 Riva ASR/TTS 與

LLM 進(jìn)行 Llamaspeak 語(yǔ)音對(duì)話(huà)

Llamaspeak 是一款交互式聊天應(yīng)用,通過(guò)實(shí)時(shí) NVIDIA Riva ASR/TTS 與本地運(yùn)行的 LLM 進(jìn)行語(yǔ)音對(duì)話(huà)。Llamaspeak 目前已經(jīng)成為 jetson-containers 的組成部分。

如果要進(jìn)行流暢無(wú)縫的語(yǔ)音對(duì)話(huà),就必須盡可能地縮短 LLM 第一個(gè)輸出標(biāo)記的時(shí)間。Llamaspeak 不僅可以縮短這一時(shí)間,還能在此基礎(chǔ)上處理對(duì)話(huà)中斷的情況,這樣當(dāng) llamaspeak 在對(duì)生成的回復(fù)進(jìn)行 TTS 處理時(shí),您就可以開(kāi)始說(shuō)話(huà)了。容器微服務(wù)適用于 Riva、LLM 和聊天服務(wù)器。

wKgZomVKO92AMupSAAFSTdQklNI640.png

圖 6. 流式 ASR/LLM/TTS 管道

到網(wǎng)絡(luò)客戶(hù)端的實(shí)時(shí)對(duì)話(huà)控制流

Llamaspeak 具備響應(yīng)式界面,可從瀏覽器麥克風(fēng)或連接到 Jetson 設(shè)備的麥克風(fēng)傳輸?shù)脱舆t音頻流。有關(guān)自行運(yùn)行的更多信息,參見(jiàn) jetson-containers 文檔:https://github.com/dusty-nv/jetson-containers/tree/master/packages/llm/llamaspeak

NanoOWL

wKgZomVKO96AaB5ZAJ7d0Xcry7Q948.gif

圖 7. NanoOWL 可實(shí)時(shí)執(zhí)行物體檢測(cè)

Open World Localization with Vision Transformers(OWL-ViT)是一種由 Google Research 開(kāi)發(fā)的開(kāi)放詞匯檢測(cè)方法。該模型使您能夠通過(guò)提供目標(biāo)對(duì)象的文本提示進(jìn)行對(duì)象檢測(cè)。

比如在檢測(cè)人和車(chē)時(shí),使用描述該類(lèi)別的文本提示系統(tǒng):

prompt = “a person, a car”

這種監(jiān)測(cè)方法很有使用價(jià)值,無(wú)需訓(xùn)練新的模型,就能實(shí)現(xiàn)快速開(kāi)發(fā)新的應(yīng)用。為了解鎖邊緣應(yīng)用,我們團(tuán)隊(duì)開(kāi)發(fā)了一個(gè)名為 NanoOWL 的項(xiàng)目,使用 NVIDIA TensorRT 對(duì)該模型進(jìn)行優(yōu)化,從而在 NVIDIA Jetson Orin 平臺(tái)上獲得實(shí)時(shí)性能(在 Jetson AGX Orin 上的編碼速度約為 95FPS)。該性能意味著您可以運(yùn)行遠(yuǎn)高于普通攝像機(jī)幀率的 OWL-ViT。

該項(xiàng)目還包含一個(gè)新的樹(shù)形檢測(cè)管道,能夠加速 OWL-ViT 模型與 CLIP 相結(jié)合,從而實(shí)現(xiàn)任何級(jí)別的零樣本檢測(cè)和分類(lèi)。比如,在檢測(cè)人臉時(shí)對(duì)快樂(lè)或悲傷進(jìn)行區(qū)分,請(qǐng)使用以下提示:

prompt = “[a face (happy, sad)]”

如果要先檢測(cè)人臉,再檢測(cè)每個(gè)目標(biāo)區(qū)域的面部特征,請(qǐng)使用以下提示:

prompt = “[a face [an eye, a nose, a mouth]]”

將兩者組合:

prompt = “[a face (happy, sad)[an eye, a nose, a mouth]]”

這樣的例子數(shù)不勝數(shù)。這個(gè)模型在某些對(duì)象或類(lèi)的可能更加精準(zhǔn),而且由于開(kāi)發(fā)簡(jiǎn)單,您可以快速?lài)L試不同的組合并確定是否適用。我們期待著看到您所開(kāi)發(fā)的神奇應(yīng)用!

Segment Anything 模型

wKgZomVKO96AYW7xAAYy5WL_sUw914.png

圖 8. Segment Anything 模型(SAM)的 Jupyter 筆記本

Meta 發(fā)布了 Segment Anything 模型(SAM),這個(gè)先進(jìn)的圖像分割模型能夠精確識(shí)別并分割圖像中的對(duì)象,無(wú)論其復(fù)雜程度或上下文如何。

其官方資源庫(kù)中也設(shè)有 Jupyter 筆記本,以實(shí)現(xiàn)輕松檢查模型的影響,同時(shí) jetson-containers 也提供了一個(gè)內(nèi)置 Jupyter Lab 的便捷容器。

NanoSAM

圖 9. 實(shí)時(shí)追蹤和分割電腦鼠標(biāo)的 NanoSAM

Segment Anything(SAM)是能將點(diǎn)轉(zhuǎn)化成分割掩碼的神奇模型。遺憾的是,它不支持實(shí)時(shí)運(yùn)行,這限制了其在邊緣應(yīng)用中發(fā)揮作用。

為了克服這一局限性,我們最近發(fā)布了一個(gè)新的項(xiàng)目 NanoSAM,能夠?qū)?SAM 圖像編碼器提煉成一個(gè)輕量級(jí)模型,我們也使用 NVIDIA TensorRT 對(duì)該模型進(jìn)行優(yōu)化,從而在 NVIDIA Jetson Orin 平臺(tái)上實(shí)現(xiàn)了實(shí)時(shí)性能的應(yīng)用?,F(xiàn)在,您無(wú)需接受任何額外的培訓(xùn),就可以輕松地將現(xiàn)有的邊界框或關(guān)鍵點(diǎn)檢測(cè)器轉(zhuǎn)化成實(shí)例分割模型。

Track Anything 模型

正如該團(tuán)隊(duì)的論文:https://arxiv.org/abs/2304.11968所述,Track Anything 模型(TAM)是“Segment Anything 與視頻的結(jié)合”。在其基于 Gradio 的開(kāi)源界面上,您可以點(diǎn)擊輸入視頻的某一個(gè)幀,來(lái)指定待追蹤和分割的任何內(nèi)容。TAM 模型甚至還具備通過(guò)圖像修補(bǔ)去除追蹤對(duì)象的附加功能。

wKgZomVKO-CAFnFKACxNptrC0C0809.gif

圖 10. Track Anything 界面

NanoDB

視頻 2. Hello AI World -

NVIDIA Jetson 上的實(shí)時(shí)多模態(tài) VectorDB

除了在邊緣對(duì)數(shù)據(jù)進(jìn)行有效的索引和搜索外,這些矢量數(shù)據(jù)庫(kù)還經(jīng)常與 LLM 配合使用,在超出其內(nèi)置上下文長(zhǎng)度(Llama-2 模型為 4096 個(gè)標(biāo)記)的長(zhǎng)期記憶上實(shí)現(xiàn)檢索增強(qiáng)生成(RAG)。視覺(jué)語(yǔ)言模型也使用相同的嵌入作為輸入。

wKgZomVKO-CAObRNAACeeTYx-uY889.jpg

圖 11. 以 LLM/VLM 為核心的架構(gòu)圖

有了來(lái)自邊緣的所有實(shí)時(shí)數(shù)據(jù)以及對(duì)這些數(shù)據(jù)的理解能力,AI 應(yīng)用就成為了能夠與真實(shí)世界互動(dòng)的智能體。想要在您自己的圖像和數(shù)據(jù)集上嘗試使用 NanoDB ,了解更多信息,請(qǐng)參見(jiàn)實(shí)驗(yàn)室教程:https://www.jetson-ai-lab.com/tutorial_nanodb.html

總結(jié)

正如您所見(jiàn),激動(dòng)人心的生成式 AI 應(yīng)用正在涌現(xiàn)。您可以按照這些教程,在 Jetson Orin 上輕松運(yùn)行體驗(yàn)。如要見(jiàn)證在本地運(yùn)行的生成式 AI 的驚人能力,請(qǐng)?jiān)L問(wèn) Jetson 生成式 AI 實(shí)驗(yàn)室:https://www.jetson-ai-lab.com/

如果您在 Jetson 上創(chuàng)建了自己的生成式 AI 應(yīng)用并想要分享您的想法,請(qǐng)務(wù)必在 Jetson Projects 論壇https://forums.developer.nvidia.com/c/agx-autonomous-machines/jetson-embedded-systems/jetson-projects/78上展示您的創(chuàng)作。

歡迎參加我們于北京時(shí)間 2023 年 11 月 8 日周三凌晨 1-2 點(diǎn)舉行的網(wǎng)絡(luò)研討會(huì),深入了解本文中討論的多項(xiàng)主題并進(jìn)行現(xiàn)場(chǎng)提問(wèn)!

在本次研討會(huì)中,您將了解到:

  • 開(kāi)源 LLM API 的性能特點(diǎn)和量化方法

  • 加速 CLIP、OWL-ViT 和 SAM 等開(kāi)放詞匯視覺(jué)轉(zhuǎn)換器

  • 多模態(tài)視覺(jué)代理,向量數(shù)據(jù)庫(kù)和檢索增強(qiáng)生成

  • 通過(guò) NVIDIA Riva ASR/NMT/TTS 實(shí)現(xiàn)多語(yǔ)言實(shí)時(shí)對(duì)話(huà)和會(huì)話(huà)

掃描下方二維碼,馬上報(bào)名參會(huì)!

wKgZomVKO-CAemNiAAAUj1uo7-s184.png ? ? ? ?GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線(xiàn)上大會(huì)也將同期開(kāi)放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)。


原文標(biāo)題:利用 NVIDIA Jetson 實(shí)現(xiàn)生成式 AI

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3953

    瀏覽量

    93830

原文標(biāo)題:利用 NVIDIA Jetson 實(shí)現(xiàn)生成式 AI

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    研華NVIDIA Jetson Orin Nano系統(tǒng)支持Super Mode

    提升生成AI性能1.7倍 2025年春季— 研華科技,作為全球工業(yè)嵌入 AI 解決方案供應(yīng)商,宣布推出搭載
    發(fā)表于 03-10 14:07 ?390次閱讀
    研華<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> Orin Nano系統(tǒng)支持Super Mode

    NVIDIA Omniverse擴(kuò)展至生成物理AI領(lǐng)域

    NVIDIA近日宣布,其Omniverse?平臺(tái)再次實(shí)現(xiàn)重大突破,成功推出多個(gè)生成AI模型和藍(lán)圖,將Omniverse的應(yīng)用范圍進(jìn)一步擴(kuò)展
    的頭像 發(fā)表于 01-13 10:56 ?769次閱讀

    NVIDIA推出多個(gè)生成AI模型和藍(lán)圖

    NVIDIA 宣布推出多個(gè)生成 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理
    的頭像 發(fā)表于 01-08 10:48 ?640次閱讀

    NVIDIA發(fā)布高性?xún)r(jià)比生成AI超級(jí)計(jì)算機(jī)

    NVIDIA近日推出了一款全新的生成AI超級(jí)計(jì)算機(jī)——Jetson Orin Nano Super開(kāi)發(fā)者套件,這款超級(jí)計(jì)算機(jī)不僅體積小巧,
    的頭像 發(fā)表于 12-24 10:44 ?645次閱讀

    NVIDIA發(fā)布小巧高性?xún)r(jià)比的Jetson Orin Nano Super開(kāi)發(fā)者套件

    NVIDIA近期推出了一款全新的生成AI超級(jí)計(jì)算機(jī)——Jetson Orin Nano Super開(kāi)發(fā)者套件。這款開(kāi)發(fā)者套件以其小巧的尺寸
    的頭像 發(fā)表于 12-19 11:28 ?1092次閱讀

    NVIDIA 推出高性?xún)r(jià)比的生成 AI 超級(jí)計(jì)算機(jī)

    Jetson Orin Nano Super 可將生成 AI 性能提升至1.7 倍,支持科技愛(ài)好者、開(kāi)發(fā)者和學(xué)生使用的主流模型。 ? ? NVID
    發(fā)表于 12-18 17:01 ?724次閱讀
    <b class='flag-5'>NVIDIA</b> 推出高性?xún)r(jià)比的<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 超級(jí)計(jì)算機(jī)

    NVIDIA推出全新生成AI模型Fugatto

    NVIDIA 開(kāi)發(fā)了一個(gè)全新的生成 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂(lè)、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?826次閱讀

    NVIDIA助力Amdocs打造生成AI智能體

    Amdocs 是一家為通信和媒體提供商提供軟件與服務(wù)的領(lǐng)先供應(yīng)商。該公司構(gòu)建的 amAIz 特定領(lǐng)域生成 AI 平臺(tái)幫助電信公司深入改變了客戶(hù)體驗(yàn),實(shí)現(xiàn)了流程自動(dòng)化,并優(yōu)化了決策。A
    的頭像 發(fā)表于 11-19 14:48 ?913次閱讀

    初創(chuàng)公司借助NVIDIA Metropolis和Jetson提高生產(chǎn)線(xiàn)效率

    初創(chuàng)公司使用 NVIDIA Metropolis 視覺(jué) AIJetson 邊緣 AI 平臺(tái)提高生產(chǎn)線(xiàn)效率。
    的頭像 發(fā)表于 11-19 14:39 ?709次閱讀

    使用NVIDIA Jetson打造機(jī)器人導(dǎo)盲犬

    Selin Alara Ornek 是一名富有遠(yuǎn)見(jiàn)的高中生。她使用機(jī)器學(xué)習(xí)和 NVIDIA Jetson邊緣 AI 和機(jī)器人平臺(tái),為視障人士打造了機(jī)器人導(dǎo)盲犬。
    的頭像 發(fā)表于 11-09 13:51 ?767次閱讀

    NVIDIA AI助力SAP生成AI助手Joule加速發(fā)展

    在美國(guó)佛羅里達(dá)州奧蘭多舉行的 SAP Sapphire 大會(huì)上,NVIDIA 與這家企業(yè)軟件公司公布了搭載NVIDIA AI Enterprise軟件的生成
    的頭像 發(fā)表于 09-09 09:37 ?826次閱讀

    NVIDIA在加速計(jì)算和生成AI領(lǐng)域的創(chuàng)新

    在最新發(fā)布的公司 2024 財(cái)年可持續(xù)發(fā)展報(bào)告開(kāi)篇的一封信中,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛介紹了 NVIDIA 在加速計(jì)算和生成 AI
    的頭像 發(fā)表于 09-09 09:18 ?924次閱讀

    全新NVIDIA NIM微服務(wù)將生成AI引入數(shù)字環(huán)境

    生成物理 AI NIM 微服務(wù)以及 NVIDIA Metropolis 參考工作流旨在協(xié)助創(chuàng)建智能的沉浸工作環(huán)境。
    的頭像 發(fā)表于 08-02 15:20 ?932次閱讀

    NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成AI服務(wù)

    NVIDIA近日宣布了一項(xiàng)重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference
    的頭像 發(fā)表于 07-25 16:57 ?849次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護(hù)到評(píng)估的全方位生成 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDI
    發(fā)表于 07-24 09:39 ?920次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 模型