chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用遷移學(xué)習(xí)定制人工智能深度學(xué)習(xí)模型

星星科技指導(dǎo)員 ? 來(lái)源:星星科技指導(dǎo)員 ? 作者:星星科技指導(dǎo)員 ? 2022-04-01 09:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從頭開(kāi)始創(chuàng)建一個(gè)新的人工智能深度學(xué)習(xí)模型是一個(gè)非常耗費(fèi)時(shí)間和資源的過(guò)程。解決這個(gè)問(wèn)題的一個(gè)常見(jiàn)方法是采用遷移學(xué)習(xí)。為了使這一過(guò)程更加簡(jiǎn)單,NVIDIA TAO Toolkit,它可以將工程時(shí)間框架從 80 周縮短到 8 周。 TAO 工具包支持計(jì)算機(jī)視覺(jué)和對(duì)話 AI ( ASR 和 NLP )用例。

在本文中,我們將介紹以下主題:

  • 安裝 TAO 工具包并訪問(wèn)預(yù)訓(xùn)練模型
  • 微調(diào)預(yù)訓(xùn)練語(yǔ)音轉(zhuǎn)錄模型
  • 將微調(diào)模型導(dǎo)出到 NVIDIA Riva

跟隨download the Jupyter notebook。

安裝 TAO 工具包并下載預(yù)訓(xùn)練模型

在安裝 TAO 工具包之前,請(qǐng)確保您的系統(tǒng)上安裝了以下組件:

  • Python [3 . 6 . 9]
  • docker ce > 19 . 03 . 5
  • nvidia-DOCKR2 3 . 4 . 0-1

有關(guān)安裝 nvidia docker 和 docker 的更多信息,請(qǐng)參閱Prerequisites。您可以使用 pip 安裝 TAO 工具包。我們建議使用virtual environment以避免版本沖突。

pip3 install nvidia-pyindex pip3 install nvidia-tao

安裝完成后,下一步是獲得一些經(jīng)過(guò)預(yù)訓(xùn)練的模型。 NVIDIA 提供了許多人工智能或機(jī)器學(xué)習(xí)模型,不僅在對(duì)話人工智能領(lǐng)域,而且在 NGC 或 NVIDIA GPU 云上的廣泛領(lǐng)域。 NGC 目錄是一套精心策劃的 GPU 優(yōu)化軟件,用于 AI 、 HPC 和可視化。

要從 NGC 下載資源,請(qǐng)使用NGC API key登錄注冊(cè)表。您可以免費(fèi)創(chuàng)建和使用一個(gè)。

Screenshot of the API generation page.

圖 1 。獲取 NGCAPI 密鑰

CitriNet是由 NVIDIA 構(gòu)建的最先進(jìn)的自動(dòng)語(yǔ)音識(shí)別( ASR )模型,可用于生成語(yǔ)音轉(zhuǎn)錄。您可以從Speech to Text English Citrinet型號(hào)卡下載此型號(hào)。

wget https://api.ngc.nvidia.com/v2/models/nvidia/tao/speechtotext_english_citrinet/versions/trainable_v1.7/files/speechtotext_english_citrinet_1024.tlt

為了提供流暢的體驗(yàn),工具包在后臺(tái)下載并運(yùn)行 Docker 容器,使用前面提到的規(guī)范文件。所有細(xì)節(jié)都隱藏在 TAO 啟動(dòng)器中。您可以通過(guò)定義 JSON 文件~/.tao_mounts.json來(lái)指定裝載 Docker 容器的首選位置。您可以在Jupyter notebook中找到裝載文件。

{ "Mounts":[ { "source": "~/tao/data", "destination": "/data" # The location in which to store the dataset }, { "source": "~/tao/specs", "destination": "/specs" # The location in which to store the specification files }, { "source": "~/tao/results", "destination": "/results" # The location in which to store the results }, { "source": "~/.cache", "destination": "/root/.cache" } ], "DockerOptions":{ "shm_size": "16G", "ulimits": { "memlock": -1, "stack": 67108864 } } }

這樣,您就安裝了 TAO 工具包,下載了一個(gè)經(jīng)過(guò)預(yù)訓(xùn)練的 ASR 模型,并指定了 TAO 工具包啟動(dòng)器的安裝點(diǎn)。在下一節(jié)中,我們將討論如何使用 TAO 工具包在您選擇的數(shù)據(jù)集上微調(diào)此模型。

微調(diào)模型

使用 TAO 工具包微調(diào)模型包括三個(gè)步驟:

  1. 下載規(guī)范文件。
  2. 預(yù)處理數(shù)據(jù)集。
  3. 使用超參數(shù)進(jìn)行微調(diào)。

圖 3 顯示了微調(diào)模型所需的步驟。

For the ASR use case, there are three key steps: download specs, run preprocessing, and then fine-tune. Download the AN4 dataset and a .tlt model from NGC.

圖 2 。 TAO 工具包工作流

步驟 1 :下載規(guī)范文件

NVIDIA TAO Toolkit 是一種低代碼或無(wú)代碼的解決方案,通過(guò)規(guī)范文件簡(jiǎn)化模型的培訓(xùn)或微調(diào)。通過(guò)這些文件,您可以自定義特定于模型的參數(shù)、培訓(xùn)師參數(shù)、優(yōu)化器和所用數(shù)據(jù)集的參數(shù)??梢詫⑦@些規(guī)范文件下載到先前裝載的文件夾:

tao speech_to_text_citrinet download_specs \ -r /speech_to_text_citrinet \ -o < path to specs dir>/speech_to_text_citrinet

以下是 TAO 工具包附帶的 YAML 文件。有關(guān)更多信息,請(qǐng)參閱Downloading Sample Spec Files。

  • create_tokenizer.yaml
  • dataset_convert_an4.yaml
  • dataset_convert_en.yaml
  • dataset_convert_ru.yaml
  • evaluate.yaml
  • export.yaml
  • finetune.yaml
  • infer_onnx.yaml
  • infer.yaml
  • train_citrinet_256.yaml
  • train_citrinet_bpe.yaml

這些規(guī)范文件可供自定義和使用。從預(yù)處理和模型評(píng)估到推理和導(dǎo)出模型,都有相應(yīng)的功能。這使您能夠完成開(kāi)發(fā)或定制模型的過(guò)程,而無(wú)需構(gòu)建復(fù)雜的代碼庫(kù)。下載等級(jí)庫(kù)文件后,現(xiàn)在可以繼續(xù)預(yù)處理數(shù)據(jù)。

步驟 2 :預(yù)處理數(shù)據(jù)集

在本演練中,您將使用CMU’s AN4 Dataset,這是一個(gè)小型普查數(shù)據(jù)集,其中包含地址、數(shù)字和其他個(gè)人信息的記錄。這與客戶支持對(duì)話中對(duì)話的初始步驟所需的轉(zhuǎn)錄類型類似。具有類似內(nèi)容的較大自定義數(shù)據(jù)集可用于實(shí)際應(yīng)用程序。

您可以直接下載和解壓縮 AN4 數(shù)據(jù)集,或使用以下命令:

wget

http://www.speech.cs.cmu.edu/databases/an4/an4_sphere.tar.gz

tar -xvf an4_sphere.tar.gz

TAO 工具包培訓(xùn)和微調(diào)模塊期望數(shù)據(jù)以特定格式呈現(xiàn)??梢允褂?dataset _ convert 命令完成此預(yù)處理。我們將 AN4 和 Mozilla 的通用語(yǔ)音數(shù)據(jù)集的規(guī)范文件與 TAO 啟動(dòng)器一起打包。您可以在步驟 1 中定義的目錄中找到這些規(guī)范文件。

這些清單文件(圖 3 )包含在后面的步驟中使用的以下信息:

  • 音頻文件的路徑
  • 每個(gè)文件的持續(xù)時(shí)間
  • 每個(gè)文件的文字內(nèi)容
The manifest files specify three things, the path to the audio file, duration of the said file, and the exact transcription for the audio.

圖 3 。已處理清單文件的結(jié)構(gòu)

tao speech_to_text_citrinet dataset_convert \ -e /speech_to_text_citrinet/dataset_convert_an4.yaml \ -r /citrinet/dataset_convert \ source_data_dir= /an4 \ target_data_dir=/an4_converted

此命令將音頻文件轉(zhuǎn)換為 WAV 文件,并生成訓(xùn)練和測(cè)試清單文件。有關(guān)更多信息,請(qǐng)參閱Preparing the Dataset。

在大多數(shù)情況下,您都會(huì)進(jìn)行預(yù)處理,但 CitriNet 模型是一個(gè)特例。它需要以子詞標(biāo)記化的形式進(jìn)行進(jìn)一步處理,為文本創(chuàng)建子詞詞匯表。這與 Jasper 或 QuartzNet 不同,因?yàn)樵谒鼈兊那闆r下,詞匯表中只有單個(gè)字符被視為元素。在 CitriNet 中,子字可以是一個(gè)或多個(gè)字符。這可以使用以下命令完成:

tao speech_to_text_citrinet create_tokenizer \ -e /speech_to_text_citrinet/create_tokenizer.yaml \ -r /citrinet/create_tokenizer \ manifests=/an4_converted/train_manifest.json \ output_root=/an4 \ vocab_size=32

到目前為止,您已經(jīng)建立了一個(gè)工具,為諸如遷移學(xué)習(xí)之類的復(fù)雜問(wèn)題提供低代碼或無(wú)代碼解決方案。您已經(jīng)下載了一個(gè)預(yù)訓(xùn)練的模型,將音頻文件處理為必要的格式,并執(zhí)行了標(biāo)記化。您使用的命令不到 10 個(gè)?,F(xiàn)在,所有必要的細(xì)節(jié)都已散列出來(lái),您可以繼續(xù)微調(diào)模型。

步驟 3 :使用超參數(shù)進(jìn)行微調(diào)

正如在前面的步驟中所做的那樣,您正在與規(guī)范文件交互。有關(guān)更多信息,請(qǐng)參閱Creating an Experiment Spec File。如果要調(diào)整 FFT 窗口大小的大小,可以指定幾乎所有內(nèi)容,從特定于訓(xùn)練的參數(shù)(如優(yōu)化器)到特定于數(shù)據(jù)集的參數(shù),再到模型配置本身。

是否要更改學(xué)習(xí)速率和調(diào)度程序,或者在詞匯表中添加新字符?無(wú)需打開(kāi)代碼庫(kù)并對(duì)其進(jìn)行掃描以進(jìn)行更改。所有這些定制都很容易獲得,并可在整個(gè)團(tuán)隊(duì)中共享。這減少了在嘗試新想法和分享結(jié)果以及模型配置方面的摩擦,從而提高了準(zhǔn)確性。

以下是如何微調(diào)培訓(xùn)師:

trainer: max_epochs: 3 # This is low for demo purposes tlt_checkpoint_interval: 1 change_vocabulary: true

以下是如何微調(diào)標(biāo)記器:

tokenizer: dir: /path/to/subword/vocabulary type: "bpe" # Can be either bpe or wpe

以下是如何微調(diào)優(yōu)化器:

optim: name: novograd lr: 0.01 betas: [0.8, 0.5] weight_decay: 0.001 sched: name: CosineAnnealing warmup_steps: null warmup_ratio: null min_lr: 0.0 last_epoch: -1

以下是如何微調(diào)數(shù)據(jù)集:

# Fine-tuning settings: validation dataset validation_ds: manifest_filepath: /path/to/manifest/file/ sample_rate: 16000 labels: [" ", "a", "b", "c", "d", "e", "f", "g", "h", "i", "j", "k", "l", "m", "n", "o", "p", "q", "r", "s", "t", "u", "v", "w", "x", "y", "z", "'"] batch_size: 32 shuffle: false finetuning_ds: manifest_filepath: ??? sample_rate: 160000 labels: [" ", "a", "b", "c", "d", "e", "f", "g", "h", "i", "j", "k", "l", "m", "n", "o", "p", "q", "r", "s", "t", "u", "v", "w", "x", "y", "z", "'"] batch_size: 32 trim_silence: true max_duration: 16.7 shuffle: true is_tarred: false tarred_audio_filepaths: null

最后,要繼續(xù),請(qǐng)根據(jù)需要修改規(guī)范文件并運(yùn)行以下命令。此命令使用先前下載的數(shù)據(jù)集微調(diào)下載的模型。有關(guān)更多信息,請(qǐng)參閱Fine-Tuning the Model。

tao speech_to_text_citrinet finetune \ -e $SPECS_DIR/speech_to_text_citrinet/finetune.yaml \ -g 1 \ -k \ -m /speechtotext_english_citrinet_1024.tlt \ -r $RESULTS_DIR/citrinet/finetune \ finetuning_ds.manifest_filepath=$DATA_DIR/an4_converted/train_manifest.json \ validation_ds.manifest_filepath=$DATA_DIR/an4_converted/test_manifest.json \ trainer.max_epochs=1 \ finetuning_ds.num_workers=1 \ validation_ds.num_workers=1 \ trainer.gpus=1 \ tokenizer.dir=$DATA_DIR/an4/tokenizer_spe_unigram_v32

在對(duì)模型進(jìn)行微調(diào)或培訓(xùn)后,自然會(huì)評(píng)估模型并評(píng)估是否需要進(jìn)一步微調(diào)。為此, NVIDIA 為evaluate your model和run inference提供了功能。

將微調(diào)模型導(dǎo)出到 Riva

在生產(chǎn)環(huán)境中部署模型會(huì)帶來(lái)一系列挑戰(zhàn)。為此,您可以使用NVIDIA Riva,一種 GPU 加速 AI 語(yǔ)音 SDK 來(lái)開(kāi)發(fā)實(shí)時(shí)轉(zhuǎn)錄和虛擬助理等應(yīng)用程序。

Riva 使用其他 NVIDIA 產(chǎn)品:

  • NVIDIA Triton Inference Server用于簡(jiǎn)化大規(guī)模生產(chǎn)中模型的部署。
  • NVIDIA TensorRT用于通過(guò)優(yōu)化 NVIDIA GPU s 的模型來(lái)加速模型并提供更好的推理性能。

如果您對(duì)使用本演練中微調(diào)的模型感興趣,可以使用以下命令將其導(dǎo)出到 Riva 。有關(guān)更多信息,請(qǐng)參閱Model Export。

tao speech_to_text_citrinet export \ -e /speech_to_text_citrinet/export.yaml \ -g 1 \ -k \ -m /citrinet/train/checkpoints/trained-model.tlt \ -r /citrinet/riva \ export_format=RIVA \ export_to=asr-model.riva

在下一篇文章中,我們將介紹如何安裝 NVIDIA Riva 在生產(chǎn)環(huán)境中部署這些模型,以及如何使用NGC Catalog中的眾多模型之一。

關(guān)于作者

About Tanay Varshney
Tanay Varshney 是 NVIDIA 的一名深入學(xué)習(xí)的技術(shù)營(yíng)銷工程師,負(fù)責(zé)廣泛的 DL 軟件產(chǎn)品。他擁有紐約大學(xué)計(jì)算機(jī)科學(xué)碩士學(xué)位,專注于計(jì)算機(jī)視覺(jué)、數(shù)據(jù)可視化和城市分析的橫斷面。

About Sirisha Rella
Sirisha Rella 是 NVIDIA 的技術(shù)產(chǎn)品營(yíng)銷經(jīng)理,專注于計(jì)算機(jī)視覺(jué)、語(yǔ)音和基于語(yǔ)言的深度學(xué)習(xí)應(yīng)用。 Sirisha 獲得了密蘇里大學(xué)堪薩斯城分校的計(jì)算機(jī)科學(xué)碩士學(xué)位,是國(guó)家科學(xué)基金會(huì)大學(xué)習(xí)中心的研究生助理。

審核編輯:符乾江

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5496

    瀏覽量

    109110
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49746

    瀏覽量

    261602
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    的框架小 10 倍,速度也快 10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹這對(duì)開(kāi)發(fā)人員意味著什么,以及使用 Neuton 模型如何改進(jìn)您的開(kāi)發(fā)和終端
    發(fā)表于 08-31 20:54

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?3923次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門(mén)課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門(mén)課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)
    發(fā)表于 08-07 14:23

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    人工智能學(xué)習(xí)17問(wèn):從入門(mén)到避坑,新手最關(guān)心的問(wèn)題全在這

    問(wèn):學(xué)人工智能,光看書(shū)就行?答:不行。AI是“練出來(lái)”的,不是“看出來(lái)”的。書(shū)能教理論,但寫(xiě)代碼、調(diào)模型、解決實(shí)際問(wèn)題的能力,必須靠動(dòng)手練。利用學(xué)習(xí)平臺(tái)把書(shū)本知識(shí)拆解成可操作的步驟,跟著練3次,比看
    的頭像 發(fā)表于 07-30 14:18 ?481次閱讀
    <b class='flag-5'>人工智能</b><b class='flag-5'>學(xué)習(xí)</b>17問(wèn):從入門(mén)到避坑,新手最關(guān)心的問(wèn)題全在這

    人工智能技術(shù)的現(xiàn)狀與未來(lái)發(fā)展趨勢(shì)

    人工智能技術(shù)的現(xiàn)狀與未來(lái)發(fā)展趨勢(shì) ? ? 近年來(lái),人工智能(AI)技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。從計(jì)算機(jī)視覺(jué)到自然語(yǔ)言處理,從自動(dòng)駕駛到醫(yī)療診斷,AI的應(yīng)用場(chǎng)景不斷擴(kuò)展,推動(dòng)社會(huì)向智能化方向邁進(jìn)
    的頭像 發(fā)表于 07-16 15:01 ?1197次閱讀

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門(mén)學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無(wú)論是探索未來(lái)職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的
    發(fā)表于 07-04 11:10

    邊緣計(jì)算如何顛覆人工智能變革

    2025年以來(lái),DeepSeek發(fā)布的大模型熱度居高不下,再次點(diǎn)燃了全球?qū)?b class='flag-5'>人工智能的無(wú)限熱情。深度學(xué)習(xí)模型以指數(shù)級(jí)速度膨脹,性能不斷突破極限
    的頭像 發(fā)表于 05-30 09:29 ?836次閱讀

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    RaspberryPi4上運(yùn)行TensorFlow,但不要期望有奇跡般的表現(xiàn)。如果模型不太復(fù)雜,它可以運(yùn)行您的模型,但無(wú)法訓(xùn)練新模型,也無(wú)法執(zhí)行所謂的遷移
    的頭像 發(fā)表于 03-25 09:33 ?968次閱讀
    用樹(shù)莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變
    的頭像 發(fā)表于 02-14 11:15 ?825次閱讀

    小白學(xué)解釋性AI:從機(jī)器學(xué)習(xí)到大模型

    科學(xué)AI需要可解釋性人工智能的崛起,尤其是深度學(xué)習(xí)的發(fā)展,在眾多領(lǐng)域帶來(lái)了令人矚目的進(jìn)步。然而,伴隨這些進(jìn)步而來(lái)的是一個(gè)關(guān)鍵問(wèn)題——“黑箱”問(wèn)題。許多人工智能
    的頭像 發(fā)表于 02-10 12:12 ?1153次閱讀
    小白學(xué)解釋性AI:從機(jī)器<b class='flag-5'>學(xué)習(xí)</b>到大<b class='flag-5'>模型</b>

    數(shù)學(xué)專業(yè)轉(zhuǎn)人工智能方向:考研/就業(yè)前景分析及大學(xué)四年學(xué)習(xí)路徑全揭秘

    隨著AI技術(shù)的不斷進(jìn)步,專業(yè)人才的需求也日益增長(zhǎng)。數(shù)學(xué)作為AI的基石,為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、數(shù)據(jù)分析等提供了理論基礎(chǔ)和工具,因此越來(lái)越多的數(shù)學(xué)專業(yè)學(xué)生開(kāi)始考慮在人工智能領(lǐng)域發(fā)展。本文主
    的頭像 發(fā)表于 02-07 11:14 ?1704次閱讀
    數(shù)學(xué)專業(yè)轉(zhuǎn)<b class='flag-5'>人工智能</b>方向:考研/就業(yè)前景分析及大學(xué)四年<b class='flag-5'>學(xué)習(xí)</b>路徑全揭秘

    人工智能和機(jī)器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    人工智能相關(guān)各種技術(shù)的概念介紹,以及先進(jìn)的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能和機(jī)器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù) 人工智能
    的頭像 發(fā)表于 01-25 17:37 ?1582次閱讀
    <b class='flag-5'>人工智能</b>和機(jī)器<b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的概念與應(yīng)用

    啟明云端攜手文心大模型,共探人工智能新紀(jì)元

    人工智能的浪潮中,大模型技術(shù)以其強(qiáng)大的數(shù)據(jù)處理能力和深度學(xué)習(xí)能力,正成為推動(dòng)產(chǎn)業(yè)升級(jí)和創(chuàng)新的核心引擎。12月19日,文心中國(guó)行走進(jìn)廣州,啟明云端作為文心大
    的頭像 發(fā)表于 12-20 15:58 ?1048次閱讀
    啟明云端攜手文心大<b class='flag-5'>模型</b>,共探<b class='flag-5'>人工智能</b>新紀(jì)元