chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Zero-Shot的多語言抽取式文本摘要模型

深度學(xué)習(xí)自然語言處理 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-07-08 10:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這項(xiàng)研究旨在解決零樣本下法語、德語、西班牙語、俄語和土耳其語等多語種的抽取式摘要任務(wù),并在多語言摘要數(shù)據(jù)集 MLSUM 上大幅提升了基線模型的分?jǐn)?shù)。

抽取式文本摘要目前在英文上已經(jīng)取得了很好的性能,這主要得益于大規(guī)模預(yù)訓(xùn)練語言模型和豐富的標(biāo)注語料。但是對(duì)于其他小語種語言,目前很難得到大規(guī)模的標(biāo)注數(shù)據(jù)。

中國科學(xué)院信息工程研究所和微軟亞洲研究院聯(lián)合提出一種是基于 Zero-Shot 的多語言抽取式文本摘要模型。具體方法是使用在英文上預(yù)訓(xùn)練好的抽取式文本摘要模型來在其他低資源語言上直接進(jìn)行摘要抽取;并針對(duì)多語言 Zero-Shot 中的單語言標(biāo)簽偏差問題,提出了多語言標(biāo)簽(Multilingual Label)標(biāo)注算法和神經(jīng)標(biāo)簽搜索模型(Neural Label Search for Summarization, NLSSum)。

實(shí)驗(yàn)結(jié)果表明,模型 NLSSum 在多語言摘要數(shù)據(jù)集 MLSUM 的所有語言上大幅度超越 Baseline 模型的分?jǐn)?shù)。其中在俄語(Ru)數(shù)據(jù)集上,零樣本模型性能已經(jīng)接近使用全量監(jiān)督數(shù)據(jù)得到的模型。

該研究發(fā)表在了 ACL 2022 會(huì)議主會(huì)長文上。

47f1a78c-f928-11ec-ba43-dac502259ad0.png

引言

隨著 BERT 在自然語言處理領(lǐng)域的發(fā)展,在大規(guī)模無標(biāo)注數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練的模式得到了廣泛的關(guān)注。

近些年,有很多研究工作在多種語言的無標(biāo)簽語料上進(jìn)行訓(xùn)練,從而得到了支持多種語言的預(yù)訓(xùn)練模型。這些基于多語言文本的預(yù)訓(xùn)練模型能夠在跨語言的下游任務(wù)上取得很好的性能,例如 mBERT、XLM 和 XLMR。對(duì)于基于 Zero-Shot 的多語言任務(wù),上述的多語言模型也能取得不錯(cuò)的效果。其中,XLMR 模型的 Zero-Shot 效果在 XNLI 數(shù)據(jù)集上已經(jīng)能夠達(dá)到其他模型 Fine-tune 的水平。因此這為我們?cè)诔槿∈轿谋菊蝿?wù)上進(jìn)行基于 Zero-Shot 的探索提供了基礎(chǔ)。

在單語言的抽取式文本摘要中,數(shù)據(jù)集通常只含有原始文檔和人工編寫的摘要,因此需要使用基于貪心算法的句子標(biāo)簽標(biāo)注算法來對(duì)原文中的每句話進(jìn)行標(biāo)注。但這種算法是面向單語言的標(biāo)注方法,得到的結(jié)果會(huì)產(chǎn)生單語言標(biāo)簽偏差問題,在多語言的任務(wù)上仍然需要優(yōu)化。下面的圖表展示的就是單語言標(biāo)簽偏差問題。

498ef6b2-f928-11ec-ba43-dac502259ad0.png

▲表1. 多語言 Zero-Shot 中的單語言標(biāo)簽偏差問題

如上表 1 樣例所示,這個(gè)例子是摘要領(lǐng)域目前最常見的 CNN/DM 數(shù)據(jù)集中選取的部分文檔。CNN/DM 是一個(gè)英文數(shù)據(jù)集,示例中上半部分的即為原始文檔中的英文表示和人工編寫的英文摘要;示例中的下半部分是使用微軟開源的工業(yè)級(jí)翻譯模型 Marian,將英文的文檔和摘要全部翻譯為德語。示例中的這句話和人工編寫的摘要具有較高的相似性,因此會(huì)得到較高的 ROUGE 分?jǐn)?shù)。

但是對(duì)于翻譯成德語的文檔句子和摘要,我們發(fā)現(xiàn)兩者的相似性較低,對(duì)應(yīng)的 ROUGE 分?jǐn)?shù)也會(huì)較低。這種情況下,使用英語語言環(huán)境下標(biāo)注的標(biāo)簽直接訓(xùn)練的多語言文本摘要模型,在其他語言的語言環(huán)境中并不是最優(yōu)的。

上述實(shí)例表明同一個(gè)句子在不同語言環(huán)境下會(huì)存在標(biāo)簽偏差的問題,也就是目前的貪心算標(biāo)注標(biāo)簽的方式無法滿足基于 Zero-Shot 的多語言文本摘要任務(wù)。

為了解決上述基于 Zero-Shot 的多語言抽取式文本摘要中單語言標(biāo)簽偏置的問題,我們提出了一種多語言標(biāo)簽算法。在原來單語言標(biāo)簽的基礎(chǔ)上,通過使用翻譯和雙語詞典的方式在 CNN/DM 數(shù)據(jù)集上構(gòu)造出另外幾組多語言交互的句子標(biāo)簽。對(duì)于這幾組語言標(biāo)簽,設(shè)計(jì)出神經(jīng)語言標(biāo)簽搜索模型 (NLSSum) 來充分利用它們對(duì)抽取式摘要模型進(jìn)行監(jiān)督學(xué)習(xí)。

在 NLSSum 模型中,使用層次級(jí)的權(quán)重來對(duì)這幾組標(biāo)簽進(jìn)行句子級(jí)別 (Sentence-Level) 和組級(jí)別 (Set-Level) 的權(quán)重賦值。在抽取式模型的訓(xùn)練期間, Sentence-Level 和 Set-Level 權(quán)重預(yù)測器是和摘要抽取器一起在英文標(biāo)注語料上進(jìn)行訓(xùn)練的。模型推斷測試的時(shí)候,在其他語言上只使用摘要抽取器來進(jìn)行摘要抽取。

技術(shù)概覽

我們針對(duì)基于 Zero-Shot 多語言摘要任務(wù)中的單語言標(biāo)簽偏移問題,提出了神經(jīng)標(biāo)簽搜索模型來對(duì)多語言標(biāo)簽使用神經(jīng)網(wǎng)絡(luò)搜索其權(quán)重,并使用加權(quán)后的標(biāo)簽監(jiān)督抽取式摘要器。具體的流程分為以下五步:

多語言數(shù)據(jù)增強(qiáng):這里的目前是將原始英文文檔用翻譯、雙語詞典換等方式來減少和目標(biāo)語言之間的偏差;

多語言標(biāo)簽:我們的抽取式摘要模型最終是通過多語言標(biāo)簽來進(jìn)行監(jiān)督的,其中多語言標(biāo)簽總共包含 4 組標(biāo)簽,這 4 組標(biāo)簽都是根據(jù)不同的策略來標(biāo)注的;

神經(jīng)標(biāo)簽搜索:在這步中為不同組標(biāo)簽設(shè)計(jì)了層次級(jí)的權(quán)重預(yù)測,包括句子級(jí)別 (Sentence-Level) 和組級(jí)別 (Set-Level),最終使用加權(quán)的標(biāo)簽來對(duì)抽取式摘要模型進(jìn)行監(jiān)督;

微調(diào)訓(xùn)練 / Fine-Tunig:使用增強(qiáng)的文檔數(shù)據(jù)和加權(quán)平均的多語言標(biāo)簽來 Fine-Tune 神經(jīng)摘要抽取模型;

基于 Zero-Shot 的多語言摘要抽?。菏褂迷谟⑽臉?biāo)注數(shù)據(jù)上訓(xùn)練完的模型可以直接在低資源語言的文檔上進(jìn)行摘要句子抽取。

49bab4fa-f928-11ec-ba43-dac502259ad0.png

▲圖1:多語言標(biāo)簽

如上圖 1 所示,在原始英文文檔 D 和人工編寫摘要 s 上設(shè)計(jì)出四組多語言標(biāo)簽 (Ua,Ub,Uc,Ud),具體的構(gòu)造方法如下所示:

1. 標(biāo)簽集合 Ua:定義 Ua=GetPosLabel (D,s) 為使用文檔 D 和人工編寫摘要 s 使用貪心算法得到的抽取為摘要的句子集合,其中 GetPosLabel 返回的是標(biāo)簽為 1 的句子的索引。使用 (D,s) 得到的是英文文檔上的到的摘要句子,這個(gè)結(jié)果對(duì)于其他語言來說并不是最優(yōu)的,因此我們還設(shè)計(jì)了另外三組標(biāo)簽。

2. 標(biāo)簽集合 Ub:首先將英文原始文檔和人工編寫摘要都使用機(jī)器翻譯模型 MarianMT 將其翻譯為目標(biāo)語言,標(biāo)記為 DMT 和 sMT,然后使用 Ub=GetPosLabel (DMT,sMT) 的方式得到翻譯后文檔上摘要句子的索引集合。這種借助于機(jī)器翻譯模型的方法相當(dāng)于使用目標(biāo)語言的句法結(jié)構(gòu)來表達(dá)原始英文的語義,因此得到的摘要句子能反應(yīng)出目標(biāo)語言句法結(jié)構(gòu)對(duì)摘要信息的偏重。

3. 標(biāo)簽集合 Uc:在這組標(biāo)簽的構(gòu)造中,首先將原始英文文檔自動(dòng)翻譯為目標(biāo)語言 DMT,然后將人工編寫的英文摘要使用雙語詞典替換為目標(biāo)語言 SWR (將所有摘要中的詞都進(jìn)行替換),然后我們使用 Uc=GetPosLabel (DMT,SWR) 的方式得到翻譯和詞替換方式交互的摘要句子索引集合。這種方法將原始文檔使用機(jī)器翻譯來替換句法結(jié)構(gòu),摘要使用雙語詞典翻譯來保留原始語言句法結(jié)構(gòu)同時(shí)和文檔語言保持一直,因此能夠得到目標(biāo)語言和原始語言之間句法結(jié)構(gòu)在抽取摘要句子上的交互。

4. 標(biāo)簽集合 Ud:這個(gè)方法中,文檔使用的是原始英文文檔 D;摘要先經(jīng)過機(jī)器翻譯轉(zhuǎn)換到目標(biāo)語言,然后經(jīng)過雙語詞典進(jìn)行詞替換轉(zhuǎn)換回英語,使用 S′來表示。最終我們使用 Ud=GetPosLabel (D,S′) 來得到抽取式摘要句子標(biāo)簽集合。在這種方法中,原始文檔保持不變,摘要?jiǎng)t是使用目標(biāo)語言的句法結(jié)構(gòu),因此能夠再次得到目標(biāo)語言和原始語言之間句法結(jié)構(gòu)在抽取摘要句子上的交互。

需要注意的是,使用 GetPosLabel (D,S) 的時(shí)候,要保證 D 和 S 是同種語言的表示,因?yàn)榛谪澬乃惴ǖ臉?biāo)簽標(biāo)注算法本質(zhì)上是對(duì)詞語級(jí)別進(jìn)行匹配。另外,還有很多種構(gòu)造多語言標(biāo)簽的方法,我們只是選取了幾組有代表性的方法。這些方法中使用的機(jī)器翻譯模型和雙語詞典替換可能會(huì)引入額外的誤差,因此需要為這幾組標(biāo)簽學(xué)習(xí)合適的權(quán)重。

如下圖 2 所示,對(duì)于已經(jīng)得到的幾組多語言標(biāo)簽 (Ua,Ub,Uc,Ud),需要設(shè)計(jì)神經(jīng)標(biāo)簽搜索的模型來對(duì)不同組的標(biāo)簽設(shè)置權(quán)重。權(quán)重包含兩部分,句子級(jí)別 (Sentence-Level) 和組級(jí)別 (Set-Level)。對(duì)應(yīng)這兩個(gè)級(jí)別的權(quán)重,我們分別定義兩個(gè)權(quán)重預(yù)測器,句子級(jí)別權(quán)重預(yù)測 Transformeralpha 和組級(jí)別權(quán)重預(yù)測 Transformerbeta。

49da9a90-f928-11ec-ba43-dac502259ad0.png

▲圖2:多語言神經(jīng)標(biāo)簽搜索摘要模型

實(shí)驗(yàn)結(jié)果

NLSSum 是通過神經(jīng)搜索的方式來對(duì) MultilingualLabel 中不同標(biāo)簽集合賦予不同的權(quán)重,并最終得到加權(quán)平均的標(biāo)簽。使用這種最終的標(biāo)簽在英文數(shù)據(jù)集上訓(xùn)練抽取式摘要模型。和單語言標(biāo)簽相比,多語言標(biāo)簽中存在更多的跨語言語義和語法信息,因此本文的模型能夠在 Baseline 基礎(chǔ)上獲得較大的提升。

如下表 2 所示,實(shí)驗(yàn)使用的數(shù)據(jù)集包括 CNN/DM 和 MLSUM,具體數(shù)據(jù)集描述如表 6.2 所示。MLSUM 是第一個(gè)大規(guī)模的多語言文本摘要數(shù)據(jù)集,它從新網(wǎng)網(wǎng)站上爬取了 150 萬條文檔和摘要,包含五種語言:法語 (French,F(xiàn)r)、德語 (German,De)、西班牙語 (Spanish,ES)、俄語 (Russian,Ru) 和土耳其語 (Turkish,Tr)。MLSUM 是在測試推斷的時(shí)候驗(yàn)證 Zero-Shot 多語言模型的跨語言遷移能力。在訓(xùn)練階段使用的是文本摘要領(lǐng)域最常見的 CNN/DM 英文數(shù)據(jù)集。

4a02006c-f928-11ec-ba43-dac502259ad0.png

▲表2:MLSUM 數(shù)據(jù)集上的 ROUGE 結(jié)果

這里對(duì) MLSUM 數(shù)據(jù)集上各個(gè)基線模型的的 ROUGE 結(jié)果進(jìn)行對(duì)比。表格總共分為三部分。

第一部分展示的是 Oracle 和 Lead 這些簡單的基線模型;

第二部分展示的是基于監(jiān)督學(xué)習(xí)的一些基線模型,其中 (TrainAll) 是在所有語言的數(shù)據(jù)集上進(jìn)行訓(xùn)練,(TrainOne) 是在每個(gè)語言的數(shù)據(jù)集上單獨(dú)訓(xùn)練;

第三部分展示的是無監(jiān)督學(xué)習(xí)的結(jié)果,所有的模型都是只在英文數(shù)據(jù)集上進(jìn)行訓(xùn)練。

其中,根據(jù)第二部分的結(jié)果很容易發(fā)現(xiàn),在監(jiān)督學(xué)習(xí)中,基于生成式的摘要方式比抽取式的更加合適。在第三部分中,基線模型 XLMRSum 的性能能夠超越生成式模型的 MARGE,這說明無監(jiān)督學(xué)習(xí)中使用抽取式方法更加合適。

另外,當(dāng)使用機(jī)器翻譯和雙語詞典替換來對(duì)原始文檔進(jìn)行數(shù)據(jù)增強(qiáng)的時(shí)候 (基線模型 XLMRSum-MT 和 XLMRSum-WR),可以發(fā)現(xiàn) XLMRSum-MT 模型會(huì)帶來模型性能下降,而 XLMRSum-WR 會(huì)帶來性能的提升,因此最終的模型中數(shù)據(jù)增強(qiáng)選擇的是基于雙語詞典的詞替換方式。

因此對(duì)于我們 NLSSum 模型,我們同樣有兩種配置,NLSSum-Sep是將 CNN/DM 單獨(dú)詞替換為對(duì)應(yīng)的一種目標(biāo)語言并進(jìn)行微調(diào)訓(xùn)練;NLSSum是 CNN/DM 詞分別替換為所有的目標(biāo)語言并在所有語言的替換后的數(shù)據(jù)集上進(jìn)行微調(diào)訓(xùn)練。

最終結(jié)果顯示,在所有語言上進(jìn)行訓(xùn)練的 NLSSum 效果更好。從表格中我們可以總結(jié)出以下結(jié)論:

基于翻譯模型的輸入數(shù)據(jù)增強(qiáng)會(huì)引入誤差,所以應(yīng)該避免在輸入中使用翻譯模型;相反,雙語詞典的詞替換方式是一個(gè)不錯(cuò)的數(shù)據(jù)增強(qiáng)方法;

標(biāo)簽的構(gòu)造過程中不涉及模型輸入,所以可以使用機(jī)器翻譯模型來輔助標(biāo)簽生成。

如下圖 3 所示,通過可視化分析進(jìn)一步研究不同語言間重要信息的分布位置,從中可以看出英文語言中重要信息分布較為靠前,而其他語言中的重要信息則比較分散,這也是多語言標(biāo)簽?zāi)軌蛱嵘P托阅苤匾颉?/p>

4a283f84-f928-11ec-ba43-dac502259ad0.png

▲圖3:不同語言中摘要句子的分布位置

未來研究將關(guān)注于:1. 尋找更加合理的多語言句子級(jí)別標(biāo)簽標(biāo)注算法;2. 研究如何提升低資源語言摘要結(jié)果,同時(shí)不降低英語語料上的結(jié)果。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6741

    瀏覽量

    107841
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7335

    瀏覽量

    94748
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26187

原文標(biāo)題:ACL2022 | 基于神經(jīng)標(biāo)簽搜索的零樣本多語言抽取式文本摘要

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    RK平臺(tái)ROS2適配全指南:從編譯到運(yùn)行,手把手搞定嵌入機(jī)器人開發(fā)

    Operating System 2)作為新一代機(jī)器人操作系統(tǒng),在分布通信、實(shí)時(shí)性、多語言支持上的升級(jí),更是嵌入機(jī)器人開發(fā)的核心框架。
    的頭像 發(fā)表于 02-06 16:42 ?3348次閱讀
    RK平臺(tái)ROS2適配全指南:從編譯到運(yùn)行,手把手搞定嵌入<b class='flag-5'>式</b>機(jī)器人開發(fā)

    什么是大模型,智能體...?大模型100問,快速全面了解!

    ,LLM)是大模型中最主要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進(jìn)行預(yù)訓(xùn)練,學(xué)會(huì)
    的頭像 發(fā)表于 02-02 16:36 ?888次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    京東多語言質(zhì)量解決方案

    一、業(yè)界多語言面臨的通用挑戰(zhàn)是什么 做這個(gè)事之前,我們先看看業(yè)界做了什么。 ??阿里巴巴全球化測試技術(shù)介紹? ??螞蟻全球化無線端質(zhì)量解決方案? ??談?wù)?b class='flag-5'>多語言測試? 總結(jié)下來,需要面臨3個(gè)通用
    的頭像 發(fā)表于 01-13 16:18 ?913次閱讀
    京東<b class='flag-5'>多語言</b>質(zhì)量解決方案

    使用 Docker 一鍵部署 PaddleOCR-VL: 新手保姆級(jí)教程

    ? PaddleOCR-VL 是基于輕量級(jí)視覺語言模型(VLM)的文檔解析解決方案,核心模型為 PaddleOCR-VL-0.9B,支持多語言文本
    的頭像 發(fā)表于 12-18 18:26 ?6415次閱讀
    使用 Docker 一鍵部署 PaddleOCR-VL: 新手保姆級(jí)教程

    ElfBoard技術(shù)貼|如何在【RK3588】ELF 2開發(fā)板上完成PPOC本地化部署

    PPOCR是由百度開發(fā)的一款開源深度學(xué)習(xí)OCR(光學(xué)字符識(shí)別)模型,專注于文本檢測、識(shí)別與理解任務(wù),具備多場景、多語言的字符識(shí)別能力。該模型基于大規(guī)模多樣化的
    的頭像 發(fā)表于 11-14 10:54 ?7189次閱讀
    ElfBoard技術(shù)貼|如何在【RK3588】ELF 2開發(fā)板上完成PPOC本地化部署

    阿里巴巴國際站關(guān)鍵字搜索 API 實(shí)戰(zhàn):3 步搞定多語言適配 + 限流破局,詢盤量提升 40%

    跨境電商API開發(fā)常陷合規(guī)、多語言、限流等坑。本文詳解從國際合規(guī)(GDPR/CCPA)到參數(shù)優(yōu)化、數(shù)據(jù)結(jié)構(gòu)化及區(qū)域化搜索的全鏈路方案,附Python代碼模板與緩存重試架構(gòu),助力提升調(diào)用成功率至99%+,精準(zhǔn)詢盤增長42%。
    的頭像 發(fā)表于 10-20 14:44 ?1701次閱讀

    速賣通全球運(yùn)營利器:商品詳情接口多語言 + 合規(guī) + 物流適配技術(shù)全解析

    速賣通全球化適配是跨境成功關(guān)鍵!本文詳解2025最新接口方案,涵蓋多語言智能翻譯、合規(guī)自動(dòng)校驗(yàn)、物流精準(zhǔn)推薦與性能優(yōu)化四大模塊,助力商家提升轉(zhuǎn)化率30%+,降低風(fēng)險(xiǎn),提效80%。附實(shí)操代碼與新手三步走策略,適合所有想出海的賣家。
    的頭像 發(fā)表于 10-16 09:30 ?526次閱讀
    速賣通全球運(yùn)營利器:商品詳情接口<b class='flag-5'>多語言</b> + 合規(guī) + 物流適配技術(shù)全解析

    AI智能大模型,你身邊的最好用的辦公提效小能手

    幾十億到數(shù)萬億; 任務(wù)廣:一次訓(xùn)練可以支持多個(gè)任務(wù),具備通用能力; 適應(yīng)快:只需少量樣例,就能遷移到新任務(wù)中(Few-shot、Zero-shot)。 訊維AI智能大模型訓(xùn)練流程包含以下幾個(gè)步驟: 1.收集數(shù)據(jù):包括書籍、百科、
    的頭像 發(fā)表于 09-30 10:59 ?327次閱讀

    小語種OCR標(biāo)注效率提升10+倍:PaddleOCR+ERNIE 4.5自動(dòng)標(biāo)注實(shí)戰(zhàn)解析

    與一致性校驗(yàn),實(shí)現(xiàn)高精度、低成本的小語種OCR訓(xùn)練數(shù)據(jù)生成。該方案將數(shù)據(jù)準(zhǔn)備周期 從數(shù)周縮短至數(shù)小時(shí) ,為小語種模型的快速迭代與冷啟動(dòng)提供了全新范式 一、引言:小語種OCR的“數(shù)據(jù)之困” 在跨境支付、多語言文檔處理、全球化應(yīng)用本地化等場景中,小語種(如俄
    的頭像 發(fā)表于 08-29 11:26 ?3633次閱讀
    小語種OCR標(biāo)注效率提升10+倍:PaddleOCR+ERNIE 4.5自動(dòng)標(biāo)注實(shí)戰(zhàn)解析

    EASY EAl Orin Nano(RK3576) whisper語音識(shí)別訓(xùn)練部署教程

    1Whisper簡介Whisper是OpenAI開源的,識(shí)別語音識(shí)別能力已達(dá)到人類水準(zhǔn)自動(dòng)語音識(shí)別系統(tǒng)。Whisper作為一個(gè)通用的語音識(shí)別模型,它使用了大量的多語言和多任務(wù)的監(jiān)督數(shù)據(jù)來訓(xùn)練,能夠在
    的頭像 發(fā)表于 07-25 15:21 ?849次閱讀
    EASY EAl Orin Nano(RK3576) whisper語音識(shí)別訓(xùn)練部署教程

    EASY EAl Orin Nano(RK3576) whisper語音識(shí)別訓(xùn)練部署教程

    Whisper是OpenAI開源的,識(shí)別語音識(shí)別能力已達(dá)到人類水準(zhǔn)自動(dòng)語音識(shí)別系統(tǒng)。Whisper作為一個(gè)通用的語音識(shí)別模型,它使用了大量的多語言和多任務(wù)的監(jiān)督數(shù)據(jù)來訓(xùn)練,能夠在英語語音識(shí)別上達(dá)到接近人類水平的魯棒性和準(zhǔn)確性。
    的頭像 發(fā)表于 07-17 14:55 ?1754次閱讀
    EASY EAl Orin Nano(RK3576) whisper語音識(shí)別訓(xùn)練部署教程

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發(fā)布并全部開源8款混合推理模型。作為Qwen系列中的最新一代大型語言模型,Qwen3在推理、指令遵循、工具調(diào)用、多語言能力等方面實(shí)現(xiàn)全面增強(qiáng)。
    的頭像 發(fā)表于 05-06 15:17 ?1149次閱讀

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言
    的頭像 發(fā)表于 04-30 18:34 ?1299次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言文本)處理能力的多模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?8802次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    語言康復(fù)行業(yè)首家!陽光語言正式接入DeepSeek

    “新”與“老”的結(jié)合,將融合和迸發(fā)更多可能性,為更多語言障礙者提供更加科學(xué)、智能、精準(zhǔn)的服務(wù)。 智能問答 一觸即達(dá) 在陪伴孩子成長的過程中,家長會(huì)面臨方方面面的問題,發(fā)音不準(zhǔn)、口吃、語言發(fā)育遲緩等等。面對(duì)這些語言發(fā)育問題,家長該
    的頭像 發(fā)表于 03-06 14:14 ?603次閱讀
    <b class='flag-5'>語言</b>康復(fù)行業(yè)首家!陽光<b class='flag-5'>語言</b>正式接入DeepSeek