?
NLP中的遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進(jìn)行文本分類
- 轉(zhuǎn)換器(141068)
- 機器學(xué)習(xí)(130423)
- nlp(21784)
相關(guān)推薦
ChatGPT爆火背后,NLP呈爆發(fā)式增長!
自然語言處理技術(shù),用于計算機中模擬人類的對話和文本理解。主要源于AI大模型化的NLP技術(shù)突破是將深度學(xué)習(xí)技術(shù)與傳統(tǒng)的NLP方法結(jié)合在一起,從而更好地提高NLP技術(shù)的準(zhǔn)確性和效率。大模型化的NLP技術(shù)能夠更好地支持企業(yè)進(jìn)行大規(guī)模的語料內(nèi)容分析,并為企業(yè)更好地進(jìn)行文本分析提供幫助。 語言是人類區(qū)
2023-02-13 09:47:00
2771
2771一些解決文本分類問題的機器學(xué)習(xí)最佳實踐
文本分類是一種應(yīng)用廣泛的算法,它是各種用于大規(guī)模處理文本數(shù)據(jù)的軟件系統(tǒng)的核心,常被用于幫助電子郵箱過濾垃圾郵件,幫助論壇機器人標(biāo)記不當(dāng)評論。
2018-07-31 09:28:41
6965
6965介紹用遷移學(xué)習(xí)處理NLP任務(wù)的大致思路
文本分類是NLP領(lǐng)域重要的部分,它與現(xiàn)實生活中的場景密切相關(guān),例如機器人、語音助手、垃圾或詐騙信息監(jiān)測、文本分類等等。這項技術(shù)的用途十分廣泛,幾乎可以用在任意語言模型上。本論文的作者進(jìn)行的是文本分類,直到現(xiàn)在,很多學(xué)術(shù)研究人員仍然用詞嵌入訓(xùn)練模型,例如word2vec和GloVe。
2018-08-02 09:18:15
5982
5982構(gòu)建中文網(wǎng)頁分類器對網(wǎng)頁進(jìn)行文本分類
特征提取就是提取出最能代表某篇文章或某類的特征項,以達(dá)到降維的效果從而減少文本分類的計算量。典型特征提取方法:信息增益(Information Gain),互信息(MI)、文檔頻度(DF)。傳統(tǒng)的MI特征提取方法:
2018-09-13 08:06:00
3906
390650多種適合機器學(xué)習(xí)和預(yù)測應(yīng)用的API,你的選擇是?(2018年版本)
網(wǎng)絡(luò)服務(wù)上的簡單JSON,被用于自然語言處理,能夠?qū)W(wǎng)絡(luò)新聞媒體進(jìn)行情感分析和文本分類。9.Geneea:該API可以對提供的原始文本、從給定的URL中提取到的文本或直接提供的文檔進(jìn)行分析
2018-05-03 16:41:16
遷移學(xué)習(xí)
的基本原理和編程思想。理解在一個新的場景或數(shù)據(jù)集下,何時以及如何進(jìn)行遷移學(xué)習(xí)。利用PyTorch加載數(shù)據(jù)、搭建模型、訓(xùn)練網(wǎng)絡(luò)以及進(jìn)行網(wǎng)絡(luò)微調(diào)操作。給定遷移場景,利用daib庫和生成對抗技術(shù)獨立完成圖像分類中
2022-04-21 15:15:11
Edge Impulse的分類模型淺析
Edge Impulse是一個應(yīng)用于嵌入式領(lǐng)域的在線的機器學(xué)習(xí)網(wǎng)站,不僅為用戶提供了一些現(xiàn)成的神經(jīng)網(wǎng)絡(luò)模型以供訓(xùn)練,還能直接將訓(xùn)練好的模型轉(zhuǎn)換成能在單片機MCU上運行的代碼,使用方便,容易上手。本文
2021-12-20 06:51:26
NLPIR平臺在文本分類方面的技術(shù)解析
文本分類問題就是將一篇文檔歸入預(yù)先定義的幾個類別中的一個或幾個,而文本的自動分類則是使用計算機程序來實現(xiàn)這種文本分類,即根據(jù)事先指定的規(guī)則和示例樣本,自動從海量文檔中識別并訓(xùn)練分類,文本為大家講解
2019-11-18 17:46:10
Pytorch模型訓(xùn)練實用PDF教程【中文】
本教程以實際應(yīng)用、工程開發(fā)為目的,著重介紹模型訓(xùn)練過程中遇到的實際問題和方法。在機器學(xué)習(xí)模型開發(fā)中,主要涉及三大部分,分別是數(shù)據(jù)、模型和損失函數(shù)及優(yōu)化器。本文也按順序的依次介紹數(shù)據(jù)、模型和損失函數(shù)
2018-12-21 09:18:02
pyhanlp文本分類與情感分析
關(guān)系如下:訓(xùn)練訓(xùn)練指的是,利用給定訓(xùn)練集尋找一個能描述這種語言現(xiàn)象的模型的過程。開發(fā)者只需調(diào)用train接口即可,但在實現(xiàn)中,有許多細(xì)節(jié)。分詞目前,本系統(tǒng)中的分詞器接口一共有兩種實現(xiàn): 但文本分類是否
2019-02-20 15:37:24
【KV260視覺入門套件試用體驗】Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型
使用inspector檢查模型
六、Vitis AI 進(jìn)行模型校準(zhǔn)和來量化
七、Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型
八、Vitis AI 將自定義模型編譯并部署到KV260中
本文目的
使用遷移
2023-10-16 15:03:16
九眼公共安全語義智能分析平臺,實現(xiàn)文本分析的公共安全應(yīng)用
社會和科技的進(jìn)步和現(xiàn)在行業(yè)對數(shù)據(jù)的利用率提高有很大關(guān)系,各行各業(yè)積累的數(shù)據(jù)量均在增加,公安領(lǐng)域也包括在內(nèi),有大量的案件信息數(shù)據(jù)需要進(jìn)行文本分析。 現(xiàn)在的公安部門均使用信息管理系統(tǒng)管理數(shù)據(jù),在實現(xiàn)
2019-10-08 15:56:16
使用KNN進(jìn)行分類和回歸
奇數(shù)。與分類任務(wù)不同,在回歸任務(wù)中,特征向量與實值標(biāo)量而不是標(biāo)簽相關(guān)聯(lián),KNN是通過對響應(yīng)變量均值或加權(quán)均值來進(jìn)行預(yù)測。惰性學(xué)習(xí)和非參數(shù)模型惰性學(xué)習(xí)是 KNN 的標(biāo)志。惰性學(xué)習(xí)器,也稱為基于實例的學(xué)習(xí)器
2022-10-28 14:44:46
基于Keras利用訓(xùn)練好的hdf5模型進(jìn)行目標(biāo)檢測實現(xiàn)輸出模型中的表情或性別gradcam
CV:基于Keras利用訓(xùn)練好的hdf5模型進(jìn)行目標(biāo)檢測實現(xiàn)輸出模型中的臉部表情或性別的gradcam(可視化)
2018-12-27 16:48:28
基于稀疏編碼的遷移學(xué)習(xí)及其在行人檢測中的應(yīng)用
一定進(jìn)展,但大都需要大量的訓(xùn)練數(shù)據(jù).針對這一問題,提出了一種基于遷移學(xué)習(xí)的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標(biāo)記樣本中,學(xué)習(xí)到一個緊湊、有效的特征表示;然后通過遷移學(xué)習(xí),將學(xué)習(xí)到的特征表示
2010-04-24 09:48:05
機器學(xué)習(xí)簡介與經(jīng)典機器學(xué)習(xí)算法人才培養(yǎng)
思想。理解在一個新的場景或數(shù)據(jù)集下,何時以及如何進(jìn)行遷移學(xué)習(xí)。利用PyTorch加載數(shù)據(jù)、搭建模型、訓(xùn)練網(wǎng)絡(luò)以及進(jìn)行網(wǎng)絡(luò)微調(diào)操作。給定遷移場景,利用daib庫和生成對抗技術(shù)獨立完成圖像分類中的領(lǐng)域適配
2022-04-28 18:56:07
深入挖掘通用句子編碼器的每個組成部分
檢測、聚類、智能回復(fù)、文本分類和許多其他NLP任務(wù)。結(jié)果需要注意的是,在USE論文中沒有一個章節(jié)是關(guān)于與其他的句子嵌入方法在標(biāo)準(zhǔn)基準(zhǔn)上的比較。這篇論文似乎是從工程學(xué)的角度出發(fā),從Gmail和谷歌Books的Inbox等產(chǎn)品中汲取了經(jīng)驗。原作者:Amit Chaudhary
2022-11-02 15:23:25
基于文章標(biāo)題信息的漢語自動文本分類
文本分類是文本挖掘的一個重要組成部分,是信息搜索領(lǐng)域的一項重要研究課題。該文提出一種基于文章標(biāo)題信息的漢語自動文本分類方法,在HNC理論的領(lǐng)域概念框架下,通過標(biāo)題
2009-04-13 08:31:16
10
10基于GA和信息熵的文本分類規(guī)則抽取方法
文本分類是文本數(shù)據(jù)挖掘中一個非常重要的技術(shù),已經(jīng)被廣泛地應(yīng)用于信息管理、搜索引擎、推薦系統(tǒng)等多個領(lǐng)域。現(xiàn)有的文本分類方法,大多是基于向量空間模型的算法。這
2009-06-03 09:22:50
26
26用于文本分類和文本聚類的特征抽取方法的研究
文本信息處理已成為一門日趨成熟、應(yīng)用面日趨廣泛的學(xué)科。文本分類和聚類技術(shù)是應(yīng)信息檢索和查詢需要而出現(xiàn)的自然語言處理領(lǐng)域的重要研究課題。面對急速膨脹的各種文本信
2009-12-22 14:19:46
3
3基于Rough集的web文本分類研究
隨著Internet的飛速發(fā)展,網(wǎng)絡(luò)上的web信息資源迅速膨脹,如何在浩瀚的web文本信息資源中高效精確地挖掘出有用的知識已經(jīng)成為目前的研究熱點之一。本文首先介紹了web文本分類
2010-01-27 13:39:41
4
4基于文本分類計數(shù)識別平臺設(shè)計(JAVA實現(xiàn))
根據(jù)電力企業(yè)輿情管控工作的需要,設(shè)計了一種基于文本分類技術(shù)的企業(yè)輿情主題識別實驗平臺,技術(shù)人員只需根據(jù)需要設(shè)定文本分類中不同的基本參數(shù),即可針對相應(yīng)的輿情文本測試不同參數(shù)方案下主題文本的識別效果
2017-10-30 17:26:36
11
11基于apiori算法改進(jìn)的knn文本分類方法
的,通過實例去學(xué)習(xí)分類在這方面就很有優(yōu)勢。 一般的文本分類分為這幾個步驟,首先是建立文檔的表示模型,即通過若干特征去表示一個文本,因為一般情況下一篇文章都有著成百上千的特征向量,直接進(jìn)行分類會有很大的時間和空
2017-11-09 10:25:02
9
9文本分類中CTM模型的優(yōu)化和可視化應(yīng)用研究
如何從海量文本中自動提取相關(guān)信息已成為巨大的技術(shù)挑戰(zhàn),文本分類作為解決該問題的重要方法已引起廣大關(guān)注,而其中文本表示是影響分類效果的關(guān)鍵因素。為此采用相關(guān)主題模型進(jìn)行文本表示,以保證信息完整同時表現(xiàn)
2017-11-22 10:46:30
10
10融合詞語類別特征和語義的短文本分類方法
LDA主題模型從背景知識中選擇最優(yōu)主題形成新的短文本特征,在此基礎(chǔ)上建立分類器進(jìn)行分類。采用支持向量機SVM與是近鄰法k-NN分類器對搜狗語料庫數(shù)據(jù)集上的搜狐新聞標(biāo)題內(nèi)容進(jìn)行分類,實驗結(jié)果表明該方法對提高短文本分類的性能是
2017-11-22 16:29:58
0
0基于超像素融合的文本分割
超像素分割并融合;最后利用超像素融合的局部相似性對初始二值化圖像進(jìn)行文本校驗。實驗結(jié)果表明,與最大穩(wěn)定極值區(qū)域( MSER)及筆畫超像素聚合(SSG)方法相比,所提方法在KAIST數(shù)據(jù)集上的分割精度分別提高了8. 00個百分點和
2017-12-08 16:59:18
1
1基于KNN的煙草企業(yè)檔案文本分類
通過對云南某卷煙廠歷史檔案文本數(shù)據(jù)的分析研究,結(jié)合實際情況,對檔案文本主題詞的獲取和自動分類算法進(jìn)行了詳細(xì)的設(shè)計。且在主題詞獲取算法中引入了TFIDF算法,解決了檔案文本缺少題名、文號及責(zé)任者
2017-12-12 18:04:47
0
0基于多模態(tài)特征數(shù)據(jù)的多標(biāo)記遷移學(xué)習(xí)方法的早期阿爾茨海默病診斷
特征選擇模塊和多模態(tài)多標(biāo)記分類回歸學(xué)習(xí)器模塊。首先,通過稀疏多標(biāo)記學(xué)習(xí)模型對分類和回歸學(xué)習(xí)任務(wù)進(jìn)行有效結(jié)合;然后,將該模型擴展到來自多個學(xué)習(xí)領(lǐng)域的訓(xùn)練集,從而構(gòu)建出多標(biāo)記遷移學(xué)習(xí)特征選擇模型;接下來,針對異
2017-12-14 11:22:37
3
3基于直推判別字典學(xué)習(xí)的零樣本分類方法
零樣本分類的目標(biāo)是對訓(xùn)練階段未出現(xiàn)過的類別的樣本進(jìn)行識別和分類,其主要思路是,借助類別語義信息,將可見類別的知識轉(zhuǎn)移到未見類別中.提出了一種直推式的字典學(xué)習(xí)方法,包含以下兩個步驟:首先,提出一個判別
2017-12-25 10:15:44
0
0詳細(xì)解析scikit-learn進(jìn)行文本分類
而多類別分類指的是y的可能取值大于2,但是y所屬類別是唯一的。它與多標(biāo)簽分類問題是有嚴(yán)格區(qū)別的。所有的scikit-learn分類器都是默認(rèn)支持多類別分類的。但是,當(dāng)你需要自己修改算法的時候,也是可以使用scikit-learn實現(xiàn)多類別分類的前期數(shù)據(jù)準(zhǔn)備的。
2017-12-27 08:36:01
4385
4385
基于分布特征遷移加權(quán)算法
傳統(tǒng)機器學(xué)習(xí)面臨一個難題,即當(dāng)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)不再服從相同分布時,由訓(xùn)練集得到的分類器無法對測試集文本準(zhǔn)確分類。針對該問題,根據(jù)遷移學(xué)習(xí)原理,在源領(lǐng)域和目標(biāo)領(lǐng)域的交集特征中,依據(jù)改進(jìn)的特征分布相似
2018-01-09 14:49:36
0
0一種新型樸素貝葉斯文本分類算法
針對在文本分類中先驗概率的計算比較費時而且對分類效果影響不大、后驗概率的精度損失影響分類準(zhǔn)確率的現(xiàn)象,對經(jīng)典樸素貝葉斯分類算法進(jìn)行了改進(jìn),提出了一種先抑后揚(抑制先驗概率的作用,擴大后驗概率
2018-03-05 11:19:59
0
0如何用更少的數(shù)據(jù)自動將文本分類,同時精確度還比原來的方法高
計算機視覺領(lǐng)域遷移學(xué)習(xí)和預(yù)訓(xùn)練ImageNet模型的成功已經(jīng)轉(zhuǎn)移到了NLP領(lǐng)域。許多企業(yè)家、科學(xué)家和工程師目前都用調(diào)整過的ImageNet模型解決重要的視覺問題,現(xiàn)在這款工具已經(jīng)能用于語言處理,我們希望看到這一領(lǐng)域會有更多相關(guān)應(yīng)用產(chǎn)生。
2018-05-21 15:53:05
6150
6150
NLP的介紹和如何利用機器學(xué)習(xí)進(jìn)行NLP以及三種NLP技術(shù)的詳細(xì)介紹
本文用簡潔易懂的語言,講述了自然語言處理(NLP)的前世今生。從什么是NLP到為什么要學(xué)習(xí)NLP,再到如何利用機器學(xué)習(xí)進(jìn)行NLP,值得一讀。這是該系列的第一部分,介紹了三種NLP技術(shù):文本嵌入、機器翻譯、Dialogue 和 Conversations。
2018-06-10 10:26:10
76462
76462
一個深度學(xué)習(xí)模型能完成幾項NLP任務(wù)?
對于機器翻譯、文本摘要、Q&A、文本分類等自然語言處理任務(wù)來說,深度學(xué)習(xí)的出現(xiàn)一遍遍刷新了state-of-the-art的模型性能記錄,給研究帶來諸多驚喜。但這些任務(wù)一般都有各自的度量基準(zhǔn),性能也只在一組標(biāo)準(zhǔn)數(shù)據(jù)集上測試。
2018-06-26 15:19:09
4233
4233什么是遷移學(xué)習(xí)?NLP遷移學(xué)習(xí)的未來
只用了100個案例,他們就達(dá)到了和用2萬個案例訓(xùn)練出的模型同樣的錯誤率水平。除此之外,他們還提供了對模型進(jìn)行預(yù)訓(xùn)練的代碼,因為維基百科有多種語言,這使得我們能快速地進(jìn)行語言轉(zhuǎn)換。除英語之外,其他語種并沒有很多經(jīng)過標(biāo)記的公開數(shù)據(jù)集,所以你可以在語言模型上對自己的數(shù)據(jù)進(jìn)行微調(diào)。
2018-08-17 09:18:18
3649
3649面向NLP任務(wù)的遷移學(xué)習(xí)新模型ULMFit
除了能夠更快地進(jìn)行訓(xùn)練之外,遷移學(xué)習(xí)也是特別有趣的,僅在最后一層進(jìn)行訓(xùn)練,讓我們可以僅僅使用較少的標(biāo)記數(shù)據(jù),而對整個模型進(jìn)行端對端訓(xùn)練則需要龐大的數(shù)據(jù)集。標(biāo)記數(shù)據(jù)的成本很高,在無需大型數(shù)據(jù)集的情況下建立高質(zhì)量的模型是很可取的方法。
2018-08-22 08:11:54
5410
5410如何使用CNN和BiLSTM網(wǎng)絡(luò)特征融合進(jìn)行文本情感分析
卷積神經(jīng)網(wǎng)絡(luò)( CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在自然語言處理,上得到廣泛應(yīng)用,但由于自然語言在結(jié)構(gòu)上存在著前后依賴關(guān)系,僅依靠卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)文本分類將忽略詞的上下文含義,且傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)存在梯度消失或梯度爆炸問題,限制了文本分類的準(zhǔn)確率。
2018-11-22 16:01:45
9
9NVIDIA遷移學(xué)習(xí)工具包 :用于特定領(lǐng)域深度學(xué)習(xí)模型快速訓(xùn)練的高級SDK
,并在 TeslaGPU 上使用 DeepStream SDK 3.0 進(jìn)行部署。這些模型針對 IVA 特定參考使用場景(如檢測和分類)進(jìn)行了全面地訓(xùn)練。
2018-12-07 14:45:47
2848
2848如何使用Spark計算框架進(jìn)行分布式文本分類方法的研究
針對傳統(tǒng)文本分類算法在面對日益增多的海量文本數(shù)據(jù)時效率低下的問題,論文在Spark計算框架上設(shè)計并實現(xiàn)了一種并行化樸素貝葉斯文本分類器,并著重介紹了基于Spark計算框架的文本分類實現(xiàn)過程。實驗階段
2018-12-18 14:19:57
3
3使用深度模型遷移進(jìn)行細(xì)粒度圖像分類的方法說明
針對細(xì)粒度圖像分類方法中存在模型復(fù)雜度較高、難以利用較深模型等問題,提出深度模型遷移( DMT)分類方法。首先,在粗粒度圖像數(shù)據(jù)集上進(jìn)行深度模型預(yù)訓(xùn)練;然后,使用細(xì)粒度圖像數(shù)據(jù)集對預(yù)訓(xùn)練模型
2019-01-18 17:01:50
5
5SiATL——最新、最簡易的遷移學(xué)習(xí)方法
許多傳統(tǒng)的遷移學(xué)習(xí)方法都是利用預(yù)先訓(xùn)練好的語言模型(LMs)來實現(xiàn)的,這些模型已經(jīng)非常流行,并且具有翻譯上下文信息的能力、高級建模語法和語義語言特性,能夠在對象識別、機器翻譯、文本分類等許多任務(wù)中生成高質(zhì)量的結(jié)果。
2019-03-12 15:13:59
3319
3319
深度學(xué)習(xí)框架PaddlePaddle在百度內(nèi)部的戰(zhàn)略地位進(jìn)行了定調(diào)
服務(wù)平臺則主要由可定制化訓(xùn)練深度學(xué)習(xí)模型的EasyDL以及一站式開發(fā)平臺AI Studio組成。EasyDL目前已經(jīng)支持圖像識別、文本分類、聲音分類等深度學(xué)習(xí)模型的訓(xùn)練,而AI Studio則集合了AI教程、代碼環(huán)境、算法算力、數(shù)據(jù)集和比賽,屬于百度大腦的深度學(xué)習(xí)實訓(xùn)平臺。
2019-04-29 10:58:19
4537
4537
如何結(jié)合改進(jìn)主動學(xué)習(xí)的SVD-CNN進(jìn)行彈幕文本分類算法資料說明
采樣的主動學(xué)習(xí)算法(DBC-AL)選擇對分類模型貢獻(xiàn)率較高的樣本進(jìn)行標(biāo)注,以低標(biāo)注代價獲得高質(zhì)量模型訓(xùn)練集;然后,結(jié)合SVD算法建立SVD-CNN彈幕文本分類模型,使用奇異值分解的方法代替?zhèn)鹘y(tǒng)CNN模型池化層進(jìn)行特征提取和降維,并在此基礎(chǔ)上完成彈幕文
2019-05-06 11:42:47
6
6訓(xùn)練一個機器學(xué)習(xí)模型,實現(xiàn)了根據(jù)基于文本分析預(yù)測葡萄酒質(zhì)量
我們可以把上述的其他信息也引入作為特征參數(shù),這樣就能構(gòu)建出一個更全面的模型來預(yù)測葡萄酒質(zhì)量。為了將文字描述與其他特征結(jié)合起來進(jìn)行預(yù)測,我們可以創(chuàng)建一個集成學(xué)模型(文本分類器就是集成在內(nèi)的一部分);也可以創(chuàng)建一個層級模型,在層級模型中,分類器的輸出會作為一個預(yù)測變量。
2019-05-16 18:27:39
5662
56628個免費學(xué)習(xí)NLP的在線資源
此在線課程涵蓋從基礎(chǔ)到高級NLP,它是Coursera上高級機器學(xué)習(xí)專業(yè)化的一部分。你可以免費注冊本課程,你將學(xué)習(xí)情緒分析、總結(jié)、對話狀態(tài)跟蹤等。你將學(xué)習(xí)的主題包括文本分類介紹、語言建模和序列標(biāo)記、語義向量空間模型、序列到序列任務(wù)等等。
2019-07-07 07:44:00
6408
6408遷移學(xué)習(xí)與模型預(yù)訓(xùn)練:何去何從
把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個任務(wù)S(S稱為源任務(wù))來提升任務(wù)T的效果,也即把S的信息遷移到T中。至于怎么遷移信息就有很多方法了,可以直接利用S的數(shù)據(jù),也可以利用在S上訓(xùn)練好的模型,等等。
2019-07-18 11:29:47
7440
7440
NLP遷移學(xué)習(xí)面臨的問題和解決
自然語言處理(NLP)最近取得了巨大的進(jìn)步,每隔幾天就會發(fā)布最新的結(jié)果。排行榜瘋狂是指最常見的NLP基準(zhǔn),如GLUE和SUPERGLUE,它們的得分越來越接近人類的水平。這些結(jié)果大多是通過超大(數(shù)十億個參數(shù))模型從大規(guī)模數(shù)據(jù)集中遷移學(xué)習(xí)得到的。
2020-05-04 12:03:00
2821
2821
如何利用機器學(xué)習(xí)思想,更好地去解決NLP分類任務(wù)
NLP分類任務(wù)我們每個NLPer都異常熟悉了,其在整個NLP業(yè)務(wù)中占據(jù)著舉足輕重的地位,更多領(lǐng)域的子任務(wù)也常常轉(zhuǎn)化為一個分類任務(wù),例如新聞分類、情感識別、意圖識別、關(guān)系分類、事件類型判斷等等。
2020-08-28 10:02:21
1901
1901
NLP中文自然語言處理數(shù)據(jù)集、平臺和工具整理
資源整理了文本分類、實體識別詞性標(biāo)注、搜索匹配、推薦系統(tǒng)、指代消歧、百科數(shù)據(jù)、預(yù)訓(xùn)練詞向量or模型、中文完形填空等大量數(shù)據(jù)集,中文數(shù)據(jù)集平臺和NLP工具等。 本文內(nèi)容整理自:https
2020-11-05 09:29:06
2443
2443
textCNN論文與原理——短文本分類
包是處理圖片的torchvision,而處理文本的少有提及,快速處理文本數(shù)據(jù)的包也是有的,那就是torchtext[1]。下面還是結(jié)合上一個案例:【深度學(xué)習(xí)】textCNN論文與原理——短文本分類(基于pytorch)[2],使用torchtext進(jìn)行文本數(shù)據(jù)預(yù)處理,然后再使用torchtext進(jìn)
2020-12-31 10:08:42
2217
2217
小米在預(yù)訓(xùn)練模型的探索與優(yōu)化
大家?guī)硇∶自陬A(yù)訓(xùn)練模型的探索與優(yōu)化。 01 預(yù)訓(xùn)練簡介 預(yù)訓(xùn)練與詞向量的方法一脈相承。詞向量是從任務(wù)無關(guān)和大量的無監(jiān)督語料中學(xué)習(xí)到詞的分布式表達(dá),即文檔中詞的向量化表達(dá)。在得到詞向量之后,一般會輸入到下游任務(wù)中,進(jìn)行后續(xù)的計
2020-12-31 10:17:11
2217
2217
NLP:序列標(biāo)注
0 小系列初衷 自己接觸的項目大都是初創(chuàng),沒開始多久的項目,從0到1的不少,2020年快結(jié)束,感覺這個具有一定個人特色的技術(shù)經(jīng)驗可以在和大家分享一下。 計劃篇章: (已完成)文本分類篇。針對NLP
2021-01-13 09:46:21
2243
2243深度學(xué)習(xí):基于語境的文本分類弱監(jiān)督學(xué)習(xí)
高成本的人工標(biāo)簽使得弱監(jiān)督學(xué)習(xí)備受關(guān)注。seed-driven 是弱監(jiān)督學(xué)習(xí)中的一種常見模型。該模型要求用戶提供少量的seed words,根據(jù)seed words對未標(biāo)記的訓(xùn)練數(shù)據(jù)生成偽標(biāo)簽,增加訓(xùn)練
2021-01-18 16:04:27
2657
2657一種處理多標(biāo)簽文本分類的新穎推理機制
研究動機 多標(biāo)簽文本分類(multi-label text classification, 簡稱MLTC)的目的是在給定文本后要求模型預(yù)測其多個非互斥的相關(guān)標(biāo)簽。該任務(wù)在許多自然語言處理任務(wù)上都有
2021-02-05 09:21:13
2593
2593
文本分類的一個大型“真香現(xiàn)場”來了
任何標(biāo)注數(shù)據(jù)啦!哇,真香! 當(dāng)前的文本分類任務(wù)需要利用眾多標(biāo)注數(shù)據(jù),標(biāo)注成本是昂貴的。而半監(jiān)督文本分類雖然減少了對標(biāo)注數(shù)據(jù)的依賴,但還是需要領(lǐng)域?qū)<沂謩?b class="flag-6" style="color: red">進(jìn)行標(biāo)注,特別是在類別數(shù)目很大的情況下。 試想一下,我們?nèi)祟愂侨绾螌π侣?b class="flag-6" style="color: red">文本進(jìn)行分
2021-02-05 11:02:24
1596
1596
fastText有兩大用途——文本分類和Word Embedding
N-gram 是一種基于統(tǒng)計語言模型的算法,常用于 NLP 領(lǐng)域。其思想在于將文本內(nèi)容按照字節(jié)順序進(jìn)行大小為 N 的滑動窗口操作,從而形成了長度為 N 的字節(jié)片段序列,其片段我們稱為 gram。
2021-03-05 15:38:54
2910
2910
基于深度神經(jīng)網(wǎng)絡(luò)的文本分類分析
隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,許多研究者嘗試利用深度學(xué)習(xí)來解決文本分類問題,特別是在卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)方面,出現(xiàn)了許多新穎且有效的分類方法。對基于深度神經(jīng)網(wǎng)絡(luò)的文本分類問題進(jìn)行分析,介紹
2021-03-10 16:56:56
36
36結(jié)合BERT模型的中文文本分類算法
針對現(xiàn)有中文短文夲分類算法通常存在特征稀疏、用詞不規(guī)范和數(shù)據(jù)海量等問題,提出一種基于Transformer的雙向編碼器表示(BERT)的中文短文本分類算法,使用BERT預(yù)訓(xùn)練語言模型對短文本進(jìn)行句子
2021-03-11 16:10:39
6
6一種基于神經(jīng)網(wǎng)絡(luò)的短文本分類模型
、詞向量以及短文本的概念集作為模型的輸入,運用編碼器-解碼器模型對短文本與概念集進(jìn)行編碼,利用注意力機制計算每個概念權(quán)重值,減小無關(guān)噪聲概念對短文本分類的影響,在此基礎(chǔ)上通過雙向門控循環(huán)單元編碼短文本輸入序
2021-03-12 14:07:47
7
7集成WL-CNN和SL-Bi-LSTM的旅游問句文本分類算法
學(xué)習(xí)詞序列子空間向量和句序列深層語義信息,通過多頭注意力機制將兩種深度學(xué)習(xí)模型進(jìn)行集成以實現(xiàn)旅游問句文本的語法和語義信息互補,并通過 Softmax分類器得到最終的旅游問句文本分類結(jié)果。實驗結(jié)果表明,與基于傳統(tǒng)深度學(xué)習(xí)模型的旅游問句文本分類算法相比,該算法在準(zhǔn)
2021-03-17 15:24:34
4
4一種側(cè)重于學(xué)習(xí)情感特征的預(yù)訓(xùn)練方法
transformers編碼表示)的基礎(chǔ)上,提岀了一種側(cè)重學(xué)習(xí)情感特征的預(yù)訓(xùn)練方法。在目標(biāo)領(lǐng)域的預(yù)練階段,利用情感詞典改進(jìn)了BERT的預(yù)訓(xùn)練任務(wù)。同時,使用基于上下文的詞粒度情感預(yù)測任務(wù)對掩蓋詞情感極性進(jìn)行分類,獲取偏向情感特征的文本表
2021-04-13 11:40:51
4
4一種基于BERT模型的社交電商文本分類算法
基于BERT模型的社交電商文本分類算法。首先,該算法采用BERT( Bidirectional Encoder Representations from Transformers)預(yù)訓(xùn)練語言模型來完成社交電商文本的句子層面的特征向量表示,隨后有針對性地將獲得的特征向量輸入分類器進(jìn)行分類,最后采
2021-04-13 15:14:21
8
8基于BERT+Bo-LSTM+Attention的病歷短文分類模型
病歷文本的提取與自動分類的方法具有很大的臨床價值。文中嘗試提出一種基于BERT十 BI-LSTM+ Attention融合的病歷短文本分類模型。使用BERT預(yù)處理獲取短文本向量作為模型輸入,對比BERT與 word2vec模型的預(yù)訓(xùn)練效果,對比Bⅰ-LSTM十 Atten
2021-04-26 14:30:20
13
13融合文本分類和摘要的多任務(wù)學(xué)習(xí)摘要模型
質(zhì)量,使用K- means聚類算法構(gòu)建 Cluster-2、 Cluster-10和 Cluster-20文本分類數(shù)據(jù)集訓(xùn)練分類器,并研究不同分類數(shù)據(jù)集參與訓(xùn)練對摘要模型的性能影響,同時利用基于統(tǒng)計分布的判別法全面評價摘要準(zhǔn)確性。在CNNDM測試集上的實驗結(jié)果表明,
2021-04-27 16:18:58
11
11基于BERT的中文科技NLP預(yù)訓(xùn)練模型
深度學(xué)習(xí)模型應(yīng)用于自然語言處理任務(wù)時依賴大型、高質(zhì)量的人工標(biāo)注數(shù)據(jù)集。為降低深度學(xué)習(xí)模型對大型數(shù)據(jù)集的依賴,提出一種基于BERT的中文科技自然語言處理預(yù)訓(xùn)練模型 ALICE。通過對遮罩語言模型進(jìn)行
2021-05-07 10:08:16
14
14基于主題相似度聚類的文本分類算法綜述
傳統(tǒng)的文本分類方法僅使用一種模型進(jìn)行分類,容易忽略不同類別特征詞出現(xiàn)交叉的情況,影響分類性能。為提高文本分類的準(zhǔn)確率,提岀基于主題相似性聚類的文本分類算法。通過CH和 Wordcount相結(jié)合的方法
2021-05-12 16:25:20
6
6基于協(xié)同訓(xùn)練的電商領(lǐng)域文本短語挖掘方法
電商領(lǐng)域的文本通常不遵循通用領(lǐng)域文本的表達(dá)方式,導(dǎo)致傳統(tǒng)短語挖掘方法在電商領(lǐng)域文本中的挖掘精度較低。為此,提出一種基于協(xié)同訓(xùn)練的電商領(lǐng)域短語挖掘方法。通過基于語義特征的短語分類模型來有效檢測電商領(lǐng)域
2021-05-13 15:01:15
0
0基于不同神經(jīng)網(wǎng)絡(luò)的文本分類方法研究對比
神經(jīng)網(wǎng)絡(luò)、時間遞歸神經(jīng)網(wǎng)絡(luò)、結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)和預(yù)訓(xùn)練模型等主流方法在文本分類中應(yīng)用的發(fā)展歷程比較不同模型基于常用數(shù)據(jù)集的分類效果,表明利用人工神經(jīng)網(wǎng)絡(luò)伂構(gòu)自動獲取文本特征,可避免繁雜的人工特征工程,使文本分類
2021-05-13 16:34:34
48
48低頻詞詞向量優(yōu)化在短文本分類中的應(yīng)用
的下游任務(wù)時,往往需要通過微調(diào)進(jìn)行一定的更新和調(diào)整,使其更適用于目標(biāo)任務(wù)。但是,目標(biāo)語料集中的低頻詞由于缺少訓(xùn)練樣夲,導(dǎo)致在微調(diào)過程中無法獲得穩(wěn)定的梯度信息,使得詞向量無法得到有效更新。而在短文本分類任務(wù)中,這些低頻詞對分類結(jié)果同樣有著重要的指示性。
2021-05-17 15:37:24
13
13一種為小樣本文本分類設(shè)計的結(jié)合數(shù)據(jù)增強的元學(xué)習(xí)框架
01 研究背景及動機 近些年,元學(xué)習(xí)已經(jīng)成為解決小樣本問題的主流技術(shù),并且取得不錯的成果。然而,由于現(xiàn)有的元學(xué)習(xí)方法大多數(shù)集中在圖像分類上,而對文本分類上的關(guān)注比較少。與圖像不同,同一類別中文本具有
2021-05-19 15:54:15
4012
4012
膠囊網(wǎng)絡(luò)在小樣本做文本分類中的應(yīng)用(下)
論文提出Dynamic Memory Induction Networks (DMIN) 網(wǎng)絡(luò)處理小樣本文本分類。 兩階段的(two-stage)few-shot模型: 在監(jiān)督學(xué)習(xí)階段(綠色的部分
2021-09-27 17:46:08
1833
1833
基于雙通道詞向量的卷積膠囊網(wǎng)絡(luò)文本分類算法
的詞向量與基于特定文本分類任務(wù)擴展的語境詞向量作為神經(jīng)網(wǎng)絡(luò)的2個輸入通道,并采用具有動態(tài)路由機制的卷積膠囊網(wǎng)絡(luò)模型進(jìn)行文本分類。在多個英文數(shù)據(jù)集上的實驗結(jié)果表明,雙通道的詞向量訓(xùn)練方式優(yōu)于單通道策略,與LSTM、RAE、 M
2021-05-24 15:07:29
6
6基于神經(jīng)網(wǎng)絡(luò)與隱含狄利克雷分配的文本分類
主題概率分布,提出一種文本分類算法NLDA。在 Thucnews語料庫和復(fù)旦大學(xué)語料庫上進(jìn)行實驗,結(jié)果表明,與傳統(tǒng)LDA模型相比,該算法的平均分類準(zhǔn)確率分別提升5.53%和4.67%,平均訓(xùn)練時間分別減少8%和10%。
2021-05-25 15:20:59
0
0基于主題分布優(yōu)化的模糊文本分類方法
在對類別模糊的文本進(jìn)行分類時,主題模型只考慮文檔和主題級別信息,未考慮底層詞語間的隱含信息且多數(shù)主題信息復(fù)雜、中心不明確。為此,提出一種改進(jìn)的文本分類方法。通過分位數(shù)選擇中心明確的主題,將其映射
2021-05-25 16:33:29
5
5一種特征假期樸素貝葉斯文本分類算法
樸素貝葉斯(NB)算法應(yīng)用于文本分類時具有簡單性和高效性,但算法中屬性獨立性與重要性一致的假設(shè),使其在精確度方面存在瓶頸。針對該問題,提出一種基于泊松分布的特征加權(quán)NB文本分類算法。結(jié)合泊松分布模型
2021-05-28 11:30:24
4
4基于LSTM的表示學(xué)習(xí)-文本分類模型
的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學(xué)習(xí)-文本分類模型,其中表示學(xué)習(xí)模型利用語言模型為文本分類模型提供初始化的文本表示和網(wǎng)絡(luò)參數(shù)。文中主要采用對抗訓(xùn)練方法訓(xùn)練語言模型,即在詞向量
2021-06-15 16:17:17
18
18基于新型文本塊分割法的簡歷解析器
近些年,基于神經(jīng)網(wǎng)絡(luò)的文本分類器和詞嵌入在自然語言處理中被廣泛應(yīng)用。然而,傳統(tǒng)的簡歷解析器采用基于關(guān)鍵字的模糊匹配或正則表達(dá)式來進(jìn)行文本塊分割。文中提岀了一種基于神經(jīng)網(wǎng)絡(luò)文本分類器和詞向量
2021-06-16 11:47:21
17
17文本分類任務(wù)的Bert微調(diào)trick大全
1 前言 大家現(xiàn)在打比賽對預(yù)訓(xùn)練模型非常喜愛,基本上作為NLP比賽基線首選(圖像分類也有預(yù)訓(xùn)練模型)。預(yù)訓(xùn)練模型雖然很強,可能通過簡單的微調(diào)就能給我們帶來很大提升,但是大家會發(fā)現(xiàn)比賽做到后期
2021-07-18 09:49:32
2165
21652021 OPPO開發(fā)者大會:NLP預(yù)訓(xùn)練大模型
2021 OPPO開發(fā)者大會:NLP預(yù)訓(xùn)練大模型 2021 OPPO開發(fā)者大會上介紹了融合知識的NLP預(yù)訓(xùn)練大模型。 責(zé)任編輯:haq
2021-10-27 14:18:41
1492
1492
2021年OPPO開發(fā)者大會 融合知識的NLP預(yù)訓(xùn)練大模型
2021年OPPO開發(fā)者大會劉海鋒:融合知識的NLP預(yù)訓(xùn)練大模型,知識融合學(xué)習(xí)運用在小布助手里面。
2021-10-27 14:48:16
2251
2251
如何實現(xiàn)更綠色、經(jīng)濟的NLP預(yù)訓(xùn)練模型遷移
NLP中,預(yù)訓(xùn)練大模型Finetune是一種非常常見的解決問題的范式。利用在海量文本上預(yù)訓(xùn)練得到的Bert、GPT等模型,在下游不同任務(wù)上分別進(jìn)行finetune,得到下游任務(wù)的模型。然而,這種方式
2022-03-21 15:33:30
1843
1843帶你從頭構(gòu)建文本分類器
文本分類是 NLP 中最常見的任務(wù)之一, 它可用于廣泛的應(yīng)用或者開發(fā)成程序,例如將用戶反饋文本標(biāo)記為某種類別,或者根據(jù)客戶文本語言自動歸類。另外向我們平時見到的郵件垃圾過濾器也是文本分類最熟悉的應(yīng)用場景之一。
2022-03-22 10:49:32
2904
2904一種基于標(biāo)簽比例信息的遷移學(xué)習(xí)算法
摘要: 標(biāo)簽比例學(xué)習(xí)問題是一項僅使用樣本標(biāo)簽比例信息去構(gòu)建分類模型的挖掘任務(wù),由于訓(xùn)練樣本不充分,現(xiàn)有方法將該問題視為單一任務(wù),在文本分類中的表現(xiàn)并不理想??紤]到遷移學(xué)習(xí)在一定程度上能解決訓(xùn)練數(shù)據(jù)
2022-03-30 15:46:31
343
343遷移學(xué)習(xí)Finetune的四種類型招式
遷移學(xué)習(xí)方法。例如NLP中的預(yù)訓(xùn)練Bert模型,通過在下游任務(wù)上Finetune即可取得比直接使用下游數(shù)據(jù)任務(wù)從零訓(xùn)練的效果要好得多。
2022-04-02 17:35:55
2509
2509用NVIDIA遷移學(xué)習(xí)工具箱如何訓(xùn)練二維姿態(tài)估計模型
本系列的第一篇文章介紹了在 NVIDIA 遷移學(xué)習(xí)工具箱中使用開源 COCO 數(shù)據(jù)集和 BodyPoseNet 應(yīng)用程序的 如何訓(xùn)練二維姿態(tài)估計模型 。
2022-04-10 09:41:20
1445
1445
深度學(xué)習(xí)——如何用LSTM進(jìn)行文本分類
簡介 主要內(nèi)容包括 如何將文本處理為Tensorflow LSTM的輸入 如何定義LSTM 用訓(xùn)練好的LSTM進(jìn)行文本分類 代碼 導(dǎo)入相關(guān)庫 #coding=utf-8 import
2022-10-21 09:57:07
1018
1018PyTorch文本分類任務(wù)的基本流程
文本分類是NLP領(lǐng)域的較為容易的入門問題,本文記錄文本分類任務(wù)的基本流程,大部分操作使用了**torch**和**torchtext**兩個庫。
## 1. 文本數(shù)據(jù)預(yù)處理
2023-02-22 14:23:59
729
729淺析4個計算機視覺領(lǐng)域常用遷移學(xué)習(xí)模型
使用SOTA的預(yù)訓(xùn)練模型來通過遷移學(xué)習(xí)解決現(xiàn)實的計算機視覺問題。
2023-04-23 18:08:41
1023
1023
基于預(yù)訓(xùn)練模型和語言增強的零樣本視覺學(xué)習(xí)
Stable Diffusion 多模態(tài)預(yù)訓(xùn)練模型 考慮多標(biāo)簽圖像分類任務(wù)——每幅圖像大于一個類別 如果已有圖文對齊模型——能否用文本特征代替圖像特征 訓(xùn)練的時候使用文本組成的句子 對齊總會有 gap,選 loss 的時候使用 rank loss,對模態(tài) gap 更穩(wěn)定 拿到文本后有幾種選擇,比如
2023-06-15 16:36:11
277
277
一文詳解遷移學(xué)習(xí)
遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無法關(guān)注與任務(wù)相關(guān)的特征。在這項工作中,作者探索了重新聚焦模型注意力以進(jìn)行遷移學(xué)習(xí)。作者提出了自上而下的注意力
2023-08-11 16:56:17
3048
3048
視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹
Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對象檢測、實例分割、語義分割、姿態(tài)評估模型的遷移學(xué)習(xí)訓(xùn)練與評估。支持對數(shù)據(jù)集的合成、變換、增強等,此外還支持預(yù)訓(xùn)練模型庫下載相關(guān)的模型,直接預(yù)測推理。
2023-09-22 09:49:51
391
391
人工智能中文本分類的基本原理和關(guān)鍵技術(shù)
在本文中,我們?nèi)嫣接懥?b class="flag-6" style="color: red">文本分類技術(shù)的發(fā)展歷程、基本原理、關(guān)鍵技術(shù)、深度學(xué)習(xí)的應(yīng)用,以及從RNN到Transformer的技術(shù)演進(jìn)。文章詳細(xì)介紹了各種模型的原理和實戰(zhàn)應(yīng)用,旨在提供對文本分類技術(shù)深入理解的全面視角。
2023-12-16 11:37:31
435
435
電子發(fā)燒友App



評論