chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中文自然語言處理數(shù)據(jù)集、平臺和工具整理

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-05 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

資源整理了文本分類、實體識別&詞性標(biāo)注、搜索匹配、推薦系統(tǒng)、指代消歧、百科數(shù)據(jù)、預(yù)訓(xùn)練詞向量or模型、中文完形填空等大量數(shù)據(jù)集,中文數(shù)據(jù)集平臺和NLP工具等。

本文內(nèi)容整理自:https://github.com/InsaneLife/ChineseNLPCorpus

文本分類

新聞分類

今日頭條中文新聞(短文本)分類數(shù)據(jù)集:https://github.com/fateleak/toutiao-text-classfication-dataset

數(shù)據(jù)規(guī)模:共38萬條,分布于15個分類中。

采集時間:2018年05月。

以0.7 0.15 0.15做分割 。

清華新聞分類語料:

根據(jù)新浪新聞RSS訂閱頻道2005~2011年間的歷史數(shù)據(jù)篩選過濾生成。

數(shù)據(jù)量:74萬篇新聞文檔(2.19 GB)

小數(shù)據(jù)實驗可以篩選類別:體育, 財經(jīng), 房產(chǎn), 家居, 教育, 科技, 時尚, 時政, 游戲, 娛樂

http://thuctc.thunlp.org/#%E8%8E%B7%E5%8F%96%E9%93%BE%E6%8E%A5

rnn和cnn實驗:https://github.com/gaussic/text-classification-cnn-rnn

中科大新聞分類語料庫:http://www.nlpir.org/?action-viewnews-itemid-145

情感/觀點/評論 傾向性分析

實體識別&詞性標(biāo)注

微博實體識別

https://github.com/hltcoe/golden-horse

boson數(shù)據(jù)

包含6種實體類型。

https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/boson

人民日報數(shù)據(jù)集

人名、地名、組織名三種實體類型

1998:https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/renMinRiBao

2004:https://pan.baidu.com/s/1LDwQjoj7qc-HT9qwhJ3rcA password: 1fa3

MSRA微軟亞洲研究院數(shù)據(jù)集

5 萬多條中文命名實體識別標(biāo)注數(shù)據(jù)(包括地點、機構(gòu)、人物)

https://github.com/InsaneLife/ChineseNLPCorpus/tree/master/NER/MSRA

SIGHAN Bakeoff 2005:一共有四個數(shù)據(jù)集,包含繁體中文和簡體中文,下面是簡體中文分詞數(shù)據(jù)。

MSR: http://sighan.cs.uchicago.edu/bakeoff2005/

PKU :http://sighan.cs.uchicago.edu/bakeoff2005/

搜索匹配

OPPO手機搜索排序

OPPO手機搜索排序query-title語義匹配數(shù)據(jù)集。

鏈接//pan.baidu.com/s/1Hg2Hubsn3GEuu4gubbHCzw 提取碼:7p3n

網(wǎng)頁搜索結(jié)果評價(SogouE)

用戶查詢及相關(guān)URL列表

https://www.sogou.com/labs/resource/e.php

推薦系統(tǒng)

百科數(shù)據(jù)

維基百科

維基百科會定時將語料庫打包發(fā)布:

數(shù)據(jù)處理博客

https://dumps.wikimedia.org/zhwiki/

百度百科

只能自己爬,爬取得鏈接:https://pan.baidu.com/share/init?surl=i3wvfil提取碼 neqs 。

指代消歧

CoNLL 2012 :http://conll.cemantix.org/2012/data.html

預(yù)訓(xùn)練:(詞向量or模型)

BERT

開源代碼:https://github.com/google-research/bert

模型下載:BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters

ELMO

開源代碼:https://github.com/allenai/bilm-tf

預(yù)訓(xùn)練的模型:https://allennlp.org/elmo

騰訊詞向量

騰訊AI實驗室公開的中文詞向量數(shù)據(jù)集包含800多萬中文詞匯,其中每個詞對應(yīng)一個200維的向量。

下載地址:https://ai.tencent.com/ailab/nlp/embedding.html

上百種預(yù)訓(xùn)練中文詞向量

https://github.com/Embedding/Chinese-Word-Vectors

中文完形填空數(shù)據(jù)集

https://github.com/ymcui/Chinese-RC-Dataset

中華古詩詞數(shù)據(jù)庫

最全中華古詩詞數(shù)據(jù)集,唐宋兩朝近一萬四千古詩人, 接近5.5萬首唐詩加26萬宋詩. 兩宋時期1564位詞人,21050首詞。

https://github.com/chinese-poetry/chinese-poetry

保險行業(yè)語料庫

https://github.com/Samurais/insuranceqa-corpus-zh

漢語拆字字典

英文可以做char embedding,中文不妨可以試試拆字

https://github.com/kfcd/chaizi

中文數(shù)據(jù)集平臺

搜狗實驗室

搜狗實驗室提供了一些高質(zhì)量的中文文本數(shù)據(jù)集,時間比較早,多為2012年以前的數(shù)據(jù)。

https://www.sogou.com/labs/resource/list_pingce.php

中科大自然語言處理與信息檢索共享平臺

http://www.nlpir.org/?action-category-catid-28

中文語料小數(shù)據(jù)

包含了中文命名實體識別、中文關(guān)系識別、中文閱讀理解等一些小量數(shù)據(jù)。

https://github.com/crownpku/Small-Chinese-Corpus

維基百科數(shù)據(jù)集

https://dumps.wikimedia.org/

NLP工具

THULAC:https://github.com/thunlp/THULAC :包括中文分詞、詞性標(biāo)注功能。

HanLP:https://github.com/hankcs/HanLP

哈工大LTP:https://github.com/HIT-SCIR/ltp

NLPIR:https://github.com/NLPIR-team/NLPIR

jieba分詞:https://github.com/yanyiwu/cppjieba

責(zé)任編輯:xj

原文標(biāo)題:最全中文自然語言處理數(shù)據(jù)集、平臺和工具整理

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7314

    瀏覽量

    93919
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    629

    瀏覽量

    14558
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13913
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23182

原文標(biāo)題:最全中文自然語言處理數(shù)據(jù)集、平臺和工具整理

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理NLP)領(lǐng)域國際權(quán)威會議 ——2025 年計算語言學(xué)與自然語言處理國際會議(
    的頭像 發(fā)表于 11-10 17:30 ?471次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會EMNLP 2025

    小白學(xué)大模型:國外主流大模型匯總

    數(shù)據(jù)科學(xué)AttentionIsAllYouNeed(2017)https://arxiv.org/abs/1706.03762由GoogleBrain的團隊撰寫,它徹底改變了自然語言處理NL
    的頭像 發(fā)表于 08-27 14:06 ?642次閱讀
    小白學(xué)大模型:國外主流大模型匯總

    【HZ-T536開發(fā)板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動輸入復(fù)雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    云訓(xùn)練平臺數(shù)據(jù)過大無法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時發(fā)現(xiàn)只會跳出網(wǎng)絡(luò)異常的錯誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    自然語言提示原型在英特爾Vision大會上首次亮相

    在英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?771次閱讀

    《AI Agent 應(yīng)用與項目實戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    學(xué)習(xí)、自然語言處理NLP)、計算機視覺(CV)等先進(jìn)技術(shù)提供的強大的數(shù)據(jù)處理和分析能力。 在視頻應(yīng)用開發(fā)中,AI Agent可以用于視頻內(nèi)容分析、推薦、編輯等。 下面跟隨作者的指導(dǎo),
    發(fā)表于 03-05 19:52

    中服云工業(yè)物聯(lián)網(wǎng)平臺引入DeepSeek,全方位提升智能化能力

    工智能技術(shù)?DeepSeek,全力開啟智能化升級的全新征程。 DeepSeek 以其卓越的自然語言處理能力和深度學(xué)習(xí)算法,在人工智能領(lǐng)域備受關(guān)注。它能夠理解并生成自然語言,通過對海量數(shù)據(jù)
    的頭像 發(fā)表于 03-04 14:19 ?484次閱讀

    AI商業(yè)應(yīng)用平臺的特點

    AI商業(yè)應(yīng)用平臺集成了自然語言處理、機器學(xué)習(xí)、深度學(xué)習(xí)等前沿的人工智能技術(shù)。以下,是對AI商業(yè)應(yīng)用平臺特點的整理,由AI部落小編
    的頭像 發(fā)表于 02-22 09:58 ?859次閱讀

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理NLP)、計算機視覺、生成對抗網(wǎng)絡(luò)(GAN)等
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理NLP)、計算機視覺、生成對抗網(wǎng)絡(luò)(GAN)等
    發(fā)表于 01-13 10:32

    LLMWorld上線代碼翻譯新工具——問丫·碼語翻譯俠,快來體驗!

    01. 工具介紹 aicode.llmworld.net 問丫·碼語翻譯俠 是一款由LLMWorld新推出的代碼翻譯工具,支持各種語言之間的翻譯,包括計算機語言
    的頭像 發(fā)表于 12-09 11:11 ?1586次閱讀
    LLMWorld上線代碼翻譯新<b class='flag-5'>工具</b>——問丫·碼語翻譯俠,快來體驗!

    如何優(yōu)化自然語言處理模型的性能

    優(yōu)化自然語言處理NLP)模型的性能是一個多方面的任務(wù),涉及數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個環(huán)節(jié)。以下是一些具
    的頭像 發(fā)表于 12-05 15:30 ?2370次閱讀

    如何使用自然語言處理分析文本數(shù)據(jù)

    使用自然語言處理NLP)分析文本數(shù)據(jù)是一個復(fù)雜但系統(tǒng)的過程,涉及多個步驟和技術(shù)。以下是一個基本的流程,幫助你理解如何使用NLP來分析文本
    的頭像 發(fā)表于 12-05 15:27 ?2370次閱讀

    自然語言處理在聊天機器人中的應(yīng)用

    上歸功于自然語言處理技術(shù)的進(jìn)步。 聊天機器人的工作原理 聊天機器人的核心是一個對話系統(tǒng),它能夠處理用戶的輸入(通常是文本形式),并生成相應(yīng)的回復(fù)。這個系統(tǒng)通常包括以下幾個關(guān)鍵組件: 語言
    的頭像 發(fā)表于 12-05 15:24 ?1707次閱讀

    自然語言處理與機器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領(lǐng)域,它使計算機能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測或決策。自然語言處理與機器學(xué)習(xí)之間有著密切的關(guān)系,因為機器學(xué)習(xí)提供了一種強大的工具,用于從大
    的頭像 發(fā)表于 12-05 15:21 ?2526次閱讀