曰本美女∴一区二区特级A级黄色大片, 国产亚洲精品美女久久久久久2025, 页岩实心砖-高密市宏伟建材有限公司, 午夜小视频在线观看欧美日韩手机在线,国产人妻奶水一区二区,国产玉足,妺妺窝人体色WWW网站孕妇,色综合天天综合网中文伊,成人在线麻豆网观看

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習——如何用LSTM進行文本分類

恬靜簡樸1 ? 來源: 恬靜簡樸1 ? 作者: 恬靜簡樸1 ? 2022-10-21 09:57 ? 次閱讀

簡介

主要內(nèi)容包括

如何將文本處理為Tensorflow LSTM的輸入

如何定義LSTM

用訓練好的LSTM進行文本分類

代碼

導入相關(guān)庫

#coding=utf-8

importtensorflowastf

fromtensorflow.contribimportlearn

importnumpyasnp

fromtensorflow.python.ops.rnnimportstatic_rnn

fromtensorflow.python.ops.rnn_cell_implimportBasicLSTMCell

數(shù)據(jù)

# 數(shù)據(jù)

positive_texts=[

"我 今天 很 高興",

"我 很 開心",

"他 很 高興",

"他 很 開心"

]

negative_texts=[

"我 不 高興",

"我 不 開心",

"他 今天 不 高興",

"他 不 開心"

]

label_name_dict={

0:"正面情感",

1:"負面情感"

}

配置信息

配置信息

embedding_size=50

num_classes=2

將文本和label數(shù)值化

# 將文本和label數(shù)值化

all_texts=positive_texts+negative_textslabels=[0]*len(positive_texts)+[1]*len(negative_texts)

max_document_length=4

vocab_processor=learn.preprocessing.VocabularyProcessor(max_document_length)

datas=np.array(list(vocab_processor.fit_transform(all_texts)))

vocab_size=len(vocab_processor.vocabulary_)

定義placeholder(容器),存放輸入輸出

# 容器,存放輸入輸出

datas_placeholder=tf.placeholder(tf.int32, [None, max_document_length])

labels_placeholder=tf.placeholder(tf.int32, [None])

詞向量處理

# 詞向量表

embeddings=tf.get_variable("embeddings", [vocab_size, embedding_size],initializer=tf.truncated_normal_initializer)

# 將詞索引號轉(zhuǎn)換為詞向量[None, max_document_length] => [None, max_document_length, embedding_size]

embedded=tf.nn.embedding_lookup(embeddings, datas_placeholder)

將數(shù)據(jù)處理為LSTM的輸入格式

# 轉(zhuǎn)換為LSTM的輸入格式,要求是數(shù)組,數(shù)組的每個元素代表某個時間戳一個Batch的數(shù)據(jù)

rnn_input=tf.unstack(embedded, max_document_length,axis=1)

定義LSTM

# 定義LSTM

lstm_cell=BasicLSTMCell(20,forget_bias=1.0)

rnn_outputs, rnn_states=static_rnn(lstm_cell, rnn_input,dtype=tf.float32)

#利用LSTM最后的輸出進行預測

logits=tf.layers.dense(rnn_outputs[-1], num_classes)

predicted_labels=tf.argmax(logits,axis=1)

定義損失和優(yōu)化器

# 定義損失和優(yōu)化器

losses=tf.nn.softmax_cross_entropy_with_logits(

labels=tf.one_hot(labels_placeholder, num_classes),

logits=logits

)

mean_loss=tf.reduce_mean(losses)

optimizer=tf.train.AdamOptimizer(learning_rate=1e-2).minimize(mean_loss)

執(zhí)行

withtf.Session()assess:

# 初始化變量

sess.run(tf.global_variables_initializer())

訓練# 定義要填充的數(shù)據(jù)

feed_dict={

datas_placeholder: datas,

labels_placeholder: labels

}

print("開始訓練")

forstepinrange(100):

_, mean_loss_val=sess.run([optimizer, mean_loss],feed_dict=feed_dict)

ifstep%10==0:

print("step ={}tmean loss ={}".format(step, mean_loss_val))

預測

print("訓練結(jié)束,進行預測")

predicted_labels_val=sess.run(predicted_labels,feed_dict=feed_dict)

fori, textinenumerate(all_texts):

label=predicted_labels_val[i]

label_name=label_name_dict[label]

print("{}=>{}".format(text, label_name))

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    60

    瀏覽量

    3951
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    pyhanlp文本分類與情感分析

    得到一個分類器,利用該分類器,我們就可以進行文本分類了。IClassifier classifier = new NaiveBayesClassifier(model);目前分類器接口
    發(fā)表于 02-20 15:37

    TensorFlow的CNN文本分類

    在TensorFlow中實現(xiàn)CNN進行文本分類(譯)
    發(fā)表于 10-31 09:27

    NLPIR平臺在文本分類方面的技術(shù)解析

    一下NLPIR大數(shù)據(jù)語義智能分析系統(tǒng)是怎樣實現(xiàn)文本分類的。NLPIR大數(shù)據(jù)語義智能分析平臺的文本分類有兩種模式:專家規(guī)則分類與機器學習分類。
    發(fā)表于 11-18 17:46

    基于apiori算法改進的knn文本分類方法

    的,通過實例去學習分類在這方面就很有優(yōu)勢。 一般的文本分類分為這幾個步驟,首先是建立文檔的表示模型,即通過若干特征去表示一個文本,因為一般情況下一篇文章都有著成百上千的特征向量,直接
    發(fā)表于 11-09 10:25 ?9次下載
    基于apiori算法改進的knn<b class='flag-5'>文本分類</b>方法

    運用多種機器學習方法比較短文本分類處理過程與結(jié)果差別

    目標 從頭開始實踐中文短文本分類,記錄一下實驗流程與遇到的坑運用多種機器學習深度學習 + 傳統(tǒng)機器學習)方法比較短
    的頭像 發(fā)表于 11-02 15:37 ?5479次閱讀
    運用多種機器<b class='flag-5'>學習</b>方法比較短<b class='flag-5'>文本分類</b>處理過程與結(jié)果差別

    textCNN論文與原理——短文本分類

    是處理圖片的torchvision,而處理文本的少有提及,快速處理文本數(shù)據(jù)的包也是有的,那就是torchtext[1]。下面還是結(jié)合上一個案例:【深度學習】textCNN論文與原理——
    的頭像 發(fā)表于 12-31 10:08 ?2744次閱讀
    textCNN論文與原理——短<b class='flag-5'>文本分類</b>

    文本分類的一個大型“真香現(xiàn)場”來了

    任何標注數(shù)據(jù)啦!哇,真香! 當前的文本分類任務需要利用眾多標注數(shù)據(jù),標注成本是昂貴的。而半監(jiān)督文本分類雖然減少了對標注數(shù)據(jù)的依賴,但還是需要領域?qū)<沂謩?b class='flag-5'>進行標注,特別是在類別數(shù)目很大的情況下。 試想一下,我們?nèi)祟愂侨绾螌π侣?/div>
    的頭像 發(fā)表于 02-05 11:02 ?2017次閱讀
    <b class='flag-5'>文本分類</b>的一個大型“真香現(xiàn)場”來了

    基于深度神經(jīng)網(wǎng)絡的文本分類分析

      隨著深度學習技術(shù)的快速發(fā)展,許多研究者嘗試利用深度學習來解決文本分類問題,特別是在卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡方面,出現(xiàn)了許多新穎且有效的
    發(fā)表于 03-10 16:56 ?37次下載
    基于<b class='flag-5'>深度</b>神經(jīng)網(wǎng)絡的<b class='flag-5'>文本分類</b>分析

    集成WL-CNN和SL-Bi-LSTM的旅游問句文本分類算法

    學習詞序列子空間向量和句序列深層語義信息,通過多頭注意力機制將兩種深度學習模型進行集成以實現(xiàn)旅游問句文本的語法和語義信息互補,并通過 Sof
    發(fā)表于 03-17 15:24 ?6次下載
    集成WL-CNN和SL-Bi-<b class='flag-5'>LSTM</b>的旅游問句<b class='flag-5'>文本分類</b>算法

    融合文本分類和摘要的多任務學習摘要模型

    文本摘要應包含源文本中所有重要信息,傳統(tǒng)基于編碼器-解碼器架構(gòu)的摘要模型生成的摘要準確性較低。根據(jù)文本分類文本摘要的相關(guān)性,提出一種多任務學習
    發(fā)表于 04-27 16:18 ?11次下載
    融合<b class='flag-5'>文本分類</b>和摘要的多任務<b class='flag-5'>學習</b>摘要模型

    基于雙通道詞向量的卷積膠囊網(wǎng)絡文本分類算法

    的詞向量與基于特定文本分類任務擴展的語境詞向量作為神經(jīng)網(wǎng)絡的2個輸入通道,并采用具有動態(tài)路由機制的卷積膠囊網(wǎng)絡模型進行文本分類。在多個英文數(shù)據(jù)集上的實驗結(jié)果表明,雙通道的詞向量訓練方式優(yōu)于單通道策略,與LSTM、RAE、 M
    發(fā)表于 05-24 15:07 ?6次下載

    基于LSTM的表示學習-文本分類模型

    的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學習-文本分類模型,其中表示學習
    發(fā)表于 06-15 16:17 ?18次下載

    PyTorch文本分類任務的基本流程

    文本分類是NLP領域的較為容易的入門問題,本文記錄文本分類任務的基本流程,大部分操作使用了**torch**和**torchtext**兩個庫。 ## 1. 文本數(shù)據(jù)預處理
    的頭像 發(fā)表于 02-22 14:23 ?1289次閱讀

    NLP中的遷移學習:利用預訓練模型進行文本分類

    遷移學習徹底改變了自然語言處理(NLP)領域,允許從業(yè)者利用預先訓練的模型來完成自己的任務,從而大大減少了訓練時間和計算資源。在本文中,我們將討論遷移學習的概念,探索一些流行的預訓練模型,并通過實際示例演示如何使用這些模型進行文本分類
    發(fā)表于 06-14 09:30 ?535次閱讀

    卷積神經(jīng)網(wǎng)絡在文本分類領域的應用

    在自然語言處理(NLP)領域,文本分類一直是一個重要的研究方向。隨著深度學習技術(shù)的飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)在圖像識別領域取得了
    的頭像 發(fā)表于 07-01 16:25 ?1038次閱讀