chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在 TFX 中使用 NSL 框架實(shí)現(xiàn)計(jì)算圖正則化

Tensorflowers ? 來源:TensorFlow ? 作者: Arjun Gopalan ? 2020-10-31 11:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)架構(gòu)學(xué)習(xí) (Neural Structured Learning,NSL) 是 TensorFlow 中的一個(gè)框架,可以利用結(jié)構(gòu)化信號來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。這種框架接受 (i) 顯式計(jì)算圖或 (ii) 隱式計(jì)算圖,處理結(jié)構(gòu)化輸入,并在模型訓(xùn)練過程中動(dòng)態(tài)生成鄰接點(diǎn)(Neighbors)。顯式計(jì)算圖的 NSL 通常用于基于神經(jīng)網(wǎng)絡(luò)的圖學(xué)習(xí)(Neural Graph Learning),而隱式計(jì)算圖的 NSL 通常用于 對抗學(xué)習(xí)。這兩種技術(shù)均以 NSL 框架中的正則化形式實(shí)現(xiàn)。所以,它們只對訓(xùn)練工作流有影響,而工作流的模型保持不變。我們將在本文中探討如何在 TFX 中使用 NSL 框架實(shí)現(xiàn)計(jì)算圖正則化(Graph Regularization )。

神經(jīng)架構(gòu)學(xué)習(xí)
https://tensorflow.google.cn/neural_structured_learning

使用 NSL 構(gòu)建計(jì)算圖正則化模型的高級工作流包含以下步驟:

如果沒有可用的計(jì)算圖,則需要先構(gòu)建一個(gè)計(jì)算圖。

使用計(jì)算圖和輸入樣本特征擴(kuò)充訓(xùn)練數(shù)據(jù)。

使用擴(kuò)充的訓(xùn)練數(shù)據(jù)對給定模型進(jìn)行計(jì)算圖正則化。

這些步驟不會(huì)立即映射到現(xiàn)有的 TFX (TensorFlow Extended) 流水線組件上。但是,TFX 支持自定義組件,允許用戶在其 TFX 流水線中實(shí)現(xiàn)自定義處理。如需了解 TFX 中的自定義組件,請參閱這篇文章。

TFX
https://tensorflow.google.cn/tfx/guide#tfx_standard_components

自定義組件
https://tensorflow.google.cn/tfx/guide/understanding_custom_components

為了在 TFX 中創(chuàng)建一個(gè)包含上述步驟的計(jì)算圖正則化模型,我們將利用擴(kuò)展自定義 TFX 組件。

為展示如何使用 NSL,我們構(gòu)建了一個(gè)示例 TFX 流水線,對 IMDB 數(shù)據(jù)集進(jìn)行情感分類。我們提供了一個(gè)基于 Colab 的教程,演示了如何使用 NSL 與原生 TensorFlow 來完成這項(xiàng)任務(wù),我們以此作為示例 TFX 流水線的基礎(chǔ)。

IMDB 數(shù)據(jù)集
https://tensorflow.google.cn/datasets/catalog/imdb_reviews

Colab 教程
https://tensorflow.google.cn/neural_structured_learning/tutorials/graph_keras_lstm_imdb

自定義 TFX 組件的計(jì)算圖正則化

為了在 TFX 中構(gòu)建一個(gè)計(jì)算圖正則化的 NSL 模型來完成這項(xiàng)任務(wù),我們將使用自定義 Python 函數(shù)方法自定義三個(gè)組件。以下是使用這些自定義組件實(shí)現(xiàn)我們示例的 TFX 流水線示意圖。為了簡潔起見,我們省略了通常在 Trainer 之后的組件,例如 Evaluator、 Pusher 等。

自定義 Python 函數(shù)
https://tensorflow.google.cn/tfx/guide/custom_function_component

圖 1:TFX 流水線示例:使用計(jì)算圖正則化進(jìn)行文本分類

在此圖中,僅有自定義組件(粉色)與計(jì)算圖正則化的 Trainer組件具備 NSL 相關(guān)邏輯。值得注意的是,此處展示的自定義組件僅作例證,還可以通過其他方式構(gòu)建類似功能的流水線。接下來,我們進(jìn)一步詳細(xì)描述各個(gè)自定義組件,并展示相應(yīng)的代碼段。

IdentifyExamples

此自定義組件為每個(gè)訓(xùn)練樣本分配一個(gè)唯一的 ID,將每個(gè)訓(xùn)練樣本與其在計(jì)算圖中相應(yīng)的鄰接點(diǎn)關(guān)聯(lián)起來。

@component def IdentifyExamples( orig_examples: InputArtifact[Examples], identified_examples: OutputArtifact[Examples], id_feature_name: Parameter[str], component_name: Parameter[str] ) -> None: # Compute the input and output URIs. ... # For each input split, update the TF.Examples to include a unique ID. with beam.Pipeline() as pipeline: (pipeline | 'ReadExamples' >> beam.io.ReadFromTFRecord( os.path.join(input_dir, '*'), coder=beam.coders.coders.ProtoCoder(tf.train.Example)) | 'AddUniqueId' >> beam.Map(make_example_with_unique_id, id_feature_name) | 'WriteIdentifiedExamples' >> beam.io.WriteToTFRecord( file_path_prefix=os.path.join(output_dir, 'data_tfrecord'), coder=beam.coders.coders.ProtoCoder(tf.train.Example), file_name_suffix='.gz')) identified_examples.split_names = orig_examples.split_names return

make_example_with_unique_id() 函數(shù)可以更新給定樣本,將包含唯一 ID 的額外特征包括在內(nèi)。

SynthesizeGraph

如上所述,在 IMDB 數(shù)據(jù)集中,沒有提供顯式計(jì)算圖作為輸入。因此,在演示計(jì)算圖正則化之前,我們將構(gòu)建一個(gè)計(jì)算圖。在此示例中,我們使用一個(gè)預(yù)訓(xùn)練的文本嵌入向量模型將電影評論中的原始文本轉(zhuǎn)換為嵌入向量,然后通過生成的嵌入向量構(gòu)建計(jì)算圖。

SynthesizeGraph自定義組件負(fù)責(zé)處理計(jì)算圖構(gòu)建,請注意,它定義了一個(gè)新的Artifact,名為 SynthesizedGraph,作為此自定義組件的輸出。

"""Custom Artifact type""" class SynthesizedGraph(tfx.types.artifact.Artifact): """Output artifact of the SynthesizeGraph component""" TYPE_NAME = 'SynthesizedGraphPath' PROPERTIES = { 'span': standard_artifacts.SPAN_PROPERTY, 'split_names': standard_artifacts.SPLIT_NAMES_PROPERTY, } @component def SynthesizeGraph( identified_examples: InputArtifact[Examples], synthesized_graph: OutputArtifact[SynthesizedGraph], similarity_threshold: Parameter[float], component_name: Parameter[str] ) -> None: # Compute the input and output URIs ... # We build a graph only based on the 'train' split which includes both # labeled and unlabeled examples. create_embeddings(train_input_examples_uri, output_graph_uri) build_graph(output_graph_uri, similarity_threshold) synthesized_graph.split_names = artifact_utils.encode_split_names( splits=['train']) return

create_embeddings() 函數(shù)通過 TensorFlow Hub 上的一些預(yù)訓(xùn)練模型將電影評論中的文本轉(zhuǎn)換為相應(yīng)的嵌入向量。build_graph() 函數(shù)調(diào)用 NSL 中的 build_graph()API。

TensorFlow Hub
https://tensorflow.google.cn/hub

build_graph()
https://tensorflow.google.cn/neural_structured_learning/api_docs/python/nsl/tools/build_graph

GraphAugmentation

此自定義組件的目的在于將樣本特征(電影評論中的文本)與通過嵌入向量構(gòu)建的計(jì)算圖結(jié)合起來,生成一個(gè)擴(kuò)充的訓(xùn)練數(shù)據(jù)集。由此得出的訓(xùn)練樣本也將包括其相應(yīng)鄰接點(diǎn)的特征。

@component def GraphAugmentation( identified_examples: InputArtifact[Examples], synthesized_graph: InputArtifact[SynthesizedGraph], augmented_examples: OutputArtifact[Examples], num_neighbors: Parameter[int], component_name: Parameter[str] ) -> None: # Compute the input and output URIs ... # Separate out the labeled and unlabeled examples from the 'train' split. train_path, unsup_path = split_train_and_unsup(train_input_uri) # Augment training data with neighbor features. nsl.tools.pack_nbrs( train_path, unsup_path, graph_path, output_path, add_undirected_edges=True, max_nbrs=num_neighbors ) # Copy the 'test' examples from input to output without modification. ... augmented_examples.split_names = identified_examples.split_names return

split_train_and_unsup() 函數(shù)將輸入樣本拆分成帶標(biāo)簽和無標(biāo)簽的樣本,pack_nbrs() NSL API 創(chuàng)建擴(kuò)充的訓(xùn)練數(shù)據(jù)集。

pack_nbrs()
https://tensorflow.google.cn/neural_structured_learning/api_docs/python/nsl/tools/pack_nbrs

計(jì)算圖正則化的 Trainer

我們目前所有的自定義組件都已實(shí)現(xiàn),TFX 流水線的Trainer 組件中增加了其他 NSL 相關(guān)的內(nèi)容。下方展示了一個(gè)計(jì)算圖正則化 Trainer 組件的簡化視圖。

... estimator = tf.estimator.Estimator( model_fn=feed_forward_model_fn, config=run_config, params=HPARAMS) # Create a graph regularization config. graph_reg_config = nsl.configs.make_graph_reg_config( max_neighbors=HPARAMS.num_neighbors, multiplier=HPARAMS.graph_regularization_multiplier, distance_type=HPARAMS.distance_type, sum_over_axis=-1) # Invoke the Graph Regularization Estimator wrapper to incorporate # graph-based regularization for training. graph_nsl_estimator = nsl.estimator.add_graph_regularization( estimator, embedding_fn, optimizer_fn=optimizer_fn, graph_reg_config=graph_reg_config) ...

如您所見,創(chuàng)建了基礎(chǔ)模型后(本例中指一個(gè)前饋神經(jīng)網(wǎng)絡(luò)),就可以通過調(diào)用 NSL 封裝容器 API 將其直接轉(zhuǎn)換為計(jì)算圖正則化模型。

一切就這么簡單。現(xiàn)在,我們已補(bǔ)充完在 TFX 中構(gòu)建計(jì)算圖正則化 NSL 模型所需的步驟。此處提供了一個(gè)基于 Colab 的教程,在 TFX 中端到端地演示這個(gè)示例。不妨嘗試一下,并可根據(jù)您的需要進(jìn)行自定義。

此處
https://tensorflow.google.cn/tfx/tutorials/tfx/neural_structured_learning

對抗學(xué)習(xí)

如前文簡介中所述,神經(jīng)架構(gòu)學(xué)習(xí)的另一個(gè)方面是對抗學(xué)習(xí),即不使用計(jì)算圖中的顯式鄰接點(diǎn)來進(jìn)行正則化,而是動(dòng)態(tài)、對抗性地創(chuàng)建隱式鄰接點(diǎn)來迷惑模型。

因此,使用對抗樣本進(jìn)行正則化是提高模型魯棒性的有效方式。使用神經(jīng)架構(gòu)學(xué)習(xí)的對抗學(xué)習(xí)可以輕松集成到 TFX 流水線中。無需任何自定義組件,只需要更新 Trainer 組件即可在神經(jīng)架構(gòu)學(xué)習(xí)中調(diào)用對抗正則化封裝容器 API。

總結(jié)

我們演示了如何利用自定義組件在 TFX 中使用神經(jīng)架構(gòu)學(xué)習(xí)構(gòu)建計(jì)算圖正則化模型。當(dāng)然,也可以用其他方式構(gòu)建計(jì)算圖,或者按照另外的方式來構(gòu)建整體流水線。

我們希望這個(gè)示例能夠?yàn)槟鷺?gòu)建自己的神經(jīng)架構(gòu)學(xué)習(xí)工作流提供幫助。

相關(guān)鏈接

有關(guān)神經(jīng)架構(gòu)學(xué)習(xí)的更多信息,請查閱以下資源:

TFX 中的 NSL Colab 教程
https://tensorflow.google.cn/tfx/tutorials/tfx/neural_structured_learning

NSL 網(wǎng)站
https://tensorflow.google.cn/neural_structured_learning

NSL GitHub
https://github.com/tensorflow/neural-structured-learning

更多 NSL 教程與視頻
https://github.com/tensorflow/neural-structured-learning#videos-and-colab-tutorials

致謝:

我們特此鳴謝 Google 神經(jīng)架構(gòu)學(xué)習(xí)團(tuán)隊(duì)、TFX 團(tuán)隊(duì)以及 Aurélien Geron 的支持與貢獻(xiàn)。

責(zé)任編輯:xj

原文標(biāo)題:TensorFlow Extended + 神經(jīng)架構(gòu)學(xué)習(xí):構(gòu)建計(jì)算圖正則化模型

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103667
  • 計(jì)算圖
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    7031
  • 正則化
    +關(guān)注

    關(guān)注

    0

    文章

    17

    瀏覽量

    8226
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    61186

原文標(biāo)題:TensorFlow Extended + 神經(jīng)架構(gòu)學(xué)習(xí):構(gòu)建計(jì)算圖正則化模型

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    納芯微LED線性恒流驅(qū)動(dòng)NSL21610 汽車級40V/單通道具備散熱加強(qiáng)功能

    納芯微LED線性恒流驅(qū)動(dòng)NSL21610數(shù)據(jù)手冊
    的頭像 發(fā)表于 05-08 18:32 ?769次閱讀
    納芯微LED線性恒流驅(qū)動(dòng)<b class='flag-5'>NSL</b>21610   汽車級40V/單通道具備散熱加強(qiáng)功能

    何在USB視頻類(UVC)框架中使用EZ-USB?FX3實(shí)現(xiàn)圖像傳感器接口USB視頻類(UVC)

    電子發(fā)燒友網(wǎng)站提供《如何在USB視頻類(UVC)框架中使用EZ-USB?FX3實(shí)現(xiàn)圖像傳感器接口USB視頻類(UVC).pdf》資料免費(fèi)下載
    發(fā)表于 02-28 17:36 ?2次下載

    隔離電源方案電路框架

    隔離電源方案電路框架
    發(fā)表于 02-13 15:18 ?10次下載

    何在MATLAB中使用DeepSeek模型

    在 DeepSeek-R1(https://github.com/deepseek-ai/DeepSeek-R1) AI 模型橫空出世后,人們幾乎就立馬開始詢問如何在 MATLAB 中使用這些模型
    的頭像 發(fā)表于 02-13 09:20 ?3399次閱讀
    如<b class='flag-5'>何在</b>MATLAB<b class='flag-5'>中使</b>用DeepSeek模型

    xgboost的并行計(jì)算原理

    之一。 XGBoost簡介 XGBoost是一種基于梯度提升框架的集成學(xué)習(xí)算法,它通過構(gòu)建多個(gè)決策樹來提高模型的預(yù)測性能。與傳統(tǒng)的梯度提升樹相比,XGBoost在算法上進(jìn)行了優(yōu)化,包括正則項(xiàng)的引入、缺失值的處理、剪枝操作等,這
    的頭像 發(fā)表于 01-19 11:17 ?1006次閱讀

    何在Windows中使用MTP協(xié)議

    、圖片等)的通信協(xié)議,它被廣泛用于Android設(shè)備。以下是如何在Windows中使用MTP協(xié)議的詳細(xì)步驟: 1. 確保設(shè)備支持MTP 首先,你需要確認(rèn)你的設(shè)備支持MTP協(xié)議。大多數(shù)現(xiàn)代Android
    的頭像 發(fā)表于 01-03 10:26 ?2639次閱讀

    何在文本字段中使用上標(biāo)、下標(biāo)及變量

    在KiCad的任何文本字段中,都可以通過以下的方式實(shí)現(xiàn)上標(biāo)、下標(biāo)、上劃線以及顯示變量及字段值的描述: 文本變量“文本變量”可以在 原理設(shè)置->工程->文本變量 中設(shè)置。下圖中設(shè)置了一個(gè)變量名
    的頭像 發(fā)表于 11-12 12:23 ?670次閱讀
    如<b class='flag-5'>何在</b>文本字段<b class='flag-5'>中使</b>用上標(biāo)、下標(biāo)及變量

    何在智能手機(jī)系統(tǒng)中使用bq27505

    電子發(fā)燒友網(wǎng)站提供《如何在智能手機(jī)系統(tǒng)中使用bq27505.pdf》資料免費(fèi)下載
    發(fā)表于 10-17 10:21 ?0次下載
    如<b class='flag-5'>何在</b>智能手機(jī)系統(tǒng)<b class='flag-5'>中使</b>用bq27505

    何在RS-485網(wǎng)絡(luò)中使用MSP430和MSP432 eUSCI和USCI模塊

    電子發(fā)燒友網(wǎng)站提供《如何在RS-485網(wǎng)絡(luò)中使用MSP430和MSP432 eUSCI和USCI模塊.pdf》資料免費(fèi)下載
    發(fā)表于 10-09 10:21 ?0次下載
    如<b class='flag-5'>何在</b>RS-485網(wǎng)絡(luò)<b class='flag-5'>中使</b>用MSP430和MSP432 eUSCI和USCI模塊

    何在MSP430?MCU中使用智能模擬組合

    電子發(fā)燒友網(wǎng)站提供《如何在MSP430?MCU中使用智能模擬組合.pdf》資料免費(fèi)下載
    發(fā)表于 09-14 10:19 ?0次下載
    如<b class='flag-5'>何在</b>MSP430?MCU<b class='flag-5'>中使</b>用智能模擬組合

    何在反向降壓-升壓拓?fù)?b class='flag-5'>中使用TPS6290x

    電子發(fā)燒友網(wǎng)站提供《如何在反向降壓-升壓拓?fù)?b class='flag-5'>中使用TPS6290x.pdf》資料免費(fèi)下載
    發(fā)表于 09-13 10:07 ?0次下載
    如<b class='flag-5'>何在</b>反向降壓-升壓拓?fù)?b class='flag-5'>中使</b>用TPS6290x

    何在汽車CAN應(yīng)用中使用負(fù)邊緣觸發(fā)觸發(fā)器節(jié)省電力

    電子發(fā)燒友網(wǎng)站提供《如何在汽車CAN應(yīng)用中使用負(fù)邊緣觸發(fā)觸發(fā)器節(jié)省電力.pdf》資料免費(fèi)下載
    發(fā)表于 09-13 10:06 ?0次下載
    如<b class='flag-5'>何在</b>汽車CAN應(yīng)用<b class='flag-5'>中使</b>用負(fù)邊緣觸發(fā)觸發(fā)器節(jié)省電力

    何在顯示器設(shè)計(jì)中使用TPS6598x I2C控制TUSB564

    電子發(fā)燒友網(wǎng)站提供《如何在顯示器設(shè)計(jì)中使用TPS6598x I2C控制TUSB564.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 09:54 ?0次下載
    如<b class='flag-5'>何在</b>顯示器設(shè)計(jì)<b class='flag-5'>中使</b>用TPS6598x I2C控制TUSB564

    何在新興的低軌衛(wèi)星應(yīng)用中使用數(shù)字隔離器隔離信號

    電子發(fā)燒友網(wǎng)站提供《如何在新興的低軌衛(wèi)星應(yīng)用中使用數(shù)字隔離器隔離信號.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 09:37 ?0次下載
    如<b class='flag-5'>何在</b>新興的低軌衛(wèi)星應(yīng)用<b class='flag-5'>中使</b>用數(shù)字隔離器隔離信號

    何在IMC300系列中使用開環(huán)控制?

    何在 IMC300 系列中使用開環(huán)控制? 我設(shè)置角度選擇 = 2 和 CtrlModeSelect = 2,就可以控制電機(jī)的速度了。 目前,我想測試開環(huán)。 我將 Vd_Ext 和 Vq_Ext 都
    發(fā)表于 07-22 07:20