chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

五個(gè)簡(jiǎn)單步驟掌握TensorFlow中的Tensor

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-24 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這篇文章中,我們將深入研究Tensorflow Tensor的實(shí)現(xiàn)細(xì)節(jié)。我們將在以下五個(gè)簡(jiǎn)單步驟中介紹與Tensorflow的Tensor中相關(guān)的所有主題:第一步:張量的定義→什么是張量?第二步:創(chuàng)建張量→創(chuàng)建張量對(duì)象的函數(shù)第三步:張量對(duì)象的特征第四步:張量操作→索引、基本張量操作、形狀操作、廣播第五步:特殊張量張量的定義:什么是張量?

張量是TensorFlow的均勻型多維數(shù)組,它非常類似于NumPy數(shù)組,并且是不可變的,這意味著一旦創(chuàng)建它們就不能被更改。首先,要使用TensorFlow對(duì)象,我們需要導(dǎo)入TensorFlow庫(kù),因?yàn)槲覀兘?jīng)常將NumPy與TensorFlow一起使用,因此我們也可以導(dǎo)入NumPy:import tensorflow as tf

import numpy as np

張量的創(chuàng)建:創(chuàng)建張量對(duì)象有多種方法可以創(chuàng)建tf.Tensor對(duì)象,同時(shí)也可以使用多個(gè)TensorFlow函數(shù)來創(chuàng)建張量對(duì)象,如下例所示:# 你可以用`tf.constant`函數(shù)創(chuàng)建tf.Tensor對(duì)象:
x = tf.constant([[1, 2, 3, 4 ,5]])
# 你可以用`tf.ones`函數(shù)創(chuàng)建tf.Tensor對(duì)象:
y = tf.ones((1,5))
# 你可以用`tf.zeros`函數(shù)創(chuàng)建tf.Tensor對(duì)象:
z = tf.zeros((1,5))
# 你可以用`tf.range`函數(shù)創(chuàng)建tf.Tensor對(duì)象:
q = tf.range(start=1, limit=6, delta=1)
print(x)
print(y)
print(z)
print(q)
輸出:
tf.Tensor([[1 2 3 4 5]], shape=(1, 5), dtype=int32)
tf.Tensor([[1. 1. 1. 1. 1.]], shape=(1, 5), dtype=float32)
tf.Tensor([[0. 0. 0. 0. 0.]], shape=(1, 5), dtype=float32)
tf.Tensor([1 2 3 4 5], shape=(5,), dtype=int32)

如你所見,我們使用三個(gè)不同的函數(shù)創(chuàng)建了形狀(1,5)的張量對(duì)象,使用tf.range()函數(shù)創(chuàng)建了形狀(5,)的第四個(gè)張量對(duì)象。注意,tf.ones的和tf.zeros接受形狀作為必需的參數(shù),因?yàn)樗鼈兊脑刂凳穷A(yù)先確定的。張量對(duì)象的特征tf.Tensor創(chuàng)建對(duì)象有幾個(gè)特征。首先,他們有維度數(shù)量;其次,它們有一個(gè)形狀,一個(gè)由維度的長(zhǎng)度組成的列表;所有張量都有一個(gè)大小,即張量中元素的總數(shù);最后,它們的元素都被記錄在一個(gè)統(tǒng)一的數(shù)據(jù)類型(datatype)中。讓我們仔細(xì)看看這些特征。維度張量根據(jù)其維數(shù)進(jìn)行分類:Rank-0(標(biāo)量)張量:包含單個(gè)值且沒有軸的張量(0維);Rank-1張量:包含單軸(一維)值列表的張量;Rank-2張量:包含2個(gè)軸(2維)的張量;以及Rank-N張量:包含N軸的張量(三維)。

例如,我們可以通過向tf.constant傳遞一個(gè)三層嵌套的list對(duì)象來創(chuàng)建一個(gè)Rank-3張量。我們可以將數(shù)字分割成一個(gè)3層嵌套的列表,每個(gè)層有3個(gè)元素:three_level_nested_list = [[[0, 1, 2],
[3, 4, 5]],
[[6, 7, 8],
[9, 10, 11]] ]
rank_3_tensor = tf.constant(three_level_nested_list)
print(rank_3_tensor)
Output:
tf.Tensor( [[[ 0 1 2]
[ 3 4 5]]

[[ 6 7 8]
[ 9 10 11]]],
shape=(2, 2, 3), dtype=int32)

我們可以查看“rank_3_tensor”對(duì)象當(dāng)前具有“.ndim”屬性的維度數(shù)。tensor_ndim = rank_3_tensor.ndim
print("The number of dimensions in our Tensor object is", tensor_ndim)
Output:
The number of dimensions in our Tensor object is 3

形狀形狀特征是每個(gè)張量都具有的另一個(gè)屬性,它以列表的形式顯示每個(gè)維度的大小。我們可以查看使用.shape屬性創(chuàng)建的rank_3_tensor對(duì)象的形狀,如下所示:tensor_shape = rank_3_tensor.shape
print("The shape of our Tensor object is", tensor_shape)
Output:
The shape of our Tensor object is (2, 2, 3

如你所見,我們的張量在第一層有兩個(gè)元素,第二層有兩個(gè)元素,第三層有三個(gè)元素。大小大小是張量的另一個(gè)特征,它表示張量有多少個(gè)元素。我們不能用張量對(duì)象的屬性來測(cè)量大小,相反,我們需要使用tf.size函數(shù)。最后,我們將使用實(shí)例函數(shù).NumPy()將輸出轉(zhuǎn)換為NumPy,以獲得更具可讀性的結(jié)果:tensor_size = tf.size(rank_3_tensor).numpy()
print("The size of our Tensor object is", tensor_size)
Output:
The size of our Tensor object is 12

數(shù)據(jù)類型張量通常包含數(shù)字?jǐn)?shù)據(jù)類型,如浮點(diǎn)和整數(shù),但也可能包含許多其他數(shù)據(jù)類型,如復(fù)數(shù)和字符串。但是,每個(gè)張量對(duì)象必須將其所有元素存儲(chǔ)在一個(gè)統(tǒng)一的數(shù)據(jù)類型中,因此,我們還可以使用.dtype屬性查看為特定張量對(duì)象選擇的數(shù)據(jù)類型,如下所示:tensor_dtype = rank_3_tensor.dtype
print("The data type selected for this Tensor object is", tensor_dtype)
Output:
The data type selected for this Tensor object is <dtype: 'int32'>

張量運(yùn)算索引索引是項(xiàng)目在序列中位置的數(shù)字表示,這個(gè)序列可以引用很多東西:一個(gè)列表、一個(gè)字符串或任意的值序列。TensorFlow還遵循標(biāo)準(zhǔn)的Python索引規(guī)則,這類似于列表索引或NumPy數(shù)組索引。關(guān)于索引的一些規(guī)則:索引從零(0)開始。負(fù)索引(“-n”)值表示從末尾向后計(jì)數(shù)。冒號(hào)(“:”)用于切片。逗號(hào)(“,”)用于進(jìn)入更深的維度。讓我們用以下幾行創(chuàng)建rank_1_tensor:single_level_nested_list = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11]
rank_1_tensor = tf.constant(single_level_nested_list)
print(rank_1_tensor)
Output:
tf.Tensor([ 0 1 2 3 4 5 6 7 8 9 10 11],
shape=(12,), dtype=int32)

測(cè)試一下我們的規(guī)則1,2,3:# 規(guī)則1,索引從0開始
print("First element is:",
rank_1_tensor[0].numpy())
# 規(guī)則2,負(fù)索引
print("Last element is:",
rank_1_tensor[-1].numpy())
# 規(guī)則3,切片
print("Elements in between the 1st and the last are:",
rank_1_tensor[1:-1].numpy())
Output:
First element is: 0
Last element is: 11
Elements in between the 1st and the last are: [ 1 2 3 4 5 6 7 8 9 10]

現(xiàn)在,讓我們用以下代碼創(chuàng)建rank_2_tensor:two_level_nested_list = [ [0, 1, 2, 3, 4, 5], [6, 7, 8, 9, 10, 11] ]
rank_2_tensor = tf.constant(two_level_nested_list)
print(rank_2_tensor)
Output:
tf.Tensor( [[ 0 1 2 3 4 5]
[ 6 7 8 9 10 11]], shape=(2, 6), dtype=int32)

用幾個(gè)例子來測(cè)試第4條規(guī)則:print("The 1st element of the first level is:",
rank_2_tensor[0].numpy())
print("The 2nd element of the first level is:",
rank_2_tensor[1].numpy())
# 規(guī)則4, 逗號(hào)用于進(jìn)入更深的維度
print("The 1st element of the second level is:",
rank_2_tensor[0, 0].numpy())
print("The 3rd element of the second level is:",
rank_2_tensor[0, 2].numpy())
Output:
The first element of the first level is: [0 1 2 3 4 5]
The second element of the first level is: [ 6 7 8 9 10 11]
The first element of the second level is: 0
The third element of the second level is: 2

現(xiàn)在,我們已經(jīng)介紹了索引的基本知識(shí),讓我們看看我們可以對(duì)張量進(jìn)行的基本操作。張量基本運(yùn)算你可以輕松地對(duì)張量進(jìn)行基本的數(shù)學(xué)運(yùn)算,例如:加法元素乘法矩陣乘法求最大值或最小值找到Max元素的索引計(jì)算Softmax值讓我們看看這些運(yùn)算,我們將創(chuàng)建兩個(gè)張量對(duì)象并應(yīng)用這些操作。a = tf.constant([[2, 4],
[6, 8]], dtype=tf.float32)
b = tf.constant([[1, 3],
[5, 7]], dtype=tf.float32)

我們可以從加法開始。# 我們可以使用' tf.add() '函數(shù)并將張量作為參數(shù)傳遞。
add_tensors = tf.a(chǎn)dd(a,b)
print(add_tensors)
Output:
tf.Tensor( [[ 3. 7.]
[11. 15.]], shape=(2, 2), dtype=float32)

乘法# 我們可以使用' tf.multiply() '函數(shù)并將張量作為參數(shù)傳遞。
multiply_tensors = tf.multiply(a,b)
print(multiply_tensors)
Output:
tf.Tensor( [[ 2. 12.]
[30. 56.]], shape=(2, 2), dtype=float32)
矩陣乘法:# 我們可以使用' tf.matmul() '函數(shù)并將張量作為參數(shù)傳遞。
matmul_tensors = tf.matmul(a,b)
print(matmul_tensors)
Output:
tf.Tensor( [[ 2. 12.]
[30. 56.]], shape=(2, 2), dtype=float32)

注意:Matmul操作是深度學(xué)習(xí)算法的核心,因此,盡管你不會(huì)直接使用matmul,但了解這些操作是至關(guān)重要的。我們上面列出的其他操作示例:# 使用' tf.reduce_max() '和' tf.reduce_min() '函數(shù)可以找到最大值或最小值
print("The Max value of the tensor object b is:",
tf.reduce_max(b).numpy())

# 使用' tf.a(chǎn)rgmax() '函數(shù)可以找到最大元素的索引
print("The index position of the max element of the tensor object b is:",
tf.a(chǎn)rgmax(b).numpy())

# 使用 tf.nn.softmax'函數(shù)計(jì)算softmax
print("The softmax computation result of the tensor object b is:",
tf.nn.softmax(b).numpy())
Output:
The Max value of the tensor object b is: 1.0
The index position of the Max of the tensor object b is: [1 1]
The softmax computation result of the tensor object b is: [[0.11920291 0.880797 ] [0.11920291 0.880797 ]]

操縱形狀就像在NumPy數(shù)組和pandas數(shù)據(jù)幀中一樣,你也可以重塑張量對(duì)象。這個(gè)變形操作非???,因?yàn)榈讓訑?shù)據(jù)不需要復(fù)制。對(duì)于重塑操作,我們可以使用tf.reshape函數(shù)# 我們的初始張量
a = tf.constant([[1, 2, 3, 4, 5, 6]])
print('The shape of the initial Tensor object is:', a.shape)
b = tf.reshape(a, [6, 1])
print('The shape of the first reshaped Tensor object is:', b.shape)
c = tf.reshape(a, [3, 2])
print('The shape of the second reshaped Tensor object is:', c.shape)

# 如果我們以shape參數(shù)傳遞-1,那么張量就變平坦化。
print('The shape of the flattened Tensor object is:', tf.reshape(a, [-1]))
Output:
The shape of our initial Tensor object is: (1, 6)
The shape of our initial Tensor object is: (6, 1)
The shape of our initial Tensor object is: (3, 2)
The shape of our flattened Tensor object is: tf.Tensor([1 2 3 4 5 6], shape=(6,), dtype=int32)

如你所見,我們可以很容易地重塑我們的張量對(duì)象,但要注意的是,在進(jìn)行重塑操作時(shí),開發(fā)人員的操作必須是合理的,否則,張量可能會(huì)混淆,甚至?xí)a(chǎn)生錯(cuò)誤。廣播當(dāng)我們嘗試使用多個(gè)張量對(duì)象進(jìn)行組合操作時(shí),較小的張量可以自動(dòng)伸展以適應(yīng)較大的張量,就像NumPy數(shù)組一樣。例如,當(dāng)你嘗試將標(biāo)量張量與秩2張量相乘時(shí),標(biāo)量將被拉伸以乘以每個(gè)秩2張量元素。參見以下示例:m = tf.constant([5])
n = tf.constant([[1,2],[3,4]])
print(tf.multiply(m, n))
Output:
tf.Tensor( [[ 5 10]
[15 20]], shape=(2, 2), dtype=int32)

由于廣播操作,在對(duì)張量進(jìn)行數(shù)學(xué)運(yùn)算時(shí),我們不必?fù)?dān)心大小匹配。張量的特殊類型我們常常會(huì)生成矩形張量,并將數(shù)值存儲(chǔ)為元素,但是,TensorFlow還支持不規(guī)則或特殊的張量類型,這些類型包括:參差不齊的張量字符串張量稀疏張量

讓我們仔細(xì)看看每一個(gè)都是什么。參差不齊的張量參差不齊張量是沿著尺寸軸具有不同數(shù)量元素的張量可以構(gòu)建不規(guī)則張量,如下所示ragged_list = [[1, 2, 3],[4, 5],[6]]
ragged_tensor = tf.ragged.constant(ragged_list)
print(ragged_tensor)
Output:
<tf.RaggedTensor [[1, 2, 3],
[4, 5],
[6]]>

字符串張量字符串張量是存儲(chǔ)字符串對(duì)象的張量。我們可以建立一個(gè)字符串張量,就像你創(chuàng)建一個(gè)普通的張量對(duì)象一樣,但是,我們將字符串對(duì)象作為元素而不是數(shù)字對(duì)象傳遞,如下所示:string_tensor = tf.constant(["With this",
"code, I am",
"creating a String Tensor"])
print(string_tensor)
Output:
tf.Tensor([b'With this'
b'code, I am'
b'creating a String Tensor'],
shape=(3,), dtype=string)

稀疏張量最后,稀疏張量是稀疏數(shù)據(jù)的矩形張量。當(dāng)數(shù)據(jù)中有空值時(shí),稀疏張量就是對(duì)象。創(chuàng)建稀疏張量有點(diǎn)耗時(shí),這里有一個(gè)例子:sparse_tensor = tf.sparse.SparseTensor(indices=[[0, 0], [2, 2], [4, 4]],
values=[25, 50, 100],
dense_shape=[5, 5])

# 我們可以把稀疏張量轉(zhuǎn)換成密集張量
print(tf.sparse.to_dense(sparse_tensor))
Output:
tf.Tensor( [[ 25 0 0 0 0]
[ 0 0 0 0 0]
[ 0 0 50 0 0]
[ 0 0 0 0 0]
[ 0 0 0 0 100]], shape=(5, 5), dtype=int32)

結(jié)尾本文我們介紹了TensorFlow的張量對(duì)象的基礎(chǔ)知識(shí)。這應(yīng)該會(huì)讓你對(duì)TensorFlow框架的基本知識(shí)了解得更多了。

審核編輯:符乾江


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4405

    瀏覽量

    66798
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    331

    瀏覽量

    61828
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    “點(diǎn)沙成金”的科技奇跡:深入解讀芯片制造三大階段與五大步驟

    芯片是如何“點(diǎn)沙成金”的?本文深度解析芯片制造的三大階段與五大步驟,從邏輯設(shè)計(jì)、晶圓拉制,到上百次的光刻-刻蝕循環(huán),揭秘驅(qū)動(dòng)數(shù)字世界的微觀奇跡。
    的頭像 發(fā)表于 10-31 10:34 ?352次閱讀
    “點(diǎn)沙成金”的科技奇跡:深入解讀芯片制造三大階段與<b class='flag-5'>五大步驟</b>

    如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上

    = interpreter->input_tensor(0);// 假設(shè)只有一個(gè)輸入張量TfLiteTensor* output_tensor = interpreter->
    發(fā)表于 10-22 08:04

    燒錄工具操作教程:新手也能快速掌握~

    燒錄工具看似復(fù)雜,其實(shí)操作很簡(jiǎn)單!現(xiàn)在就為你奉上清晰明了的使用說明,即使是新手也能迅速掌握。 本文就以 Air780EPM 開發(fā)板為例,演示燒錄工具的使用步驟。 ? 一、生成量產(chǎn)文件 1.
    的頭像 發(fā)表于 09-26 19:20 ?405次閱讀
    燒錄工具操作教程:新手也能快速<b class='flag-5'>掌握</b>~

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】將TensorFlow-Lite物體歸類(classify)的輸出圖片移植到LVGL9.3界面

    的方式很簡(jiǎn)單,就是用一個(gè)extern C關(guān)鍵字即可。 一些在C語(yǔ)言中編譯能通過但在C++編譯不通過的語(yǔ)法需要修改,C++(或者說g++編譯器)要求函數(shù)的形參和實(shí)參類型必須一致,不一致的地方需要用強(qiáng)轉(zhuǎn)
    發(fā)表于 09-21 00:39

    【上海晶珩睿莓1開發(fā)板試用體驗(yàn)】TensorFlow-Lite物體歸類(classify)

    用。 OpenCV庫(kù)編譯成功之后,就可以新建一個(gè)線程進(jìn)行TensorFlow-Lite物體歸類了,這里我直接使用現(xiàn)成的pb和pbtxt文件,具體內(nèi)容不贅述,來看看識(shí)別效果:
    發(fā)表于 09-12 22:43

    對(duì)于新唐的8051芯片,在Keil Debug模式下的單步執(zhí)行過程定時(shí)器可以停止嗎?

    對(duì)于新唐的8051芯片,在Keil Debug模式下的單步執(zhí)行過程,定時(shí)器可以停止嗎?
    發(fā)表于 08-26 06:33

    對(duì)于新唐的8051芯片,在Keil Debug模式下的單步執(zhí)行過程,定時(shí)器可以停止嗎?

    對(duì)于新唐的8051芯片,在Keil Debug模式下的單步執(zhí)行過程,定時(shí)器可以停止嗎?
    發(fā)表于 08-25 07:57

    SOLIDWORKS建模秘籍——必學(xué)的個(gè)草圖與建模技巧

    SOLIDWORKS作為一款功能強(qiáng)大的三維CAD軟件,廣泛應(yīng)用于各種設(shè)計(jì)和產(chǎn)品開發(fā)領(lǐng)域。掌握SOLIDWORKS的草圖與建模技巧,能夠顯著提升設(shè)計(jì)效率,減少錯(cuò)誤,并快速將創(chuàng)意轉(zhuǎn)化為現(xiàn)實(shí)。以下是個(gè)必學(xué)的SOLIDWORKS草圖與
    的頭像 發(fā)表于 05-26 13:17 ?820次閱讀
    SOLIDWORKS建模秘籍——必學(xué)的<b class='flag-5'>五</b><b class='flag-5'>個(gè)</b>草圖與建模技巧

    M12 接頭口連接步驟全解析

    掌握了以上德索工程師總結(jié)的M12接頭口連接步驟及注意事項(xiàng),新手也能快速、準(zhǔn)確地完成連接工作,為設(shè)備的穩(wěn)定運(yùn)行提供可靠保障。選擇德索精密工業(yè)的M12接頭,就是選擇專業(yè)、可靠的連接解決方案。
    的頭像 發(fā)表于 04-28 09:06 ?836次閱讀
    M12 接頭<b class='flag-5'>五</b>口連接<b class='flag-5'>步驟</b>全解析

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫(kù),它消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?931次閱讀
    用樹莓派搞深度學(xué)習(xí)?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    OpenVINO?是否與TensorFlow集成支持Raspberry Pi?

    無法確定OpenVINO?是否與 TensorFlow* 集成支持 Raspberry Pi。
    發(fā)表于 03-05 08:26

    150℃無壓燒結(jié)銀最簡(jiǎn)單個(gè)步驟

    150℃無壓燒結(jié)銀最簡(jiǎn)單個(gè)步驟 作為燒結(jié)銀的全球領(lǐng)航者,SHAREX善仁新材持續(xù)創(chuàng)新,不斷超越自我,最近開發(fā)出150℃無壓燒結(jié)銀AS9378TB,以其獨(dú)特的低溫處理優(yōu)勢(shì),成為了眾多研究與應(yīng)用
    發(fā)表于 02-23 16:31

    TMETRIC:簡(jiǎn)單步驟將工作區(qū)連接到時(shí)間跟蹤應(yīng)用程序

    將計(jì)時(shí)器按鈕添加到組合門票 完成這三個(gè)簡(jiǎn)單步驟以在 Assembla 啟用時(shí)間跟蹤。設(shè)置時(shí)間不超過 3 分鐘。 注冊(cè) TMetric 具有高級(jí)計(jì)費(fèi)和報(bào)告功能的時(shí)間跟蹤應(yīng)用程序 安裝瀏覽器擴(kuò)展
    的頭像 發(fā)表于 01-07 09:23 ?644次閱讀
    TMETRIC:<b class='flag-5'>簡(jiǎn)單步驟</b>將工作區(qū)連接到時(shí)間跟蹤應(yīng)用程序

    用28335 SPI模塊讀取LDC1000寄存器數(shù)據(jù),單步運(yùn)行SPIRXBUF的值正常,全速運(yùn)行值全為1不變,為什么?

    各位專家好,請(qǐng)教一個(gè)問題: 用28335 SPI模塊讀取LDC1000寄存器數(shù)據(jù)(版本號(hào)),單步運(yùn)行SPIRXBUF的值正常,全速運(yùn)行值全為1不變,請(qǐng)問這是什么原因。附件為我寫的程序,是一
    發(fā)表于 01-02 07:14

    RK3568國(guó)產(chǎn)處理器 + TensorFlow框架的張量創(chuàng)建實(shí)驗(yàn)案例分享

    張量,即標(biāo)量 2、一 維張量 3、二維張量 4、多維張量 在 tensorflow 張量可以被簡(jiǎn)單的理解為多維數(shù)組。 在OpenCV,可以通過tf.constant函數(shù)實(shí)現(xiàn)創(chuàng)建基礎(chǔ)
    發(fā)表于 12-03 14:43