chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

21個(gè)Transformer面試題的簡(jiǎn)單回答

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:研究員易顯維 ? 2021-04-15 14:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.Transformer為何使用多頭注意力機(jī)制?(為什么不使用一個(gè)頭)

答:多頭可以使參數(shù)矩陣形成多個(gè)子空間,矩陣整體的size不變,只是改變了每個(gè)head對(duì)應(yīng)的維度大小,這樣做使矩陣對(duì)多方面信息進(jìn)行學(xué)習(xí),但是計(jì)算量和單個(gè)head差不多。

2.Transformer為什么Q和K使用不同的權(quán)重矩陣生成,為何不能使用同一個(gè)值進(jìn)行自身的點(diǎn)乘?

答:請(qǐng)求和鍵值初始為不同的權(quán)重是為了解決可能輸入句長(zhǎng)與輸出句長(zhǎng)不一致的問(wèn)題。并且假如QK維度一致,如果不用Q,直接拿K和K點(diǎn)乘的話,你會(huì)發(fā)現(xiàn)attention score 矩陣是一個(gè)對(duì)稱矩陣。因?yàn)槭峭瑯右粋€(gè)矩陣,都投影到了同樣一個(gè)空間,所以泛化能力很差。

3.Transformer計(jì)算attention的時(shí)候?yàn)楹芜x擇點(diǎn)乘而不是加法??jī)烧哂?jì)算復(fù)雜度和效果上有什么區(qū)別?

答:K和Q的點(diǎn)乘是為了得到一個(gè)attention score 矩陣,用來(lái)對(duì)V進(jìn)行提純。K和Q使用了不同的W_k, W_Q來(lái)計(jì)算,可以理解為是在不同空間上的投影。正因?yàn)?有了這種不同空間的投影,增加了表達(dá)能力,這樣計(jì)算得到的attention score矩陣的泛化能力更高。

4.為什么在進(jìn)行softmax之前需要對(duì)attention進(jìn)行scaled(為什么除以dk的平方根),并使用公式推導(dǎo)進(jìn)行講解

答:假設(shè) Q 和 K 的均值為0,方差為1。它們的矩陣乘積將有均值為0,方差為dk,因此使用dk的平方根被用于縮放,因?yàn)椋琎 和 K 的矩陣乘積的均值本應(yīng)該為 0,方差本應(yīng)該為1,這樣可以獲得更平緩的softmax。當(dāng)維度很大時(shí),點(diǎn)積結(jié)果會(huì)很大,會(huì)導(dǎo)致softmax的梯度很小。為了減輕這個(gè)影響,對(duì)點(diǎn)積進(jìn)行縮放。

643dedc2-9cd8-11eb-8b86-12bb97331649.png

5.在計(jì)算attention score的時(shí)候如何對(duì)padding做mask操作?

答:對(duì)需要mask的位置設(shè)為負(fù)無(wú)窮,再對(duì)attention score進(jìn)行相加

6.為什么在進(jìn)行多頭注意力的時(shí)候需要對(duì)每個(gè)head進(jìn)行降維?

答:將原有的高維空間轉(zhuǎn)化為多個(gè)低維空間并再最后進(jìn)行拼接,形成同樣維度的輸出,借此豐富特性信息,降低了計(jì)算量

7.大概講一下Transformer的Encoder模塊?

答:輸入嵌入-加上位置編碼-多個(gè)編碼器層(每個(gè)編碼器層包含全連接層,多頭注意力層和點(diǎn)式前饋網(wǎng)絡(luò)層(包含激活函數(shù)層))

8.為何在獲取輸入詞向量之后需要對(duì)矩陣乘以embedding size的開(kāi)方?

embedding matrix的初始化方式是xavier init,這種方式的方差是1/embedding size,因此乘以embedding size的開(kāi)方使得embedding matrix的方差是1,在這個(gè)scale下可能更有利于embedding matrix的收斂。

9.簡(jiǎn)單介紹一下Transformer的位置編碼?有什么意義和優(yōu)缺點(diǎn)?

答:因?yàn)閟elf-attention是位置無(wú)關(guān)的,無(wú)論句子的順序是什么樣的,通過(guò)self-attention計(jì)算的token的hidden embedding都是一樣的,這顯然不符合人類(lèi)的思維。因此要有一個(gè)辦法能夠在模型中表達(dá)出一個(gè)token的位置信息,transformer使用了固定的positional encoding來(lái)表示token在句子中的絕對(duì)位置信息。

10.你還了解哪些關(guān)于位置編碼的技術(shù),各自的優(yōu)缺點(diǎn)是什么?

答:相對(duì)位置編碼(RPE)1.在計(jì)算attention score和weighted value時(shí)各加入一個(gè)可訓(xùn)練的表示相對(duì)位置的參數(shù)。2.在生成多頭注意力時(shí),把對(duì)key來(lái)說(shuō)將絕對(duì)位置轉(zhuǎn)換為相對(duì)query的位置3.復(fù)數(shù)域函數(shù),已知一個(gè)詞在某個(gè)位置的詞向量表示,可以計(jì)算出它在任何位置的詞向量表示。前兩個(gè)方法是詞向量+位置編碼,屬于亡羊補(bǔ)牢,復(fù)數(shù)域是生成詞向量的時(shí)候即生成對(duì)應(yīng)的位置信息。

11.簡(jiǎn)單講一下Transformer中的殘差結(jié)構(gòu)以及意義。

答:encoder和decoder的self-attention層和ffn層都有殘差連接。反向傳播的時(shí)候不會(huì)造成梯度消失。

12.為什么transformer塊使用LayerNorm而不是BatchNorm?LayerNorm 在Transformer的位置是哪里?

答:多頭注意力層和激活函數(shù)層之間。CV使用BN是認(rèn)為channel維度的信息對(duì)cv方面有重要意義,如果對(duì)channel維度也歸一化會(huì)造成不同通道信息一定的損失。而同理nlp領(lǐng)域認(rèn)為句子長(zhǎng)度不一致,并且各個(gè)batch的信息沒(méi)什么關(guān)系,因此只考慮句子內(nèi)信息的歸一化,也就是LN。

13.簡(jiǎn)答講一下BatchNorm技術(shù),以及它的優(yōu)缺點(diǎn)。

答:批歸一化是對(duì)每一批的數(shù)據(jù)在進(jìn)入激活函數(shù)前進(jìn)行歸一化,可以提高收斂速度,防止過(guò)擬合,防止梯度消失,增加網(wǎng)絡(luò)對(duì)數(shù)據(jù)的敏感度。

14.簡(jiǎn)單描述一下Transformer中的前饋神經(jīng)網(wǎng)絡(luò)?使用了什么激活函數(shù)?相關(guān)優(yōu)缺點(diǎn)?

答:輸入嵌入-加上位置編碼-多個(gè)編碼器層(每個(gè)編碼器層包含全連接層,多頭注意力層和點(diǎn)式前饋網(wǎng)絡(luò)層(包含激活函數(shù)層))-多個(gè)解碼器層(每個(gè)編碼器層包含全連接層,多頭注意力層和點(diǎn)式前饋網(wǎng)絡(luò)層)-全連接層,使用了relu激活函數(shù)

15.Encoder端和Decoder端是如何進(jìn)行交互的?

答:通過(guò)轉(zhuǎn)置encoder_ouput的seq_len維與depth維,進(jìn)行矩陣兩次乘法,即q*kT*v輸出即可得到target_len維度的輸出

16.Decoder階段的多頭自注意力和encoder的多頭自注意力有什么區(qū)別?

答:Decoder有兩層mha,encoder有一層mha,Decoder的第二層mha是為了轉(zhuǎn)化輸入與輸出句長(zhǎng),Decoder的請(qǐng)求q與鍵k和數(shù)值v的倒數(shù)第二個(gè)維度可以不一樣,但是encoder的qkv維度一樣。

17.Transformer的并行化提現(xiàn)在哪個(gè)地方?

答:Transformer的并行化主要體現(xiàn)在self-attention模塊,在Encoder端Transformer可以并行處理整個(gè)序列,并得到整個(gè)輸入序列經(jīng)過(guò)Encoder端的輸出,但是rnn只能從前到后的執(zhí)行

18.Decoder端可以做并行化嗎?

訓(xùn)練的時(shí)候可以,但是交互的時(shí)候不可以

19.簡(jiǎn)單描述一下wordpiece model 和 byte pair encoding,有實(shí)際應(yīng)用過(guò)嗎?

答“傳統(tǒng)詞表示方法無(wú)法很好的處理未知或罕見(jiàn)的詞匯(OOV問(wèn)題)

傳統(tǒng)詞tokenization方法不利于模型學(xué)習(xí)詞綴之間的關(guān)系”BPE(字節(jié)對(duì)編碼)或二元編碼是一種簡(jiǎn)單的數(shù)據(jù)壓縮形式,其中最常見(jiàn)的一對(duì)連續(xù)字節(jié)數(shù)據(jù)被替換為該數(shù)據(jù)中不存在的字節(jié)。后期使用時(shí)需要一個(gè)替換表來(lái)重建原始數(shù)據(jù)。優(yōu)點(diǎn):可以有效地平衡詞匯表大小和步數(shù)(編碼句子所需的token次數(shù))。

缺點(diǎn):基于貪婪和確定的符號(hào)替換,不能提供帶概率的多個(gè)分片結(jié)果。

20.Transformer訓(xùn)練的時(shí)候?qū)W習(xí)率是如何設(shè)定的?Dropout是如何設(shè)定的,位置在哪里?Dropout 在測(cè)試的需要有什么需要注意的嗎?

LN是為了解決梯度消失的問(wèn)題,dropout是為了解決過(guò)擬合的問(wèn)題。在embedding后面加LN有利于embedding matrix的收斂。

21.bert的mask為何不學(xué)習(xí)transformer在attention處進(jìn)行屏蔽score的技巧?

答:BERT和transformer的目標(biāo)不一致,bert是語(yǔ)言的預(yù)訓(xùn)練模型,需要充分考慮上下文的關(guān)系,而transformer主要考慮句子中第i個(gè)元素與前i-1個(gè)元素的關(guān)系。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    4013

    瀏覽量

    143379
  • 矩陣
    +關(guān)注

    關(guān)注

    1

    文章

    450

    瀏覽量

    36267
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    156

    瀏覽量

    6962

原文標(biāo)題:21個(gè)Transformer面試題的簡(jiǎn)單回答

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI面試的真與假,不在報(bào)告是否漂亮,而在評(píng)分是否可追溯

    在招聘場(chǎng)景中,AI面試真正需要回答的,并不是“能不能生成一份看起來(lái)足夠智能的報(bào)告”,而是兩個(gè)更基礎(chǔ)、也更嚴(yán)肅的問(wèn)題: 第一,評(píng)分究竟是否真正由算法獨(dú)立完成; 第二,這一評(píng)分是否具備足夠的信度與效度
    的頭像 發(fā)表于 03-16 16:28 ?156次閱讀
    AI<b class='flag-5'>面試</b>的真與假,不在報(bào)告是否漂亮,而在評(píng)分是否可追溯

    TCP三次握手與四次揮手的詳細(xì)過(guò)程

    TCP 三次握手和四次揮手,大概是網(wǎng)絡(luò)領(lǐng)域被問(wèn)爛了的面試題。但真正能把狀態(tài)變遷、序列號(hào)變化、抓包細(xì)節(jié)講清楚的人并不多。很多人背了八股文,一到生產(chǎn)環(huán)境看 Wireshark 抓包就懵了
    的頭像 發(fā)表于 02-25 10:38 ?444次閱讀

    Transformer 入門(mén):從零理解 AI 大模型的核心原理

    第一部分:數(shù)學(xué)基礎(chǔ)鋪墊 在開(kāi)始之前,讓我們先了解一些基礎(chǔ)概念。不用擔(dān)心,我會(huì)用最簡(jiǎn)單的方式來(lái)解釋。 向量、矩陣、張量 什么是向量(Vector)? 向量就是一排數(shù)字的集合。 想象你要描述一個(gè)人的特征
    發(fā)表于 02-10 16:33

    面試必看!排隊(duì)自旋鎖32位變量的域劃分與核心作用

    在操作系統(tǒng)面試中,并發(fā)同步機(jī)制一直是高頻考點(diǎn),而排隊(duì)自旋鎖作為解決傳統(tǒng)自旋鎖“饑餓” 問(wèn)題的關(guān)鍵技術(shù),其 32 位變量的域劃分更是面試官青睞的 “細(xì)節(jié)題”。不少同學(xué)能說(shuō)出排隊(duì)自旋鎖的基本概念,卻對(duì)其
    的頭像 發(fā)表于 02-09 16:54 ?921次閱讀
    <b class='flag-5'>面試</b>必看!排隊(duì)自旋鎖32位變量的域劃分與核心作用

    Transformer如何讓自動(dòng)駕駛大模型獲得思考能力?

    在談及自動(dòng)駕駛時(shí),Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動(dòng)駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4391次閱讀

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來(lái)。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)可以將這些重要信息有效地關(guān)聯(lián)起來(lái)。
    的頭像 發(fā)表于 11-19 18:17 ?2466次閱讀

    人工智能工程師高頻面試題匯總:循環(huán)神經(jīng)網(wǎng)絡(luò)篇(題目+答案)

    后臺(tái)私信雯雯老師,備注:循環(huán)神經(jīng)網(wǎng)絡(luò),領(lǐng)取更多相關(guān)面試題隨著人工智能技術(shù)的突飛猛進(jìn),AI工程師成為了眾多求職者夢(mèng)寐以求的職業(yè)。想要拿下這份工作,面試的時(shí)候得展示出你不僅技術(shù)過(guò)硬,還得能解決問(wèn)題。所以
    的頭像 發(fā)表于 10-17 16:36 ?862次閱讀
    人工智能工程師高頻<b class='flag-5'>面試題</b>匯總:循環(huán)神經(jīng)網(wǎng)絡(luò)篇(題目+答案)

    用30道電子工程師面試題來(lái)拷問(wèn)墮落的你...

    今天用30道電子工程師面試題來(lái)拷問(wèn)墮落的你,你能扛住第幾題?1、下面是一些基本的數(shù)字電路知識(shí)問(wèn)題,請(qǐng)簡(jiǎn)要回答之。(1)什么是Setup和Hold時(shí)間?答:Setup/HoldTime用于測(cè)試芯片
    的頭像 發(fā)表于 10-15 17:37 ?1383次閱讀
    用30道電子工程師<b class='flag-5'>面試題</b>來(lái)拷問(wèn)墮落的你...

    每周推薦!硬件設(shè)計(jì)指南+無(wú)刷電機(jī)原理圖大全+工程師面試題庫(kù)匯總

    、硬件工程師或研發(fā)類(lèi)筆試面試題庫(kù)匯總 一、模擬電路(基本概念和知識(shí)總攬) 1、基本放大電路種類(lèi) (電壓放大器,電流放大器,互導(dǎo)放大器和互阻放大器),優(yōu)缺點(diǎn),特別是廣泛采用差分結(jié)構(gòu)的原因。 2、負(fù)反饋種類(lèi)
    發(fā)表于 07-07 14:38

    硬件工程師或研發(fā)類(lèi)筆試面試題庫(kù)匯總

    一、模擬電路(基本概念和知識(shí)總攬)1、基本放大電路種類(lèi)(電壓放大器,電流放大器,互導(dǎo)放大器和互阻放大器),優(yōu)缺點(diǎn),特別是廣泛采用差分結(jié)構(gòu)的原因。2、負(fù)反饋種類(lèi)(電壓并聯(lián)反饋,電流串聯(lián)反饋,電壓串聯(lián)反饋和電流并聯(lián)反饋);負(fù)反 饋的優(yōu)點(diǎn)(降低放大器的增益靈敏度,改變輸入電阻和輸出電阻,改善放大器的線性和非 線性失真,有效地?cái)U(kuò)展放大器的通頻帶,自動(dòng)調(diào)節(jié)作用)3、基爾霍夫定理的內(nèi)容是什么?基爾霍夫定律包括電流定律和電壓定律。電流定律:在集總電路中,任何時(shí)刻,對(duì)任一節(jié)點(diǎn),所有流出節(jié)點(diǎn)的支路電流代數(shù)和恒等于零。電壓定律:在集總電路中,任何時(shí)刻,沿任一回路,所有支路電壓的代數(shù)和恒等于零。4、描述反饋電路的概念,列舉他們的應(yīng)用?反饋,就是在電子系統(tǒng)中,把輸出回路中的電量輸入到輸入回路中去。反饋的類(lèi)型有:電壓串聯(lián)負(fù)反饋、電流串聯(lián)負(fù)反饋、電壓并聯(lián)負(fù)反饋、電流并聯(lián)負(fù)反饋。負(fù)反饋的優(yōu)點(diǎn):降低放大器的增益靈敏度,改變輸入電阻和輸出電阻,改善放大器的線性和非線性失真,有效地?cái)U(kuò)展放大器的通頻帶,自動(dòng)調(diào)節(jié)作用。電壓(流)負(fù)反饋的特點(diǎn):電路的輸出電壓(流)趨向于維持恒定。5、有源濾波器和無(wú)源濾波器的區(qū)別?無(wú)源濾波器:這種電路主要有無(wú)源元件R、L和C組成有源濾波器:集成運(yùn)放和R、C組成,具有不用電感、體積小、重量輕等優(yōu)點(diǎn)。集成運(yùn)放的開(kāi)環(huán)電壓增益和輸入阻抗均很高,輸出電阻小,構(gòu)成有源濾波電路后還具有一定的電壓放大和緩沖作用。但集成運(yùn)放帶寬有限,所以目前的有源濾波電路的工作頻率難以做得很高。6、基本放大電路的種類(lèi)及優(yōu)缺點(diǎn),廣泛采用差分結(jié)構(gòu)的原因。答:基本放大電路按其接法的不同可以分為共發(fā)射極放大電路、共基極放大電路和共集電極放大電路,簡(jiǎn)稱共基、共射、共集放大電路。共射放大電路既能放大電流又能放大電壓,輸入電阻在三種電路中居中,輸出電阻較大,頻帶較窄。常做為低頻電壓放大電路的單元電路。共基放大電路只能放大電壓不能放大電流,輸入電阻小,電壓放大倍數(shù)和輸出電阻與共射放大電路相當(dāng),頻率特性是三種接法中最好的電路。常用于寬頻帶放大電路。共集放大電路只能放大電流不能放大電壓,是三種接法中輸入電阻最大、輸出電阻最小的電路,并具有電壓跟隨的特點(diǎn)。常用于電壓放大電路的輸入級(jí)和輸出級(jí),在功率放大電路中也常采用射極輸出的形式。廣泛采用差分結(jié)構(gòu)的原因是差分結(jié)構(gòu)可以抑制溫度漂移現(xiàn)象。? 7、二極管主要用于限幅,整流,鉗位.? 判斷二極管是否正向?qū)ǎ海保燃僭O(shè)二極管截止,求其陽(yáng)極和陰極電位;2.若陽(yáng)極陰極電位差> UD ,則其正向?qū)?;3.若電路有多個(gè)二極管,陽(yáng)極和陰極電位差最大的二極管優(yōu)先導(dǎo)通;其導(dǎo)通后,其陽(yáng)極陰極電位差被鉗制在正向?qū)妷海ǎ?7V 或0.3V );再判斷其它二極管. 獲取完整文檔資料可下載附件哦!?。。?如果內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評(píng)論支持一下哦~
    發(fā)表于 07-01 14:21

    最全的硬件工程師筆試試題

    硬件面試題之一 1、下面是一些基本的數(shù)字電路知識(shí)問(wèn)題,請(qǐng)簡(jiǎn)要回答之。 (1) 什么是 Setup 和 Hold 時(shí)間? 答:Setup/Hold Time 用于測(cè)試芯片對(duì)輸入信號(hào)和時(shí)鐘信號(hào)之間的時(shí)間
    發(fā)表于 06-26 15:34

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨(dú)立處理token的模型不同,Transformer編碼器根據(jù)整個(gè)序列捕獲每個(gè)token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1214次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)中編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場(chǎng)翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語(yǔ)言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1449次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)概述

    【硬件方向】名企面試筆試真題:大疆創(chuàng)新校園招聘筆試題

    名企面試筆試真題:大疆創(chuàng)新校園招聘筆試題-硬件 是幾年前的題目,不過(guò)值得參考一下哦 純分享貼,有需要可以直接下載附件獲取完整資料! (如果內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評(píng)論支持一下哦~)
    發(fā)表于 05-16 17:31

    硬件工程師面試/筆試經(jīng)典 100 題

    分享一些常見(jiàn)的硬件工程師面試/筆試題。公眾號(hào)后臺(tái)回復(fù)關(guān)鍵字:100題,可獲取完整的PDF。--END--免責(zé)聲明:本文轉(zhuǎn)自網(wǎng)絡(luò),版權(quán)歸原作者所有,如涉及作品版權(quán)問(wèn)題,請(qǐng)及時(shí)與我們聯(lián)系,謝謝!加入粉絲
    的頭像 發(fā)表于 04-30 19:34 ?1672次閱讀
    硬件工程師<b class='flag-5'>面試</b>/筆試經(jīng)典 100 題