chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中的4個主要開放問題

DPVg_AI_era ? 來源:lq ? 2019-01-20 08:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文基于專家調(diào)查和學(xué)術(shù)會議討論,總結(jié)了NLP中的4個主要開放問題,分別涉及自然語言理解、數(shù)據(jù)可用性、多文檔推理以及模型評估問題。

本文作者Sebastian Ruder 是一名很活躍的自然語言處理 (NLP) 研究員。Sebastian 是 AYLIEN(愛爾蘭一家 NLP 公司)的一名研究科學(xué)家,還是都柏林大學(xué)Insight 研究中心數(shù)據(jù)分析組的博士生。

Sebastian Ruder

本文基于專家調(diào)查和Deep Learning Indaba論壇(非洲的一個最大的深度學(xué)習(xí)會議,得到DeepMind、谷歌等的贊助)上的討論,討論了NLP中的4個主要開放問題。

Sebastian Ruder向NLP專家提出了一些簡單但重要的問題。根據(jù)這些回答,我們發(fā)現(xiàn)四個最常被提及的問題:

自然語言理解

用于低資源場景的NLP

對大型或多個文檔進行推理

數(shù)據(jù)集、問題和評估

我們在小組討論中討論了這些問題。這篇文章主要是基于我們的專家的回答,以及小組成員Jade Abbott、Stephan Gouws、Omoju Miller和Bernardt Duvenhage的想法。我的目標(biāo)是為那些有興趣了解更多的人提供一些關(guān)于這些論點的背景知識。

自然語言理解

我認(rèn)為最大的開放性問題都與自然語言理解有關(guān)。

[…]我們應(yīng)該開發(fā)能夠以人類的方式去閱讀和理解文本的系統(tǒng),通過形成一種文本表示的世界,其中有agent、對象、設(shè)置,以及agents之間的關(guān)系、目標(biāo)、欲望、信念,以及其他一切人類為了理解一段文字而創(chuàng)造的東西。在做到這一點之前,所有的進展都是在改進我們的系統(tǒng)進行模式匹配的能力

—— Kevin Gimpel

在我們的調(diào)查中,許多專家認(rèn)為自然語言理解(natural language understanding, NLU)是一個核心問題,因為它是許多任務(wù)的先決條件,例如自然語言生成(NLG)。大家的共識是,我們目前的模型沒有一個顯示出對自然語言的“真正”理解。

先天的偏見vs.從頭開始學(xué)習(xí)

一個關(guān)鍵的問題是,為了更接近自然語言理解,我們應(yīng)該將什么樣的偏見和結(jié)構(gòu)顯式地構(gòu)建到我們的模型中?在我們的調(diào)查中,許多回復(fù)提到模型應(yīng)該包含常識。此外,對話系統(tǒng)(和聊天機器人)也多次被提及。

另一方面,對于強化學(xué)習(xí),David Silver認(rèn)為人們最終會希望模型自己學(xué)習(xí)所有東西,包括算法、特征和預(yù)測。許多專家持相反的觀點,他們認(rèn)為你應(yīng)該在模型中構(gòu)建一些理解。在2018年2月Yann LeCun和Christopher Manning之間的辯論中,也探討了模型應(yīng)該學(xué)習(xí)什么,以及應(yīng)該將什么作為模型的固有先驗(hard-wired priors)。

程序合成(Program synthesis)

Omoju認(rèn)為,只要我們不了解自然語言理解背后的機制和如何評估這些機制,就很難將理解納入其中。她認(rèn)為,我們可能希望從program synthesis中獲取想法,并自動學(xué)習(xí)基于高級規(guī)范的程序。這種觀點與神經(jīng)模塊網(wǎng)絡(luò)和神經(jīng)編程解釋器(neural programmer-interpreter)有關(guān)。

她還建議,我們應(yīng)該回顧80、90年代時最初開發(fā)的方法和框架,比如FrameNet,并將這些與統(tǒng)計方法結(jié)合起來。這應(yīng)該有助于我們推斷出對象的常識屬性,比如推斷一輛車(car)是否屬于車輛(vehicle),具有把手(handles),等等。推斷出這些常識知識也是NLP領(lǐng)域近期的一個焦點問題。

具身學(xué)習(xí)(Embodied learning)

Stephan認(rèn)為,我們應(yīng)該使用可用的結(jié)構(gòu)化資源和知識庫(如Wikidata)。他指出,人類通過體驗和互動,融入到環(huán)境中來學(xué)習(xí)語言。有人可能會爭辯說,存在一種單一的學(xué)習(xí)算法,只要agent嵌入在足夠豐富的環(huán)境中,并具有適當(dāng)?shù)莫剟顧C制,就可以從頭開始學(xué)習(xí)NLU。然而,對這樣的環(huán)境的計算量將是巨大的。相比之下,AlphaGo需要龐大的基礎(chǔ)架構(gòu)才能解決有明確定義的棋類游戲。創(chuàng)建一個可以持續(xù)學(xué)習(xí)的通用算法這種觀點,與過去提出的終身學(xué)習(xí)和通用問題解決器有關(guān)。

雖然許多人認(rèn)為我們正朝著具身學(xué)習(xí)(embodied learning)的方向前進,但是我們不應(yīng)該因此低估一個embodied agent所需的基礎(chǔ)架構(gòu)和計算。因此,等待一個成熟的embodied agent來學(xué)習(xí)語言似乎是不明智的。但是,我們可以采取一些步驟使我們更接近這個極限,例如在模擬環(huán)境中進行基礎(chǔ)語言學(xué)習(xí)、結(jié)合交互或利用多模態(tài)數(shù)據(jù)。

情感

Omoju認(rèn)為將與情感相關(guān)的人類因素融入到一個embodied agent中是非常困難的。然而,情感與對語言更深層次的理解是息息相關(guān)的。另一方面,我們可能不需要真正具有人類情感的agent。Stephan認(rèn)為,圖靈測試被定義為模仿,雖然沒有情感,但卻能愚弄人們,讓人們認(rèn)為它有情感。因此,我們應(yīng)該能夠找到解決方案,不需要embodied,也不需要情感,但能了解人們的情感并幫助人們解決問題。事實上,基于傳感器的情感識別系統(tǒng)一直在改進,文本情感檢測系統(tǒng)也是。

認(rèn)知和神經(jīng)科學(xué)

一位聽眾問,我們在模型中利用和構(gòu)建了多少神經(jīng)科學(xué)和認(rèn)知科學(xué)的知識。神經(jīng)科學(xué)和認(rèn)知科學(xué)的知識可以給你帶來很大的啟發(fā),并成為塑造你的思維的準(zhǔn)則。例如,有一些模型試圖模仿人類快速和慢速思考的能力[1]。正如Surya Ganguli在這篇文章中所闡述的,人工智能和神經(jīng)科學(xué)在許多方面是互補的。

Omoju建議從認(rèn)知科學(xué)理論中汲取靈感,比如Piaget和Vygotsky的認(rèn)知發(fā)展理論。她還敦促大家開展跨學(xué)科的工作,這一觀點得到了其他專家的響應(yīng)。

用于低資源場景的NLP

處理 low-data的設(shè)置(低資源語言、方言(包括社交媒體文本這種“方言”),等等)。這不是一個完全“開放性”的問題,因為已經(jīng)有很多有前途的想法;但我們?nèi)匀粵]有一個通用的辦法能夠解決這個普遍問題。

– Karen Livescu

我們探討的第二個主題是在低資源場景中,超出訓(xùn)練數(shù)據(jù)的限制進行泛化??紤]到Indaba是在非洲舉行的會議,一個自然的關(guān)注點就是低資源語言。第一個問題集中在是否有必要為特定的語言開發(fā)專門的NLP工具,還是研究通用NLP就夠了。

通用語言模型

Bernardt認(rèn)為,語言之間存在普遍的共性,可以被一個通用語言模型所利用。接下來的挑戰(zhàn)是獲取足夠的數(shù)據(jù)和計算力來訓(xùn)練這樣的語言模型。這與最近訓(xùn)練跨語言的Transformer模型和跨語言句子嵌入的工作密切相關(guān)。

跨語言表示(Cross-lingual representations)

Stephan指出,使用低資源語言的人不夠多。僅非洲就有1250-2100種語言,其中大多數(shù)語言很少受到NLP社區(qū)的關(guān)注。專用工具的問題也取決于正在處理的NLP任務(wù)。當(dāng)前模型的主要問題是樣本效率??缯Z言的詞匯嵌入非常高效,因為它們只需要單詞翻譯對,甚至只需要單語數(shù)據(jù)。它們可以很好地對齊詞嵌入空間,以完成主題分類這樣的粗粒度任務(wù),但不支持機器翻譯這樣的細(xì)粒度任務(wù)。然而,最近的研究表明,這些嵌入為無監(jiān)督機器翻譯形成了重要的構(gòu)建塊。

另一方面,用于更復(fù)雜的高級任務(wù)的模型(如問題回答)則需要數(shù)千個訓(xùn)練示例來進行學(xué)習(xí)。將需要實際自然語言理解的任務(wù)從高資源語言轉(zhuǎn)移到低資源語言仍然是非常具有挑戰(zhàn)性的。隨著針對此類任務(wù)的跨語言數(shù)據(jù)集的開發(fā),例如XNLI,為更多推理任務(wù)開發(fā)強大的跨語言模型有望變得更容易。

好處和影響

另一個問題是,鑒于資源不足的語言本身只有少量文本可用,NLP在此類環(huán)境中的好處是否也會受到限制?Stephan強烈反對這點,他提醒說,作為ML和NLP的從業(yè)者,我們通常傾向于以信息理論的方式看待問題,例如最大化數(shù)據(jù)的可能性或改進基準(zhǔn)。退一步說,我們研究NLP問題的真正原因是為了構(gòu)建能夠打破障礙的系統(tǒng)。我們希望構(gòu)建一個模型,使人們能夠閱讀不是用他們的語言寫的新聞,在他們不能去看醫(yī)生的時候詢問他們的健康問題,等等。

考慮到潛在的影響,為低資源語言構(gòu)建系統(tǒng)實際上是最重要的研究方向之一。雖然一種低資源語言可能沒有很多數(shù)據(jù),但是低資源語言的數(shù)量很多;事實上,這個星球上的大多數(shù)人說的都是某種資源貧乏的語言。因此我們需要找到一種方式讓我們的ML系統(tǒng)能夠在這種設(shè)置中工作。Jade認(rèn)為,具有諷刺意味的是,作為一個社區(qū),我們一直專注于擁有大量數(shù)據(jù)的語言。我們更應(yīng)該關(guān)注的是資源貧乏的語言,這些語言沒有太多數(shù)據(jù)可用。值得慶幸的是,有研究人員正在研究這種低資源語言,并取得了進展。由于缺乏數(shù)據(jù),即使是像詞袋(bag-of-words )這樣簡單的系統(tǒng)也會對現(xiàn)實世界產(chǎn)生巨大的影響。

激勵和技能

另一位聽眾指出,人們被激勵去從事數(shù)據(jù)多的基準(zhǔn)工作,如英德機器翻譯,但在低資源語言方面缺乏激勵。Stephan認(rèn)為激勵以“未解決的問題”形式存在。但是,缺乏解決這些問題的技能。我們應(yīng)該關(guān)注的是機器翻譯這類的技能,以幫助人們解決這些問題。不幸的是,學(xué)術(shù)進步并不一定與資源貧乏的語言有關(guān)。但是,如果跨語言基準(zhǔn)變得更加普遍,那么這也會促使在低資源語言方面取得更多進展。

數(shù)據(jù)可用性

Jade最后指出,一個大問題是,對于資源較少的語言,例如非洲語言,沒有可用的數(shù)據(jù)集。如果我們創(chuàng)建數(shù)據(jù)集并使其易于獲得,這將激勵人們研究并降低進入這個領(lǐng)域的壁壘。使用多種語言提供測試數(shù)據(jù)通常就足夠了,因為這將允許我們評估跨語言模型并跟蹤進度。

對大型或多個文檔進行推理

有效地表示大規(guī)模的上下文。我們目前的模型大多基于遞歸神經(jīng)網(wǎng)絡(luò),不能很好地表示較長的上下文。受圖形啟發(fā)的RNN的工作具有潛在的前景,盡管目前只有有限的改進,而且還沒有被廣泛采用,因為它們遠(yuǎn)不如普通的RNN那樣易于訓(xùn)練。

——Isabelle Augenstein

另一個大的開放問題是關(guān)于大型或多個文檔的推理。最近的NarrativeQA數(shù)據(jù)集就是這種設(shè)置的基準(zhǔn)測試的一個很好的例子。使用大規(guī)模上下文進行推理與NLU密切相關(guān),需要大幅擴展我們當(dāng)前的系統(tǒng),直到它們能夠閱讀整本的書籍和電影腳本。這里的一個關(guān)鍵問題是:我們是需要更好的模型,還是僅僅需要更多的訓(xùn)練數(shù)據(jù)?

在Dota2游戲中完勝人類職業(yè)玩家的OpenAI Five模型表明,如果增大現(xiàn)有模型的大小,讓它們處理更多的數(shù)據(jù)和更多的計算,那么它們可以做很多事情。有了足夠的數(shù)據(jù)量,我們當(dāng)前的模型在更大型的上下文中也可以做得更好。問題是,擁有大量有標(biāo)簽的文件數(shù)據(jù)是稀缺且昂貴的。類似于語言建模,我們可以想象一個文檔級的無監(jiān)督任務(wù),它需要預(yù)測一本書的下一段或下一章,或者決定下一章是哪一章。然而,這個目標(biāo)很可能過于低效,無法學(xué)習(xí)有用的表示。

因此,更有用的方向似乎是開發(fā)能夠更有效地表示上下文,并能夠在閱讀文檔時更好地跟蹤相關(guān)信息的方法。多文檔摘要(Multi-document summarization)和多文檔問答(multi-document question answering)方面已經(jīng)有進展。同樣,我們也可以在語言模型的基礎(chǔ)上提高記憶能力和終身學(xué)習(xí)能力。

數(shù)據(jù)集、問題和評估

也許最大的問題是正確定義問題本身。通過正確地定義一個問題,我的意思是建立數(shù)據(jù)集和評估程序,以適當(dāng)?shù)睾饬烤唧w目標(biāo)的進展。如果我們能把所有事情都簡化成Kaggle風(fēng)格的競賽,事情會變得更容易!

– Mikel Artetxe

囿于時間限制,我們沒有繼續(xù)討論當(dāng)前的基準(zhǔn)和評估設(shè)置的問題,但以前的調(diào)查有許多相關(guān)的回答:

https://docs.google.com/document/d/18NoNdArdzDLJFQGBMVMsQ-iLOowP1XXDaSVRmYN0IyM/edit

最后一個問題是,非洲社會應(yīng)該解決哪些最重要的NLP問題。 Jade 認(rèn)為,最重要的問題是解決資源不足的問題。特別是能夠在教育中使用翻譯,使人們能夠用自己的語言獲得他們想知道的一切,這是非常重要的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124460
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    14011
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23308

原文標(biāo)題:直面難題!NLP四大開放性問題詳解

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    PCBA生產(chǎn)過程的四主要環(huán)節(jié)?

    《www.iczoom.com》并未明確提及PCBA生產(chǎn)過程的四主要環(huán)節(jié),但根據(jù)電子制造行業(yè)的常規(guī)流程,可以將其概括為以下四關(guān)鍵環(huán)節(jié): PCB設(shè)計與打板 : 設(shè)計 :根據(jù)產(chǎn)品需求
    的頭像 發(fā)表于 03-05 11:13 ?244次閱讀

    谷歌推出TranslateGemma全新開放翻譯模型系列

    我們已正式推出 TranslateGemma,這一全新的開放翻譯模型系列基于 Gemma 3 構(gòu)建,并提供 4B、12B 和 27B 三種參數(shù)規(guī)模。TranslateGemma 的問世標(biāo)志著開放翻譯領(lǐng)域邁出了重要一步,它可幫助人
    的頭像 發(fā)表于 02-26 10:22 ?596次閱讀

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一分支,它會教計算機如何理解口頭和書面形式的人類語言。自然語言處理將計算語言學(xué)與機器學(xué)習(xí)和深度學(xué)習(xí)相結(jié)合來處理語音和文本數(shù)據(jù),這些數(shù)據(jù)也可以與其他類型的數(shù)據(jù)一起用于開發(fā)智能工程系統(tǒng)。
    的頭像 發(fā)表于 01-29 14:01 ?449次閱讀
    自然語言處理<b class='flag-5'>NLP</b>的概念和工作原理

    NVIDIA 推出 Nemotron 3 系列開放模型

    的吞吐量比 Nemotron 2 Nano 高 4 倍,并通過突破性的異構(gòu)混合專家 (Hybrid Mixture-of-Experts) 架構(gòu),在大規(guī)模多智能體系統(tǒng)實現(xiàn)了領(lǐng)先的每秒生成
    的頭像 發(fā)表于 12-16 09:27 ?674次閱讀
    NVIDIA 推出 Nemotron 3 系列<b class='flag-5'>開放</b>模型

    開放原子開源基金會發(fā)布2025國高校開源育人案例集

    11月21日,在2025開放原子開發(fā)者大會開幕式上,開放原子開源基金會正式發(fā)布《2025國高校開源育人案例集》(簡稱“《案例集》”),涵蓋29所高校和科研機構(gòu)的35開源育人優(yōu)秀案例
    的頭像 發(fā)表于 11-25 17:30 ?851次閱讀

    開放原子開源基金會與11項目完成捐贈簽約

    11月21日,在2025開放原子開發(fā)者大會開幕式上,開放原子開源基金會與11開源項目完成捐贈簽約,涵蓋人工智能、量子計算、機器人、操作系統(tǒng)、物聯(lián)網(wǎng)等多個關(guān)鍵技術(shù)方向。此舉既是基金會完善孵化體系、吸納優(yōu)質(zhì)項目的重要舉措,更標(biāo)志著
    的頭像 發(fā)表于 11-25 17:26 ?916次閱讀

    結(jié)構(gòu)化布線中使用電纜標(biāo)簽的4主要優(yōu)勢

    帶來諸多顯著的優(yōu)勢。本文將深入探討在結(jié)構(gòu)化布線中使用電纜標(biāo)簽的4主要優(yōu)勢,幫助讀者更好地理解這一細(xì)節(jié)的重要性。 提高布線系統(tǒng)的可管理性 清晰標(biāo)識電纜用途 在復(fù)雜的布線系統(tǒng),各種電纜
    的頭像 發(fā)表于 11-24 10:34 ?360次閱讀

    AFE7799 4 發(fā)射、4 接收、2 反饋射頻收發(fā)器技術(shù)手冊

    、3G、4G 和 5G 信號。低功耗和大通道集成使該AFE7799適用于功率和尺寸受限的 4G 和 5G 大規(guī)模 MIMO 基站。寬帶和高動態(tài)范圍反饋路徑可以輔助發(fā)射器鏈功率放大器的數(shù)字預(yù)失真 (DPD)。快速的 SerDes
    的頭像 發(fā)表于 11-04 14:37 ?3534次閱讀
    AFE7799 <b class='flag-5'>4</b> <b class='flag-5'>個</b>發(fā)射、<b class='flag-5'>4</b> <b class='flag-5'>個</b>接收、2 <b class='flag-5'>個</b>反饋射頻收發(fā)器技術(shù)手冊

    AFE7769 4 發(fā)射、4 接收、2 反饋射頻收發(fā)器

    2G、3G、4G 和 5G 信號。 該AFE7769的低功耗和大通道集成度使該器件能夠解決 4G 和 5G 大規(guī)模 MIMO 基站的功率和尺寸限制。寬帶和高動態(tài)范圍反饋路徑可以輔助發(fā)射器鏈功率放大器的數(shù)字預(yù)失真(DPD
    的頭像 發(fā)表于 11-04 11:19 ?741次閱讀
    AFE7769 <b class='flag-5'>4</b> <b class='flag-5'>個</b>發(fā)射、<b class='flag-5'>4</b> <b class='flag-5'>個</b>接收、2 <b class='flag-5'>個</b>反饋射頻收發(fā)器

    電商API接口開放平臺的生態(tài)構(gòu)建與運營策略

    ? 在當(dāng)今數(shù)字化商業(yè)環(huán)境,電商API接口開放平臺已成為連接商家、開發(fā)者和終端用戶的核心樞紐。通過提供標(biāo)準(zhǔn)化的接口,平臺賦能第三方快速集成電商功能(如商品管理、支付處理、物流跟蹤),從而加速創(chuàng)新
    的頭像 發(fā)表于 10-28 16:40 ?888次閱讀
    電商API接口<b class='flag-5'>開放</b>平臺的生態(tài)構(gòu)建與運營策略

    開放原子開源基金會發(fā)布150余開源項目應(yīng)用案例

    近日,在2025開放原子開源生態(tài)大會開幕式上,開放原子開源基金會發(fā)布了150余開源項目應(yīng)用案例,涵蓋中國南方電網(wǎng)、中國移動、京東集團、安貞醫(yī)院、南京郵電大學(xué)、螞蟻密算等100余家單位的實踐成果
    的頭像 發(fā)表于 07-28 17:10 ?1199次閱讀

    第三屆開放原子大賽正式啟動

    近日,在2025開放原子開源生態(tài)大會開幕式上,第三屆開放原子大賽正式啟動,首批12賽項同步發(fā)布。
    的頭像 發(fā)表于 07-28 17:03 ?1148次閱讀

    繞組開放型永磁同步電機的建模及應(yīng)用

    摘 要:本文以傳統(tǒng)永磁電機 abc 坐標(biāo)系下的動態(tài)數(shù)學(xué)模型為基礎(chǔ),推導(dǎo)出繞組開放型永磁電機的數(shù)學(xué)模型。將模型的電壓方程分為繞組電阻電壓、繞組自感電壓、繞組反電動勢、繞組間的互感電壓,建立繞組開放
    發(fā)表于 06-12 13:52

    提供4觸摸輸入端口及4直接輸出端口的4鍵觸摸檢測IC-CT8224C

    CT8224C是一款使用電容式感應(yīng)原理設(shè)計的觸摸IC,此款I(lǐng)C內(nèi)建穩(wěn)壓電路給觸摸感測器使用,穩(wěn)定的感應(yīng)方式可以應(yīng)用到各種不同電子類產(chǎn)品。面板介質(zhì)可以是完全絕源的材料,專為取代傳統(tǒng)的機械結(jié)構(gòu)開關(guān)或普通按鍵而設(shè)計,提供4觸摸輸入端口及4
    的頭像 發(fā)表于 06-05 09:38 ?822次閱讀
    提供<b class='flag-5'>4</b><b class='flag-5'>個</b>觸摸輸入端口及<b class='flag-5'>4</b><b class='flag-5'>個</b>直接輸出端口的<b class='flag-5'>4</b>鍵觸摸檢測IC-CT8224C

    半導(dǎo)體制造過程的三主要階段

    前段工藝(Front-End)、中段工藝(Middle-End)和后段工藝(Back-End)是半導(dǎo)體制造過程的三主要階段,它們在制造過程扮演著不同的角色。
    的頭像 發(fā)表于 03-28 09:47 ?7732次閱讀
    半導(dǎo)體制造過程<b class='flag-5'>中</b>的三<b class='flag-5'>個</b><b class='flag-5'>主要</b>階段