chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Salesforce發(fā)布了一項(xiàng)新的研究成果:decaNLP十項(xiàng)自然語(yǔ)言任務(wù)的通用模型

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-06-25 08:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI科技大本營(yíng)按:目前的NLP領(lǐng)域有一個(gè)問題:即使是再厲害的算法也只能針對(duì)特定的任務(wù),比如適用于機(jī)器翻譯的模型不一定可以拿來做情感分析或摘要。

然而近日,Salesforce發(fā)布了一項(xiàng)新的研究成果:decaNLP——一個(gè)可以同時(shí)處理機(jī)器翻譯、問答、摘要、文本分類、情感分析等十項(xiàng)自然語(yǔ)言任務(wù)的通用模型。

Salesforce的首席科學(xué)家RichardSocher在接受外媒采訪時(shí)表示:我們的decaNLP就好比NLP領(lǐng)域的瑞士軍刀!

以下為AI科技大本營(yíng)對(duì)Salesforce的論文概述《The Natural Language Decathlon》的編譯,enjoy!

▌引言

深度學(xué)習(xí)已經(jīng)顯著地改善了自然語(yǔ)言處理任務(wù)中的最先進(jìn)的性能,如機(jī)器翻譯、摘要、問答和文本分類。每一個(gè)任務(wù)都有一個(gè)特定的衡量標(biāo)準(zhǔn),它們的性能通常是由一組基準(zhǔn)數(shù)據(jù)集測(cè)量的。這也促進(jìn)了專門設(shè)計(jì)這些任務(wù)和衡量標(biāo)準(zhǔn)的體系的發(fā)展,但是它可能不會(huì)促使那些能夠在各種自然語(yǔ)言處理(NLP)任務(wù)中表現(xiàn)良好的通用自然語(yǔ)言處理模型的涌現(xiàn)。為了探索這種通用模型的可能性以及在優(yōu)化它們時(shí)產(chǎn)生的權(quán)衡關(guān)系,我們引入了自然語(yǔ)言十項(xiàng)全能(decaNLP)。

這個(gè)挑戰(zhàn)涵蓋了十個(gè)任務(wù):?jiǎn)柎稹C(jī)器翻譯、摘要、自然語(yǔ)言推理、情感分析、語(yǔ)義角色標(biāo)注、關(guān)系抽取、任務(wù)驅(qū)動(dòng)多輪對(duì)話、數(shù)據(jù)庫(kù)查詢生成器和代詞消解。自然語(yǔ)言十項(xiàng)全能(decaNLP)的目標(biāo)是開發(fā)出可以整合所有十個(gè)任務(wù)的模型,并研究這種模型與那些為單一任務(wù)訓(xùn)練而準(zhǔn)備的模型有何不同。出于這個(gè)原因,十項(xiàng)全能的表現(xiàn)會(huì)被一個(gè)統(tǒng)一的指標(biāo)所衡量,該指標(biāo)集合了所有十項(xiàng)任務(wù)的度量標(biāo)準(zhǔn)。

圖1.通過將 decaNLP的所有十個(gè)任務(wù)整合成問答形式,我們可以訓(xùn)練一個(gè)通用的問答模型

我們把所有十個(gè)任務(wù)都統(tǒng)一轉(zhuǎn)化為問答的方式,提出了一個(gè)新的多任務(wù)問答網(wǎng)絡(luò)(MQAN),它是一個(gè)不需要特定任務(wù)的模塊或參數(shù)而進(jìn)行共同學(xué)習(xí)任務(wù)的網(wǎng)絡(luò)。在機(jī)器翻譯和實(shí)體識(shí)別命名中,MQAN顯示出了遷移學(xué)習(xí)(Transfer learning)方面的改進(jìn)。在情感分析和自然語(yǔ)言推理中,MQAN顯示出了在領(lǐng)域適應(yīng)方面的改進(jìn),同時(shí)對(duì)于文本分類方面也顯示出了其zero-shot的能力。

在與基線的比較中,我們證明了MQAN的多指針編解碼器(multi-pointer-generator decoder)是成功的關(guān)鍵,并且使用相反的訓(xùn)練策略(anti-curriculum training strategy)進(jìn)一步改進(jìn)了性能。 盡管該設(shè)計(jì)用于decaNLP和通用的問答,MQAN恰好也能在單任務(wù)設(shè)置中表現(xiàn)良好:它在WikiSQL語(yǔ)義解析任務(wù)上與單項(xiàng)模型最佳成績(jī)旗鼓相當(dāng),任務(wù)驅(qū)動(dòng)型對(duì)話任務(wù)中它排名第二,在SQuAD數(shù)據(jù)集不直接使用跨監(jiān)督方法的模型中它得分最高,同時(shí)在其他任務(wù)中也表現(xiàn)良好。decaNLP的從獲取和處理數(shù)據(jù)、訓(xùn)練和評(píng)估模型到復(fù)現(xiàn)實(shí)驗(yàn)的所有代碼已經(jīng)開源。

▌任務(wù)

圖2.(問題、上下文、答案)問答、機(jī)器翻譯、摘要、自然語(yǔ)言推理、情感分析、詞性標(biāo)注、關(guān)系抽取、目標(biāo)導(dǎo)向?qū)υ?、語(yǔ)義解析和代詞解析任務(wù)的例子

讓我們首先開始討論這些任務(wù)及其相關(guān)數(shù)據(jù)集。我們的論文包含更多的細(xì)節(jié),包括對(duì)每個(gè)任務(wù)的歷史背景和最近的工作進(jìn)行更深入的討論。每個(gè)任務(wù)的輸入-輸出對(duì)示例如上圖所示。

問答。問答(QA)模型接收一個(gè)問題以及它所包含的必要的信息的上下文來輸出理想的答案。我們使用斯坦福問答數(shù)據(jù)集的原始版本(SQuAD)來完成這項(xiàng)任務(wù)。該上下文是從英文維基百科中摘取的段落,答案是從文章中復(fù)制的單詞序列。

機(jī)器翻譯。機(jī)器翻譯模型以源語(yǔ)言文本的形式為輸入,輸出為翻譯好的目標(biāo)語(yǔ)言。我們使用2016年為國(guó)際口語(yǔ)翻譯研討會(huì)(IWSLT)準(zhǔn)備的英譯德數(shù)據(jù)為訓(xùn)練數(shù)據(jù)集,使用2013年和2014年的測(cè)試集作為驗(yàn)證集和測(cè)試集。這些例子來自TED演講,涵蓋了會(huì)話語(yǔ)言的各種主題。這是一個(gè)相對(duì)較小的機(jī)器翻譯數(shù)據(jù)集,但是它與其他任務(wù)的數(shù)據(jù)集大致相同。當(dāng)然你還可以使用額外的訓(xùn)練資源,比如機(jī)器翻譯大賽(WMT)中的數(shù)據(jù)集。

摘要。摘要模型接收一個(gè)文檔并輸出該文檔的摘要。如今在摘要方面最重要的進(jìn)展是將CNN/DailyMail (美國(guó)有線電視新聞網(wǎng)/每日郵報(bào))語(yǔ)料庫(kù)轉(zhuǎn)換成一個(gè)摘要數(shù)據(jù)集。我們?cè)赿ecaNLP中包含這個(gè)數(shù)據(jù)集的非匿名版本。平均來講,這些實(shí)例包含了該挑戰(zhàn)賽中最長(zhǎng)的文檔,以及從上下文直接提取答案與語(yǔ)境外生成答案之間平衡的force Model。

自然語(yǔ)言推理。自然語(yǔ)言推理(NLI)模型接受兩個(gè)輸入句子:一個(gè)前提和一個(gè)假設(shè)。模型必須將前提和假設(shè)之間的推理關(guān)系歸類為支持、中立或矛盾。我們使用的是多體裁自然語(yǔ)言推理語(yǔ)料庫(kù)(MNLI),它提供來自多個(gè)領(lǐng)域的訓(xùn)練示例(轉(zhuǎn)錄語(yǔ)音、通俗小說、政府報(bào)告)和來自各個(gè)領(lǐng)域的測(cè)試對(duì)。

情感分析。情感分析模型被訓(xùn)練用來對(duì)輸入文本表達(dá)的情感進(jìn)行分類。斯坦福情感樹庫(kù)(SST)由一些帶有相應(yīng)的情緒(積極的,中立的,消極的)的影評(píng)所組成。我們使用未解析的二進(jìn)制版本,以便明確對(duì)decaNLP模型的解析依賴。

語(yǔ)義角色標(biāo)注。語(yǔ)義角色標(biāo)注(SRL)模型給出一個(gè)句子和謂語(yǔ)(通常是一個(gè)動(dòng)詞),并且必須確定“誰(shuí)對(duì)誰(shuí)做了什么”、“什么時(shí)候”、“在哪里”。我們使用一個(gè)SRL數(shù)據(jù)集,該數(shù)據(jù)集將任務(wù)視為一種問答:QA-SRL。這個(gè)數(shù)據(jù)集涵蓋了新聞和維基百科的領(lǐng)域,但是為了確保decaNLP的所有數(shù)據(jù)都可以自由下載,我們只使用了后者。

關(guān)系抽取。關(guān)系抽取系統(tǒng)包含文本文檔和要從該文本中提取的關(guān)系類型。在這種情況下,模型需要先識(shí)別實(shí)體間的語(yǔ)義關(guān)系,再判斷是不是屬于目標(biāo)種類。與SRL一樣,我們使用一個(gè)數(shù)據(jù)集,該數(shù)據(jù)集將關(guān)系映射到一組問題,以便關(guān)系抽取可以被視為一種問答形式:QA-ZRE。對(duì)數(shù)據(jù)集的評(píng)估是為了在新的關(guān)系上測(cè)量零樣本性能——數(shù)據(jù)集是分開的使得測(cè)試時(shí)看到的關(guān)系在訓(xùn)練時(shí)是無法看到的。這種零樣本的關(guān)系抽取,以問答為框架,可以推廣到新的關(guān)系之中。

任務(wù)驅(qū)動(dòng)多輪對(duì)話。對(duì)話狀態(tài)跟蹤是任務(wù)驅(qū)動(dòng)多輪對(duì)話系統(tǒng)的關(guān)鍵組成部分。根據(jù)用戶的話語(yǔ)和系統(tǒng)動(dòng)作,對(duì)話狀態(tài)跟蹤器會(huì)跟蹤用戶為對(duì)話系統(tǒng)設(shè)定了哪些事先設(shè)定目標(biāo),以及用戶在系統(tǒng)和用戶交互過程中發(fā)出了哪些請(qǐng)求。我們使用的是英文版的WOZ餐廳預(yù)訂服務(wù),它提供了事先設(shè)定的關(guān)于食物、日期、時(shí)間、地址和其他信息的本體,可以幫助代理商為客戶進(jìn)行預(yù)訂。

語(yǔ)義解析。SQL查詢生成與語(yǔ)義解析相關(guān)?;赪ikiSQL數(shù)據(jù)集的模型將自然語(yǔ)言問題轉(zhuǎn)換為結(jié)構(gòu)化SQL查詢,以便用戶可以使用自然語(yǔ)言與數(shù)據(jù)庫(kù)交互。

代詞消解。我們的最后一個(gè)任務(wù)是基于要求代詞解析的Winograd模式:“Joan一定要感謝Susan的幫助(給予/收到)。誰(shuí)給予或者收到了幫助?Joan還是Susan?”。我們從Winograd模式挑戰(zhàn)中的示例開始,并對(duì)它們進(jìn)行了修改(導(dǎo)致了修訂的Winograd模式挑戰(zhàn),即MWSC),以確保答案是上下文中的單個(gè)單詞,并且分?jǐn)?shù)不會(huì)因上下文、問題和答案之間的措辭或不一致而增加或者減少。

十項(xiàng)全能得分(decaScore)

在decaNLP上競(jìng)爭(zhēng)的模型是被特定任務(wù)中度量標(biāo)準(zhǔn)的附加組合來評(píng)估的。所有的度量值都在0到100之間,因此十項(xiàng)全能得分在10個(gè)任務(wù)中的度量值在0到1000之間。使用附加組合可以避免我們?cè)跈?quán)衡不同指標(biāo)時(shí)可能產(chǎn)生的隨意性。所有指標(biāo)都不區(qū)分大小寫。我們將標(biāo)準(zhǔn)化的F1(nF1)用于問答、自然語(yǔ)言推理、情感分析、詞性標(biāo)注和MWSC;平均值ROUGE-1、ROUGE-2、ROUGE-L作為摘要的評(píng)分等級(jí);語(yǔ)料BLEU水平得分用于對(duì)機(jī)器翻譯進(jìn)行評(píng)分;聯(lián)合目標(biāo)跟蹤精確匹配分?jǐn)?shù)和基于回合的請(qǐng)求精確匹配得分的平均值用于對(duì)目標(biāo)導(dǎo)向進(jìn)行評(píng)分;邏輯形式精確匹配得分用于WikiSQL上的語(yǔ)義解析;以及語(yǔ)料庫(kù)級(jí)F1評(píng)分等級(jí),用于QA-ZRE的關(guān)系提取。

為了代替標(biāo)準(zhǔn)的驗(yàn)證數(shù)據(jù),我們選擇了按要求的decaNLP模型提交到原始的小組平臺(tái)進(jìn)行測(cè)試。類似地,MNLI測(cè)試集不是公開的,decaNLP模型必須通過一個(gè)Kaggle系統(tǒng)來評(píng)估MNLI的測(cè)試性能。

▌多任務(wù)問答網(wǎng)絡(luò)(MQAN)

圖3.多任務(wù)問答網(wǎng)絡(luò)

為了有效地在所有decaNLP中進(jìn)行多任務(wù)處理,我們引入了MQAN,一個(gè)多任務(wù)問題回答網(wǎng)絡(luò),它沒有任何針對(duì)特定任務(wù)的參數(shù)和模塊。

簡(jiǎn)單地說,MQAN采用一個(gè)問題和一個(gè)上下文背景文檔,用BiLSTM編碼,使用額外的共同關(guān)注對(duì)兩個(gè)序列的條件進(jìn)行表示,用另兩個(gè)BiLSTM壓縮所有這些信息,使其能夠更高層進(jìn)行計(jì)算,用自我關(guān)注的方式來收集這種長(zhǎng)距離依賴關(guān)系,然后使用兩個(gè)BiLSTM對(duì)問題和背景環(huán)境的進(jìn)行最終的表示。多指針生成器解碼器著重于問題、上下文以及先前輸出象征來決定是否從問題中復(fù)制,還是從上下文復(fù)制,或者從有限的詞匯表中生成。關(guān)于我們的模型的其他細(xì)節(jié)可以在我們的文章的第3節(jié)中找到。

▌基線和結(jié)果

除了MQAN,我們還嘗試了幾種基線方法并計(jì)算了它們的十項(xiàng)全能得分。第一個(gè)基線,S2S,是具有注意力和指針生成器的序列到序列的網(wǎng)絡(luò)。我們的第二基線,S2S w/SAtt,是一個(gè)S2S網(wǎng)絡(luò),它在編碼器側(cè)的BiLTM層和解碼器側(cè)的LSTM層之間添加了自注意(Transformer)層。我們的第三個(gè)基線,+CAtt,將上下文和問題分成兩個(gè)序列,并在編碼器側(cè)添加一個(gè)額外的共同關(guān)注層。MQAN是一個(gè)種帶有附加問題指針的+CAtt模型,在我們的基線/消融研究中,它被稱為+QPtr。針對(duì)每一個(gè)模型,我們都提出了兩種實(shí)驗(yàn)。第一,我們報(bào)告出十個(gè)任務(wù)模型中的單任務(wù)性能。第二,我們提出多任務(wù)性能,即模型在所有任務(wù)中被聯(lián)合訓(xùn)練所體現(xiàn)出的性能。

圖4.單任務(wù)和多任務(wù)實(shí)驗(yàn)對(duì)不同模型和訓(xùn)練策略的驗(yàn)證結(jié)果

比較這些實(shí)驗(yàn)的結(jié)果突出了在序列到序列和通用NLP問答方法之間的多任務(wù)和單任務(wù)之間的權(quán)衡關(guān)系。從S2S到S2S w/ SAtt提供了一種模型,該模型在混合上下文和輸入的系列問題中添加了附加關(guān)注層。這大大提高了 SQuAD和WiKISQL的性能,同時(shí)也提高了QA-SRL的性能。僅此一點(diǎn)就足以實(shí)現(xiàn)WiKISQL的最新技術(shù)性能。這也表明,如果不隱性地學(xué)習(xí)如何分離它們的表示方法,而顯性地去分離上下文和問題會(huì)使模型建立更豐富的表示方法。

下一個(gè)基線使用上下文和問題作為單獨(dú)的輸入序列,相當(dāng)于使用一個(gè)共同關(guān)注機(jī)制(+CAT)來增強(qiáng)S2S模型,該機(jī)制分別構(gòu)建了兩個(gè)序列表示。 使得每個(gè)SQuAD和QA-SRL的性能增加了 5 nF1。但遺憾的是,這種分離不能改善其他任務(wù),并且極大地?fù)p害了MNLI和MWSC的性能。對(duì)于這兩個(gè)任務(wù),可以直接從問題中復(fù)制答案,而不是像大多數(shù)其他任務(wù)那樣從上下文中復(fù)制答案。由于兩個(gè)S2S基線都將問題連接到上下文,所以指針生成器機(jī)制能夠直接從問題中復(fù)制。當(dāng)上下文和問題被分成兩個(gè)不同的輸入時(shí),模型就失去了這種能力。

為了補(bǔ)救這個(gè)問題,我們?cè)谇懊娴幕€中添加了一個(gè)問題指針(+QPTR),一種在之前添加給MQAN的指針。這提高了MNLI和MWSC的性能,甚至能夠比S2S基線達(dá)到更高的分?jǐn)?shù)。它也改善了在SQuAD,IWSLT和 CNN/DM上的性能,該模型在WiKISQL上實(shí)現(xiàn)了最新的成果,是面向目標(biāo)的對(duì)話數(shù)據(jù)集的第二高執(zhí)行模型,并且是非顯式地將問題建模為跨度提取的最高性能模型。因?yàn)楫?dāng)使用直接跨度監(jiān)督時(shí),我們會(huì)看到應(yīng)用在通用問答中的一些局限性。

在多任務(wù)設(shè)置中,我們看到了類似的結(jié)果,但我們還注意到一些額外的顯著特性。在QA-ZRE中,零樣本關(guān)系提取,性能比最高的單任務(wù)模型提高11個(gè)點(diǎn),這支持了多任務(wù)學(xué)習(xí)即使在零樣本情況下也能得到更好的泛化的假設(shè)。在需要大量使用S2S基線的指針生成器解碼器的生成器部分的任務(wù)上,性能下降了50%以上,直到問題指針再次添加到模型中。我們認(rèn)為這在多任務(wù)設(shè)置中尤為重要。原因有二:首先,問題指針除了在一個(gè)共同參與的上下文語(yǔ)境環(huán)境之外,還有一個(gè)共同參與的問題。這種分離允許有關(guān)問題的關(guān)鍵信息直接流入解碼器,而不是通過共同參與的上下文。其次,通過更直接地訪問這個(gè)問題,模型能夠更有效地決定何時(shí)生成輸出令牌比直接復(fù)制更合適。

使用這種反課程訓(xùn)練策略,最初只針對(duì)問答進(jìn)行訓(xùn)練,在decaNLP上的性能也進(jìn)一步有所提高。

▌零樣本和遷移學(xué)習(xí)能力

圖5.在適應(yīng)新域和學(xué)習(xí)新任務(wù)時(shí),MQAN對(duì)decaNLP的預(yù)訓(xùn)練優(yōu)于隨機(jī)初始化。左:一個(gè)新的語(yǔ)言對(duì)的訓(xùn)練-英文到捷克語(yǔ),右:訓(xùn)練一個(gè)新的任務(wù)-實(shí)體識(shí)別命名(NER)

考慮到我們的模型是在豐富和多樣的數(shù)據(jù)上進(jìn)行訓(xùn)練的,它構(gòu)建了強(qiáng)大的中間表示方法,從而實(shí)現(xiàn)了遷移學(xué)習(xí)。相對(duì)于一個(gè)隨機(jī)初始化的模型,我們的模型在decaNLP上進(jìn)行了預(yù)先訓(xùn)練,使得在幾個(gè)新任務(wù)上更快的收斂并且也提高了分?jǐn)?shù)。我們?cè)谏蠄D中給出了兩個(gè)這樣的任務(wù):命名實(shí)體識(shí)別和英文到捷克語(yǔ)的翻譯。 我們的模型也具有領(lǐng)域適應(yīng)的零樣本能力。

我們的模型在decaNLP上接受過訓(xùn)練,在沒有看過訓(xùn)練數(shù)據(jù)的情況下,我們將SNLI數(shù)據(jù)集調(diào)整到62%的精確匹配分?jǐn)?shù)。因?yàn)閐ecaNLP包含SST,它也可以在其他二進(jìn)制情感分析任務(wù)中執(zhí)行得很好。在亞馬遜和Yelp的評(píng)論中,MQAN在decaNLP上進(jìn)行了預(yù)先培訓(xùn),分別獲得了82.1%和80.8%的精確匹配分?jǐn)?shù)。此外,用高興/憤怒或支持/不支持來替換訓(xùn)練標(biāo)簽的符號(hào)來重新表示問題,只會(huì)導(dǎo)致性能的輕微下降,因?yàn)槟P椭饕蕾囉赟ST的問題指針。這表明,這些多任務(wù)模型對(duì)于問題和任務(wù)中的微小變化更加可靠,并且可以推廣到新的和不可見的類。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    141

    瀏覽量

    15493
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5594

    瀏覽量

    124142
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23243

原文標(biāo)題:NLP通用模型誕生?一個(gè)模型搞定十大自然語(yǔ)言常見任務(wù)

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    云知聲山海醫(yī)療大模型問鼎MedBench4.0三項(xiàng)榜首

    12月16日,中文醫(yī)療大模型權(quán)威評(píng)測(cè)平臺(tái)MedBench4.0發(fā)布最新評(píng)測(cè)結(jié)果。云知聲自主研發(fā)的“山海醫(yī)療大模型(UniGPT?Med)”展現(xiàn)出全面領(lǐng)先的技術(shù)實(shí)力,舉斬獲醫(yī)療智能體、
    的頭像 發(fā)表于 12-29 14:35 ?1752次閱讀
    云知聲山海醫(yī)療大<b class='flag-5'>模型</b>問鼎MedBench4.0三<b class='flag-5'>項(xiàng)</b>榜首

    研華科技攜手森云智能率先完成一項(xiàng)重要技術(shù)突破

    近日,研華科技攜手AI視覺解決方案領(lǐng)域的全球領(lǐng)導(dǎo)者森云智能,率先完成一項(xiàng)重要技術(shù)突破。雙方成功將 GMSL 相機(jī)集成至基于NVIDIA Jetson Thor平臺(tái)的 MIC?742系統(tǒng)中。這
    的頭像 發(fā)表于 12-25 09:50 ?216次閱讀

    喜報(bào)|華微軟件AI研發(fā)持續(xù)推進(jìn),再添一項(xiàng)核心專利

    近日,華微軟件正式獲得國(guó)家知識(shí)產(chǎn)權(quán)局授權(quán)的發(fā)明專利——《基于大語(yǔ)言模型進(jìn)行業(yè)務(wù)控制的方法》。這項(xiàng)專利聚焦于提升業(yè)務(wù)系統(tǒng)對(duì)自然語(yǔ)言的理解與響應(yīng)能力,是華微軟件在人工智能應(yīng)用落地方面取得的又
    的頭像 發(fā)表于 11-27 15:02 ?107次閱讀
    喜報(bào)|華微軟件AI研發(fā)持續(xù)推進(jìn),再添<b class='flag-5'>一項(xiàng)</b>核心專利

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成式原理圖設(shè)計(jì)

    難題提供全新思路?;诖?b class='flag-5'>模型的生成式系統(tǒng)具備強(qiáng)大的上下文理解、知識(shí)推理和內(nèi)容生成能力,能夠從自然語(yǔ)言描述、功能需求或高層規(guī)格中提取關(guān)鍵信息,并結(jié)合領(lǐng)域知識(shí)庫(kù)生成符合工程規(guī)范的設(shè)計(jì)方案。本賽題正是在此
    發(fā)表于 11-13 11:49

    云知聲論文入選自然語(yǔ)言處理頂會(huì)EMNLP 2025

    近日,自然語(yǔ)言處理(NLP)領(lǐng)域國(guó)際權(quán)威會(huì)議 ——2025 年計(jì)算語(yǔ)言學(xué)與自然語(yǔ)言處理國(guó)際會(huì)議(EMNLP 2025)公布論文錄用結(jié)果,云知聲提交的《面向門診病歷生成的高質(zhì)量醫(yī)患對(duì)話合成技術(shù)
    的頭像 發(fā)表于 11-10 17:30 ?694次閱讀
    云知聲論文入選<b class='flag-5'>自然語(yǔ)言</b>處理頂會(huì)EMNLP 2025

    知行科技機(jī)器人業(yè)務(wù)新獲一項(xiàng)合作

    近日,知行科技的機(jī)器人業(yè)務(wù)新獲一項(xiàng)合作,國(guó)內(nèi)頭部機(jī)器人公司委托開發(fā)背包式機(jī)器人全棧解決方案。
    的頭像 發(fā)表于 09-03 18:12 ?718次閱讀

    維信諾斬獲2025 DIC AWARD十項(xiàng)大獎(jiǎng)

    8月7日,在2025年DIC AWARD國(guó)際顯示技術(shù)創(chuàng)新大獎(jiǎng)?lì)C獎(jiǎng)典禮上,維信諾以領(lǐng)先技術(shù)和卓越實(shí)力,舉斬獲4項(xiàng)金獎(jiǎng)、6項(xiàng)銀獎(jiǎng),以10項(xiàng)大獎(jiǎng)詮釋10
    的頭像 發(fā)表于 08-08 16:41 ?3909次閱讀

    NVIDIA展示機(jī)器人領(lǐng)域的研究成果

    在今年的機(jī)器人科學(xué)與系統(tǒng)會(huì)議 (RSS) 上,NVIDIA 研究中心展示系列推動(dòng)機(jī)器人學(xué)習(xí)的研究成果,展示在仿真、現(xiàn)實(shí)世界遷移和決策制
    的頭像 發(fā)表于 07-23 10:43 ?1280次閱讀

    技術(shù)奠定根基,瑞之辰數(shù)十項(xiàng)專利推動(dòng)產(chǎn)業(yè)創(chuàng)新

    在全球科技競(jìng)爭(zhēng)日益激烈的今天,誰(shuí)能把“創(chuàng)新”寫進(jìn)基因,誰(shuí)就能贏得未來。瑞之辰科技有限公司(以下簡(jiǎn)稱“瑞之辰”)始終以技術(shù)創(chuàng)新為引擎,深耕核心技術(shù)研發(fā),累計(jì)斬獲數(shù)十項(xiàng)發(fā)明和實(shí)用新型專利,是國(guó)家級(jí)專精特
    的頭像 發(fā)表于 07-16 15:16 ?1150次閱讀
    技術(shù)奠定根基,瑞之辰數(shù)<b class='flag-5'>十項(xiàng)</b>專利推動(dòng)產(chǎn)業(yè)創(chuàng)新

    NVIDIA在ICRA 2025展示多項(xiàng)最新研究成果

    在亞特蘭大舉行的國(guó)際機(jī)器人與自動(dòng)化大會(huì) (ICRA) 上,NVIDIA 展示其在生成式 AI、仿真和自主操控領(lǐng)域的多項(xiàng)研究成果。
    的頭像 發(fā)表于 06-06 14:56 ?1283次閱讀

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)的開發(fā)已經(jīng)成為個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語(yǔ)言文本,完成各種復(fù)雜的
    的頭像 發(fā)表于 04-30 18:34 ?1179次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    自然語(yǔ)言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示自然語(yǔ)言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?869次閱讀

    ?VLM(視覺語(yǔ)言模型)?詳細(xì)解析

    視覺語(yǔ)言模型(Visual Language Model, VLM)是種結(jié)合視覺(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型
    的頭像 發(fā)表于 03-17 15:32 ?8174次閱讀
    ?VLM(視覺<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    小白學(xué)大模型:訓(xùn)練大語(yǔ)言模型的深度指南

    在當(dāng)今人工智能飛速發(fā)展的時(shí)代,大型語(yǔ)言模型(LLMs)正以其強(qiáng)大的語(yǔ)言理解和生成能力,改變著我們的生活和工作方式。在最近的一項(xiàng)研究中,科學(xué)家
    的頭像 發(fā)表于 03-03 11:51 ?1334次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:訓(xùn)練大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的深度指南

    語(yǔ)言模型的解碼策略與關(guān)鍵優(yōu)化總結(jié)

    本文系統(tǒng)性地闡述大型語(yǔ)言模型(LargeLanguageModels,LLMs)中的解碼策略技術(shù)原理及其實(shí)踐應(yīng)用。通過深入分析各類解碼算法的工作機(jī)制、性能特征和優(yōu)化方法,為研究者和工
    的頭像 發(fā)表于 02-18 12:00 ?1211次閱讀
    大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的解碼策略與關(guān)鍵優(yōu)化總結(jié)