chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

優(yōu)必選服務(wù)機(jī)器人NLP技術(shù)最新研究進(jìn)展

中山市物聯(lián)網(wǎng)協(xié)會 ? 來源:智東西 ? 作者:智東西 ? 2020-12-31 16:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

12月18日,優(yōu)必選研究院技術(shù)專家羅沛鵬在智東西公開課進(jìn)行了一場的直播講解,主題為《優(yōu)必選服務(wù)機(jī)器人自然語言處理技術(shù)》,這也是優(yōu)必選專場第7講。

在本次講解中,羅沛鵬老師首先從自然語言處理技術(shù)的研究出發(fā),對優(yōu)必選的自然語言處理在機(jī)器人中的應(yīng)用,如場景交互中的多輪對話問題,以及AI寫作創(chuàng)作等方面進(jìn)行全面解析,并對優(yōu)必選自然語言處理在機(jī)器人上的應(yīng)用案例進(jìn)行解析。

本文為此次專場主講環(huán)節(jié)的圖文整理:

各位朋友大家好,我是來自優(yōu)必選研究院的羅沛鵬,今天由我給大家講解優(yōu)必選服務(wù)機(jī)器人自然語言處理技術(shù)。內(nèi)容會分為以下5個部分:

1、服務(wù)機(jī)器人語音交互技術(shù)概述

2、自然語言處理技術(shù)概述與發(fā)展

3、優(yōu)必選自然語言處理技術(shù)的研究與開發(fā)

4、優(yōu)必選自然語言處理技術(shù)在服務(wù)機(jī)器人上的應(yīng)用

5、優(yōu)必選自然語言處理技術(shù)未來研究方向

正文:

服務(wù)機(jī)器人語音交互技術(shù)概述

如上圖所示,人的語音通過ASR(語音識別)把音頻變成文本,文本經(jīng)過NLU(語義理解)、DM(對話管理)以及NLG(語言生成),生成的語言在通過TTS(語音合成),最后機(jī)器人完成對話。

自然語言處理技術(shù)概述與發(fā)展

首先來幾個段子,相信大家在網(wǎng)上經(jīng)??吹筋愃频亩巫樱热纭柏浝焕祭唷?,這個是一個典型的中文分詞問題,生活中給大家?guī)聿簧俚穆闊?。另外我相信大家都在拼音輸入法上翻過車,“答辯”打成“大便”,這是一個典型的語言模型問題,后面會介紹語言相關(guān)的模型。還有在前段時間比較火的滿分作文生成器,可以用它來生成類似的滿分作文,后邊也有文本生成的算法介紹,請大家拭目以待。

自然語言處理技術(shù)可以分為基礎(chǔ)技術(shù)和核心應(yīng)用。其中,基礎(chǔ)技術(shù)包括自動分詞、詞性標(biāo)注、命名實(shí)體識別以及句法分析。

自動分詞是自然語言處理領(lǐng)域最基礎(chǔ)的工作,以前主要基于規(guī)則和概率統(tǒng)計,現(xiàn)在已經(jīng)發(fā)展到基于深度學(xué)習(xí)。比如“武漢市長 江大橋”還是“武漢市 長江大橋”等都是通過統(tǒng)計模型可以把詞分配好。

詞性標(biāo)注就是在分完詞后,利用算法把每個詞的詞性標(biāo)注上。通常詞性標(biāo)注的粒度可以很細(xì),比如可以標(biāo)注動詞、副動詞、趨向動詞、不及物動詞等。

命名體識別是指識別具有特定意義的實(shí)體,比如人名、地名、機(jī)構(gòu)名、專有名詞等。

句法分析主要是指分析句中的主謂賓、定狀補(bǔ)的句法關(guān)系。它的應(yīng)用非常廣泛,情感、信息、問答、機(jī)器翻譯、自動文摘、閱讀理解以及文本分類等。

上圖是自然語言處理的四個階段,第一階段:在2000年之前,主要是基于規(guī)則和基于概率統(tǒng)計的方法。在50年代提出了圖靈測試的概念來判斷機(jī)器是否會思考,到目前為止,還沒有出現(xiàn)大家一致認(rèn)可的對話系統(tǒng)通過圖靈測試。第二階段:在2013年,隨著神經(jīng)網(wǎng)絡(luò)的興起,極大的提升了NLP的各項能力。第三階段:基于seq2seq模型的NLP和注意力機(jī)制,在文本生成和機(jī)器翻譯方面獲得了比較大的進(jìn)展。第四階段是2018年以來,大型預(yù)訓(xùn)練模型的發(fā)展,也是我們現(xiàn)在所處的階段。

優(yōu)必選自然語言處理技術(shù)的研究與開發(fā)

目前,優(yōu)必選的研究方向分為以下幾種:

1、任務(wù)型對話,主要是把意圖詞槽以及上下文的一些信息給抽取出來,在日常生活和服務(wù)機(jī)器人上用的比較多。

2、開放式閑聊,主要基于多輪的語料,做了一些開放式的閑聊。

3、文本生成,主要是一些創(chuàng)作類的文本生成,開放式閑聊也用到了一些文本生成的技術(shù)。

4、知識圖譜,為了提升交互體驗(yàn)以及賦予對話更多的知識,我們也在做這方面的嘗試。

5、相似問法生成,主要是為了平臺的語料能夠很好的自動擴(kuò)展,提升泛化能力。

48a6fc3c-49b0-11eb-8b86-12bb97331649.png

下面介紹下任務(wù)型對話的技術(shù)概述,如上圖所示,任務(wù)型對話主要分為用戶自定義技能以及內(nèi)置技能。自定義技能是提供一個平臺可以讓用戶錄入語料,一鍵訓(xùn)練后就會生效。內(nèi)置技能則提供了20余個技能讓用戶可以勾選,比如天氣、鬧鐘。

接下來看下上圖右邊的流程圖,對話開始,然后采用用戶自定義的模型去預(yù)測,如果有結(jié)果,則進(jìn)入會話管理模塊檢查下詞槽的完整性,如果完整,會進(jìn)入內(nèi)容的搜索,并儲存歷史會話信息;如果不完整,會引導(dǎo)補(bǔ)充詞槽話術(shù),然后儲存歷史會話信息,返回引導(dǎo)話術(shù)。如果對話開始,用戶自定義模型預(yù)測是沒有結(jié)果的,它會采用內(nèi)置技能的模型去預(yù)測,看否有內(nèi)置技能的結(jié)果,如果有結(jié)果,跟重復(fù)上面是一樣的會話管理、完整性檢查、歷史會話存儲等流程,直到對話結(jié)束。

如果內(nèi)置的技能也沒有,最后將走到閑聊模塊。右邊舉了一個詳細(xì)的例子,“今天天氣怎么樣”,算法會識別到領(lǐng)域意圖、天氣以及時間,然后識別到當(dāng)前語句的語義之后,會進(jìn)入會話管理模塊,看下是否有一些缺少的詞槽。比如天氣缺少城市,它會觸發(fā)“你想了解哪座城市的天氣”。然后,用戶問的下一輪,算法會根據(jù)上下文信息去預(yù)測該問題是哪個領(lǐng)域。例如“深圳的”上文可能是天氣、交通或其他的一些領(lǐng)域。在此處根據(jù)上下文信息,可以預(yù)測到“深圳的”是屬于是天氣領(lǐng)域的。

具體實(shí)現(xiàn)可以看下上面的Demo,在上面的平臺中提供給用戶自己去配語料,然后一鍵觸發(fā)訓(xùn)練并生效。平臺需要添加詞典,詞典用于詞槽抽取。平臺也需要添加意圖以及語料。同時平臺還需要配置上下文信息,用于上下文預(yù)測算法以及會話管理。此外平臺也可以配置必須填的詞槽等。

為什么要做這樣的平臺?主要原因有三個:

第一是NLP場景特別多,機(jī)場、政府、商場的對話是完全不一樣的,通過這個平臺,公司的產(chǎn)品可以為每一臺服務(wù)機(jī)器人定制特定的語料,減輕了算法工程師的工作量。

第二是迭代快,我們的平臺自上線以來已經(jīng)為咖啡機(jī)、防疫機(jī)器人等提供問答服務(wù)。尤其是防疫機(jī)器人在緊急情況下不到兩周就完成了迭代。

第三是成本低,極大的降低了人力成本。

對話的核心是在多輪對話語境中的有效識別,那怎樣在多輪對話語境中能夠表現(xiàn)很好呢?我們需要一個好的主算法,如上圖所示,先介紹下主算法的優(yōu)點(diǎn),它之所以適用于各種復(fù)雜的多輪對話語境中,是因?yàn)樵撍惴ɑ陬A(yù)訓(xùn)練的BERT模型,泛化能力好。同時,由于在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中有用到歷史會話的上下文信息,所以該算法可以提升上下文的理解能力。此外,該算法在一個神經(jīng)網(wǎng)絡(luò)中能夠同時識別意圖、詞槽。最后,通過數(shù)據(jù)增強(qiáng)等策略提升模型對低資源應(yīng)用場景的適用性。

接著看上圖左邊,介紹深度算法的流程,u(t)表示用戶當(dāng)前的提問,s(t-1)表示機(jī)器人上一輪的回復(fù),然后通過BERT提取特征,再進(jìn)入到雙向的GRU里,因?yàn)楫?dāng)前的語句只在后半部分u這邊,該部分通過BERT的輸出可以再輸入到一個雙向LSTM中,接著再輸入到CRF里進(jìn)行詞槽的抽取。同時該GRU的左右雙向的輸出結(jié)果可以拼接在一起,通過線性的轉(zhuǎn)換,然后通過sigmoid函數(shù),進(jìn)行動作的預(yù)測。該GRU用來做詞槽抽取的特征也會輸入到另外一個線性轉(zhuǎn)換中,然后每一個分別輸出一個key和value,再一一對應(yīng),輸入到一個attention layer,進(jìn)入線性的轉(zhuǎn)換,最后進(jìn)行意圖的預(yù)測。

意圖的數(shù)量是隨著用戶配置的意圖數(shù)量而定,比如一個咖啡機(jī)可能配了10個意圖。同時,該算法也是一個多分類的任務(wù),因?yàn)檫@些意圖之間存在一定的附屬關(guān)系。舉個例子,比如“今天天氣怎么樣”,這可能是“查天氣”主意圖,但說“明天呢”,可能是“天氣查時間”子意圖。因此融合上下文的信息,可以對意圖進(jìn)行比較好的預(yù)判。

下面重點(diǎn)講下上下文的網(wǎng)絡(luò)結(jié)構(gòu),上下文的輸入u表示用戶提問,s表示的機(jī)器人回復(fù),可以通過BERT提取特征,進(jìn)入雙向的 GRU里,然后把該時刻的信息作為時間序列的一部分。這些信息根據(jù)時間序列輸入到一個 GRU網(wǎng)絡(luò)結(jié)構(gòu)中。最后的輸出將作為雙向初始特征,用于輸入意圖、詞槽的雙向GRU網(wǎng)絡(luò)中。

接下來介紹下平臺訓(xùn)練的流程:導(dǎo)入詞典、編輯意圖、回復(fù)邏輯,然后再導(dǎo)入問法擴(kuò)充模板,并導(dǎo)入一些實(shí)際的語料。在訓(xùn)練時,先加載語料,這時我們會通過聚類的分析去篩選驗(yàn)證集,因?yàn)槲覀兿胍?yàn)證集的分布與訓(xùn)練集是一致的。這里很重要,因?yàn)樵谧匀徽Z言處理中,每一個意圖,比如查天氣與查鬧鐘,它們的語料數(shù)量可能是不在一個數(shù)量級的。有可能查天氣有1萬條語料,而查鬧鐘只有區(qū)區(qū)幾百條語料,這樣造成了語料的不均衡。如果不用聚類算法把驗(yàn)證集的分布與訓(xùn)練集做的相似,采樣時可能會漏掉一些語料少的意圖。做完驗(yàn)證集的篩選后,我們會生成一批多輪對話語料去進(jìn)行訓(xùn)練。為什么每次要生成語料,因?yàn)檩斎霑婕暗綒v史的會話信息,所以在多輪的條件下,每次是不一樣的。因此,每次生成一批語料,然后看模型是否收斂,收斂則發(fā)布模型,不收斂就重復(fù)該流程,直到達(dá)到限制條件。模型訓(xùn)練完發(fā)布后,進(jìn)入使用階段,在這個階段用戶輸入對話,對它進(jìn)行意圖的識別,詞槽的抽取,再經(jīng)過一些會話管理的模塊,最后結(jié)束。

深度學(xué)習(xí)的優(yōu)點(diǎn)是對上下文的理解會非常精準(zhǔn),對平臺的精準(zhǔn)度提升非常有效,但是它的網(wǎng)絡(luò)比較復(fù)雜,所以需要比較好的設(shè)備,那有沒有比較節(jié)省成本的一些算法呢?我們還有一個快速算法,快速算法的特點(diǎn)是有以下三個:

1、只對語料模板進(jìn)行訓(xùn)練,可以千百倍的減少訓(xùn)練時間;

2、模型體積較小,需要的硬件成本也較低;

3、在特定的場景下準(zhǔn)確率也比較高。

那什么是快速算法?比如一句話“我想從北京去成都”,它拆成問法,就是“我想從去”。如果訓(xùn)練模型只對模板進(jìn)行訓(xùn)練會很快,但也存在一個問題。比方說,句子中“我想從北京去成都”去預(yù)測時,需要把它還原成模板。然而,像“成都”這種詞,可能既是歌名又是城市名,這時它會產(chǎn)生相當(dāng)多的排列組合。因此,需要準(zhǔn)確的挑出來,“我想從去”,“我想從去”則是錯誤的模板。

在訓(xùn)練時有大量的模板,有正例也有負(fù)例,因此有了第一個損失函數(shù),令其中的正例模板為1,其他都是0。同時,還需要判斷該問題的意圖,即要知道這句話的意圖是交通,所以,需要設(shè)計一個意圖預(yù)測的損失函數(shù)。因此在訓(xùn)練時,讓兩個損失函數(shù)都收斂就得到一個快速模型。為什么要用RNN和CNN的算法呢?答案是因?yàn)樗俣缺容^快。以上就是訓(xùn)練的過程。

在預(yù)測時,需要先對句子進(jìn)行詞槽的提取。由于最初是不知道意圖的,所以只能把它在相應(yīng)的詞典里的信息都提取出來,通過排列組合的方式,會得到一組模板的候選集(“我想從去”,“我想從去”),把它們輸入到訓(xùn)練好的模型中,就可以預(yù)測出來。

下面介紹下優(yōu)必選的閑聊技術(shù),閑聊分為匹配式閑聊與生成式閑聊。匹配式閑聊是有一個Q&A庫,Q&A庫如果夠大,可以達(dá)到一個比較好的閑聊效果。生成式閑聊不需要匹配,根據(jù)問題生成答案。他們各有優(yōu)缺點(diǎn),匹配式閑聊是可控的,可以通過語料的編撰,增加、刪除等方式,包括一些敏感詞可以在建立語料庫把它給刪除。生成式閑聊的對話時的變化會大一些,但是有一定的不可控性,有時語料不干凈,會生成一些不太健康的內(nèi)容,同時還會存在一定的語義、語法的問題。

優(yōu)必選的閑聊如上圖所示,首先進(jìn)入匹配式閑聊,看庫里有沒有結(jié)果,如果有,儲存歷史多種信息并返回。如果沒有,通過知識圖譜問答,看知識圖譜里是否能收到相應(yīng)的知識,有結(jié)果,儲存歷史信息返回。如果知識圖譜還沒有,我們將進(jìn)入生成式閑聊,然后儲存歷史對話信息、反饋結(jié)果。

那么歷史多輪信息有什么用呢?歷史多輪信息會用于生成式閑聊,不管是匹配式閑聊的答案,還是知識圖譜答案,它的歷史信息都將成為生成式閑聊的輸入。

閑聊是NLP一個永恒的難題,主要是知識如汪洋之大海,永遠(yuǎn)缺乏高質(zhì)量的對話;那算法求的只是一個概率,缺乏現(xiàn)實(shí)的邏輯推理;最后機(jī)器是不冷暖的,所以單憑文字不一定能夠捕獲到豐富的情感。這需要借助視覺,包括語音識別,各種聲紋信息等。

4a495b8e-49b0-11eb-8b86-12bb97331649.png

接著介紹下生成式閑聊,目前生成式閑聊主要基于GPT的模型,它本質(zhì)上是語言模型,GPT是基于Transformer 的Decoder 部分。那語言模型是什么?語言模型是根據(jù)一個句子的已知序列信息去預(yù)測該句子的下一個字。那具體怎么操作?我們把用戶的多輪閑聊作為語言模型的輸入,然后訓(xùn)練模型,這是訓(xùn)練部分。對于預(yù)測,相對于訓(xùn)練多了一個環(huán)節(jié),先根據(jù)歷史的多輪閑聊序列通過gpt生成一個字,生成該字時會生成多個候選的字??梢酝ㄟ^一些top-k、beam search等算法,以及一些參數(shù)的調(diào)節(jié),來挑選候選字中最合適的那個。接著,該字加入序列,重復(fù)使用此方法生成下一個字,直到生成結(jié)束符。

通常不會只生成一個答案,會生成多個候選答案,那么生成了多個候選答案,該如何挑選一個更加合適的答案呢?可以訓(xùn)練一個通過答案預(yù)測問題的模型,也就是最大互信息的評分。上圖左邊是回答生成的訓(xùn)練過程,右邊的思路與左邊的思路是反向的,是由答案生成問題。實(shí)際運(yùn)用時,采用正確的時序生成多個候選答案。再把生成的候選集輸入到訓(xùn)練好的最大互信息模型里,看預(yù)測到原始問題時,哪個候選答案的損失值最低,這種方法可作為候選答案的挑選。

我們的閑聊在內(nèi)部做了一個評測,從它的通順性、連貫性、信息性、趣味性以及憑感覺等方面打分。關(guān)于效果方面,通順性和連貫性還不錯,趣味性跟憑感覺方面,大家覺得還有優(yōu)化的空間。除了上面提到的算法,還有其他一些比較優(yōu)秀的算法,比如plato-2、blender等,但這兩個算法推理比較慢,所以我們沒有采用上面的算法。

4ab9ad1c-49b0-11eb-8b86-12bb97331649.png

接下來是文本生成技術(shù),比如古詩生成,輸入“我是只小豬歡樂多”。生成的結(jié)果可以看下左上角的圖,生成的古詩是押韻的,那怎么做的呢?同樣還是采用GPT模型。首先要定義它的格式,比如五言絕句、七言絕句、詞牌等,然后用分隔符分開,接下來把詩詞給到模型,并且要帶標(biāo)點(diǎn)符號,然后通過語言模型訓(xùn)練,他具備這樣的生成能力。

生成完后,就涉及到一些押韻的處理。具體首先需要進(jìn)行預(yù)處理,并定義詩詞的類型。然后,與詩詞的內(nèi)容并拼接起來。接著文本向量化輸入到GPT里。接著也是一個字、一個字生成答案。當(dāng)生成到有句尾標(biāo)點(diǎn)符號時,要看最后一兩個詞與前一句是否押韻。如果不押韻,要重新生成一句話,以此來保證可以都押韻。但不一定保證所有情況都押運(yùn),可能預(yù)測很久都沒有押韻,這時候,我們會設(shè)一個超時,超時后直接生成一個不押韻的句子。

古詩詞生成存在一些問題,首先是押韻問題,語言模型學(xué)習(xí)到的韻律信息比較有限;其次是意境問題,語言模型只是學(xué)習(xí)到了古詩詞遣詞造句的概率模型,即文章套路,對比較有套路的文章,可以生成的比較好。于是乎,但是詞(宋詞)的效果比不上詩,因?yàn)樵~的套路很多,還有各類詞牌,每句話字?jǐn)?shù)也不一致,所以對詞的效果會差很多。

在知識圖譜方面,它的主要組成分三塊:節(jié)點(diǎn)、屬性、關(guān)系。在該圖中,節(jié)點(diǎn)表示每個人,比如周杰倫;屬性是他的出生、成就、身高等;連接節(jié)點(diǎn)之間的叫關(guān)系,比如周杰倫通過妻子的關(guān)系可以鏈接到昆凌。以關(guān)系相連各個節(jié)點(diǎn),會組成一個龐大的知識網(wǎng)絡(luò),關(guān)系是具有方向性:單向或雙向的,單向的比如昆凌是周杰倫的妻子;至于雙向,比如同學(xué)關(guān)系,甲是乙的同學(xué),乙是甲的同學(xué)。

知識圖譜技術(shù)目前只是用來做知識問答,用來豐富閑聊的交互體驗(yàn)。它的一個問答涉及到預(yù)處理、實(shí)體識別、實(shí)體鏈接、關(guān)系抽取、手寫識別,主謂賓、施受關(guān)系檢測,答案的生成以及排序,敏感詞過濾等。

知識圖譜存在很大的挑戰(zhàn),首先在問答挑戰(zhàn)方面知識是無法窮盡的,知識的收集、梳理以及抽取是非常大的工作量,其次問法也是無窮無盡的,所以非常難理解到各種各樣的問法。

知識圖譜的應(yīng)用主要是探索知識圖譜與開放式對話等方面的融合技術(shù),我們的目的是為了優(yōu)化交互體驗(yàn),提高對話系統(tǒng)的多樣性、邏輯性、可解釋性等。

優(yōu)必選自然語言處理技術(shù)在服務(wù)機(jī)器人上的應(yīng)用

NLP在服務(wù)機(jī)器人上有哪些應(yīng)用呢?首先是機(jī)器人問答,還有無人輪值客服、機(jī)場與車站、無人販?zhǔn)鄣?。具體應(yīng)用案例包括無人咖啡館、防疫機(jī)器人問答和uCode等。

無人咖啡館

上面是我們咖啡機(jī)器人,它可以實(shí)現(xiàn)結(jié)合上下文語境,精準(zhǔn)理解用戶點(diǎn)單,避免人員直接接觸。

防疫機(jī)器人問答

疫情期間,通過服務(wù)機(jī)器人的智能防疫問答,減少人員的聚集,為疫情的紓解提供有力保障。

uCode

uCode是優(yōu)必選面向編程教育領(lǐng)域開發(fā)的一款軟硬件結(jié)合的編程客戶端,學(xué)生可以不使用鍵盤去敲代碼,可以通過拖拽積木的方式編程。

4ba5f3d4-49b0-11eb-8b86-12bb97331649.png

具體可以看到上圖,涉及到語音識別以及文本匹配,用戶可以輸入“聽到走幾步”時,他做什么樣的動作,可以通過語音識別把它變成文字,再進(jìn)行動作匹配。涉及到語音識別時,由于環(huán)境中的噪音,可能會出現(xiàn)多一個字、少一個字。同時,編程為“走幾步”時,用戶在實(shí)際使用的時候也有可能說成“走幾步吧”或“請走幾步”類似的。有了NLP的文本模糊匹配功能,就解決了。其他的諸如于古詩詞生成等,都可以加入到uCode編程中,提升uCode的教學(xué)能力。

優(yōu)必選NLP未來的研究方向

接下來的方向一個是提升交互體驗(yàn),要緊跟前沿走,探索交互體驗(yàn);同時,還需要提升平臺的能力,目前平臺的能力是比較基礎(chǔ)的,未來可能會增加語料自動擴(kuò)展的功能;此外,系統(tǒng)還要增長知識,在智能對話中,知識是比較欠缺的。因此,我們正在做知識圖譜這塊,并在探索它跟對話的融合技術(shù),為機(jī)器人的對話增智。

以上是今天的分享,謝謝大家。

原文標(biāo)題:羅沛鵬:優(yōu)必選服務(wù)機(jī)器人NLP技術(shù)最新研究進(jìn)展

文章出處:【微信公眾號:中山市物聯(lián)網(wǎng)協(xié)會】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    30549

    瀏覽量

    219303
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13913
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23182

原文標(biāo)題:羅沛鵬:優(yōu)必選服務(wù)機(jī)器人NLP技術(shù)最新研究進(jìn)展

文章出處:【微信號:ZS-IOT,微信公眾號:中山市物聯(lián)網(wǎng)協(xié)會】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    人形機(jī)器人風(fēng)向標(biāo)!優(yōu)必選全球首次批量入廠,并斬獲萬臺大單

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)日前,深圳市優(yōu)必選科技股份有限公司(以下簡稱 “優(yōu)必選”)正式對外發(fā)布了 2024 年度業(yè)績公告,并披露了優(yōu)
    的頭像 發(fā)表于 04-01 00:12 ?3106次閱讀

    國民技術(shù)亮相2025機(jī)器人國際峰會

    10月23日,為期兩天的2025IHR人形機(jī)器人國際峰會在上海隆重開幕。宇樹科技、智元機(jī)器人、優(yōu)必選、越疆、百度、騰訊、上海機(jī)器人產(chǎn)業(yè)
    的頭像 發(fā)表于 10-28 16:31 ?1668次閱讀
    國民<b class='flag-5'>技術(shù)</b>亮相2025<b class='flag-5'>人</b>形<b class='flag-5'>機(jī)器人</b>國際峰會

    具身智能大小腦融合熱潮來襲!英特爾、瑞芯微和地瓜機(jī)器人三大廠商硬核出招

    今年以來,智元、宇樹、優(yōu)必選都先后簽下人形機(jī)器人大單,人形機(jī)器人的大小腦芯片方案有哪些進(jìn)展?主要的供應(yīng)商和方案如何?本文進(jìn)行詳細(xì)分析。
    的頭像 發(fā)表于 09-06 12:12 ?8764次閱讀
    具身智能大小腦融合熱潮來襲!英特爾、瑞芯微和地瓜<b class='flag-5'>機(jī)器人</b>三大廠商硬核出招

    2.5億!優(yōu)必選斬獲全球人形機(jī)器人大單,H1營收超6.2億,加速量產(chǎn)落地

    9月3日,優(yōu)必選在官方微信宣布,獲得國內(nèi)知名企業(yè)2.5億元具身智能人形機(jī)器人產(chǎn)品及解決方案采購合同,該合同以人形機(jī)器人Walker S2(具備自主熱插拔換電系統(tǒng))為主,將在今年內(nèi)啟動該
    的頭像 發(fā)表于 09-04 10:31 ?7192次閱讀
    2.5億!<b class='flag-5'>優(yōu)</b><b class='flag-5'>必選</b>斬獲全球人形<b class='flag-5'>機(jī)器人</b>大單,H1營收超6.2億,加速量產(chǎn)落地

    優(yōu)必選中標(biāo)近億大單,自主換電人形機(jī)器人助力行業(yè)變革

    ? (電子發(fā)燒友網(wǎng)綜合報道)7月17日,優(yōu)必選發(fā)布全新一代工業(yè)人形機(jī)器人Walker S2演示視頻,由此正式打造出全球首個自主換電的人形機(jī)器人。根據(jù)視頻中的介紹,Walker S2采用
    的頭像 發(fā)表于 07-24 09:44 ?3569次閱讀
    <b class='flag-5'>優(yōu)</b><b class='flag-5'>必選</b>中標(biāo)近億大單,自主換電人形<b class='flag-5'>機(jī)器人</b>助力行業(yè)變革

    盤點(diǎn)#機(jī)器人開發(fā)平臺

    圖,電子技術(shù)資料網(wǎng)站具身智能機(jī)器人****開發(fā)平臺——Fibot廣和通發(fā)布機(jī)器人開發(fā)平臺-電子發(fā)燒友網(wǎng)NVIDIA Isaac 英偉達(dá)綜合性機(jī)器人開發(fā)平臺NVIDIA Isaac 是英
    發(fā)表于 05-13 15:02

    優(yōu)必選牽頭國內(nèi)首批人形機(jī)器人國家標(biāo)準(zhǔn),深度參與具身智能國行標(biāo)

    近日,人形機(jī)器人技術(shù)要求系列國家標(biāo)準(zhǔn)正式獲批立項,在全國機(jī)器人標(biāo)準(zhǔn)化技術(shù)委員會(TC591)秘書處承擔(dān)單位北京機(jī)械工業(yè)自動化研究所有限公司的
    發(fā)表于 04-24 15:09 ?666次閱讀

    汽車焊接機(jī)器人的智能控制系統(tǒng)研究進(jìn)展

    效率、保證焊接質(zhì)量具有重要意義。近年來,隨著人工智能、大數(shù)據(jù)、物聯(lián)網(wǎng)等技術(shù)的發(fā)展,汽車焊接機(jī)器人的智能控制系統(tǒng)的研究取得了顯著進(jìn)展,為汽車制造業(yè)帶來了新的變革。
    的頭像 發(fā)表于 02-26 14:09 ?703次閱讀

    清華大學(xué):軟體機(jī)器人柔性傳感技術(shù)最新研究進(jìn)展

    隨著機(jī)器人技術(shù)的發(fā)展,配備柔性傳感功能的軟體機(jī)器人在醫(yī)療輔助康復(fù)、水下資源勘探、陸地災(zāi)難救援等領(lǐng)域發(fā)揮著重要作用,如何設(shè)計高性能柔性傳感器,實(shí)現(xiàn)軟體機(jī)器人智能化發(fā)展是
    的頭像 發(fā)表于 02-14 14:31 ?1194次閱讀
    清華大學(xué):軟體<b class='flag-5'>機(jī)器人</b>柔性傳感<b class='flag-5'>技術(shù)</b>最新<b class='flag-5'>研究進(jìn)展</b>

    富士康與優(yōu)必選達(dá)成合作,加速人形機(jī)器人落地

    電子發(fā)燒友網(wǎng)報道(文/吳子鵬)日前,富士康與優(yōu)必選宣布,雙方將就人形機(jī)器人在智能制造領(lǐng)域的應(yīng)用建立全方位長期戰(zhàn)略合作關(guān)系,通過開展人形機(jī)器人在真實(shí)制造場景的測試驗(yàn)證及
    的頭像 發(fā)表于 01-21 01:11 ?5872次閱讀
    富士康與<b class='flag-5'>優(yōu)</b><b class='flag-5'>必選</b>達(dá)成合作,加速人形<b class='flag-5'>機(jī)器人</b>落地

    優(yōu)必選與富士康攜手推動人形機(jī)器人智能制造應(yīng)用

    景,并聯(lián)合成立人形機(jī)器人規(guī)?;瘧?yīng)用聯(lián)合攻關(guān)項目。這一舉措旨在加速人形機(jī)器人技術(shù)的商業(yè)化落地,推動智能制造領(lǐng)域的創(chuàng)新發(fā)展。 此外,富士康與優(yōu)必選
    的頭像 發(fā)表于 01-17 09:51 ?1039次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    具身智能機(jī)器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機(jī)器人計算系統(tǒng),自主機(jī)器人的感知系統(tǒng),自主機(jī)器人的定位系統(tǒng),自主機(jī)器人
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    近年來,人工智能領(lǐng)域的大模型技術(shù)在多個方向上取得了突破性的進(jìn)展,特別是在機(jī)器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。在“具身智能機(jī)器人大模型”部分,作者研究
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    現(xiàn)狀和前沿研究,詳細(xì)介紹大模型的構(gòu)建方法、訓(xùn)練數(shù)據(jù)、模型架構(gòu)和優(yōu)化技術(shù)。 第4部分(第10章到第13章)深入探討提升機(jī)器人計算實(shí)時性、算法安全性、系統(tǒng)可靠性及具身智能數(shù)據(jù)挑戰(zhàn)的具身智能機(jī)器人
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    ,逐漸學(xué)習(xí)并優(yōu)化自己的行為,以更好地服務(wù)家庭成員。 目前,具身智能機(jī)器人在解決實(shí)際問題中已展現(xiàn)出巨大的潛力,例如它已應(yīng)用于養(yǎng)老、醫(yī)療、災(zāi)害救援等領(lǐng)域。 盡管具身智能已取得了顯著進(jìn)展,但未來的
    發(fā)表于 12-20 19:17