chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

信息檢索對話中ConversationShape框架介紹

深度學(xué)習(xí)自然語言處理 ? 來源:仰望星空 ? 作者:Svitlana Vakulenko, E ? 2021-04-04 16:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

參與混合主動互動的能力是會話搜索系統(tǒng)的核心要求之一。如何做到這一點(diǎn),人們知之甚少。我們提出了一組無監(jiān)督的度量標(biāo)準(zhǔn),稱作ConversationShape,通過比較詞匯和話語類型的分布來強(qiáng)調(diào)每個(gè)會話參與者所扮演的角色。以ConversationShape為標(biāo)準(zhǔn),仔細(xì)地研究了幾個(gè)會話搜索數(shù)據(jù)集,并將它們與其他對話數(shù)據(jù)集進(jìn)行比較,以便更好地理解它們所代表的對話交互類型,無論是由信息搜索者還是助手驅(qū)動的。我們發(fā)現(xiàn),同一類型的人與人對話的對話形態(tài)與ConversationShape之間的偏離,可以預(yù)測人與機(jī)器對話的質(zhì)量。

1. 簡介

雖然會話搜索的想法已經(jīng)存在了幾十年,但這個(gè)想法最近引起了相當(dāng)大的關(guān)注。會話式用戶界面被認(rèn)為比傳統(tǒng)的界面更有利于有效的信息訪問。在這種情況下,對話是一種協(xié)作過程,允許信息尋求者滿足信息需求。會話交互的關(guān)鍵特征之一是混合主動性的潛力,其中系統(tǒng)和用戶都可以采取適當(dāng)?shù)闹鲃有浴T谶@篇論文中,作者提出了一種分析評估對話參與者之間的主動性和協(xié)作程度的指標(biāo)。

迄今為止提出的會話搜索任務(wù)主要將對話減少為一系列的問題-答案對。在用于問答任務(wù)的數(shù)據(jù)集中,交互的結(jié)構(gòu)事先是固定的:要么用戶主動,系統(tǒng)隨后給出答案,要么反過來,這使得它們不適合研究角色之間的主動性如何轉(zhuǎn)移。來自在線問答論壇的討論是開發(fā)會話搜索任務(wù)的一個(gè)流行的數(shù)據(jù)來源[18,19]。雖然在線論壇是研究現(xiàn)實(shí)世界交互模式的寶貴資源,但它們展示了一種異步信息交換類型,正如我們在分析中所顯示的,這與同步對話交互非常不同。

會話系統(tǒng)通常分為問答、任務(wù)導(dǎo)向和閑聊。值得注意的是,這種分類模式主要基于構(gòu)建這種對話系統(tǒng)的方法的不同,而不是它們產(chǎn)生的對話的不同。在本文中,**我們著重分析和測量對話類型之間的差異,并報(bào)告由此產(chǎn)生的維度和一個(gè)新的對話分類方案。**我們表明,為會話搜索任務(wù)收集的人對人對話與面向任務(wù)的對話和閑聊對話在結(jié)構(gòu)上具有相似性。

最近對聊天對話模型的評估研究表明,對話系統(tǒng)傾向于通過問太多的問題和忽視用戶的主動性來控制對話[4,9]。標(biāo)準(zhǔn)的評估指標(biāo)不能捕捉到對話互動的這一維度,因此不能預(yù)測用戶參與度。對話評價(jià)最常用的指標(biāo)是回應(yīng)的相關(guān)性,通常是根據(jù)真實(shí)的回應(yīng)來衡量;如果響應(yīng)是一個(gè)答案,那么它可以與答案的準(zhǔn)確性相比較。我們的工作是對這項(xiàng)研究的補(bǔ)充。我們提出了一種新的基于一組無監(jiān)督特征的評價(jià)框架。該框架的設(shè)計(jì)目的是在適當(dāng)?shù)臅r(shí)候,根據(jù)平衡主動性和衡量對話參與者之間的協(xié)作來捕獲對話互動的質(zhì)量。

我們的評估框架是基于幾個(gè)獨(dú)立的詞匯特征,這些詞匯特征捕捉了對話中的主動性和協(xié)作性。先前采用了基于語篇特征的簡單自動測量方法,如詞匯和句法多樣性,以減少重復(fù)的共性回答,并估計(jì)問題的復(fù)雜性[14,23]。我們使用了一種無監(jiān)督的方法,類似于在匹配[13]語言風(fēng)格和衡量生成敘事[22]的質(zhì)量時(shí)所使用的方法。一個(gè)關(guān)鍵特征的對話是。它是一種由多個(gè)對話參與者產(chǎn)生的話語敘事類型。因此,我們分別估計(jì)每個(gè)參與者的詞匯特征,以便能夠比較他們的貢獻(xiàn),從而推斷他們在對話中扮演的角色。

我們的對話表示方法是無監(jiān)督和領(lǐng)域獨(dú)立的,這允許我們將以前只在少數(shù)對話上執(zhí)行的分析擴(kuò)展到數(shù)千個(gè)公開可用的對話文本。

我們的主要貢獻(xiàn)可以總結(jié)為:(1)我們在10個(gè)數(shù)據(jù)集(超過97k個(gè)對話)中考察了主動性和協(xié)作的結(jié)構(gòu)模式。我們的研究是第一個(gè)在龐大而多樣的對話語料庫中自動識別這些維度的研究,并將源自不同研究團(tuán)體的對話任務(wù)進(jìn)行類比。(2)我們所識別的主動性和協(xié)作模式與人類對對話質(zhì)量的判斷相關(guān)??刂频姆峙洌ㄆ渲锌刂票欢x為管理會話中的流程方向)是旨在增強(qiáng)人機(jī)協(xié)作的混合主動對話系統(tǒng)的核心。對話系統(tǒng)應(yīng)能夠識別usera??s提示的主動切換,從而提供適當(dāng)?shù)幕貞?yīng)。檢測主動性對于描述交互的質(zhì)量也很重要。我們的工作有助于洞察,為評估和優(yōu)化方法的設(shè)計(jì)提供信息,這些方法能夠識別對話中的主動性分配。

2. ConversationShape

ConversationShape是一種關(guān)注對話結(jié)構(gòu)屬性的對話表示方法。我們認(rèn)為對話是幾個(gè)參與者之間交換的一系列話語。我們實(shí)驗(yàn)中的所有對話都有兩名參與者。然而,我們的方法也適用于多方對話。信息尋求對話的特點(diǎn)通常是參與者在對話中扮演的角色不對稱:參與者通常扮演助手(A)的角色,其功能是通過對話搜索系統(tǒng)實(shí)現(xiàn)自動化;另一個(gè)對話參與者是一個(gè)信息尋求者,他正在使用助手的服務(wù)來獲取信息。為了模擬對話中的混合主動性,我們使用了四個(gè)指標(biāo),分別為每個(gè)對話參與者計(jì)算:(1)問題(question);(2)信息(information);(3)重復(fù)(repetition);和(4)流(flow)。

問題(question)是一種試圖控制談話方向的明確嘗試,因?yàn)樘岢龅膯栴}會讓另一個(gè)參與者產(chǎn)生相應(yīng)的答案。我們在NPS聊天語料庫上訓(xùn)練了一個(gè)有監(jiān)督分類器來識別問題和其他類型的話語。NPS聊天語料庫包含了來自網(wǎng)絡(luò)聊天室的7.9K個(gè)話語,標(biāo)注了14種話語類型:Statement、Emotion、Greet、Bye、Accept、Reject、whQuestion、ynQuestion、yAnswer、nAnswer、Emphasis、Continuer、clear、Other。我們的分類模型是從預(yù)先訓(xùn)練的羅伯塔17初始化的,并進(jìn)一步為話語類型預(yù)測任務(wù)進(jìn)行調(diào)整,在遞出測試集中實(shí)現(xiàn)F1為0.81。

其余的度量標(biāo)準(zhǔn)描述協(xié)作模式和對對話主題的控制。要解釋它們,我們首先需要介紹對話詞表的概念。對話詞表由出現(xiàn)在同一對話文本中的所有唯一單詞(或子單詞標(biāo)記)組成。我們對在同一對話中頻繁出現(xiàn)(不止一次)的單詞特別感興趣,因?yàn)橹貜?fù)模式很可能表明它們對對話主題的重要性。

信息(information)反映了參與者對談話主題的貢獻(xiàn)。我們將信息估計(jì)為會話參與者首先創(chuàng)造的頻繁令牌的計(jì)數(shù)。

重復(fù)(repetition)表示對談話主題的延續(xù)。為了分析共享詞匯表的出現(xiàn),我們跟蹤會話參與者之間的詞匯表重用模式。我們將重復(fù)估計(jì)為一個(gè)會話參與者首先引入并隨后被另一個(gè)會話參與者重復(fù)的標(biāo)記的數(shù)量。我們認(rèn)為重復(fù)是對話中可用的一種相關(guān)性反饋,假設(shè)重復(fù)行為是通過增加標(biāo)記頻率來認(rèn)可標(biāo)記對對話主題的重要性。另一種隱式引用前面標(biāo)記的方法是使用回指。因此,我們將回指計(jì)數(shù)加到重復(fù)計(jì)數(shù)中。從沃克和惠特克提出的分析框架中,我們使用了一小串英語回指:

“it”,“they”,“they”,“their”,“she”,“he”,“her”,“him”,“his”,“this”,“that”。我們也用現(xiàn)成的共參考分辨率模型進(jìn)行了實(shí)驗(yàn),但結(jié)果并不令人滿意。

“流”(flow)是重復(fù)和信息之間的區(qū)別,它反映了參與者通過引用之前的陳述來維持對話的連貫性,或者通過引入新的信息來推動對話向前的作用。

對于每一次對話,我們分別計(jì)算每個(gè)對話參與者的值:conceptA和ConceptS(A代表assistant,S代表Seeker),其中Concept表示我們剛剛介紹的四個(gè)指標(biāo)之一。為了能夠比較不同長度的對話,我們還通過對話中說話的數(shù)量來標(biāo)準(zhǔn)化得分。然后,我們使用兩個(gè)指標(biāo)之間的平均值和差值來描述數(shù)據(jù)集中對話的類型。平均值顯示了每個(gè)指標(biāo)的重要性,例如每次對話的平均問題數(shù)量:

7c9a5f2a-88e9-11eb-8b86-12bb97331649.png

這種差異可以用來比較對話參與者之間的分布(平衡),例如在對話中誰問了更多的問題。我們使用類似于[13]的寫作風(fēng)格的公式:

7cd16b0a-88e9-11eb-8b86-12bb97331649.png

它不僅表明了不同角色之間的指標(biāo)差異,而且還表明了其方向:負(fù)值表示Seeker的主導(dǎo)地位,正值A(chǔ)ssistant表示Assistant的主導(dǎo)地位。

3. 數(shù)據(jù)集

我們的分析跨越了10個(gè)公開可用的對話數(shù)據(jù)集,這些數(shù)據(jù)集是為各種對話任務(wù)而設(shè)計(jì)的。括號中的數(shù)字表示每個(gè)數(shù)據(jù)集中對話的數(shù)量。

4.結(jié)果

表1顯示了前一節(jié)中每個(gè)對話集的平均ConversationShape。這種表示允許比較集合并識別不同的對話類型,例如,圖1顯示了基于問題和信息分布的相似性而出現(xiàn)的集群。

7d2ca97a-88e9-11eb-8b86-12bb97331649.png

7d7e604e-88e9-11eb-8b86-12bb97331649.png

助手驅(qū)動對話(Assistant-driven dialogues):從表1中我們可以看到,在CCPE中,助理通過提出問題來引導(dǎo)對話,探索者通過回答問題來跟進(jìn)(負(fù)?重復(fù))。MultiWOZ和MSDialog也有助理提出的大部分問題,但這些問題是緊跟著探索者提供的問題和答案(正?重復(fù))。在“ReDial”中,助理通過提供信息和提問來推動對話,而探索者則繼續(xù)跟進(jìn)(負(fù)?重復(fù))。

7dcb269a-88e9-11eb-8b86-12bb97331649.png

探索者驅(qū)動對話(Seeker-driven dialogue):SCS和WoW的相似之處在于:搜索者主要是提問,助理主要是提供信息。然而,在WoW中,導(dǎo)引頭會繼續(xù)跟隨助手介紹的主題(負(fù)?重復(fù)),而在SCS中,助手會跟隨導(dǎo)引頭。聊天對話(Human和Control-H)似乎更接近于起源,表明這種對話類型的參與者之間的主動性更平衡。然而,在DailyDialog數(shù)據(jù)集中,主動權(quán)傾向于對話發(fā)起者,后者更有可能提出問題并設(shè)置對話主題。

模型診斷:ConversationShape有助于評價(jià)對話模式,理解對話模式所表現(xiàn)出的越軌行為類型。這些實(shí)驗(yàn)是在Control-M數(shù)據(jù)集的子集上進(jìn)行的,這些子集對應(yīng)于不同對話模型產(chǎn)生的文本??偣灿?8個(gè)模型,我們分別計(jì)算每個(gè)模型的ConversationShape。然后,我們測量模型分布和為人類-人類對話子集(Control-H)計(jì)算的分布之間的交叉熵。最后,我們將我們的結(jié)果與原始論文[23]中報(bào)道的人類評價(jià)結(jié)果進(jìn)行比較。與人類-人類分布的交叉熵最低(0.01)的模型,也是人類法官關(guān)于興趣偏好的模型,其特征是更好的flow和更多的信息共享(information sharing)。

此外,ConversationShape允許解釋對話模型所展示的偏差類型。在圖2中,我們正確地識別出了問太多問題(優(yōu)化為好奇、面試官)、重復(fù)太多(優(yōu)化為響應(yīng)性、鸚鵡式)或沒有跟進(jìn)(優(yōu)化為多樣性或消極響應(yīng)性、說話者式)的模型。在比較Meena和Mitsuku對話[1]的transcripts時(shí),我們無法達(dá)到同樣的結(jié)果。問題分布表明,Meena和Mitsuku對話在結(jié)構(gòu)上彼此非常不同,也不同于典型的人類閑聊分布。Mitsuku正在被審訊,而Meena則主動提出問題。

5. 結(jié)論

在本文中,我們介紹了ConversationShape框架,該框架提供了一組簡單但有效的無監(jiān)督度量,旨在度量會話的主動性和流(flow)。我們的分析揭示了不同對話類型之間的關(guān)系,并提出了一組適合在開發(fā)和評估對話系統(tǒng)或收集新的對話數(shù)據(jù)集時(shí)考慮的維度。我們的“Repetition”度量(估計(jì)會話主題的后續(xù)內(nèi)容)是相當(dāng)粗糙的,因?yàn)樗豢紤]詞法匹配和回指語。盡管我們表明它足以對數(shù)據(jù)集分布進(jìn)行高級分析,但預(yù)測單個(gè)對話的質(zhì)量需要更細(xì)粒度的檢查。未來的工作應(yīng)該集中在開發(fā)一個(gè)可以解釋token之間語義相似度的擴(kuò)展。下一步將這些指標(biāo)合并到一個(gè)學(xué)習(xí)算法的優(yōu)化標(biāo)準(zhǔn),模型提供一個(gè)適當(dāng)?shù)囊暯堑膶υ?,給一個(gè)明確的激勵(lì)來控制一個(gè)適當(dāng)?shù)钠胶?,正如我們所展示的,取決于對話的類型。

原文標(biāo)題:【SIGIR2020】信息檢索對話中混合主動性和協(xié)同性的分析

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【SIGIR2020】信息檢索對話中混合主動性和協(xié)同性的分析

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    樂鑫信息推出ESP-Claw AI智能體框架,物聯(lián)網(wǎng)進(jìn)入“聊天造物”時(shí)代

    樂鑫信息科技正式推出ESP-Claw AI智能體框架,該框架以Chat Coding(聊天造物)為核心,突破傳統(tǒng)物聯(lián)網(wǎng)開發(fā)邊界。通過將Agent Runtime下沉至邊緣芯片,ESP-Claw讓設(shè)備
    的頭像 發(fā)表于 04-23 17:26 ?686次閱讀
    樂鑫<b class='flag-5'>信息</b>推出ESP-Claw AI智能體<b class='flag-5'>框架</b>,物聯(lián)網(wǎng)進(jìn)入“聊天造物”時(shí)代

    湖南移動與海光信息簽署戰(zhàn)略合作框架協(xié)議

    近日,中國移動通信集團(tuán)湖南有限公司(以下簡稱“湖南移動”)與海光信息在長沙簽署戰(zhàn)略合作框架協(xié)議。雙方將充分整合各自在算力技術(shù)、行業(yè)資源等領(lǐng)域的核心優(yōu)勢,聚焦湖南新基建、數(shù)字城市建設(shè)及重點(diǎn)行業(yè)信息
    的頭像 發(fā)表于 04-15 15:56 ?218次閱讀

    躍昉科技產(chǎn)品全面適配OpenClaw開源AI智能體框架

    近期,開源AI智能體框架OpenClaw在開發(fā)者社區(qū)迅速走紅。它讓AI從“對話”走向“執(zhí)行”——用戶只需設(shè)定目標(biāo),OpenClaw就能自主拆解任務(wù)、調(diào)用工具、持續(xù)運(yùn)行直至完成。這一范式被業(yè)界視為繼大語言模型之后的重要技術(shù)方向。
    的頭像 發(fā)表于 03-18 17:17 ?983次閱讀
    躍昉科技產(chǎn)品全面適配OpenClaw開源AI智能體<b class='flag-5'>框架</b>

    RAG(檢索增強(qiáng)生成)原理與實(shí)踐

    思想 RAG的核心思想非常直觀:在生成答案之前,先從知識庫檢索相關(guān)信息,然后將這些信息作為上下文提供給大語言模型,讓模型基于這些\"參考資料\"來生成更準(zhǔn)確的回答。 這就像是讓AI在
    發(fā)表于 02-11 12:46

    實(shí)戰(zhàn)解析:如何高效調(diào)用采招網(wǎng)關(guān)鍵詞搜索API獲取招標(biāo)信息

    如何調(diào)用該API,并分享一些實(shí)用技巧。 一、API基礎(chǔ)信息 功能描述: 根據(jù)用戶輸入的關(guān)鍵詞,檢索匹配的招標(biāo)公告、中標(biāo)公告等信息。 請求方式: HTTP GET 認(rèn)證方式: API Key(通常需要在請求頭或參數(shù)
    的頭像 發(fā)表于 01-29 17:15 ?705次閱讀
    實(shí)戰(zhàn)解析:如何高效調(diào)用采招網(wǎng)關(guān)鍵詞搜索API獲取招標(biāo)<b class='flag-5'>信息</b>

    LuatOS框架的使用(上)

    在資源受限的物聯(lián)網(wǎng)終端設(shè)備,如何實(shí)現(xiàn)快速開發(fā)與穩(wěn)定運(yùn)行是關(guān)鍵挑戰(zhàn)。LuatOS框架通過將Lua語言與底層硬件抽象層深度融合,提供了一套簡潔高效的開發(fā)范式。本文將圍繞LuatOS框架的使用展開,從
    的頭像 發(fā)表于 01-27 19:38 ?374次閱讀
    LuatOS<b class='flag-5'>框架</b>的使用(上)

    基于CW32L083的AT指令框架的創(chuàng)建

    產(chǎn)品很多配置信息需要后期進(jìn)行配置,配置交互最好的方式之一是上位機(jī)通過串口與開發(fā)板進(jìn)行交互來完配置。這里我準(zhǔn)備引入AT指令來進(jìn)行配置。 我采用串口中斷+定時(shí)器中斷來實(shí)現(xiàn)了串口的接收,下面進(jìn)行AT指令
    發(fā)表于 01-06 06:17

    思必馳任務(wù)型對話算法通過國家備案

    近日,國家網(wǎng)信辦公開發(fā)布第十四批境內(nèi)深度合成服務(wù)算法備案信息,思必馳任務(wù)型對話算法正式通過備案。這是思必馳第八項(xiàng)通過備案的算法,進(jìn)一步鞏固了在對話式人工智能領(lǐng)域的技術(shù)與合規(guī)優(yōu)勢。
    的頭像 發(fā)表于 11-20 10:33 ?1055次閱讀

    PYQT 應(yīng)用程序框架及開發(fā)工具

    。 QT 類庫是一個(gè)跨平臺的面向?qū)ο蟮?py 類庫,目前主要用于 Linux 下的開發(fā)。Q T 類庫大致可以分為三個(gè)部分:控件、框架和工具。 控件:控件部分包括環(huán)境控件,主窗口控件,標(biāo)準(zhǔn)對話
    發(fā)表于 10-29 07:15

    RAG實(shí)踐:一文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成), 一種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫)的優(yōu)勢與生成式大語言模型(LLM)的功能結(jié)合在一
    的頭像 發(fā)表于 10-27 18:23 ?1715次閱讀
    RAG實(shí)踐:一文掌握大模型RAG過程

    格靈深瞳突破文本人物檢索技術(shù)難題

    格靈深瞳參與研究的GA-DMS框架,為攻破上述技術(shù)難題提供了全新解決方案。研究團(tuán)隊(duì)通過數(shù)據(jù)構(gòu)建和模型架構(gòu)的協(xié)同改進(jìn),推動CLIP在人物表征學(xué)習(xí)的應(yīng)用,顯著提升了基于文本的人物檢索效果。該成果已入選EMNLP 2025 主會(自
    的頭像 發(fā)表于 09-28 09:42 ?754次閱讀
    格靈深瞳突破文本人物<b class='flag-5'>檢索</b>技術(shù)難題

    請問STM32如何移植Audio框架?

    最近在學(xué)習(xí)音頻解碼,想用一下Audio框架。 1、這個(gè)該如何移植到自己創(chuàng)建的BSP并對接到device框架?看了官方移植文檔沒有對沒有對該部分的描述。 2、我只想實(shí)現(xiàn)一個(gè)簡單的播放功能,只用一個(gè)DAC芯片(比如CS4344)是
    發(fā)表于 09-25 07:17

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    的區(qū)別在于: 上下文依賴性:每輪對話需關(guān)聯(lián)歷史信息(如用戶偏好、已確認(rèn)的細(xì)節(jié))。 狀態(tài)維護(hù):系統(tǒng)需跟蹤對話狀態(tài)(如未完成的信息補(bǔ)全),避免重復(fù)詢問或
    發(fā)表于 09-05 17:25

    HarmonyOS NEXT意圖框架習(xí)慣推薦一場景說明

    推薦播放接續(xù),例如音樂、長視頻以及課程的播放接續(xù),可以參考本文。首先需要在設(shè)置開啟意圖框架調(diào)試,如下圖所示。確保意圖框架調(diào)試開啟且在界面成功展示設(shè)備支測試應(yīng)用。 本文主要引用整理于鴻蒙官方文檔
    發(fā)表于 06-18 15:06

    ArkUI-X框架LogInterface使用指南

    ArkUI-X框架支持日志攔截能力,Android側(cè)提供原生接口,用于注入LogInterface接口,框架日志及ts日志通過該接口輸出,本文的核心內(nèi)容是介紹如何在Android平臺上有效利用
    發(fā)表于 06-15 23:20