chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIND:高質(zhì)量的新聞推薦數(shù)據(jù)集

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2021-01-07 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

MIND簡(jiǎn)介

個(gè)性化新聞推薦技術(shù)是諸多在線新聞網(wǎng)站和應(yīng)用的關(guān)鍵技術(shù),可以提升用戶的新聞閱讀體驗(yàn)并減輕信息過(guò)載。目前,許多有關(guān)新聞推薦的研究是在私有數(shù)據(jù)集上開(kāi)展的,而已有的公開(kāi)數(shù)據(jù)集往往規(guī)模較小。高質(zhì)量基準(zhǔn)數(shù)據(jù)集的缺乏限制了新聞推薦領(lǐng)域的研究進(jìn)展。因此,微軟亞洲研究院聯(lián)合微軟新聞產(chǎn)品團(tuán)隊(duì)在 ACL 2020上發(fā)布了一個(gè)大規(guī)模的英文新聞推薦數(shù)據(jù)集 MIcrosoft News Dataset (MIND[1]),并于2020年7月-9月在condalab平臺(tái)舉辦了MIND新聞推薦比賽。比賽吸引了來(lái)自加拿大、法國(guó)、韓國(guó)等全球各地的技術(shù)團(tuán)隊(duì),最終來(lái)自搜狗搜索的隊(duì)伍以AUC0.7131獲得比賽冠軍。我們也在賽后開(kāi)源了比賽過(guò)程中的代碼[2]。

5d73b4fc-5036-11eb-8b86-12bb97331649.png

5dab183e-5036-11eb-8b86-12bb97331649.png

非常值得贊許的是賽后微軟繼續(xù)開(kāi)放了MIND比賽系統(tǒng)允許提交測(cè)試結(jié)果并實(shí)時(shí)更新排行榜[3]。我們?cè)诮谔峤涣诵碌慕Y(jié)果,相對(duì)比賽結(jié)果有了進(jìn)一步提升,在截止到2021-01-04的榜單以AUC0.7187的成績(jī)排在第一位。

5e0da10c-5036-11eb-8b86-12bb97331649.png

希望有更多的同學(xué)能參與到MIND這個(gè)高質(zhì)量的新聞推薦數(shù)據(jù)集評(píng)測(cè),目前的榜單成績(jī)?nèi)匀挥泻艽蟮奶嵘臻g。(個(gè)人覺(jué)得MIND真的是非常好的數(shù)據(jù)集,很奇怪并沒(méi)有引起特別大的業(yè)界關(guān)注,也許是因?yàn)楸荣惙诺搅薱odalab平臺(tái)而不是社區(qū)及分享更加完善的kaggle平臺(tái))。

新聞推薦簡(jiǎn)介

5e37d17a-5036-11eb-8b86-12bb97331649.png

這里新聞推薦主要指基于用戶的點(diǎn)擊歷史,預(yù)測(cè)用戶對(duì)未來(lái)展現(xiàn)的新聞點(diǎn)擊概率從而用于指導(dǎo)對(duì)于展現(xiàn)給用戶的召回新聞排序。新聞推薦是一個(gè)經(jīng)典的推薦排序問(wèn)題,主要面臨的困難包括新聞和用戶的有效建模,新聞及用戶冷啟動(dòng)等等問(wèn)題。

MIND數(shù)據(jù)分析及處理

MIND數(shù)據(jù)集是從六周內(nèi) Microsoft News 用戶的匿名化新聞點(diǎn)擊記錄中構(gòu)建的,它包含16萬(wàn)多條新聞條目,1500余萬(wàn)次展示記錄,以及來(lái)自100萬(wàn)匿名用戶的2400余萬(wàn)次點(diǎn)擊行為。在 MIND 數(shù)據(jù)集中,每個(gè)新聞條目都具有豐富的文本信息,例如標(biāo)題、摘要、正文、類別和實(shí)體。

5ec883aa-5036-11eb-8b86-12bb97331649.png

下面介紹MIND數(shù)據(jù)的特點(diǎn)及處理策略:

ID失效

MIND數(shù)據(jù)是來(lái)自于工業(yè)界真實(shí)的點(diǎn)擊數(shù)據(jù)但是和傳統(tǒng)的工業(yè)界實(shí)際的推薦系統(tǒng)使用的數(shù)據(jù)還是有較大的差異性,這種差異主要來(lái)自定位的不同,MIND更加強(qiáng)調(diào)推薦算法的泛化性,而實(shí)際工業(yè)界強(qiáng)調(diào)時(shí)效性實(shí)用性,因此工業(yè)界推薦系統(tǒng)最重要的特征往往是ID特征特別是docid特征,工業(yè)界的模型特別是ID對(duì)應(yīng)的embedding基本也是實(shí)時(shí)快速更新的。

但對(duì)應(yīng)MIND這個(gè)數(shù)據(jù)ID特征依然存在但不再是最重要的特征,甚至絕大部分的參賽隊(duì)伍沒(méi)有使用ID特征,這使得MIND數(shù)據(jù)更像是一個(gè)純NLP比賽數(shù)據(jù)。為什么?這主要來(lái)自于Dev和Test數(shù)據(jù)的差異。

Info Dev Test
新用戶 15.3% 22.1%
新文檔 32.3% 87.5%

MIND數(shù)據(jù)的訓(xùn)練數(shù)據(jù)是5周的點(diǎn)擊日志,除去最后一天作為Dev數(shù)據(jù),而Test數(shù)據(jù)是要對(duì)第6周數(shù)據(jù)做預(yù)測(cè)。

由于新聞的時(shí)效性非常強(qiáng),所以顯然未來(lái)一周中的新文檔的占比可以預(yù)見(jiàn)是非常多的(87.5%)。

由于這樣的數(shù)據(jù)特點(diǎn),因此主要依賴的ID的模型顯然是失效的,傳統(tǒng)的gbdt模型也不太適用這個(gè)數(shù)據(jù)。 這個(gè)數(shù)據(jù)的重點(diǎn)是如何能更好的對(duì)新聞內(nèi)容建模。

這樣的Dev和Test的劃分,也帶來(lái)了本地Dev驗(yàn)證和提交Test驗(yàn)證的不一致性,為了消除這個(gè)不一致性,如果在訓(xùn)練中使用了docid特征需要注意在驗(yàn)證的時(shí)候Mask掉92%(保持新文檔比例和Test一致)或者干脆Mask掉全部的docid,當(dāng)做UNK處理。

在比賽前期這個(gè)策略非常有效基本確保了驗(yàn)證和測(cè)試的一致性,但是比賽后期模型分?jǐn)?shù)相對(duì)較高的情況下還是發(fā)現(xiàn)Dev和Test有較大不一致性,比如引入刷次(impression)內(nèi)部的特征在Dev數(shù)據(jù)提升非常大但是在Test無(wú)效,加大正樣本權(quán)重從1.0到4.0也能大幅度提升Dev AUC但是同樣在Test無(wú)效。

因此更進(jìn)一步的也許自行重新劃分Train/Dev為4周數(shù)據(jù)訓(xùn)練第5周整周做Dev可以更好確保的Dev和Test的一致性,由于時(shí)間原因筆者沒(méi)有做這個(gè)實(shí)驗(yàn)有興趣的同學(xué)可以測(cè)試一下。

樣本不均衡的處理

MIND數(shù)據(jù)的另外一個(gè)重要特點(diǎn)是類別不均衡,正樣本率很低只有4%。

處理類別不均衡的樣本有很多策略,比如

正樣本加權(quán)

正樣本過(guò)采樣

負(fù)樣本降采樣

等等,這里考慮到訓(xùn)練樣本量非常大,模型計(jì)算較為耗時(shí),綜合多種因素和實(shí)驗(yàn)結(jié)果我們采用了無(wú)放回的負(fù)樣本隨機(jī)采樣,將原始訓(xùn)練數(shù)據(jù)的負(fù)樣本劃分成5個(gè)部分,配合全部的正樣本構(gòu)造了5個(gè)不同訓(xùn)練數(shù)據(jù)集,Dataset0-4,每個(gè)數(shù)據(jù)集的正樣本率約為16.5%。

這樣我們的單模型訓(xùn)練只基于Dataset0實(shí)驗(yàn),這極大的降低了模型訓(xùn)練時(shí)間(不使用bert只需要45-60分鐘完成單模型訓(xùn)練并在不使用Dev數(shù)據(jù)的前提下達(dá)到Test AUC 0.7074,而使用bert-tiny的模型可以在大約7-8個(gè)小時(shí)完成訓(xùn)練),同時(shí)提交結(jié)果顯示相對(duì)使用全量訓(xùn)練數(shù)據(jù),降采樣數(shù)據(jù)訓(xùn)練的單模型的效果并沒(méi)有明顯下降。

而當(dāng)需要最佳榜單成績(jī)的時(shí)候我們采用了同樣策略針對(duì)Train+Dev數(shù)據(jù)整體構(gòu)造5個(gè)數(shù)據(jù)集,并且并行訓(xùn)練5個(gè)基于不同Dataset的模型,將結(jié)果平均作為最終結(jié)果。實(shí)驗(yàn)表明訓(xùn)練數(shù)據(jù)多樣性帶來(lái)的模型集成收益非常明顯。

單模型與集成模型的定義

單模型:基于Dataset0(1/5負(fù)樣本+全部正樣本,不包含Dev數(shù)據(jù))訓(xùn)練的單一模型。

集成模型:基于Dataset0-4(包含Dev數(shù)據(jù))5份數(shù)據(jù)訓(xùn)練的5個(gè)模型結(jié)果的平均。

模型結(jié)構(gòu)

我們采用了經(jīng)典的推薦系統(tǒng)中的精排模型架構(gòu),而沒(méi)有采用官方基線模型提供的各種基于雙塔向量匹配的模型結(jié)構(gòu)(NRMS,NAML等等)。

我們認(rèn)為雙塔結(jié)構(gòu)更加適合召回階段,因?yàn)樾侣労陀脩舴謩e建模向量雖然快速靈活但是由于其分開(kāi)獨(dú)立建模缺乏前期交互,整體效果一般是不如完整的所有特征統(tǒng)一交互建模的方式。

我們使用的結(jié)構(gòu)基本和Facebook提出的DLRM模型結(jié)構(gòu)一致,與DLRM只用到特征交叉不同,考慮到特征組不是特別多,這里同時(shí)采用特征交叉和特征合并兩種組合方式,保證MLP層的輸入有足夠的信息量(當(dāng)然也可以考慮引入更多組合信息如max pooling,attention pooling,self attention pooling等等)。

5f092f86-5036-11eb-8b86-12bb97331649.png

在對(duì)應(yīng)對(duì)具體文本建模的時(shí)候,我們采用了基于glove預(yù)訓(xùn)練的詞向量,文本分詞采用了bert bpe切詞器。

我們針對(duì)ID表示的向量采用了簡(jiǎn)單的自注意力(attention pooling)方式建模,而針對(duì)復(fù)雜文本如正文,標(biāo)題,摘要采用了DIN attention pooling的方式,以便更好的動(dòng)態(tài)建模當(dāng)前新聞和用戶閱讀歷史新聞的相關(guān)性。

單特征重要性分析

5f660940-5036-11eb-8b86-12bb97331649.png

通過(guò)驗(yàn)證集合來(lái)看文本正文是最重要的信息,有點(diǎn)出乎意料是不是,最重要的特征是正文而不是標(biāo)題。

整體特征重要性順序依次是:正文,標(biāo)題,摘要,類別,實(shí)體,ID。

ID特征的重要性

在比賽中我們和其他隊(duì)伍的一個(gè)重要區(qū)別是,其他隊(duì)伍大都基本基于官方基線做的改進(jìn),并沒(méi)有使用ID特征,而我們?cè)谟?xùn)練中使用了ID特征。

在驗(yàn)證中Mask掉了ID特征來(lái)保證驗(yàn)證和Test的一致性,在Test的時(shí)候我們保留在訓(xùn)練中出現(xiàn)的docid而mask掉了其他docid。

盡管Test的有效docid比例非常之少,但是我們得到一個(gè)很重要的結(jié)論,就是訓(xùn)練數(shù)據(jù)中的docid可以幫助更好的進(jìn)行整體建模,ID特征和文本特征的交互能夠幫助學(xué)習(xí)得到更好的文本表示。

Single Model Test AUC
No ID 0.6988
With ID 0.7074

Bert Encoder

顯然單純的詞向量模型在NLP相關(guān)的競(jìng)賽中已經(jīng)是屬于上古時(shí)代了,現(xiàn)在是屬于bert的時(shí)代,但是MIND這個(gè)數(shù)據(jù)由于需要對(duì)用戶歷史新聞的正文,標(biāo)題,摘要建模,假設(shè)取top50的歷史這個(gè)計(jì)算量是非常巨大的,因此大的bert模型并不是非常實(shí)用。

在比賽過(guò)程中我沒(méi)有采用bert作為encoder。賽后我嘗試使用小的bert模型比如bert-tiny,在經(jīng)過(guò)MIND語(yǔ)料continue train 語(yǔ)言模型之后,作為文本encoder。

實(shí)驗(yàn)結(jié)果似乎相對(duì)詞向量?jī)?yōu)勢(shì)也并不是很明顯(后面的模型迭代部分會(huì)貼出實(shí)驗(yàn)結(jié)果),當(dāng)然這個(gè)原因可能是多方面包括參數(shù)的調(diào)整(特別的比如bert模型finetune對(duì)于學(xué)習(xí)率異常敏感)以及bert-tiny本身的表示能力不夠強(qiáng)大,再或者和推薦數(shù)據(jù)特點(diǎn)有關(guān)等等需要更進(jìn)一步的分析。

我相信這部分顯然還可以做的更好,也許目前榜單第二第三的UNBERT和UniUM在這方面做的更好(猜測(cè)使用UniLM)期待后續(xù)有機(jī)會(huì)交流以找到更好的bert打開(kāi)方式。

盡管沒(méi)有取得特別驚艷的單模型效果,bert模型依然帶來(lái)了很好的模型多樣性,這幫助我們?nèi)〉昧四壳癕IND dataset的STOA,當(dāng)然這也說(shuō)明MIND榜單的提升空間顯然還是很大的。

迭代過(guò)程

比賽中

Model Dev AUC Test AUC
uid,docid,history_docids 0.514 0.5272
+cat,entity 0.6829 0.6763
+title,abstract 0.6987 0.6979
adjust parameters 0.7004 0.7036
+body 0.7042 0.707
+dev data NA 0.7104
ensemble(5 datasets) NA 0.7131

賽后

賽后的集成模型提升主要是來(lái)自于模型差異性的引入,從比賽過(guò)程中的單一算法模型變成了多算法模型(引入了bert)。

那么單模型提升在哪里呢?

單模型方面并沒(méi)有做大的調(diào)整,主要提升點(diǎn)是兩個(gè)細(xì)節(jié):

Multi-Sample Dropout降低過(guò)擬合提升模型泛化能力。

不只是MIND數(shù)據(jù),Multi-Sample Dropout是一種通用且時(shí)空代價(jià)極小的方法,在很多場(chǎng)景下用其取代最終的Linear層都能帶來(lái)效果提升,感興趣可以在kaggle搜索相關(guān)的分享。

5fa76002-5036-11eb-8b86-12bb97331649.png

Batch size 調(diào)整, 從2048調(diào)小到256。

batch size減小會(huì)使得訓(xùn)練速度變慢一點(diǎn),并且val loss會(huì)變高,但是Test指標(biāo)會(huì)提升,可能原因是更多的梯度迭代次數(shù),特別是當(dāng)前采用1輪訓(xùn)練方式,另外小的batch size對(duì)應(yīng)單一模型不同Dataset可能有更高的單模型差異性從而有利于模型集成。

以下只列出Test的指標(biāo),注意集成模型base復(fù)現(xiàn)的起點(diǎn)0.7124比比賽中最終的模型0.7131低一些,可能源自tf1,2的切換和一些隨機(jī)性因素,暫未查明。

單模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7074 0.3554 0.3895 0.4460
+multi-sample dropout 0.7086 0.3557 0.3900 0.4464
+smaller batch size 0.7089 0.3574 0.3916 0.4478
bert-tiny 0.707 0.3563 0.3902 0.4464
base add bert-tiny 0.7085 0.3577 0.3920 0.4482

集成模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7124 0.3598 0.3949 0.4512
+multi-sample dropout 0.7139 0.3614 0.3967 0.4529
+smaller batch size 0.7145 0.3625 0.3976 0.4537
bert-tiny 0.7145 0.3622 0.3973 0.4533
base add bert-tiny 0.7158 0.3630 0.3983 0.4544
avg of above 3 0.7187 0.3659 0.4018 0.4576

注:base add bert-tiny表示模型的文本表示在同一個(gè)模型同時(shí)保留glove詞向量和bert-tiny encode作為特征。其實(shí)采用單一模型結(jié)構(gòu)多數(shù)據(jù)集/多fold的模型平均某種意義上也是單模型,從上面的結(jié)果來(lái)看,base add bert-tiny應(yīng)該是相對(duì)base表現(xiàn)更好的模型結(jié)構(gòu)。

TODO

更好的文本表示,如UniLM等,這也是MIND數(shù)據(jù)集合的根本意義所在,期待找到效果更好效率更高的文本表示方法。

更好的用戶歷史閱讀序列表示,當(dāng)前沒(méi)有引入位置信息,沒(méi)有考慮用戶歷史順序,沒(méi)有做復(fù)雜的歷史建模。

更好的模型泛化,從實(shí)驗(yàn)來(lái)看test集合的提升很大概率來(lái)自模型泛化效果的提升,更好的集成方法(當(dāng)前只是簡(jiǎn)單平均),包括單模型自身集成方法如SWA等等應(yīng)該可以進(jìn)一步提升效果。

更多輪次迭代?由于使用了ID特征容易過(guò)擬合,當(dāng)前只采用了1輪訓(xùn)練的方。

降采樣負(fù)樣本是否是最好的方案?顯然值得更多的嘗試,至少在單模型效果使用全量負(fù)樣本做一定正樣本過(guò)采樣但是同時(shí)注意避免過(guò)擬合應(yīng)該理論上能得到更好的單一模型,畢竟當(dāng)前的單模型都只用了部分訓(xùn)練數(shù)據(jù)。

作者簡(jiǎn)介

程惠閣,搜狗搜索專家研究員。

曾任百度貼吧和信息流反作弊,圖片搜索部圖文相關(guān)性技術(shù)負(fù)責(zé)人。

數(shù)據(jù)挖掘,深度學(xué)習(xí)愛(ài)好者,曾多次單人參賽并獲得AI競(jìng)賽冠亞軍:

NAIC 2020 全國(guó)人工智能大賽 AI+遙感影像語(yǔ)義分割 第二名。

ACL 2020 MIND 新聞推薦 第一名。

AI Challenger 2018 美團(tuán)細(xì)粒度情感分類 第一名。

AI Challenger 2017 Image Caption 第二名。

目前是Kaggle Expert,個(gè)人夢(mèng)想是退休后成為Kaggle Grandmaster。

參考資料

[1]

MIND: https://msnews.github.io/

[2]

代碼: https://github.com/chenghuige/mind

[3]

排行榜: https://competitions.codalab.org/competitions/24122#results

責(zé)任編輯:xj

原文標(biāo)題:MIND新聞推薦冠軍分享細(xì)節(jié)揭秘

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    38121

    瀏覽量

    296689
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1230

    瀏覽量

    26046
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    9029

    瀏覽量

    143072
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5590

    瀏覽量

    123912

原文標(biāo)題:MIND新聞推薦冠軍分享細(xì)節(jié)揭秘

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    PCBA工程師必看:高質(zhì)量BOM的5個(gè)‘隱形規(guī)則’

    一站式PCBA加工廠家今天為大家講講PCBA加工中高質(zhì)量BOM要求有哪些?PCBA加工中高質(zhì)量BOM的5大核心要素。在PCBA加工中,高質(zhì)量的物料清單(BOM)是保障生產(chǎn)零失誤的核心工具。它不
    的頭像 發(fā)表于 10-17 09:18 ?411次閱讀

    標(biāo)貝科技參編《人工智能高質(zhì)量數(shù)據(jù)建設(shè)指南》

    在人工智能邁入“數(shù)據(jù)驅(qū)動(dòng)”的關(guān)鍵發(fā)展階段,高質(zhì)量數(shù)據(jù)已成為突破技術(shù)瓶頸、推動(dòng)產(chǎn)業(yè)落地的核心引擎。日前,中國(guó)信息通信研究院人工智能研究所聯(lián)合清華大學(xué)計(jì)算社會(huì)科學(xué)與國(guó)家治理實(shí)驗(yàn)室、中國(guó)人工智能產(chǎn)業(yè)發(fā)展
    的頭像 發(fā)表于 09-11 17:19 ?692次閱讀

    易華錄入選國(guó)家首批高質(zhì)量數(shù)據(jù)建設(shè)先行先試工作名單

    8月28日下午,在2025中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,國(guó)家數(shù)據(jù)局發(fā)布了首批高質(zhì)量數(shù)據(jù)建設(shè)先行先試工作名單。經(jīng)中國(guó)電科推薦、國(guó)家數(shù)據(jù)局評(píng)審,
    的頭像 發(fā)表于 09-04 09:04 ?798次閱讀

    索尼重載設(shè)備的高質(zhì)量遠(yuǎn)程制作方案和應(yīng)用(2)

    索尼的遠(yuǎn)程制作可以被稱之為制作級(jí)的高質(zhì)量遠(yuǎn)程制作,或重載設(shè)備的高質(zhì)量遠(yuǎn)程制作,遠(yuǎn)程設(shè)備結(jié)合常規(guī)系統(tǒng)設(shè)備,提供和本地制作類似的制作級(jí)高質(zhì)量圖像,延續(xù)電視臺(tái)/制作公司的設(shè)備特點(diǎn)和優(yōu)勢(shì)。
    的頭像 發(fā)表于 08-21 15:56 ?877次閱讀
    索尼重載設(shè)備的<b class='flag-5'>高質(zhì)量</b>遠(yuǎn)程制作方案和應(yīng)用(2)

    索尼重載設(shè)備的高質(zhì)量遠(yuǎn)程制作方案和應(yīng)用(1)

    最近的各地體育活動(dòng)中,索尼提供了多種產(chǎn)品和系統(tǒng)方案進(jìn)行測(cè)試和使用,其中將攝像機(jī)用于轉(zhuǎn)播場(chǎng)地的集中式遠(yuǎn)程制作方式是常用方式。索尼專業(yè)解決方案突出制作級(jí)質(zhì)量的優(yōu)勢(shì),具有圖像高質(zhì)量,低碼率,低延時(shí)特點(diǎn),能提供不一樣的高質(zhì)量遠(yuǎn)程制作。
    的頭像 發(fā)表于 08-21 15:55 ?724次閱讀
    索尼重載設(shè)備的<b class='flag-5'>高質(zhì)量</b>遠(yuǎn)程制作方案和應(yīng)用(1)

    大模型時(shí)代,如何推進(jìn)高質(zhì)量數(shù)據(jù)建設(shè)?

    高質(zhì)量數(shù)據(jù),即具備高價(jià)值、高密度、標(biāo)準(zhǔn)化特征的數(shù)據(jù)集合。 在AI領(lǐng)域,高質(zhì)量數(shù)據(jù)地位舉足輕重,如同原油經(jīng)煉化成為汽油驅(qū)動(dòng)汽車,海量原始
    的頭像 發(fā)表于 08-21 13:58 ?531次閱讀

    江蘇芯首枚8英寸液相法高質(zhì)量碳化硅單晶出爐?

    據(jù)徐州日?qǐng)?bào)報(bào)道,近日,徐州高新區(qū)再傳捷報(bào)—— 江蘇芯先進(jìn)材料有限公司(以下簡(jiǎn)稱 “江蘇芯”)成功出爐首枚 8 英寸液相法(LPE)高質(zhì)量碳化硅單晶。經(jīng)檢測(cè),晶體面型、晶型與結(jié)晶質(zhì)量
    的頭像 發(fā)表于 08-05 17:17 ?553次閱讀

    從芯片到主板,科技創(chuàng)新實(shí)現(xiàn)高質(zhì)量發(fā)展

    數(shù)字化時(shí)代,科技的迅猛發(fā)展深刻影響著各個(gè)領(lǐng)域。從芯片到主板的集成,生動(dòng)展現(xiàn)了科技創(chuàng)新如何成為推動(dòng)高質(zhì)量發(fā)展的核心動(dòng)力。
    的頭像 發(fā)表于 07-26 16:26 ?653次閱讀

    新能源變革之路,要建在“高質(zhì)量”的路基上

    高質(zhì)量”是能源革命的前提與基座
    的頭像 發(fā)表于 06-24 11:42 ?2262次閱讀
    新能源變革之路,要建在“<b class='flag-5'>高質(zhì)量</b>”的路基上

    淺析:數(shù)字經(jīng)濟(jì)時(shí)代,高質(zhì)量數(shù)據(jù)對(duì)AI產(chǎn)業(yè)帶來(lái)哪些新的變化

    ?在數(shù)字經(jīng)濟(jì)與人工智能深度融合的今天,數(shù)據(jù)已超越傳統(tǒng)生產(chǎn)要素,成為驅(qū)動(dòng)AI技術(shù)突破與產(chǎn)業(yè)變革的核心動(dòng)力。高質(zhì)量數(shù)據(jù)不僅是AI模型性能躍升的基石,更重塑了從技術(shù)研發(fā)到商業(yè)落地的全產(chǎn)業(yè)鏈條。 近年來(lái)
    的頭像 發(fā)表于 05-09 15:10 ?741次閱讀

    高質(zhì)量 HarmonyOS 權(quán)限管控流程

    高質(zhì)量 HarmonyOS 權(quán)限管控流程 在 HarmonyOS 應(yīng)用開(kāi)發(fā)過(guò)程中,往往會(huì)涉及到 敏感數(shù)據(jù) 和 硬件資源 的調(diào)動(dòng)和訪問(wèn),而這部分的調(diào)用就會(huì)涉及到管控這部分的知識(shí)和內(nèi)容了。我們需要對(duì)它有
    的頭像 發(fā)表于 04-02 18:29 ?1759次閱讀
    <b class='flag-5'>高質(zhì)量</b> HarmonyOS 權(quán)限管控流程

    電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必由之路

    深圳南柯電子|電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必由之路
    的頭像 發(fā)表于 02-27 09:37 ?734次閱讀
    電動(dòng)工具EMC測(cè)試整改:邁向<b class='flag-5'>高質(zhì)量</b>生產(chǎn)的必由之路

    喜報(bào)丨阿丘科技榮登蘇州市人工智能大模型與高質(zhì)量數(shù)據(jù)雙項(xiàng)榜單

    科技”)憑借自主研發(fā)的“PCB缺陷檢測(cè)視覺(jué)大模型”與“AQ工業(yè)基礎(chǔ)材料加工缺陷數(shù)據(jù)”,分別入選“蘇州市級(jí)培育人工智能大模型”及“蘇州市首批行業(yè)高質(zhì)量數(shù)據(jù)”兩大榜單。厚
    的頭像 發(fā)表于 02-21 11:18 ?902次閱讀
    喜報(bào)丨阿丘科技榮登蘇州市人工智能大模型與<b class='flag-5'>高質(zhì)量數(shù)據(jù)</b><b class='flag-5'>集</b>雙項(xiàng)榜單

    廣汽集團(tuán)召開(kāi)高質(zhì)量發(fā)展大會(huì)

    春回大地,萬(wàn)象更新。近兩日廣東省、廣州市聚焦“建設(shè)現(xiàn)代化產(chǎn)業(yè)體系”主題,相繼召開(kāi)“新春第一會(huì)”——高質(zhì)量發(fā)展大會(huì),吹響奮進(jìn)號(hào)角。廣汽集團(tuán)黨委書(shū)記、董事長(zhǎng)馮興亞作為省市重點(diǎn)產(chǎn)業(yè)高質(zhì)量發(fā)展代表參加會(huì)議,與產(chǎn)學(xué)研各界代表共聚一堂,共繪廣東、廣州
    的頭像 發(fā)表于 02-07 10:18 ?1018次閱讀

    電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路

    深圳南柯電子|電動(dòng)工具EMC測(cè)試整改:邁向高質(zhì)量生產(chǎn)的必經(jīng)之路
    的頭像 發(fā)表于 01-14 14:29 ?795次閱讀
    電動(dòng)工具EMC測(cè)試整改:邁向<b class='flag-5'>高質(zhì)量</b>生產(chǎn)的必經(jīng)之路