chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

復(fù)旦&微軟提出?OmniVL:首個(gè)統(tǒng)一圖像、視頻、文本的基礎(chǔ)預(yù)訓(xùn)練模型

CVer ? 來(lái)源:CVer ? 作者:CVer ? 2022-12-14 15:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

基礎(chǔ)模型 (Foundation model) 指的是在大量數(shù)據(jù)上訓(xùn)練出來(lái)的、可以適應(yīng)一系列下游任務(wù)的模型[1],它被看作是邁向通用人工智能的重要一步。近些年來(lái),隨著CLIP的橫空出世,視覺(jué)-文本預(yù)訓(xùn)練 (Vision-Language Pretraining) 及其在各類(lèi)任務(wù)的遷移學(xué)習(xí)成為了備受關(guān)注的研究方向,并被認(rèn)為是建立視覺(jué)基礎(chǔ)模型的一個(gè)頗具前景的方向。

根據(jù)輸入數(shù)據(jù)和目標(biāo)下游任務(wù)的不同,現(xiàn)有的VLP方法可以大致分為兩類(lèi):圖像-文本預(yù)訓(xùn)練和視頻-文本預(yù)訓(xùn)練。前者從圖像-文本對(duì)中學(xué)習(xí)視覺(jué)和語(yǔ)言表征的聯(lián)合分布,后者則從視頻-文本對(duì)中建立視頻幀和文本之間的語(yǔ)義關(guān)聯(lián)。然而,當(dāng)前尚無(wú)工作探索將二者統(tǒng)一起來(lái),這篇文章認(rèn)為這主要因?yàn)楝F(xiàn)有的訓(xùn)練方式無(wú)法發(fā)揮圖像-文本預(yù)訓(xùn)練和視頻-文本預(yù)訓(xùn)練之間的互補(bǔ)性,但單純地實(shí)現(xiàn)統(tǒng)一而在兩類(lèi)下游任務(wù)上折損性能將是沒(méi)有意義的。盡管困難重重,對(duì)于基礎(chǔ)模型的追求使得這一問(wèn)題依舊難以回避。

這促使這篇工作思考并最終提出了一個(gè)真正統(tǒng)一的視覺(jué)-語(yǔ)言基礎(chǔ)模型OmniVL以同時(shí)支持圖像-文本和視頻-文本的預(yù)訓(xùn)練以及相應(yīng)的下游任務(wù),包括視覺(jué)任務(wù)(如圖像分類(lèi)、視頻動(dòng)作識(shí)別)、跨模態(tài)對(duì)齊任務(wù)(如圖像/視頻-文本檢索)以及多模態(tài)理解和生成任務(wù)(如圖像/視頻問(wèn)答、字幕自動(dòng)生成等)。OmniVL第一次探索出了圖像和視頻任務(wù)雙向互助的訓(xùn)練范式,而不是以往的單一方向,即用圖像(圖像-語(yǔ)言)來(lái)幫助視頻(視頻-語(yǔ)言)。

方法

OmniVL實(shí)現(xiàn)了模態(tài)、功能和訓(xùn)練數(shù)據(jù)三個(gè)維度的統(tǒng)一,本篇對(duì)方法的介紹也將圍繞著三個(gè)統(tǒng)一進(jìn)行展開(kāi)。

7fa457fa-7b7e-11ed-8abf-dac502259ad0.png

統(tǒng)一的模態(tài).OmniVL采用了一個(gè)統(tǒng)一的基于Transformer的視覺(jué)編碼器來(lái)提取視覺(jué)表征,其中視頻與圖像輸入共享大部分網(wǎng)絡(luò)結(jié)構(gòu),對(duì)于視頻而言,OmniVL采用了3D patching embedding和時(shí)間注意力塊[4]。此外,OmniVL額外利用一個(gè)文本編碼器來(lái)提取語(yǔ)言表征。

統(tǒng)一的功能.OmniVL采用了編碼器-解碼器的結(jié)構(gòu),并具有兩個(gè)視覺(jué)引導(dǎo)的解碼器:跨模態(tài)對(duì)齊解碼器和文本生成解碼器,前者通過(guò)視覺(jué)-文本匹配(的二分類(lèi))損失進(jìn)行監(jiān)督以學(xué)習(xí)視覺(jué)和文本模態(tài)之間的對(duì)齊,后者則通過(guò)語(yǔ)言建模(的生成式回歸)損失進(jìn)行監(jiān)督以學(xué)習(xí)從視覺(jué)特征中生成文本的能力。這兩個(gè)解碼器與上述的兩個(gè)編碼器相互配合,賦予了OmniVL“理解“和“生成”的能力。

統(tǒng)一的數(shù)據(jù).受到Florence[5]中使用的統(tǒng)一對(duì)比學(xué)習(xí)[6]的啟發(fā),OmniVL統(tǒng)一了圖像-文本和圖像-標(biāo)簽數(shù)據(jù)作為預(yù)訓(xùn)練語(yǔ)料庫(kù)、并將其進(jìn)一步擴(kuò)展到視頻-文本和視頻-標(biāo)簽數(shù)據(jù)上。這基于兩個(gè)方面的考慮:1)利用盡可能多的有監(jiān)督(或無(wú)監(jiān)督)的數(shù)據(jù)來(lái)豐富語(yǔ)料庫(kù);2)人工標(biāo)注的視覺(jué)-標(biāo)簽數(shù)據(jù)(如ImageNet和Kinetics-400)可以幫助模型學(xué)習(xí)出更具辨別性的表征,這有助于分類(lèi)相關(guān)的遷移學(xué)習(xí)任務(wù),而從網(wǎng)絡(luò)爬取的視覺(jué)-語(yǔ)言數(shù)據(jù) (如CC12M和WebVid) 涵蓋更廣泛的視覺(jué)概念,這有助于跨模態(tài)任務(wù)。這種簡(jiǎn)單的擴(kuò)展可以幫助OmniVL同時(shí)享有兩種優(yōu)勢(shì)。

最后回到了上面提到的最重要的問(wèn)題:如何實(shí)現(xiàn)圖像-文本和視頻-文本學(xué)習(xí)的相互促進(jìn)。前文提到,現(xiàn)有工作往往只是單獨(dú)利用圖像-文本或者視頻-文本進(jìn)行預(yù)訓(xùn)練(如下圖2-3行),因此在另一類(lèi)任務(wù)上的表現(xiàn)往往差強(qiáng)人意(多數(shù)情況被直接忽略)。尤其是如果只在視頻-文本上預(yù)訓(xùn)練的話(huà),受限于有限的數(shù)據(jù)規(guī)模、以及視頻數(shù)據(jù)本身的復(fù)雜性,在對(duì)應(yīng)的視頻任務(wù)上表現(xiàn)也很糟糕。為了解決這一問(wèn)題,一些工作如FiT[7]提出了將圖像看作單幀視頻、從而利用其和視頻數(shù)據(jù)進(jìn)行聯(lián)合訓(xùn)練(如下圖第4行),這一做法相較單純地利用視頻數(shù)據(jù)有顯著提升,但是直接從零學(xué)習(xí)圖像和視頻的表征以及跨模態(tài)的對(duì)齊顯然頗具挑戰(zhàn)性,這為網(wǎng)絡(luò)的學(xué)習(xí)和收斂增加了困難。Pretrain-then-finetuning是視覺(jué)領(lǐng)域一個(gè)常用的做法,它指的是首先在標(biāo)準(zhǔn)的圖像數(shù)據(jù)集上訓(xùn)練骨干網(wǎng)絡(luò)如ResNet,然后將其在下游任務(wù)包括視頻動(dòng)作識(shí)別上進(jìn)行微調(diào),這一方法在各類(lèi)任務(wù)上都取得了顯著的成功。借鑒于此,一種簡(jiǎn)單的做法是首先在圖像-文本上進(jìn)行第一階段的預(yù)訓(xùn)練、然后在視頻-文本上進(jìn)行第二階段的預(yù)訓(xùn)練(如下圖第5行)。這一做法是很有競(jìng)爭(zhēng)力的一個(gè)baseline,但是在一方面在圖像任務(wù)上的性能有所下降、另一方面在視頻任務(wù)上的表現(xiàn)還不夠驚艷。

7fe9706a-7b7e-11ed-8abf-dac502259ad0.png

為了更加充分地利用圖像-文本和視頻-文本數(shù)據(jù)的互補(bǔ)性、進(jìn)一步提升在不同下游任務(wù)上的表現(xiàn),OmniVL提出了一個(gè)解藕的聯(lián)合訓(xùn)練方式,即首先在圖像-文本上進(jìn)行預(yù)訓(xùn)練、然后結(jié)合視頻-文本進(jìn)行聯(lián)合預(yù)訓(xùn)練(如上圖第6行),這不僅可以防止對(duì)圖像表征的遺忘、甚至可以在二者對(duì)應(yīng)的任務(wù)上繼續(xù)提高性能。這篇工作認(rèn)為這是由于第一階段網(wǎng)絡(luò)可以專(zhuān)注在學(xué)習(xí)空間表征和其與文本模態(tài)的對(duì)齊上、第二階段則可以增益性地學(xué)習(xí)運(yùn)動(dòng)表征和跨模態(tài)的關(guān)系建模,這不僅使學(xué)習(xí)從空間維度到時(shí)間維度更加高效,而且還能使不同源的數(shù)據(jù)之間形成互補(bǔ)。

實(shí)驗(yàn)

視覺(jué)任務(wù)

文章首先采用經(jīng)典的圖像分類(lèi) (linear probing) 和視頻動(dòng)作識(shí)別任務(wù) (finetuning) 作為基準(zhǔn)評(píng)估了視覺(jué)編碼器在視覺(jué)任務(wù)上的表現(xiàn)。

80165b84-7b7e-11ed-8abf-dac502259ad0.png

80549cbe-7b7e-11ed-8abf-dac502259ad0.png

遵從CLIP的實(shí)現(xiàn),OmniVL凍結(jié)了視覺(jué)編碼器的參數(shù)并對(duì)新附加的線(xiàn)性層進(jìn)行微調(diào)。在6個(gè)圖像分類(lèi)數(shù)據(jù)集上,OmniVL相比于大多數(shù)baseline取得了一致更好的結(jié)果。與CLIP和FLAVA (70M) 相比,雖然使用明顯更少預(yù)訓(xùn)練數(shù)據(jù),OmniVL仍然取得了總體上有競(jìng)爭(zhēng)力的結(jié)果。

對(duì)于視頻動(dòng)作識(shí)別,文章在兩個(gè)規(guī)模較小的數(shù)據(jù)集UCF101和HMDB51上評(píng)估了linear probing的結(jié)果,并在兩個(gè)規(guī)模較大的數(shù)據(jù)集Kinetics-400和Something-something V2上評(píng)估了微調(diào)的結(jié)果,實(shí)驗(yàn)表明OmniVL都顯著地超越了baseline。

跨模態(tài)對(duì)齊任務(wù)

接下來(lái)文章探究了OmniVL在圖像-文本檢索和文本到視頻檢索任務(wù)上的表現(xiàn)。值得一提的是,為了平衡推理效率和多模態(tài)信息的深度融合,OmniVL首先根據(jù)單模態(tài)編碼器得到視覺(jué)和文本embedding的相似度得分選擇Top-K(默認(rèn)為K=128)候選者,然后利用跨模態(tài)對(duì)齊解碼器計(jì)算其成對(duì)的匹配得分對(duì)候選者重新排序,這種雙階段匹配的方式進(jìn)一步體現(xiàn)了該架構(gòu)的優(yōu)越性。

807604e4-7b7e-11ed-8abf-dac502259ad0.png

80d0a3b8-7b7e-11ed-8abf-dac502259ad0.png

從上圖可以看出,無(wú)論是在圖像-文本檢索還是文本到視頻檢索上,OmniVL都在不同數(shù)據(jù)集上取得了目前最佳的性能。尤其是在文本到視頻檢索任務(wù)上,得益于所提出的解藕聯(lián)合預(yù)訓(xùn)練方法,OmniVL顯著地超越了現(xiàn)有方法。

多模態(tài)理解和生成任務(wù)

以視覺(jué)為基礎(chǔ)的跨模態(tài)對(duì)齊解碼器和文本生成解碼器使OmniVL具備了多模態(tài)理解和生成的能力,在這一部分中,文章評(píng)估了它在字幕生成和圖像/視頻問(wèn)題回答上的表現(xiàn)。

8107acf0-7b7e-11ed-8abf-dac502259ad0.png

8124b32c-7b7e-11ed-8abf-dac502259ad0.png

在這類(lèi)任務(wù)上,OmniVL同樣取得了最好的結(jié)果。

總結(jié)和未來(lái)工作

這篇工作提出了OmniVL,一個(gè)全新的視覺(jué)-語(yǔ)言基礎(chǔ)模型,它將圖像-語(yǔ)言和視頻-語(yǔ)言統(tǒng)一起來(lái),并同時(shí)支持視覺(jué)任務(wù)、跨模態(tài)對(duì)齊任務(wù)以及多模態(tài)的理解和生成任務(wù)。OmniVL采用了統(tǒng)一的視覺(jué)-語(yǔ)言對(duì)比損失,這讓其能夠同時(shí)利用圖像-文本、圖像-標(biāo)簽、視頻-文本和視頻-標(biāo)簽數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。另外,文章中提出了一個(gè)解耦地聯(lián)合訓(xùn)練范式,將視覺(jué)-語(yǔ)言建模解耦為空間和時(shí)間兩個(gè)維度,從而同時(shí)提高了在圖像和視頻任務(wù)的性能。

在這篇工作僅僅在CC12M和WebVid-2.5M這類(lèi)相對(duì)小規(guī)模的數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,隨著LAION、WebVid-10M的問(wèn)世,可以在更大規(guī)模的數(shù)據(jù)上訓(xùn)練更大的模型,以探索具有更強(qiáng)零樣本、小樣本能力的模型。另外一個(gè)值得探索的方向是結(jié)合更豐富的有標(biāo)簽數(shù)據(jù)和更優(yōu)的監(jiān)督目標(biāo),使得模型可以支持細(xì)粒度的任務(wù)如物體檢測(cè)、追蹤等,從而朝著通用的統(tǒng)一模型更上一層臺(tái)階。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42440
  • 圖像分類(lèi)
    +關(guān)注

    關(guān)注

    0

    文章

    97

    瀏覽量

    12534

原文標(biāo)題:NeurIPS 2022 | 復(fù)旦&微軟提出?OmniVL:首個(gè)統(tǒng)一圖像、視頻、文本的基礎(chǔ)預(yù)訓(xùn)練模型

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是大模型,智能體...?大模型100問(wèn),快速全面了解!

    ,LLM)是大模型中最主要的類(lèi),專(zhuān)門(mén)用于處理和生成人類(lèi)語(yǔ)言。大語(yǔ)言模型通過(guò)“閱讀”海量的文本數(shù)據(jù)(如書(shū)籍、網(wǎng)頁(yè)、文章等)進(jìn)行預(yù)
    的頭像 發(fā)表于 02-02 16:36 ?1139次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問(wèn),快速全面了解!

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?3328次閱讀

    羅德與施瓦茨宣布推出新頻段 R&amp;amp;amp;S ZNB3000 矢量網(wǎng)絡(luò)分析儀,頻率高達(dá) 54 GHz

    R&amp;SZNB3000以業(yè)界領(lǐng)先的測(cè)量速度、出色的擴(kuò)展能力及流射頻性能,為中端矢量網(wǎng)絡(luò)分析儀市場(chǎng)樹(shù)立了新標(biāo)桿。隨著高頻型號(hào)的加入,R&amp;SZNB3000將覆蓋更廣泛的應(yīng)用場(chǎng)景。羅德與施
    的頭像 發(fā)表于 12-04 17:04 ?781次閱讀
    羅德與施瓦茨宣布推出新頻段 R&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;S ZNB3000 矢量網(wǎng)絡(luò)分析儀,頻率高達(dá) 54 GHz

    深度數(shù)科九周年發(fā)布:全國(guó)首個(gè)票據(jù)行業(yè)大模型&amp;quot;承心閱&amp;quot;,重塑產(chǎn)業(yè)數(shù)字信任新范式

    周年之際,正式推出全國(guó)首個(gè)聚焦票據(jù)與供應(yīng)鏈金融領(lǐng)域的行業(yè)大模型:承心閱。標(biāo)志著中國(guó)票據(jù)行業(yè)邁入"可信智能"發(fā)展的全新階段,為產(chǎn)業(yè)信用體系建設(shè)注入"數(shù)字信任"新動(dòng)能。 、真實(shí)業(yè)務(wù)數(shù)據(jù)
    的頭像 發(fā)表于 11-29 20:20 ?262次閱讀

    視頻安全監(jiān)測(cè)系統(tǒng),從&amp;quot;看見(jiàn)&amp;quot;到&amp;quot;看懂&amp;quot;

    在數(shù)字視覺(jué)技術(shù)飛速發(fā)展的今天, 視頻安全監(jiān)測(cè)系統(tǒng) 正在重新定義安全防護(hù)的邊界。這套系統(tǒng)通過(guò)賦予攝像頭思考能力,讓安全防護(hù)從被動(dòng)記錄邁向主動(dòng)預(yù)警,構(gòu)筑起道智能化的視覺(jué)防線(xiàn)。 從"看見(jiàn)"到"看懂
    的頭像 發(fā)表于 11-14 11:06 ?494次閱讀
    <b class='flag-5'>視頻</b>安全監(jiān)測(cè)系統(tǒng),從&<b class='flag-5'>amp</b>;quot;看見(jiàn)&<b class='flag-5'>amp</b>;quot;到&<b class='flag-5'>amp</b>;quot;看懂&<b class='flag-5'>amp</b>;quot;

    亞馬遜云科技上線(xiàn)Amazon Nova多模態(tài)嵌入模型

    Embeddings多模態(tài)嵌入模型現(xiàn)已在A(yíng)mazon Bedrock上線(xiàn),這是款專(zhuān)為Agentic RAG與語(yǔ)義搜索應(yīng)用打造的頂尖多模態(tài)嵌入模型。該模型
    的頭像 發(fā)表于 10-29 17:15 ?374次閱讀
    亞馬遜云科技上線(xiàn)Amazon Nova多模態(tài)嵌入<b class='flag-5'>模型</b>

    如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥(niǎo)e203開(kāi)發(fā)板上

    本帖欲分享如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥(niǎo)e203開(kāi)發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interpreter(new tflite::Interpreter
    發(fā)表于 10-22 08:04

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫(xiě)數(shù)字識(shí)別。模型
    發(fā)表于 10-22 07:03

    全球首個(gè)動(dòng)漫專(zhuān)屬AI視頻生成平臺(tái)Animon,國(guó)內(nèi)版&amp;quot;萌動(dòng)AI&amp;quot;正式發(fā)布

    Animon國(guó)內(nèi)版——"萌動(dòng)AI"首秀:AI動(dòng)漫創(chuàng)作進(jìn)入全民時(shí)代 北京2025年9月25日?/美通社/ -- CreateAI(OTC:TSPH)今日宣布,其打造的全球首個(gè)專(zhuān)注于動(dòng)漫的AI視頻
    的頭像 發(fā)表于 09-25 12:33 ?1358次閱讀

    基于大規(guī)模人類(lèi)操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來(lái),機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類(lèi)方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)
    的頭像 發(fā)表于 08-21 09:56 ?1232次閱讀
    基于大規(guī)模人類(lèi)操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    如何進(jìn)行YOLO模型轉(zhuǎn)換?

    我目前使用的轉(zhuǎn)模型代碼如下 from ultralytics import YOLOimport cv2import timeimport nncaseimport# 加載預(yù)訓(xùn)練的YOLO模型
    發(fā)表于 08-14 06:03

    在對(duì)廬山派K230的SD卡data文件夾進(jìn)行刪除和新件文件夾時(shí)無(wú)法操作,且訓(xùn)練時(shí)線(xiàn)程異常,怎么解決?

    解決了其中訓(xùn)練線(xiàn)程報(bào)錯(cuò)的故障,是因?yàn)槲业奈募A里只有個(gè)分類(lèi)子目錄,于是在圖像分類(lèi)中它會(huì)報(bào)錯(cuò),但是訓(xùn)練好后點(diǎn)擊部署會(huì)出現(xiàn)部署文件生成異常的問(wèn)題 查看AICube_log,日志顯示如下
    發(fā)表于 08-01 08:03

    請(qǐng)問(wèn)yolov8訓(xùn)練模型如何寫(xiě)雙線(xiàn)程?

    用yolo8訓(xùn)練模型做送藥小車(chē),看了yolov8的歷程,可以使用,但是不知道輸出時(shí)具體用的是什么通道?我看API發(fā)現(xiàn),是用get_frame()獲取幀圖片給AI程序使用,但是返回值
    發(fā)表于 07-30 06:23

    新知|Verizon與AT&amp;amp;amp;T也可以手機(jī)直接連接衛(wèi)星了

    近日,Verizon與AT&amp;T宣布,手機(jī)直連衛(wèi)星方面取得重要進(jìn)展,使用普通手機(jī)實(shí)現(xiàn)了通過(guò)衛(wèi)星的視頻通話(huà)。很顯然,Verizon與AT&amp;T的這舉措是針對(duì)此前T-Mobi
    的頭像 發(fā)表于 06-19 07:07 ?1379次閱讀
    新知|Verizon與AT&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;T也可以手機(jī)直接連接衛(wèi)星了

    CPU密集型任務(wù)開(kāi)發(fā)指導(dǎo)

    區(qū)提供的房?jī)r(jià)數(shù)據(jù)訓(xùn)練個(gè)簡(jiǎn)易的房?jī)r(jià)預(yù)測(cè)模型,該模型支持通過(guò)輸入房屋面積和房間數(shù)量去預(yù)測(cè)該區(qū)域的房?jī)r(jià),模型需要長(zhǎng)時(shí)間運(yùn)行,房?jī)r(jià)預(yù)測(cè)需要使用前面
    發(fā)表于 06-19 06:05