chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AutoML又一利器來(lái)了!谷歌宣布開(kāi)源AdaNet

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-01 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AutoML又一利器來(lái)了!今天,谷歌宣布開(kāi)源AdaNet,這是一個(gè)輕量級(jí)的基于TensorFlow的框架,可以在最少的專(zhuān)家干預(yù)下自動(dòng)學(xué)習(xí)高質(zhì)量的模型。

今天,谷歌宣布開(kāi)源AdaNet,這是一個(gè)輕量級(jí)的基于TensorFlow的框架,可以在最少的專(zhuān)家干預(yù)下自動(dòng)學(xué)習(xí)高質(zhì)量的模型。

這個(gè)項(xiàng)目基于Cortes等人2017年提出的AdaNet算法,用于學(xué)習(xí)作為子網(wǎng)絡(luò)集合的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

谷歌AI負(fù)責(zé)人Jeff Dean表示,這是谷歌AutoML整體工作的一部分,并且,谷歌同時(shí)提供了AdaNet的開(kāi)源版本和教程notebook。

該團(tuán)隊(duì)在介紹博客中表示:“AdaNet以我們最近的強(qiáng)化學(xué)習(xí)和基于進(jìn)化的AutoML研究為基礎(chǔ),在提供學(xué)習(xí)保證的同時(shí)實(shí)現(xiàn)了快速、靈活。重要的是,AdaNet提供了一個(gè)通用框架,不僅可以學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),還可以學(xué)習(xí)集成,以獲得更好的模型?!?/p>

AdaNet提供以下特征:

Estimator API,可輕松訓(xùn)練、評(píng)估和服務(wù)AdaNet模型。

學(xué)習(xí)在TensorFlow中集成用戶(hù)定義的子網(wǎng)。

用于在單個(gè) train() 調(diào)用中搜索子網(wǎng)架構(gòu)和參數(shù)的接口。

關(guān)于CPUGPU的分布式訓(xùn)練(我們正在開(kāi)發(fā)TPU支持)。

一流的TensorBoard integration。

提供理論學(xué)習(xí)。

基于集成學(xué)習(xí)的自動(dòng)搜索工具

集成學(xué)習(xí)(Ensemble learning)是將不同機(jī)器學(xué)習(xí)(ML)模型預(yù)測(cè)結(jié)合起來(lái)的技術(shù),廣泛用于神經(jīng)網(wǎng)絡(luò),以實(shí)現(xiàn)最先進(jìn)的性能。得益于豐富的經(jīng)驗(yàn)和理論保證,集成學(xué)習(xí)在許多Kaggle競(jìng)賽中取得了成功,例如Netflix Prize。

由于訓(xùn)練時(shí)間長(zhǎng),集成學(xué)習(xí)在實(shí)踐中使用不多,而且選擇哪個(gè)ML模型需要根據(jù)其領(lǐng)域?qū)I(yè)知識(shí)來(lái)。

但隨著計(jì)算能力和專(zhuān)用深度學(xué)習(xí)硬件(如TPU)變得更容易獲得,機(jī)器學(xué)習(xí)模型的一個(gè)趨勢(shì)是變得更大,集成(ensemble)也就變得更加重要。

現(xiàn)在,AdaNet就是這樣一個(gè)工具,可以自動(dòng)搜索神經(jīng)網(wǎng)絡(luò)架構(gòu),并學(xué)會(huì)將最好的架構(gòu)組合成一個(gè)高質(zhì)量的模型。

AdaNet易于使用,并能創(chuàng)建高質(zhì)量的模型,為ML實(shí)踐者節(jié)省了用于選擇最佳神經(jīng)網(wǎng)絡(luò)架構(gòu)的時(shí)間,實(shí)現(xiàn)了一種將學(xué)習(xí)神經(jīng)架構(gòu)作為子網(wǎng)絡(luò)集合的自適應(yīng)算法。

AdaNet能夠添加不同深度和寬度的子網(wǎng)絡(luò),以創(chuàng)建多樣化的集合,并通過(guò)參數(shù)數(shù)量來(lái)改進(jìn)性能。

AdaNet自適應(yīng)地產(chǎn)生了神經(jīng)網(wǎng)絡(luò)的集成。在每次迭代中,它測(cè)量每個(gè)候選對(duì)象的集成損失,并選擇最佳的一個(gè),然后進(jìn)入下一次迭代。

快速且易于使用

AdaNet實(shí)現(xiàn)了TensorFlow Estimator接口,通過(guò)封裝訓(xùn)練、評(píng)估、預(yù)測(cè)和服務(wù)導(dǎo)出,大大簡(jiǎn)化了機(jī)器學(xué)習(xí)編程。它集成了開(kāi)源工具,如TensorFlow Hub模塊,TensorFlow Model Analysis和Google Cloud的Hyperparameter Tuner。分布式訓(xùn)練支持可顯著縮短訓(xùn)練時(shí)間,并可與可用的CPU和加速器(例如GPU)進(jìn)行線(xiàn)性擴(kuò)展。

AdaNet在CIFAR-100上每個(gè)訓(xùn)練步驟(X軸)的精度(y軸)。藍(lán)線(xiàn)是訓(xùn)練集上的性能,紅線(xiàn)是測(cè)試集上的性能。每一百萬(wàn)步開(kāi)始訓(xùn)練一個(gè)新的子網(wǎng)絡(luò),并最終提高整體的性能。在添加新子網(wǎng)之前,灰線(xiàn)和綠線(xiàn)是集合的準(zhǔn)確度。

由于TensorBoard是用于在訓(xùn)練期間可視化模型性鞥的最佳TensorFlow功能之一,AdaNet可與其無(wú)縫集成,以監(jiān)控子網(wǎng)絡(luò)訓(xùn)練,集合組合和性能。當(dāng)AdaNet完成訓(xùn)練后,它會(huì)導(dǎo)出一個(gè)可以使用TensorFlow Serving部署的SavedModel。

學(xué)習(xí)保證

構(gòu)建神經(jīng)網(wǎng)絡(luò)集合面臨這么幾個(gè)挑戰(zhàn):要考慮的最佳子網(wǎng)架構(gòu)是什么?再此使用相同的架構(gòu)或鼓勵(lì)多樣性是不是最佳選擇?雖然具有更多參數(shù)的復(fù)雜子網(wǎng)將在訓(xùn)練集上表現(xiàn)更好,但由于其存在更強(qiáng)的復(fù)雜性,它們可能不會(huì)適用于未知數(shù)據(jù)。這些挑戰(zhàn)來(lái)自評(píng)估模型性能的過(guò)程。我們可以評(píng)估一個(gè)訓(xùn)練集子集的性能,但這樣做會(huì)減少可用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的示例數(shù)量。

相反,AdaNet的方法(在ICML 2017的“ AdaNet:人工神經(jīng)網(wǎng)絡(luò)的自適應(yīng)結(jié)構(gòu)學(xué)習(xí) ”一文中提出)是為了優(yōu)化一個(gè)對(duì)象,以平衡集合在訓(xùn)練集上的表現(xiàn)與其適用于未知數(shù)據(jù)的能力之間的權(quán)衡。集合這樣選擇子網(wǎng)絡(luò):只有當(dāng)候選子網(wǎng)絡(luò)改進(jìn)了總體的訓(xùn)練損失,而不是影響了整體的泛化能力時(shí),才包含這個(gè)候選子網(wǎng)絡(luò)。這保證了:

1.集合的泛化誤差受到訓(xùn)練誤差和復(fù)雜性的限制。

2.通過(guò)優(yōu)化對(duì)象,我們可以直接將限制最小化。

優(yōu)化對(duì)象的一個(gè)實(shí)際好處是:它不需要保留集來(lái)選擇要添加到集合中的候選子網(wǎng)。這還將帶來(lái)另一個(gè)好處:我們可以使用更多的訓(xùn)練數(shù)據(jù)來(lái)訓(xùn)練子網(wǎng)。

可擴(kuò)展性

我們認(rèn)為,為滿(mǎn)足研究和生產(chǎn)制作AutoML框架的關(guān)鍵在于不僅要提供合理的默認(rèn)值,還要允許用戶(hù)嘗試自己子網(wǎng)及模型的定義。因此,機(jī)器學(xué)習(xí)研究人員、從業(yè)人員和愛(ài)好者均可報(bào)名定義自己的AdaNet adanet.subnetwork.Builder,通過(guò)使用高級(jí)別的TensorFlow API,如tf.layers。

已經(jīng)在其系統(tǒng)中集成TensorFlow模型的用戶(hù)可以輕松地將他們的TensorFlow代碼轉(zhuǎn)換為AdaNet子網(wǎng),并使用adanet.Estimator提高模型性能,同時(shí)獲得學(xué)習(xí)保證。AdaNet將探測(cè)他們定義的候選子網(wǎng)的搜索空間,并學(xué)習(xí)整合子網(wǎng)。例如,我們采用了NASNet-A CIFAR架構(gòu)的開(kāi)源實(shí)現(xiàn)方式,將其轉(zhuǎn)換為子網(wǎng),并在八次AdaNet迭代后對(duì)CIFAR-10最先進(jìn)的結(jié)果進(jìn)行改進(jìn)。此外,我們的模型使用更少的參數(shù)實(shí)現(xiàn)了這一結(jié)果:

Zoph等人2018年提出的NASNet-A模型的性能,以及AdaNet學(xué)習(xí)在CIFAR-10上將小型NASNet-A子網(wǎng)結(jié)合起來(lái)的性能比較。

用戶(hù)也可以通過(guò)canned或定制tf.contrib.estimator.Heads將自定義損失函數(shù)用作AdaNet對(duì)象的一部分,以便訓(xùn)練回歸、分類(lèi)和多任務(wù)學(xué)習(xí)問(wèn)題。

用戶(hù)還可以通過(guò)擴(kuò)展adanet.subnetwork.Generator類(lèi)來(lái)完全定義候選子網(wǎng)絡(luò)的搜索空間。這允許他們根據(jù)可用硬件增大或減小搜索空間。子網(wǎng)絡(luò)的搜索空間可以很簡(jiǎn)單,只需使用不同的隨機(jī)種子復(fù)制相同的子網(wǎng)絡(luò)配置,就能訓(xùn)練具有不同超參數(shù)組合的數(shù)十個(gè)子網(wǎng)絡(luò),并讓AdaNet選擇要包含在最終集合中的子網(wǎng)絡(luò)。

谷歌的研究團(tuán)隊(duì)提供了GitHub repo和tutorial notebook,并且包含了一些使用dense layers和卷積的示例幫助大家入門(mén)。

AdaNet的數(shù)據(jù)集、工作原理和應(yīng)用范圍

今天,該項(xiàng)目的成員也在Reddit和ycombinator上回答讀者提問(wèn),我們精選了一些回答:

1、請(qǐng)問(wèn)你使用該算法嘗試了哪些數(shù)據(jù)集?它是否只適用于圖像分類(lèi),比如Google的AutoML產(chǎn)品?

我們?cè)趫D像識(shí)別之外的幾個(gè)大型數(shù)據(jù)集上使用了AdaNet,包括結(jié)構(gòu)化數(shù)據(jù)(參見(jiàn)原始論文)和一些NLP數(shù)據(jù)集。在大多數(shù)情況下,AdaNet的性能優(yōu)于獨(dú)立訓(xùn)練的任何單個(gè)子網(wǎng)絡(luò)(這些子網(wǎng)絡(luò)可能使用非常復(fù)雜的架構(gòu),如NASNet-A)。

當(dāng)然,如何定義一個(gè)優(yōu)化搜索空間,并使用合理的搜索啟發(fā)方式/算法對(duì)于獲得最佳的最終模型非常重要,而且一般最佳的模型是使用強(qiáng)大的先驗(yàn),就像最先進(jìn)的模型,并讓AdaNet學(xué)習(xí)將這些模型的不同變化結(jié)合起來(lái)。

但是,如果你希望AdaNet能夠通用于任意數(shù)據(jù)集,可以嘗試定義合理的搜索空間,比如搜索日益復(fù)雜的完全連接的神經(jīng)網(wǎng)絡(luò),并允許AdaNet學(xué)習(xí)將其組合到最佳模型中。

最終,這就是我們?cè)O(shè)計(jì)的AdaNet具備高度靈活性的原因:我們希望任何人嘗試建立對(duì)自己的數(shù)據(jù)集有意義的子網(wǎng)絡(luò)搜索空間,以便獲得最佳性能的最終模型。

2、官方資源庫(kù)中的示例是個(gè)更好的例子,說(shuō)明了AdaNet的工作原理:

https://github.com/tensorflow/adanet/blob/master/adanet/examples/tutorials/adanet_objective.ipynb

盡管名字叫“AutoML”,但實(shí)際上似乎仍需要做很多工作才能實(shí)現(xiàn)模型的優(yōu)化。 (第二個(gè)示例在這方面的表現(xiàn)相對(duì)更好一些:

https://github.com/tensorflow/adanet/blob/master/adanet/examples/tutorials/customizing_adanet.ipynb)

確實(shí),雖然AdaNet項(xiàng)目目前還不包含最先進(jìn)的架構(gòu)搜索策略/搜索空間,但它確實(shí)為研究人員提供了一個(gè)抽象對(duì)象(adanet.subnetwork.Generator)來(lái)實(shí)現(xiàn)神經(jīng)架構(gòu)搜索算法,同時(shí)提供了適合用戶(hù)的生產(chǎn)友好型的TF Estimator界面,讓算法開(kāi)發(fā)更容易集成到生產(chǎn)過(guò)程中,而且,已經(jīng)使用TF Estimator生態(tài)系統(tǒng)的用戶(hù)也可以更快地從這些開(kāi)發(fā)成果中受益。

我想指出的是,盡管AdaNet的某些方面并不那么先進(jìn),但我們已經(jīng)看到AdaNet在各種各樣的任務(wù)上取得了良好的效果。大家都來(lái)試試看吧!

當(dāng)然,我們不會(huì)停下腳步!我們很高興自己也在這個(gè)領(lǐng)域工作,我們今后將繼續(xù)更新這個(gè)項(xiàng)目。

3、我還沒(méi)有細(xì)讀,但抱歉問(wèn)一句;:AdaNet可以處理具有可變長(zhǎng)度skip connections的塊嗎?(比如DenseNet),甚至能夠提供AmoebaNet風(fēng)格的模型嗎?指導(dǎo)超參數(shù)/架構(gòu)選擇過(guò)程的元策略(網(wǎng)格搜索/貝葉斯等)有哪些呢?謝謝!

這是個(gè)好問(wèn)題!在最簡(jiǎn)單的情況下,AdaNet允許用戶(hù)將獨(dú)立子網(wǎng)從線(xiàn)性模型集成到用戶(hù)定義的DenseNet / AmoebaNet式網(wǎng)絡(luò)上。但更有趣的是在迭代之間共享信息(這些信息可以是張量輸出,或是哪些超參數(shù)表現(xiàn)最好),以便AdaNet進(jìn)行神經(jīng)架構(gòu)搜索。用戶(hù)可以定義自己的adanet子網(wǎng)生成器,指定如何跨迭代過(guò)程調(diào)整訓(xùn)練方式。

開(kāi)箱即用的元策略其實(shí)和用戶(hù)簡(jiǎn)單定義的啟發(fā)式算法差不多。但是,AdaNet框架足夠靈活,可以支持更智能的策略,并抽象出分布式訓(xùn)練(Estimator),評(píng)估(TensorBoard)和服務(wù)(tf.SavedModel)的復(fù)雜度。

4、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)取得了如此大的進(jìn)步??梢怨烙?jì)一下我需要多少CPU 和成本才能獲得一些結(jié)果嗎?我的數(shù)據(jù)訓(xùn)練量大約是20M的樣本(每個(gè)樣本1K數(shù)據(jù)點(diǎn))。

這取決于你搜索的子網(wǎng)數(shù)量以及每個(gè)子網(wǎng)的訓(xùn)練成本。你可以使用單個(gè)DNN定義搜索空間,并為其提供一次迭代,這與固定DNN Estimator的操作相同。

比如說(shuō),假設(shè)搜索空間包含5個(gè)DNN,每個(gè)DNN完成一次迭代訓(xùn)練需要的成本為X,訓(xùn)練10次迭代,你的訓(xùn)練成本就是X x 5 x 10 = 50X。

但是,考慮到你使用AdaNet,可以考慮整合50個(gè)DNN進(jìn)行探索、訓(xùn)練和選擇等流程,此外,由于AdaNet是作為T(mén)ensorFlow Estimator實(shí)現(xiàn)的,如果這就是你想要的,可以很容易地增加機(jī)器數(shù)量,以加快訓(xùn)練速度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:AutoML又一利器來(lái)了,谷歌宣布開(kāi)源AdaNet(附教程)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌評(píng)論卡,碰碰即可完成谷歌評(píng)論 #谷歌評(píng)論卡 #NFC標(biāo)簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    TCL首款基于開(kāi)源鴻蒙的智慧健康空調(diào)發(fā)布

    12月18日,在TCL空調(diào)新品發(fā)布會(huì)上,基于開(kāi)源鴻蒙打造的小藍(lán)翼P7 Ultra系列AI健康空調(diào)正式發(fā)布。這是TCL空調(diào)與開(kāi)源鴻蒙生態(tài)深度融合的重要成果,也是開(kāi)源鴻蒙賦能智慧家居的又一
    的頭像 發(fā)表于 12-25 09:33 ?317次閱讀

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開(kāi)源模型

    ?電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個(gè)領(lǐng)域開(kāi)展具體項(xiàng)目合作。其與谷歌已從單的遙控器芯片供應(yīng),發(fā)展為涵蓋音頻、智能家居、端側(cè)AI等多領(lǐng)域的深度合作關(guān)系
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    為什么說(shuō)uCentral是構(gòu)建開(kāi)放網(wǎng)絡(luò)的開(kāi)源利器?

    uCentral是TIP主導(dǎo)的開(kāi)源網(wǎng)絡(luò)管理系統(tǒng),其核心uCentral Controller通過(guò)開(kāi)放協(xié)議實(shí)現(xiàn)設(shè)備集中管控與自動(dòng)化運(yùn)維。該系統(tǒng)支持配置下發(fā)、狀態(tài)監(jiān)控和閉環(huán)自愈,在數(shù)據(jù)中心場(chǎng)景中要求底層交換機(jī)具備N(xiāo)ETCONF/YANG、VXLAN等開(kāi)放接口能力,為構(gòu)建智能云化網(wǎng)絡(luò)提供堅(jiān)實(shí)基礎(chǔ)。
    的頭像 發(fā)表于 11-28 18:33 ?1166次閱讀
    為什么說(shuō)uCentral是構(gòu)建開(kāi)放網(wǎng)絡(luò)的<b class='flag-5'>開(kāi)源</b><b class='flag-5'>利器</b>?

    開(kāi)源鴻蒙和開(kāi)源歐拉成為開(kāi)放原子開(kāi)源基金會(huì)首批畢業(yè)項(xiàng)目

    11月21日,在2025開(kāi)放原子開(kāi)發(fā)者大會(huì)開(kāi)幕式上,開(kāi)放原子開(kāi)源基金會(huì)宣布旗下開(kāi)源鴻蒙(OpenHarmony)與開(kāi)源歐拉(openEuler)成為首批畢業(yè)項(xiàng)目。
    的頭像 發(fā)表于 11-25 17:22 ?766次閱讀

    芯原與谷歌聯(lián)合推出開(kāi)源Coral NPU IP

    芯原股份近日宣布谷歌聯(lián)合推出面向始終在線(xiàn)、超低能耗端側(cè)大語(yǔ)言模型應(yīng)用的Coral NPU IP。
    的頭像 發(fā)表于 11-13 11:24 ?507次閱讀
    芯原與<b class='flag-5'>谷歌</b>聯(lián)合推出<b class='flag-5'>開(kāi)源</b>Coral NPU IP

    NVIDIA宣布開(kāi)源Aerial軟件

    NVIDIA 開(kāi)源其 Aerial 軟件,并將 NVIDIA Sionna 研究套件和 Aerial 測(cè)試平臺(tái)引入 NVIDIA DGX Spark 平臺(tái),為研究人員提供強(qiáng)大的工具和便捷的訪(fǎng)問(wèn)途徑,以加速 AI 原生無(wú)線(xiàn)創(chuàng)新。
    的頭像 發(fā)表于 11-03 15:14 ?806次閱讀

    正面迎戰(zhàn)英偉達(dá)CUDA,華為宣布CANN全面開(kāi)源

    8月5日,在北京舉行的昇騰計(jì)算產(chǎn)業(yè)發(fā)展峰會(huì)上,華為輪值董事長(zhǎng)徐直軍宣布,升騰 AI 核心軟件平臺(tái) CANN 將全面開(kāi)源,同時(shí)還將Mind 系列應(yīng)用軟件及工具鏈同步開(kāi)放,包括Mindstudio
    的頭像 發(fā)表于 08-06 14:34 ?9426次閱讀
    正面迎戰(zhàn)英偉達(dá)CUDA,華為<b class='flag-5'>宣布</b>CANN全面<b class='flag-5'>開(kāi)源</b>

    華為正式開(kāi)源盤(pán)古7B稠密和72B混合專(zhuān)家模型

    [中國(guó),深圳,2025年6月30日] 今日,華為正式宣布開(kāi)源盤(pán)古70億參數(shù)的稠密模型、盤(pán)古Pro MoE 720億參數(shù)的混合專(zhuān)家模型和基于昇騰的模型推理技術(shù)。 此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一
    的頭像 發(fā)表于 06-30 11:19 ?1250次閱讀

    開(kāi)源鴻蒙統(tǒng)互聯(lián)分論壇圓滿(mǎn)舉辦

    萬(wàn)物互聯(lián)時(shí)代到來(lái),物聯(lián)網(wǎng)設(shè)備數(shù)量及設(shè)備連接數(shù)高速增長(zhǎng),如何實(shí)現(xiàn)高效、穩(wěn)定的設(shè)備間通信,成為行業(yè)重要的研究方向。作為開(kāi)源操作系統(tǒng),開(kāi)源鴻蒙帶來(lái)了全新的技術(shù)架構(gòu)和解決方案,其統(tǒng)互聯(lián)的技術(shù)
    的頭像 發(fā)表于 06-05 15:33 ?943次閱讀

    開(kāi)源鴻蒙開(kāi)發(fā)新體驗(yàn),開(kāi)鴻Bot系列今日開(kāi)啟預(yù)售!

    今日,深開(kāi)鴻正式宣布,開(kāi)鴻Bot系列產(chǎn)品——開(kāi)鴻BotBook與開(kāi)鴻BotMini全面開(kāi)啟預(yù)售。該系列面向開(kāi)源鴻蒙開(kāi)發(fā)者量身打造,搭載基于OpenHarmony深度定制的KaihongOS桌面
    發(fā)表于 05-16 14:13

    明遠(yuǎn)智睿SSD2351開(kāi)發(fā)板:儀器儀表與智慧農(nóng)業(yè)的創(chuàng)新利器

    資料和一對(duì)一的技術(shù)支持,讓農(nóng)業(yè)科研人員和開(kāi)發(fā)者可以根據(jù)實(shí)際需求對(duì)開(kāi)發(fā)板進(jìn)行定制和優(yōu)化,開(kāi)發(fā)出更加適合智慧農(nóng)業(yè)發(fā)展的應(yīng)用和解決方案。明遠(yuǎn)智睿SSD2351開(kāi)發(fā)板為儀器儀表和智慧農(nóng)業(yè)領(lǐng)域帶來(lái)了新的發(fā)展機(jī)遇,推動(dòng)了這兩個(gè)領(lǐng)域的創(chuàng)新和進(jìn)步。
    發(fā)表于 05-09 19:09

    DeepSeek宣布開(kāi)源DeepGEMM

    DeepGEMM 是個(gè)專(zhuān)為簡(jiǎn)潔高效的 FP8 通用矩陣乘法(GEMM)設(shè)計(jì)的庫(kù),具有細(xì)粒度縮放功能,在Deepseek開(kāi)源周的第三天Deepseek正式宣布開(kāi)源DeepGEMM。 據(jù)
    的頭像 發(fā)表于 02-26 15:33 ?1134次閱讀

    Banana Pi開(kāi)源社區(qū)基于瑞芯微RK3588開(kāi)發(fā)板,DeepSeek開(kāi)發(fā)利器

    Banana Pi開(kāi)源社區(qū)基于瑞芯微RK3588開(kāi)發(fā)板,DeepSeek開(kāi)發(fā)利器
    的頭像 發(fā)表于 02-19 18:25 ?3551次閱讀
    Banana Pi<b class='flag-5'>開(kāi)源</b>社區(qū)基于瑞芯微RK3588開(kāi)發(fā)板,DeepSeek開(kāi)發(fā)<b class='flag-5'>利器</b>

    谷歌公司被立案調(diào)查 谷歌股價(jià)暴跌 谷歌母公司Alphabet跌8%

    ,要求其改變市場(chǎng)壟斷現(xiàn)狀。去年8月,谷歌在美國(guó)遭遇重創(chuàng),被聯(lián)邦法官認(rèn)定其搜索業(yè)務(wù)違反了美國(guó)反壟斷法。這判決為谷歌來(lái)了諸多限制性的建議,如美國(guó)司法部建議聯(lián)邦法院要求
    的頭像 發(fā)表于 02-06 16:23 ?1909次閱讀