chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI 把在模擬器中強化學習學到的方案遷移到機械手上

mK5P_AItists ? 來源:未知 ? 作者:工程師郭婷 ? 2018-08-03 14:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這些具有一定難度的任務(wù) OpenAI 自己也在研究,他們認為這是深度強化學習發(fā)展到新時代之后可以作為新標桿的算法測試任務(wù),而且也歡迎其它機構(gòu)與學校的研究人員一同研究這些任務(wù),把深度強化學習的表現(xiàn)推上新的臺階。

OpenAI 已經(jīng)就機械手任務(wù)之二的轉(zhuǎn)方塊出了自己答案,展示了一個異常靈活的轉(zhuǎn)方塊的機械手。而且更精彩的是,這個完全在模擬器中強化學習學到的方案還可以不需任何微調(diào)就直接遷移到真實的機械手上。

OpenAI 把這套系統(tǒng)稱作 Dactyl。OpenAI 過去一年中研究強化學習系統(tǒng)的偏好思路再次得到了體現(xiàn):在完全模擬的環(huán)境中訓練,然后把訓練結(jié)果遷移到現(xiàn)實世界的機械結(jié)構(gòu)中。

得益于可以大規(guī)模高速并行訓練的模擬環(huán)境以及 OpenAI 在過去的研究中積累的系統(tǒng)設(shè)計與變量選擇經(jīng)驗,這樣的做法已經(jīng)可以得到很好的效果。強化學習算法方面,OpenAI 再次選擇了之前在 DOTA2 5v5 AI 中使用的 PPO(近端策略優(yōu)化),這當然也再次展示了 PPO 作為通用強化學習算法的優(yōu)越性。當然,系統(tǒng)最大的亮點還是可以完全在虛擬環(huán)境中訓練,不需要對真實世界有準確的物理模型也可以直接遷移到真實機械手、真實物體的控制上。

任務(wù)介紹

任務(wù)中使用的機械手模型是參照 Shadow Dexterous Hand 設(shè)計的。這是一個完全仿照人手設(shè)計的具有 20 個驅(qū)動自由度、4 個半驅(qū)動自由度、共 24 個關(guān)節(jié)的機械手,它的大小也和人手大小相同。任務(wù)的要求是在機械手的掌心放置一個方塊或者六棱柱,然后要求機械手把它翻轉(zhuǎn)到一個指定的角度,比如把某個側(cè)面翻到上方。系統(tǒng)只能觀察到五指指尖的空間坐標以及三個固定角度的彩色攝像機采集到的畫面。

雖然這種機械手面世已經(jīng)有幾十年了,但是如何讓它像人類一樣高效地控制物體一直都是機器人控制領(lǐng)域的老大難問題。與空間定位移動之類的問題不同,非常多自由度的機械手控制用傳統(tǒng)控制方法不僅運行緩慢,而且必須對自由度做出一些限制,這也就隨之限制了它們控制真實世界物體的能力。

想通過深度強化學習的方法讓機械手翻轉(zhuǎn)一個物體,需要考慮這幾個問題:

能在真實世界中工作。強化學習雖然已經(jīng)在很多模擬器環(huán)境以及游戲中展現(xiàn)出了優(yōu)秀的表現(xiàn),但是強化學習解決真實世界任務(wù)的研究仍然非常有限。OpenAI 的最終目標就是要讓 Dactyl 在真實的機器人上完成任務(wù)。

高自由度控制。一般的機械臂(比如末端為夾子的工業(yè)機械臂)只有 7 個自由度,而機械手有多達 24 個自由度,僅僅是不讓 5 個指頭打架都有相當?shù)碾y度。

有噪聲的部分信息觀察。Dactyl 在真實世界中工作的時候不可避免地會遇到傳感器讀數(shù)的噪聲和延遲問題。當某一個手指的傳感器受到其它手指或者物體的影響而無法返回讀數(shù)的時候,Dactyl 只能在部分信息的狀況下工作。而且,真實物理系統(tǒng)許多細節(jié)(比如摩擦和滑動)是無法直接觀察到的,系統(tǒng)必須自己做出推斷。

能操作多個物體。Dactyl 的設(shè)計目標是要足夠靈活,能夠翻轉(zhuǎn)、定向多種不同種類的物體。這就意味著不能選用只對某一些特定的幾何形狀有效的策略。

OpenAI 的解決方法

總的來說,OpenAI 完全在模擬器環(huán)境中、不借助任何人類輸入進行,讓 Dactyl 通過強化學習訓練物體定向任務(wù)。在訓練結(jié)束后,學到的策略不需要任何微調(diào)環(huán)節(jié)就可以直接在真實機器人上工作。

不過其實,學習機器人控制方法面臨著兩難的困境。模擬環(huán)境中的機器人固然可以輕松地獲得大量數(shù)據(jù)、訓練出足夠復雜的策略,但是大多數(shù)控制問題本身的建模都不夠精確,導致學習到的策略難以遷移到真實世界的機器人上。即便只是對「兩個物體接觸」這樣的簡單現(xiàn)象建模,都還是一個開放性的科研問題,沒有什么廣為接受的、足夠好的模型。直接在真實的機器人上進行訓練自然可以根據(jù)真實世界的物理規(guī)律學習到好的策略,不過真實世界中的訓練就只能按照真實世界的速度運行,目前的強化學習算法受限于樣本效率問題,需要相當于好幾年的嘗試經(jīng)驗才能夠解決物體轉(zhuǎn)向這樣的已經(jīng)相對簡單的問題。(財大氣粗的谷歌還真的就這樣做了,具體請見今天推文的第二篇??梢哉f,谷歌利用自己的財力優(yōu)勢替整個領(lǐng)域嘗試了很多僅僅理論上可行的研究方法)

OpenAI 的訓練技巧具體來說是「任務(wù)隨機化」(domain randomization),它并不追求建模的最佳擬真化,而是在充滿了豐富的變化的環(huán)境中學習到各種知識和經(jīng)驗。這樣的做法兼?zhèn)淞四M器和真實環(huán)境學習兩種做法的優(yōu)點:在模擬器環(huán)境中學習,可以讓模擬器運行速度高于真實世界速度,快速積累經(jīng)驗;同時用「多變」替代了「逼真」之后,它也可以在模擬器只能近似建模的任務(wù)中得到更好的表現(xiàn)。

包括 OpenAI 在內(nèi)的許多研究者都已經(jīng)通過實驗展示出了任務(wù)隨機化對于越來越復雜的任務(wù)的明顯的提升作用,近期的最有力的例子就是 OpenAI 訓練出的 DOTA2 5v5 AI。在這個機械手控制的任務(wù)中,OpenAI 也是在探索大規(guī)模運行的任務(wù)隨機化能否帶來超出現(xiàn)有機器人控制方法的表現(xiàn)。

MuJoCo 物理模擬器相比真實的物理系統(tǒng)有這些不足:

在真實機器人和方塊上測量摩擦、阻尼、翻轉(zhuǎn)阻力等物理屬性很麻煩、很困難。而且隨著機械手磨損、這些值也會逐漸發(fā)生變化;模擬器中只有帶有固定參數(shù)的近似模型;

MuJoCo 是一個剛體運動的模擬器,這意味著它無法模擬機械手指尖的橡膠發(fā)生的接觸形變,也無法模擬手指上肌腱的拉伸;

在這個任務(wù)中機械手只能夠靠多次接觸方塊來改變方塊的方向,但接觸力又眾所周知地難以準確在模擬器中復現(xiàn)。

如果仔細地調(diào)節(jié)模擬器中的參數(shù),模擬的機械手的行為確實可以和真實機械手的行為做到比較好的匹配,但是上面的這些作用以目前的模擬器就很難準確建模了,調(diào)節(jié)參數(shù)也無濟于事。

所以 OpenAI 轉(zhuǎn)而使用的方法是使用大規(guī)模分布式的模擬訓練環(huán)境,而且這些環(huán)境中的物理屬性和視覺特征都是隨機選擇的。隨機地選擇這些值是一種很自然的表征各種真實物理系統(tǒng)的不確定性的做法,當然這樣也可以防止系統(tǒng)過擬合到一組特定的環(huán)境設(shè)置中。根據(jù) OpenAI 研究人員們的想法,如果一種策略在所有這些不同的模擬環(huán)境中都可以完成任務(wù),那么它也就很有可能可以直接在真實環(huán)境中完成任務(wù)。

在開發(fā)和測試階段,OpenAI 通過內(nèi)置的運動控制傳感器對學習到的機械手控制策略進行驗證,這也是為了能夠隔絕 Dactyl 自身的控制網(wǎng)絡(luò)與視覺網(wǎng)絡(luò),可以對系統(tǒng)表現(xiàn)做出「客觀」的評價。

系統(tǒng)設(shè)計示意圖 - 模擬環(huán)境中訓練

A. 分布式工作站從大量隨機環(huán)境中收集經(jīng)驗

B. 通過強化學習訓練控制策略。這個策略根據(jù)物體的位姿和五個手指指尖的位置選擇接下來的行動

C. 訓練一個 CNN 根據(jù)三路模擬環(huán)境中的攝像頭畫面估計物體的位姿

系統(tǒng)設(shè)計示意圖 - 遷移到真實世界

D. 位姿估計網(wǎng)絡(luò)和控制策略網(wǎng)絡(luò)共同工作,把任務(wù)從虛擬環(huán)境遷移到真實環(huán)境

學習控制

通過構(gòu)建可以支持遷移的模擬環(huán)境,OpenAI 把真實世界的機器人控制問題簡化為了模擬環(huán)境中完成任務(wù)的問題,現(xiàn)在它就很適合用強化學習解決。當然了,即便是在模擬器中,控制如此多自由度的機械手完成任務(wù)仍然是一個有挑戰(zhàn)性的目標,何況不同的模擬環(huán)境中還有不同的隨機物理屬性,這意味著物體的運動方式都會與真實世界有所不同。

為了能夠在不同的環(huán)境之間泛化,策略最好能夠在不同物理參數(shù)的環(huán)境中做出不同的行為??紤]到大多數(shù)的動態(tài)物理參數(shù)都無法從單次觀察中得出推斷結(jié)果,OpenAI 選用了帶有一定記憶能力的 LSTM 網(wǎng)絡(luò)架構(gòu),實際上在模擬環(huán)境中基于 LSTM 得到的策略做出的旋轉(zhuǎn)動作也要比其它不具有記憶能力的策略多一倍。

Dactyl 使用的大規(guī)模分布式 PPO 實現(xiàn)「Rapid」是和 DOTA2 5v5 AI 一樣的。在這個任務(wù)中,模型架構(gòu)、環(huán)境、超參數(shù)有所區(qū)別,但算法和訓練代碼是一致的。Rapid 訓練策略使用了 6144 個 CPU 和 8 個 GPU,訓練 50 小時就可以采集到相當于真實世界中 100 年長度的經(jīng)驗。

學習觀察

OpenAI 的設(shè)計目標是讓 Dactyl 能夠控制任意的物體,不局限于那些經(jīng)過專門的改動以后更好追蹤的物體。所以 Dactyl 也就選用了一組正常的彩色攝像頭對物體的位置和姿態(tài)進行估計。

OpenAI 訓練了一個 CNN 用來估計位姿。這個網(wǎng)絡(luò)把布置在機械手周圍的三個攝像頭采集的視頻流作為輸入,然后輸出估計的物體位置和物體姿態(tài)。多個攝像頭的使用是為了避免判斷不清以及信號延遲。訓練這個網(wǎng)絡(luò)時 OpenAI 也使用了任務(wù)隨機化的做法,環(huán)境隨之暫時切換為了 Unity 游戲開發(fā)平臺,它對各種視覺效果的支持豐富程度要比 MuJoCo 高得多。

「控制」與「觀察」兩個獨立的網(wǎng)絡(luò)互相配合,控制網(wǎng)絡(luò)可以根據(jù)給定的物體位姿重新調(diào)整它的位姿,視覺網(wǎng)絡(luò)根據(jù)攝像頭采集的畫面確認物體當前的實際位姿。Dactyl 就這樣通過觀察控制了手里的物體。

學習位姿估計的圖像的一些示例

實驗結(jié)果

逐漸產(chǎn)生的行為

在部署系統(tǒng)的時候,OpenAI 的研究人員們注意到 Dactyl 會使用一系列豐富的靈活手掌內(nèi)操縱技巧來解決在這個任務(wù);人類其實也經(jīng)常會使用這些技巧。而及這些技巧并不需要人類顯式地教會算法,它們?nèi)际撬惴ㄗ约喊l(fā)掘、自己學到的。

兩指夾住旋轉(zhuǎn)、滑動、手指同步旋轉(zhuǎn),三種 Dactyl 完全自動學到的與人類類似的運動模式

Dactyl 學到的六種不同的握持姿勢。根據(jù)握持分類學,從左上到右下依次為:指尖捏、掌心捏、三指握持、四指握持、強力握持以及 5 指精確握持。

OpenAI 通過觀察發(fā)現(xiàn),對于幾種高精確度的握持方法,比如兩指指尖捏,Dactyl 傾向于使用大拇指和小拇指;人類比較習慣的自然是用大拇指+食指或者大拇指+中指。不過值得指出的是,機械手的小拇指比人類的多出一個自由度,更為靈活,這可以作為 Dactyl 學會了這樣行為的一個解釋。這也可以理解為,Dactyl 一面可以自己發(fā)現(xiàn)人類常用的手部姿態(tài),同時也可以重新適應(yīng)這些姿態(tài),讓它們更符合自己的肢體的限制和能力。

( AI 科技評論注:多提供一個思考角度,從生物進化的角度來說,手指握持的方式是和手指的結(jié)構(gòu)相互適應(yīng)的。使用一個「類人」的機械手,學習到「類人」的握持姿勢并不奇怪。另一方面,握持姿勢的選擇除了自由度,也與生物結(jié)構(gòu)有關(guān),食指比小拇指更有力、也更靈活,這與人類更常用食指也是相輔相成)

系統(tǒng)表現(xiàn)的遷移

OpenAI 在真實環(huán)境的機械手與攝像頭配置上測試了 Dactyl 在物體脫手、或者時間用完之前能翻轉(zhuǎn)的次數(shù),最高計數(shù) 50 次。在模擬器環(huán)境中訓練出的策略可以直接成功地操控真實世界中的物體。

對于控制方塊的任務(wù),使用了「任務(wù)隨機化」訓練得到的策略能成功完成翻轉(zhuǎn)的次數(shù)要多得多,如下表。并且,通過攝像頭信號估計位姿進行控制得到的結(jié)果和使用運動追蹤傳感器得到的結(jié)果差不多,這也體現(xiàn)出了視覺估計網(wǎng)絡(luò)的高準確率。

OpenAI 把在模擬器中強化學習學到的方案遷移到機械手上

學習過程

訓練過程中的大多數(shù)時間都花在了提升策略在不同物理屬性環(huán)境中的魯棒性上。在不使用隨機化時,在虛擬環(huán)境中學會翻轉(zhuǎn)物體需要的經(jīng)驗大概相當于 3 年那么長,而在全面使用了隨機化的設(shè)置下達到類似的表現(xiàn)需要大概相當于 100 年的經(jīng)驗。(不過我們也別忘了,不使用隨機化時訓練出的策略是無法直接遷移到真實世界的機器人的,因為學到的策略只針對模擬器中那一組特定的物理參數(shù)有效)

實驗中的有趣發(fā)現(xiàn)

對于真實世界物體的控制來說,觸覺感知并不是必須的。Dactyl 接收到的信號只包括 5 個手指指尖的位置以及方塊的位置和方向。機械手上確實帶有觸覺傳感器,但是 OpenAI 并沒有使用它們就可以達到目標??偟貋碚f,相比于有一大批傳感器、一大批難以建模的數(shù)值,OpenAI 認為一組數(shù)目有限但可以在模擬環(huán)境中高效建模的傳感器可以幫助帶來更好的表現(xiàn)。

為某一個物體做的隨機化設(shè)定可以泛化到其它屬性類似的物體上。在控制方塊的系統(tǒng)開發(fā)完成之后,OpenAI 制作了一個六棱柱,根據(jù)它的外型訓練了一個新的策略,然后嘗試讓機械手控制它。有點出乎他們意料的是,只依靠一開始為控制方塊設(shè)計的隨機化設(shè)置,機械手就能很好地控制六棱柱了。相比之下,重新訓練一個控制圓球的策略就不能連續(xù)成功很多次,可能是因為并沒有針對轉(zhuǎn)動行為設(shè)計適合的隨機化模擬參數(shù)。

對于真實機器人來說,好的系統(tǒng)工程和好的算法一樣重要。在研究過程中,OpenAI 團隊發(fā)現(xiàn)幾個工程師都嘗試一樣的策略的時候,其中一位得到的表現(xiàn)總是要比其他幾位的好得多。后來他們發(fā)現(xiàn)是因為這位工程師的筆記本電腦比較快,一個會影響表現(xiàn)的計時器 bug 從而就不會出現(xiàn)。這個 bug 解決之后,整個團隊運行策略的表現(xiàn)都得到了提高。

沒有達到預期效果的項目

除了上面的驚喜之外,OpenAI 也驚訝地發(fā)現(xiàn)一些強化學習連續(xù)控制中的常用技巧并沒能幫助他們提高系統(tǒng)的表現(xiàn)。

減短反應(yīng)時間并沒有提高系統(tǒng)表現(xiàn)。大家普遍認為減短做出動作的時間間隔能夠提高系統(tǒng)表現(xiàn),因為這樣一來前后狀態(tài)之間的變化會比較小,也就更容易預測。目前 OpenAI 設(shè)定的動作時間間隔是 80ms,要比人類一般的反應(yīng)時間 150~250ms 短一些,但是仍然比神經(jīng)網(wǎng)絡(luò)計算所需的大概 25ms 左右的時間長得多。令人驚訝的是,把動作時間間隔縮短到 40ms 需要花費更長的訓練時間,但同時并沒有給真實世界機械手的表現(xiàn)帶來可感的提升。有一種可能是,這種公認有效的做法用在神經(jīng)網(wǎng)絡(luò)模型上的效果確實要比用在目前廣泛使用的線性控制模型的效果差一些。

用真實數(shù)據(jù)訓練視覺策略并沒有帶來什么提升。在早期的實驗中,OpenAI 綜合使用了模擬的以及真實的數(shù)據(jù)用來改進模型。真實數(shù)據(jù)的采集來自一個帶有追蹤標記的物體在測試策略的機械手上的實驗過程。然而,真實數(shù)據(jù)相比模擬的數(shù)據(jù)有著顯著的劣勢。從追蹤標記得到的位置信息帶有延遲和測量誤差,而且更糟糕的是,隨便改變一點參數(shù)就會讓已經(jīng)采集到的真實數(shù)據(jù)變得完全沒用。隨著 OpenAI 持續(xù)改進自己的方法,只使用模擬數(shù)據(jù)訓練的模型的表現(xiàn)也在不停提高,已經(jīng)達到了模擬和真實數(shù)據(jù)混合訓練的模型的錯誤率水平。最終使用的模型也就完全沒有使用真實數(shù)據(jù)。

總結(jié)

對 OpenAI 來說,這個項目是他們過去兩年中追求的完整 AI 研發(fā)循環(huán)的最好體現(xiàn):先開發(fā)新的強化學習算法,再拓展它的運行規(guī)模、在模擬環(huán)境中訓練解決困難的問題,最后再把得到的系統(tǒng)應(yīng)用在真實世界中。以越來越大的規(guī)模沿著這種途徑不停前進也是 OpenAI 為自己規(guī)劃的通往安全的通用人工智能的主要路徑。

OpenAI 已經(jīng)展示了聯(lián)通強化學習理論研究與現(xiàn)實世界問題探索的一座橋梁,我們也期待看到這個領(lǐng)域內(nèi)更多的理論和現(xiàn)實世界問題聯(lián)動的案例。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    54793

    瀏覽量

    789139
  • 控制網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    28

    瀏覽量

    10696

原文標題:有史以來最精彩的自問自答:OpenAI 轉(zhuǎn)方塊的機械手

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    多智能體強化學習(MARL)核心概念與算法概覽

    (Multi-AgentReinforcementLearning,MARL),但是這樣會很快變得混亂。什么是多智能體強化學習MARL是多個決策者(智能體)同一環(huán)境交互的強化學習
    的頭像 發(fā)表于 01-21 16:21 ?68次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    gps信號發(fā)射 衛(wèi)星導航模擬器 gnss衛(wèi)星模擬器

    模擬器
    jf_47371611
    發(fā)布于 :2025年11月10日 17:53:23

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學習技術(shù),已在與龍旗科技合作的驗證產(chǎn)線成功落地。據(jù)介紹,此次落地的真機強化學習
    發(fā)表于 11-05 09:44 ?1002次閱讀

    自動駕駛中常提的“強化學習”是個啥?

    下,就是一個智能體環(huán)境里行動,它能觀察到環(huán)境的一些信息,并做出一個動作,然后環(huán)境會給出一個反饋(獎勵或懲罰),智能體的目標是長期得到的獎勵累積到最大。和監(jiān)督學習不同,強化學習沒有一
    的頭像 發(fā)表于 10-23 09:00 ?534次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是個啥?

    太陽光模擬器航天熱試驗的應(yīng)用

    航天的研發(fā)制造,熱平衡試驗是驗證熱設(shè)計合理性、保障軌穩(wěn)定的核心環(huán)節(jié)。隨著航天向復雜構(gòu)型、深空探測發(fā)展,傳統(tǒng)熱流
    的頭像 發(fā)表于 10-22 18:04 ?334次閱讀
    太陽光<b class='flag-5'>模擬器</b><b class='flag-5'>在</b>航天<b class='flag-5'>器</b>熱試驗<b class='flag-5'>中</b>的應(yīng)用

    柔性機械手視覺供料解決方案,提升無序分揀效率!

    正運動柔性機械手供料解決方案
    的頭像 發(fā)表于 10-09 14:58 ?438次閱讀
    柔性<b class='flag-5'>機械手</b>視覺供料解決<b class='flag-5'>方案</b>,提升無序分揀效率!

    氙燈太陽模擬器與LED太陽模擬器的對比研究

    本文主要比較了基于氙燈和基于LED的太陽能模擬器光譜匹配、時間穩(wěn)定性和光照均勻性等方面的性能。通過測量多種太陽能電池的電流-電壓(I-V)響應(yīng)和光譜響應(yīng)(SR),評估了兩種模擬器
    的頭像 發(fā)表于 07-24 11:31 ?728次閱讀
    氙燈太陽<b class='flag-5'>模擬器</b>與LED太陽<b class='flag-5'>模擬器</b>的對比研究

    太陽光模擬器丨輻射照度的解析

    材料化學、航空航天、智能汽車等前沿領(lǐng)域的科研與實踐進程,太陽光模擬器已然成為不可或缺的關(guān)鍵設(shè)備。而輻射照度作為衡量太陽光模擬器性能的核心
    的頭像 發(fā)表于 07-24 11:29 ?676次閱讀
    太陽光<b class='flag-5'>模擬器</b>丨輻射照度的解析

    LED-鹵素混合光源太陽能模擬器的應(yīng)用與性能評估

    光熱材料界面太陽能蒸汽生成、海水淡化等領(lǐng)域的應(yīng)用需長期穩(wěn)定性測試,這對太陽能模擬器的光譜匹配、空間均勻性和時間穩(wěn)定性提出嚴苛要求。傳統(tǒng)光源難以兼顧長壽命、低成本與高精度模擬。本文聚焦LED-鹵素
    的頭像 發(fā)表于 07-24 11:28 ?504次閱讀
    LED-鹵素混合光源<b class='flag-5'>在</b>太陽能<b class='flag-5'>模擬器</b><b class='flag-5'>中</b>的應(yīng)用與性能評估

    太陽光模擬器的光源校準分析

    Luminbox光源校準領(lǐng)域的實踐經(jīng)驗,為提升光電器件測試精度提供標準化解決方案。太陽光模擬器的光源校準技術(shù)luminbox太陽光模擬器光源校準的具體內(nèi)容要求1.太
    的頭像 發(fā)表于 07-24 11:28 ?709次閱讀
    太陽光<b class='flag-5'>模擬器</b>的光源校準分析

    太陽光模擬器的常見類型及分類

    ,為材料化學、航空航天等眾多領(lǐng)域提供了全場景太陽光環(huán)境模擬解決方案。下文將詳細介紹太陽光模擬器的常見類型及分類依據(jù)。三種大氣質(zhì)量(
    的頭像 發(fā)表于 07-24 11:27 ?478次閱讀
    太陽光<b class='flag-5'>模擬器</b>的常見類型及分類

    NVIDIA Isaac Lab可用環(huán)境與強化學習腳本使用指南

    NVIDIA Isaac Sim 是一款基于 NVIDIA Omniverse 構(gòu)建的參考應(yīng)用,使開發(fā)者能夠基于物理的虛擬環(huán)境模擬和測試 AI 驅(qū)動的機器人開發(fā)解決方案。NVIDI
    的頭像 發(fā)表于 07-14 15:29 ?2155次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學習</b>腳本使用指南

    DevEcoStudio 中使用模擬器時如何過濾日志

    設(shè)置 Log message: A03d00/JSAPP 當你看到不斷更新的日志時,你會不會崩潰 因為 No-filters 模式下模擬器會輸出系統(tǒng)所有日志信息,這個模式開發(fā)并不使用,可用
    發(fā)表于 05-23 10:46

    如何將項目從IAR遷移到Embedded Studio

    本文描述如何將IAR EWARM項目遷移到SEGGER Embedded Studio(簡稱SES)。
    的頭像 發(fā)表于 02-25 17:11 ?1214次閱讀
    如何將項目從IAR<b class='flag-5'>遷移到</b>Embedded Studio