chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

預(yù)測(cè)圖像如何影響視覺反應(yīng)速度

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-10-10 16:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

想象一下,當(dāng)你沿著一條路行駛時(shí),一個(gè)障礙突然出現(xiàn)在你的路上。你能多快做出反應(yīng)?你的反應(yīng)速度如何隨時(shí)間、障礙物的顏色以及它在你視野中的位置而變化?

對(duì)視覺事件做出快速反應(yīng)的能力對(duì)日常生活很有價(jià)值。它也是快節(jié)奏視頻游戲中的一項(xiàng)基本技能。 NVIDIA 、紐約大學(xué)和普林斯頓大學(xué)的研究人員最近進(jìn)行了合作 – SIGGRAPH 2022 年技術(shù)論文獎(jiǎng)得主 – 探索圖像特征與觀察者反應(yīng)所需時(shí)間之間的關(guān)系。

反應(yīng)速度和視覺事件

隨著顯示技術(shù)的不斷進(jìn)步,人類的反應(yīng)時(shí)間已經(jīng)成為圖形管道中的主要瓶頸。與遠(yuǎn)程服務(wù)器通信、渲染和顯示圖像以及收集和處理鼠標(biāo)或鍵盤輸入的響應(yīng)時(shí)間通常為幾十毫秒或更短。

相比之下,人類感知的管道要慢得多,根據(jù)視覺輸入的復(fù)雜程度,可以在 100 到 500 毫秒之間。這項(xiàng)研究旨在簡化和優(yōu)化圖像,盡可能減少我們的反應(yīng)時(shí)間。

視覺對(duì)比度和空間頻率是影響低水平視覺的眾所周知的特征。此外,人類的視覺在整個(gè)視野中并不均勻。提高反應(yīng)時(shí)間所需的對(duì)比度取決于偏心率、視角(物體相對(duì)于中心視線的位置)和空間頻率(例如,物體是純色還是復(fù)雜圖案)。反應(yīng)時(shí)間是許多神經(jīng)過程的組合,所提出的模型包括所有這些因素。

反應(yīng)時(shí)間測(cè)量基于稱為掃視的自愿快速眼動(dòng)的起始潛伏期。目標(biāo)一出現(xiàn)在屏幕上,“反應(yīng)時(shí)間時(shí)鐘”就開始滴答作響。一旦識(shí)別出目標(biāo),就開始向其掃視。

掃視反應(yīng)模型

為了建立一個(gè)感知準(zhǔn)確的反應(yīng)時(shí)間預(yù)測(cè)模型,研究人員對(duì)人類觀察者進(jìn)行了一系列實(shí)驗(yàn),收集了 11000 多個(gè)不同圖像特征的反應(yīng)時(shí)間。

受人腦感知信息和決策方式的啟發(fā),研究人員設(shè)計(jì)了一個(gè)反應(yīng)時(shí)間預(yù)測(cè)模型,考慮了對(duì)比度、頻率和偏心率,以及人類反應(yīng)速度的內(nèi)在隨機(jī)性。

在這個(gè)模型中,隨著時(shí)間的推移,“決策置信度”的量度會(huì)累積,一旦累積了足夠的置信度,就會(huì)進(jìn)行一次掃視。置信度隨時(shí)間累積的速率不一致。

因此,該模型提供了顯示各種反應(yīng)時(shí)間的可能性,而不是完全確定地預(yù)測(cè)單個(gè)反應(yīng)時(shí)間。置信度累積的平均速率受圖像特征的影響,并導(dǎo)致反應(yīng)時(shí)間的可能性發(fā)生變化。

兩個(gè)驗(yàn)證實(shí)驗(yàn)證實(shí),該模型可以應(yīng)用于可能看到的圖像,包括視頻游戲和自然照片。

使用反應(yīng)時(shí)間預(yù)測(cè)優(yōu)化人的績效

這種掃視反應(yīng)時(shí)間模型的應(yīng)用包括,例如,智能駕駛輔助系統(tǒng),用于估計(jì)駕駛員是否能夠?qū)π腥撕推渌囕v做出安全反應(yīng),并啟用適當(dāng)?shù)妮o助功能。類似地,電子競技游戲設(shè)計(jì)師可以使用該模型來理解游戲視覺設(shè)計(jì)的公平性,避免競爭結(jié)果中的偏見。

野心勃勃的玩家也可以使用這種模型來微調(diào)他們的設(shè)置以獲得最佳性能——例如,為目標(biāo) 3D 對(duì)象選擇最佳皮膚。

在未來的工作中,研究團(tuán)隊(duì)計(jì)劃探索顏色和時(shí)間效應(yīng)等其他圖像特征如何影響人類的反應(yīng)時(shí)間,以及如何訓(xùn)練人類提高他們對(duì)屏幕或現(xiàn)實(shí)世界事件的反應(yīng)速度。

關(guān)于作者

Budmonde Duinkharjav 是 NVIDIA 2022 年夏季實(shí)習(xí)生,也是紐約大學(xué)沉浸式計(jì)算實(shí)驗(yàn)室的博士候選人,由孫琦教授擔(dān)任顧問。在 2021 春季開始學(xué)習(xí)之前,他分別于 2018 年和 2019 年在麻省理工學(xué)院獲得了計(jì)算機(jī)科學(xué)和工程學(xué)士學(xué)位和孟學(xué)位。 Monde 對(duì)探索計(jì)算機(jī)圖形學(xué)、 AR / VR 和電子競技中的人類表現(xiàn)、行為和感知方面的各種主題感興趣。

Rachel Brown 是位于俄勒岡州波特蘭的 NVIDIA 人類感知和表現(xiàn)小組的研究科學(xué)家。她的興趣集中在計(jì)算機(jī)圖形學(xué)應(yīng)用中人類如何感知和響應(yīng)刺激,特別是周邊視覺、色彩和立體視覺領(lǐng)域。她于 2018 年在加州大學(xué)伯克利分校完成了研究生學(xué)業(yè),獲得了視覺科學(xué)博士學(xué)位和計(jì)算機(jī)科學(xué)碩士學(xué)位,并于 2011 年在威廉瑪麗學(xué)院完成了本科學(xué)業(yè),獲得生物學(xué)和心理學(xué)學(xué)士學(xué)位。

Anjul Patney 是位于華盛頓雷德蒙的 NVIDIA 人類表現(xiàn)和體驗(yàn)研究小組的首席研究科學(xué)家。此前,他是 Facebook Reality Labs ( 2019-2021 )的研究科學(xué)家,也是 NVIDIA ( 2013-2019 )實(shí)時(shí)渲染的高級(jí)研究科學(xué)家。他于 2013 年獲得加州大學(xué)戴維斯分校的博士學(xué)位, 2007 年獲得印度理工學(xué)院德里分校的學(xué)士學(xué)位。 Anjul 的研究領(lǐng)域包括實(shí)時(shí)圖形的深度學(xué)習(xí)、時(shí)空?qǐng)D像質(zhì)量的感知度量、虛擬現(xiàn)實(shí)圖形的中心凹渲染以及虛擬現(xiàn)實(shí)環(huán)境中的重定向行走。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5444

    瀏覽量

    108553
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    安森美圖像傳感器在機(jī)器視覺的應(yīng)用

    下面的框圖展示了采用安森美 (onsemi) 推薦產(chǎn)品的機(jī)器視覺方案,該方案集成了多種圖像感知和深度感知技術(shù),運(yùn)用了安森美的全局和卷簾快門傳感器系列產(chǎn)品。電源管理、通信等大多數(shù)功能塊器件均可從安森美的全面方案中獲取。
    的頭像 發(fā)表于 10-13 15:20 ?729次閱讀
    安森美<b class='flag-5'>圖像</b>傳感器在機(jī)器<b class='flag-5'>視覺</b>的應(yīng)用

    圖像采集卡:連接鏡頭與機(jī)器的“視覺神經(jīng)”,釋放工業(yè)智能核心動(dòng)力

    什么是圖像采集卡? 身處機(jī)器視覺、智能制造、醫(yī)療影像等行業(yè)前沿的你,是否常聽到“圖像采集卡”這個(gè)詞?它絕非簡單的配件,而是現(xiàn)代工業(yè)應(yīng)用中的關(guān)鍵“視覺神經(jīng)”。簡單來說,
    的頭像 發(fā)表于 09-28 16:40 ?379次閱讀
    <b class='flag-5'>圖像</b>采集卡:連接鏡頭與機(jī)器的“<b class='flag-5'>視覺</b>神經(jīng)”,釋放工業(yè)智能核心動(dòng)力

    無人機(jī)智能化倉儲(chǔ)管理 選哪個(gè)圖像處理板?

    做到時(shí)效性,反應(yīng)速度也具有滯后性。而全新的無人機(jī)巡檢模式,基于先進(jìn)的圖像傳感器、遠(yuǎn)程控制技術(shù)、AI等,使得無人機(jī)能夠?qū)崿F(xiàn)高效安全的自主巡邏,無需過多的人工介入。一旦無人機(jī)檢測(cè)識(shí)別到
    的頭像 發(fā)表于 08-26 17:51 ?369次閱讀
    無人機(jī)智能化倉儲(chǔ)管理   選哪個(gè)<b class='flag-5'>圖像</b>處理板?

    6口千兆圖像采集卡:突破多路高清視覺系統(tǒng)的傳輸瓶頸

    在現(xiàn)代工業(yè)自動(dòng)化、智能安防監(jiān)控或高速機(jī)器視覺檢測(cè)線上,你是否深陷這樣的困境?多臺(tái)高性能工業(yè)相機(jī)同步拍攝,海量的圖像數(shù)據(jù)源源不斷涌出,而數(shù)據(jù)鏈路卻成為制約效率的木桶短板??D、延遲、丟幀不僅影響實(shí)時(shí)
    的頭像 發(fā)表于 08-22 14:42 ?437次閱讀
    6口千兆<b class='flag-5'>圖像</b>采集卡:突破多路高清<b class='flag-5'>視覺</b>系統(tǒng)的傳輸瓶頸

    從制動(dòng)到加速,車規(guī)電容如何讓電控系統(tǒng)的響應(yīng)快過人類反應(yīng)

    的加持,已經(jīng)能夠?qū)⑦@個(gè)時(shí)間縮短至毫秒級(jí)。這種超越人類反應(yīng)速度的技術(shù)突破,正在重新定義汽車的安全標(biāo)準(zhǔn)和駕駛體驗(yàn)。 車規(guī)電容作為電控系統(tǒng)的"能量樞紐",其性能直接影響著整個(gè)系統(tǒng)的響應(yīng)速度。與普通電容相比,車規(guī)電容需要滿
    的頭像 發(fā)表于 07-31 15:35 ?475次閱讀

    工業(yè)相機(jī)圖像采集卡:機(jī)器視覺的核心樞紐

    工業(yè)相機(jī)圖像采集卡是用于連接工業(yè)相機(jī)與計(jì)算機(jī)的關(guān)鍵硬件設(shè)備,主要負(fù)責(zé)將相機(jī)輸出的圖像信號(hào)轉(zhuǎn)換為計(jì)算機(jī)可處理的數(shù)字信號(hào),并實(shí)現(xiàn)高速、穩(wěn)定的數(shù)據(jù)傳輸。它在工業(yè)自動(dòng)化、機(jī)器視覺、醫(yī)學(xué)影像、科學(xué)研究等領(lǐng)域
    的頭像 發(fā)表于 05-21 12:13 ?396次閱讀
    工業(yè)相機(jī)<b class='flag-5'>圖像</b>采集卡:機(jī)器<b class='flag-5'>視覺</b>的核心樞紐

    基于LockAI視覺識(shí)別模塊:C++使用圖像的統(tǒng)計(jì)信息

    圖像處理中,統(tǒng)計(jì)信息可以幫助我們了解圖像的特性,例如區(qū)域內(nèi)的像素分布、顏色轉(zhuǎn)換以及特定區(qū)域的分析。本文將介紹基于LockAI視覺識(shí)別模塊如何提取興趣區(qū)域(ROI)、轉(zhuǎn)換顏色通道、計(jì)算均值和標(biāo)準(zhǔn)差
    發(fā)表于 05-08 10:31

    基于LockAI視覺識(shí)別模塊:C++使用圖像的統(tǒng)計(jì)信息

    圖像處理中,統(tǒng)計(jì)信息可以幫助我們了解圖像的特性,例如區(qū)域內(nèi)的像素分布、顏色轉(zhuǎn)換以及特定區(qū)域的分析。本文將介紹基于LockAI視覺識(shí)別模塊如何提取興趣區(qū)域(ROI)、轉(zhuǎn)換顏色通道、計(jì)算均值和標(biāo)準(zhǔn)差,以及查找最小值和最大值,并通過
    的頭像 發(fā)表于 05-08 10:09 ?467次閱讀
    基于LockAI<b class='flag-5'>視覺</b>識(shí)別模塊:C++使用<b class='flag-5'>圖像</b>的統(tǒng)計(jì)信息

    基于LockAI視覺識(shí)別模塊:C++圖像的基本運(yùn)算

    圖像處理中,理解圖像的基本操作是掌握計(jì)算機(jī)視覺技術(shù)的關(guān)鍵。本文章將介紹 基于LockAI視覺識(shí)別模塊下OpenCV 中圖像的基本運(yùn)算方法,
    發(fā)表于 05-06 16:56

    基于LockAI視覺識(shí)別模塊:C++圖像的基本運(yùn)算

    圖像處理中,理解圖像的基本操作是掌握計(jì)算機(jī)視覺技術(shù)的關(guān)鍵。本文章將介紹基于LockAI視覺識(shí)別模塊下OpenCV中圖像的基本運(yùn)算方法,包括
    的頭像 發(fā)表于 05-06 16:20 ?447次閱讀
    基于LockAI<b class='flag-5'>視覺</b>識(shí)別模塊:C++<b class='flag-5'>圖像</b>的基本運(yùn)算

    基于LockAI視覺識(shí)別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺識(shí)別模塊進(jìn)行視頻流的讀取,同時(shí)使用Edit模塊進(jìn)行圖像傳輸?;A(chǔ)知識(shí)講解1.1OpenCV簡介OpenCV(OpenSourceComputerVisionLibra
    的頭像 發(fā)表于 04-30 18:23 ?457次閱讀
    基于LockAI<b class='flag-5'>視覺</b>識(shí)別模塊:C++<b class='flag-5'>圖像</b>采集例程

    基于LockAI視覺識(shí)別模塊:C++圖像采集例程

    本文主要演示如何使用LockAI視覺識(shí)別模塊進(jìn)行視頻流的讀取,同時(shí)使用Edit模塊進(jìn)行圖像傳輸。 例程源代碼地址:https://gitee.com/LockzhinerAI
    發(fā)表于 04-30 10:52

    工業(yè)圖像采集卡:機(jī)器視覺的基石與智能制造的引擎

    工業(yè)圖像采集卡,作為機(jī)器視覺系統(tǒng)中的關(guān)鍵組成部分,其重要性不言而喻。它如同機(jī)器的“眼睛”,負(fù)責(zé)捕捉現(xiàn)實(shí)世界的圖像信息,并將其轉(zhuǎn)化為可供計(jì)算機(jī)處理的數(shù)據(jù),為后續(xù)的圖像分析、識(shí)別、測(cè)量和控
    的頭像 發(fā)表于 03-10 13:25 ?539次閱讀
    工業(yè)<b class='flag-5'>圖像</b>采集卡:機(jī)器<b class='flag-5'>視覺</b>的基石與智能制造的引擎

    labview視覺助手 - machine vision - map defects,輸出float圖像,像素值0.89*39496中的0.89是啥意思?

    labview視覺助手 - machine vision - map defects,輸出float圖像,像素值0.89*39496中的0.89是啥意思? 無論是二值化,還是圖像轉(zhuǎn)換,0.89都沒法去掉。
    發(fā)表于 01-04 21:20

    電位對(duì)中和反應(yīng)的影響

    不同的電位,這是由其中的化學(xué)成分及其濃度決定的。當(dāng)酸和堿混合時(shí),它們之間的電位差會(huì)引發(fā)電子的轉(zhuǎn)移,從而促使反應(yīng)進(jìn)行。 二、預(yù)測(cè)反應(yīng)方向和速率 電位差還可以被用來預(yù)測(cè)中和反應(yīng)的方向和速率
    的頭像 發(fā)表于 12-28 14:10 ?937次閱讀