chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視頻圖像三插值方式的結(jié)果

新機器視覺 ? 來源:簡書 ? 作者:梧桐光影 ? 2021-11-09 15:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在播放視頻時,常遇到視頻尺寸與畫布尺寸不一致的情況。為了讓視頻按比例填充畫布,需要對視頻中的每一幀圖像做縮放處理。

縮放就是在原圖的基礎(chǔ)上做插值計算,從而增加或減少像素點的數(shù)量。常見的插值方式有最近點插值,線性插值,蘭索斯插值。

下面簡要介紹,并對比三種插值方式的結(jié)果。

最近點插值

在一維空間中,最近點插值就相當(dāng)于四舍五入取整。在二維圖像中,像素點的坐標(biāo)都是整數(shù),該方法就是選取離目標(biāo)點最近的點。計算方式如下:

假設(shè)原圖為A[aw,ah],寬度為aw,高度為ah。目標(biāo)圖為B[bw,bh],寬度為bw,高度為bh。已知A[aw,ah]的寬度,高度及其中每個點的顏色值,B[bw,bh]中每個點像素值的計算方式如下:

for(int i=0; i<bh; ++i){
    for(int j=0; j<bw; ++j){
        int posX = floor(j/(float)bw * aw + 0.5f);
        int posY = floor(i/(float)bh * ah + 0.5f);
        B[i,j] = A[posY, posX];
    }
}

線性插值

線性插值是以距離為權(quán)重的一種插值方式。在一維空間中,假設(shè)有點A,B,其距離為LAB。A,B之間任意一點C的值為A*LBC/LAB+B*LAC/LAB。在二維空間中,需要在兩個方向上做插值。

已知Q11,Q21,Q12,Q22,計算P點的值時,需要先由Q11和Q21插值得到R1,由Q12和Q22插值得到R2,再由R1和R2插值得到P。


詳情可參考:

https://zh.wikipedia.org/wiki/%E5%8F%8C%E7%BA%BF%E6%80%A7%E6%8F%92%E5%80%BC

該方法生成的圖像比較平滑

蘭索斯插值(lanczos)

一維的線性插值,是在目標(biāo)點的左邊和右邊各取一個點做插值,這兩個點的權(quán)重是由線性函數(shù)計算得到。而一維的蘭索斯插值是在目標(biāo)點的左邊和右邊各取四個點做插值,這八個點的權(quán)重是由高階函數(shù)計算得到

詳細原理可查閱:

https://en.wikipedia.org/wiki/Lanczos_resampling

二維的蘭索斯插值在x,y方向分別對相鄰的八個點進行插值,也就是計算加權(quán)和,所以它是一個8x8的描述子。

網(wǎng)上目前可找到蘭索斯算法有兩份:GPUImage和OpenCV。其中GPUImage中是用GLSL實現(xiàn),其算法有誤,并不能得到正確的結(jié)果。OpenCV中是用C++實現(xiàn)的CPU端代碼。


我參考OpenCV中的實現(xiàn)方式,實現(xiàn)了一份GPU上的蘭索斯插值算法,該算法在GPU上運行,并不額外消耗CPU資源。其對應(yīng)的GLSL為

uniform int ssize;
uniform int tsize;
uniform int flag;
uniform float scale;
uniform sampler2D inputImageTexture;
void interpolateLanczos4(in float fx, inout float rate[8]) {
    const float s45 = 0.70710678118654752440084436210485;
    const float PI = 3.1415926535897932384626433832795;
    float cs[] = float[16]( ,1.0, 0.0, -s45, -s45, 0.0, 1.0, s45, -s45, -1.0, 0.0, s45, s45, 0.0, -1.0, -s45, s45);
    if( fx < 0.0000000001 ) {
        for( int i = 0; i < 8; i++ ) {
            rate[i] = 0.0;
        }
        rate[3] = 1.0;
        return;
    }
    float sum = 0.0;
    float y0 = -(fx+3.0)*PI*0.25;
    float s0 = sin(y0);
    float c0 = cos(y0);
    for(int i = 0; i < 8; i++ ) {
        float y = -(fx+float(3-i))*PI*0.25;
        int index = i*2;
        rate[i] = (cs[index]*s0 + cs[index+1]*c0) g (y*y);
        sum += rate[i];
    }
    sum = 1.0gsum;
    for(int i = 0; i < 8; i++ ) {
        rate[i] *= sum;
    }
}
void main() {
    vec4 fragmentColor = vec4(0);
    float curPos = float(tsize);
    if( flag == 0 ) {
        curPos = fragTexCoord.x * float(tsize);
    } else {
        curPos = fragTexCoord.y * float(tsize);
    }
    float fx = (curPos + 0.5) * scale - 0.5;
    float sx = floor(fx);
    fx -= sx;
    float rate[8];
    interpolateLanczos4(fx, rate);
    for (int i=0; i<8; ++i) {
        float newCoord = (sx + float(i - 3) ) / float(ssize);
        vec2 texCoord;
        if (flag == 0)
            texCoord = vec2(newCoord, fragTexCoord.y);
        else
            texCoord = vec2(fragTexCoord.x, newCoord);
        fragmentColor += texture2D(inputImageTexture, texCoord) * rate[i];
    }
    gl_FragColor = fragmentColor;
}

																											

上述代碼需要執(zhí)行兩遍:

第一遍的輸入為原圖,縮放寬度方向。ssize為原圖寬度,tsize為目標(biāo)圖寬度。執(zhí)行完畢后,把結(jié)果存到紋理中,作為第二遍的輸入;
第二遍縮放高度方向,ssize為原圖高度,tsize為目標(biāo)圖高度。執(zhí)行完畢后,把結(jié)果顯示到屏幕上。

結(jié)果對比

將上面的對比圖放大后可以發(fā)現(xiàn),線性插值的結(jié)果較最近點插值更平滑,蘭索斯插值的結(jié)果較線性插值更清晰。

性能對比

運行環(huán)境:iphone5s,ios8.3
運行程序:自研播放器demo


以上三種插值算法渲染每幀圖像時,占用CPU時間都是40ms左右。由于這三種算法都是在GPU上實現(xiàn),其對應(yīng)的CPU代碼相同,結(jié)果與預(yù)期相符。


占用GPU時間如下所示:

插值方式 最近點插值 線性插值 蘭索斯插值
每幀圖像平均占用的GPU時間(ms) 6 6 12

蘭索斯插值算法占用GPU的平均時間為12ms,是其它兩種算法的兩倍,由于該算法中shader代碼執(zhí)行了兩遍,結(jié)果也與預(yù)期相符。

由于GPU與CPU是異步執(zhí)行,大部分視頻幀率不超過30,因此GPU上多出的6ms不會造成性能瓶頸。

注:GPUImage中的蘭索斯插值實現(xiàn)有誤,本文是參考OpenCV實現(xiàn)的。

作者:梧桐光影
鏈接:https://www.jianshu.com/p/8ae52a88ca61

責(zé)任編輯:haq


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    1998

    瀏覽量

    74632
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1095

    瀏覽量

    42144

原文標(biāo)題:三種圖像插值方式對比

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DAC5681Z 16 位 1.0 GSPS 型數(shù)模轉(zhuǎn)換器(DAC)產(chǎn)品手冊總結(jié)

    濾波器。每個FIR可配置為以下任一格式 低通或高通模式,允許選擇更高階輸出的光譜圖像。一個芯片 延遲鎖環(huán)(DLL)通過為LVDS輸入
    的頭像 發(fā)表于 11-21 14:03 ?413次閱讀
    DAC5681Z 16 位 1.0 GSPS <b class='flag-5'>插</b><b class='flag-5'>值</b>型數(shù)模轉(zhuǎn)換器(DAC)產(chǎn)品手冊總結(jié)

    神經(jīng)網(wǎng)絡(luò)加速器的雙線性插值上采樣

    沒有灰度不連續(xù)的缺點,結(jié)果基本令人滿意。它具有低通濾波輪廓可能會有一點模糊。 (3)次曲線插方法參數(shù)多,計算量比雙線性插值要多得多,雖然效果好,但速度較慢。 (4)基于深度學(xué)習(xí)的上
    發(fā)表于 10-29 06:36

    使用Otsu閾值算法將灰度圖像

    Otsu 算法是由日本學(xué)者OTSU于1979年提出的一種對圖像進行二化的高效算法,又稱“最大類間方差法”。當(dāng)我們對一個圖象進行二化操作的時候,需要根據(jù)一項灰度閾值來判決每個像素點應(yīng)該被視作純黑
    發(fā)表于 10-28 06:49

    環(huán)直瓷片電容選型需要考慮哪些方面?

    環(huán)直瓷片電容作為電子電路中常用的元件,其選型需綜合考慮電路需求、產(chǎn)品特性、環(huán)境條件及可靠性要求等多方面因素。以下是選型時需重點關(guān)注的維度及具體要點: 一、基礎(chǔ)參數(shù)匹配 1、電容 需求分析:根據(jù)
    的頭像 發(fā)表于 10-14 14:29 ?233次閱讀
    <b class='flag-5'>三</b>環(huán)直<b class='flag-5'>插</b>瓷片電容選型需要考慮哪些方面?

    圖像采集卡與視頻采集卡的主要區(qū)別對比

    圖像采集卡和視頻采集卡的核心區(qū)別在于它們的設(shè)計目標(biāo)、處理對象和典型應(yīng)用場景。盡管名稱相似,且有時功能會有重疊(尤其是高端設(shè)備),但它們側(cè)重點不同:以下是主要區(qū)別:1.處理對象與目標(biāo)圖像采集卡:主要目
    的頭像 發(fā)表于 06-27 14:42 ?641次閱讀
    <b class='flag-5'>圖像</b>采集卡與<b class='flag-5'>視頻</b>采集卡的主要區(qū)別對比

    基于LockAI視覺識別模塊:C++使用圖像的統(tǒng)計信息

    )。 COLOR_BGR2GRAY:將BGR圖像轉(zhuǎn)換為灰度圖像。 返回: 無。最后結(jié)果儲存在grayImage中。注意: 其中根據(jù)不同的轉(zhuǎn)換要求可以使用不同的轉(zhuǎn)換代碼,具體如下所示
    發(fā)表于 05-08 10:31

    基于LockAI視覺識別模塊:C++圖像的基本運算

    src, OutputArray dst); 參數(shù): src:輸入圖像(cv::Mat) dst:輸出圖像(cv::Mat) 返回結(jié)果儲存在dst中 2.7
    發(fā)表于 05-06 16:56

    基于事件相機的統(tǒng)一幀與自適應(yīng)去模糊框架(REFID)

    )的解決方案。團隊提出了一種基于事件相機的統(tǒng)一幀與自適應(yīng)去模糊框架(REFID)。該框架基于雙向遞歸網(wǎng)絡(luò),結(jié)合事件流和圖像信息,自適應(yīng)地融合來自不同時間點的信息,從而能夠在模糊的輸入幀情況下同步實現(xiàn)
    的頭像 發(fā)表于 03-14 11:48 ?1263次閱讀
    基于事件相機的統(tǒng)一幀<b class='flag-5'>插</b><b class='flag-5'>值</b>與自適應(yīng)去模糊框架(REFID)

    如何在USB視頻類(UVC)框架中使用EZ-USB?FX3實現(xiàn)圖像傳感器接口USB視頻類(UVC)

    電子發(fā)燒友網(wǎng)站提供《如何在USB視頻類(UVC)框架中使用EZ-USB?FX3實現(xiàn)圖像傳感器接口USB視頻類(UVC).pdf》資料免費下載
    發(fā)表于 02-28 17:36 ?2次下載

    Discovery4100圖像控制,是通過DMD微鏡的開關(guān)方式還是調(diào)整灰度的方式進行圖像控制的?

    您好,我們購買一套VIALUX公司的V-7001,用的就是discovery 4100的 芯片,據(jù)銷售人員跟我們介紹,控制圖像方式是改變灰度(微鏡的反射率,想了解一下是否可以通過微鏡的開關(guān)去實現(xiàn)
    發(fā)表于 02-26 07:24

    k230如何將yolo分類視頻流推理后的視頻結(jié)果保存到本地?

    請問k230如何將yolo分類視頻流推理后的視頻結(jié)果保存到本地?
    發(fā)表于 02-08 08:09

    EE-276:Blackfin處理器上圖像處理的視頻框架注意事項

    電子發(fā)燒友網(wǎng)站提供《EE-276:Blackfin處理器上圖像處理的視頻框架注意事項.pdf》資料免費下載
    發(fā)表于 01-06 14:17 ?0次下載
    EE-276:Blackfin處理器上<b class='flag-5'>圖像</b>處理的<b class='flag-5'>視頻</b>框架注意事項

    請問DAC39J84內(nèi)部方式0嗎?

    請問DAC39J84內(nèi)部方式0嗎? 請問2x 4x 8x 16x
    發(fā)表于 01-03 06:41

    Teledyne Lecroy示波器算法

    示波器是通過內(nèi)部硬件ADC對模擬信號采樣來獲取離散的數(shù)據(jù)點,然而這些離散的數(shù)據(jù)點有時難以完整呈現(xiàn)出原始模擬信號的全貌。軟件算法的意義就在于,它能夠依據(jù)特定的數(shù)學(xué)算法,在已采集的數(shù)據(jù)點之間插入新的數(shù)據(jù)點,幫助使用者更好地還原和分析模擬信號的波形。最普遍的
    的頭像 發(fā)表于 12-24 16:11 ?1846次閱讀

    基于OpenCV的拆分和合并圖像通道實驗案例分享_基于RK3568教學(xué)實驗箱

    一、實驗?zāi)康?本節(jié)視頻的目的是了解圖像通道的概念,學(xué)習(xí)OpenCV的基本操作,并掌握通過OpenCV實現(xiàn)拆分和合并圖像通道的方法。 二、實驗原理 拆分與合并圖像
    發(fā)表于 12-03 14:27