《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技术 > 业界动态 > H.264中多参考帧预测技术的优化

H.264中多参考帧预测技术的优化

2008-09-01
作者:董海燕, 张其善

  摘 要: 提出了一個(gè)低復(fù)雜度的快速多參考幀選擇算法。模擬結(jié)果表明本算法在保持率失真性能的前提下可以大大減少多參考幀預(yù)測(cè)的計(jì)算復(fù)雜度。
  關(guān)鍵詞: H.264 運(yùn)動(dòng)估計(jì)" title="運(yùn)動(dòng)估計(jì)">運(yùn)動(dòng)估計(jì) 多參考幀預(yù)測(cè) 運(yùn)動(dòng)搜索


  運(yùn)動(dòng)估計(jì)是去除視頻序列" title="視頻序列">視頻序列相鄰幀之間冗余信息的有效方法,對(duì)整個(gè)視頻編碼效果有重要的影響。由兩大國(guó)際標(biāo)準(zhǔn)化組織(ISO/IEC的MPEG和ITU-T的VCEG)共同制定的最新的國(guó)際視頻編碼標(biāo)準(zhǔn)H.264/AVC仍然采用成熟的基于塊的混合編碼框架[1],但由于引入了很多新的編碼技術(shù),如多參考幀預(yù)測(cè)運(yùn)動(dòng)估計(jì),從而可以提供更高的編碼效率" title="編碼效率">編碼效率[2]。
  以前的視頻編碼標(biāo)準(zhǔn)如MPEG-4和H.263等都只支持一個(gè)參考幀預(yù)測(cè)。H.264不同于以前的標(biāo)準(zhǔn),采用了多參考幀預(yù)測(cè)技術(shù),使得運(yùn)動(dòng)搜索范圍從原來(lái)的一個(gè)參考幀擴(kuò)展為多個(gè)解碼后的參考幀,這樣通常能找到更精確的匹配,從而有助于獲得更高的編碼效率。但是多參考幀預(yù)測(cè)技術(shù)同時(shí)也存在一些缺點(diǎn),對(duì)存儲(chǔ)空間和計(jì)算能力要求更高[3]。
  H.264中引入的拉格朗日率失真最優(yōu)策略采用窮盡搜索在所有候選參考幀中選擇率失真成本最低的參考幀。拉格朗日率失真最優(yōu)模式選擇問題可表述為[4~5]:
  
  其中m=(mx,my)T表示某個(gè)運(yùn)動(dòng)矢量,REF表示某個(gè)參考幀,Jmotion(s,c,m,REF∣λmotion)表示在運(yùn)動(dòng)矢量m和參考幀REF下的率失真成本,s為原始的視頻信號(hào),c(m,REF)為在運(yùn)動(dòng)矢量m和參考幀REF下的重構(gòu)視頻信號(hào),λmotion為拉格朗日乘子,R(m-P)表示編碼運(yùn)動(dòng)矢量m的比特?cái)?shù),R(REF)表示編碼參考幀REF的比特?cái)?shù),SAD(s,c(m,REF))(Sum Absolute Difference) 為原始信號(hào)和重構(gòu)信號(hào)之間的絕對(duì)差和,采用(2)式計(jì)算:
  
  其中B1,B2表示塊的水平和垂直像素?cái)?shù),可以取值16, 8或4。
  設(shè)m表示運(yùn)動(dòng)矢量搜索范圍,若只允許一個(gè)參考幀進(jìn)行預(yù)測(cè),那么每個(gè)宏塊" title="宏塊">宏塊需要搜索(2×m+1)2個(gè)候選點(diǎn);若允許N個(gè)參考幀進(jìn)行預(yù)測(cè),那么每個(gè)宏塊總共有N×(2×m+1)2個(gè)候選搜索點(diǎn)。這意味著,運(yùn)動(dòng)搜索的計(jì)算量、編碼時(shí)間隨著預(yù)測(cè)中總參考幀數(shù)成倍增長(zhǎng)[6]。允許的參考幀數(shù)越多,運(yùn)動(dòng)搜索的計(jì)算量、編碼時(shí)間就越大。
  為了減少上述多參考幀預(yù)測(cè)技術(shù)中存在的問題,本文利用相鄰幀間很高的相關(guān)性提出了一種低復(fù)雜度的快速多參考幀選擇算法。
1 快速多參考幀預(yù)測(cè)算法
  在H.264運(yùn)動(dòng)估計(jì)中,多參考幀運(yùn)動(dòng)搜索過程在7種不同的塊大小和形狀條件下進(jìn)行,按照從16×16到4×4的順序依次進(jìn)行。對(duì)于每一個(gè)塊編碼大小,需要在所有可能的參考幀中找出率失真成本最低的參考幀和其相應(yīng)的運(yùn)動(dòng)矢量。多參考幀運(yùn)動(dòng)搜索過程首先從概率較高的參考幀REF(0)開始,一直進(jìn)行到距離當(dāng)前編碼幀最遠(yuǎn)的參考幀REF(N-1)。
  由于視頻序列相鄰幀間存在很強(qiáng)的時(shí)域相關(guān)性,一般情況下,最優(yōu)的匹配通常位于與當(dāng)前編碼幀緊密相鄰的參考幀,本文采用REF(0)表示這一參考幀;其余的參考幀(在本文中表示為REF(i), i=1,2,...,N-1,設(shè)允許的最大參考幀數(shù)為N)被選中的概率遠(yuǎn)遠(yuǎn)小于第一個(gè)參考幀REF(0)。
  為了進(jìn)一步了解不同參考幀在實(shí)際視頻序列中被采納的情況,本文選擇了幾個(gè)典型的視頻測(cè)試序列,并利用拉格朗日率失真最優(yōu)搜索策略,在不同參考幀數(shù)條件下統(tǒng)計(jì)不同參考幀的被選中概率,實(shí)驗(yàn)數(shù)據(jù)如表1所示。從表1可以看出,在所有參考幀中,REF(0)成為最優(yōu)參考幀的概率最高,概率高達(dá)88.67%,而其余所有參考幀被選中的概率遠(yuǎn)遠(yuǎn)小于REF(0)。
  從上述分析可知,參考幀REF(0)成為最終預(yù)測(cè)幀的概率最高,在這一參考幀中獲得的運(yùn)動(dòng)搜索結(jié)果對(duì)整個(gè)編碼性能" title="編碼性能">編碼性能有著重要的影響。因此,可以認(rèn)為在REF(0)中的搜索范圍越大,對(duì)整個(gè)編碼性能的改善也會(huì)越大。相比較,由于其余的參考幀被選中的概率很低,而且每增加一個(gè)參考幀就會(huì)增加很大一部分計(jì)算量,所以在一定條件下合理地減少在這些參考幀中運(yùn)動(dòng)搜索的計(jì)算量,對(duì)整個(gè)編碼性能不會(huì)產(chǎn)生顯著影響。由于相鄰幀間存在很強(qiáng)的時(shí)域相關(guān)性,前一個(gè)參考幀中運(yùn)動(dòng)搜索后得到的運(yùn)動(dòng)信息可以用來(lái)預(yù)測(cè)下一個(gè)參考幀的搜索中心。根據(jù)運(yùn)動(dòng)矢量的中心偏置定理,最優(yōu)的運(yùn)動(dòng)矢量通常位于搜索中心周圍的小范圍里,利用螺旋搜索順序,只需搜索這一小部分區(qū)域。


  減少多參考幀預(yù)測(cè)計(jì)算量的思路如圖1所示。在最重要的參考幀REF(0)中,搜索范圍較大以保證取得較高的預(yù)測(cè)精度;而在其余不很重要的參考幀中,可以選擇較小的搜索范圍,同時(shí)利用前一幀已得到的運(yùn)動(dòng)信息預(yù)測(cè)下一幀的搜索中心。這樣既能減少計(jì)算量,同時(shí)又不會(huì)顯著影響整個(gè)編碼性能。


  本文提出了一種減少多參考幀預(yù)測(cè)計(jì)算量的快速算法。本算法不僅利用了運(yùn)動(dòng)矢量的空域相關(guān)性來(lái)預(yù)測(cè)第一個(gè)參考幀REF(0)的搜索中心,即利用當(dāng)前宏塊周圍的三個(gè)空域相鄰塊的中值運(yùn)動(dòng)矢量來(lái)預(yù)測(cè)REF(0)的搜索中心;而且利用了運(yùn)動(dòng)矢量的時(shí)域相關(guān)性,即利用前一幀REF(i-1)所得到的運(yùn)動(dòng)信息對(duì)下一個(gè)參考幀REF(i)的搜索中心進(jìn)行修正。由于相鄰幀間存在很高的時(shí)域相關(guān)性,下一幀的最優(yōu)運(yùn)動(dòng)矢量很可能就位于修正后的搜索中心附近,只需對(duì)搜索中心周圍的很少一部分候選點(diǎn)進(jìn)行匹配運(yùn)算。這樣就省略了很大一部分運(yùn)算量。
2 模擬結(jié)果和分析
  為了測(cè)試本文算法的性能,本文采用H.264參考軟件JM7.0作為實(shí)驗(yàn)平臺(tái)。實(shí)驗(yàn)參數(shù)設(shè)置如下:6個(gè)典型的視頻測(cè)試序列(Silent、Mobile、Foreman、Template、Bus 和Suzi)、CIF(352×288) 或QCIF(176×144) 圖像格式,每個(gè)序列150 幀, 幀率為30f/s,運(yùn)動(dòng)矢量搜索范圍為16,量化參數(shù)為32, 采用Hadamard transform,GOP結(jié)構(gòu)為IPPP。


  表2列出了本文提出的算法與原始的采用窮盡搜索的拉格朗日率失真最優(yōu)模式選擇方法的比較結(jié)果。在表2中,△PSNR表示平均峰值信噪比(PSNR)下降值,單位為dB,△bits表示平均碼率增長(zhǎng)百分?jǐn)?shù),△time表示運(yùn)動(dòng)估計(jì)編碼時(shí)間的減少百分?jǐn)?shù)?!鱰ime和△bits分別采用式(3)和式(4)得到:
  
  其中Toriginal和Boriginal分別表示采用原始方法時(shí)所用的運(yùn)動(dòng)估計(jì)編碼時(shí)間和總比特?cái)?shù);Tproposed和Bproposed分別表示采用本文提出的方法時(shí)所用的運(yùn)動(dòng)估計(jì)編碼時(shí)間和總比特?cái)?shù)。
  從表2中的實(shí)驗(yàn)數(shù)據(jù)可以看出,與原始的采用窮盡搜索的拉格朗日率失真最優(yōu)模式選擇方法相比,本文提出的算法可以使運(yùn)動(dòng)估計(jì)編碼時(shí)間平均減少15.18%,同時(shí)平均PSNR僅僅下降0.077dB,碼率增長(zhǎng)僅僅1.56%(5個(gè)參考幀情況下)。此外,對(duì)比不同參考幀數(shù)的實(shí)驗(yàn)結(jié)果,很容易發(fā)現(xiàn)允許的參考幀數(shù)越多,節(jié)省的編碼時(shí)間就越多。
  模擬結(jié)果表明本文提出的算法可以節(jié)省H.264多參考幀運(yùn)動(dòng)預(yù)測(cè)的計(jì)算復(fù)雜度,同時(shí)對(duì)率失真性能的影響很小。這對(duì)H.264編碼的實(shí)時(shí)實(shí)現(xiàn)很有利。
參考文獻(xiàn)
1 Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG:Draft ITU-T Recommendation and Final Draft International Standard of Joint Video Specification.Doc.JVT-G050. 2003
2 Iain Richardson.H.264 and MPEG-4 video compression, video coding for next-generation multimedia.Wiley, UK.2003
3 Yu Wen Huang, Bing-Yu Hsieh, Tu-Chih Wang, etc.Analysis and reduction of reference frames for motion estima-tion MPEG-4 AVC/JVT/H.264. Proceedings International Conference on Multimedia and Expo, ICME, 2003;2(3):145~148
4 H.Chung, D.Romacho, A.Ortega.Fast long-term motion esti- mation for H.264 using multiresolution search. Proceedings. 2003 International Conference on Image Processing, 2003;1:905~908
5 X.Li, E.Q.Li, Y.K.Chen.Fast multi-frame motion estimation algorithm with adaptive search strategies in H.264. ICASSP, Proceedings. (ICASSP ′04). IEEE International Conference on Acoustics, Speech, and Signal Processing, 2004;3:369~372
6 M.J.Chen, Y.Y.Chiang, H.J.Li, M.C.Chi.Efficient multi-frame motion estimation algorithms for MPEG-4 AVC/JVT/H.264.Proceedings of the 2004 International Symposium on Circuits and Systems, ISCAS ′04.,2004;3:737~740

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。

相關(guān)內(nèi)容