專利名稱::基于Wyner-Ziv理論的兩描述視頻編碼方法
技術領域:
:本發(fā)明涉及一種視頻編碼方法,尤其是涉及一種基于Wyner-Ziv理論的兩描述視頻編碼方法。
背景技術:
:多描述視頻編碼(MultipleDescriptionVideoCoding)是應碼流魯棒傳輸而產(chǎn)生的一種新的編碼思想,它將一個視頻信源分為多個碼流(即多個描述),不同的描述被發(fā)送到不同的信道,當有信道丟失時,丟失的描述可用接收到的描述來估計得到,從而取得可以接受的恢復質量。當沒有信道丟失時,用所有接收到的描述來恢復得到較高質量的視頻。兩描述編碼是一種最基本的多描述編碼方式,僅考慮將信源分為兩個描述發(fā)送到兩個信道的情況,基本原理如圖l(a),l(b)所示。兩邊信道的解碼器1和解碼器2被稱為邊解碼器(sidedecoder),中間信道的解碼器O被稱為中心解碼器(centraldecoder)。若只有一個信道工作,利用邊解碼器進行解碼,重建信號的失真值大于最小限度失真值;若兩個信道的信號都收到,則用中心解碼器來恢復以獲得更高質量的重建值。一般而言,多描述或兩描述視頻編碼的實現(xiàn)有兩種方式基于運動補償循環(huán)和基于前后處理的方法?;谶\動補償循環(huán)的方法,首先在編碼端進行運動估計和運動補償,然后將運動矢量和預測誤差通過多個信道發(fā)送到解碼端。由于該方法不易與現(xiàn)有視頻標準兼容,從而限制了其實際應用。而基于前后處理的多描述視頻編碼方法,首先將原始視頻序列進行預處理,引入冗余,然后將預處理后的序列分割成多個視頻子序列,對各個子序列獨立進行編解碼。解碼端用收到的子序列來估計丟失的子序列,后處理階段將所有子序列進行融合以生成最后的重建視頻。該方法易于兼容現(xiàn)有視頻編碼標準,實現(xiàn)容易。時域插幀和空域填補零是基于前后處理多描述視頻編碼的兩種常用方法。前者根據(jù)視頻的運動情況,自適應地加入冗余幀,然后將視頻抽取為多個描述,每個描述分別用標準編碼器進行壓縮后傳送到解碼端;解碼端在后處理階段又去掉冗余幀。而后者對輸入視頻序列的每一幀分別進行DCT(DiscreteConsineTransform)變換,并向DCT系數(shù)中添加零系數(shù)引入冗余,然后進行逆DCT變換產(chǎn)生過采樣幀,接著將過采樣幀按空域亞采樣分解為多個描述,例如奇行奇列和偶行偶列像素組成一個描述,其余像素組成另一個描述。兩個描述分別由帶運動估計的標準編碼器編碼。若兩個描述同時收到,可按上述過程的逆過程恢復視頻信號,如果只收到一個描述,則丟失像素由其相鄰像素進行內插重構得到。上述傳統(tǒng)的多描述視頻編碼方法中,都在不同階段利用了復雜度較高的運動估計,因此方案的一個最大缺陷是編碼的復雜度高,而它們的解碼端,由于沒有運動估計,相對來說比較簡單,因此這種多描述編碼方法適合于一次編碼多次解碼的廣播式視頻傳輸。隨著網(wǎng)絡通信的發(fā)展和3G通信的興起,一些新興的低能耗視頻設備大量涌現(xiàn),如3G手機、無線傳感器網(wǎng)絡、網(wǎng)絡視頻監(jiān)控等等,這些設備都有視頻的攝取能力,但是由于其自身的能量和內存有限,它們要求低復雜度的編碼方法,而他們的解碼端,一般連接到網(wǎng)絡的基站,基站具有較高的運算能力,可以適應一些高復雜度的解碼算法。這和上述傳統(tǒng)方法的適應場合恰恰相反。因此,采用現(xiàn)有的方法來生成多描述視頻碼流是不能滿足低能耗設備的視頻傳輸要求的。上世紀70年代信息論中出現(xiàn)的Wyner-Ziv理論是針對多個相關信源編碼的理論,近幾年,Wyenr-Ziv理論隨著通信中低復雜度編碼要求而得到很高的關注。對兩個相關信源Z和JS如果在編碼端不利用信源的相關性而僅僅在解碼端利用信源的相關性進行解碼,則Wyner-Ziv編碼的碼率范圍可以表示為(1)Wyner-Ziv理論表明,對相關信源義和r,如果在編碼端不利用信源的相關性而僅僅在解碼端利用信源的相關性進行解碼,則總碼率也可以得到和編、解碼端都利用相關性基本類似的性能。Wyner-Ziv理論提出了一種簡化編碼端的新思路,可以將一些計算量巨大的去相關方法從編碼端移動到解碼端進行,從而可以實現(xiàn)低復雜度編碼。一個典型的Wyner-Ziv編碼器如圖2所示,對相關信源x和。假設信源r已用傳統(tǒng)方法進行壓縮并在解碼端恢復了,僅考慮義的壓縮問題。編碼端對義進行獨立編碼而不考慮r的相關性,解碼端利用y的相關性進行解碼以恢復義,即H又僅作為義解碼的邊信息。具體實現(xiàn)中,編碼器由量化器和信道編碼組成,量化器首先將信源X量化為二進制序列g,然后二進制序列進行系統(tǒng)信道編碼生成伴隨式位和信息位,拋棄信息位,只傳輸部分的伴隨式到解碼端。解碼端利用接收到得伴隨位和邊信息Y進行信道糾錯解碼以恢復量化序列《',最后再利用邊信息r,將《'恢復為原始值r。由于x和y之間較強的相關性,編碼端僅傳輸較少的的伴隨式,解碼端也可以利用伴隨式和邊信息來恢復信源乂,正是因為傳送的伴隨式少于g的比特數(shù),Wyner-Ziv編碼可取得壓縮。將Wyner-Ziv理論應用于視頻編碼,將相鄰幀看做相關信源,設當前要進行編碼的幀是Wyner-Ziv幀,對Wyner-Ziv幀首先進行變換編碼以進一步去除幀內空間相關性,邊信息y通過已解碼的幀用運動估計和運動補償產(chǎn)生。如圖3所示,Wyner-Ziv視頻編碼器由于將復雜度高的運動估計移到解碼端,因而實現(xiàn)了低復雜度編碼。與成熟的視頻壓縮技術相比(如MPEG系列,H.26*系列等),Wyner-Ziv編碼的復雜度僅僅與其幀內編碼相當,遠遠小于其幀間編碼復雜度。正因為低復雜度編碼特性,Wyner-Ziv視頻編碼特別適合于現(xiàn)在新興的低能耗網(wǎng)絡終端的視頻傳輸要求。雖然Wyner-Ziv的解碼端由于采用迭代的信道糾錯解碼算法,造成較高的復雜度,但是對低能耗設備的網(wǎng)絡視頻通信來說,我們可以將復雜的解碼算法轉移到基站中進行。
發(fā)明內容本發(fā)明的目的在于改進現(xiàn)有技術中的不足而提供一種基于Wyner-Ziv理論的兩描述視頻編碼方法。充分利用Wyner-Ziv編碼在解碼端利用信源相關性的特性,將運動估計從編碼端轉移到解碼端進行,從而實現(xiàn)低復雜度編碼,并用Wyner-Ziv碼流來恢復丟失的子序列,取得較好的傳輸魯棒性。本發(fā)明的目的通過以下技術方案來達到一種基于Wyner-Ziv理論的兩描述視頻編碼方法,包括低復雜度編碼和高復雜度解碼,所述的低復雜度編碼步驟如下步驟l:幀分離,奇偶幀分離產(chǎn)生兩個子序列W和K;步驟2:對R和K分別用零運動H.264編碼以產(chǎn)生兩個描述的part1;步驟3:解碼兩個子序列的part1碼流得到^和PF'2,并根據(jù)公式<formula>formulaseeoriginaldocumentpage7</formula>產(chǎn)生兩個子序列每幀的參考幀L,和^2,其中,i和『i,,是描述1中當前幀的前、后解碼幀;步驟4:做減法產(chǎn)生殘差,對描述l,A=『2jre2,對描述2,D2=『,—步驟5:根據(jù)優(yōu)化的組合量化,對殘差A和A分別進行SW-SPIHT編碼產(chǎn)生兩個Wyner-Ziv碼流,形成對應描述的part2;步驟6:將相同描述的part1和part2碼流送入相同的信道進行傳輸;所述的高復雜度解碼步驟如下步驟1:判斷有無描述丟失;步驟2:假設描述2丟失,只收到描述l,進行下列的解碼;1):先進行零運動H.264解碼得到part1,『、;2):分別根據(jù)公式^A<formula>formulaseeoriginaldocumentpage7</formula>^2,;(A力=0.25x『w一(x+0.5x,>>+0.5x辦,)+0.25x(x—0.5x,y-0.5x辦f)+0.25x『L卜t(x—0.5x血6,_y-0.5x命6)+0.25x(x+0.5x血6,_y+0.5x辦6)產(chǎn)生參考幀^2和邊信息72,其中,『'1,,_1和^,,是描述1中當前幀的前、后解碼幀,o,力是內插幀的坐標,J和[a,^]分別是前、后向運動矢量,可通過和『,,用半像素運動估計等到;3):計算差值=6-^2,并用差值作為邊信息進行SW-SPIHT解碼,得到恢復的差值o'"4):作加法得到恢復的part2,即『'2^'1+^2;5):合并^和『'、,得到恢復的原始視頻序列rv,步驟3:假設描述l丟失,只收到描述2,進行下列的解碼;1):先進行零運動H.264解碼得到part1,tr2;『,2):分別根據(jù)公式『一="2""禾口(;c,力=0.25x『2>O+0.5x,j+0.5x勿)十0.25xPT2,,.+1(x—0.5x血,,y-0.5x辦,)+0.25x『2,,.(x-0.5x血&,j;一0.5x)+0.25x『2,,.+1(x+0.5x,少+0.5x^)產(chǎn)生參考幀l和邊信息y,,并得到差值~2=y,;3):用差值Z^作為邊信息進行SW-SPIHT解碼,得到恢復的差值D'2;4):作加法得到恢復的part2,即『1=/72《|;5):合并『、和『、,得到恢復的原始視頻序列「2;步驟4:當沒有描述丟失時,進行下列的解碼;1):用零運動H.264解碼得到兩個描述的part1,『',和『2,2):合并^和『、以恢復視頻r。。本發(fā)明的優(yōu)點在于具有編碼復雜度低和魯棒性能好的視頻編碼框架,實驗表明,在有描述丟失時,該方法有更好的壓縮性能,同時保持了低復雜度編碼,因而可以滿足低能耗視頻設備的網(wǎng)絡傳輸需求。圖1(a),圖1(b)為兩描述編碼原理圖;圖2為一個典型的Wyner-Ziv編碼原理框圖;圖3為Wyner-Ziv視頻編碼原理框圖;圖4為基于Wyner-Ziv理論的兩描述視頻編碼原理框架;圖5為殘差Wyner-Ziv編碼原理框圖;圖6.SW-SPIHT編碼原理圖;圖7(a),圖7(b)為率失真性能比較圖;圖8(a),圖8(b)為Ql點的幀PSNR比較圖。具體實施例方式如圖4所示,本發(fā)明基于Wyner-Ziv的兩描述視頻編碼方法包含了低復雜度編碼和高復雜度解碼兩部分。在低復雜度編碼端,視頻序列首先被分成兩個子序列,每個子序列首先用零運動H.264(圖中標示為H.2640-mv)編碼形成描述的第一部分part1,然后用優(yōu)化的殘差Wyner-Ziv編碼來產(chǎn)生描述的第二部分part2。l.低復雜度編碼(1)幀分離一個視頻序列首先被分成兩個子序列,為了實現(xiàn)低復雜度編碼,方案采用簡單的奇偶幀分離法,奇數(shù)幀組成描述l,偶數(shù)幀形成描述2。(2)H.264O-mv編碼使用H.264O-mv編碼是為了滿足part1的低復雜度編碼要求,H.264O-mv意味著用前一時刻幀作參考幀進行零運動矢量搜索編碼,因此它類似于一個差分脈沖編碼調制(DPCM)。由于DPCM利用了相鄰幀的時域相關性,因此H.2640-mv編碼的率失真性能高于幀內編碼的性能,另外,由于編碼端沒有使用運動估計,其編碼計算量也是較低的。在實驗中,我們使用了H.264的測試版本JM9.0進行仿真,結果發(fā)現(xiàn)H.2640-mv的編碼復雜度與幀內編碼類似。(3)殘差Wyner-Ziv編碼殘差Wyner-Ziv的原理如圖5所示,對當前Wyner-Ziv幀『和參考幀W^的殘差Z)進行Wyner-Ziv編碼。由于殘差Wyner-Ziv編碼相當于在經(jīng)典方案的編、解碼端同時增加了一個條件P^,^與r間有一定的相關性,因而從信息論的角度來說,增加的條件將使得系統(tǒng)的碼率降低,從而使得殘差Wyner-Ziv編碼取得比非殘差Wyner-Ziv編碼更好的率失真性能。(4)兩描述殘差Wyner-Ziv編碼本發(fā)明將殘差Wyner-Ziv編碼的思想擴展到兩描述Wyner-Ziv中來減少描述間的冗余,形成兩描述殘差Wyner-Ziv編碼。圖4的方案中,視頻序列首先被分成兩個子序列,兩個子序列編碼分別形成對應描述的Part1,part2由另一子序列用殘差Wyner-Ziv編碼產(chǎn)生。在有描述丟失時,Wyner-Ziv碼流可以幫助恢復丟失的描述,但當沒有丟失時,Wyner-Ziv碼流是冗余的。由于兩個子序列間有較強的相關性,因此可以借助另一子序列產(chǎn)生參考幀來進行殘差Wyner-Ziv編碼以減少冗余。對每個描述的差值£>=『-K《進行Wyner-Ziv編碼以形成對應的part2,D4-i用作解碼的邊信息,其中f^是參考幀。對描述l來說,A=『2-^2,D,1=r2—『re2,對描述2,D"『廣^pz^-r廣『rel。參考幀Re和邊信息r通過內插生成,方案中使用兩種內插方案,一種是簡單的平均內插,這種內插在編碼端和解碼端都被使用以產(chǎn)生參考幀4,和12,一種是復雜的運動估計內插,運動估計內插僅僅在解碼端被用來產(chǎn)生邊信息幀^和72。比如,描述1中,對第,幀來說,其參考幀^2,,和邊信息幀分別利用下列公式來產(chǎn)生,『"-『W=,2'(2)y2,,(x,力=0.25x『'1M(x+0.5x血yj+0.5x勿)+0.25xO—0.5x,;;一0.5xt/j^)+0.25x(x—0.5x血6,_V_0.5x)(3)+0.25x(x+0.5x~,_V+0.5x)參考幀和內插幀,其中,『1,,-,和^,是描述1中當前幀的前后解碼幀,(x,力是內插幀的坐標]禾口[AA,辦A]分別是前、后向運動矢量,可通ilWV,—,和用半像素運動估計等到。類似地,描述2的參考幀和邊信息幀用下列公式產(chǎn)生『4,=2,'22''1(4)~(x,力=0.25x『'2i.O+0.5x血,,少+0.5x勿)+0.25x『2'i+1(jc-0.5x,;;一0.5x勿)+0.25x『'2,,0-0.5x血6,y-0.5x辦O(5)+0.25xPP2';+1O+0.5x~少+0.5x辦6)(5)sw-spiht編碼SW-SPIHT是小波域Wyner-Ziv編碼的一種實現(xiàn),對相關信源義和r,x經(jīng)過小波變換禾口SPIHT(Setpartitioninginhierarchicaltree)量化后的信息與信源y的對應信息也相關,因此可以用信道碼來編碼,僅僅傳送部分的伴隨式,解碼端用邊信息和伴隨式通過信道解碼來恢復J的SPIHT信息。SW-SPIHT編碼原理如圖6所示,對于小波系數(shù)c^首先執(zhí)行傳統(tǒng)SPIHT編碼得到每個位平面的零樹分布信息叫,有效位信息m,符號信息戮和細化信息竭,,表示G的第,個位平面。假設要恢復的位平面數(shù)是",,=i,然后使用信道碼LDPCA(LowDensityParityCheckCodesAccumulate)執(zhí)行下面的交錯編解碼步驟。步驟一用熵編碼壓縮零樹分布信息SD,,然后發(fā)送到解碼端。步驟二在解碼端,用解碼的S",來抽取邊信息的有效位信息S;,即假設邊信息的零樹信息是SD,.,則可以根據(jù)SA來判斷當前位平面所有非零樹的有效信息S&,,然后將S^作為^的邊信息。步驟三對化進行LDPCA編碼,將其所有伴隨式比特存放緩存,然后根據(jù)反饋信息逐步發(fā)送其伴隨式比特到解碼端。解碼端利用收到的伴隨式比特和邊信息S;來進行LDPCA解碼以恢復M。其中的反饋信道是為了適應S尸,和S:的相關性變化。步驟四解碼端用恢復的有效信息W和零樹分布信息SA來抽取S,的符號信息和細化信息,這將作為^和M,解碼的邊信息。步驟五用LDPCA編碼S5,和細化信息朋,,存儲所有伴隨式比特,然后根據(jù)反饋信道的信息逐步地發(fā)送其伴隨式到解碼端。解碼端利用收到的伴隨式和邊信息S&,、解碼恢復主信息5S,和朋,。步驟六令/="1,然后返回到步驟一,重復執(zhí)行,直到n個位平面都恢復。步驟七用邊信息對小波系數(shù)進行精細重構以恢復^,見下面介紹。步驟八IDWT恢復原始圖像。(6)SW-SPIHT中基于邊信息的小波系數(shù)重構SW-SPIHT解碼可以得到恢復的SPIHT流,假設此恢復是無差錯的。由于恢復的SPIHT碼流含有G的信息,而G與邊信息CJ之間有很強的相關性,此相關性在高位平面時尤為突出,因此恢復的SPIHT碼流與CJ也同樣有較強的相關性?;诖朔N情況,我們提出了一種更好的重構^的方法,也就是用公式(6)通過恢復的SPIHT碼流來精細CJ。"max,Cj一VmaxC'/C^(V,nin,vvmin,'/《v腳(6)其中C、為最終恢復的小波系數(shù);;和^分別為^可能的最大值和最小值,可根據(jù)恢復的SPIHT信息推斷;m為^的位平面總數(shù),要恢復的位平面數(shù)用"來表示,其中w^w。此方法提高了小波系數(shù)的重構,原因有二,其一,用恢復的w個位平面信息限制了單純由CJ位平面重構C,而產(chǎn)生的失真;其二,C纟其余的m-n個低位平面信息補充了恢復的n個高位平面的信息,從而對重構起到了補償作用。(7)冗余優(yōu)化方案中,當沒有描述丟失時,Wyner-Ziv比特將是冗余的。冗余的Wyner-Ziv比特數(shù)將會影響系統(tǒng)的性能,一方面,Wyner-Ziv比特數(shù)越多,兩個描述的相關性越大,當有信道丟失時,由收到的描述來估計丟失描述所產(chǎn)生的失真小,這使得邊解碼質量變好;但另一方面,當沒有信道丟失時,Wyner-Ziv比特數(shù)越多,增加的冗余越多,從而中心解碼的率失真性能會降低。因此要對冗余進行優(yōu)化,優(yōu)化基于下列思想。設視頻輸入是r,J。(r,w)和(或者"))分別表示中心和邊解碼的均方誤差,設Wyner-Ziv的比特是w,w化,ao是兩個描述的總碼率,^(k,w)和A(k,ao分別是兩個描述的碼率,設兩描述平衡,我們的優(yōu)化目的是尋找優(yōu)化的參數(shù)w以解決下列的優(yōu)化問題受約束于條件1:尺(7,w)=(f,w)=2/2(f,w)swwge(7)條件2:其中,^柳是編碼兩個描述的總碼率,4命是中心解碼的最大失真。優(yōu)化過程可以解釋為固定中心解碼質量和總碼率,調整w使得邊失真最小。優(yōu)化方案的執(zhí)行過程首先初始化,然后在條件1和2約束下,逐漸搜索W使得",最小。具體地,在我們的方案中,SW-SPIHT編碼將產(chǎn)生冗余,它的碼率將影響系統(tǒng)的率失真性能,為了實現(xiàn)簡單,我們對SW-SPIHT比特的優(yōu)化是基于位平面(bitplane,BP)的個數(shù),也就是,給定part1的H.2640-mv量化參數(shù)QP,基于上述的優(yōu)化函數(shù)來調整BP的個數(shù),最后,得到了一個優(yōu)化的BP和QP組合,見表1所示。表1.優(yōu)化的組合量化參數(shù)<table>tableseeoriginaldocumentpage14</column></row><table>2.高復雜度解碼由于解碼端要進行運動估計來產(chǎn)生邊信息r、并且要進行信道碼的迭代解碼,這些造成了解碼端的高復雜度。(1)邊解碼器算法當只有一個描述收到時,使用邊解碼器解碼。假設只接收到描述1,使用邊解碼器1進行解碼。其part1,即『,通過H.2640-mv解碼得到;在恢復part2的f2時,首先根據(jù)公式(2)、(3)產(chǎn)生參考幀^2和邊信息&,并得到差值=&-^2,然后用差值作為邊信息進行SW-SPIHT解碼,得到恢復的差值",再作加法得到恢復的part2,即『2=/)',+^2。合并『',和『2,最終得到恢復的原始視頻序列^。當只接收到描述2時,利用邊解碼器2進行解碼,步驟與上述邊解碼器1的類似。(2)中心解碼器算法當沒有描述丟失時,使用中心解碼器恢復視頻序列。首先用零運動H.264解碼得到兩個描述的part1,^和『2,然后合并w、和^以恢復視頻r。本發(fā)明的效果我們測試了2個QCIF015Hz序列的性能,Cp/o77e和Jfo^er-A收/ter,比較了三種兩描述方案的性能(1)零運動H.264兩描述方法,此方法僅僅用奇偶幀分離將序列分為兩個描述,然后對每個序列用零運動H.264進行壓縮。方法具有低復雜度編碼特性。(2)本發(fā)明提出的基于Wyner-Ziv的殘差兩描述視頻編碼方法,原理如圖4所示。(3)基于Wyner-Ziv的非殘差兩描述視頻編碼方法,與圖4不同的是,沒有采用殘差編碼,即只是對圖中的^和^進行Wyner-Ziv編碼,產(chǎn)生兩個描述的part2。實驗測試了上述三種方案中兩個描述的總比特,實驗結果如圖7a,7b和圖8a,8b所示。圖中將上述三種方案分別標識為MDCH.2640-mv、殘差2D-DVC和2D-DVC。l.率失真性能比較圖7a,7b表示了率失真性能曲線,從比較結果看出基于Wyner-Ziv的殘差兩描述視頻編碼方案明顯地好于非殘差方案,其原因是殘差Wyner-Ziv編碼利用了一個編解碼端都可得到的參考幀,從而減少了碼率。具體而言,對運動量小的Mother-daughter序列,殘差方案比非殘差方案得到0.5-1.8dB的邊解碼質量提高,0.2-1.7dB的中心解碼質量提高。對運動量較大的Carphone序列而言,在中心解碼質量幾乎相當?shù)臈l件下,邊質量的提高是0.2-1.7dB。我們又比較了基于H.2640-mv的兩描述編碼,很明顯,所提方案與參考方案有幾乎相當?shù)男剩欢?,我們的方案比H.2640-mv兩描述方案的優(yōu)勢在于質量的連續(xù)性,這個特性我們將用下面的試驗來驗證。圖8a,8b表明了三種方案在Ql點的幀邊質量對比。很明顯,我們的殘差兩描述和非殘差兩描述都比零運動H.264兩描述有更連續(xù)的幀質量,原因是我們的方案加入了Wyner-Ziv碼流,它很好地糾正了丟失的描述,尤其是,有效的殘差方案取得了最好的質量。為了進一步比較,我們計算了各點的幀邊質量的方差,方差計算根據(jù)下列公式r『t(尸鵬(/),鵬))2(9)其中/^(0是第/幀的PSNR值,"是總幀數(shù),E(f,)是所有幀的平均值,表2表示了所有點的PS服方差,很明顯,在各個失真點,我們的殘差兩描述方案均取得了最小的方差,這意味著他們在有描述丟失時有更好的邊質量連續(xù)性。權利要求1、一種基于Wyner-Ziv理論的兩描述視頻編碼方法,其特征在于包括低復雜度編碼和高復雜度解碼,所述的低復雜度編碼步驟如下步驟1幀分離,奇偶幀分離產(chǎn)生兩個子序列W1和W2;步驟2對W1和W2分別用零運動H.264編碼以產(chǎn)生兩個描述的part1;步驟3解碼兩個子序列的part1碼流得到W′1和W′2,并根據(jù)公式<mathsid="math0001"num="0001"><math><![CDATA[<mrow><msub><mi>W</mi><mrow><mi>re</mi><mn>1</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>=</mo><mfrac><mrow><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>2</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>+</mo><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>2</mn><mo>,</mo><mi>i</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow><mn>2</mn></mfrac></mrow>]]></math>id="icf0001"file="A2009100898050002C1.tif"wi="39"he="10"top="90"left="29"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>和<mathsid="math0002"num="0002"><math><![CDATA[<mrow><msub><mi>W</mi><mrow><mi>re</mi><mn>2</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>=</mo><mfrac><mrow><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>1</mn><mo>,</mo><mi>i</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>+</mo><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>1</mn><mo>,</mo><mi>i</mi></mrow></msub></mrow><mn>2</mn></mfrac></mrow>]]></math>id="icf0002"file="A2009100898050002C2.tif"wi="39"he="10"top="90"left="75"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>產(chǎn)生兩個子序列每幀的參考幀Wre1和Wre2,其中,W′1,i-1和W′1,i是描述1中當前幀的前、后解碼幀;步驟4做減法產(chǎn)生殘差,對描述1,D1=W′2-Wre2,對描述2,D2=W′1-Wre1;步驟5根據(jù)優(yōu)化的組合量化,對殘差D1和D2分別進行SW-SPIHT編碼產(chǎn)生兩個Wyner-Ziv碼流,形成對應描述的part2;步驟6將相同描述的part1和part2碼流送入相同的信道進行傳輸;所述的高復雜度解碼步驟如下步驟1判斷有無描述丟失;步驟2假設描述2丟失,只收到描述1,進行下列的解碼;1)先進行零運動H.264解碼得到part1,W′1;2)分別根據(jù)公式<mathsid="math0003"num="0003"><math><![CDATA[<mrow><msub><mi>W</mi><mrow><mi>re</mi><mn>2</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>=</mo><mfrac><mrow><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>1</mn><mo>,</mo><mi>i</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>+</mo><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>1</mn><mo>,</mo><mi>i</mi></mrow></msub></mrow><mn>2</mn></mfrac></mrow>]]></math>id="icf0003"file="A2009100898050002C3.tif"wi="39"he="10"top="203"left="80"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>和Y2,i(x,y)=0.25×W′1,i-1(x+0.5×dxf,y+0.5×dyf)+0.25×W′1,i(x-0.5×dxf,y-0.5×dyf)+0.25×W′1,i-1(x-0.5×dxb,y-0.5×dyb)+0.25×W′1,i(x+0.5×dxb,y+0.5×dyb)產(chǎn)生參考幀Wre2和邊信息Y2,其中,W′1,i-1和W′1,i是描述1中當前幀的前、后解碼幀,(x,y)是內插幀的坐標,[dxf,dyf]和[dxb,dyb]分別是前、后向運動矢量,可通過W′1,i-1和W′1,i用半像素運動估計等到;3)計算差值Dy1=Y2-Wre2,并用差值Dy1作為邊信息進行SW-SPIHT解碼,得到恢復的差值D′1;4)作加法得到恢復的part2,即W″2=D′1+Wre2;5)合并W′1和W″2,得到恢復的原始視頻序列V′1;步驟3假設描述1丟失,只收到描述2,進行下列的解碼;1)先進行零運動H.264解碼得到part1,W′2;2)分別根據(jù)公式<mathsid="math0004"num="0004"><math><![CDATA[<mrow><msub><mi>W</mi><mrow><mi>re</mi><mn>1</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>=</mo><mfrac><mrow><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>2</mn><mo>,</mo><mi>i</mi></mrow></msub><mo>+</mo><msub><msup><mi>W</mi><mo>′</mo></msup><mrow><mn>2</mn><mo>,</mo><mi>i</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow><mn>2</mn></mfrac></mrow>]]></math>id="icf0004"file="A2009100898050003C1.tif"wi="37"he="9"top="106"left="74"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>和Y1,i(x,y)=0.25×W′2,i(x+0.5×dxf,y+0.5×dyf)+0.25×W′2,i+1(x-0.5×dxf,y-0.5×dyf)+0.25×W′2,i(x-0.5×dxb,y-0.5×dyb)+0.25×W′2,i+1(x+0.5×dxb,y+0.5×dyb)產(chǎn)生參考幀Wre1和邊信息Y1,并得到差值Dy2=Y1-Wre1;3)用差值Dy2作為邊信息進行SW-SPIHT解碼,得到恢復的差值D′2;4)作加法得到恢復的part2,即W″1=D′2+Wre1;5)合并W″1和W′2,得到恢復的原始視頻序列V′2;步驟4當沒有描述丟失時,進行下列的解碼;1)用零運動H.264解碼得到兩個描述的part1,W′1和W′2,2)合并W′1和W′2以恢復視頻V′0。全文摘要本發(fā)明涉及一種基于Wyner-Ziv的兩描述視頻編碼方法。包括下列步驟1)低復雜度編碼,具體包括奇偶幀分離;零運動H.264編碼產(chǎn)生描述的第一部分;殘差SW-SPIHT編碼產(chǎn)生第二部分;冗余優(yōu)化;2)高復雜度解碼,具體包括當兩個描述都收到時,使用中心解碼器解碼;假設只有一個描述收到,例如,收到描述1,其第一部分進行零運動H.264解碼得到W′<sub>1</sub>,然后利用插值公式產(chǎn)生參考幀W<sub>re2</sub>和邊信息Y<sub>2</sub>,并產(chǎn)生差值D<sub>1y</sub>=Y<sub>2</sub>-W<sub>re2</sub>。之后,進行SW-SPIHT解碼器以重構差值D′<sub>1</sub>,得到W″<sub>2</sub>=D′<sub>1</sub>+W<sub>re2</sub>,最后合并W′<sub>1</sub>和W″<sub>2</sub>,得到恢復的整個視頻序列V′<sub>1</sub>。本發(fā)明是一種兼具編碼復雜度低和魯棒性能好的視頻編碼框架,在有描述丟失時,該方法有更好的壓縮性能,同時保持了低復雜度編碼,可以滿足低能耗設備的網(wǎng)絡視頻傳輸需求。文檔編號H04N7/26GK101621690SQ20091008980公開日2010年1月6日申請日期2009年7月24日優(yōu)先權日2009年7月24日發(fā)明者王安紅,耀趙申請人:北京交通大學