亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

用于視頻編碼的方法及系統(tǒng)的制作方法

文檔序號:7956745閱讀:243來源:國知局
專利名稱:用于視頻編碼的方法及系統(tǒng)的制作方法
技術領域
本發(fā)明涉及視頻處理,更具體地說,涉及一種分布式視頻編碼的方法和系統(tǒng)。
背景技術
視頻通訊系統(tǒng)在不斷地增強以滿足例如縮減成本、減小尺寸、提高服務質量和增大數(shù)據(jù)速率的要求。ITU-T(國際通訊聯(lián)合會)視頻編碼專家組(VCEG)和ISO/IEC(國際標準化組織/國際電工委員會)運動圖像專家組(MPEG)草擬了一個視頻編碼標準,題為《ITU-T推薦標準H.264和ISO/IECMPEG-4高級視頻編碼》(H.264)。H.264包括空間預測、時間預測、變換、交錯編碼和無損熵編碼(lossless entropy coding)。
雖然有多種高級處理技術可利用,但該標準并沒有規(guī)定遵循H.264的視頻編碼器的設計以及分布式編碼器處理的方法。而該通訊系統(tǒng)的優(yōu)化,取決于視頻編碼器的設計。
本申請的后續(xù)部分將結合附圖對本發(fā)明進行闡述。通過把本發(fā)明的一些方面與上述的系統(tǒng)進行比較,對本領域的技術人員來說,常規(guī)或傳統(tǒng)方法的局限性和缺點是顯而易見的。

發(fā)明內容
本發(fā)明要解決的技術問題在于,針對現(xiàn)有技術的上述缺陷,提供一種編碼視頻數(shù)據(jù)的方法和系統(tǒng),后文將結合附圖以及權利要求對本發(fā)明進行充分的闡述。
根據(jù)本發(fā)明的一方面,提供一種用于編碼圖像的方法,所述方法包括在第一時間區(qū)間內編碼圖像的第一部分;和在第二時間區(qū)間內編碼圖像的第二部分,其中第一時間區(qū)間與第二時間區(qū)間交迭。
優(yōu)選地,第一部分包括與第二部分相鄰的邊緣區(qū),其中編碼第一部分包括以更高的準確度編碼該邊緣區(qū)。
優(yōu)選地,第一部分包括與第二部分相鄰的邊緣區(qū),其中編碼第一部分包括以更細地量化編碼該邊緣區(qū)。
優(yōu)選地,所述方法還包括將編碼后的第一部分與編碼后的第二部分合并,從而生成編碼后的圖像輸出。
優(yōu)選地,第一部分與第二部分都包括整數(shù)個的宏塊。
優(yōu)選地,開始編碼第一部分的時間與開始編碼第二部分的時間不同。
根據(jù)本發(fā)明的一方面,提供一種用于視頻編碼的系統(tǒng),所述系統(tǒng)包括第一分割處理器,用來在第一時間區(qū)間內編碼圖像的第一部分;和第二分割處理器,用來在第二時間區(qū)間內編碼圖像的第二部分,其中第一時間區(qū)間與第二時間區(qū)間交迭。
優(yōu)選地,第一部分包括邊緣區(qū),該邊緣區(qū)包括一組與第二部分相鄰的宏塊,其中,編碼第一部分包括以更高的準確度編碼該邊緣區(qū)。
優(yōu)選地,第一部分包括邊緣區(qū),該邊緣區(qū)包括一組與第二部分相鄰的宏塊,其中,編碼第一部分包括以更細地量化編碼該邊緣區(qū)。
優(yōu)選地,該系統(tǒng)還包括圖像分割器,用于將圖像分成兩個或多個部分。
優(yōu)選地,該系統(tǒng)還包括圖像合并器,用于將編碼后的第一部分與編碼后的第二部分合并以生成編碼后的圖像輸出。
優(yōu)選地,所述第一分割處理器開始編碼所述第一部分的時間與所述第二分割處理器開始編碼所述第二部分的起始時間不同。
優(yōu)選地,所述系統(tǒng)還包括主機,用于把一組共用參數(shù)發(fā)送到所述第一分割處理器和所述第二分割處理器。
根據(jù)本發(fā)明的一方面,提供一種用于視頻編碼的集成電路,所述集成電路包括存儲器,用于存儲圖像的第一部分和第二部分;第一電路,可操作地用來編碼圖像的第一部分并生成第一編碼輸出;和第二電路,可操作地用來編碼圖像的第二部分以生成第二編碼輸出,其中,所述第一編碼輸出獨立于所述第二編碼輸出。
優(yōu)選地,對與圖像第二部分相鄰的圖像第一部分的一組宏塊應用量化時,該量化至少更細1級。
優(yōu)選地,以更少的信息丟失來編碼與圖像第二部分相鄰的圖像第一部分的一組宏塊。
優(yōu)選地,所述集成電路還包括外設部件互連,用于傳送第一電路與第二電路中使用的一組共用參數(shù)。
優(yōu)選地,所述一組共用參數(shù)包括補足增強信息。
優(yōu)選地,所述一組共用參數(shù)包括序列參數(shù)設定。
優(yōu)選地,所述一組共用參數(shù)包括圖像參數(shù)設定。
通過后文的闡述,將能更全面了解本發(fā)明的這些和其他優(yōu)點和新穎性特征。


下面將結合附圖及實施例對本發(fā)明作進一步說明,附圖中圖1A是根據(jù)本發(fā)明實施例被分成2部分的圖像。
圖1B是根據(jù)本發(fā)明實施例被分成3部分的圖像。
圖2是根據(jù)本發(fā)明實施例的典型視頻編碼系統(tǒng)的框圖;圖3是根據(jù)本發(fā)明實施例的視頻編碼時間表的示意圖;圖4是根據(jù)本發(fā)明實施例的典型視頻編碼方法的流程圖;圖5是根據(jù)本發(fā)明實施例的H.264編碼標準的典型圖像的示意圖;圖6是根據(jù)本發(fā)明實施例的典型H.264層接口的示意圖;
圖7是根據(jù)本發(fā)明實施例的時間編碼宏塊的示意圖;圖8是根據(jù)本發(fā)明實施例的空間編碼宏塊的示意圖;圖9是根據(jù)本發(fā)明實施例的典型分割處理器的框圖。
具體實施例方式
根據(jù)本發(fā)明的某些方面,提供了一種視頻編碼器中分布處理的方法和系統(tǒng)。與單個電路獨立處理相比,在兩個或更多的獨立電路之間分布處理能處理更多的數(shù)據(jù)。多個獨立編碼器能并行處理圖像的多個部分。在每個獨立編碼器中,能以更高的準確度、更少的信息丟失對接近另一部分的一部分內的視頻數(shù)據(jù)進行編碼,以減少部分邊界的區(qū)別。更高的準確度由量化器來實現(xiàn),該量化器被偏置以提供更細的量化來接近各部分的邊界。
對于一些視頻編碼應用程序,在兩個或多個獨立電路之間分布圖像編碼是有利的。圖1A和圖1B示出了尺寸為1280×720像素的圖像分割。圖1A中,圖像100被分成第一部分101和第二部分103。例如在本發(fā)明的一些實施例中,圖像100被分割,將宏塊的第一22行(352行像素)指定為第一部分101,將宏塊的第二23行宏塊(368行像素)指定為第二部分103。為提高分割區(qū)邊緣如線105的平滑性和連貫性,視頻編碼器對部分邊緣處的宏塊107進行特別的處理。部分101和部分103邊緣處的宏塊107使用能導致更細的梯級(finer steps)的量化級。H.264中有52種量化級。邊緣宏塊被偏置,以使在特定的情形下量化器采用與通常的量化級相差至少1級的量化級。
圖1B中,圖像100被分成第一部分111、第二部分113和第三部分115。在該實施例中,每個部分111、113和115都包括15行宏塊(240行像素)。如參照1A中所述,通過在區(qū)段121和123處增加比特分辨率以使線117和119不易被覺察到。
圖2是根據(jù)本發(fā)明實施例的典型視頻編碼系統(tǒng)200的示意框圖。視頻編碼系統(tǒng)200包括2個或更多個分割處理器201和203。來自圖像分割器205的第一部分213饋入第一分割處理器201;來自圖像分割器205的第二部分215饋入第二分割處理器203。每個分割處理器201和203都執(zhí)行編碼。圖像合并器207將第一編碼部分217與第二編碼部分219組合,從而形成編碼后的圖像輸出221。
圖像分割器205可以是用來存儲當前圖像211的緩沖器。每個部分213和215都包括當前圖像的地址。主機209用于共享控制信息223。SPS(序列參數(shù)設置)和PPS(圖像參數(shù)設置)233保留在第一分割處理器201和/或第二分割處理器203中。可選擇地,主機209能接收SPS和PPS 233。邊信息(sideinformation)能通過主機209共享。主機209通過外設部件互連(PCI)231對每個分割處理器201和203進行輪詢(poll)225與227,主機209通過控制229控制比特流合并器207。
在另一實施例中,分割處理器201和203接收整個圖像211并處理相應的部分。在又一實施例中,主機209執(zhí)行比特流合并。
圖3是部分處理的時間表。對于單芯片處理器的視頻編碼,示出了編碼圖像n和圖像n+1的時間線301。對于雙芯片處理器的視頻編碼,示出了編碼圖像n的部分1和圖像n+1的部分1的時間線303,也示出了編碼圖像n+1的部分2和圖像n+1的部分2的時間線305。該處理被分布,且處理的起始點309和311可以是交錯的。
圖4是根據(jù)本發(fā)明實施例、對視頻編碼圖像所需要的處理進行分布的典型方法的流程圖。步驟401中,在第一時間區(qū)間內編碼圖像的第一部分。所述第一部分包括鄰近第二部分的邊緣區(qū)。第一部分的編碼包括包括以較高的準確度對邊緣區(qū)進行編碼。例如,所述編碼包括量化,量化時,所述邊緣區(qū)具有更細的量化。更細的量化能減少信息丟失并生成更高的準確度。
步驟403中,當?shù)谝粫r間區(qū)間與第二時間區(qū)間交迭時,在第二時間區(qū)間內編碼圖像的第二部分。開始編碼第一部分的時間與開始編碼第二部分的時間不同。第一部分和第二部分可采用相同的編碼方法。第二部分中與第一部分鄰近的邊緣區(qū)有更細的量化。
步驟405中,將編碼后的第一部分與編碼后的第二部分合并,從而生成編碼圖像輸出。為了分布視頻編碼器中的處理,并使所述分布對視頻解碼器是透明的,編碼后的部分以一致的速率合并到編碼后的圖像輸出。在合并后可進行附加的編碼。
本發(fā)明能應用到以多種標準編碼的視頻數(shù)據(jù)中,其中一個標準是H.264。這里對H.264進行概述。而后文將對H.264的典型的分割處理器進行描述。
H.264視頻編碼標準ITU-T視頻編碼專家組(VCGE)和ISO/IEC運動圖像專家組(MPEG)草擬了題為《ITU-T推薦標準H.264和ISO/IEC MPEG-4高級視頻編碼》的視頻編碼標準,這里通過各種目的的引用合并在此。H.264標準中,在逐個宏塊的基礎上編碼視頻。本文中所用到的通用術語“圖像”也稱為幀、域、切片、區(qū)塊、宏塊或部分。
通過使用H.264壓縮標準,在保護圖像質量的同時,能通過時間、空間和光譜壓縮技術的組合來壓縮視頻。為在小的數(shù)據(jù)帶寬中達到指定的服務質量(QoS),視頻壓縮系統(tǒng)使用了視頻源的冗余,以解除與時間、空間和光譜采樣依賴性的關聯(lián)。熵編碼器通過更高的順序相關性(order correlations)區(qū)分依然內嵌在視頻流中的統(tǒng)計冗余。高級熵編碼器利用關聯(lián)模型(contextmodeling)來適應源的變化并達到更好的壓縮效果。
H.264編碼器能生成3種類型的編碼圖像內編碼(I)、預測(P)和雙向(B)圖像。I圖像獨立于其他圖像被編碼。在其他圖像類型編碼過程中,參照I圖像,且I圖像以最小量的壓縮進行編碼。P圖像編碼包括與之前的I或P圖像有關的運動補償。B圖像是需要過去的和將來的參考圖像(I或P)的以內插值替換的圖像。圖像類型I采用空間冗余,而類型P、類型B都采用空間和時間冗余。通常,I圖像比P圖像要求更多比特,P圖像比B圖像要求更多比特。編碼后,幀按照確定性周期序列排列,例如“IBBPBB”或“IBBPBBPBBPBB”,所述確定性周期序列稱為圖像組(GOP)。
現(xiàn)在參考圖5,圖5所示為典型圖像501的框圖。圖像501與連續(xù)的圖像503、505、507一起形成視頻序列。圖像501包括二維像素網(wǎng)格。對于彩色視頻,每一色彩成分與唯一的二維像素網(wǎng)格關聯(lián)。例如,圖像包括亮度、色度紅(chroma red)、和色度藍(chroma blue)成分。因此,這些成分與亮度網(wǎng)格509、色度紅網(wǎng)格511和色度藍網(wǎng)格513關聯(lián)。當網(wǎng)格509、511、513在顯示設備上重疊時,在圖像被捕捉的期間內,產生的結果是視野中的圖像。
通常,與色度紅或色度藍特征相比,人類的眼睛對視頻的亮度特征有更強的感知性。因此,相對于色度紅網(wǎng)格511和色度藍網(wǎng)格513,亮度網(wǎng)格509中包含更多的像素。H.264標準中,色度紅網(wǎng)格511和色度藍網(wǎng)格513在每個方向上具有的像素數(shù)等于亮度網(wǎng)格509的一半。因此,色度紅網(wǎng)格511和色度藍網(wǎng)格513的總像素為亮度網(wǎng)格509的四分之一。
亮度網(wǎng)格509能被分成16×16個像素塊。對于亮度塊515,相應的有在色度紅網(wǎng)格511內的8×8色度紅塊517和相應的在色度藍網(wǎng)格513內的8×8色度藍塊519。塊515、517和519都被看作宏塊,所述宏塊是切片組(slicegroup)的一部分。目前,4∶2∶0二次取樣是H.264規(guī)范中使用的唯一色彩空間。
用于視頻編碼和壓縮的特定算法形成視頻編碼層(VCL),用于傳送VCL的協(xié)議稱為網(wǎng)絡訪問層(NAL)。H.264標準允許在VCL的信號處理技術與NAL的運輸導向機制之間有整潔接口(clean interface),因此,在采用多種標準的網(wǎng)絡中,基于源的編碼(source-based)不是必需的。圖6是典型的H.264接口600的示意圖。VCL 603通過H.264中指定的編碼處理有效地表示視頻內容。NAL 601格式化視頻的VCL表示并以合適的方式為多種傳輸層或存儲媒介提供報頭信息。NAL 601描述訪問單元的組件。NAL 601內的數(shù)據(jù)組是NAL單元,可分為VCL NAL單元617或非VCL NAL單元611。
VCL NAL單元617包括圖像的編碼切片數(shù)據(jù)。該訪問單元中包括一個或多個切片數(shù)據(jù)NAL單元607和609。
非VCL NAL單元611包括附加控制數(shù)據(jù)605,如補足增強信息(SEI)和參數(shù)設置信息。SEI單元619包括增強編碼視頻信號的時間信息和其他數(shù)據(jù)。SEI單元619是訪問單元的一部分,在VCL NAL單元617之前。參數(shù)設置信息是重要的報頭數(shù)據(jù),所述報頭數(shù)據(jù)能應用到許多VCL NAL單元617中。參數(shù)設置信息被認為是幾乎不變的,且與許多非VCL NAL單元611對應。
參數(shù)設置單元是序列參數(shù)設置(SPS)單元625或圖像參數(shù)設置(PPS)單元621。SPS單元625應用到一系列被稱為編碼視頻序列的連貫編碼視頻圖像,PSS單元621應用到編碼視頻序列中一個或多個獨立圖像。PPS單元621和SPS單元625也是訪問單元的一部分,但PPS單元621和SPS單元625能在VCL NAL單元611前面發(fā)送,也能被重復以避免數(shù)據(jù)丟失。VCL NAL單元617識別關聯(lián)的PPS單元621,PPS單元621識別關聯(lián)的SPS單元625。因此,不必在所有的VCL NAL單元617中重復參數(shù)設置。
現(xiàn)在參考圖7,示出了空間編碼宏塊的框圖。在雙向編碼中,從之前的圖像701中的基準塊707和之后到達的圖像705的基準塊711中預測當前圖像703的當前塊709。因此,把基準塊707、711與當前塊709之間的加權平均值算作預測誤差。預測誤差與預測塊的標識都被編碼。運動矢量713和715識別該預測塊。
權重也可被明確地編碼或者隱藏在包含基準塊的圖像的標識中。權重被隱藏在包含基準塊的圖像與包含當前塊的圖像之間的位距中。
現(xiàn)在參考圖8,圖8所示為空間編碼宏塊的框圖??臻g預測也稱為內預測,包括從鄰近的像素預測圖像像素。能以16X 16模式、8X8模式或4×4模式預測宏塊的像素。宏塊被編碼成預測誤差的組合,所述預測誤差表示其區(qū)塊。
4×4模式下,宏塊801中是4×4的塊。從左邊緣基準塊803、角基準塊805、頂部邊緣基準塊807和頂部右側基準塊809的組合中預測宏塊801中的4×4塊?;鶞蕢K803、805、807和809的預測像素與宏塊801之間的差異就是預測誤差。該預測誤差與預測像素、預測模式的標識一起被編碼。
現(xiàn)在參考圖9,圖9所示為典型的分割處理器900的框圖。分割處理器900包括空間預測器901、時間預測器903、模式判定引擎905、變換器907、量化器908、反變換器909、反量化器910和幀緩沖器913。根據(jù)本發(fā)明的一些實施例,分割處理器900可獨立于其它部分處理一個部分,因此一個部分內的運動矢量指的是該部分內的數(shù)據(jù)。
空間預測器901僅需要當前圖像919的內容??臻g預測器901接收當前圖像919和產生與圖8所示的基準塊相應的空間預測951。
空間預測圖像是內編碼的。亮度宏塊被分成4×4的塊或16×16的塊。4×4的宏塊有9種可用的預測模式;16×16的宏塊有4種可用的預測模式。色度宏塊是8×8的塊,有4種可能的預測模式。
時間預測器903中(即運動估測器),采用一組運動矢量從基準塊949中估測當前圖像919。時間預測器903接收當前圖像919和存儲在幀緩沖器913內的一組基準塊949。時間編碼的宏塊能被分成16×8、8×16、8×8、4×8、8×4或4×4的塊。宏塊中每個塊好比另一圖像的一個或多個預測塊,所述另一圖像在時間上位于所述當前圖像的前面或后面。運動矢量描述塊之間的空間位移并標識預測塊。
模式判定引擎905接收空間預測951和臨時預測947,并根據(jù)率失真優(yōu)化選擇預測模式。所選擇的預測921被輸出。
一旦選擇了模式,對應的預測誤差925就是當前圖像919與選擇的預測921之間的差異923。變換器907將表示塊的預測誤差925變換成變換值927。在這種臨時預測的情況下,預測誤差925與運動矢量一起被變換。
所述變換采用自適應塊尺寸變換(ABT)。用來變換編碼預測誤差925的塊尺寸與用來預測的塊尺寸相對應。通過低復雜度的4×4矩陣、獨立于塊模式來變換預測誤差,該變換過程伴隨著量化級的適當比例縮放,約為4×4離散余弦變換(DCT)。該變換應用到水平和垂直方向。當宏塊被編碼成內16×16時,使用4×4 Hardamard變換對所有16個4×4的塊的DC系數(shù)進行變換。
量化器908量化變換值927。量化器908被偏置,從而為兩個或多個部分的鄰近邊界提供更細的量化。邊緣處的宏塊被不同地處理,以生成更光滑和更連續(xù)的圖像,并減少部分的邊界的差異。H.264中,有52個量化級。邊緣宏塊被偏置,因此在特定情形下量化器使用與通用級別至少不同1級的量化級別。
量化后的變換系數(shù)929也被饋入反量化器910以生成輸出931。輸出931被傳遞到反變換器909以生成再生誤差935。原來的預測921與再生誤差935被加和937,以再生存儲在幀緩沖器913中的基準圖像939。
MEPG-4規(guī)定了兩種類型的熵編碼前后自適應二進制算術編碼(CABAC)和前后自適應可變長度編碼(CAVLC)。分割處理器900包括熵編碼器911以接收量化后的變換系數(shù)929??蛇x地,合并來自兩個或多個分割處理器900的量化后的變換系數(shù)929后,再執(zhí)行熵編碼。
本文中闡述的實施例可以作為組件級(board level)產品、專用集成電路(ASIC)、或者是與系統(tǒng)中其他部分如協(xié)處理器集成的各種級別的視頻編碼電路來實現(xiàn)。集成電路把視頻數(shù)據(jù)存儲在存儲器中,并采用算術邏輯來編碼視頻輸出。
視頻處理器電路的集成度主要由速度和成本考慮決定。由于現(xiàn)代處理器混雜的特性,所以采用商業(yè)可用的處理器是可能的,所述商業(yè)可用的處理器可在ASIC設備外部實現(xiàn)。
如果該處理器能作為ASIC核心或邏輯塊,那么該商業(yè)可用的處理器可作為ASIC設備的一部分來實現(xiàn),其中,因為指令存儲在存儲器中,所以一些特定的功能能在固件中實現(xiàn)??蛇x地,所述一些特定的功能也能以由處理器控制的硬件加速器單元來實現(xiàn)。
雖然本發(fā)明是參照一些實施例來闡述的,但本領域的技術人員可知曉,可不脫離本發(fā)明的范圍做出各種變化以及用等同條件替代。
另外,為適應本發(fā)明技術中的特定條件或材料,可做出許多修改,而不脫離其范圍。例如,雖然闡述本發(fā)明時以MPEG-4編碼的視頻數(shù)據(jù)為重點,但本發(fā)明能應用到以各種標準編碼的視頻數(shù)據(jù)中。
因此,本發(fā)明不局限于所公開的特定實施例,本發(fā)明包括落入權利要求范圍內的所有的實施例。
權利要求
1.一種用于視頻編碼的方法,其特征在于,所述方法包括在第一時間區(qū)間內編碼圖像的第一部分;和在第二時間區(qū)間內編碼圖像的第二部分,其中第一時間區(qū)間與第二時間區(qū)間交迭。
2.根據(jù)權利要求1所述的方法,其特征在于,第一部分包括與第二部分相鄰的邊緣區(qū),其中編碼第一部分包括以更高的準確度編碼該邊緣區(qū)。
3.根據(jù)權利要求1所述的方法,其特征在于,第一部分包括與第二部分相鄰的邊緣區(qū),其中編碼第一部分包括以更細地量化編碼該邊緣區(qū)。
4.根據(jù)權利要求1所述的方法,其特征在于,所述方法還包括將編碼后的第一部分與編碼后的第二部分合并,從而生成編碼后的圖像輸出。
5.一種用于視頻編碼的系統(tǒng),其特征在于,所述系統(tǒng)包括第一分割處理器,用來在第一時間區(qū)間內編碼圖像的第一部分;和第二分割處理器,用來在第二時間區(qū)間內編碼圖像的第二部分,其中第一時間區(qū)間與第二時間區(qū)間交迭。
6.根據(jù)權利要求5所述的系統(tǒng),其特征在于,第一部分包括邊緣區(qū),該邊緣區(qū)包括一組與第二部分相鄰的宏塊,其中,編碼第一部分包括以更高的準確度編碼該邊緣區(qū)。
7.根據(jù)權利要求5所述的系統(tǒng),其特征在于,第一部分包括邊緣區(qū),該邊緣區(qū)包括一組與第二部分相鄰的宏塊,其中,編碼第一部分包括以更細地量化編碼該邊緣區(qū)。
8.一種用于視頻編碼的集成電路,其特征在于,所述集成電路包括存儲器,用于存儲圖像的第一部分和第二部分;第一電路,可操作地用來編碼圖像的第一部分并生成第一編碼輸出;和第二電路,可操作地用來編碼圖像的第二部分以生成第二編碼輸出,其中,所述第一編碼輸出獨立于所述第二編碼輸出。
9.根據(jù)權利要求8所述的集成電路,其特征在于,對與圖像第二部分相鄰的圖像第一部分的一組宏塊應用量化時,該量化至少更細1級。
10.根據(jù)權利要求8所述的集成電路,其特征在于,以更少的信息丟失來編碼與圖像第二部分相鄰的圖像第一部分的一組宏塊。
全文摘要
本發(fā)明涉及用于編碼視頻數(shù)據(jù)的方法及系統(tǒng)。本設計包括兩個或更多個獨立編碼器,所述編碼器能并行處理圖像中的部分。在每個獨立編碼器里,鄰近其他部分的邊緣被給予更高的準確度。所有獨立編碼器編碼后的輸出有更光滑更連續(xù)的部分邊界。
文檔編號H04N7/26GK1835590SQ200610059289
公開日2006年9月20日 申請日期2006年3月8日 優(yōu)先權日2005年3月16日
發(fā)明者朱沁幡 申請人:博通高級壓縮集團有限公司