專利名稱:基于運動圖像專家組-4的立體視頻因特網(wǎng)廣播系統(tǒng)和方法
技術領域:
本發(fā)明涉及網(wǎng)絡(Web)廣播系統(tǒng)和方法;并特別涉及用于基于運動圖像專家組(MPEG)-4在因特網(wǎng)上向用戶廣播立體視頻的系統(tǒng)和方法。
背景技術:
“立體視頻”指通過交替地接收和輸出左眼數(shù)據(jù)和右眼數(shù)據(jù)而產(chǎn)生的運動圖像,以便給二維平面以三維的遠距離和近距離效果。
隨著因特網(wǎng)近來的發(fā)展,在教育、文化、現(xiàn)期期刊(current issue)等領域中,多種多樣的多媒體數(shù)據(jù)被提供給因特網(wǎng)用戶。只要他們具有被連接到因特網(wǎng)的客戶端,因特網(wǎng)用戶就可以在任意時間任意地點觀看和/或收聽他們想要的多媒體數(shù)據(jù)。
通常,因特網(wǎng)廣播系統(tǒng),其也被稱作因特網(wǎng)廣播系統(tǒng),由編碼服務器、流服務器和客戶端形成,編碼服務器用于根據(jù)預先確定的編碼方法對多媒體數(shù)據(jù)進行編碼,流服務器用于傳輸多媒體流,而客戶端用于解碼和輸出被傳輸?shù)亩嗝襟w流。
圖1是示出典型的因特網(wǎng)廣播系統(tǒng)的框圖。如圖所示,視頻數(shù)據(jù)和音頻數(shù)據(jù)被從例如攝影機的視頻/音頻輸入設備10輸入,并在其通過編碼服務器20時被壓縮。
MPEG是運動圖像專家組,為建立對于運動圖像編碼方法的標準而形成的專家組。MPEG研究基于時間連續(xù)變化的運動圖像壓縮和編碼數(shù)據(jù)的傳輸。MPEG建議了國際編碼標準,并且,當前的因特網(wǎng)廣播被根據(jù)這些標準執(zhí)行的。具體來講,MPEG-1和MPEG-2是用于壓縮和存儲大量多媒體數(shù)據(jù)的國際標準。
流服務器30把被編碼服務器20編碼的多媒體流通過因特網(wǎng)40傳輸?shù)娇蛻舳?0。然后,客戶端50解碼被傳輸?shù)亩嗝襟w流??蛻舳?0應該具有帶有必須的編解碼器(codec)的播放器以輸出多媒體數(shù)據(jù)。
同時,當使用常規(guī)編碼方法和目前的以太網(wǎng)廣播系統(tǒng)來傳輸立體視頻數(shù)據(jù)時,可能發(fā)生一些問題。因為左眼影像和右眼影像應該被分別編碼,以便將立體視頻數(shù)據(jù)通過因特網(wǎng)傳輸?shù)娇蛻舳?,所以?shù)據(jù)量被增加超過了兩倍,并且由于傳輸流量的負載,使得傳輸錯誤的概率變得更高。此外,存在客戶端應該區(qū)分左眼影像和右眼影像,以便將它們解碼并將它們在時間上彼此同步地輸出的問題。如果左眼影像和右眼影像沒有被交替地輸出,則不能獲得三維效果,只會導致觀眾的視覺疲勞。
因此,為了在因特網(wǎng)上廣播立體視頻數(shù)據(jù),除了常規(guī)編碼方法之外,還需要新的編碼方法,以及和該編碼方法一致的因特網(wǎng)廣播系統(tǒng)和方法。
發(fā)明內(nèi)容
因此,本發(fā)明的目的是提供一種系統(tǒng)和方法,用于通過根據(jù)運動圖像專家組-4(MPEG-4)時域擴縮(temporal scalability,TS)的結構來編碼和復用多媒體數(shù)據(jù),以便在因特網(wǎng)上廣播立體視頻數(shù)據(jù)。
本發(fā)明的另一個目的是提供能夠在因特網(wǎng)上廣播常規(guī)的二維視頻數(shù)據(jù)的因特網(wǎng)廣播系統(tǒng)和方法。
依照本發(fā)明的一個方面,提供了一種用于在因特網(wǎng)上向客戶端廣播立體視頻數(shù)據(jù)的系統(tǒng),包括編碼服務器,用于對立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和對象描述符/場景二進制格式(Object Descriptor/Binary Format for Scene,OD/BIFS)進行編碼,并將所述數(shù)據(jù)編碼為具有MPEG-4結構的基本流(elementary stream,ES),OD/BIFS是用于控制內(nèi)容的信息;網(wǎng)絡(web)服務器,用于從客戶端接收二維視頻顯示模式、場快門(field-shuttering)視頻顯示模式和幀快門(frame-shuttering)視頻顯示模式中的任意一個;以及流服務器,用于通過根據(jù)輸入網(wǎng)絡服務器的顯示模式復用ES,生成用于在因特網(wǎng)上實時數(shù)據(jù)傳輸?shù)膶崟r傳輸協(xié)議(real-time transport protocol,RTP)分組,并將該RTP分組傳輸?shù)娇蛻舳恕?br>
依照本發(fā)明的一個方面,提供了一種方法,用于基于MEPG-4在因特網(wǎng)上向客戶端廣播立體視頻數(shù)據(jù),包括步驟a)接收立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和OD/BIFS數(shù)據(jù),并將所述數(shù)據(jù)編碼為具有MPEG-4結構的ES,所述OD/BIFS數(shù)據(jù)是用于控制內(nèi)容的信息;b)從客戶端接收二維視頻顯示模式、場快門視頻顯示模式和幀快門視頻顯示模式中的任意一個;和c)通過根據(jù)輸入的顯示模式復用ES,生成用于在因特網(wǎng)上實時傳輸?shù)腞TP分組,并將該RTP分組傳輸?shù)娇蛻舳恕?br>
從下面結合附圖給出的對優(yōu)選實施例的描述,本發(fā)明的上述和其他目的以及特征將變得清晰,其中圖1是示出典型的因特網(wǎng)廣播系統(tǒng)的框圖;圖2是描述依照本發(fā)明的優(yōu)選實施例的因特網(wǎng)廣播系統(tǒng)的框圖;圖3是詳細地示出圖2的編碼服務器的框圖;圖4是詳細地示出圖3的編碼器的框圖;圖5是示出依照本發(fā)明的優(yōu)選實施例的被輸入運動圖像專家組-4(MPEG-4)結構的每一層的視頻數(shù)據(jù)的圖;圖6是詳細地示出圖3的MPEG-4(MP4)文件生成器的框圖;圖7和圖8是描述MP4文件的基本流(ES)的排列的圖;圖9是詳細地示出圖2的流服務器的框圖;和圖10是描述流服務器中的分組變換處理的圖。
具體實施例方式
從下面參考附圖對實施例的描述,本發(fā)明的其他目的和方面將變得清晰,描述在后面給出。在本說明書和權利要求中使用的術語和詞匯不應該被理解為常規(guī)的含義和字典上的含義,根據(jù)發(fā)明人可以恰當?shù)囟x術語的概念以便最為適當?shù)孛枋霰景l(fā)明的原理,它們應該被理解為符合本發(fā)明的技術概念的概念和含義。因此,本說明書的實施例和附圖只不過是優(yōu)選實施例之一,但是不代表本發(fā)明所有的技術概念。在這個方面,存在各種等效物和修改,可以代替在遞交的本專利申請的說明書中示出的元素。
圖2是繪出依照本發(fā)明的優(yōu)選實施例的因特網(wǎng)廣播系統(tǒng)的框圖。如圖所示,從立體攝像機或例如磁帶錄像機(VTR)的視頻/音頻輸入設備100獲取的多媒體數(shù)據(jù)(即,立體視頻數(shù)據(jù)和音頻數(shù)據(jù))或內(nèi)容控制對象描述符/場景二進制格式(OD/BIFS)數(shù)據(jù)被輸入編碼服務器200。然后,編碼服務器200根據(jù)運動圖像專家組-4(MPEG-4)對輸入信號進行編碼。通過在編碼服務器200中對信號編碼獲得的基本流(ES)被傳輸?shù)搅鞣掌?00。
為了對立體視頻編碼,本發(fā)明使用MPEG-4時域擴縮(TS)。MPEG-4 TS是一種輸入的左眼影像數(shù)據(jù)被分配給基礎層(base layer)并且右眼影像數(shù)據(jù)被分配給增強層(enhancement layer)的結構。被分配給基礎層的左眼影像被根據(jù)常規(guī)的二維視頻編碼進行編碼。被分配給增強層的右眼影像被參考基礎層的影像編碼,基礎層的影像與環(huán)境層的影像重疊。
同時,網(wǎng)絡服務器400通過反向通道(back channel)接收關于客戶端600所請求的顯示模式和內(nèi)容的信息,并將其傳輸?shù)搅鞣掌?00。流服務器300以客戶端600所請求的顯示模式復用內(nèi)容的ES,以生成多媒體數(shù)據(jù),例如實時傳輸協(xié)議(RTP)分組,并將多媒體數(shù)據(jù)通過因特網(wǎng)傳輸?shù)娇蛻舳?00??蛻舳?00按傳輸?shù)捻樞蚪獯a并顯示數(shù)據(jù)。為了輸出多媒體數(shù)據(jù),客戶端600一定應該具有帶有必須的編解碼器(codec)的播放器。
圖3是示出圖2的編碼服務器的框圖。如圖所示,編碼服務器200包括編碼器210、編碼參數(shù)單元220、用于通過使用編碼的ES生成MP4文件的MPEG層4(MP4)文件生成器230,和用于儲存MP4文件的儲存器240。
編碼參數(shù)單元220提供用于對輸入的立體視頻編碼的信息。它設置用于編碼的參數(shù),例如影像的大小、要被編碼的幀數(shù)、幀速、運動檢索(motionsearch)的大小、傳輸比特率,和初始量化系數(shù),并將它們輸入編碼器210。
編碼器210根據(jù)MPEG-4TS和音頻編解碼器對輸入的立體視頻數(shù)據(jù)和音頻數(shù)據(jù)編碼。圖4中示出了編碼器210的內(nèi)部模塊。
參考圖4,編碼器210包括視頻用于對立體視頻數(shù)據(jù)編碼的視頻編碼模塊212、基本流接口(Elementary Stream Interface,ESI)信息生成模塊216、用于對音頻數(shù)據(jù)編碼的音頻編碼模塊218,和用于對OD/BIFS數(shù)據(jù)編碼的OD/BIFS編碼模塊219。
OD/BIFS編碼模塊219對用于描述音頻和場景的場景二進制格式(binaryformat for scene,BIFS)以及用于定義媒體流之間的關系的對象描述符(objectdescriptor,OD)編碼。
ESI信息生成模塊216生成傳輸和解碼ES所需的額外信息,例如ES的數(shù)據(jù)長度、空閑標志、訪問單元(access unit,AU)的長度,所述額外信息被包括在同步層(synchronization layer,SL)的標頭信息中。SL的標頭信息稍后將被描述。
視頻編碼模塊212還包括場分離(field separating)模塊213、基礎層編碼模塊214,和增強層編碼模塊215。場分離模塊213將立體三維視頻數(shù)據(jù)分離為左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場?;A層編碼模塊214對左眼奇數(shù)場編碼,并且增強層編碼模塊215對左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場編碼。
圖5是示出依照本發(fā)明的優(yōu)選實施例,示出由場分離模塊分離的場被輸入MPEG-4結構的每一層的圖。如圖所示,左眼奇數(shù)場被輸入基礎層;左眼偶數(shù)場被輸入第一增強層;右眼奇數(shù)場被輸入第二增強層;而右眼偶數(shù)場被輸入第三增強層。
圖6是示出圖3的MP4文件生成器的框圖。如圖所示,MP4文件生成器230從編碼器210接收視頻/音頻ES、OD/BIFS ES和ESI信息,MP4文件生成器230包括媒體數(shù)據(jù)提供模塊232、元數(shù)據(jù)提供模塊234和MP4文件生成模塊236。
媒體數(shù)據(jù)提供模塊232是用于接收視頻ES、音頻ES和OD/BIFS ES的緩沖器,這些數(shù)據(jù)被以逐場為基礎進行編碼。它將ES傳輸?shù)組P4文件生成模塊236。
元數(shù)據(jù)提供模塊234是用于接收從編碼器210傳輸?shù)腅SI信息,并將ESI信息作為元數(shù)據(jù)傳輸?shù)組P4文件生成模塊236的緩沖器。
MP4文件生成模塊236將輸入的ES和元數(shù)據(jù)轉換為MP4文件格式。這是要生成和儲存如下格式的文件它適于通過接收從編碼器輸出的ES以及用于該ES的額外信息,與用戶所請求的顯示模式一致地提取ES來傳輸。
MP4文件具有兩個區(qū)(zone)一個是用于儲存文件信息的元數(shù)據(jù)區(qū),另一個是用于儲存ES的mdata原子區(qū)(mdata Atom zone)。儲存在mdata原子區(qū)中的ES被給予適當?shù)腅D標識ES ID,以區(qū)別被編碼的ES。
圖7是示出在用于儲存媒體數(shù)據(jù)的mdata原子中的ES的排列的示例圖,根據(jù)右和左、奇數(shù)和偶數(shù)場,ES被給予四個ES ID。圖8是示出通過復用ES的四個場,在mdata原子中的立體視頻數(shù)據(jù)的ES的排列的示例圖。ES被以四個場為基礎(four-field basis)輸入,即左眼奇數(shù)場、右眼偶數(shù)場、左眼偶數(shù)場和右眼奇數(shù)場。一個ES ID被分配給具有相同時間信息的四個場。
通過上述處理生成的MP4文件被儲存在儲存器240中,并被流服務器300提取。
圖9是示出圖2的流服務器300的框圖。如圖所示,流服務器300提取儲存在儲存器240中的MP4文件,或者接收被編碼器210編碼的編碼ES和ESI信息,生成符合用戶的請求的實時傳輸協(xié)議(RTP)分組,并將其傳輸?shù)娇蛻舳?00。
為了生成符合用戶請求的RTP分組,用戶所請求的顯示模式應該被輸入流服務器300。因此,用戶所請求的顯示模式應該被從客戶端600和網(wǎng)絡服務器400輸入,然后被傳輸?shù)搅鞣掌?00。
在本發(fā)明的因特網(wǎng)廣播系統(tǒng)中,視頻數(shù)據(jù)在被劃分為左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場之后被編碼。因此,常規(guī)的二維視頻數(shù)據(jù)、場快門三維視頻數(shù)據(jù)和幀快門三維視頻數(shù)據(jù)都可以被在該系統(tǒng)中處理。
例如,如果用戶想要常規(guī)的二維視頻顯示,則流服務器300傳輸左眼奇數(shù)場和左眼偶數(shù)場的流。如果用戶想要場快門三維視頻顯示,則提取并傳輸左眼奇數(shù)場和右眼偶數(shù)場的流。同樣地,如果用戶想要幀快門三維顯示,則它傳輸所有四個場的流。
如果用戶對顯示模式的請求通過網(wǎng)絡服務器400被輸入MP4文件分析模塊310,則MP4文件分析模塊310從儲存在儲存器240的MP4文件中提取需要的AU流和ESI信息。這里,MP4文件分析模塊310能夠?qū)崟r地從編碼器210接收AU流和ESI信息。
當MP4文件分析模塊310根據(jù)用戶的請求提取AU流和ESI信息時,SL分組生成模塊320生成具有標頭和對于所提取的AU流的有效載荷(payload)的SL分組。SL分組的標頭是用于每一個分組的同步信息,并且,當發(fā)生數(shù)據(jù)丟失時,它被用來檢驗完整性。標頭包括用于控制時間同步的信息,例如時間標記(time stamp)。SL分組的有效載荷是跟在標頭后面的有效信息。有效載荷包括由MP4文件分析模塊310提取的AU流。
生成的SL分組被輸入FlexMux分組生成模塊330FlexMux,并且,F(xiàn)lexMux分組生成模塊330通過將定義分組類型的標頭添加到SL分組來生成FlexMux分組。分組類型指用于將視頻數(shù)據(jù)與音頻數(shù)據(jù)區(qū)分開的信息。
生成的FlexMux分組被輸入RTP分組生成模塊340。然后,RTP分組生成模塊340生成可以被通過因特網(wǎng)實時地傳輸?shù)腞TP分組。
RTP分組是傳輸層的協(xié)議分組,這使得有可能在因特網(wǎng)上實時地傳輸數(shù)據(jù)。通過將包括用于實時數(shù)據(jù)傳輸?shù)男畔⒌臉祟^添加到FlexMux分組可以生成RTP分組。
圖10是描述在流服務器中的分組變換處理的圖。在上面生成的RTP分組通過因特網(wǎng)被實時地傳輸?shù)娇蛻舳?00,并且,安裝在客戶端600上的播放器解碼RTP分組并顯示它。
如果分組是場快門三維視頻RTP分組,則播放器可以通過以被傳輸?shù)捻樞蜉敵鲎笱燮鏀?shù)場流和右眼偶數(shù)場流,而不是區(qū)別左眼奇數(shù)場流和右眼偶數(shù)場流并將它們的時間彼此同步和輸出它們,產(chǎn)生三維距離效果。簡而言之,由于被流服務器300復用的RTP分組是被根據(jù)用戶所請求的顯示模式按需要的場流次序進行分組的,所以客戶端600能夠輸出立體視頻數(shù)據(jù)而無需進行額外的數(shù)據(jù)處理。
本發(fā)明的因特網(wǎng)廣播系統(tǒng)和方法通過對立體視頻數(shù)據(jù)有效地編碼,可以顯著地降低數(shù)據(jù)量,從而降低了傳輸錯誤發(fā)生的概率。因此,有可能在因特網(wǎng)上實時地廣播立體視頻。
此外,根據(jù)用戶所請求的顯示模式,本發(fā)明的因特網(wǎng)廣播系統(tǒng)不僅可以重現(xiàn)立體視頻,也可以重現(xiàn)常規(guī)的二維視頻。
雖然已經(jīng)參考某些優(yōu)選實施例描述了本發(fā)明,但是本領域熟練技術人員將清楚,在不偏離如下面的權利要求所定義的本發(fā)明的范圍的情況下,可以做出各種改變和修改。
權利要求
1.一種用于在因特網(wǎng)上廣播基于MPEG-4的立體視頻數(shù)據(jù)的系統(tǒng),包含編碼服務器,用于將立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和對象描述符/場景二進制格式(OD/BIFS)編碼為具有運動圖像專家組(MPEG)-4結構的基本流(ES),所述OD/BIFS是用于控制內(nèi)容的信息;網(wǎng)絡服務器,從客戶端接收二維視頻顯示模式、場快門視頻顯示模式和幀快門視頻顯示模式中的任意一個;和流服務器,用于通過根據(jù)輸入網(wǎng)絡服務器的顯示模式復用ES,生成用于實時數(shù)據(jù)傳輸?shù)膶崟r傳輸協(xié)議(RTP)分組,并將該RTP分組傳輸?shù)娇蛻舳恕?br>
2.如權利要求1所述的系統(tǒng),其中,所述編碼服務器包括編碼單元,用于將立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和OD/BIFS編碼為具有MPEG-4時域擴縮(TS)結構的ES;編碼參數(shù)單元,用于給編碼單元提供具有影像大小和要被編碼的幀數(shù)的編碼信息;MPEG4(MP4)文件生成單元,用于通過給ES添加元數(shù)據(jù)來生成MP4文件;和儲存器,用于儲存MP4文件。
3.如權利要求2所述的系統(tǒng),其中,所述編碼單元包括OD/BIFS編碼模塊,用于對OD/BIFS數(shù)據(jù)編碼;音頻編碼模塊,用于對音頻數(shù)據(jù)編碼;視頻編碼模塊,用于對立體視頻數(shù)據(jù)編碼;和基本流接口(ESI)信息生成模塊,用于生成傳輸和解碼ES所需的額外信息。
4.如權利要求3所述的系統(tǒng),其中,所述視頻編碼模塊包括場分離模塊,用于將立體視頻數(shù)據(jù)分離為左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場;基礎層編碼模塊,用于對左眼奇數(shù)場編碼;和增強編碼模塊,用于對左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場編碼。
5.如權利要求4所述的系統(tǒng),其中,增強編碼模塊將左眼偶數(shù)場分配給第一增強層,將右眼奇數(shù)場分配給第二增強層,并且將右眼偶數(shù)場分配給第三增強層,并根據(jù)MPEG-4TS結構對左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場編碼。
6.如權利要求4所述的系統(tǒng),其中,MP4文件生成單元通過給予ES中的一組左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場一個ES標識(ES_ID)來生成MP4文件。
7.如權利要求4所述的系統(tǒng),其中,如果從網(wǎng)絡服務器輸入的顯示模式是二維視頻顯示模式,則流服務器將左眼奇數(shù)場和左眼偶數(shù)場的ES傳輸?shù)娇蛻舳?;如果從網(wǎng)絡服務器輸入的顯示模式是場快門顯示模式,則流服務器順序地復用左眼奇數(shù)場和右眼偶數(shù)場的ES,并將該ES傳輸?shù)娇蛻舳?;并且如果從網(wǎng)絡服務器輸入的顯示模式是幀快門顯示模式,則流服務器順序地復用具有左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場的ES,并將該ES傳輸?shù)娇蛻舳恕?br>
8.一種用于基于MPEG-4在因特網(wǎng)上向客戶端廣播立體視頻數(shù)據(jù)的方法,包含步驟a)將立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和對象描述符/場景二進制格式(OD/BIFS)編碼為具有運動圖像專家組(MPEG)-4結構的基本流(ES),所述OD/BIFS是用于控制內(nèi)容的信息;b)從客戶端接收二維視頻顯示模式、場快門視頻顯示模式和幀快門視頻顯示模式中的任意一個;c)通過根據(jù)輸入網(wǎng)絡服務器的顯示模式復用ES,生成用于實時數(shù)據(jù)傳輸?shù)膶崟r傳輸協(xié)議(RTP)分組,并將該RTP分組傳輸?shù)娇蛻舳恕?br>
9.如權利要求8所述的方法,其中,步驟a)包括步驟a1)將立體視頻數(shù)據(jù)編碼為具有MPEG-4 TS結構的ES;a2)通過給ES添加元數(shù)據(jù)來生成MP4文件;和a3)將MP4文件儲存在儲存器中。
10.如權利要求9所述的方法,其中,步驟a1)包括步驟a1-1)對OD/BIFS數(shù)據(jù)編碼;a1-2)對音頻數(shù)據(jù)編碼;a1-3)對立體視頻數(shù)據(jù)編碼;和a1-4)生成傳輸和解碼ES所需的額外信息;
11.如權利要求10所述的方法,其中,步驟a1-3)包括步驟a1-3a)將立體視頻數(shù)據(jù)分離為左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場;a1-3b)對左眼奇數(shù)場編碼;a1-3c)對左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場編碼。
12.如權利要求11所述的方法,其中,在步驟a1-3c),左眼偶數(shù)場被分配給第一增強層;右眼奇數(shù)場被分配給第二增強層;而右眼偶數(shù)場被分配給第三增強層;并且,左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場被根據(jù)MPEG-4結構編碼。
13.如權利要求11所述的方法,其中,在步驟a1-3c),通過給予ES中的一組左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場一個ES_ID來生成MP4文件。
14.如權利要求11所述的方法,其中,在步驟c),如果從網(wǎng)絡服務器輸入的顯示模式是二維視頻顯示模式,則流服務器將左眼奇數(shù)場和左眼偶數(shù)場的ES傳輸?shù)娇蛻舳?;如果從網(wǎng)絡服務器輸入的顯示模式是場快門顯示模式,則流服務器順序地復用左眼奇數(shù)場和右眼偶數(shù)場的ES,并將該ES傳輸?shù)娇蛻舳耍徊⑶?,如果從網(wǎng)絡服務器輸入的顯示模式是幀快門顯示模式,則流服務器順序地復用具有左眼奇數(shù)場、左眼偶數(shù)場、右眼奇數(shù)場和右眼偶數(shù)場的ES,并將該ES傳輸?shù)娇蛻舳恕?br>
全文摘要
提供了一種系統(tǒng)和方法,用于基于運動圖像專家組(MPEG)-4在因特網(wǎng)上向用戶廣播的立體視頻數(shù)據(jù)。該系統(tǒng)包括編碼服務器,用于接收立體視頻數(shù)據(jù)、音頻數(shù)據(jù)和對象描述符/場景二進制格式(OD/BIFS)數(shù)據(jù),并將數(shù)據(jù)編碼為具有MPEG-4結構的基本流(ES),所述OD/BIFS是用于控制內(nèi)容的信息;網(wǎng)絡服務器,用于從客戶端接收二維視頻顯示模式、場快門視頻顯示模式和幀快門視頻顯示模式中的任意一個;以及流服務器,用于通過根據(jù)輸入網(wǎng)絡服務器的顯示模式復用ES,生成用于實時數(shù)據(jù)傳輸?shù)膶崟r傳輸協(xié)議(RTP)分組,并將該RTP分組傳輸?shù)娇蛻舳恕?br>
文檔編號H04N7/173GK1802858SQ200480015863
公開日2006年7月12日 申請日期2004年4月14日 優(yōu)先權日2003年4月17日
發(fā)明者尹國鎮(zhèn), 曹叔嬉, 安忠鉉, 李壽寅 申請人:韓國電子通信研究院