Current Page: | Greybox » Authoring » Course ID: medieninformatik » Modules » Module ID: m04 » Learning Units » Unit ID: 05_40 |
---|---|
Last Modified: | Tuesday, 2015-05-05 - 08:09:08 |
Tools: | Validate — Preview XML Preview HTML Preview PDF |
Alternative: | Printable HTML |
Title: | Standards für Videokonferenzen | ||
---|---|---|---|
Abstract: | H.261 ist ein Standard zur Videokompression, welcher 1990 entwickelt wurde. Der nachfolgende und verbesserte Standard ist H.263, welcher im Standard H.324 enthalten ist. H.263 ist vom Prinzip der Kodierung gleich, allerdings wurden einige Möglichkeiten zur Verbesserung der Performanz hinzugefügt. H.324 wurde entwickelt, um Video, Audio und Datenübertragung für Videokonferenzen über analoge Leitungen möglich zu machen. | ||
Status: | Final for Review #2 - final | Version: | 2004-10-14 |
History: | 2004-10-14
(thomas migl): Abb hinzugefügt 2004-09-23 (Thomas migl): Abb. explanations korrigiert 2004-09-16 (Thomas migl): pda Abb. hinzugefügt 2004-09-19 (Thomas Migl): 1 Pda Abb. hinzugefügt 2004-09-13 (Thomas Migl): Abb hinzugefügt 2004-09-09 (Thomas Migl): Abb. hinzugefügt, 1LOD3 2004-08-16 (Robert Fuchs): Checked, fixed and exported for Review #2. 2004-08-04 (Thomas Migl): ABGESCHLOSSEN: LOD1+2 ausgezeichnet links auf Videobeispiele +++ NOCH ZU MACHEN: einige Abb in Dratft, eventuell genauere Blockauszeichnung, LOD3 Literatur 2004-08-04 (Robert Fuchs): Fixed major tagging bugs in last CorPU. 2004-07-29 (Thomas Migl): Manual import from Word. |
Author 1: | Eva Wohlfart | E-Mail: | evawohlfart@gmx.at |
---|---|---|---|
Author 2: | (empty) | E-Mail: | (empty) |
Author 3: | (empty) | E-Mail: | (empty) |
Author 4: | (empty) | E-Mail: | (empty) |
Author 5: | (empty) | E-Mail: | (empty) |
Organization: | Technische Universität Wien; Institut für Softwaretechnik und Interaktive Systeme; Arbeitsgruppe für Interaktive Multimediale Systeme |
Einführung1Anwendungen
Ziel des Standards
2AnwendungenVideokonferenzen und Videotelefonie haben ein weites Feld von Anwendungen, z.B.
In all diesen Fällen werden Videoinformationen über Telekommunikationsverbindungen wie Netzwerke, Telefonverbindungen oder ISDN gesendet. Video hat eine hohe Bandbreite und daher benötigen solche Applikationen Technologien zur Videokompression und zur Videokodierung. Dafür wurden die Standards H.261 und H.263 entwickelt. Im Jahre 1990 wurde die Empfehlung H.261 (Recommendation H.261) von der CCITT (Comite Consultatif International Telegrahique et Telephonique, heute: International Telecommunication Union – Telecommunication Standardization Sector, abgekürzt ITU-TSS) verabschiedet. Ziel des StandardsDas Ziel der CCITT war dabei die Entwicklung eines Kodierungsverfahrens, sodass bewegte Bilder mit einer Auflösung von bis zu 352x288 Helligkeitspixeln und 176x144 Farbpixeln bei bis zu 30 Hertz mit minimal 64 kBit/s übertragen werden können. H.261 wurde ein Jahr vor MPEG veröffentlicht, daher sind bei der Entwicklung von MPEG viele Dinge aus diesem Standard eingeflossen. Die Details der verwendeten Algorithmen unterscheiden sich zwar, aber grundsätzlich sind sie sehr ähnlich, siehe auch der MPEG-4 Standard. Mitte der 90er Jahre wurde ein erweiterter und verbesserter Standard entwickelt, welcher 1996 fertiggestellt wurde: H.263. Anfangs für Bitraten bis 64 kBit/s spezifiziert, fiel diese Einschränkung jedoch bald. H.263 ist Teil der Spezifikationen von H.320 (Videokonferenz über ISDN) und H.324 (Videokonferenz über analoge Telefonverbindungen mit niedrigen Bitraten). H.2611auto
Unterstützte Bitraten
Unterstützte Bildformate
H.261 Bildformate
Synchronisation
Kontrolle der Bitrate
Aufbau eines H.261-Codecs PCAufbau eines H.261-Codecs PDA_PhoneSource-coder
Prädiktion
Bildsequenz H.261 PC
Bildsequenz H.261 PDA_Phone
Bild von http://www.rcs.ei.tum.de/courses/seminar/realzeit_bv/mpeg/node4.html Blocktransformation
Quantisierung
Entropie-KodierungH.261 Source-coder PC
H.261 Source-coder PDA_Phone
Bild nach http://www.rvs.uni-hannover.de/arbeiten/studien/mfromme/node78.html Video-Multiplex-CoderAufbau des H.261 Datenstroms PC
Aufbau des H.261 Datenstroms PDA_Phone
Bild nach http://www.rvs.uni-hannover.de/arbeiten/studien/mfromme/node79.html GOB
Anordnung der GOBs in CIF und QCIF Bildformaten PC. Anordnung der GOBs in CIF und QCIF Bildformaten PDA_Phone. Bild von http://www.rvs.uni-hannover.de/arbeiten/studien/mfromme/node79.html 2autoH.261 ist ein Kompressionsstandard, der für Videokonferenzen und andere Videodienste über ISDN-Verbindungen entwickelt wurde und spezifiziert nur die Syntax und Semantik des kodierten Bitstroms. Dadurch wird Entwicklern von Enkodern die Freiheit gegeben, den Enkoder an ihre Bedürfnisse anzupassen oder immer weiter zu verbessern, solange der Bitstrom denselben Aufbau behält. Unterstützte BitratenH.261 unterstützt Bitraten von p x 64 kBit/s. Damit sind ganzzahlige Vielfache von 64 kBit/s gemeint, wobei p im Bereich von 1 bis 30 liegen kann. p=1 und p=2 entsprechen der Qualität, die bei Videotelefonie über ISDN-Leitungen passend ist, p=30 ist vergleichbar mit der Qualität eines VHS-Signals (1920 kBit/s). Bei Anwendungen, die bei Videokonferenzen gute Bildqualität benötigen, sollte p mindestens den Wert 6 haben. Unterstützte BildformateH.261 verarbeitet nur progressiv eingelesene Bilder. Die einzelnen Bilder werden als eine Luminanz- und zwei Chrominanzkomponenten Cr und Cb (Helligkeits- und Farbkomponenten) kodiert, wobei die Chrominanzmatrizen ein Viertel der Größe der Luminanzmatrizen besitzen. Zwei Bildformate werden unterstützt: QCIF und CIF. QCIF ist die Abkürzung für Quarter Common Intermediate Format. Dieses Format spezifiziert Datenraten von 10 und 30 frames/Sekunde. Jedes Frame enthält dabei 144 Linien mit jeweils 176 Pixeln. Dies ist ein Viertel der Auflösung des vollen CIF Formats, daher „Quarter“. H.261 Bildformate
SynchronisationDer Enkoder und der Dekoder müssen synchronisiert bleiben, besonders dann, wenn das Videosignal Audioinformationen dabei hat. Der H.261 Bitstrom enthält dafür spezielle Marker, welche dem Dekoder anzeigen, wo die momentanen Daten im Frame hingehören und außerdem den Time code liefern. Wenn der Dekoder die Synchronisation verliert, kann er vorwärts zum nächsten Marker „scannen“, um wieder synchronisiert zu werden und die Dekodierung fortzusetzen. Bei dieser einfachen Methode kann selbst ein kurzer Verlust von Synchronisation zu großen Qualitätsschäden im Video führen, daher müssen besondere Vorsichtsmaßnahmen getroffen werden, wenn ein Videokodierungssystem in einer störungsanfälligen Umgebung arbeiten soll. Eine andere und bessere Möglichkeit der Resynchronisation ist der sogenannte fast update request. Dabei wird ein neues Voll-Bild (Intra-Bild) angefordert. Der Empfänger friert sein Bild ein und wartet auf das Vollbild. Der Sender setzt bei dem nun übermittelten Bild den freeze-picture-release-Flag im Bildkopf. Nach dem Empfang des Vollbilds kann der Empfänger mit der Anzeige des Videosignals fortfahren. Kontrolle der BitrateViele praktischen Anwendungen haben obere Schranken bei der Bitrate. Der H.261 Enkoder generiert eine bestimmte Anzahl von Bits für jedes kodierte Frame. Funktioniert die Bewegungskompensation gut, müssen nicht viele Koeffizienten kodiert werden. Falls dies aber nicht möglich ist, etwa bei einer komplexen Bewegung in der Szene, so werden viele Koeffizienten, die nicht null sind, zu kodieren sein, und die Bitrate steigt. Um diesen Änderungen gerecht zu werden, wendet der Enkoder Bitratenkontrolle an. Dabei wird die Bitrate am Enkoder gemessen, ist sie zu hoch, wird die Kompression durch den Enkoder erhöht, indem der Quantisierungsfaktor erhöht wird. Dadurch wird zwar die Bitrate abgesenkt, die Bildqualität allerdings verschlechtert. Wird am Enkoder ein Absinken der Bitrate registriert, so wird der Quantisierungsfaktor wieder abgesenkt. Aufbau eines H.261-CodecsEin Videosignal, das mit H.261 kodiert wird, durchläuft mehrere Stationen. Diese Komponenten sind der Source coder, der Video multiplex coder und die Sendekomponenten Transmissionsbuffer und Transmissionscoder. Der Decoder besteht aus den Empfangsteilen Empfangsdecoder und Empfangsbuffer und dem Video multiplex decoder und dem Source decoder. Wesentlich für die Arbeitsweise sind vor allem der Source coder und der Video multiplex coder, welche in den folgenden Kapiteln behandelt werden. H.261 Codec PCEin Videosignal durchläuft sowohl bei der Kodierung als auch bei der Dekodierung mehrere Stufen. Im Source coder erfolgt die Kodierung und Kompression, der Video multiplex coder erzeugt aus dem Signal einen hierarchischen Datenstrom. Transmissions- und Empfangskomponenten dienen zur Übermittlung des Signals. Der Video multiplex decoder und der Source decoder erzeugen aus dem kodierten Datenstrom wieder ein Videosignal. Aufbau eines H.261-Codecs PDA_PhoneEin Videosignal durchläuft sowohl bei der Kodierung als auch bei der Dekodierung mehrere Stufen. Im Source coder erfolgt die Kodierung und Kompression, der Video multiplex coder erzeugt aus dem Signal einen hierarchischen Datenstrom. Transmissions- und Empfangskomponenten dienen zur Übermittlung des Signals. Der Video multiplex decoder und der Source decoder erzeugen aus dem kodierten Datenstrom wieder ein Videosignal. Source-coderDie wesentlichen Elemente des Source coders sind Prädiktion, Blocktransformation und Quantisierung, welche in den folgenden Abschnitten beschrieben werden. H.261 lässt der Implementierung des Source coders weiten Spielraum, da nur die Anforderungen an die Dekodierung spezifiziert werden. Ein Source coder muss so arbeiten, dass der Decoder das zu übertragende Bild innerhalb festgelegter Fehlergrenzen rekonstruieren kann. PrädiktionZwei Kodierungsarten werden unterstützt: Intra- und Interkodierung (Siehe auch Frames in MPEG Video und MPEG Video Kodierungsprinzip). Bei Intrakodierung werden die Bilder in 8x8-Pixelblöcke unterteilt und nur mit Referenz auf sich selbst kodiert. Danach werden sie direkt zum Prozess der Blocktransformation geschickt. Intrakodierte Bilder müssen mit einer gewissen minimalen Frequenz gesendet werden, um einen Verlust an Synchronisation zwischen Sender und Empfänger zu verhindern. Bei Interkodierung werden Bilder mit Bezug auf andere Bilder kodiert. Intrakodierte Bilder bezeichnet man als Intra Pictures (I-Bilder) und interkodierte Bilder als Predicted Pictures (P-Bilder).Es werden die gleichen Bewegungskompensationstechniken benutzt wie füe MPEG Video. Bildsequenz H.261 PC
Im H.261 Standard gibt es zwei Arten von Bildkodierungen: intra- und interkodierte Bilder. Intrakodierte Bilder werden vollständig und ohne Bezug auf andere Bilder kodiert. Interkodierte Bilder werden mit Bezug auf andere Bilder kodiert, man nennt sie auch Predicted Pictures. Bildsequenz H.261 PDA_Phone
Im H.261 Standard gibt es zwei Arten von Bildkodierungen: intra- und interkodierte Bilder. Intrakodierte Bilder werden vollständig und ohne Bezug auf andere Bilder kodiert. Interkodierte Bilder werden mit Bezug auf andere Bilder kodiert, man nennt sie auch Predicted Pictures. Bild von http://www.rcs.ei.tum.de/courses/seminar/realzeit_bv/mpeg/node4.html BlocktransformationBei der Blocktransformation werden intrakodierte Bilder und Prädiktionsfehler der interkodierten Bilder in 8x8 Pixel große Blöcke unterteilt. Dann wird auf jedem dieser Blöcke eine DCT (Diskrete Cosinus Transformation) durchgeführt. Die Bilder werden ähnlich den Frames in MPEG Video kodiert. QuantisierungIn diesem Schritt wird versucht, den Kompressionsfaktor zu erhöhen, indem die DCT-Koeffizienten mit keiner größeren Präzision dargestellt werden, als es für die gewünschte Bildqualität notwendig ist. Dabei werden die einzelnen Stellen der Matrix der DCT-Koeffizienten durch einen vorgegebenen Quantisierungsfaktor dividiert. Durch Wahl des Quantisierungskoeffizienten kann die Bitrate der verfügbaren Bandbreite angepasst werden. Die quantisierten Werte, welche in H.261 Levels genannt werden, sind auf einen Zahlenbereich von -128 bis 127 beschränkt. Diese Levels werden mit einem Code variabler Bitlänge übertragen. Entropie-KodierungDurch die Entropie-Kodierung erfolgt die eigentliche Kompression, indem häufigen Symbolen kürzere Codewörter und selteneren Symbolen längere Codewörter zugewiesen werden. Dabei wird Huffman- und Runlength-Kodierung verwendet. Bei der Runlength-Kodierung werden langen Folgen von gleichen Werten Paare (Lauflänge, Wert) zugewiesen. Dabei kann eine erhebliche Einsparung von Daten erzielt werden. H.261 Source-coder PC
Durch die Kodierung wird zwischen Intra- und Interframes ausgewählt. Die jeweiligen Bilder werden in 8x8 Pixel große Blöcke unterteilt und gekennzeichnet, ob sie üertragen werden oder nicht. Die zu übertragenden Blöcke werden transformiert, die Koeffizienten quantisiert und mit einem Code variabler Bitlänge ausgegeben. H.261 Source-coder PDA_Phone
Durch die Kodierung wird zwischen Intra- und Interframes ausgewählt. Die jeweiligen Bilder werden in 8x8 Pixel große Blöcke unterteilt und gekennzeichnet, ob sie üertragen werden oder nicht. Die zu übertragenden Blöcke werden transformiert, die Koeffizienten quantisiert und mit einem Code variabler Bitlänge ausgegeben. Video-Multiplex-CoderDer Video-Multiplex-coder formt aus den einzelnen Makroblöcken einen hierarchischen Datenstrom. Dabei gibt es vier Schichten: Die Bild-Schicht korrespondiert mit einem Videoframe. Die Blockgruppenschicht stellt ein Zwölftel eines CIF-Bildes oder ein Drittel eines QCIF-Bildes dar. In der Makroblockschicht sind die Helligkeits- und Farbinformationen über die Makroblöcke enthalten. Diese bestehen aus einer 16x16 Pixel großen Luminanzmatrix und den zwei räumlich dazugehörenden 8x8 Pixel großen Chrominanzmatrizen. Die Blockschicht enthält einen 8x8-Pixelblock der DCT. Aufbau des H.261 Datenstroms PC
Der Datenstrom in H.261 ist aus vier Schichten hierarchisch aufgebaut: die oberste Schicht repräsentiert das gesamte Bild, die zweite eine Blockgruppe (GOB – Group of Blocks), die dritte einen Makroblock und die vierte einen 8x8 Pixelblock. Aufbau des H.261 Datenstroms PDA_Phone
Der Datenstrom in H.261 ist aus vier Schichten hierarchisch aufgebaut: die oberste Schicht repräsentiert das gesamte Bild, die zweite eine Blockgruppe (GOB – Group of Blocks), die dritte einen Makroblock und die vierte einen 8x8 Pixelblock. GOBDie Bildebene besteht aus einem 20-Bit Bildstartcode, der Bildnummer, Informationen über den Bildstatus und den GOB-Daten (GOB - Group of Blocks). Der Bildstatus enthält Flags für aktives Screen-Splitting, das freeze-picture-release Kommando und das momentane Videoformat. Die GOB-Schicht repräsentiert einen Block eines Bildes. Ein GOB besteht aus dem 16-Bit Startcode, der Gruppennummer, der Quantisierungsschrittweite und den folgenden Makroblockdaten. Die Quantisierungsschrittweite gilt für alle Makroblöcke der Gruppe, wenn sie nicht durch eine zusätzliche Quantisierungsangabe im Makroblock überschrieben wird.Ein GOB besteht aus 33 Makroblöcken, die zeilenweise im GOB angeordnet sind. Makroblöcke enthalten neben den Luminanz- und Chrominanz-Koeffizienten Informationen über den Blocktyp und eventuell eine eigene Quantisierungsschrittweite. Dazu kommen noch der Bewegungsvektor des Makroblocks und ein Bitvektor, der angibt, welche Blöcke des Makroblocks überhaupt übertragen werden. Makroblöcke ohne Information werden ausgelassen. In der Blockschicht besteht jeder Block aus den Fourier-Koeffizienten und einem Blockende-Kennzeichen. Die Fourier-Koeffizienten werden dabei mit aufsteigender Frequenz übertragen. Anordnung der GOBs in CIF und QCIF Bildformaten PC. Die Anordnung der GOBs ist von Format zu Format unterschiedlich. Das kleinere Format QCIF enthält nur 3 Blockgruppen, daher stellt eine GOB-Schicht auch ein Drittel des Bildes dar. Das CIF-Format hat 12 GOB. Anordnung der GOBs in CIF und QCIF Bildformaten PDA_Phone. Die Anordnung der GOBs ist von Format zu Format unterschiedlich. Das kleinere Format QCIF enthält nur 3 Blockgruppen, daher stellt eine GOB-Schicht auch ein Drittel des Bildes dar. Das CIF-Format hat 12 GOB. Bild von http://www.rvs.uni-hannover.de/arbeiten/studien/mfromme/node79.html FehlerkorrekturFehlerkorrektur kann als eine Option im Multiplexer aktiviert werden. 3
H.2631auto
Unterstützte Bildformate
Optionen zur Erhöhung der Performanz
2autoDer verbesserte Standard H.263 unterstützt mehr Bildformate als H.261, wodurch ein größerer Anwendungsbereich abgedeckt werden kann. Der Algorithmus bei der Kodierung ist dem vorausgehenden Standard H.261 sehr ähnlich, es wurden allerdings einige Verbesserungen hinzugefügt: Bei der Bewegungskompensation wird eine Genauigkeit von einem halben Pixel statt einem Pixel wie in H.261 verwendet (siehe auch Lerneinheit Bewegungskompensation). Außerdem wurden einige Teile des hierarchisch aufgebauten Bitstroms in H.261 optional gemacht. Dadurch ist eine größere Flexibilität im Kodierungsprozess möglich, etwa eine Anpassung an niedrige Bitraten oder erhöhte Fehlerkorrektur. Unterstützte BildformateIm Vergleich zu H.263 unterstützt H.263 eine Reihe weiterer Bildformate. Die Auflösungen wurden sowohl nach oben als auch nach unten erweitert, H.263 kennt ein noch kleineres Format als QCIF, nämlich SQCIF, und auch größere Formate, die 4- oder 16-mal so groß sind wie CIF. Durch die Unterstützung von solchen großen Formaten wird es möglich, mit anderen Standards zu konkurrieren, wie etwa MPEG. Unterstützte Bildformate von H.263
H.263 unterstützt eine Reihe von Formaten, um möglichst vielen Anwendungen gerecht zu werden. Die Spanne reicht dabei von kleinen Formaten wie SQCIF bis zu großen wie 16CIF. Optionen zur Erhöhung der PerformanzNeben den schon erwähnten Verbesserungen wurden vier Möglichkeiten hinzugefügt, um die Performanz des Enkoders zu erhöhen. Diese sind optional und müssen nicht verwendet werden. Uneingeschränkte Bewegungsvektoren (unrestricted motion vectors)In diesem Modus dürfen Bewegungsvektoren aus dem Bild herauszeigen. Die Randpixel werden zur Prädiktion für nicht existente Pixel verwendet. Dies bringt insbesondere dann eine große Verbesserung bei der Prädiktion, wenn eine Bewegung am Bildrand stattfindet, besonders bei kleinen Bildformaten. Außerdem setzt dieser Modus einen größeren Bereich zur Vektorsuche fest. So können längere Bewegungsvektoren eingesetzt werden, was besonders bei bewegter Kameraführung nützlich ist. Erweiterte Prädiktion (advanced prediction)Hier werden anstatt eines 16x16-Pixelblocks vier überlappende 8x8-Blöcke bei der Bewegungskompensation benutzt. Dies ist das gleiche Verfahren, wie es auch bei MPEG-4 angewandt wird (siehe auch Lerneinheit Bewegungskompensation). Bewegungsvektoren dürfen wie bei den uneingeschhränkten Bewegungsvektoren außerhalb des Bildes zeigen, welcher Vektor verwendet wird, entscheidet der Enkoder. Vier Vektoren statt einem verbrauchen zwar mehr Bits, ergeben aber eine bessere Prädiktion, was zu verminderten Blockartefakten führt. Syntaxbasierte Arithmetische KodierungDabei wird bei der Entropie-Kodierung anstatt der Huffmankodierung arithmetische Kodierung verwendet. Dies resultiert im Mittel in einer geringeren Anzahl von Bits und damit einer höheren Kompressionsrate. PB-BilderDer Name dieser Bilder kommt von den in MPEG benutzten Predicted- und Bidirectional-Pictures. Ein PB-Bild besteht eigentlich aus zwei Bildern, die als eine Einheit kodiert werden: einem Bild, das durch Prädiktion aus dem vorigen Bild entstanden ist, und einem, das aus dem vorigen und dem gerade kodierten entsteht. Bei einfachen Sequenzen verdoppelt der PB-Modus die Framerate, erhöht aber die Bitrate kaum. Die Güte des PB-Modus ist zwar MPEG unterlegen, er produziert aber weniger Overhead und ist für Verbindungen mit niedriger Bitrate wie Bildtelefon geeignet. 3
Performance H.261 versus H.2631Vergleich zwischen H.261 und H.263 bezüglich Bildqualität/Bitrate PC cher1999Vergleich zwischen H.261 und H.263 bezüglich Bildqualität/Bitrate PDA_Phone cher1999Bild von www-mobile.ecs.soton.ac.uk/peter/h263/h263.html Vergleich zwischen H.261 und H.263 bezüglich Bildqualität durch Kompressionsrate PC cher1999Vergleich zwischen H.261 und H.263 bezüglich Bildqualität durch Kompressionsrate PDA_Phone cher19992Vergleich zwischen H.261 und H.263 bezüglich Bildqualität/Bitrate PC cher1999Besonders bei hoher Bitrate zeigt H.263 deutlich bessere Leistungen und Bildqualität als H.261. Dies ergibt sich durch die zusätzlichen Möglichkeiten zur Performanzverbesserung. Vergleich zwischen H.261 und H.263 bezüglich Bildqualität/Bitrate PDA_Phone cher1999Besonders bei hoher Bitrate zeigt H.263 deutlich bessere Leistungen und Bildqualität als H.261. Dies ergibt sich durch die zusätzlichen Möglichkeiten zur Performanzverbesserung. Bild von www-mobile.ecs.soton.ac.uk/peter/h263/h263.html Vergleich zwischen H.261 und H.263 bezüglich Bildqualität durch Kompressionsrate PC cher1999Ein Beispielclip wurde mit H.263 und H.261 kodiert und die Ergebnisse verglichen: Wie man in der Abbildung sieht, zeigt H.263 besonders in niedrigen Kompressionsraten einen deutlichen Unterschied zu H.261 in der Bildqualität. Vergleich zwischen H.261 und H.263 bezüglich Bildqualität durch Kompressionsrate PDA_Phone cher1999Ein Beispielclip wurde mit H.263 und H.261 kodiert und die Ergebnisse verglichen: Wie man in der Abbildung sieht, zeigt H.263 besonders in niedrigen Kompressionsraten einen deutlichen Unterschied zu H.261 in der Bildqualität. Vergleich von H.263 H.261 mit MPEG Video1Vergleich von H.261 und H.263 mit den MPEG-Standards
2Vergleich von H.261 und H.263 mit den MPEG-StandardsIn den Details finden sich sehr viele Unterschiede von H.263 und MPEG. Zwei große Unterschiede sind aber besonders wichtig, besonders für digitales Fernsehen, wodurch auch klar wird, warum zur Kodierung von digitalen Fernsehdaten MPEG-2 verwendet wird:
H.3241auto
H.324 PrinzipUmbrellastandard H.324 umbr2004 PCUmbrellastandard H.324 umbr2004 PDA_PhoneBildtelefon bild2004 PC
Bildtelefon bild2004 PDA_Phone
Qualitätsmerkmale
2autoDer H.324 Standard wurde für die Abwicklung von Videokonferenzen mittels „stand-alone“-Geräten, die sich wie heutzutage Telefone in jedem Haushalt befinden, entwickelt und spezifiziert eine Methode um Video, Audio und andere Daten über Modemverbindungen mit Hochgeschwindigkeit zu übermitteln. H.324 enthält die Standards H.263 zur Videokompression, G.723 (arbeitet ähnlich wie CELP) zur Audiokompression und T.120, welcher ein Standard für Datenübermittlung bei Konferenzen ist. Außerdem sind die Standards H.223, der das Multiplexing der einzelnen Datenströme regelt, und H.245, das Kontrollprotokoll für die Übertragungen, enthalten. Damit ist H.324 der erste Standard, der Interoperabilität über eine einzelne analoge Leitung gewährleistet. H.324 PrinzipH.324 verwendet eine Modemverbindung zwischen zwei Teilnehmern, ähnlich wie bei einer üblichen Verbindung zum Internet. Sobald eine Modemverbindung besteht, beschreibt der Standard, wie digitales Video und Audiosignale mittels bestimmter Kompressionstechnologien in ein digitales Signal umgewandelt werden. Stimmen, also Audiosignale, werden zu einer Rate von etwa 6000 Bits/sSekunde komprimiert. Videobilder werden ebenfalls komprimiert, dabei wird H.263 verwendet. Umbrellastandard H.324 umbr2004 PCH.324 ist ein sogenannter „Umbrella“-Standard (Dachstandard) für mehrere Standards, welche alle wichtige Algorithmen für die Abwicklung von Videokonferenzen beinhalten. Umbrellastandard H.324 umbr2004 PDA_PhoneH.324 ist ein sogenannter „Umbrella“-Standard (Dachstandard) für mehrere Standards, welche alle wichtige Algorithmen für die Abwicklung von Videokonferenzen beinhalten.
Bildtelefon bild2004 PC
Der H.324 Standard wurde von der ITU spezifiziert und bietet eine solide Grundlage für Kommunikation über Telefon mittels Audio und Video bei guter Qualität. Außerdem können auch Daten bei Videokonferenzen übermittelt werden. Bildtelefon bild2004 PDA_Phone
Der H.324 Standard wurde von der ITU spezifiziert und bietet eine solide Grundlage für Kommunikation über Telefon mittels Audio und Video bei guter Qualität. Außerdem können auch Daten bei Videokonferenzen übermittelt werden. QualitätsmerkmaleDie Videoqualität ist zwar besser als in vielen früheren Versionen von Produkten, die Video über analoge Telefonverbindungen geleitet haben, allerdings bietet H.324 keine TV-Qualität. Die Stimme der Person, mit der man spricht, hört sich wie eine Stimme bei einem üblichen Telefonanruf an, das Videobild variiert je nachdem, welche Auflösung verwendet wird. Falls das Bild z.B. in einer Größe von 176x132 Pixeln übermittelt wird, kann das Videobild mit einer Framerate von bis zu 15 Frames/Sekunde übermittelt werden, was etwa der Hälfte der beim Fernsehen verwendeten Framerate entspricht. Die tatsächliche Framrate hängt aber immer auch davon ab, wie groß ein Videobild ist und wie sehr sich die Teilnehmer während einem Videotelefonanruf bewegen. 3Ein Beispiel, wie ein solches stand-alone Bildtelefon, das mit den H.324 Standard arbeitet, aussehen kann, ist unter http://home.t-online.de/home/com-com/bildtele.htm zu sehen. |
(empty) |