Current Page: Greybox » Authoring » Course ID: medieninformatik » Modules » Module ID: m04 » Learning Units » Unit ID: 04_17
Last Modified:Tuesday, 2015-05-05 - 08:09:11
 
Tools: ValidatePreview XML Preview HTML Preview PDF
Alternative: Printable HTML

 

Learning Unit ID: 04_17
Title: Grundlagen der perzeptuellen Bildkodierung
Abstract: Die Aufgabe der Bildcodierung ist die Reduktion der zu übertragenden Datenmenge. Eine Entwicklungstendenz ist das Erzielen immer höherer Reduktionsfaktoren unter Ausnutzung von Inhaltsmerkmalen der Bilder. Weiters können bei der Kompression gewisse Eigenschaften der menschlichen Wahrnehmung ausgenutzt werden, indem man gewisse Details, die die menschliche Wahrnehmung sowiese nicht verarbeiten könnte erst gar nicht codiert. So lassen sich komprimiertere Darstellungen erzeugen ohne auf ein anspruchsvolles Ergebnis verzichten zu müssen. Dieses Kapitel behandelt die Grundlagen der menschlichen Wahrnehmung bezüglich des Sehsinns (Gesichtsinns), die Empfindlichkeit des Auges hinsichtlich Helligkeit, Kontrast und Farbe und deren Auswirkungen auf die Bildcodierung, u.a. durch die Technik der Unterabtastung (Subsampling).
 
Status: Final for Review #2 - Version: 2005-01-20
History: 2005-02-21 (Martin Hon): fehlerhafte verschachtelungen von xSource und xRendering ausgebessert
2005-01-20 (Thomas migl): fehlerhafte renderings-auszeichnung ausgebessert
2004-11-04 (Thomas migl): acro added
2004-09-23 (Thomas Migl): Beschriftungen und blockauszeichnungen korrigiert
2004-09-17 (thomas Migl): fehlende Abb. hinzugefügt
2004-09-16 (Thomas Migl): einige pdas hinzugefügt, Bilderz.T. neu beschriftet
2004-09-15 (Thomas Migl): einige pda abb. hinzugefügt
2004-09-13 (Thomas Migl): PC Abb eingefügt
2004-08-16 (Robert Fuchs): Checked, fixed and exported for Review #2.
2004-07-30 (Thomas Migl): LOD2 stark gekürzt, LOD1 geschrieben, Vollversion als pdf in LOD3
2004-07-29 (Robert Fuchs): More tagging, started with LOD 1.
2004-07-28 (Robert Fuchs): Import from "m4-LU17-perzeptuelle bildkodierung-Tschurlovits.doc", version 03.06.2004.

Author
Author 1: Marie-Theres Tschurlovits E-Mail: tschurlo.mth@gmx.at
Author 2: (empty) E-Mail: (empty)
Author 3: (empty) E-Mail: (empty)
Author 4: (empty) E-Mail: (empty)
Author 5: (empty) E-Mail: (empty)
Organization: Technische Universität Wien; Institut für Softwaretechnik und Interaktive Systeme; Arbeitsgruppe für Interaktive Multimediale Systeme; http://www.ims.tuwien.ac.at/

Content

Sehen und Wahrnehmung: Aufbau des visuellen Systems

1

Wahrnehmung der Umwelt

  • Abbildung auf der Netzhaut (Retina)
  • Umwandlung der Reize in neuronale Signale

Nervenzellen

  • Aufnahme, Verarbeitung und Weiterleitung von optischen Reizen
  • Neuronen
    • Elementare Bausteine des Nervensystems
  • Photorezeptoren
    • Stäbchen
    • Zapfen

Aufbau des visuellen Systems

Abbildung: Aufbau des visuellen Systems PC

Abbildung: Aufbau des visuellen Systems PDA_Phone

Abbildung: Aufbau des visuellen Systems

  • Sichtbares Licht wird vom Auge aufgenommen
  • Ein Abbild entsteht auf der Netzhaut
  • Auf der Netzhaut angesiedelte Photorezeptoren reagieren mit elektrischen Signalen
  • Der Sehnerv leitet die elektrischen Signale zum Gehirn weiter

Menschliche Wahrnehmung im elektromagnetischen Spektrum

Abbildung: Spektrum des sichtbaren LichtPC

  • Nur ein kleiner Ausschnitt des elektromagnetischen Spektrums ist wahrnehmbar
  • Wellenlängen im Bereich von 400 bis 700 nm

Abbildung: Spektrum des sichtbaren Licht PDA_Phone

  • Nur ein kleiner Ausschnitt des elektromagnetischen Spektrums ist wahrnehmbar
  • Wellenlängen im Bereich von 400 bis 700 nm

2

Wahrnehmung der Umwelt

Wie man die Umwelt wahrnimmt hängt sowohl von den Eigenschaften der Umwelt selbst, aber auch von den Eigenschaften des visuellen Systems des Menschen ab. Beim Sehen wird der betrachtete Ausschnitt der Umgebung auf die Netzhaut (Retina) abgebildet. Die eintreffenden Reize werden in neuronale Signale umgewandelt, und im visuellen System in Verbindung mit sensumotorischen Informationen und den Informationen der anderen Sinnesorgane und des Gedächtnisses verarbeitet. Dieser komplexe Verarbeitungsprozess stellt die Grundlage der Wahrnehmung dar.

Zu Beginn des Sehvorgangs wird sichtbares (meist reflektiertes) Licht vom Auge aufgenommen. Das Licht wird von der Hornhaut und der Linse fokussiert und erzeugt in weiterer Folge eine Abbildung auf der Netzhaut (Retina). Die Netzhaut selbst ist eine dünne aus Neuronen bestehende Schicht, die den hinteren Teil des Augapfels auskleidet.

Nervenzellen

Neuron gold2002, 706

Ein Neuron ist ein elementarer Baustein des Nervensystems, der Reize aufnimmt, verarbeitet und weiterleitet.

Stäbchen und Zapfen gold2002, 41 gold2002, 51

Zu den Neuronen zählen auch Stäbchen und Zapfen. Diese sind Photorezeptoren, die auf einfallendes Licht mit elektrischen Signalen reagieren. Die so entstandenen elektrischen Signale werden durch das Neuronennetzwerk verarbeitet und gelangen grob gesehen über den Sehnerv zum Gehirn.

Der Aufbau des visuellen Systems gold2002, 52

Abbildung: Aufbau des visuellen Systems PC

Abbildung: Aufbau des visuellen Systems PDA_Phone

Abbildung: Aufbau des visuellen Systems

Die Abbildung zeigt den Aufbau des visuellen Systems des Menschen. Zu Beginn des Sehvorgangs wird sichtbares (meist reflektiertes) Licht vom Auge aufgenommen. Das Licht wird von der Hornhaut und der Linse fokussiert und erzeugt in weiterer Folge eine Abbildung auf der Netzhaut (Retina). Die in der Netzhaut angesiedelten Photorezeptoren (Stäbchen und Zapfen) reagieren auf das einfallende Licht mit elektrischen Signalen, die durch ein Neuronennetzwerk verarbeitet und über den Sehnerv zum Gehirn weitergeleitet werden.

Menschliche Wahrnehmung im elektromagnetischen Spektrum

Das für den Menschen sichtbare Licht, deckt nur einen kleinen Ausschnitt des elektromagnetischen Spektrums ab. Sehen ist die Verarbeitung der im sichtbaren Licht enthaltenen Information. Das sichtbare Licht hat Wellenlängen im Bereich zwischen 400 und 700 nm. Dehnt man diesen Bereich des Spektrums, erhält man die Farben, die ein Mensch mit normaler Farbwahrnehmung sehen kann.

Das sichtbare Licht im elektromagnetischen Spektrum

Abbildung: Spektrum des sichtbaren LichtPC

Abbildung: Spektrum des sichtbaren Licht PDA_Phone

Abbildung: Spektrum des sichtbaren Licht

Weißes (Sonnen)Licht, das durch ein Prisma fällt, spaltet sich in die so genannten Spektralfarben auf. Dieses sichtbare Licht deckt nur einen sehr kleinen Teil des gesamten elektromagnetischen Spektrums, im Bereich von ca. 400-700 nm, ab.

Sehen und Wahrnehmung: Eigenschaften von Stäbchen und Zapfen

1

Unterschied von Stäbchen und Zapfen gold2002, 53

  • Unterschiede Zapfen und Stäbchen
    • Form
    • Verteilung auf Netzhaut
    • Funktion
  • Gemeinsamkeiten Zapfen und Stäbchen
    • Sehpurpur - lichtempfindliches Sehpigment
      • Formänderung bei Lichteinwirkung
        • Formänderung bewirkt bioelektrisches Signal

Eigenschaften von Stäbchen und Zapfengold2002, 53 ohm1995, 170

  • Zapfen
    • photopisches Sehen
    • arbeiten bei hellem Licht
    • Farbsehen
    • hohe Empfindlichkeit gegenüber Details
  • Stäbchen
    • skotopisches Sehen
    • arbeitet bei schwachem Licht
    • nur Grauwerte erkennbar
    • wenig detailempfindlich

Anordnung der drei Zapfensorten im Bereich der Fovea gold2002, 52

Abbildung:Anordnung der drei Zapfensorten im Bereich der Fovea PC

Abbildung:Anordnung der drei Zapfensorten im Bereich der FoveaPDA_Phone

Anordnung der Rezeptoren gold2002, 49 ohm1995, 170

  • Zwei markante Regionen auf Netzhaut
    • Fovea (centralis)
      • größte Sehschärfe
    • Blinder Fleck
      • Austriits des Sehnervs
  • Anordnung Zapfen und Stäbchen auf Netzhaut
    • Zapfen vermehrt in der Mitte (insgesamt 6 Millionen)
    • Stäbchenanzahl nimmt den Rand hin zu (insgesamt 120 Millionen)

Abbildung: Anordnung der Rezeptoren ohm1995, 170PC

Abbildung: Anordnung der Rezeptoren ohm1995, 170PDA_Phone

2

Unterschied von Stäbchen und Zapfen

Zapfen und Stäbchen unterscheiden sich durch ihre unterschiedliche Form und ihre Verteilung auf der Netzhaut. Weiters unterscheiden sich die beiden Rezeptorenarten auch durch ihre Funktion. Diese unterschiedlichen Eigenschaften beeinflussen unsere Wahrnehmung. Beide jedoch enthalten ein lichtempfindliches Sehpigment (Seh-purpur). Dieses reagiert auf Licht mit einer Formänderung, was in Folge zu einem bioelektrischen Signal führt. gold2002, 53

Eigenschaften von Stäbchen und Zapfen

Je nach Beleuchtungsintensität kommt die eine oder andere Art von Rezeptoren zum Einsatz. Im hellen Tageslicht verwendet das visuelle System die Zapfen (photopisches Sehen). Das bedeutet, dass man Farben sehen und einzelne Details ausmachen kann. Ist die Beleuchtung jedoch eher schwach (z.B. in der Dämmerung) werden die Stäbchen eingesetzt (skotopisches Sehen). Dieser Typ von Rezeptoren kann im Gegensatz zu den Zapfen keine einzelnen Details auflösen und ist nicht auf das Farbsehen ausgerichtet. Deshalb ist man bei schwacher Ausleuchtung nicht in der Lage Farben zu unterscheiden und kann die Umgebung nur in Grautönen wahrnehmen. Auch lässt sich dadurch erklären, dass man nachts kaum in der Lage ist einzelne Details auszumachen, da die Stäbchen nicht auf die Auflösung von Details spezialisiert sind. gold2002, 53 ohm1995, 170

Anordnung der drei Zapfensorten im Bereich der Fovea gold2002, 52

Abbildung:Anordnung der drei Zapfensorten im Bereich der Fovea PC

Abbildung:Anordnung der drei Zapfensorten im Bereich der Fovea PDA_Phone

Abbildung:Anordnung der drei Zapfensorten im Bereich der Fovea

Die Abbildung zeigt die Anordnung der drei Sorten von Zapfen nahe der Fovea. Die Zapfen, die kurzwelliges Licht verarbeiten erscheinen blau, die für Licht mittlerer Wellenlänge grün. Für langwelliges Licht sind die in der Abbildung rot gefärbten Zapfen verantwortlich. Man sieht, dass im Bereich der Fovea hauptsächlich Zapfen für die Verarbeitung langwelligeren Lichts angesiedelt sind.

Anordnug der Rezeptoren

Die Netzhaut weist zwei markante Regionen auf:

  • Fovea (centralis): Die Fovea ist die Stelle der Netzhaut mit der größten Sehschärfe und liegt annähernd im Zentrum der Retina. An dieser Stelle befinden sich ausschließlich Zapfen (siehe nächste Abbildung,links bzw. oben), die in einem näherungsweise hexagonalen Raster angeordnet sind.
  • Blinder Fleck: An dieser Stelle verlässt der Sehnerv die Netzhaut. Lichtstrahlen, die auf den blinden Fleck fallen, können nicht wahrgenommen werden.

Während im Zentrum der Netzhaut ausschließlich Zapfen angeordnet sind nimmt zum Rand der Retina der Anteil an Stäbchen zu (siehe nächste Abbildung, rechts bzw. unten). An den äußersten Rändern sind nur noch Stäbchen angeordnet. Auf der gesamten Netzhaut befinden sich zwar an die 120 Millionen Stäbchen jedoch nur ca. 6 Millionen Zapfen. gold2002, 49 ohm1995, 170

Anordnung der Rezeptoren ohm1995, 170

Abbildung: Anordnung der Rezeptoren ohm1995, 170PC

Abbildung: Anordnung der Rezeptoren ohm1995, 170PDA_Phone

Abbildung: Anordnung der Rezeptoren

Im Zentrum der Netzhaut befinden sich ausschließlich Zapfen (links). Je näher man sich dem Randbereichen der Netzhaut nähert, desto größer wird der Anteil der Stäbchen (rechs).

Sehen und Wahrnehmung: Spektrale Hellempfindlichkeit

1

Schwelle für das Sehen eines Lichtpunktes gold2002, 57

Abbildung:Schwelle für das Sehen eines Lichtpunktes PC

Abbildung:Schwelle für das Sehen eines LichtpunktesPDA_Phone

Absorptionsspektrum

Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58

Abbildung:Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58 PC

Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58PDA_Phone

Absorptionsspektrum der drei menschlichen Zapfenpigmente gold2002, 60

Abbildung:Absorptionsspektrum der drei menschlichen Zapfenpigmente PC

Abbildung:Absorptionsspektrum der drei menschlichen ZapfenpigmentePDA_Phone

2

Wellenlänge

Lichtenergie breitet sich wellenförmig aus. Unter der Wellenlänge versteht man den Abstand zwischen den Amplituden der Lichtwellen.

Schwelle für das Sehen eines Lichtpunktes gold2002, 57

Abbildung:Schwelle für das Sehen eines Lichtpunktes PC

Abbildung:Schwelle für das Sehen eines Lichtpunktes PDA_Phone

Abbildung:Schwelle für das Sehen eines Lichtpunktes

Die Kurve zeigt, dass die Schwelle in der Mitte des Spektrums am niedrigsten ist. Daraus folgt, dass zum Sehen von mittleren Wellenlängen eine geringere Lichtintensität benötigt wird als für die kurz- bzw. langwelligen Endbereiche. Nimmt man die Reziprokwerte der Schwellwerte erhält man die Kurve der spektralen Hellempfindlicheit.

Absorptionsspektrum

Ein Absorptionsspektrum ist die Darstellung der Lichtmenge, die ein Sehpigment absorbiert, aufgetragen gegen die Wellenlänge des Lichtes.

Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58

Abbildung:Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58 PC

Abbildung:Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58 PDA_Phone

Abbildung:Spektrale Hellempfindlichkeitskurven für Stäbchen- und Zapfensehen gold2002, 58

Die Abbildung zeigt einen Vergleich der spektralen Hellempfindlichkeit von Zapfen und Stäbchen. Die höchste Empfindlichkeit liegt bei den Zapfen im Bereich von 560 nm, bei Stäbchen um die 500 nm.

Absorptionsspektrum der drei menschlichen Zapfenpigmente gold2002, 60

Abbildung:Absorptionsspektrum der drei menschlichen Zapfenpigmente gold2002, 60 PC

Abbildung:Absorptionsspektrum der drei menschlichen Zapfenpigmente gold2002, 60 PDA_Phone

Abbildung:Absorptionsspektrum der drei menschlichen Zapfenpigmente

In der Abbildung werden die Absorptionsspektren der drei verschiedenen Zapfenpigmente (für kurz-, mittel- und langwelliges Licht) dargestellt. Das kurzwellige Zapfenpigment absorbiert Licht am besten im Bereich um die 420 nm, das mittelwellige um die 530 nm und das langwellige um die 560 nm.

Sehen und Wahrnehmung: Helligkeitsempfindlichkeit in Bezug auf Lichtintensität

1

AUTO

  • Helligkeitsempfindlichkeit
    • Stärke des Reizes
    • Weber’schen Gesetz

Weber’sches Gesetz

<math display='block'> <semantics> <mrow> <mfrac> <mrow> <mi>&#x0394;</mi><mi>L</mi> </mrow> <mi>L</mi> </mfrac> <mo>=</mo><mi>c</mi><mi>o</mi><mi>n</mi><mi>s</mi><mi>t</mi><mo>.</mo><mo>&#x2248;</mo><mn>0,02</mn> </mrow> <annotation encoding='MathType-MTEF'> </annotation> </semantics> </math>

AUTO ohm1995, 172
  • Fernsehbildschirm
    • nichtlineare Arbeitsweise
    • Rauschen weniger stark wahrgenommen
  • Bildkodierung
    • Delta L zu L in Bereichen mit örtlicher Helligkeitsschwankung höher ist als in gleichmäßig hellen Flächen
      • Kanten haben Maskierungseffekt gegenüber Rauschstörungen

2

AUTO

Helligkeitsempfindlichkeit (Stärke des Reizes) des Sehsinns folgt dem Weber’schen Gesetz.

Weber’sches Gesetz

Wahrnehmbare Helligkeitsschwankungen Delta L bilden (in einem bestimmten Bereich) zur absoluten Helligkeit annähernd eine Konstante.

<math display='block'> <semantics> <mrow> <mfrac> <mrow> <mi>&#x0394;</mi><mi>L</mi> </mrow> <mi>L</mi> </mfrac> <mo>=</mo><mi>c</mi><mi>o</mi><mi>n</mi><mi>s</mi><mi>t</mi><mo>.</mo><mo>&#x2248;</mo><mn>0,02</mn> </mrow> <annotation encoding='MathType-MTEF'> </annotation> </semantics> </math>

AUTO ohm1995, 172

Diese Eigenschaft wird z.B. durch eine nichtlineare Arbeitsweise von Fernsehbildschirmen kompensiert, was dazu führt, dass Rauschstörungen weniger stark wahrgenommen werden. In Bildcodierverfahren kann zusätzlich der Umstand ausgenutzt werden, dass das Verhältnis Delta L zu L in Bereichen mit örtlicher Helligkeitsschwankung höher ist als in gleichmäßig hellen Flächen. Daher besitzen Kanten und andere örtliche hochfrequente Anteile einen Maskierungseffekt für Rauschstörungen.

Evaluierung der Kontrastwahrnehmung

1

Streifenmuster

  • Wellenform
  • Kontrast
  • Orientierung, Phase
  • Ortsfrequenz

Wellenform

Wellenstreifenmuster mit Intensitätsverteilung gold2002, 90
Rechteckwellenstreifenmuster mit Intensitätsverteilung PC

Rechteckwellenstreifenmuster mit Intensitätsverteilung PDA

Sinuswellenstreifenmuster mit Intensitätsverteilung PC

Sinuswellenstreifenmuster mit Intensitätsverteilung PDA_Phone

Kontrast

Der Kontrast eines Streifenmusters

Amplitude A geteilt durch den Mittelwert seiner Intensität M

Streifenmuster mit Kontrast gold2002, 90

Streifenmuster mit hohem Kontrast PC

Streifenmuster mit hohem Kontrast PDA_Phone

Streifenmuster mit niedrigem Kontrast PC

Streifenmuster mit niedrigem Kontrast PDA_Phone

Orientierung

  • Orientierung eines Streifenmusters
  • Winkel relativ zur Senkrechten

Phase

  • Die Phase eines Streifenmusters
    • Position relativ zu einem festen Beziehungspunkt

Ortsfrequenz ohm1995, 173

  • Ortsfrequenz
    • Maß für die die Detailtiefe
    • Anzahl Musterwiederholung pro Streckeneinheit
Abbildung: OrtsfrequenzPC

Abbildung: OrtsfrequenzPDA_Phone

2

Streifenmuster

Zur Evaluierung menschlicher Kontrastwahrnehmung werden Streifenmuster verwendet. Die Eigenschaften eines Streifenmusters werden durch

  • Wellenform
  • Kontrast
  • Orientierung, Phase
  • Ortsfrequenz

bestimmt.

Wellenform

Die Wellenform eines Streifenmusters kennzeichnet die Intensitätsverteilung, d.h. das Muster von Intensitäten quer zum Streifenmuster.

Wellenstreifenmuster mit Intensitätsverteilung gold2002, 90

Die beiden Abbildungen zeigen unter den beiden Streifenmustern die zugehörigen Intensitätsverteilungen. Die Intensität der Streifen wechselt im Rechteckwellenmuster abrupt zwischen hoch (weiße Streifen) und niedrig (schwarze Streifen). Dieses Muster bezeichnet man daher als Rechteckwellenstreifenmuster.

Die Intensitäten des Sinuswellenstreichenmusters nehmen zeigen einen kontiuierlichen Hell-Dunkel-Übergang. Da diese Verteilung eine Sinuswelle darstellt, wird es Sinuswellenstreifenmuster genannt.

Rechteckwellenstreifenmuster mit Intensitätsverteilung PC

Rechteckwellenstreifenmuster mit Intensitätsverteilung PDA

Sinuswellenstreifenmuster mit Intensitätsverteilung PC

Sinuswellenstreifenmuster mit Intensitätsverteilung PDA_Phone

Weitere Streifenmuster

Neben den abbgebildeten Rechtecks- und Sinuswellenstreifenmustern gibt es auch Sägezahnwellenstreifenmuster, Dreieckswellenstreifenmuster uvm. Für die Untersuchung der Kontrastwahrnehmung sind jedoch nur Rechtecks- und Sinuswellenstreifenmuster von Bedeutung.

Kontrast

Der Kontrast eines Streifenmusters wird folgendermaßen berechnet: Amplitude A geteilt durch den Mittelwert seiner Intensität M. Die folgenden Abbildungen zeigen Streifenmuster mit hohem bzw. niedrigem Kontrast.

Streifenmuster mit Kontrast gold2002, 90

Streifenmuster mit hohem Kontrast PC

Streifenmuster mit hohem Kontrast PDA_Phone

Streifenmuster mit niedrigem Kontrast PC

Streifenmuster mit niedrigem Kontrast PDA_Phone

Abbildungen: Streifenmuster mit niedrigem und hohem Kontrast

Die beiden Muster in den Abbildungen weisen jeweils dieselbe durchschnittliche Intensität M auf (gestrichelte Linie). Das Muster mit hohem Kontrast hat aber eine größere Amplitude A als das Muster mit niedrigem Kontrast. Berechnet man den Kontrast A/M, ergibt sich deshalb in dem ersten Bild ein höherer Kontrast, was auch unserem Sinneseindruck entspricht. Die Strecke C gibt die Periodendauer an, die obigen Bilder umfassen also 3 ½ Perioden.

Orientierung

Unter der Orientierung eines Streifenmusters versteht man seinen Winkel relativ zur Senkrechten.

Phase

Die Phase eines Streifenmusters ist seine Position relativ zu einem festen Beziehungspunkt, z.B. zu der kleinen Linie der Streckenbemessung in Abbildung des Streifenmusters mit hohem Kontrast. Würde das Muster relativ zu diesem Bezugspunkt waagerecht verschoben werden, würde sich damit die Phase ändern.

Ortsfrequenz ohm1995, 173

Die Ortsfrequenz liefert ein Maß für die örtliche Auflösung, die Detailtiefe, einer Abbildung. In der Praxis wird die Abhängigkeit von der Ortsfrequenz meist mit Streifenmustern oder Sinusanregungen gemessen . Deren Wiederholfrequenz wird in Abhängigkeit der Perioden pro Grad des Sehwinkels auf der Netzhaut angegeben (cycles/degree).

Die Ortsfrequenz kann man durch die Anzahl von Perioden C (eine Periode entspricht jeweils ein weißer und schwarzer Streifen ) pro Streckeneinheit definieren. Bei 3,5 Perioden und 5 cm Gesamtbreite käme man so auf 3,5/5 ~ 0,7 Perioden/cm.

 

Abbildung: OrtsfrequenzPC

Abbildung: OrtsfrequenzPDA_Phone

Sehen und Wahrnehmung: Kontrastempfindlichkeit

1

Kontrastempfindlichkeit bei unterschiedlichen Kantenrichtungen

Kontrastempfindlichkeit in Abhängigkeit von der Kantenrichtung PC ohm1995, 173

Kontrastempfindlichkeit in Abhängigkeit von der Kantenrichtung PDA_Phone ohm1995, 173

Psychophysische Erklärung der Richtungsempfindlichkeit

Verschieden orientierte Streifenmuster PC

Verschieden orientierte StreifenmusterPDA_Phone

Kotrastempfinden bei unterschiedlicher Ortsfrequenz

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster gold2002, 95 PC

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster gold2002, 95 PDA_Phone

Kontrastempfinden für Bildkodierung

  • JPEG und JPEG2000
    • stellen Bild in Frequenzkomponenten dar
    • Jede Frequenzkomponente korreliert mit
      • bestimmter Ortsfrequenz
      • bestimmter Kantenrichtung
    • Kodierungsgenauigkeit Frequenzkomponenten
      • abhängig von Wahrnehmbarkeit

2

Kontrastempfindlichkeit bei unterschiedlichen Kantenrichtungen

Im menschlichen Gehirn gibt es unterschiedlich empfindliche Verarbeitungseinheiten für Kantenrichtung, Kantenbreite, u.ä. Daraus kann man schließen, dass die subjektive Wahrnehmung von Kontrasten sowohl von der örtlichen Richtung wie auch von der Ortsfrequenz abhängt. Die Kontrastempfindlichkeit ist bei diagonalen Kantenrichtungen am geringsten. ohm1995, 173

Kontrastempfindlichkeit in Abhängigkeit von der Kantenrichtung PC ohm1995, 173

Kontrastempfindlichkeit in Abhängigkeit von der Kantenrichtung PDA_Phone ohm1995, 173

Kontrastempfindlichkeit in Abhängigkeit von der Kantenrichtung

Die Abbildung zeigt, dass die Kontrastempfindlichkeit des menschlichen Auges auch von der Ausrichtung einer Kante abhängt. Man sieht, dass die Kontrastempfindlichkeit bei diagonalen Linien am geringsten ist.

Psychophysische Erklärung der Richtungsempfindlichkeit

Psychophysische Untersuchungen zur so genannten selektiven Adaption lieferten Hinweise darauf, dass die Orientierungsdetektoren auch eine direkte Entsprechung in unserer Wahrnehmung besitzen. Folgende Idee liegt der Technik der selektiven Adaption zugrunde: betrachtet man ein Reizfeld mit einer bestimmten Streifenorientierung längere Zeit, so adaptieren die betroffenen Neuronen. Diese Adaption führt zu einer Sensivitätsänderung, die psychophysisch messbar ist.

Verschieden orientierte Streifenmuster

Verschieden orientierte Streifenmuster PC

Verschieden orientierte Streifenmuster PDA_Phone

 

Kotrastempfinden bei unterschiedlicher Ortsfrequenz

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster gold2002, 95

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster gold2002, 95 PC

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster gold2002, 95 PDA_Phone

Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster

  • Durchgehende Kurve - Die Abbildung zeigt die Kontrastübertragungsfunktion für ein Sinuswellenstreifenmuster . Die Kurve sagt aus, dass das visuelle System für Sinuswellenstreifenmuster mit einer Ortsfrequenz zwischen 2 und 4 cycles/degree am empfindlichsten ist (andere Messungen ergaben auch Werte im Bereich von 10 cycles/degree). Das bedeutet, dass die Versuchspersonen die Streifen selbst dann noch unterscheiden können, wenn der Kontrast bereits sehr gering ist. Weiters ist ersichtlich, dass die Empfindlichkeit bei höheren und niedrigeren Frequenzen abnimmt. Das bedeutet, um diese Frequenzen wahrnehmen zu können müsste der Kontrast bedeutend stärker sein. Bei sehr niedrigen und sehr hohen Frequenzen können die Versuchspersonen diese auch bei sehr großem Kontrast nicht mehr wahrnehmen.
  • Die gepunktete Kurve zeigt die Empfindlichkeit nach Anpassung an eine bestimmte Ortsfrequenz (in diesem Fall 7,5 cycles/degree). Man sieht deutlich, dass die Kontrastempfindlichkeit in diesem Bereich abgenommen hat.

Kontrastempfinden für Bildkodierung

JPEG und JPEG2000 stellen Bilder in Frequenzkomponenten dar. Jede Frequenzkomponente korreliert dabei mit einer speziellen Ortsfrequenz und mit einer Kantenrichtung. Bei JPEG ergibt sich die Korrelation durch die Position des Frequenzkoeffizienten in der 8x8 DCT 242 Matrix, in JPEG2000 durch das entsprechende Subband. Zur Kompression werden Frequenzkomponenten, die gut differenzierbare Ortsfrequenzen und Kantenrichtungen repräsentieren, genau kodiert, die anderen mit geringerer Genauigkeit.

Sehen und Wahrnehmung: Farbwahrnehmung

1

Wie nehmen wir Farbe wahr?

Dreifarbentheorie von Young-Helmholtz

  • Dieser Theorie zufolge erregt Licht mit einer bestimmten Wellenlänge
  • Unterschiedliche Erregung drei Rezeptorsysteme (Zapfenarten)
    • Aktivitätsmuster dieser Systeme führen zur Wahrnehmung einer Farbe
    • Kombination aller drei Aktivitästmuster kann Farbe eindeutig identifizieren

Entladungsmuster der drei Zapfenarten gold2002, 156 PC

Entladungsmuster der drei Zapfenarten gold2002, 156 PDA_Phone

Bedeutung der Dreifarbentheorie für die Bildkodierung

Jede Farbe durch drei Grundfarben darstellbar

Wie viele Farben können wir unterscheiden?gour1991, 467

  • Farbabstufen bei gleichbleibender Intensität
    • 200 wahrnehmbare Farbabstufungen
  • Variation der Helligkeit
    • 500 unterschiedliche Helligkeitswerte pro Farbe wahrnehmbar
  • Variation der Sättigungsstufe
    • 200 Sättigungsabstufungen pro Farbe wahrnehmbar
  • Wahrnehmbare Farbstufen insgesamt
    • 2 Millionen

Fotorealistische Bilddarstellung

  • menschlicher Sehsinn kann 2 Millionen Farbenunterscheiden
    • entspricht mindest Wortlänge von 21 Bit/Bildpunkt
  • 24 Bit für Bildkodierung als ideal erwiesen
  • Fotorealistische Darzustellung in Bildkodierung
    • 24-bit - 3 x 8 bit
    • 32-bit - 4 x 8 Bit

Auflösung von Farb- und Grauwerten

Obwohl das Zapfensystem bei hellem (Tages)Licht sowohl für Helligkeits- als auch Farbwahrnehmung eingesetzt wird, ist das örtliche Auflösungsvermögen der Zapfen beim Farbensehen geringer als beim Helligkeitssehen. Die Begründung liegt in der speziellen Art der Zusammenfassung, der aus den Rezeptoren gewonnenen Information, in den nachfolgenden Neuronenschichten.

Bedeutung der Farbauflösung für Bildkodierung

Fernsehtechnik
  • PAL 167-, SECAM 166- und NTSC 164 -Systeme
    • Nur für jede zweite Bildzeile wird Farbwert übertragen
Digitale Bildkodierung

Unterabtastung (siehe Farbraumtransformation)

 

2

Wie nehmen wir Farbe wahr?

Dreifarbentheorie von Young-Helmholtz

Dieser Theorie zufolge erregt Licht mit einer bestimmten Wellenlänge die drei Rezeptorsysteme (Zapfenarten) in unterschiedlichem Ausmaß. Die Aktivitätsmuster dieser drei Systeme führen zur Wahrnehmung einer Farbe. So wird jede Wellenlänge im Nervensystem durch ein eigenes Aktivitätsmuster der drei Rezeptorsysteme codiert. Ein einziger Rezeptorentyp könnte die Wellenlänge des Lichts nicht eindeutig identifizieren, da eine bestimmte Wellenlänge in einem einzelnen Rezeptortyp verschiedene Reizantworten verursachen könnte, je nach Intensität des Lichts. Sind jedoch mindestens zwei Zapfenrezeptorsysteme daran beteiligt, wird ein neuronales Muster geliefert, das die Wellenlänge unabhängig von der Lichtintensität bestimmt. Zusammenfassend lässt sich feststellen, dass die Farbwahrnehmung auf drei Rezeptorsystemen beruht und dass mindestens drei Wellenlängen nötig sind um alle (sichtbaren) Wellenlängen des Spektrums darzustellen. gold2002, 153

Entladungsmuster der drei Zapfenarten gold2002, 156 PC

In der Abbildung sieht man die Beziehung zwischen den Reizantworten der drei Rezeptorarten und der Farbwahrnehmung. Die Stärke der Reaktionen der Rezeptoren für kurzwelliges (K), mittelwelliges (M) und langwelliges (L) Licht ist durch die Größe der Pfeile dargestellt.

Entladungsmuster der drei Zapfenarten gold2002, 156 PDA_Phone

In der Abbildung sieht man die Beziehung zwischen den Reizantworten der drei Rezeptorarten und der Farbwahrnehmung. Die Stärke der Reaktionen der Rezeptoren für kurzwelliges (K), mittelwelliges (M) und langwelliges (L) Licht ist durch die Größe der Pfeile dargestellt.

Bedeutung der Dreifarbentheorie für die Bildkodierung

Auf Grund der Dreifarbentheorie ergibt sich für die Praxis die Tatsache,, dass man durch entsprechender Kombination von drei Farbenwerten alle für unser Auge wahrnehmbaren Farben erzeugen kann. So wird ein Farbild immer in drei Schichten kodiert.

Wie viele Farben können wir unterscheiden?

Zur Bestimmung der von einem Menschen unterscheidbaren Farbabstufungen, beginnt man an einem Ende des Spektrums der elektromagnetischen Strahlung und erhöht so lange die Wellenlänge, bis der Betrachter einen Farbunterschied erkennen kann. So ergeben sich etwa 200 wahrnehmbare Farbabstufungen des sichtbaren Teils des Spektrums. Variiert man die Intensität innerhalb jeder Stufe und verändert somit die Helligkeit der Farbe, lassen sich pro Stufe 500 Helligkeitswerte unterscheiden. Außerdem kann die Sättigung jeder Farbabstufen variiert werden. Dies geschieht indem man einer Farbe, z.B. Licht mit einer Wellenlänge von 640 nm (Rot), kontinuierlich Weiß hinzufügt. Die Farbe verliert somit an Sättigung. Die Sättigung einer Farbe verhält sich somit umgekehrt proportional zum Weißanteil der Farbe: je gesättigter eine Farbe ist, desto geringer ist der Weißanteil. Pro Farbe erhält man ungefähr 20 Sättigkeitsabstufungen.

Berücksichtigt man nun sowohl die 200 erkennbaren Abstufungen des sichtbaren Lichts, die 500 möglichen Helligkeitswerte und die 20 Sättigungswerte pro Stufe, erhält man (200 x 500 x 20 = 2 000 000) 2 Millionen verschiedene Farben. gour1991, 467

24-bit für fotorealistische Bilddarstellung

Um Bilder fotorealistisch darzustellen verwendet man meist

  • 24-bit - 3 x 8 bit
  • 32-bit - 4 x 8 Bit,wobei sich die zusätzlichen 8 bit der 32-bit Darstellungen meist durch einen zusätzlichen Alphakanal ergeben

Der Mensch kann an die 2 Millionen Farben unterscheiden. Das entspricht einer Mindestwortlänge von 21 Bit/Bildpunkt. 24 Bit haben sich für die Bildkodierung als ideal erwiesen.Mit 24-bit können ca. 16 Millionen Farben dargestellt werden. Es scheint sich die 24-bit Darstellung auch dahingehend anzubieten, da jede Farbkomponente ein Byte Speicherplatz zur Verfügung hat, was für die Berechnung eine praktische Größe darstellt.

Auflösung von Farb- und Grauwerten

Obwohl das Zapfensystem bei hellem (Tages)Licht sowohl für Helligkeits- als auch Farbwahrnehmung eingesetzt wird, ist das örtliche Auflösungsvermögen der Zapfen beim Farbensehen geringer als beim Helligkeitssehen. Die Begründung liegt in der speziellen Art der Zusammenfassung, der aus den Rezeptoren gewonnenen Information, in den nachfolgenden Neuronenschichten.

Bedeutung der Farbauflösung für Bildkodierung

Fernsehtechnik

Das unscharfe Farbsehvermögen wird schon in der analogen Fernsehtechnik seit langem ausgenutzt. Die Farbdifferenzsignale der PAL 167-, SECAM 166- und NTSC 164 -Systeme sind in Zeilenrichtung stark bandbegrenzt und werden nur für jede 2. Zeile übertragen.

Digitale Bildkodierung

Die Technik der Unterabtastung (siehe Farbraumtransformation) von Farbwerten beruht auf der Tatsache, dass unser Auge gegenüber Farbwerten weniger empfindlich ist als gegenüber Grauwerten.

Literatur

3

Die Lerneinheit "Grundlagen der perzeptuellen Bildkodierung" ist die gekürzte Version einer Seminararbeit gleichen Namens. die Vollversion gibt es hier: Grdlgen_ perzeptuelle_ Bildkodierung.pdf


Notes
(empty)