Vom Pixel zum Objekt

Um die pixelbasierte Klassifikation von spektralen Fernerkundungsbildern zu verstehen, muss man sich noch einmal ins Gedächtnis rufen, was diese Bilder eigentlich genau sind: Es sind Rasterdaten, deren Zellen die Intensitätswerte des Sonnenlichts enthalten, das von einem Areal zum Fernerkundungssensor zurückgeworfen wird. Dabei besitzt ein Sensor mehrere Aufnahmekanäle, z.B. einen für das rote und einen für den blauen Bereich des Sonnenlichts.

 

Besagte Intensitätswerte kann man aber auch anders darstellen. So kann man zwei Aufnahmekanäle eines Satelliten miteinander vergleichen, indem man sie in ein Koordinantensystem einträgt. Das Resultat ist ein sogenannter Scatterplot. In ihm kann man sehen, welcher Wert ein Pixel im Aufnahmekanal A (bspw. rot) und welchen Wert er im Aufnahmekanal B (bspw. blau) hat.


Scatterplot

Scatterplot: Die Pixelwerte in Aufnahmekanal A und B werden gegeneinander geplotted. Es entsteht die charakteristische "Fahne".

 

Oben ist ein sogenannter Scatterplot zu sehen. Wenn man nun davon ausgeht, dass Pixel gleicher Klassenzugehörigkeit auch gleiche spektrale Eigenschaften haben, so müssten sie im Scatterplot nah beieinander liegen. Die Grenzen innerhalb der Punktwolken versucht man nun, mit Hilfe verschiedener Klassifikationsverfahren festzustellen. Stellt man sich vor, dass das Koordinatensystem eigentlich bis zu 7 Achsen haben müsste, um alle spektralen Informationen abbilden zu können, wird die Schwierigkeit dieses Unterfangens deutlich!

 

Jedem Pixel seine Klasse

Die pixelbasierten Verfahren zur Klassifizierung von Satellitenbildern beruhen auf der spektralen Analyse jedes einzelnen Pixels. Hierbei werden die Grauwerte eines Pixels in jedem Kanal betrachtet und ihre spektrale Signatur mit anderen Pixeln verglichen. Die Klasseneinteilung orientiert sich dann an entweder an statistischen Werten (unüberwachte, automatische Verfahren) oder an einer manuelle Festlegung von Referenzsignaturen für die einzelnen Klassen (überwachte Verfahren).

Formen, Kanten, Nachbarschaften oder zusammenhängende Flächen werden hierbei nicht betrachtet, wodurch im fertig klassifizierten Bild ein Salz-und-Pfeffer-Muster entsteht. Das bedeutet, dass bspw. ein einzelner Pixel als Tagebaugebiet klassifiziert wird, der komplett von Wald umgeben ist.Auf solche logischen Fehler muss bei pixelbasierten Klassifikationen immer geachtet werden.

 

Im Folgenden erfährst Du mehr über die einzelnen Klassifikationsarten pixelbasierter Verfahren. Stellvertretend für die unüberwachten Verfahren wird Dir ISODATA näher erklärt. Die überwachte Klassifikation wird beispielhaft am Minimum-Distance- und Maximum-Likelihood-Verfahren dargestellt.

 

Unüberwachte pixelbasierte Klassifikation

Die unüberwachte Klassifikation wird vom Computer allein durchgeführt, basierend auf rein statistischen Verfahren. Sie dient unter anderem dazu, Trends und Strukturen unvoreingenommen analysieren zu können. Besonders hilfreich ist die unüberwachte Klassifikation, wenn nur wenige Informationen über ein Gebiet vorliegen oder die Anzahl der unterscheidbaren Klassen noch nicht bekannt ist.

 

Das bekannteste Verfahren der unüberwachten pixelbasierten Klassifikation ist das sogenannte ISODATA-Verfahren. ISODATA steht dabei für Iterative Self-Organizing Data Analysis Technique - auf Deutsch "iterative selbstorganisierende Technik zur Datenanalyse". Der Bearbeiter muss nur die Anzahl der Klassen bestimmen, die errechnet werden sollen. Danach rechnet der Computer ganz alleine aus, welche Pixel zusammen in eine Klasse gehören. Wie passiert das?

 

Das Verfahren nimmt eine regelmäßige Verteilung der Werte eines jeden Spektralkanals an und setzt selbstständig die Mittelpunkte der einzelnen Klassen fest. Dann berechnet es die Distanz jedes Pixels zu jedem dieser Mittelpunkte und ordnet das Pixel der Klasse zu, zu deren Mittelpunkt es den geringsten Abstand aufweist.

 

Wird der schwarze Punkt verschoben, wird die Klassenzugehörigkeit neu errechnet

 

Doch damit ist der Prozess noch nicht abgeschlossen! Iterativ bedeutet nämlich, dass dieses Vorgehen immer wieder wiederholt wird. Denn nun wird aus allen Punkten, die einer Klasse X zugeordnet worden sind, der neue Mittelpunkt berechnet - und alles geht wieder von vorne los. Also Distanz berechnen, Pixel zuordnen, und wieder Mittelpunkt neu berechnen usw.

Das passiert so lange, bis nicht mehr genügend Pixel die Klasse wechseln oder eine bestimmte Anzahl an Iterationen erreicht ist. Als Ergebnis werden alle Pixel der Klasse zugeordnet, zu der sie die größte spektrale Ähnlichkeit besitzen. Aber ist das auch die sinnvollste Zuordnung?

 

AktionVergleich der unüberwachten Klassifikation mit dem Originalbild

 

Da dieses Verfahren nicht vom Bearbeiter abhängig ist, kann auch kein Wissen über die Daten in die Klassifikation eingebracht werden, das nicht schon in den Pixeln selbst enthalten ist. Dies hat den Vorteil, dass die Klassifikation unvoreingenommen geschieht, hat aber den Nachteil, dass z. B. Klassen getrennt werden, die für die Beantwortung der Forschungsfrage zusammen gehören müssten. Die Zuordnungen, die bei der Klassifikation gemacht werden, müssen also im Nachhinein vom Bearbeiter überprüft und interpretiert werden. Nur so können der unüberwachten Klassifikation die Informationen entlockt werden, welche für die Forschungsfrage relevant sind.

 

Überwachte pixelbasierte Klassifikation

Ausgangspunkt der überwachten Klassifikation ist das Erfassen von sogenannten Trainingsgebieten. Das sind Teilgebiete des Bildes, die man selbst als Beispielflächen für eine Klasse bestimmt. Am besten werden solche Flächen ausgewählt, deren Klassenzugehörigkeit bekannt sind. So ist z.B. ein bekanntes Waldstück für die Klasse Baum, einen Bach für die Klasse Wasser usw. ein geeignetes Trainingsgebiet. Für jede Klasse werden mehrere solcher Trainingsgebiete bestimmt, um die Klasse möglichst genau von anderen abzugrenzen und mögliche spektrale Abweichungen mit zu erfassen.

 

Trainingsgebiete

 Im Bild sind exemplarische Trainingsgebiete für 4 verschiedene Klassen dargestellt. Um ein Bild gut klassifizieren zu können, muss pro Klasse natürlich mehr als ein Trainingsgebiet angelegt werden. Aus allen Trainingsgebieten pro Klasse wird dann der Mittelwert berechnet, der als Grundlage für die Zuordnung der einzelnen Pixel während der Klassifikation dient.

Trainingsgebiete – und dann?

Nachdem durch die Trainingsgebiete Klassen spektral voneinander abgegrenzt wurden, müssen die übrigen Pixel außerhalb der Trainingsgebiete diesen Klassen zugeordnet werden. Um besser zu verstehen, wie diese Zuordnung funktioniert, kann man sich die Reflexionswerte der Trainingspixel in einem Scatterplot ansehen (siehe oben).


Berechnet man den Mittelpunkt der entstandenen Punktwolken, kann man durch verschiedene Verfahren die übrigen Pixel zu den Klassen zuordnen. Zwei Arten der Zuordnung, das Minimum-Distance-Verfahren und das Maximum-Likelihood-Verfahren, werden im Folgenden vorgestellt.

 

Wie ordnet man die Pixel den verschiedenen Klassen zu?

Ein Verfahren, um die Pixel eines Bildes den einzelnen Klassen zuzuordnen, ist das Minimum-Distance-Verfahren (Verfahren des kleinsten Abstands). Bei ihm wird ein Pixel zu der Klasse zugeordnet, zu deren Mittelwert es den geringsten Abstand besitzt.

 

Aktion

Minimum-Distance-Berechnung: Wird der schwarze Punkt verschoben, wird die Klassenzugehörigkeit neu errechnet

 

Eine andere Möglichkeit bietet das Maximum-Likelihood-Verfahren. Hierbei werden die Wahrscheinlichkeiten berechnet, mit der ein Pixel zu den verschiedenen Klassen gehört.  Zu der Klasse, bei der die Wahrscheinlichkeit am größten ist, wird das Pixel letztendlich zugeordnet.

 

AktionFährt man mit der Maus über die Punkte, wird die Klassenzugehörigkeit erklärt.

 

In unseren Beispielen allerdings erkennt man, dass ein und das selbe Pixel bei den Verfahren mit unterschiedlichen Klassen assoziiert werden kann. Es ist also unbedingt nötig, die Ergebnisse auf Fehler zu überprüfen und gegebenenfalls neu zu klassifizieren!

 

Wie sieht das Ergebnisbild einer überwachten Klassifikation aus?


AktionDas Beispiel oben zeigt eine Bildmatrix vor und nach der Klassifikation. Wie man sieht, ist das Bild nach der Klassifikation übersichtlicher und leichter zu interpretieren.


 


Fazit:

Bei der pixelorientierten  Klassifikation von Bilddaten werden Pixel mit gleichen spektralen Eigenschaften zusammengefasst. Um zu bestimmen, welche Eigenschaft zu welcher Klasse gehören soll, kann man automatisch oder von Hand vorgehen. Geht man von Hand vor, gibt es ebenfalls wieder verschiedene Möglichkeiten die Pixel zusammenzufassen. Man unterscheidet dabei Verfahren, die sich die spektralen Distanzen von Pixeln zueinander oder ihre Wahrscheinlichkeiten zu Nutze machen. Trainingsgebiete dienen hierbei als spektrale Referenzen.