Klassifikation

Im Allgemeinen geht es bei der Klassifikation von Bilddaten darum, kleinere Flächen mit ähnlichen Reflexionswerten zu größeren Klassen zusammenzufassen. Dies ermöglicht es, nützliche Informationen hervorzuheben und nicht so unwichtige vernachlässigen zu können. Auf diese Weise können bspw. Baggerseen, Bäche und Flüsse z.B. zu einer Gruppe Wasser, Wohnflächen und Parkplätze wiederum zur Gruppe bebaute Flächen zusammengefasst werden. Dies erleichtert die Interpretation erheblich!

 

 Dubai im Swipe: Das klassifizierte Bild kann mit der Maus über das Satellitenbild geschoben Aktionwerden. 

Im Prinzip unterscheidet man zwischen zwei Arten der Klassifikation, um diesem Problem zu begegnen: Die unüberwachte Klassifikation, die zum größten Teil automatisch abläuft (rechts), und die überwachte Klassifikation (links).

 Überwachte Klassifikation

Unüberwachte Klassifikation 

AktionVergleich einer überwachten und einer unüberwachten Klassifikation.


Bei beiden Klassifikationsarten kann man zwischen pixelbasierten und objektbasierten Verfahren unterscheiden. Während pixelbasierte Klassifikationsverfahren die spektralen Eigenschaften jedes einzelnen Pixels untersuchen und Pixel mit möglichst ähnlichen Eigenschaften in Textur und Farbe zu einer Klasse zuordnen, arbeiten objektbasierte Verfahren ähnlich dem menschlichen Verstehen: Bei einer objektbasierten Klassifikation wird das Satellitenbild in Klassen eingeteilt, indem Pixel und ihre Nachbarschaftsbeziehungen untersucht werden. Hier gilt: Ein Pixel gehört mit großer Wahrscheinlichkeit der gleichen Klasse an wie seine Nachbarpixel. Außerdem grenzt es sich durch eine oder mehrere spektrale Eigenheiten von anderen Klassen eindeutig ab.

 

AktionVergleich einer pixelbasierten und einer objektbasierten Klassifikation - nicht wundern: bei der objektbasierten Klassifikation konnte nicht zwischen bebauter Fläche (rot) und versiegelter Fläche (schwarz) unterschieden werden.


So entstehen bei der objektorientierten Klassifikation zusammenhängende Flächen von Pixeln gleicher Klassenzugehörigkeit mit scharfer Klassenabgrenzung, während die pixelbasierte Klassifikation in Grenzregionen eher ein Salz-und-Pfeffer-Muster hervorbringt.

In der Tabelle sind Beispiele für die einzelnen Klassifikationsverfahren angeführt. Sie werden im Folgenden noch weiter erläutert.

 

  pixelbasiert objektbasiert
unüberwacht ISODATA

kantenbasierte Segmentierung

regionenbasierte Segmentierung

überwacht

Minimum Distance

Maximum Likelihood

hierarchisch

 

Fehlerteufel

Ist die Klassifikation unfehlbar? Natürlich nicht. Um herauszufinden, wie viele und welche Fehler in im klassifizierten Satellitendatensatz enthalten sind, führt man ein so genanntes Accuracy Assessment durch.

 

Die einfachste Form, um die Güte der Klassifikation zu bestimmen, ist der visuelle Vergleich. Ist das, was ich sehe, logisch? Kann ein Stück Tagebaugebiet mitten im Dschungel liegen? Ist es logisch, dass ein Pixel in der Stadt Wüste ist? Der Abgleich mit den eigenen Erfahrungswerten kann einen ersten Eindruck geben, ob die durchgeführte Klassifikation sinnvoll ist. Nutzt man hierzu noch andere Quellen, wie z.B. höher aufgelöste Luftbilder einer Region, so können die Pixel immer genauer beurteilt werden.

 

Fehlerbeispiel

Fehlerbeispiel in eine Klassifikation: durch genaues Hinsehen und einen Vergleich mit einem Luftbild findet man diese falschen Inseln im Meer

 

Das computergestützte Accuracy Assessment sucht anhand von statistischen Parametern einzelne Pixel heraus, die der Benutzer dann mit anderen Quellen vergleichen muss. Ist das Pixel in die richtige Klasse eingeordnet worden, gibt das für die Genauigkeitsanalyse Pluspunkte. Wurde es aber falsch klassifiziert, so muss eingetragen werden, welcher Klasse das Pixel eigentlich hätte angehören müssen. Sind alle herausgesuchten Pixel verglichen worden, erhält man eine Tabelle, in der eingetragen ist, wie viele Pixel in der Klassifikation den einzelnen Klassen zugeordnet wurden und wie viele davon eigentlich in eine andere Klasse gehören müssten. Anhand dieser Tabelle kann man dann bestimmen, wie genau die Klassifikation ist und ob vielleicht eine der Klassen neu definiert werden muss.

Das Ergebnis des Accuracy Assessment ist natürlich davon abhängig, wie viele Pixel man pro Klasse überprüft hat und wo diese Pixel liegen. Sind sie alle nah beieinander, ist die Wahrscheinlichkeit viel höher, dass die Pixel der richtigen Klasse angehören. Deswegen müssen die Pixel, die überprüft werden, immer möglichst gleichmäßig über das Bild verteilt sein.

 


Fazit:

Bei der Klassifikation von Bilddaten geht es darum, kleinere Flächen mit ähnlichen Reflexionswerten zu größeren Klassen zusammenzufassen. Dies kann man automatisch oder von Hand, pixelorientiert oder objektorientiert machen. Wichtig ist aber immer, dass am Ende die Klassifikationsgüte bestimmt wird, wie genau das entstandene Produkt ist.