Vom Objekt zum Pixel

Pixel und ihre Nachbarschaft

Während bei der pixelbasierten Klassifikation die Pixel isoliert betrachtet werden, widmet sich die objektbasierte Klassifikation der direkten Nachbarschaft eines Pixels. Es wird davon ausgegangen, dass ein Pixel mit großer Wahrscheinlichkeit der gleichen Klasse wie sein Nachbarpixel angehört. Außerdem wird vorausgesetzt, dass sich die Pixel einer Klasse durch eine oder mehrere spektralen Eigenheiten eindeutig von den anderen Klassen abheben. So entstehen zusammenhängende Flächen, die so genannten Segmente, die durch eine Kante trennscharf von anderen Segmenten getrennt sind. Eine Übergangszone gibt es hierbei meist nicht.

 

Ebenso wie bei der pixelbasierten Klassifikation gibt es bei den objektbasierten Klassifikationsarten unüberwachte und überwachte Verfahren. Im Folgenden werden kantenbasierte und die objektbasierte Segmentierungen vorgestellt, die zu den unüberwachten Verfahren zählen. Die überwachten Verfahren werden anhand hierarchischer Clusterverfahren erläutert.

 

Unüberwachte objektbasierte Klassifikation

Der eigentlichen Klassifikation eines Satellitenbildes mit Hilfe der unüberwachten objektbasierten Klassifikation geht immer die Aufteilung des Bildes in zusammenhängende Einheiten voraus. Erst dann werden die so entstandenen gleichartigen Flächen einer Klasse zugewiesen.

Segmentierung

Unter Segmentierung versteht man die Einteilung eines Satellitenbilds in mehrere, in sich homogene Flächen. Dies ist dem menschlichen Verstehen ziemlich ähnlich, das auch erst nach gleichartigen Flächen und wiederkehrenden Mustern in einem Satellitenbild sucht. Die automatisierten Verfahren, um diese Segmente ausfindig zu machen, arbeiten nach zwei verschiedenen Grundsätzen:

Kantenbasierte Verfahren suchen gezielt nach Kanten in den Satellitenbildern, da sie davon ausgehen, dass die Flächen zwischen diesen Kanten homogen, also gleich, sein müssen. Je höher der vom Bearbeiter gesetzte Schwellenwert ist, ab dem eine Veränderung in den Pixelwerten als Kante wahrgenommen wird, desto weniger Kanten gibt es und desto weniger unterschiedliche Flächen entstehen.

Kantenbasierte Segmentation

Kantenbasierte Segmentation

1. Schritt: Kanten werden gesucht und markiert

 

2. Schritt: Zusammenhängende Flächen werden markiert, pro Fläche eine eigene Farbe

Regionenbasierte Verfahren suchen nicht nach möglichst unterschiedlichen Pixeln wie die kantenbasierten Verfahren, sondern nach möglichst gleichartigen benachbarten Pixeln. Ist ein Pixel einem oder mehreren direkten Nachbarn sehr ähnlich, so bildet es mit ihnen zusammen ein Segment. Die Abgrenzungen zwischen den Segmenten kommen dann dadurch zustande, dass sich die Pixel nicht mehr genügend ähneln, um im gleichen Segment aufgenommen zu werden. Wann dies der Fall ist, setzt auch im regionenbasierten Verfahren ein vom Bearbeiter gewählter Schwellenwert fest.

 Regionenbasierte Segmentation

 Die Pixel werden in Verbindung zu ihrer Nachbarschaft untersucht und zu gleichartigen Flächen zusammengefasst.

Klassifikation

Streng genommen stellt die Segmentierung auch schon eine sehr spezielle Form der Klassifikation dar. Da aber auch verschiedene Segmente an unterschiedlichen Orten der gleichen Klasse angehören können, schließt sich an die unüberwachte Segmentierung meist eine Betrachtung der spektralen Eigenschaften der Segmente an. Aus den unterschiedlichen spektralen Eigenschaften der Pixel in einem Segment wird eine Art Mittelwert berechnet, der für den Vergleich verschiedener Segmente benutzt wird. Ähneln sich die spektralen Signaturen zweier oder mehrerer Segmente genügend, so werden die entsprechenden Segmente der gleichen Klasse zugeordnet. Der Bearbeiter gibt entweder die Anzahl der zu bildenden Klassen vor, oder setzt einen Ähnlichkeitsschwellenwert fest, ab dem ihm die Zuordnung zur gleichen Klasse nicht mehr sinnvoll erscheint.

 

AktionBei gleichem Schwellenwert (minimal 3 zusammenhängende Pixel) ergeben kantenbasierte (links) und regionenbasierte Verfahren (rechts) unterschiedliche Segmentierungen und damit unterschiedliche Klassifikationsergebnisse. Die oberen Bilder zeigt die Ergebnisse der Segmentierung, nachdem sie überarbeitet wurden - die Segmente wurden in Klassen eingeteilt und mit gleicher Farbe versehen.

Überwachte objektbasierte Klassifikation

Ebenso wie die unüberwachte arbeitet die überwachte objektbasierte Klassifikation mit einer Segmentierung des Bildes und einer anschließenden Klassifikation der Segmente.

 

Auch hier gibt es wieder zwei Möglichkeiten der Klassifikation: Die erste besteht in der visuellen Bestimmung der Grenzen zwischen den verschiedenen Segmenten und anschließend der Einzeichnung.

Das zweite Verfahren besteht in der Festlegung bestimmter Kriterien, die erfüllt sein müssen, damit Pixel zu einem Segment zugeordnet werden können. Das kann die Forderung sein, dass mindestens zwei Pixel in der direkten Nachbarschaft gleiche Grauwerte haben müssen. Oder das Kriterium, dass Segmente nur durch Straßen voneinander getrennt werden. Um diese letzte Forderung überprüfen zu können, müssen natürlich die Straßendaten als Zusatzinformation vorliegen.

 

Nach der Segmentierung können Segmente vom Bearbeiter als Trainingsgebiete gekennzeichnet werden, ähnlich wie bei der überwachten pixelbasierten Klassifikation. Zusätzlich zu den Grauwerten der einzelnen Pixel kann jetzt aber noch die Textur des Segments hinzugezogen werden. Die Textur wird durch die Verteilung der Grauwerte innerhalb eines Segments festgelegt, also z.B. bei Ackerflächen durch die Furchen und bepflanzten Reihen. Wann immer diese Textur in Verbindung mit dem durchschnittlichen Grauwert des Segments auftaucht, wird dieses Segment zur Klasse "Acker" hinzugezählt.

 

Bei Grünwert X: Acker

Als hierarchisch wird das Klassifikationsverfahren dann bezeichnet, wenn der Bearbeiter "wenn-dann" Regeln aufstellt, nach denen ein Bild klassifiziert werden soll. Z. B. wird festgelegt, dass der Computer zuerst einmal lernen soll, zwischen Wasser und Nicht-Wasser zu unterscheiden. Auch hier muss der Computer erst einmal trainiert werden, indem für "Wasser" und für "Nicht-Wasser" Pixel herausgesucht werden, an denen der Computer die Eigenschaften lernen kann. Dann kann das ganze Bild in diese beiden Klassen eingeteilt werden und neue Regeln können definiert werden für die beiden entstandenen Klassen.

 

Decision Tree


Die Klasse "Feld" kann dann z.B. in Brachfläche und Bepflanzte Fläche unterteilt werden, die Klasse "Nicht-Feld" in Wasser und Festland und so weiter. Hierdurch entsteht eine Baumstruktur, weswegen dieses Verfahren auch Decision-Tree-Classification genannt wird.

 


Fazit:

Bei der objektorientierten  Klassifikation von Bilddaten werden Segmente voneinander unterschieden. Anders als bei der pixelorientierten Klassifikation, entstehen dadurch gleichartige Flächen, die sich scharf voneinander abgrenzen. Auch hier kann man automatisch pder von Hand vorgehen.