Räumliche Auflösung

 

Ein spektral-digitaler Sensor nimmt die reflektierte Strahlung der Erdoberfläche auf und speichert sie als Zahlen in einem Raster ab. Jede aufgenommene Fläche findet sich daher in einer Zelle im Raster wieder. Die Rasterzellen werden auch Pixel genannt. Wie groß die Fläche ist, die in einem Pixel abgebildet wird, hängt von der Fähigkeit des Sensors ab, Details aufzunehmen.

 

Verschiedene räumliche Auflösungen im Vergleich

 

Bildraster mit geringen und hohen räumlichen Auflösungen.

 

Grobe und feine räumliche Auflösung

Die Fähigkeit eines Fernerkundungssensors, Details aufzunehmen, nennt man räumliche Auflösung. Sie wird in Metern angegeben. Aus je mehr Pixel sich ein digitales Spektralbild einer Region zusammensetzt, desto höher ist die räumliche Auflösung und umso mehr Details kann man erkennen.

Im Swipe befinden sich zwei Satellitenbilder von Bonn. Deutlich kann man den Unterschied zwischen einer höheren räumlichen Auflösung von 30 m und einer geringeren von 300 m erkennen, in der viel mehr unterschiedliche Objekte in einem Pixel abgebildet werden müssen als in der höheren Auflösung.

 

 

Satellitenbilder mit einer räumlichen Auflösung von 30m und 300m (© USGS/NASA Landsat Program).


 

Mischpixel

Das Problem bei fast allen Satellitenbildern ist, dass nah beieinanderliegende Objekte gemeinsam in einem Pixel abgebildet werden müssen. So entsteht ein Mischpixel. In der Abbildung unten sind im gleichen Pixel ein Haus und ein Garten aufgenommen worden. Die Farbanteile der beiden Objekte (braun und grün) ergeben aufgrund der geringen räumlichen Auflösung ein nur sehr schwer auswertbares braun-grünes Mischpixel. Je geringer die räumliche Auflösung, umso mehr Mischpixel entstehen und umso weniger Flächen kann man voneinander unterscheiden.

 

Mischpixel


Entstehung eines Mischpixels aufgrund verschiedener Objekte in der gleichen Rasterzelle.

 

Warum haben nicht alle Sensoren eine hohe räumliche Auflösung?

Nun könnte man sich die Frage stellen, warum denn eigentlich nicht alle Sensoren der digital-spektralen Fernerkundung sehr hohe Auflösungen haben? Die Antwort wird einem deutlich, wenn man sich den Sinn von satellitengestützten Aufnahmesystemen ins Gedächtnis ruft: Würde man den gleichen Aufnahmesensor an einem Flugzeug und einem Satelliten befestigen, so hätte der Flugzeug-Sensor eine sehr hohe räumliche Auflösung von bspw. 1m, während der Satellitensensor eine gröbere Auflösung von vielleicht 30m aufweist. Dafür kann der Satellitensensor eine viel größere Region mit einer einzigen Aufnahme aufnehmen und in wenigen Tagen die ganze Erde umrunden. Das wäre mit einem Flugzeug unmöglich.

 

Es kommt bei den räumlichen Charakteristika eines spektralen Sensors also auf das Verhältnis zwischen Ausdehnung und Auflösung an. Möchte man eine hohe Ausdehnung erzielen, damit möglichst schnell viel Raum abgedeckt werden kann, so muss man Abstriche bei der Auflösung machen, da ansonsten die Datenspeicherkapazität eines Sensors weit überschritten wäre (Abb.).

 

Vier Bilder, vier Aufnahmesysteme , vier verschiedene räumliche Auflösungen


In der Grafik sieht man vier Bilder der geleichen Region von vier unterschiedlichen Aufnahmesystemen. Die Bilder haben alle die gleiche Pixelzahl. Da die Pixel aufgrund der unterschiedlichen räumlichen Auflösung der Aufnahmesysteme aber auch unterschiedlich groß sind, ist einmal nur ein Gebäude zu sehen (Luftbild, 0,1 m, © ATKIS), einmal der Stadtteil Poppelsdorf (QuickBird, 1 m, © DigitalGlobe), einmal die Stadt Bonn (Landsat, 30 m, © USGS/NASA Landsat Program) und einmal ein Raum vom Ruhrgebiet bis Koblenz (MODIS, 300 m, © USGS/NASA MODIS Project)

 


Fazit:

Das Produkt eines jeden Fernerkundungssensors sind Rasterbilddaten. Jedes Raster besteht aus Rasterzellen. Sie werden auch Pixel genannt. Je größer ein Pixel ist, um so mehr Objekte der Erdoberfläche werden erfasst und um so kleiner ist die räumliche Auflösung eines Rasterbildes. Je höher die räumliche Auflösung, um so weniger, schwer zu interpretierende Mischpixel sind in einem Rasterbild enthalten.