Begriffe

aus ZUM-Wiki, dem Wiki für Lehr- und Lerninhalte auf ZUM.de
Wechseln zu: Navigation, Suche

Unsere wichtigen Grundbegriffe zur Fernerkundung

Inhaltsverzeichnis

Satellitensysteme

Die Satelliten-Fernerkundung hat verschiedene technische Komponenten zur Voraussetzung.

  • Zuerst bedarf es eines Trägersystems (Raketen), das die Satelliten in die geeignete Umlaufbahn bringt.
  • Dann bedarf es spezieller Aufnahmesysteme mit geeigneten Sensoren und eines Übertragungssystems vom Satelliten zur Erde.
  • Auf der Erde müssen die Rohdaten aufgezeichnet und korrigiert werden, das geschieht im sog. Bodensegment. Die Satelliten müssen auch laufend betreut werden, damit notwendige kleinere Bahnkorrekturen vom Boden aus vorgenommen werden können. Die Daten müssen anschließend an die Nutzer verteilt werden. Dieser ganze Aufwand ist recht kostspielig, deshalb sind Satellitenbilder auch recht teuer.
  1. Im geosynchronen Umlauf bewegt sich der Satellit genauso schnell wie die Erde. Er steht deshalb scheinbar bewegungslos über einem Erdpunkt. Man nennt solche Satelliten geostationär. Beispiele sind die Wettersatelliten Meteosat und GOES über dem Äquator. Sie müssen in etwa 35 800 km Höhe um die Erde kreisen.
  2. In fast polarer Umlaufbahn fliegt der Satellit fast über die Pole. Seine Bahn ist so gelegt, dass er sonnensynchron fliegt, d.h. er überfliegt ein Gebiet der Erde immer zur gleichen Sonnen-Orts-Zeit, so z.B. Landsat. Mitteleuropa wird etwa um 10.15 Uhr (kurze Schatten), der Äquator um 9.30 Uhr (noch keine Quellbewölkung!), den südlichsten Punkt etwa um 4 Uhr, den nördlichsten Punkt um 15 Uhr überflogen. Rückflug auf der Nachtseite der Erde. Nach 99 Minuten ist die Erde einmal umrundet. Da sich die Erde nach einer Umrundung um zusätzlich 160 km gedreht hat, ist die nächste Flugbahn stark versetzt zur letzten. Zur vollen Erdabdeckung werden 16 Tage mit 233 Umläufen gebraucht. Also erst nach 16 Tagen (= zeitliche Auflösung eines Aufnahmesystems) kann ein Gebiet neu überflogen werden. Jede dieser Bahnen heißt "path", die Stückelung in Abschnitte, sog. Szenen mit 185km x 185km, zur besseren Bearbeitung heißt "row". Der path mit der höchsten Nummer bei Landsat 7 ist also 233. Wir liegen in München auf path 193 und row 27 bei Landsat, andere Systeme haben eine auch eine andere Zählweise. Eine Szene von 185 x 185 km wird in 25 Sekunden aufgenommen, das sind etwa 265 Millionen Messwerte in 25 Sekunden. Diese sonnensynchronen Satelliten fliegen in einer Höhe zwischen 700 und 900 km.
  3. Der geneigte Umlauf, z.B. vom Skylab bei der SRTM-Mission, Kosmos oder Ikonos, überstreicht nur die dichter besiedelten Gebiete der Erde. Hier werden geringere Flughöhen, etwa 270 km Höhe, benutzt.

Es gibt grundsätzlich 3 unterschiedliche Aufnahmesysteme bei Satelliten:

  1. Die Fotokamera, bei der das belichtete Filmmaterial in größeren Zeitabständen als Kapsel abgesprengt wurde und so zur Erde gelangte; so bei den russischen Kosmos-Satelliten. Hier wurde vor allem panchromatisches Filmmaterial benutzt. Die starke Rückstrahlung ermöglichte sehr hohe Auflösung von 0,75 m. (Die D-SAT-CD enthält diese Daten, doch wurden die Daten zuerst künstlich verschlechtert auf ca. 1,5 m Auflösung.)
  2. Das Spektrometer, bei dem für ausgewählte Wellenlängenbereiche die Intensität der eintreffenden Strahlung gemessen wird. Alle Spektrometer haben Einrichtungen zur ständigen Neukalibrierung. Fehlleistungen werden an die Bodenstationen übermittelt. Danach erfolgt dann eine Korrektur der empfangnen Bilddaten. Es gibt hier drei Untergruppen:
    1. Das sehr hoch auflösende Spektrometer für den panchromatischen Wellenbereich (großer Wellenlängenbereich von Blau über Grün, Rot bis zum Foto-Infrarot, deshalb große Lichtintensität, deshalb große Auflösung),
    2. der Multispektralscanner für engere Wellenlängenbereiche, z.B. Blau, Grün, Rot, NIR, MIR mit mittlerer Auflösung,
    3. den Thermalscanner mit geringer Auflösung, da die Strahlungsintensität hier sehr gering ist.
  3. Die Radar-Empfangsantenne für die Micrometer-Wellen, wegen der geringen Rückstrahlung auch nur mit geringer Auflösung.

Mehr dazu: [1]

Satellitenbild

Satellitenbilder sind keine "Fotos", der optische Eindruck täuscht.
Satellitenbilder werden aus flächendeckenden Messwerten der Sensoren an Bord von Satelliten erzeugt. Über mathematische Rechenverfahren und Bildverarbeitungsprogramme entstehen nach z.T. mühevoller Feinarbeit farbige Landschaftsbilder. Zumeist wird zur Erstellung farbiger Landschaftsbilder auch das infrarote Licht benutzt. Damit kann man in Satellitenbildern etwas sehen, was uns Menschen mit unseren eigenen Augen in der Natur verwehrt ist.

Man unterscheidet bei Satellitenbildern z.B.:

  1. Einkanalbilder in Graustufen oder mit Farbpalette
  2. Rechen-Karten aus mindestens 2 Strahlungswerten je Bildpunkt
  3. Farbkomposite aus 3 Graustufenbildern
  4. Klassifikations-Karten

Mehr dazu [2]


Quicklook

Ein Quicklook (QL) ist eine systematische Flächenstichprobe in Bildform. Bei Landsat 7 wird jedes 8.Pixel in jeder 8.Zeile ausgewertet. Damit steht ein Quicklook-Pixel für 64 Pixel im Original-Satellitenbild. Ein Quicklook-Pixel hat also eine Auflösung von 240m x 240m.
Die QLs sind nicht entzerrt.

Die NASA hat sich entschlossen, die Quicklooks zu Landsat 7 im aussagefähigen Komposit RGB = (543) darzustellen, und nicht wie früher in Echtfarben.
Grün zeigt jetzt die Vitalität von Pflanzen, also die Aktivität der pflanzlichen Biomasse, nicht aber den Absorptionseffekt des Chlorophylls im sichtbaren Licht.
Rot steht für das Mittlere Infrarot von Kanal 5 und zeigt insbes. Gesteinsunterschiede und Bodenverhältnisse an. (K5 is informationsreicher als das VIS-Rot des K3.) Blau ist ein Zugeständnis für den Bildbetrachter, der Wasserflächen in blauer Farbe erwartet. Es hat mit dem originalen blauen Licht (VIS-Blau, K1) nichts zu tun. Blau zeigt das rote Licht (VIS-Rot, K3). Weil Wasser, feuchter Boden bzw. (feuchter) Nadelwald viel rotes Licht absorbiert und weil trockene Flächen viel rotes Licht reflektieren (also hell erscheinen), gibt auch das rote Licht von Kanal 3 Informationen zur Thematik "Wasser". Insbesondere im Flachwasserbereich, bei Phytoplankton im Wasser und in Salzseen lässt das rote Licht feinere Differenzierungen zu im Vergleich zum blauen Licht.

Orthofoto

Orthofotos sind optische Flugaufnahmen senkrecht auf die Erdoberfläche aus einer Höhe von etwa 3000 m. Sie werden vor allem zur Nachführung von amtlichen Karten benutzt.


Originaldaten

Originaldaten (Rohdaten) sind alle jene Daten, die im sog. Bodensegment vorprozessiert wurden. Zumeist handelt es sich um entzerrte Daten, gelegentlich auch um georeferenzierte Daten. Hauptkennzeichen sind, dass die Daten für einzelne Kanäle verfügbar sind, die systemspezifische Auflösung haben und in Graustufen abgelegt sind.

Im Sonderfall von NDVI, SST, LST und Radar handelt es sich um vorprozessierte und kalibrierte Daten mit der systemspezifischen Auflösung.

Keine Originaldaten sind:

  • Quicklooks (verkleinert),
  • Farbkomposite (manipuliert, d.h. gestretcht, gefiltert u.a.),
  • großräumige Karten (Bildmosaike, verkleinert)


Auflösung

Entscheidend für die Nutzung von FE-Daten ist die Auflösung der Datensätze. Man unterscheidet eine spektrale Auflösung (Zahl der Kanäle), eine zeitliche Auflösung (Wiederkehrrate des Überflugs) und eine regionale/optische Auflösung (Größe der Landfläche, die in einem Pixel dargestellt wird).


Spektrale Signatur

Spektrum

Die spektrale Signatur gesunder Vegetation zeigt einen sprunghaften Anstieg des Reflexionsgrades bei 0,7 µm, während unbewachsener Boden je nach Art einen eher geradlinigen Verlauf aufweist. Je jugendlicher die pflanzliche Zelle ist, desto größer ist der Anstieg des Reflexionsgrades im nahen Infrarot (0,78 - 1 µm). Neben der Unterscheidung der Vegetation von anderen Objekten läßt sich somit die Stärke (und Vitalität) der Vegetation folgern. Diesen Umstand nutzt man bei der Berechnung des NDVI. Die Normierung (durch die Quotientenbildung sind nur Werte zwischen -1 und +1 möglich) mindert topographische und atmosphärische Effekte und ermöglicht so die gleichzeitige Betrachtung großer Gebiete.


Kanal

Kanal meint einen Lichtwellenlängenbereich, der über jeweils einen Sensor erfasst wird. Landsat 7 hat 8 solcher Kanäle.

Mehr dazu unter [[3]]


RGB-Norm

Die RGB-Norm ist die Grundlage für Farbkomposite. Es gibt hierbei nur die drei Grund-Farben R=Rot, G=Grün, B=Blau, daher der Name RGB-Norm. Additiv werden daraus alle anderen Farben erzeugt. Die Grund-Farben können jeweils in unterschiedlicher Intensität erzeugt werden (Elektronenstrahlen in der Bildröhre). Werden drei sehr eng beisammenliegende Punkte jeweils in Rot, Grün und Blau angestrahlt (Lochmaske), so erscheinen die drei Minipunkte für das Auge als ein Farbpunkt mit einer Mischfarbe. Sind die drei Minipunkte R, G, B gleich hell angestrahlt, so ergibt sich für das Auge ein Grauton als Mischfarbe.


Komposit

Komposit meint die Vereinigung von drei Graustufenbildern zu einem Farbbild. Die RGB-Technik ist hierfür die Grundlage. Bei der Überlagerung von drei gleich hellen Graustufen entsteht ein Grauton, bei Überlagerung verschiedener Graustufen entsteht ein Farbton. Das Kompositverfahren zeigt damit primär Intensitätsunterschiede zwischen Graustufenbildern in Farbe an. Die Belegung der Farbkanäle ist für den Farbeindruck entscheidend. Bei den Graustufenbildern steht "dunkel" für geringe, "hell" für hohe Strahlungswerte. Bei Farbkompositen zeigt die Farbe das Übergewicht einzelner RGB-Komponenten an.

Beispiel: Eine blaue Fläche zeigt an, dass das über RGB=blau dargestellte Graustufenbild an dieser Stelle höhere Intensität hat, als die beiden anderen Graustufenbilder. Die absoluten Intensitäten können hierbei recht klein sein, wie z.B. bei Wasserflächen.

Zur Bezeichnung:
Die erste Nennung ist stets das Graustufenbild, das von RGB=Rot dargestellt wird; die letzte Nennung ist der Datensatz, der vom RGB-Blau dargestellt wird.

Weil sich die Helligkeitsunterschiede innerhalb eines Kanals durch Stretch manipulieren lassen, ergeben sich sehr unterschiedliche Komposite. Da es kein normiertes Stretchverfahren gibt, existiert auch kein normiertes Komposit. Farbverschiebungen sind deshalb die Regel. Merke: Farbe ist kein eindeutiges Interpretationskriterium.

Bei den Anwendungen der Komposit-Technik unterscheidet man nach

  1. multispektralen Kompositen, bei denen je nach Verwendungszweck unterschiedliche Sensorkanäle zu einem Zeitpunkt in einem Farbkomposit verknüpft werden. Hierbei werden spezielle Kombinationen bevorzugt benutzt.
  2. multitemporale Komposite, bei denen drei Datensätze zum gleichen Gebietsausschnitt, aber zu verschiedenen Zeitpunkten (bei gleichem Kanal, damit logisch vergleichbar!) in einem Farbkomposit verknüpft werden. Die zeitlichen Veränderungen werden damit farbig dargestellt. Hier gibt es keine Grundsätze, da muss jede Farbfolge für sich überlegt werden.


NDVI

Normalisierter Differenzen-Vegetations-Index

NDVI = (NIR - Rot) / (NIR + Rot)

Im Bereich des Rot wird einfallende Sonnenstrahlung weitgehend durch die im Mesophyll der Blätter enthaltenen Pigmente, vor allem durch das Chlorophyll, absorbiert. Im nahen Infrarot dagegen wird der Großteil der auftreffenden Strahlung von Blattzellen reflektiert. Der NDVI bildet ein Maß für die photosynthetische Aktivität (Vitalität) pflanzlicher Biomasse.
Siehe dazu auch die Figur 1.: Spektrum

Mehr dazu unter [[4]]


Klassifikation

Hier: Überwachte Klassifikation zur Erstellung einer thematischen Karte nur nach Strahlungswerten

Eine Karte ist das Ziel, eine Karte zu sichtbaren geoökologischen Phänomenen, zur Landnutzung im weitesten Sinn, zu Elementen der Kultur- oder Naturlandschaft. Dies geschieht mit Satellitenmessdaten fast so wie das Kartieren im Gelände, nur dass man nicht überall hingehen muss. Zuerst braucht man zu sog. Trainings-/Testgebieten genaue Informationen. Diese beschafft man sich auf einer Exkursion oder man befragt ortskundige Experten. Nur bei farbigen Orthofotos kann man die Information direkt aus dem Bild beziehen. Solche Informationen sollten in Album-Form mit Kommentaren vorliegen.

Im Satellitenbild sind möglichst nur solche Gebiete als Trainingsgebiete zu wählen, bei denen homogene Flächen von etwa der Größe eines Fußballfeldes existieren. Dies ist notwendig, weil jeder Bildpunkt bei Landsat-Daten in der Natur nur 30m x 30m Größe hat. Beim Fixieren der Trainingsflächen braucht man sog. reine Pixel, die eine klare Spektralaussage enthalten. Ein Acker mit einem Fahrweg von 3 m Breite und ein Graben von 3 m Breite gehört z.B. nicht dazu, dieses Beispiel liefert sog. Mischpixel, deren Informationsgehalt nicht "typisch Acker" sind. Trainingsgebiete sollten außerdem je Objekt etwa 20 Pixel enthalten, dann arbeiten die benutzten statistischen Rechenverfahren zuverlässig.

Was kann man in einem Strahlungs-GIS mit Hilfe der überwachten Klassifikation detektieren?

Ein erster Ansatz sucht nach Unikaten (Schädlingsbefall, Schwimmbäder, Tennisplätze, Wiesentypen). Das sind Erscheinungen, die aus dem landschaftlichen Rahmen fallen. Über den Button "Klasse1" in Pixel-GIS kann man vorweg schon einmal testen, wie häufig einzelne Pixel in absolut gleicher Strahlungsaussage im UG vorkommen. Oft ist man erstaunt, wie wenige das sind. (Zur Handhabung: "Klasse1" anklicken, rechts in Farbpalette für eine Farbwahl klicken, dann einen Bildpunkt anklicken. Es werden dann alle Punkte mit der gleichen Strahlungsaussage in dieser Farbe angezeigt. Oben steht die Zahl der Treffer.)

Ein zweiter Ansatz möchte ein möglichst geschlossenes Kartenbild einer Landschaft erzeugen. Hierbei wird man z.B. alle verschiedenen Waldformen einer Klasse zuordnen, man wird helle und dunkle Ackerflächen bzw. Weiden, Schnittwiesen, Streuwiesen als Sammelobjekte definieren. Sehr unterschiedliche Trainingsgebiete zählen hierbei also zu einem Objekt.

Hat man die Trainingsflächen bestimmt und die Pixel zugeordnet, dann kommt die Frage nach dem optimalen Klassifizierungsverfahren. Vier Rechenverfahren werden in Pixel-GIS angeboten: - "Quad" = Quadermethode - "Maxlik" = Maximum-Likelihood-Methode - "MiDi" = Minimale Distanz-Methode - "Maha" = Maximale Wahrscheinlichkeitsmethode Beim Anklicken wird das jeweilige Rechenverfahren benutzt, um über die Gleichartigkeit der Strahlungsprofile der Pixel zu entscheiden. Welche Pixel gehören zu einer Klasse, welche nicht? In der Praxis testet man die vier Verfahren und sucht dabei nach der optimalen Karte.

Mehr dazu unter ZUM.de (Zentrale für Unterrichtsmedien im Internet e. V.) Klassifikation, die gleichzeitige Auswertung von drei und mehr Datensätzen (Satellitengeographie im Unterricht)


Mehr dazu in verschiedenen Glossaren:

Satellitengeographie