Das ENSO-Phänomen

 » Fernerkundung

Fernerkundung

Fernerkundung - Was ist das?

Zunächst einmal ist schon das bloße menschliche Sehvermögen ein beeindruckendes Fernerkundungssystem. Unsere Augen nehmen das von unserer Umgebung reflektierte sichtbare Licht auf, das dann vom Gehirn als Bild verstanden wird. Mental interpretieren wir die Farben, Strukturen, Umrisse und Größen von Objekten um daraus Informationen wie ihre Identität, ihr Zustand, ihre Geschwindigkeit und Bewegungsrichtung und andere Qualitäten abzuleiten. Allerdings hat unser Sehsystem Begrenzungen im Hinblick auf globale Erkundungsaufgaben. Unser Vermögen, Bilder zu speichern und wieder abzurufen, ist ungenau. Zudem können wir keine Informationen aufnehmen, die Wellenlängen benutzen, für die unser Auge nicht wahrnehmbar sind. Auch verschließen sich dem menschlichen Beobachter Gebiete, die schwer zu erreichen oder gefährlich sind, wie die Tiefsee, das Weltall und Gebiete mit hohen Temperaturen oder starker Strahlung. Flugzeug- und satellitengetragene Sensoren liefern eine Vielfalt von Umweltdaten von Flächen, die mit anderen Mitteln nicht zusammengetragen werden können.

In einer allgemeinen Definition bedeutet der Begriff Fernerkundung: "Das Erfassen und Aufnehmen von Objekten aus der Entfernung, ohne direkten Kontakt des Aufnahmesystems, des sogenannten Sensors, mit dem zu erkundenden Objekt" (Kronberg 1985). Damit steht Informationsgewinnung mittels Fernerkundung im Gegensatz zu in situ-Verfahren.

Bei der Fernerkundung finden passive oder aktive Systeme Verwendung, wobei weite Bereiche des elektromagnetischen Spektrums ausgewertet werden können. Passive Systeme zeichnen überwiegende die von der Erdoberfläche oder anderen Objekten reflektierte Sonnenstrahlung auf (z. B. Multispektralkamera) sowie die von der Erdoberfläche emittierte Eigenstrahlung (z. B. Wärmebildkamera). Im Gegensatz dazu senden aktive Systeme Mikrowellen- oder Laserstrahlen aus, scannen dabei Objekte und Gebiete und empfangen deren reflektierte Anteile (zum Beispiel Radarsysteme und Laseraltimeter).

! Zur Gewinnung von Informationen benutzt man bei Fernerkundungsverfahren gewöhnlich die elektromagnetische Strahlung, die vom beobachteten Objekt abgestrahlt wird, und zwar auch den Spektralbereich, der für das menschliche Auge nicht sichtbar ist.

Als Objekte gelten Erscheinungen auf der Erdoberfläche, einschließlich der Meere, sowie Erscheinungen in der Atmosphäre oder auf Oberflächen anderer Himmelskörper, bzw in deren Atmosphären. Die Informationen bestehen in der Materialbestimmung, d.h. die Zusammensetzung von Erdoberfläche und Atmosphäre, und der Zustandsbestimmung, z.B. Temperatur, Druck, Phase.

Gewöhnlich rechnet man auch die Arbeitsschritte Auswertung und Interpretation zur Fernerkundung. Dagegen wird die Aufzeichnung von Gravitationsfeldern, magnetischen oder ührungsfrei und aus der Ferne Informationen über die beobachteten Objekte sammeln. Teils wird diese rigide Klassifizierung inzwishen aufgegeben.

Fernerkundungsdaten liegen zumeist in digitaler Form vor oder können z.B. durch Scannen von Photos digitalisiert werden. Zudem sind sie häufig in Formaten erhältlich, die sie für geographische Informationssysteme (GIS) verwendbar machen. Wichtigste Schritte der Bildanalyse in der Fernerkundung sind Bildverbesserung, Korrektur der perspektiv und projektiv verzerrten Bilder (geometrische Rektifizierung), Klassifizierung nach multispektralen, textur- und musterabhängigen Parametern, Einbeziehung von Expertenwissen und multitemporale Vergleiche. Produkte der Fernerkundung sind aber nicht nur (geokodierte) originäre oder klassifierte Bilddaten in digitaler und/oder analoger Form, sondern auch flächenbezogene Statistiken in Tabellen- oder Diagrammform sowie objektspezifische spektrale Signaturenkataloge.

Zielobjekt der Fernerkundung, wie sie z.B. im Kontext von ENSO eingesetzt wird, ist das System Erde mit seiner oberflächennahen Lithosphäre, der Biosphäre, Hydrosphäre, Atmosphäre und Anthroposhäre.

Seit wann gibt es Fernerkundung?

Aufzeichnende Erkundung von Objekten aus der Ferne, ohne mit ihnen direkten Kontakt zu haben, besitzt eine lange Tradition und ist mit unterschiedlichen Motiven verbunden. Das interessierende Objekt (Erdoberfläche, Atmosphäre, Weltraum) ist dabei möglicherweise nicht erreichbar oder der Beobachter will unbemerkt bleiben und hält Distanz. Die Qualität von Fernerkundungsergebnissen war und ist stark abhängig vom jeweiligen Stand der Technik. Bezieht man ihre Vorformen mit ein, so reichen die Technologien der Fernerkundung von der Schaffung erhabener Beobachtungspunkte und dem Gebrauch einfacher Ferngläser bis zu hochkomplexen Satellitensystemen.

Anfang der 60er Jahre des vorigen Jh. begann nach einigen Dekaden der Luftbildinterpretation die Ära der satellitenbildgestützten Fernerkundung mit den vor allem die Meteorologen interessierenden täglichen Bildern amerikanischer Wettersatelliten (s. auch unten). Für nicht an wetterkundlichen Informationen interessierte begann diese Ära - und damit auch bald die allgemeine Verwendung der Begriffe "Remote Sensing" bzw. "Fernerkundung" - 1972 mit dem ersten für zivile Zwecke der Erfassung von Landoberflächen gestarteten ERTS-1.

Auf eine Phase euphorischer Überschätzung der Möglichkeiten der damaligen FE folgte zunächst eine Ernüchterung angesichts der tatsächlich noch vorhandenen Nutzungsprobleme. Bald folgte jedoch eine sich steigernde Weiterentwicklung von Auswertungstechniken, vor allem durch die auch weiterhin nicht abgeschlossene Verbesserung und Vielfalt der Sensoren, einschließlich des Radars. Hinzu traten die Verknüpfungsmöglichkeiten verschiedener FE-Daten untereinander und mit anderen Daten in geographischen Informationssystemen sowie die Schaffung abgeleiteter Produkte. Gleichzeitig erfolgte der Übergang von experimenteller zu operationeller und damit wirtschaftlicher Datennutzung. Aktuell sind zwei Trends auszumachen, die einen zunehmend vielseitigen Einsatz erlauben:

Fernerkundung - Marksteine ihrer Entwicklung
Prähistorie frühe Hominiden nutzen freistehende Bäume in den Savannen Afrikas oder Hügel, um den Horizont nach Beute oder drohenden Gefahren abzusuchen
weitere Menschheits-
geschichte
Einsatz von Wacht- und Aussichtstürmen, Ferngläsern, Teleskopen, für astronomische Beobachtungen auch von Orientierungshilfen
1839 erste Photographie (Daguerrotypie)
1858 erste photographische Bilder aus Fesselballon in 80 m Höhe über Paris von Gaspar F. Tournachon, alias Nadar; Beginn der modernen Fernerkundung
1860 Jules Verne schreibt über Lunanauts, die Wolkensysteme beobachten
1860er Luftbilder aus Drachen, Ballons, Raketen, von Brieftauben; ballongestützte Luftaufklärung im amerikanischen Bürgerkrieg
1887 dt. Förster kartieren Baumarten mithilfe von Luftaufnahmen aus Ballons (frühes Bspl. für photogr. Interpretation)
spätes 19. Jh. Ballon-basierte Messung von Druck-, Temperatur- und Feuchteprofilen in der unteren Atmosphäre (Entdeckung der Tropopause)
1906 Luftaufnahme von Bord einer luftdruckbetriebenen Rakete aus einer Höhe von knapp 900m; die Kamera wurde in der Höhe ausgestoßen und landete per Fallschirm; Konstrukteur Albert Maul.
1906 Luftbilder von den Bränden und Erdbebenzerstörungen in S.F. aus 600 m Höhe; dazu befanden sich schwere Kameras an Bord von Ballondrachen, Konstrukteur: G.R. Lawrence
1909 erste photographische (Schräg)Bilder aus einem Flugzeug in Centrocelli, Italien (Wilbur Wright)
1914 - 1918 Systematische Reihenaufnahmen, militärische Luftaufnahmen; spezielle Kameras für Luftaufnahmen
1919 erstes (thermales) Infrarotbild aus einem Flugzeug (Hoffman)
1920er experimentelle, anwendungsorientierte Anwendung von Luftbildphotographie und Photogrammetrie (forstlich, geographisch, archäologisch), erste großräumige Luftbilderkundungen (Indonesien, Antarktis, Grönland)
1930er Entwicklung des Radar (D, UK, USA)
1939 - 1945 militärische Luftbildauswertung, Luftbildplanwerke, Farbfilmeinsatz, Testeinsatz SIR, CIR-Film (Aufdeckung von Tarnung), Einsatz von Flugzeugen, Raketen (V1, V2)
1950er Begriff "remote sensing" zuerst in den USA benutzt (Ms. Evelyn Pruitt vom U.S. Office of Naval Research)
1954 Westinghouse entwickelt das erste luftgetragene Seitensicht-Radar
1954 Erstflug des Spionageflugzeugs U-2
1957 Geräte zur Temperaturmessung an Bord des russischen Sputnik I
1958 Start des nur 14 kg schweren Explorer-1, mit dem die strahlungsintensiven Zonen Van-Allen-Gürtel entdeckt werden. Gründung der NASA.
1959 erstes photographisches Satellitenbild (amerikanische Explorer-6-Mission)
1960 erste Satellitenbilder für meteorologische Zwecke (amerikanischer Satellit TIROS-1)
ab 1962 Fernerkundungsmissionen zu anderen Planeten
ab 1965 photographische Aufnahmen aus den amerikanischen Gemini- und Apollo-Raumkapseln
1966 3 operationelle meteorologische Satellitensysteme
- ESSA (Environmental Science Service Administration, polarumlaufend, sonnensynchron)
- DMSP (Defense Meteorologigal Satellite Program, polarumlaufend, sonnensynchron)
- ATS (Application Technology Satellite, geostationär)
1968 erster Satellit mit passiven Mikrowellensensoren: der russische Kosmos 243
1972 erstes digitales Satellitenbild der Erderkundung (Scanner an Bord des amerikanischen ERTS-1, syn. Landsat-1)
1977 Erster METEOSAT-Satellit im geostationären Orbit
1981 erster Space Shuttle-Flug
ab 1986 stereophotogrammetrisch auswertbare Bilddaten mit dem französischen Satellitensystem SPOT
ab 1990 Raumstationen zur operationellen Fernerkundung
1991 Start des europäischen ERS-1, erster Satellit dessen Altimeter die Erde mit einer Genauigkeit von 5 cm vermessen konnte
1992 Start des franz.-amerikanischen Forschungssatelliten TOPEX/Poseidon mit einem Altimeter zur Bestimmung der Meereshöhe
1997 TRMM (Tropical Rainfall Measurement Mission): erstes Regenradar auf einem Satelliten
2002 Start von ENVISAT - dem grössten europäischen Umweltsatelliten
2002 erster Satellit der METEOSAT Second Generation (MSG) wird gestartet.
2006 erster europäischer Wettersatellit auf polarer Umlaufbahn (MetOp) wird gestartet
2007 Start des deutschen Radarsatelliten TerraSAR-X zur Erzeugung hochaufgelöster Radarbilder
2014 Start von Sentinel-1, dem ersten Satelliten des neuen europäischen Erdbeobachtungsprogramms Copernicus

In welchen Feldern wird Fernerkundung eingesetzt?

Fernerkundung ist heute unverzichtbarer Bestandteil von Ressourcen-Kartierungen und Bestandsaufnahmen. Fernerkundungsbilder bieten einen Überblick über die Ressourcen unserer Erde in ihren Zusammenhängen. Vegetation, Geologie, Böden, Hydrologie, Verkehrsnetz und Siedlungsmuster werden alle in ihrem räumlichen Kontext wiedergegeben. Zudem können einzelne FE-Bilder für unterschiedliche Disziplinen und Aufgabenstellungen ausgewertet werden. Wettersatelliten liefern aktuelle Bilder im Stundentakt oder noch häufiger.

remosens_zsfssg

Einsatzbereiche von Fernerkundung

Siehe auch die folgende Tabelle


 

Quelle: NASDA
Einsatzfelder der Fernerkundung (Übersicht)
Geologie, Petrographie wissenschaftliche Geologie (z.B. visuelles Erkennen von Störungs- und Zerrüttungslinien, in semiariden/ariden Gebieten Differenzierung von verschiedenen Gesteinszonen), angewandte Geologie (z.B. Lagerstätten-Exploration)
Geomorphologie visuelles Erkennen des Formenschatzes
Vegetation, Landnutzung NDVI, Anbauartendifferenzierung, umfangreiche Programme zu Ertragsaussichten, Subventionsüberwachung, Phänologie, Nutzungskartierung, Aufspüren illegaler Kokafelder in S-Amerika
Landschaftsökologie Desertifikation
Bodenkunde Bodenzerstörung, Hilfe zur Kartierung
Forstwirtschaft Bestandserhebung, Waldzustandserhebung, Entwaldung, Fire Monitoring
Globaler Wandel Entwaldung, Desertifikation, globaler saisonaler Vegetationswandel
Hydrologie genaue Erkundung von Flusseinzugsgebieten, Hochwassermonitoring, Gewässerbelastung durch Schwebstoffe, Algenbildung, Abwassereinleitung, thermische Struktur, Gletscherkartierung
Umweltsektor Inventoring, Monitoring, Kontrolle internationaler Verträge zum Schutz der Umwelt (MEAs), vgl. Linkliste in http://www.fe-lexikon.info
Archäologie Aufspüren von Geländedenkmälern durch shadow sites, crop sites, soil marks
Katastrophenmonitoring, -management Waldbrände (Ausmaß der Zerstörung), Vulkanaktivität (Vorhersage, Risikoanalyse und Überwachung), Erdbeben (Risikoanalyse, Höhenänderung), Umweltverschmutzung (Öleinleitung auf den Weltmeeren)
Planung Grundlage für Kartierungen, Visualisierungen
natur-/kulturräumliche Gliederung; Landschaftsmonitoring Erfassung und Analyse von Änderungen und Entwicklungen der Nutzung oder Struktur von Landschaften, z.B. zum effizienten Schutz der natürlichen Ressourcen
Landklassifizierung Bestimmung der Nutzungseignung, Hilfsmittel zur Vermeidung von Nutzungskonflikten
Landressourcenkartierung vorsorgende Landesplanung
Siedlungsentwicklung Urbanisierung, Landverbrauch, siedlungsklimatologische Fragen
Kartographie Grundlage von topographischen Karten und Landnutzungskarten in wenig erforschten Gebieten
Stereophotogrammetrik Erstellung von digitalen Höhenmodellen sowie, bei höchstauflösenden Daten (z.B.: System IKONOS), Erstellung von Stadtplänen
Meereskunde Rauhigkeit und Neigung der Wasseroberfläche, Temperatur der obersten Wasserschicht, Wasserfarbe, Oberflächenströmung, Unterwasserbänke in Tidengewässern, Ölflecken auf dem Meer
Meteorologie, Klimatologie Wetterbeobachtung, Klimaveränderungen; Oberflächentemperatur in Thermalbildern
militärische FE Truppenstärken, -bewegungen, Waffensysteme, Raketenfrühwarnsysteme

Welches sind die Vorteile von Fernerkundung?

Gegenüber der subjektiven Sicht des Menschen besitzt die FE-Technologie einige wichtige Vorteile. Sie verbindet eine synoptische Sichtweise (Großräumigkeit, Gleichzeitigkeit) aus der Vogelperspektive mit raschem Zugriff und kurzen Wiederholraten, Chancen, die eine Bodenbegehung nicht ermöglicht. Dies erlaubt die Analyse und Beobachtung von regionalen und globalen Phänomen, z.B. die Abnahme der Ozonschicht über der Antarktis, Daten zu Wolkentemperatur und Niederschlag, Waldbrände, die Vernichtung des tropischen Regenwaldes, Desertifikationsentwicklung, Landnutzung, Erntezustand, Bewegungen von Gletschereis und Eisbergen, Meeresoberflächentemperaturen oder Sediment- und Chlorophyllkonzentrationen von oberflächennahen Wasserschichten sind nur einige Beispiele.

Auf welchen physikalischen Grundlagen beruht Fernerkundung?

FE-Verfahren gehen von der Tatsache aus, dass die natürliche oder künstliche Strahlung (z.B. Sonnenlicht, Radar, Schall) von den Objekten unterschiedlich emittiert bzw. reflektiert wird. Objektbeschreibende elektromagnetische Strahlung setzt sich in Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien in unserem Kontext sind die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen. Daher wird ein zentraler Bereich der Fernerkundung auch als Erdbeobachtung (earth observation) bezeichnet.

Elektromagnetische Strahlung wird von Energiequellen ausgesendet, breitet sich in der Atmosphäre aus, tritt in Interaktion mit den atmosphärischen Teilchen und mit der Erdoberfläche, wird von Sensoren innerhalb oder außerhalb der Atmosphäre aufgezeichnet und in analoger und/oder digitaler Form gespeichert. Mittels eines geeigneten Systems zur Bilddatenanalyse und Bilddatenausgabe erfolgt eine Bearbeitung, Klassifikation und Visualisierung der Bilddaten.

Energiequellen wie Sonne und Erde emittieren elektomagnetische Strahlung in wellenlängenabhängigen Intensitäten (Plancksches Strahlungsgesetz, Stefan-Boltzmann-Gesetz, Wiensches Verschiebungsgesetz). Passive Fernerkundungsverfahren zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Aktive Fernerkundungsverfahren wie Radar oder Laser (LIDAR) senden kohärente Strahlungspulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten/reflektierten Signale. Radiometrische Korrekturen berücksichtigen die Strahlungscharakteristika der jeweiligen Energiequellen.

Die Atmosphäre vermindert die Intensität der Sonnenstrahlung durch Streuung und Absorption in Funktion der Streupartikelgröße und der Wellenlänge (atmosphärische Extinktion). Große Transparenz besteht in sog. atmosphärischen Fenstern im sichtbaren Bereich des Spektrums, im nahen, im mittleren und im thermalen Infrarot sowie in hohem Maße im Mikrowellenbereich (elektromagnetisches Spektrum). Es ist deshalb wichtig, die Beeinflussung der elektromagnetischen Strahlung durch die Atmophäre gut zu kennen, denn sie beeinträchtigt die Qualität der Bilder. Einige der atmosphärischen Effekte können korrigiert werden, bevor die Bilder einer weiteren Analyse und Auswertung unterzogen werden (Atmosphärenkorrektur).
Bei Interaktion der Strahlung mit der Erdoberfläche werden je nach Art der Landbedeckung (landcover) gewisse Strahlungsanteile reflektiert, andere absorbiert. Die Variation der Reflexion in Funktion der Wellenlänge wird objektspezifische Spektralsignatur genannt und ist Kenngröße für die spektrale (thematische) Differenzierbarkeit von Objekttypen.

Welche Rolle spielt die sogenannte 'Auflösung'?

Die Erkennbarkeit von Objekten (Auflösungsvermögen) hängt natürlich sehr stark von dem geometrischen Auflösungsvermögen des Sensors ab (Brennweiten, Flughöhe, Maßstab etc.). Daneben spielen Faktoren wie Bildkontrast, menschliches Farb- und Objektempfinden sowie dem Auflösungsvermögen des Auges eine große Rolle. Im Gelände sind dies die Eigenschaften von Geo-Objekten und die ihrer Umgebung selbst; d.h. sie müssen sich z.B. durch Größe, Farbe und Form von ihrer unmittelbaren Umgebung deutlich abheben.
Mit dem Begriff sind mehrere Eigenschaften von Sensoren und Trägersystemen verbunden. Man unterscheidet:

Welches sind wichtige Fernerkundungsverfahren?

Unter den Verfahren der FE sind jene besonders wichtig und am weitesten verbreitet, die zu einer bildhaften Wiedergabe der Erdoberfläche führen (abbildende FE-Systeme). Unterschieden werden photographische (Luftbilder, z.T. auch von Satelliten oder früher aus dem Space Shuttle) und nicht-photographische Aufnahmeverfahren (digitale Bilder, Radaraufnahmen), die von bemannten Flugzeugen, Ballonen, unbemannten Flugobjekten (Drohnen), bemannten Raumfahrzeugen und Satelliten (Satellitenfernerkundung) oder auch von höher gelegenen Geländepunkten aus zur Erkundung der Erdoberfläche und der Atmosphäre genutzt werden.

Passive Fernerkundungsverfahren zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Meist handelt es sich um multispektrale Scanner. Deren punktbezogenen Messwerte liefern Rasterdaten des aufgenommenen Geländes.
Aktive Verfahren wie Radar oder Laser senden kohärente Strahlungsimpulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten Signale.

Die erfolgreiche Interpretation von Luft- und Satellitenbildern setzt voraus, dass der Bearbeiter die notwendige Sachkenntnisse hinsichtlich des Gegenstandes der Interpretation mitbringt. Dies kann die Anwendungsdisziplin betreffen (z.B. forstwirtschaftliche Kenntnisse für die forstliche Luftbildinterpretation) oder auch die Region (z.B. landeskundliche Kenntnisse zur Interpretation von Bildern aus einem Entwicklungsland). Auch ist in gewissem räumlichen Umfang eine detaillierte Verifikation wesentlich für den effektiven Einsatz von FE. Darüber hinaus sind Kenntnisse über die Entstehung der Bilder und ihre Eigenschaften erforderlich, um die durch die Interpretation gegebenen Möglichkeiten der Informationsgewinnung voll ausschöpfen zu können und Fehlinterpretationen nach Möglichkeit zu vermeiden.

Welche Software ist für die Auswertung von Fernerkundungsdaten geeignet?

Zur Auswertung von Fernerkundungsdaten ist ein Standard-PC vollkommen ausreichend. Da die Bilddaten in Rasterform vorliegen, ist mehr Speicher von Vorteil. Wesentlich ist aber eine Bildauswerte-Software, die es sowohl erlaubt, Bilder unterschiedlicher Formate in beliebiger Kanalkombination einzulesen, die aber auch Module zur radiometrischen Veränderung (z.B. Kontrastoptimierung), Filterung (Hoch-, Tiefpassfilter), Bildarithmetik (Subtraktion, Maskierung) und Klassifizierung (Clustering) enthält. Solche Software wird als abgespeckte Public Domain bzw. Shareware (MultiSpec, ENVI-FreeLook), kostenlose oder preiswerte Software für den Bildungsbereich (LEOWorks, Duttke, IDRISI) und professionelle Programm-Pakete (ERDAS, ARC-INFO) angeboten.

Vgl. auch den diesbezüglichen Teil der Linkliste in: http://www.fe-lexikon.info

Anwendungsbeispiel I:
Welche Rolle spielt die Fernerkundung für die Wetter- und Klimakunde?

Neben der Wetterbeobachtung an meteorologischen Stationen, Observatorien, auf (Wetter-)Schiffen usw. dienen seit 1960 Wettersatelliten zur Gewinnung von meteorologischen Daten. Über die Jahre hinweg wurde ein weltweites operationelles Wettersatellitensystem aufgebaut, das das Wettergeschehen über der Erde in zeitlich hoher Auflösung flächendeckend beobachten soll. Damit arbeitet es u.a. den Wetterdiensten (z.B. dem Deutschen Wetterdienst) und der Weltorganisation für Meteorologie bei der Erfüllung ihrer Aufgaben zu. Zu dem System gehören geostationäre und polarumlaufende Satelliten. Dieses weltraumbasierte globale Beobachtungssystem (GOS) wird seit 1972 von der CGMS (Coordination Group for Meteorological Satellites) koordiniert.

satsyst

Weltraumbasiertes Beobachtungssystem
der WMO

Das Ziel des Weltraumprogramms ist es, die Verfügbarkeit und Nutzung von Satellitendaten und -produkten für Wetter, Klima, Wasser und verwandte Anwendungen für die WMO-Mitglieder zu fördern.
Es koordiniert die Belange und Aktivitäten im Zusammenhang mit Umweltsatelliten in allen WMO-Programmen und gibt Hinweise auf das Potenzial von Fernerkundungstechniken in der Meteorologie, Hydrologie und verwandten Disziplinen.


Quelle: WMO Space Programme / GOS

Geostationäre Wettersatelliten

Die geostationären Satelliten (z.B. METEOSAT, GOES) sind scheinbar ortsfest in ca. 35.800 km über dem Äquator angeordnet, sodass mit einem System von 5 Satelliten die ganze Erde bis etwa 70° N/S alle 15-30 Minuten abgetastet werden kann:

Die geostationären Satelliten messen normalerweise in drei Kanälen:

Die Daten für die Infrarotbilder (IR) sind Strahlungsdaten aus dem Bereich mit den Wellenlängen zwischen 10,5 und 12,5 µm. Der Satellit misst die Strahlungsintensität in diesem Bereich. Es ist das Frequenzband, in dem Wasserdampf Strahlung emittiert. Man misst damit die Strahlung, die die Wolkenoberfläche verlässt (oder die Erdoberfläche, wenn keine Wolken vorhanden sind). Kalte Gebiete erscheinen hell, warme dunkel im IR-Bild. Man kann diese Strahlungsdaten in Temperaturen umrechnen: Je stärker die Strahlung, desto wärmer die Wolkenoberfläche. Diese Temperatur sagt wiederum etwas über die Höhe der Wolkenoberfläche aus: Je höher die Wolkenoberfläche desto kälter ist sie. Es gibt sogar Faustregeln zum Niederschlag: Unterhalb von Wolkenoberflächen mit Temperaturen < -32 °C fällt Niederschlag.
In einem IR-Bild erscheinen tiefe Wolken grau, hohe Wolken weiß. Schwarze Landflächen sind heiß, graues Land kühl.

Für ein Bild im sichtbaren Bereich misst der Satellit Strahlung im Frequenzbereich, in dem Wasserdampf das einfallende Sonnenlicht reflektiert (0,4 - 1,1 µm). Dementsprechend gibt es nur am Tag Visible-Bilder. Die Strahlung wird in einen Farbwert umgerechnet. Starke Reflexion (hohe Albedo) wird weiß dargestellt. Normalerweise erscheinen Landflächen heller als das Meer aber dunkler als Wolken. Helle Wolken im Visible-Bild haben eine hohe Albedo, weil sie dick sind, einen großen Wasser-(Eis-)Anteil haben und eine kleine mittlere Tröpfchengröße aufweisen. Graue Wolken (tiefe Albedo) haben eine geringe Dicke, einen kleinen Wasser-(Eis-)-Gehalt und weisen eine große mittlere Wolkentröpfchengröße auf.

Für das Wasserdampf-Satellitenbild misst der Satellit die Strahlung im Bereich mit Wellenlängen zwischen 5,7 - 7,1 µm. In diesem Bereich ist Wasserdampf bei der Absorption das dominierende atmosphärische Gas. Je weniger Strahlung den Satelliten erreicht, desto mehr Wasserdampf ist vorhanden. Das Wasserdampfbild eignet sich vor allem für die Analyse der Strömung in der mittleren Troposphäre zwischen 300 und 600 hPa.

Der große Vorteil der geostationären Satelliten ist die hohe zeitliche Auflösung: Jede 15 - 30 Minuten wird ein neues Bild geliefert. Damit kann man ganze Filme zusammensetzen und so die Wetterentwicklung verfolgen. Es ist auch möglich, aus der Bewegung der Wolken von einem Bild zum nächsten das Windfeld zu errechnen. Solche Daten werden zusammen mit den Temperaturdaten in die Wettermodelle gegeben. Aufgrund der Erdkrümmung ist von geostationären Satelliten aber nur ein Teil der Erdkugel bis etwa 60° N/S mit ausreichender Genauigkeit abbildbar.

Polarumlaufende Satelliten

Da die für das Wettergeschehen wichtigen Polargebiete somit aus dem geostationären Orbit nicht eingesehen werden können, wird das System durch polarumlaufende Satelliten (z.B. die TIROS-Serie der NOAA) ergänzt. Die Satelliten überqueren auf ihrer Bahn in etwa die beiden Pole, während die Erde sich unter ihnen wegdreht. Dabei ist von Vorteil, dass die Fluggeschwindigkeit im Gegensatz zu den geostationären Satelliten nicht durch die Drehgeschwindigkeit der Erde gegeben ist. Als Folge können diese Satelliten auch "tief" fliegen (Höhe ca. 850 km) und die Bilder in höherer räumlicher Auflösung vorliegen. Jeder dieser Satelliten ist in der Lage, die gesamte Erde alle 12 h in zeitlich versetzten Beobachtungsstreifen vollständig abzutasten. Die Beobachtungsstreifen besitzen im Falle von TIROS eine Breite von ca. 3.000 km. Da sich die einzelnen Orbitalbahnen in den Polargebieten kreuzen, ist hier die zeitliche Auflösung deutlich höher. Die NOAA-Satelliten messen üblicherweise in fünf Kanälen:

Generell gilt, dass die Messbereiche ständig ausgeweitet und die Messungen durch neue Entwicklungen verbessert werden.

Die Wettersatelliten des globalen Beobachtungsnetzes dienen vorwiegend zur Verbesserung der kurzfristigen Wettervorhersage. Regelmäßig abgeleitete Produkte sind u.a. Meeresoberflächentemperaturen (SST, Sea Surface Temperature), die aus Wolkenbewegungen extrahierten Windfelder (CMW, Cloud Motion Winds) sowie der Bedeckungsgrad und die Wolkenart. Daneben bestehen weitere Systeme, die mit passiven oder aktiven Mikrowellenradiometern vor allem zur Erfassung von Niederschlagsfeldern eingesetzt werden. Beispiele dafür sind das DMSP (Defense Meteorological Satellite Program) mit dem passiven SSM/I Sensor (Special Sensor Microwave/Imager) und TRMM (Tropical Rainfall Measuring Mission).

Vorteile der Satellitenbeobachtung in der Wetter- und Klimakunde

Als Vorteile der Satellitenbeobachtung gegenüber anderen meteorologischen Mess- und Beobachtungssystemen gelten:

Tutorials und Informationen zur (Satelliten-)Fernerkundung finden Sie bei folgender Adresse:

Anwendungsbeispiel II:
Welche Rolle spielt die Fernerkundung für die Meereskunde?

Etwa zwei Drittel der Erdoberfläche bestehen aus den Wasserflächen der Meere. Sie entzogen sich bis vor wenigen Jahrzehnten alleine durch ihre Größe einer flächendeckenden Beobachtung, und zusätzlich reichen sie - auch heute nur punktuell erreichbar - in die dritte Dimension.

Immerhin bieten heute die Kombinationen verschiedener Fernerkundungsverfahren die Erkundung der Meere bzw. die Messung ozeanographischer Parameter. Die jeweiligen Messinstrumente befinden sich nicht in dem speziellen Wasserkörper, von dem ozeanographische Daten gewonnen werden sollen, sondern kann sowohl entfernt davon im Wasser als auch darüber platziert sein. Zu den ozeanographischen Fernerkundungsmethoden zählt auch die Vermessung des Ozeans mit akustischen Instrumenten, die sich im Wasser befinden (Hydrophone). Über dem Wasser können Fernmessinstrumente an der Küste oder auf Meeresplattformen, Schiffen, Hubschraubern, Flugzeugen oder Satelliten installiert sein. Insbesondere die Satellitenfernerkundung, die weltweite Messungen ermöglicht, hat in den letzten Jahren in der Ozeanographie große Bedeutung erlangt.

Einige mit Fernerkundung messbare ozeanographischen Größen:

Es werden große Anstrengungen unternommen, um ein Fernerkundungsgerät zu entwickeln, das in der Lage ist, auch den Salzgehalt der obersten Wasserschicht zu messen.
Diese direkt messbaren ozeanischen Größen enthalten auch Informationen, die nicht nur die Eigenschaften der Wasseroberfläche wiedergeben. So kann man aus Veränderungen der Rauhigkeit der Wasseroberfläche auch Informationen über Phänomene im Inneren des Ozeans erhalten, z.B. über interne Wellen, und aus Veränderungen der Neigung Rückschlüsse über das ozeanische Strömungsfeld ziehen.

Die elektromagnetischen Wellen, die zur Fernerkundung des Meeres von Satelliten aus verwendet werden, reichen von ultravioletten bis zu Mikrowellen im Bereich von Zentimetern bis Dezimetern. Von der Küste aus werden auch Hochfrequenz-Radare zur Messung von Meeresoberflächenströmungen eingesetzt. Generell kommen sowohl aktive, wie auch passive Sensoren zum Einsatz. Zu den passiven Sensoren gehören photographische Kameras, multispektrale Scanner und Radiometer, die sowohl im infraroten, sichtbaren und ultravioletten Wellenlängenbereich als auch im Mikrowellenbereich arbeiten. Fotokameras und multispektrale Scanner werden zur Messung der Ozeanfarbe verwendet und Radiometer zur Messung der Wassertemperatur und Windgeschwindigkeit. Zu den aktiven Sensoren gehören das Windscatterometer, das Radaraltimeter und die abbildenden Radargeräte wie das Radar mit realer Apertur (Real Aperture Radar, RAR) und das Radar mit synthetischer Apertur (Synthetic Aperture Radar, SAR).

Weitere Informationen: