Beobachtung und Vorhersage

Einleitung

Dieses Kapitel befasst sich mit Beobachtungsverfahren, Messsystemen, Klimamodellen zur Vorhersage sowie dem Nutzen von Vorhersagen. Aktuelle Daten bzw. die externen Links zu ihrer Beschaffung finden Sie hingegen im Kapitel Aktueller Zustand des Pazifiks.

Daten zur Beobachtung und Vorhersage von El Niño-/La Niña-Ereignissen werden gegenwärtig geliefert von

  1. Pegelstationen auf Land
  2. Satelliten (Doppelrolle, einerseits Träger von Sensoren, andererseits Datenübermittler, z.B. von Bojen zu Forschungsstationen auf Land)
  3. fest verankerten Messbojen
  4. frei schwimmenden (driftenden) Messbojen
  5. Schiffen (auf freiwilliger Basis)
  6. Wind-Profilern

Mit Hilfe dieser Daten versuchen die Klimaforscher, die Vorgänge im pazifischen Ozean und der darüberliegenden Atmosphäre mit Computermodellen auf Grossrechnern zu simulieren. Dies ist keine einfache Aufgabe, weil es zum einen noch nicht seit langer Zeit solche Klimadaten über den Pazifik gibt und zum anderen, weil die Vorgänge in der Natur nicht linear sind, sondern auch schon kleine Veränderungen grosse Auswirkungen haben können. Ferner gibt es noch immer deutlich zu wenige Beobachtungspunkte, insbesondere was die Tiefen des Ozeans betrifft.

"Except for the regular progression of the seasons, ENSO is the most predictable climate fluctuation on the planet. Its predictability is based on wind-driven seasonal variations in the amount of heat stored in the upper few hundred meters of the tropical Pacific Ocean. These variations affect sea surface temperatures, which in turn influence the global atmospheric circulation."

McPhaden, M. J., Zebiak, S. E., Glantz, M. H. (2006): ENSO as an Integrating Concept in Earth Science

Die Notwendigkeit, mit verschiedenen, möglichst Realzeit-Daten liefernden Systemen die Beobachtung zu betreiben, zeigte sich spätestens beim großen El Niño von 1982, der bereits in vollem Gange war, als die Wissenschaftler ihn bemerkten. Diese hatten vereinzelte Hinweise über deutliche Änderungen der Ozeantemperatur von entfernten Inseln im Pazifik ignoriert und vielmehr ihren Wettersatelliten vertraut, die nichts Ungewöhnliches aufzeichneten. Dies lag daran, dass die Temperaturmessungen durch die Stäube eines Vulkanausbruchs Mexiko (El Chichon) überlagert waren. Zwar waren schon Messbojen in Äquatornähe installiert, ihre Daten waren jedoch erst Monate später verfügbar, nachdem die Instrumente geborgen waren.

Die Aussagekraft der verschiedenen Systeme ist äußerst unterschiedlich, was an den folgenden Beispielen deutlich wird:
Pegelmessungen liefern zwar regelmäßig Daten, haben aber den Nachteil, dass sie an die zufällige Verteilung von Inseln und Küsten gebunden sind, was erhebliche Beobachtungslücken zur Folge hat. Gleiches gilt für Handelsschiffe, die im Auftrag der Forschung Messsonden auf ihren routengebundenen Fahrten aussetzen. Räumlich und zeitlich systematischer werden Daten hingegen von einem Netz fest verankerter Bojen geliefert.

Satelliten auf einer Umlaufbahn vermögen zwar kontinuierlich Daten zu liefern. Es können bei jedem Überflug aber nur Daten aus Streifen von einigen 100 km Breite erfasst werden. Ein vollständiges Bild des tropisch-pazifischen Raumes entsteht folglich erst im Abstand einiger Tage.

Kontinuierliche Daten können demgegenüber von geostationären Satelliten geliefert werden, die jedoch jeweils nur den von ihnen aus sichtbaren Teil der Erdoberfläche darstellen können (GOES: Geostationary Operational Environmental Satellite).

Der ENSO-Mechanismus beinhaltet zwar eine enge Verzahnung von ozeanischen und atmosphärischen Komponenten, die beiden Bereiche reagieren jedoch aufeinander in sehr unterschiedlichen Zeitskalen. Die Atmosphäre ist weniger dicht als der Ozean und reagiert deshalb fast sofort auf einen Impuls von der Ozeanoberfläche. Der Ozean ist vergleichsweise massiv und verhält sich folglich gegenüber einem atmosphärischen Forcing träge. Beispielsweise kann es sein, dass die Tiefe der Thermokline Monate benötigt, um sich veränderten Winden in den Tropen anzupassen, wohingegen sich atmosphärische Konvektion über warmem Wasser sich innerhalb von Stunden einstellen kann. Diese langsame Entwicklung des Temperaturfeldes im oberen Ozean liefert das "Gedächtnis" für das Klimasystem im tropischen Pazifik. Und es ist genau diese thermische Trägheit, die die Grundlage für die Vorhersagbarkeit für Veränderungen der ENSO-Zeitskala darstellt.

Das TAO-Messnetz

Das Pacific Marine Environmental Laboratory (PMEL) der NOAA unterhält das weltgrößte System von im Ozean stationierten Wetterstationen, nämlich einen 8.000 Meilen langen Gürtel von ca. 70 instrumentenbestückten Bojen. Diese sind entlang des Äquators von Neu-Guinea bis Panama angeordnet, d.h. von ca. 8°N bis 8°S und von 137°O bis 95°W. Die gesammelten Informationen werden über Satellit an das Institut übermittelt.

Service an einer Boje des TAO-Messnetzes

 

Zu größerer Darstellung auf Grafik klicken

 

Quelle:

NOAA - Pacific Marine Environmental Laboratory

Link:

The TAO Story - Developing an El Nino
Observing System (NOAA / YouTube)

Dieses TAO-Messnetz ("Tropical Atmosphere-Ocean Array") misst ozeanographische und oberflächennahe meteorologische Variablen, die für das Erkennen, das Verstehen und die Vorhersage von saisonalen bis mehrjährigen Klimaschwankungen, die in den Tropen ihren Ausgang nehmen, von Bedeutung sind. Besonderes Augenmerk gilt ENSO-Ereignissen.

Die Bojen liefern Klimaforschern und Wetterämtern rund um die Welt Echtzeit-Daten aus dem tropischen Pazifik. Das TAO-Messnetz wurde im Rahmen des 1994 abgeschlossenen internationalen TOGA-Programmes ("Tropical Ocean Global Atmosphere") eingerichtet. Die Notwendigkeit für die Etablierung eines solchen Ozean-Beobachtungssystems wurde in der Planungsphase für TOGA überdeutlich durch das Auftreten des extremen El Niño von 1982/83, der weder vorhergesagt, noch bis kurz vor seinem Höhepunkt als solcher erkannt wurde. Es fehlten Echtzeit-Daten.

Schlüssel zur erfolgreichen Einrichtung von TAO war die Entwicklung von preisgünstigen ATLAS-Bojen ("Autonomous Temperature Line Acquisition System"), die wesentliche, für die Erforschung von ENSO wichtige Daten sammeln und übermitteln.

Jede Boje misst die Parameter Lufttemperatur, relative Luftfeuchte, wasseroberflächennahe Winde, Meeresoberflächentemperatur und Temperaturen des Wasserkörpers bis zu einer Tiefe von 500 Metern.

Zur Messung der Wasserströmung sind exakt entlang des Äquators (147°O, 165°O, 170°W, 140°W, 110°W) unter der Meeresoberfläche festverankerte Sensoren platziert. Es handelt sich um Acoustic Doppler Current Profiler (ADCP). Mit diesen Subsurface Current Meter Moorings werden auch die Parameter Druck und Temperatur gemessen. Alle Daten sind allerdings erst nach der Bergung der Messgeräte verfügbar.

In benachbarten ATLAS-Systemen werden in den oberen 300m des Wasserkörpers an 4-5 Tiefenstufen ebenfalls die Strömungsverhältnisse gemessen. Diese Systeme liegen bei 165°O, 140°W und 110°W. Eine Echtzeit-Datenübertragung wird entwickelt.

Weitere Informationen über Temperatur und Salzgehalt aus der Tiefe liefern "Wegwerf"-Bathythermographen (XBT). Diese Geräte werden von Handelsschiffen ausgesetzt und übermitteln ihre Daten beim Absinken.

Aufbau der Bojen am Beispiel einer
äquatorialen ATLAS-Boje

 

Zu größerer Darstellung auf Grafik klicken

 

Quelle:

NOAA - Pacific Marine Environmental Laboratory

 

Sämtliche Daten des TAO-Messnetzes werden mit Hilfe von NOAA-Satelliten zum Pacific Marine Environmental Laboratory (PMEL) der NOAA weitergeleitet, wo sie aufbereitet und der internationalen Wissenschaft verfügbar gemacht werden. Das Messnetz wird im westlichen Pazifik auch in Kooperation mit Japan, Korea, Frankreich und Taiwan unterhalten.

Im westlichen Pazifik (W von 156°O) werden seit 1998 18 PMEL-Bojen durch leistungsfähigere Triton-Bojen (Triangle Trans-Ocean Buoy Network) des Japan Marine Science and Technology Center (JAMSTEC) ersetzt. Hierbei erfolgt eine enge messtechnische Abstimmung zwischen PMEL und JAMSTEC, um vergleichbare Daten zu erhalten. Beide Datenserien werden in einen gemeinsamen Datenpool eingespeist und sind frei verfügbar.

Karte der verankerten Bojen im TAO/Triton Messnetz Karte der verankerten Bojen im TAO/Triton Messnetz Quelle: NOAA - Pacific Marine Environmental Laboratory

Wasserstandsmessungen erfolgen zwar an Küsten von Kontinenten und Inseln, sowie durch Schiffe. Allerdings reicht das nicht aus, da beträchtliche Gebiete dadurch nicht abgedeckt werden. Messungen durch Handelsschiffe können nur in unregelmäßigen Abständen stattfinden, was die Verarbeitung der Daten verkompliziert. Deshalb stellt das TAO/Triton Messnetz eine wichtige Ergänzung dar (s. Karte unten).

Karte der Pegelmessstationen zusammen mit den verankerten Bojen und der Satelliten-Flugbahn von TOPEX/Poseidon Karte der Pegelmessstationen zusammen mit den verankerten Bojen und der Satelliten-Flugbahn von TOPEX/Poseidon Quelle: NOAA - Pacific Marine Environmental Laboratory (übersetzt)

An einigen der TAO-Bojen wurden 1996 vom Monterey Bay Aquarium Research Institute biologische und chemische Sensoren angebracht. Sie messen die CO2-Konzentration und die biologische Produktivität in diesen Gebieten. Daten über die biologische Aktivität des Meeres liefert auch der Meeresbeobachtungssatellit der NASA SeaWiFS (Sea-viewing Wide Field-of-View Sensor).

Das internationale CLIVAR-Projekt (Climate Variability and Predictability) ist der Nachfolger zu TOGA und wird die bestehenden Systeme zur Beobachtung von Atmosphäre und Ozean übernehmen und erweitern. Dazu wird auch ein dem TAO-System vergleichbares Messnetz entlang des äquatorialen Atlantik eingerichtet. Gleiches ist auch für den äquatorialen Indischen Ozean vorgesehen.

Detaillierte Informationen zum TAO-Projekt finden sich auf der Website von PMEL.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten, auf denen man aktuelle Messwerte dieser Bojen findet.


Höhenmessung (Altimetrie) mit Hilfe des Satelliten TOPEX/POSEIDON und Nachfolgemissionen

Genaue Daten über Änderungen der Meeresspiegelhöhe liefern den Wissenschaftlern, die sich mit der gekoppelten Modellierung des Ozean-Atmosphäre-Systems befassen, wichtige Informationen zur Abschätzung von Änderungen im Wärmehaushalt der oberen Wasserschichten. Diese wiederum sind für die Vorhersage von El Niño- bzw. La Niña-Ereignissen von wesentlicher Bedeutung.

Grundlage für präzise Altimetermessungen ist die genaue Kenntnis des Geoids als Ausdruck des irdischen Schwerefeldes. Diesbezüglich hochgenaue Informationen liefern seit wenigen Jahren die CHAMP- und GRACE-Missionen.

Altimeter-Daten lieferte von 1992 bis 2006 vor allem der Satellit TOPEX/POSEIDON, ein Gemeinschaftsprodukt der amerikanischen Raumfahrtbehörde NASA und der französischen Weltraumbehörde CNES (Centre National d’Etudes Spatiales).
Der Zweck des Satelliten war es, eine genaue Bestimmung der Höhe des Meeresspiegels relativ zum Erdmittelpunkt durchzuführen. Die ist von Ort zu Ort unterschiedlich.

Der mit einer Ariane 42P in seine Umlaufbahn gebrachte Satellit überflog die Erde in 1.336 km Höhe auf einer zu den Längengraden geneigten Bahn. Nach knapp zehn Tagen hatte er die Erde einmal vollständig umkreist und begann mit einem neuen Umlaufzyklus.

TOPEX/POSEIDON setzte Radar-Altimetrie ein, bei der Mikrowellen zur Wasseroberfläche gesandt und von dort reflektiert werden. Aus der Zeitspanne vom Senden eines Funkimpulses bis zu dessen Rückkehr nach Spiegelung an der Meeresoberfläche kann in Verbindung mit den genauen Lagedaten des Satelliten und anderen Bezugsgrößen die Meereshöhe bestimmt werden. Insbesondere benötigt man für die Satellitendaten die Informationen von Pegelstationen an Küsten und auf Inseln zur Kalibrierung.

Die Genauigkeit der Meeresspiegelmessungen liegen bei 1 bis 2 cm. Dabei werden Signale, die sich nur auf Gezeitenströme, Windschub und Atmosphärendruck beziehen, herausgerechnet. Die Datenauswertung erfolgt durch 38 Arbeitsgruppen in verschiedenen Ländern.

Satellit JASON-1 Satellit JASON Quelle: NASA JPL

Das Programm TOPEX/POSEIDON war ursprünglich nur auf drei bis fünf Jahre anberaumt. Der 2001 gestartete Satellit JASON-1 sollte es ablösen. Während der zeitlichen Überlappung ihrer Aktivität wurden aber beide Satelliten in einer Tandemmission (Animation) parallel genutzt. Jason 2, auch OSTM (Ocean Surface Topography Mission) genannt, folgte am 20. Juni 2008. Er wurde von Vandenberg aus auf eine 1340 km hohe zirkulare Kreisbahn mit 66° Bahnneigung gebracht. Der Satellit ist mit dem Zwei-Frequenz-Altimeter „Poseidon 3“ zur Bestimmung der Höhe von Meereswellen ausgerüstet.

Jason 3 ist gegenwärtig in der Vorbereitung und soll im Dezember 2014 mit einer Falcon 9 von der Vandenberg Air Force Base starten.

 

Das Jet Propulsion Laboratory der NASA bietet aktuelle Grafiken.

Die über 10-jährigen Erfahrungen mit den Altimeterdaten haben deren wissenschaftlichen Einsatzbereich deutlich erweitert. Hier ist eine Liste der Ziele aufrufbar.

Die folgenden dreidimensionalen Reliefkarten zeigen den Pazifik in seinem normalen Zustand und während eines El Niño-Ereignisses. Die Wasseroberflächentopographie wurde mit Hilfe von TOPEX/POSEIDON ermittelt.

Links: Normaler Zustand des Pazifiks
Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, Januar 1997

Mitte: Zustand während der El Niño-Phase
Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, November 1997

Rechts: Zustand bei der ausklingenden El Niño-Phase
Meeresoberflächentemperatur und Wassertemperatur-Profil, Äquatorialbereich des Pazifischen Ozeans, März 1998

Farb-Legende: rot = 30 Grad Celsius - blau = 8 Grad Celsius

Zu größerer Darstellung auf Grafik klicken - Quelle: NASA

Beim normalen Zustand (Abb. links) ist ein scharf begrenzter Warmwasserkörper im westlichen Drittel des Pazifik zu erkennen. Gleichzeitig ist dort der Meeresspiegel als Folge der geringeren Dichte des warmen Wasserkörpers erhöht. Die Thermokline - im Bild der Übergang zwischen dem dunklen Blau unten und dem darüber liegenden Türkis - steigt vom zentralen Teil des Pazifiks nach Osten hin steil an. Ihre hohe Lage vor der südamerikanischen Küste ist Beleg für das dort stattfindende Upwelling.

Die El Niño-Situation zeigt eine Ostwärtsverlagerung des Warmwasserkörpers im Rahmen einer Kelvin-Welle. Der Meeresspiegel ist im östlichen Pazifik um bis zu 34 cm erhöht, die Thermokline zeigt sich deutlich abgeflacht.

Auf Basis der Messdaten dieses Satelliten wurde ein TOPEX/Poseidon-El Niño-Index erstellt.

Messung von Windvektoren mit Scatterometern

Ein auf einem japanischen Satelliten basiertes Radarinstrument der NASA stellte von 1996-97 Daten über weltweite Windsysteme bereit. Danach erlitt der Trägersatellit ADEOS (Advanced Earth Observing Satellite) einen Stromausfall. Dieses Scatterometer (NSCAT) genannte Radar arbeitete im Mikrowellenbereich. Es konnte Wolken durchdringen, um durch Informationen über die Meeresoberfläche Aussagen über Windgeschwindigkeit und -richtung zu machen.

Links: Start einer Titan II Trägerrakete mit dem QuikSCAT-Satelliten in Vandenberg/Cal. am 19.6.1999

Rechts: QuikSCAT-Satellit auf seiner elliptischen Umlaufbahn mit ihrer max. Höhe von 800 km

Quelle: NASA

Seit 1999 ist das NSCAT-System ersetzt durch das auf dem QuikSCAT-Satelliten installierte SeaWinds-System. Es arbeitet ebenfalls mit einem Scatterometer. Die SeaWinds-Antenne sendet Mikrowellenimpulse mit einer Frequenz von 13,4 Gigahertz aus. Neben den Winddaten liefert das Gerät auch Informationen über Wellen, Strömungen, Polareiseigenschaften und andere Phänomene. Das Gerät sammelt Daten von einem 1.800 km breiten Streifen, wobei es täglich 400,000 Messungen vornimmt und 90 % der Erdoberfläche bestreicht. Die SeaWinds-Daten werden sowohl für die Seewettervorhersage genutzt, wie auch für Vorhersage-Modelle. Wissenschaftler versprechen sich von ihnen wesentliche Verbesserungen bei kurzfristigen Warnmeldungen und bei kurz- bis langfristigen Vorhersagen.

Windgeschwindigkeiten und -richtungen über dem Pazifik am 1.8.1999, aufgenommen mit dem SeaWinds-Radar


Die starken Oberflächenwinde des Taifuns Olga (gelbe Spirale) können im Chinesischen Meer vor Südkorea ausgemacht werden. Der östlichen Nordpazifik wird von einem beständigen Hochdruck-system beherrscht, dessen antizyklonale Fließrichtung starke Winde hervorbringt, die parallel zu den Küsten Kanadas und der USA strömen. Drei intensive Wintersturmzentren sind nördlich der Antarktis zu erkennen.

 

Zu größerer Darstellung auf Grafik klicken

Quelle: NASA/JPL

Ein Nachfolgeprojekt mit einem SeaWinds-System wurde an Bord des japanischen ADEOS-II im Jahr 2002 ins All gebracht.

Scatterometer, wie auch das verwandte Synthetic Aperture Radar (SAR) senden Mikrowellenimpulse aus und messen die Intensität des Signals, das zum Satelliten zurückkehrt, nachdem es an der Meeresoberfläche reflektiert wurde. Die Stärke des zurückgekehrten Impulses gibt einen Hinweis auf die Rauhigkeit der Meeresoberfläche. Eine rauhe Meeresoberfläche schickt einen schwachen Impuls zurück, da die Wellen an der Meeresoberfläche die Energie des Mikrowellenimpulses in verschiedene Richtungen streuen. Die Streuung vermindert die Energiemenge, die von dem Satelliten dann empfangen wird. Andererseits schickt eine glatte Meeresoberfläche einen starken Impuls zurück, weil der Streueffekt der Wellen gering ist. Die Oberflächenrauhigkeit ist abhängig von der Windgeschwindigkeit.

Scatterometer und SAR messen die Richtung in der sich die Wellen in Bezug zum Satelliten bewegen. Die Richtung der Wellen in Bezug auf den Radarimpuls wirkt sich auf die Polarisation des zurückgesandten Signals aus. Mit Hilfe dieser Grundlagen und mit mathematischen Formeln kann die Bewegungsrichtung der Wellen bestimmt werden.

Stärke des reflektierten Mikrowellenstrahls
in Abhängigkeit
von der Rauhigkeit der Meeresoberfläche


 

Quelle:

Earth and Space Research Group,
UC Santa Barbara

Zusätzlich zu den Scatterometer-Messungen, die aktive Mikrowellen-Systeme einsetzen, werden die Geschwindigkeiten bodennaher Winde auch von einem passiven Mikrowellensensor an Bord eines militärischen Wettersatelliten gemessen. Das Gerät trägt die Bezeichnung "Special Sensor Microwave/Imager" (SSM/I).

Windmessungen mit Hilfe von "Windprofilern"

Im Pazifik wurde ein Netz von Windprofilern auf 6 abgelegenen Inseln installiert (Trans-Pacific Profiler Network, TPPN). Die Ortswahl soll die Datenlücken im tropischen Pazifik schließen helfen. Die Messergebnisse können für die tägliche Wettervorhersage verwendet werden, wie auch für das Verständnis und die Vorhersage von Phänomenen wie El Niño, die die jahresübergreifende Klimavariabilität in weiten Teilen der Erde beeinflussen. TPPN wird seit 2004 kostenbedingt als Programm nicht mehr weitergeführt, wohl aber gibt im pazifischen Raum auch künftig an mehreren, auch neu hinzugekommenen Standorten diese Technologie.

Links: Transpazifisches Windprofiler-Netz

 

Rechts: Gelände der Wind-Profiler-Station in Biak, Indonesien


 

Quelle: NOAA Aeronomy Laboratory

Windprofiler sind 50 MHz und 915 MHz Doppler-Radargeräte, die Vertikalprofile von horizontalen und vertikalen Luftbewegungen erstellen können. In Abhängigkeit von der Gerätefrequenz und den atmosphärischen Bedingungen können sie die Troposphäre bis in eine Höhe von 15 km beobachten. Zusätzlich können Informationen über Niederschlag und atmosphärische Turbulenzen gewonnen werden.

Die Windprofiler liefern direkte Messungen, die verwendet werden können um Schwerewellen, Konvektion und andere Prozesse zu untersuchen. Und sie liefern ohne Zusatzkosten kontinuierlich Daten. So dienen sie dem besseren wissenschaftlichen Verständnis

Ermittlung von Meeresoberflächentemperaturen mit Radiometern

Ferner liefert das in vier NOAA Satelliten installierte, vier- bzw. fünfkanalige Advanced Very High Resolution Radiometer (AVHRR) Daten über die Temperatur der Meeresoberfläche. Es handelt sich um einen Breitband-Scanner. "Vierkanalig" bedeutet, dass das Instrument in vier verschiedenen Teilen des sichtbaren, nahe-infraroten und Wärme-infraroten Spektrums "sieht". Der fünfte Kanal neuerer Modelle verbessert die Messung der SST, indem er Korrekturen für die verzerrende Wirkung des atmosphärischen Wasserdampfes liefert.

Mögliche El Niño Telekonnektionen:

Anomalien der Windrichtung
und der Meeresoberflächentemperatur
in der Woche vom 22. bis 31.5.97


Zu größerer Darstellung auf Grafik klicken

Quelle: NASA

Die Graphik zeigt das frühe Stadium des El Niños 1997/98 und mögliche Telekonnektionen. Die weißen Pfeile stellen Anomalien der mit NSCAT ermittelten Oberflächenwinde dar, die Farben repräsentieren Anomalien der Meeresoberflächentemperaturen, die mit AVHRR gemessen wurden. Beide Parameter stellen die Situation für die letzte Woche im Mai 1997 dar. Auffällig sind die anomalen Westwinde im äquatorialen Westpazifik, die anomalen Südwinde entlang der mexikanischen und kalifornischen Küste sowie die Unterdrückung der äquatorialen und küstennahen Auftriebswässer und die nachfolgende anomale Erwärmung. Erkennbar ist eine "Pineapple Express" genannte Windströmung, die Feuchtigkeit aus der Gegend um Hawaii an die kalifornische Küste transportiert. Die Verstärkung der außertropischen zyklonalen Fließrichtung führt zu einem Zustrom von ungewöhnlich warmen Wassermassen.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Homepages, auf denen man Karten mit den aktuellen Meeresoberflächentemperaturen findet.

(s.a. Definition von Radiometer im Lexikon)

Messung der Meeresoberflächentemperaturen mit Treibbojen

Treibbojen ("drifter") liefern mit ihren Sensoren vor allem zur Messung der Meeresoberflächentemperaturen und der Oberflächenströmungen wichtige Grunddaten für die Erstellung von Klimavorhersagemodellen. Viele Drifter besitzen ein Driftsegel, um die verfälschenden Wind- und Welleneinflüsse zu mindern. Die Messdaten werden an Satelliten übermittelt, welche die Position der Drifter ermitteln und die Daten an Bodenstationen weiter leiten. Häufig findet sich die Bezeichnung "Lagrange'sche" Drifter. Die Bezeichnung entstammt der Hydrodynamik, benutzt den Namen eines Mathematikers und steht bei der Beschreibung von Strömungen für Teilchen, die sich mit der Strömung bewegen.
Treibbojen werden im Rahmen von Forschungsprogrammen wie WOCE oder TOGA eingesetzt.

Links: Global Lagrangian Drifter

Links die Gesamtansicht einer Niedrigpreisboje (Global Lagrangian Drifter), rechts Schemazeichnungen von der Sensorkombination zur Messung von Luftdruck, Eintauchtiefe, Meeresoberflächentemperatur, Einstrahlung, Wasserleitfähigkeit/Salzgehalt

Zu größerer Darstellung auf Grafik klicken

 

Rechts: Der 'WOCE/TOGA Lagrangian Drifter'

Quelle: NOAA/AOML

Messung von Temperaturen im oberen Ozean mit Bathythermographen

Zum einmaligen Gebrauch bestimmte Bathythermographen  (XBT, Expendable Bathythermograph) werden seit Jahren von Ozeanographen eingesetzt, um Informationen über die ozeanische Temperaturstruktur bis in Tiefen von 1.500 m zu erhalten. Der XBT ist eine ("Wegwerf"-)Sonde, die von einem Schiff ins Wasser gelassen wird und beim Abtauchen die Temperatur misst. Ein zweiadriges, dünnes Kupferkabel überträgt die Daten zum Schiff, wo sie zur späteren Auswertung gespeichert oder an Satelliten zur Weiterleitung übermittelt werden. Die Sonde ist so konstruiert, dass sie mit gleichmässiger Geschwindigkeit fällt, so dass die jeweilige Tiefe der Sonde anhand der Zeit seit ihrer Wasserung ermittelt werden kann. Auf diese Weise kann die gemessene Temperatur mit der zugehörigen Tiefe verknüpft werden.

Links: XBT-Sonde im Vorratsbehälter (links) und in Explosionsansicht (rechts)

Mitte: Automatische Mehrfach-Startvorrichtung für XBT-Sonden

Rechts: XBT-Start mit Einfachwerfer


Zu größerer Darstellung auf Grafiken klicken

Quellen: NOAA , ARGO, PolarTREC

XBTs werden gewöhnlich im Rahmen eines freiwilligen Beobachtungsprogramms durch Handels-, Kriegs- oder Forschungsschiffe (VOS, Volunteer Observing Ship) eingesetzt. Dazu hat die NOAA ein Instrumenten- und Übertragungssystem entwickelt, das die Daten von u.a. XBT-Messungen über Satelliten an Bodenstationen übermittelt.
Daten über die Temperaturen des oberen Ozeans sind insbesondere für die Entwicklung gekoppelter Atmosphäre-Ozean-Modelle wichtig.

Vertiefende Informationen im Internet unter: http://seas.amverseas.noaa.gov/seas/xbt.html

Niederschlagsmessung im Rahmen von TRMM

Die japanisch-amerikanische Mission zur Messung des tropischen Niederschlags (Tropical Rainfall Measuring Mission, TRMM), die im November 1997 ihren Betrieb aufnahm, setzt zum ersten Mal im Weltraum aktive (Radar-) und passive Mikrowellendetektoren ein, die Informationen über Niederschlag, Bewölkung und Strahlungsvorgänge in den Tropen und Subtropen liefern. Sie kombiniert damit auch Daten aus dem sichtbaren, infraroten und dem Mikrowellenbereich.

Links: TRMM über einem tropischen Wirbelsturm

Rechts: Japanisch-amerikanischer Erdbeobachtungssatellit TRMM mit fünf Instrumenten zur Beobachtung der Niederschläge in den gesamten Tropen und Subtropen.


Zu größerer Darstellung auf Grafik klicken

Quellen:
NASA / NASA

Link:
Ausführliche FAQ-Liste
zur tropischen Meteorologie (engl.)

Die Umlaufbahn des TRMM-Satelliten ist kreisförmig in einer Höhe von 350 km und überstreicht einen Bereich zwischen 35 Grad Nord und 35 Grad Süd. Für einen Umlauf benötigt der Satellit ca. 91 Minuten. Zu den beobachteten Gebieten gehören auch jene, in denen El Niño auftritt. Eine der bemerkenswertesten Auswirkungen von El Niño ist die fast weltweite Änderung der Niederschlagsmuster.

Vergleich der globalen Niederschlagsverteilung
Januar 1998 / 1999


Die Abbildungen zeigen die globale Niederschlagsverteilung für die Monate Januar 1998 (oben) und Januar 1999 (unten) nach den Beobachtungen des Niederschlagsradars von TRMM. El Niño-bedingte Veränderungen der Niederschlagsverteilung im pazifischen Raum sind deutlich erkennbar.


Zu größerer Darstellung auf Grafik klicken

Quelle: NASDA

Tropischer Niederschlag macht mehr als 2/3 des globalen Niederschlags aus. Er ist der hauptsächliche Verteiler von Wärmeenergie im System der planetarischen Zirkulation, da der Wechsel des Aggregatzustandes von Wasser (flüssig - gasförmig - flüssig) das Speichern von latenter Wärme ermöglicht. Das Verständnis des Niederschlags und seiner Variabilität ist entscheidend für das Verständnis des globalen Klimas und die Vorhersage seiner Veränderung. Unser gegenwärtiges Wissen über Niederschlag ist dünn, insbesondere über dem Ozean.

Satelliten messen den Niederschlag mit Hilfe der sichtbaren, infraroten und der Mikrowellenkanäle. Bei der Verwendung von Informationen aus dem sichtbaren und infraroten Bereich werden die Regenmengen vorhergesagt, indem man Formeln benutzt, die auf dem Wolkentyp, dem Prozentsatz wolkenbedeckter Fläche und einem numerischen Faktor basieren, welcher das Niederschlagspotential eines bestimmten Wolkentyps beschreibt.

Mikrowellensensoren können teilweise durch Wolken mit ihren Wassertröpchen hindurch "sehen". Bei Mikrowellenfrequenzen unter 50 GHz beeinflussen Wolken nur geringfügig das Signal, das vom Satelliten empfangen wird. Regentropfen hingegen haben eigentümliche Absorptions-, Streuungs- und Emisionseigenschaften im Mikrowellenbereich und beeinflussen stark das von den Satelliten empfangene Signal. Dieses Signal ändert sich in Abhängigkeit von der Anzahl und Größe der Regentropfen, die sich im Beobachtungsbereich des Sensors befinden.

Weitere Informationen im Internet unter: http://www.eorc.jaxa.jp/TRMM/index_e.htm


Beobachtung von Wolkensystemen mit geostationären Satelliten

Während eines El Niño-Ereignisses verlagert sich das Gebiet mit ausgeprägten tropischen Wolkensystemen vom Westpazifik zum zentralen und östlichen Pazifik. Die sich auftürmende Cumulonimbusbewölkung folgt dabei dem ostwärts wandernden pazifischen Warmwasserkörper. Die Verlagerung  der Wolkenkomplexe kann mit den amerikanischen Geostationary Operational Environmental Satellites (GOES) und den japanischen Geostationary Meteorological Satellites (GMS), bzw. dem Nachfolgesystem MTSAT beobachtet werden. GOES-West, stationiert über dem östlichen Pazifik und GMS, stationiert über dem westlichen Pazifk sind geostationäre Wettersatelliten, die zusammen eine komplette Beobachtung der Wolkentätigkeit über dem Pazifikbecken ermöglichen. Das wichtigste meteorologische Instrument für Wolkenaufnahmen ist das Visible and Infrared Spin Scan Radiometer (VISSR). VISSR arbeitet im sichtbaren und infraroten Bereich des Spektrums und wird eingesetzt um Tages- und Nachtbilder zu erhalten. Im sichtbaren Bereich werden Daten tagsüber alle 30 Minuten aufgenommen, im Infrarotbereich ebenfalls halbstündig, aber über den ganzen Tag hinweg.

Geostationärer Satellitenorbit (GOES)

Der geostationäre Orbit ermöglicht es Satelliten, ein Phänomen oder ein Objekt mit großer Frequenz zu beobachten, was z.B. das GOES-System höchst nützlich macht für die Beobachtung von Naturgefahren wie Gewitter, Hurrikane, Brände, Vulkanausbrüche und Staubstürme.


Zu größerer Darstellung auf Grafik klicken

Quellen: MetEd / UCAR

Im sichtbaren Kanal misst VISSR die Menge der sichtbaren Strahlung, die zum Satelliten zurück gestrahlt wird. Die mächigsten konvektiven Wolken reflektieren mehr Sonnenlicht und erscheinen am hellsten auf den Satellitenbildern. Im Infrarotkanal misst VISSR sowohl die Strahlungsmenge, die von der Erdoberfläche als auch jene, die von der Wolkenoberseite emittiert wird. Da die Oberseiten hoher Wolken tiefere Temperaturen haben als jene tieferer Wolken, emittieren sie weniger Strahlung. Diese Information kann zur Höhenbestimmung der Wolkenoberseiten verwendet werden. Die Kombination von Bildern aus dem sichtbaren und dem infraroten Bereich ist nützlich, wenn man mit dem Ziel Modelle zu erstellen, Wolkentypen klassifiziert. Die Computermodellierung von El Niño und anderen tropischen Wettersystemen erfordert u.a. die Kenntnis des Strahlungshaushaltes, da unterschiedliche Wolkentypen eine verschieden große Menge an Sonnenstrahlung auf die Erdoberfläche durchläßt und umgekehrt unterschiedliche Wärmemengen in obere Atmosphärenschichten gelangen läßt.

Wolken markieren Wettererscheinungen

Meteorologists use cloud patterns to find weather phenomena, such as the ITCZ, tropical cyclones, sea breezes, and tornadoes. Clouds cover almost two-thirds of the earth's surface and help to regulate the radiation balance of the earth-atmosphere system. Satellite remote sensing is the primary method of observing and documenting global cloud radiative properties. A variety of new satellite sensors also help the scientists understand more about cloud structure, forms, and microphysical properties.

The 3-D nature of clouds is evident from visible satellite images in which protruding clouds create shadows, especially at low sun angles (Fig. left). Cloud top heights can be estimated from satellite measurements of IR radiance emitted from the cloud top, which is a function of the absolute temperature. Generally, in the tropics warmer cloud tops are lower and colder cloud tops are higher (Fig. right). During the most recent decade, new satellite sensors with simultaneous, multi-angle observations have provided 3-D views of clouds.

Quelle: MetEd / UCAR

Die hohe Bildwiederholfrequenz erlaubt es den Wissenschaftlern, Wolkenbewegungen und -entwicklungen sowie die Bildung von tropischen Stürmen während eines El Niño-Ereignisses genau zu beobachten. Die Verfügbarkeit von raschen Bildfolgen ist entscheidend für die Beobachtung der rasch entstehenden tropischen Stürme. Tropische Stürme können sich zu Hurricans entwickeln und sich auf bewohnte Inseln und dicht bevölkerte Küstenstriche zu bewegen. Das Bildmaterial erlaubt auch die Abschätzung der zu erwartenden Niederschlagsmengen. Dieser Satellitentyp eignet sich demnach vor allem für kurzfristige Warnungen.

Zwei weitere geostationäre Satellitensysteme, INSAT und METEOSAT ermöglichen es Meteorologen die Telekonnektionen zu untersuchen, die z.B. mit El Niño-bedingter Wolkenaktivität über dem Indischen und dem Atlantischen Ozean verbunden sind.


Erhebung bio-optischer Daten mit Hilfe von SeaWiFS

Mikroskopische Pflanzen im Wasser, das sogenannte Phytoplankton, enthalten Chlorophyll und andere Farbpigmente. Diese tragen zur Farbe des Ozeans bei, die abhängig von der Konzentration des Phytoplanktons variiert.

Links: Der SeaStar-Satellit im Orbit

Various ocean colors indicate the presence of different types and quantities of marine phytoplankton, which play a role in the exchange of critical elements and gases between the atmosphere and oceans. The satellite will monitor subtle changes in the ocean's color to assess changes in marine phytoplankton levels, and will provide data to better understand how these changes affect the global environmental and the oceans' role in the global carbon cycle and other biogeochemical cycles. Complete coverage of the Earth's oceans will occur every two days.The mission is a follow on to the Coastal Zone Color Scanner (CZCS).

Rechts: Das SeaWIFS-Instrument

Only one instrument is carried: the Sea-viewing Wide Field-of-view Sensor (SeaWiFS). Consisting of an optical scanning telescope and an electronics module, SeaWiFS will image the Earth's oceans in 8 frequency bands. The scanning telescope rotates at six revolutions per second in the cross-track direction to provide scan coverage with a spatial resolution of 1.13 km.

Quelle: NASA

SeaWiFS (Sea-viewing Wide Field-of-view Sensor) ist ein Instrument, das in der Lage ist, diese geringfügigen Farbunterschiede zu registrieren. Es besteht aus einem optischen Scanner im sichtbaren und nahen Infrarot-Bereich sowie einem Elektronikmodul.
An Bord des SeaStar-Satelliten kann es immer aktuelle Daten zur Farbe der Ozeane und damit zur Menge und zur Art des Phytoplanktons in einem bestimmten Gebiet liefern. Dies wiederum erlaubt Rückschlüsse auf den Zustand des Ozeans.

SeaStar wurde 1997 mit einer Pegasus-Rakete aus einem Flugzeug in etwa 10 km Höhe in den Erd-Orbit befördert, wo er in 278 km Höhe abgesetzt wurde. Mit einem eigenen Antrieb flog SeaStar dann zu seiner endgültigen Position in 705 km Höhe, wo er in Sonnen-synchronem Orbit die Erde umkreist.

Mit SeaWiFS konnte man feststellen, dass die Chlorophyll-Konzentration in einem großen Bereich des Pazifiks durch El Niño 1997/98 dramatisch reduziert wurde. Es war also bedeutend weniger Phytoplankton vorhanden. Im Sommer 1998 mit La Niña-Bedingungen gab es dann jedoch ein großes Wachstum mikroskopischer Algen in der Region.
Da Phytoplankton an erster Stelle in der Nahrungskette steht, hatte dies auch einen enormen Einfluss auf alle anderen Lebewesen im Wasser. Besser als je zuvor konnte der enorme Einfluss von El Niño auf die Tier- und Pflanzenwelt gezeigt werden. Man erkannte aber gleichzeitig auch, wie schnell sich der Ozean danach wieder erholt hat. Der Grund für die Reduzierung des Phytoplanktons war der ausbleibende Auftrieb nährstoffreichen Wassers, wodurch dem Phytoplankton die Nahrungsgrundlage entzogen wurde.

Mit dem Rückgang der Primärproduktion in den küstennahen Auftriebsgebieten und den äquatorialen Divergenzgebieten während El Niño-Ereignissen sollte man mit einer Zunahme der CO2-Abgabe des Ozeans an die Atmosphäre rechnen. Schließlich führt die verminderte Phytoplanktonproduktion zu erhöhten CO2-Konzentrationen in den oberen Wasserschichten und zu einer reduzierten Aufnahme von atmosphärischem CO2 durch den Ozean. In Wirklichkeit nimmt jedoch die CO2-Konzentration in der oberen Durchmischungsschicht ab. Zum Verständnis muss man wissen, dass die äquatorialen Divergenzgebiete durch das Upwelling von CO2-reichen Tiefenwässern bedeutende Bereiche für die Abgabe von CO2 an die Atmosphäre sind. Während El Niño-freien Jahren ist der aufwärtige Transport besonders stark, und damit auch die Abgabe von CO2 an die Atmosphäre. Dieser Effekt überkompensiert die Bindung von ursprünglich atmosphärischem Kohlendioxid durch die wegen des Nährstoffnachschubs verstärkte Primärproduktion.

Man schätzt, dass beim El Niño 1997/98 - verglichen mit dem Vorjahr - eine CO2-Menge, die etwa der Hälfte der jährlichen CO2-Abgabe durch die Verbrennung fossiler Brennstoffe in den USA entspricht, weniger in die Atmosphäre abgegeben wurde.

Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Internet-Seiten, auf denen man Karten mit der aktuellen Chlorophyll-Konzentration in den Weltmeeren findet.

Klimamodelle

El Niño-bezogene Klimaänderungen haben oft weitreichende und verheerende Auswirkungen. Dazu gehören die Häufigkeit und die Stärke von Stürmen und das Auftreten von Dürren und Überschwemmungen. Obwohl viele der Folgen von El Niño nicht verhindert werden können, erlauben es ausgeklügelte Vorhersagen den Entscheidungsträgern in klimaabhängigen Wirtschaftssektoren oder im Bereich der Infrastruktur, Strategien zu ändern oder die ökonomische Anfälligkeit zu mindern.

Gekoppelte Ozean-Atmosphäre Computermodelle haben während des vergangenen Jahrzehnts eine beachtliche Vorhersagegenauigkeit erzielt. Sie leiden aber noch immer an einem zu bescheidenen maritimen Beobachtungsnetz. So gibt es weder im Atlantischen noch im Indischen Ozean ein dem TAO-Messnetz vergleichbares Monitoring.

Schematic model of the climate system

The model includes critical processes and interactions in the atmosphere, hydrosphere, biosphere, and cryosphere. Climate and weather models try to account for these interactions.

An integral part of the transport of energy within and from the tropics is the interaction between the surface and the atmosphere. Since the ocean occupies such a large area of the surface, ocean-atmosphere interactions are a dominant component of that energy exchange. Because water has a larger heat capacity, the oceanic response to seasonal variations of solar heating is smaller than over land. The oceans are then able to store heat during the summer and release it during the winter. The peak in oceanic transport of heat to the poles occurs at low latitude.

The ocean to atmosphere transfer is primarily of heat and moisture through evaporation. On the other hand, winds transfer momentum to the ocean by moving the waters around. A tropical cyclone is an impressive example of these interactions; its energy is gained from the warm ocean waters through latent heat transfer while its winds stir the ocean surface, transfer momentum downward, and leave a cool anomaly in its wake. Furthermore, regions of heating and strong convection are observed over the tropical continents and warm ocean basins. Various weather and climate phenomena are generated in response to these heating maxima. One prominent example is the Madden-Julian Oscillation (MJO), a 30-60 day oscillation of surface pressure and winds that influences tropical weather from small-scale convection to planetary-scale circulations. The MJO is a coupled atmosphere-ocean phenomenon that is commonly identified by a broad area of active cloud and rainfall propagating eastward around the equator. The oceanic signature of the MJO is evident in the SSTs, depth of the isothermal ocean surface layer, and latent heat exchange.

Zu größerer Darstellung auf Grafik klicken

Quellen: MetEd / UCAR

Wie wichtig eine genauere Kenntnis vom physikalisch-chemischen Zustand der Ozeane ist, unterstreichen alleine die folgenden Zahlen:

Klimamodelle sind Abbilder von Vorgängen im Klimasystem. Mit ihrer Hilfe sollen Klimaentwicklungen und Witterungsabläufe beschrieben und künftig auch vorhergesagt werden. Hierzu gehört vor allem der Fall der erwarteten globalen Erwärmung aufgrund sich erhöhender Konzentrationen von Treibhausgasen in der Atmosphäre. Weitere Fälle betreffen die 1991 in Kuwait brennenden Ölquellen, den Eintrag vulkanischer Staubpartikel in die Stratosphäre nach dem Pinatubo-Ausbruch oder die Vorhersage von El Niño-Ereignissen.
Zur Zeit werden verschiedene Klimamodelle eingesetzt, die unterschiedliche Resultate liefern. Man unterscheidet grundsätzlich folgende Arten:

1. Statistische oder diagnostische Modelle

Auf Grund von früheren, statistisch erfassten Ergebnissen wird auf die zukünftige Entwicklung geschlossen. Dazu benötigt man eine lange Zeitreihe (ca. 30 - 50 Jahre) von Beobachtungsdaten, i.a. von der gleichen Art, wie sie auch als Eingabe für die u.g. dynamischen Modelle genutzt werden. Diese lange Aufzeichnungsreihe wird verwendet, um Schlüsselerscheinungen in Ozean und Atmosphäre zu identifizieren, die als Vorläufer für darauffolgende Veränderungen in Ozean und Atmosphäre in einem bestimmten Raum gelten, z.B. im tropischen Pazifik in Bezug auf ENSO.

Beispiele für El Niño-Vorläufer:

Statistische Modelle werden anhand der langen Geschichte dieser Vorläuferereignisse in Kombination mit den darauffolgenden ENSO-Bedingungen "trainiert", so dass sie bei der Eingabe der aktuellen Beobachtungen in der Lage sind, die Wahrscheinlichkeit für verschiedene ENSO-Bedingungen für die bevorstehende Zeit vorherzusagen. Dieser Modelltyp tut in etwa, was auch ein erfahrener Klimatologe täte, wenn er auf typische Vorläuferbedingungen achtet, um daraus seine Schlüsse zu ziehen. Der Unterschied zum Modell besteht in dessen objektiver und quantitativer Vorgehensweise. Im Gegensatz zu den dynamischen Modellen bleiben die Mechanismen, die ENSO-Variationen hervorrufen, in statistischen Modellen unbekannt, da sie ihre Vorhersagen lediglich auf der Basis vorangegangener Ereignisse treffen. In Bezug auf El Niño / La Niña werden also beobachtete Wetterbedingungen mit dem Auftreten dieser Klimaanomalien korreliert. Typischerweise zieht man die Meeresoberflächentemperatur (SST) in definierten Schlüsselgebieten des äquatorialen Pazifiks heran um El Niño- bzw. La Niña-Phasen abzugrenzen, z.B. beim Oceanic Niño Index (ONI). Alternativ wird der Southern Oscillation Index (SOI) verwendet, der auf dem Luftdruckunterschied zwischen Tahiti und Darwin beruht.
Der Vorteil des SOI gegenüber dem SST-Verfahren liegt darin, dass die SOI-Aufzeichnungen über ein Jahrhundert zurück reichen, während für die zentralen Ozeanbereiche nur seit wenigen Jahren Daten erfasst werden.
Die Stärke von statistischen Vorhersagen besteht in der Verwertung tatsächlich aufgetretener Ereignisse. Andererseits können sie deswegen versagen, weil El Niño / La Niña keine jeweils identischen, sich genau wiederholenden Erscheinungen sind.

2. Dynamische Modelle

Sie basieren vorwiegend auf physikalischen Gleichungen (die Bewegungen der Luft der Atmosphäre, des Ozeanwassers, die Speicherung des Wassers im Boden, der Kohlenstoff-Kreislauf usw.)
Die auf solchen Prozessen beruhenden Modelle nennt man auch Modelle der Allgemeinen Zirkulation, engl. General Circulation Model (GCM). Je nachdem, ob man die Atmosphäre modelliert oder den Ozean, wird der Bezeichnung noch ein A beziehungsweise ein O vorangestellt (AGCM bzw. OGCM). Wird das ganze Ozean-Atmosphäre-System modelliert, so spricht man von einem Coupled General Circulation Model (CGCM).

Eine Hauptschwierigkeit bei diesem Vorhersagetyp liegt dabei, dass man nicht jedes Wasser- und Luftmolekül simulieren kann. Einerseits Datenarmut, andererseits die Grenzen von Computern hinsichtlich Geschwindigkeit und Speicherkapazität führen zu einer Abbildung der Realität in Gittermustern. Deren Kantenlänge bemisst sich nach Zehnern bis Hunderten von Kilometern. Diese grobe Auflösung macht eine detaillierte Vorhersage sehr schwierig.

Vorteile von dynamischen Modellen (d.M.) gegenüber statistischen Modellen (s.M.):
Nachteile von dynamischen Modellen gegenüber statistischen Modellen:

In realen ENSO-Vorhersagesituationen hat sich die Leistungsfähigkeit von statistischen und von dynamischen Modellen als nahezu gleichwertig herausgestellt. Die mit der verbesserten Computerleistung von Seiten der Ozeanongraphen und Klimatologen erwartete Überlegenheit der dynamischen Modelle hat sich noch nicht deutlich eingestellt. Daher werden beide Typen weiterhin genutzt. Da s.M. in ihrem Einsatz viel schneller und billiger sind, werden ihre Leistungen gerne als Referenz für die Leistungen der viel teureren d.M. genutzt.

3. Hybridmodelle

Das System Meer - Atmosphäre wird nicht gekoppelt betrachtet, statt dessen berechnet man die Meeresströmungen mit einem dynamischen Modell und leitet dann die Auswirkungen auf die Atmosphäre mit statischen Modellen ab. Die heute üblichen Prognosen basieren auf diesen Modellen.

Physikalische Hindernisse bei der Vorhersage

Unabhängig vom eingesetzten ENSO-Vorhersagemodell, ist die ENSO-Vorhersage zu bestimmten Jahreszeiten schwieriger als in anderen. El Niño- oder La Niña-Episoden entwickeln sich üblicherweise zwischen April und Juni und dauern dann bis zum folgenden Februar oder bis zum Mai. Wenn sich eine Episode im frühen Nordsommer entwickelt, ist die Vorhersage ihrer weiteren Entwicklung nicht sehr schwierig. Eine Vorhersage ist viel schwieriger für die Zeit zwischen März und Juni, wenn sie im vorangehenden Zeitraum Januar-April getroffen werden soll. Man bezeichnet die Schwierigkeit zu dieser Jahreszeit als "Frühlingsbarriere" (spring barrier). Ab Ende April wird die Vorhersage für den Rest des Kalenderjahres und die ersten Monate des Folgejahres zunehmend leichter.

Den Klimaforschern gelang es, den El Niño 1997/98 schon Anfang Januar 1997 vorherzusagen. Jedoch kamen nicht alle Klimamodelle zu diesem Schluss, manche errechneten sogar eine leichte Abkühlung des Pazifiks. Zudem haben alle Modelle das Ausmass der mit El Niño einhergehenden Warmwasserströmung nach Osten unterschätzt. Generell ist dieser El Niño der erste, der weltweit von Anfang bis Ende beobachtet wurde, und es war das erste Mal in der Menschheitsgeschichte, dass Überflutungen und Dürren Monate vor ihrem Auftreten vorhergesagt wurden. Eindeutige Gewinner bei den Modelltypen waren die gekoppelten Ozean-Atmosphäre-Modelle.
Eine Umfrage unter deutschen und nordamerikanischen Klimaforschern bezüglich der Brauchbarkeit von Klimamodellen (Bray und von Storch, 1999) brachte aufgrund der uneinheitlichen Vorhersagen eine überwiegende Skepsis der Forscher zum Ausdruck.

Weitere Informationen:

Was können Vorhersagen nutzen?

Vorhersagen betreffen zum Einen das bevorstehende Eintreffen einer Extremphase von ENSO, vor allem eines Warmereignisses im Pazifik (El Niño). Zum Anderen beinhalten sie die möglichen Auswirkungen eines solchen Ereignisses.

Klimatisch-meteorologische Vorhersagen werden routinemäßig einmal oder mehrmals pro Jahr von verschiedenen Forschergruppen auf der ganzen Welt gemacht, wobei sie sich unterschiedlicher Klimamodelle (vgl. UnterKap. Klimamodelle) bedienen. Einige der Vorhersagen findet man durch Internetrecherche, vor allem aber über die Quellen, die im Kapitel Aktueller Zustand des Pazifiks zusammengetragen sind. BOM liefert die "offiziellen" Daten für Australien, NOAA/CPC solche für die USA. Das International Research Institute for Climate and Society (IRI) verbreitet Vorhersagen mit globaler Sicht.

Vorhersagen zu den Auswirkungen werden auf eher empirischer Grundlage und auf eher informelle Weise gemacht. Und dies geschieht häufig erst, wenn ein eindeutig definierter El Niño bereits im Gange ist. Eine solche Vorhersage basiert typischerweise auf dem, was man historisch über Klimareaktionen oder Korrelationen in Bezug auf El Niño-Ereignisse weiss. Es ist eine probabilistische Aussage, dass bestimmte klimatische Bedingungen mehr oder weniger häufig unter El Niño-Bedingungen auftreten, verglichen mit Normalsituationen. Manchmal sind solche Vorhersagen lediglich die Antwort eines Wissenschaftlers auf Fragen eines Reporters. Organisationen wie die NOAA veröffentlichen routinemäßig formelle climate outlooks und z.T. advisories für die bevorstehende Saison. Wenn ein starker El Niño abläuft, warnen diese outlooks vor ungewöhnlichen Witterungsbedingungen.

Hinsichtlich präziser Angaben zu Einsetzen, Dauer und Stärke sind die Vorhersagen noch sehr unzuverlässig. Begnügt man sich mit der Angabe, dass ein äquatoriales Warmereignis innerhalb eines Zeitraums von 6 Monaten eintreten wird, so können Wissenschaftler dies bis zu einem Jahr im Voraus angeben. Es kann aber auch sein, dass ein Modell diese Aussage korrekt getroffen hat und dann beim nächsten Ereignis total versagt. Wissenschaftler verlassen sich deshalb lieber auf "Konsensvorhersagen" verschiedener Modelle, statt nur auf ein einzelnes. Dennoch bleiben hinsichtlich der Genauigkeit viele Wünsche offen. Die meisten Modelle erwarteten z.B. korrekterweise ein Warmereignis für den Winter 1997/98 bereits ein Jahr im Voraus. Allerdings enthielt keine der Prognosen, dass starke Anomalien bereits im Juni 1997 begannen, ebensowenig erkannten sie die extreme Stärke des Ereignisses im Voraus.

Eine zuverlässige und frühzeitige Vorhersage eines El Niño würde es ermöglichen, dass sich die betroffenen Regionen auf die Klimaanomalie und ihre verheerenden Folgen vorbereiten können. So könnten zum Beispiel die Bauern Pflanzen anbauen, die das El Niño-Klima besser überstehen. In den Gebieten, für die aussergewöhnliche Regenfälle prognostiziert wären, könnte man die Flussbetten ausbauen und Medikamente gegen Malaria und Cholera herbeischaffen. Die NASA geht davon aus, dass sich z.B. mit Hilfe von Satellitendaten der Ausbruch von Rifttalfieber im östlichen Afrika bis zu sechs Monate vorhergesagen lässt. Als Abwehrmaßnahmen böten sich das Ausbringen von Insektiziden auf die Böden an, um das Schlüpfen der virenübertragenden Moskitos zu verhindern sowie die Impfung des Viehs.

Auch kann man sich auf die witterungsabhängige Verbreitung von Schädlingen besser einstellen.
Wichtig sind solche Maßnahmen beispielsweise in den dürreanfälligen Gebieten von NO-Brasilien oder von Queensland (NO-Australien).

Im nördlichen Peru werden vornehmlich Reis und Baumwolle angebaut, beides Kulturpflanzen, die hohe Ansprüche an die Menge und an den Zeitpunkt der Niederschläge stellen. Reis benötigt viel Feuchtigkeit während der Wachstumsphase und Niederschlagsarmut während der Reifezeit. Baumwolle ist wegen ihres tiefer reichenden Wurzelsystems trockenheitstoleranter. Daher ist es für die Bauern ratsamer, bei einer El Niño-Vorhersage verstärkt auf Reis zu setzen.

In den USA rechnet man für die Landwirtschaft mit einem Nutzen durch verbesserte Vorhersagen, der mit 240-323 Millionen $ beziffert wird.

Zuverlässige Prognosen sind auch für Warenterminbörsen von Bedeutung. Da hier mit der künftigen Kursentwicklung eines Rohstoffs spekuliert wird, ist die Kenntnis von meteorologischen Rahmenbedingungen für den Anbau von z.B. Kaffee oder Getreide von großem Nutzen bei Kauf- oder Verkaufsentscheidungen.
Auch Rückversicherungen sind an möglichst genauen Informationen über meteorologisch-klimatologische Entwicklungen interessiert, um Risiken bei Vertragsabschlüssen besser beurteilen zu können.

Ein heikles Problem ist der verantwortungsvolle, zielgerichtete Umgang mit Warninformationen, um Fehlreaktionen potentiell betroffener bzw. nicht betroffener Bevölkerungskreise zu vermeiden. Die im Juni 1997 getroffene Vorhersage, dass den Kaliforniern ein Winter mit dem Mehrfachen der üblichen Niederschlagsmengen bevorsteht, erwies sich als zutreffend, aber nichts wurde getan, um zu vermeiden, dass Menschen in wahrscheinlich ungefährdeten Gebieten in Angst versetzt wurden.
Als die Nachrichtenagentur Reuters entsprechende Katastrophennachrichten auch in Ecuador und Panama (wo starke El Niños tatsächlich verheerend sind) verbreitete, rief dies Panikreaktionen hervor. Banken gaben keine Kredite mehr für den Anbau von Pflanzen und Versicherungsgesellschaften verweigerten Ernteausfallversicherungen, obwohl selbst bei den finstersten Szenarien, die gravierenden Auswirkungen für die Landwirtschaft erst viel später eintreten konnten.

Auch kann falscher Alarm gefährlicher sein als eine fehlende Vorhersage. So veranlasste die Ankündigung einer El Niño-bezogenen Dürre viele Bauern in Zimbabwe zu einem reduzierten und trockenheitsorientierten Anbau. Tatsächlich fiel ausreichend Regen. Aber der reduzierte Anbau führte zu einer Nahrungsmittelknappheit.

Die bisherige Erfahrung belegt die Notwendigkeit von interdisziplinärer Zusammenarbeit. Dies betrifft nicht nur die Naturwissenschaften untereinander, sondern auch deren Zusammenarbeit mit den Sozialwissenschaften.

Im Übrigen hat die ENSO-Vorhersage mit der Vorhersage von anderen Ursachen von Naturkatastrophen vieles gemein bezüglich Unsicherheit und Dosierung der Aussagen, nämlich mit Erdbeben, Vulkanausbrüchen oder Tsunamis.

Weitere Informationen: