Bezeichnung für unbemannte Wasserfahrzeuge der gleichnamigen Herstellerfirma, die 2017/18 von der NOAA zu Forschungszwecken im Polarmeer und im tropischen Pazifik getestet werden. Die mit Wind- und Solarenergie angetriebenen und mit NOAA-Sensorik bestückten Forschungsfahrzeuge ähneln einem Segelboot und werden Tausende von Kilometern zurücklegen, wobei sie Gebiete erreichen, die noch nie zuvor mit einer solch spezialisierten Technologie untersucht wurden. Die gesammelten Daten sollen zum besseren Verständnis beitragen, wie Ozeanveränderungen Wetter, Klima, Fischerei und Meeressäugetiere beeinflussen.
Von besonderem Interesse für die Erforschung von ENSO ist die Mission von zwei Saildrones, die am 1. September 2017 von den Saildrone-Docks in Alameda (CA) zu einer 6-monatigen und 8.000 Seemeilen langen Rundreise in Richtung Äquator aufbrachen, um das Tropical Pacific Observing System (TPOS) zu ergänzen. Dabei wird getestet, ob dieses neue Beobachtungswerkzeug Daten von gleicher Qualität liefern kann, wie sie üblicherweise von Forschungsschiffen und Bojen (TAO moorings) erhoben werden.
Die PMEL-Gruppe Ocean Climate Stations arbeitet seit 2016 mit PMEL-Ingenieuren und Saildrone, Inc. zusammen, um Sensoren auf den Drohnen zu installieren, die gleichwertig oder besser sind als die, die derzeit auf TAO-Verankerungen für Messungen von Austauschvorgängen zwischen Luft-See-Flussmessungen verwendet werden.
Saildrones sollen nach bestandener Bewährungsprobe nicht herkömmliche Beobachtungssysteme ersetzen, sondern sie vielmehr ergänzen.
Vier Segeldrohnen starten zur zweiten Mission in den tropischen Pazifik
Im Oktober 2018 starteten vier Segeldrohnen von Hawaii aus zu ihrer zweiten Mission zum Äquator, um das Tropical Pacific Observing System (TPOS) zu verbessern. Die NOAA prognostiziert eine 65-70%ige Chance, dass sich im Winter 2018-19 ein schwacher El Niño entwickelt. Die zweite Segeldrohnen-Mission wird daher Ozean- und Atmosphärendaten während dieses sich entwickelnden El Niño erfassen, einschließlich Änderungen der Ozeantemperatur, der Winde, der Strömungen und der Kohlendioxidkonzentration im Ozean.
Während der ersten Mission Ende 2017/Anfang 2018 herrschten La-Niña-Bedingungen. Starke Strömungen und schwache Winde am Äquator machten die Navigation zu einer Herausforderung. In diesem Jahr wurden zwei der vier Segeldrohnen mit größeren, effizienteren Segeln ausgestattet, was sie schneller und leistungsfähiger in Umgebungen mit wenig Wind und starken Strömungen macht.
Diese Mission ist Teil einer Reihe von Segeldrohnen-Missionen im tropischen Pazifik, die sich darauf konzentrieren, wie diese neue Technologie innerhalb des TPOS am besten eingesetzt werden kann, um die langfristigen Wettervorhersagen zu verbessern.
Engl. Sea Surface Salinity (SSS); Begriff zur Bezeichnung des Salzgehaltes des Meerwassers. Salinität wird angegeben in Gramm des gesamten, in einem kg Wasser gelösten Salzes. Sie wird gewöhnlich durch die Messung der elektrischen Leitfähigkeit des Meerwassers bestimmt. Je höher die Salinität, umso geringer ist der Widerstand oder umso größer ist die Leitfähigkeit der untersuchten Meerwasserprobe. Meersalz, eine Kombination aus verschiedenen Salzen, entstammt vorwiegend drei Quellen: Vulkanausbrüchen, chemischen Reaktionen zwischen Meerwasser und heißen, neu gebildeten Krustengesteinen sowie Verwitterungsvorgängen auf Land. Die Zusammensetzung des Meersalzes ist seit Hunderten von Millionen Jahren, möglicherweise seit Milliarden Jahren konstant.
Der Grad der Salinität wird mit Hilfe der "Praktischen Salinitätsskala" (Practical Salinity Scale) angegeben und hat keine Einheitenbezeichnung.
Zu Dichteunterschieden des Meerwassers trägt die Salinität üblicherweise in geringerem Maße als die Temperatur bei. Falls aber salzhaltigeres Wasser über salzärmerem Wasser liegt, dann muss die Temperaturdifferenz zwischen beiden groß genug sein, um eine stabile Schichtung (weniger dichtes Wasser über dichterem Wasser) zu gewährleisten. Polnahes Meerwasser weist die höchsten Salzgehalte weltweit auf. Trotz der Offenheit der Struktur des Eises passen die meisten Unreinheiten (Salz) nicht zwischen seine Molekularstruktur. Deshalb "fällt" beim Gefriervorgang Salz "aus" - Süßwassereis entsteht, nicht gefrorenes Wasser wird salzhaltiger.
Die Oberflächensalinität im Pazifik spiegelt deutlich die Einflüsse der planetarischen Zirkulation der Atmosphäre wider. Wolkenbildung und starker Niederschlag erfolgt in Gebieten mit aufsteigender Feuchtluft, welche verknüpft sind mit niedrigem Luftdruck über der Meeresoberfläche, Bedingungen, wie man sie in der ITK und in subpolaren Gebieten polwärts von 40° antrifft. Oberflächensalinität ist niedrig wo der Niederschlag hoch ist. Verdunstung und damit die Oberflächensalinität sind hoch, wo die Luft wie in den Hochdruckgebieten trocken ist.
Temperatur- und Salinitätsverhältnisse in Vertikalschnitten der oberen 1.500 m im Pazifik als Funktionen von geographischer Breite und Wassertiefe; ganz rechts das Nordpolarmeer
Die höchste Temperatur in den Tropen liegt bei über 28 °C. Unterhalb von 1200 m beträgt die Temperatur weniger als 4 °C. Die permanente Sprungschicht ist der Tiefenbereich der schnellen Temperaturänderung, der in den Tropen bei 150 - 600 m zu finden ist.
Der Salzgehalt zeigt in den oberen 500 m auch große Veränderungen, hauptsächlich als Reaktion auf die Niederschlags-Verdunstungs-Bilanz. Im Tiefenbereich 800 - 1500 m ist der Salzgehalt mit etwa 34,5 über den größten Teil des Pazifiks recht einheitlich.
Die höchste Temperatur in den Tropen liegt über 28 °C. Unter 1.200 m Wassertiefe ist die Temperatur unter 4 °C. Die permanente Thermokline ist der Bereich mit rascher Temperaturänderung. Er liegt in den Tropen in 150 - 600 m Tiefe. Auch die Salinität unterliegt in den oberen 500 m großen Veränderungen, hauptsächlich durch das Wechselspiel von Niederschlag und Verdunstung bedingt. Im Bereich von 800 bis 1.500 m Tiefe ist die Salinität mit 34,5 im größten Teil des Pazifik recht einheitlich.
Da die Temperatur die vertikalen Dichteunterschiede im Ozean dominiert, nimmt sie fast überall mit zunehmender Tiefe ab. Demgegenüber ist die Salinitätsverteilung komplexer. Es können Schichten mit salzhaltigerem Wasser über frischerem Wasser liegen und umgekehrt. In S-N-Schnitten reicht die hohe Salinität im Bereich der Verdunstungsgebiete bis hinunter zur Thermokline. Auch das mit der ITK verbundene frischere Wasser ist ziemlich tiefreichend. Unter dem salzreicheren Oberflächenwasser befindet sich eine Schicht mit salzärmerem Wasser, die sich von den regnerischen, subpolaren Breiten bis zum Äquator erstreckt. Darunter ist der tiefe Pazifik mit salzreicherem Wasser angefüllt, das den antarktischen und nordatlantischen Tiefenwassern entstammt. Entlang des Äquators ist die Oberflächensalinität im westlichen Pazifik als Folge der hohen Niederschläge am geringsten. Bei El Niño-Ereignissen verlagert sich diese Zone in den zentralen und östlichen Pazifik. Die Salzgehaltsbestimmung erfolgt über Schöpferproben aus dem Chloridgehalt mit einem Titrationsverfahren. Genauer sind Bestimmungen über eine Messung der elektrischen Leitfähigkeit. Bei profilierenden Messungen (z.B. Erstellung von Tiefenprofilen) werden CTD-Sonden eingesetzt.
Der Grad der Salinität wird seit 1978 mit Hilfe der "Praktischen Salinitätsskala" (Practical Salinity Scale, PSS78) angegeben und hat keine Einheitenbezeichnung, obwohl darunter natürlich die Masse Salz in g pro kg Meerwasser verstanden werden muß.
Dabei ist K15 das Leitfähigkeitsverhältnis der Meerwasserprobe zu einer definierten Kaliumchlorid-Referenzlösung (Standardmeerwasser). Die PSS78-Gleichung gilt für Salzgehalte zwischen 2 und 42 und nur für Messungen bei 15 °C und einer "Standardatmosphäre" von 1013,25 hPa. Für die Umrechnungen von anderen Temperaturen und Drucken auf K15 existieren Algorithmen. Die PSS78-Definition hat gegenüber den früheren chemischen Gleichungen den Vorteil, dass sie a) unabhängig von der genauen Kenntnis der ionalen Zusammensetzung des Meerwassers ist, b) die Grundlage für die Berechnung wesentlich genauerer Dichtewerte bildet und c) für in situ-Messungen mittels CTD-Sonden angewendet werden kann. Die Eichung solcher Sonden sowie die Messung des Salzgehaltes in Einzelproben erfolgt heute ausschließlich mit Hilfe von Salinometern unter Verwendung von Standardmeerwasser. Die in der Ozeanographie verbreiteten Instrumente verwenden die galvanische (über Elektroden) oder induktive Meßmethode. Moderne Salinometer erzielen Genauigkeiten von S = 0,001.Zu Dichteunterschieden des Meerwassers trägt die Salinität üblicherweise in geringerem Maße als die Temperatur bei. Falls aber salzhaltigeres Wasser über salzärmerem Wasser liegt, dann muss die Temperaturdifferenz zwischen beiden groß genug sein, um eine stabile Schichtung (weniger dichtes Wasser über dichterem Wasser) zu gewährleisten. Polnahes Meerwasser weist die höchsten Salzgehalte weltweit auf. Trotz der Offenheit der Struktur des Eises passen die meisten Unreinheiten (Salz) nicht zwischen seine Molekularstruktur. Deshalb "fällt" beim Gefriervorgang Salz "aus" - Süßwassereis entsteht, nicht gefrorenes Wasser wird salzhaltiger.
Messung der Salinität
Die Salinität der Meere wird mit Hilfe satellitengestützter Mikrowellenradiometer gemessen (beginnend mit dem Start von SMOS 2009, danach Aquarius 2011), sowie mit in-situ-Methoden wie profilierenden Treibkörpern oder fest verankerten Bojen.
Die Soil Moisture Active Passive (SMAP)-Plattform und -Mission wurden am 29. Januar 2015 gestartet. Obwohl SMAP für die Messung der Bodenfeuchte konzipiert wurde, wird sein L-Band-Radiometer auch zur Messung des Salzgehalts der Meeresoberfläche verwendet, wodurch die Datenaufzeichnung der Aquarius-Salzgehaltsmission erweitert wird.
Die folgende Grafik zum Salzgehalt der Meeresoberfläche basiert auf Daten, die mit dem Aquarius-Instrument der NASA aufgenommen wurden. Am 7. Juni 2015 erlitt der SAC-D-Satellit, der Aquarius trägt, einen Ausfall der Stromversorgung, wodurch die Mission beendet wurde.
Salzgehalt der Meeresoberfläche - Langzeit-Kompositbild: 25. August 2011 bis 07. Juli 2012
Rot zeigt einen höheren Salzgehalt (40 g/kg) und Violett zeigt einen relativ niedrigen Salzgehalt (30 g/kg). Niedrige Salzgehaltswerte in unmittelbarer Nähe von Land und eisbedeckten Gebieten sind auf die Nähe zu Küstenlinien oder Eiskanten zurückzuführen, die Fehler in die Daten einbringen. Die Karten zeigen mehrere bekannte Merkmale des Salzgehalts der Ozeane, wie z. B. einen höheren Salzgehalt in den Subtropen, einen höheren durchschnittlichen Salzgehalt im Atlantischen Ozean im Vergleich zum Pazifischen und Indischen Ozean und einen niedrigeren Salzgehalt in Regengürteln in der Nähe des Äquators, im nördlichsten Pazifik und anderswo. Diese Merkmale stehen im Zusammenhang mit großräumigen Mustern von Niederschlag und Verdunstung über dem Ozean, Süßwasserzufuhr durch Flüsse und Ozeanzirkulation.
Bis zum Start von SMOS war es sehr schwierig und teuer, die Meeressalinität (Sea Surface Salinity, SSS) zu messen, so dass die Kenntnisse über die räumliche Verteilung und die zeitliche Variabilität noch sehr gering sind. Numerische Modelle sind daher von entscheidender Bedeutung um diesen Parameter abzuschätzen. Mit einem ozeanischen mixed-layer-Modell (zwischen 50 und 1.000 m Tiefe) kann die Meeressalinität abgeschätzt werden, indem man modellhaft externe Einflüsse wie z. B. Winde, Niederschlag/Verdunstung, Abflussmengen von Flüssen usw., wie auch interne Einflüsse (horizontaler Transport, vertikale Durchmischung usw.) modellhaft darstellt.
Instrument zur Messung der Salinität einer Lösung. Es gibt zwei Haupttypen: Der eine ist ein Hydrometer zur Messung der Dichte von Flüssigkeiten. Der andere ist ein Gerät zur Messung der elektrischen Leitfähigkeit der Lösung.
Fischart, zur Familie der Heringsfische gehörend mit 15 Gattungen und etwa 100 Arten, u.a. die vor Chile und Peru gefangene Südamerikanische (Peruanische) Sardelle (Engraulis ringens). Häufig wird für die Südamerikanische Sardelle der Name Anchovis verwendet, eine Bezeichnung, die für die Europäische Sardelle üblich ist.
Sardellen haben einen schlanken, maximal 20 cm langen Körper mit rundem Querschnitt. Die Oberseite ist grünlich bis bläulich, die Unterseite und die Seiten sind wie beim Hering silbrig gefärbt. Charakteristisch ist das große, unterständige Maul mit stark vorspringendem Oberkiefer.
Sardellen leben in den Küstengebieten verschiedener tropischer und gemäßigter Meere, wo sie sich meist von tierischem Plankton ernähren. Manche Arten trifft man auch im Süß- oder Brackwasser an. Aufgrund ihres Massenauftretens haben Sardellen erhebliche wirtschaftliche Bedeutung, u. a. hinsichtlich der Herstellung von Fischmehl und -öl.
Anchovies
Die lateinische Klassifizierung der peruanischen Sardellen ist Engraulis ringens (Jenyns, 1842). Wie kaum eine andere Spezies auf der Erde (sicherlich nicht Ihr durchschnittlicher Homo) verfügt die Sardellenart über ein erstaunliches und tiefes instinktives Wissen über das Auf und Ab der El Niño Southern Oscillation. Man könnte die Anchovis durchaus als "ENSO-Fisch" bezeichnen. Die Wanderungen, die Verbreitung und Ansammlung sowie die Jahr für Jahr auftretenden Hoch- und Tiefststände der Biomasse bei der Sardellenfischerei im östlichen Pazifik vor Peru sind mit einer exquisiten Empfindlichkeit gegenüber ENSO abgestimmt.
Die vor der gesamten peruanischen und dem nördlichen Teil der chilenischen Küste beheimatete Peruanische Sardelle kommt innerhalb von 80 km vor der Küste, aber gelegentlich auch bis zu 160 km entfernt vor. Sardellen bilden riesige Schulen, hauptsächlich in Oberflächengewässern. Hier profitieren sie von dem mit dem Humboldt-Strom aufsteigenden nährstoffreichen Wasser, das zu einem außerordentlich großen Planktonvorkommen führt. Dieses Plankton, vornehmlich Kieselalgen (98 %), aber auch Copepoden, Euphausiiden, Fischeiern und Dinoflagellaten dient als Nahrungsgrundlage für mehrere Millionen Individuen umfassende Schwärme.
Die Sardellen sind Filtrierer wie ein Mini-Wal, der mit offenem Mund schwimmt. Dies ist der Schlüssel zu ihrem großen Erfolg bei der Nutzung der massiven Planktonproduktivität des äquatorialen Ostpazifiks vor der Küste Perus. Sie sind die archetypischen pelagischen Filtrierer.
Sie brüten das ganze Jahr über an der gesamten Küste Perus, mit einer starken Laichzeit im Winter/Frühling (August bis September). Eine geringere Laichzeit tritt im Sommer (Februar und März) und das ganze Jahr über vor Chile auf; mit Spitzen im Winter (Mai bis Juli) sowie gegen Ende des Frühlings (besonders im Dezember). Die Sardelle erreicht etwa 8 bis 9 cm Länge in 5 bis 6 Monaten, 10 cm in 12 Monaten und 12 cm in 18 Monaten. Bei einer Lebenserwartung von ca. drei Jahren kann sie ihr Maximum von 20 cm erreichen.
Die Peruanische Sardelle ist ein wichtiger Fisch für die Weltwirtschaft und für die Ernährung der meisten von uns. Sie ist die weltweit größte einzelne Fischerei nach angelandeter Tonnage und ein Hauptbestandteil von Fischmehl, das ein wichtiges Futtermittel für Zuchtfische und Landtiere ist. Man kann sie sogar direkt als Pizzabestandteil bestellen (z.B. die Pizza "Napoli"). Den Hintergrund finden Sie in der Wikipedia.
Mal mehr, mal weniger
Interessant ist die Entwicklung der Peruanischen Sardelle (Engraulis ringens). Bezogen auf die Fangmenge, ist sie der weltweit wichtigste Fisch. Jährlich werden ca. 3,1 - 8,3 Mio. t gefangen (2007-2017, FAO FIGIS).
Der Fang wird zu großen Teilen zu Fischmehl und Fischöl verarbeitet, das in Aquakulturbetrieben an größere Zuchtfische verfüttert wird. Die größte Fangmenge aller Zeiten wurde 1971 mit rund 13 Millionen Tonnen erreicht. Heute entspräche das einem Viertel des weltweiten Fischfangs – sofern man die Fänge anderer Meerestiere wie etwa Muscheln oder Tintenfische nicht berücksichtigt.
Die Bestände brachen in den 1980er Jahren auf etwa ein Zehntel dieser Rekordfangmenge ein; nicht allein wegen der intensiven Befischung, sondern vermutlich auch, weil aufgrund des Klimaphänomens El Niño die Nahrung ausgeblieben war. In ausgeprägten El Niño-Jahren sinken durch den Anstieg der Wassertemperatur (auf bis zu 29 °C, normal 14 – 23 °C) die Fangraten massiv. Da besonders in solchen Jahren die Bestände der Sardellen schnell überfischt werden können, hat der peruanische Staat ein umfangreiches Überwachungsprogramm zur nachhaltigen Nutzung etabliert. Dieses reguliert u. a. die Fanglizenzen, Fangzeiten und die zugelassenen Höchstfang- und Beifangmengen. Dabei spielt die satellitengestützte Überwachung der Fischerboote, die Erfassung der täglichen Fangmengen sowie die Identifizierung der Artenzusammensetzung mit der jeweiligen Fischgröße eine entscheidende Rolle (die Durchschnittsgröße der Sardellen wird bspw. verwendet, um den Anteil der Jungfische zu berechnen). Diese Daten werden täglich aktualisiert. Die hohen Fangzahlen haben die peruanische Regierung auch dazu bewogen, die Verwertung der Peruanischen Sardelle als Lebensmittel gezielt zu fördern, allerdings mit mäßigem Erfolg. Wurden 2010 noch 120 t Sardellen von der Lebensmittelindustrie verarbeitet, waren es 2011 nur noch 100 t. (Aquakulturinfo).
Nach dem Tief in den 80er Jahren erholten sich die Bestände wieder. 1994 wurde mit 12,5 Millionen Tonnen ein neuer Jahresrekord erreicht. Seit 2004 nehmen die Fangmengen wieder ab. Auch in diesem Fall ist das vor allem auf das Klimaphänomen El Niño zurückzuführen. Das Beispiel der Sardelle macht deutlich, wie stark Bestände schwanken können. Es zeigt, welche ungeheuren Fischmengen der Mensch dem Meer entnimmt; kommen dann noch ungünstige Umweltbedingungen hinzu, können selbst große Bestände weitgehend dezimiert werden. Das Exempel der Sardelle lehrt aber auch, dass ein Bestand dank der hohen Reproduktionsleistung der Fische schnell wieder wachsen kann. Andere Fischarten und Bestände wiederum können sich weniger schnell von einer Überfischung erholen. (WOR 2)
Gattung (Sardina) der Heringe mit einer Art. Die an europäischen und nordwestafrikanischen Küsten vorkommenden Sardinen bilden riesige Schwärme und sind von großer fischereiwirtschaftlicher Bedeutung.
Die Falschen Sardinen bilden eine andere Gattung (Sardinops) und besiedeln die Tropen und Subtropen.
Methode zur Aufstellung von Paläotemperaturkurven, angewandt an Bohrkernen aus marinen oder limnischen Sedimenten und aus Gletschereis (Eiskernbohrungen). Das Sauerstoffisotopenverfahren ist eines der wichtigsten Hilfsmittel zur Rekonstruktion der quartären Klimageschichte. Sie beruht auf dem temperaturabhängigen Mengenverhältnis des in die Kalkschalen von Organismen (am geeignetsten sind Foraminiferenschalen) oder im Gletschereis eingebauten Sauerstoffisotops 16O gegenüber dem des schwereren Sauerstoffisotops 18O.
Im Wasser der Weltmeere ist zu 99 Prozent das leichtere Isotop 16O gebunden, nur ein Prozent des gelösten Sauerstoffs entfällt auf das schwerere 18O-Molekül. Wenn Wasser seinen Aggregatzustand ändert, zum Beispiel zu Eis gefriert, oder der Sauerstoff aus dem Wasser in andere Substanzen eingebaut wird, kann sich dieses Isotopenverhältnis ändern. Wenn in Kaltzeiten vermehrt Eis gebildet wird, steigt im verbleibenden Meerwasser der Anteil des schweren Sauerstoffteilchens.
Wassermoleküle mit dem um 12 % leichteren 16O verdunsten schneller. Deshalb müssen Eisschichten mit einem höheren relativen Anteil an 18O aus wärmeren Zeiten stammen, da nur bei der starken Verdunstung wärmerer Perioden vermehrt 18O mit zur Wolkenbildung beitragen. Je höher die globale Temperatur ist, desto weiter können mit schweren Sauerstoffisotopen beladene Wolken in die Polarregionen vordringen, ohne vorher abzuregnen.
Außer der Ermittlung der Temperaturen des Bildungsmilieus zu den Lebzeiten der Organismen oder der Entstehung des Gletschereises erlaubt die Sauerstoff-Isotopenanalyse an Tiefseebohrkernen Rückschlüsse auf das Volumen der weltweiten Eismassen. Der Grund liegt darin, dass die stärker von der Meeresoberfläche verdunstenden 16O-Isotope während der Kaltzeiten in den Gletschern der Erde zurückgehalten und angereichert wurden, während sich ein höherer Anteil schwererer 18O-Isotope in den Fossilien der marinen Sedimente einstellte. Durch Bestimmung der Zahl der Oszillationen kann auch über die Unterscheidung zwischen warm (Sommer) und kalt (Winter) das Alter des Bohrkerns exakt bestimmt werden. In kälteren Perioden befindet sich mehr 18O in Meeressedimenten. Meereis besteht hauptsächlich aus den leichteren Wassermolekülen aus 16O. Wenn es in einer Kaltphase zu einer starken Neubildung von Meereis kommt, bleibt vermehrt Meerwasser aus 18O zurück, welches durch die permanente Einlagerung von Sauerstoff in die Kalkschalen der Meerestiere (Calciumcarbonat) verstärkt in Sedimentschichten dieser Zeit nachweisbar ist.
Sauerstoffarme Zonen, auch „dead zones“ genannt, bezeichnen Meeresregionen mit geringer Sauerstoffkonzentration im Wasser. Sie können natürlicherweise auftreten, zunehmend bilden sich aber sauerstoffarme Zonen aufgrund menschlicher Aktivitäten.
Für die marine Biosphäre von großer Bedeutung ist die Verteilung von Sauerstoff im Ozean. Sauerstoffmangelzonen in Küstengewässern sind zu einem weltweiten Problem geworden, das die Struktur und Funktion von Ökosystemen zerstört. Haupttreiber für diesen küstennahen Sauerstoffmangel ist der Eintrag von Nährstoffen aus Flüssen und über die Atmosphäre (Eutrophierung). Aber auch im offenen Ozean wird mit zunehmendem Klimawandel eine Abnahme der Sauerstoffkonzentration erwartet, die durch die Erwärmung und zunehmend stabilere Schichtung der oberen Wasserschichten bedingt ist. Die Erwärmung des Oberflächenwassers verringert die Löslichkeit von Sauerstoff im Meerwasser, die stabilere Schichtung reduziert den Transport des sauerstoffreichen Oberflächenwassers in tiefere Schichten, wo der Sauerstoff kontinuierlich von Meeresorganismen aufgezehrt wird.
Insgesamt ist erst seit kurzem bekannt, dass der Klimawandel die Sauerstoffkonzentration in den Meeren signifikant verändern kann, so dass genauere Prognosen noch weiterer Forschung bedürfen. Es deutet jedoch alles darauf hin, dass die Sauerstoffabnahme ein Ausmaß erreichen kann, das marine Habitate und die Fischerei beeinträchtigt. Auch die Versauerung der Meere kann ihrerseits noch zu einer Sauerstoffabnahme im Ozean beitragen.
Engl. oxygen minimum zone; intermediärer Bereich im Ozean der Tropen und Subtropen unterhalb des Oberflächenwassers (ca. 200 m bis 1000 m Tiefe) mit niedriger Sauerstoffsättigung. Der Sauerstoff wird durch Respiration von Organismen sowie durch anaerobe Ammoniak-Oxidation und Denitrifikation herabsinkender organischer Substanz in der Wassersäule verbraucht (durch anaerobe Atmung von Bakterien entsteht molekularer Stickstoff, der aus dem Wasser in die Luft entweicht).. Die Neuzufuhr von Sauerstoff ist nur im Kontaktbereich von Ozean und Atmosphäre an der Wasseroberfläche möglich. Die starke Dichtestratifizierung zwischen Oberflächen- und intermediärem Wasser verhindert die Zirkulation und Durchmischung beider Wassermassen und limitiert die Neuzufuhr von Sauerstoff. Die Sauerstoffminimumzonen entstehen vorrangig an den Osträndern der Ozeane und sind heute vor der Westküste Amerikas, im Arabischen Meer, der Bucht von Bengalen, und vor Nordwest-Afrika ausgebildet. Vor Peru erstreckt sich die größte Sauerstoffminimumzone aller tropischen Ozeane. Dies ist vor allem den dortigen Auftriebsvorgängen geschuldet mit ihrem Reichtum an Biomasse und den damit verbundenen bakteriellen Abbauprozessen, die Sauerstoff verbrauchen. Der ENSO-Zyklus steuert vor Peru die Intensität des Upwelling und damit wohl auch den Sauerstoffgehalt. Über diese Zusammenhänge haben Forscher des GEOMAR durch die Analyse von Bohrproben vor der Küste Perus die Geschichte der Sauerstoffminimumzone im Ostpazifik für die vergangenen 20.000 Jahre rekonstruiert. Ihre Ergebnisse legen nahe, dass das heutige System von abwechselnden El Niño- und La Niña-Ereignissen in Häufigkeit und Intensität erst seit maximal 5.000 Jahren so abläuft, wie man es aus der direkten Beobachtung kennt.
Die marinen Sauerstoffminimumzonen
Gezeigt wird die Sauerstoffkonzentration in 300 Meter Wassertiefe.
In den Sauerstoffminimumzonen (SMZ) finden bis zu 40% des weltweiten Stickstoffverlusts im Meer statt. Der Stickstoffverlust wird dort durch organisches Material aus abgestorbenen und absinkenden Algen gesteuert. Ca. 30- 50 % aller Stickstoffverluste laufen in nur 0,1% der Weltmeere ab. Insbesondere zwei Prozesse tragen zum Stickstoffschwund bei: Denitrifikation und Anammox (anaerobe Ammoniumoxidation mit Nitrit), beides Stoffwechselwege mariner anaerober Bakterien. Die Kenntnis dieser Vorgänge ist von großer Bedeutung, denn Stickstoff ist ein limitierender Nährstoff für alles Leben im Meer. (Abbildung modifiziert nach World Ocean Atlas 2009 (http://www.nodc.noaa.gov))
Die Sauerstoffminimumzonen sind für ca. 20 - 40 % des Stickstoffverlustes der Ozeane verantwortlich, auch wenn sie nur 0,1 % des Meeresvolumens ausmachen.
Regionen sauerstoffarmen Wassers dehnen sich als Folge der globalen Erwärmung in den Weltmeeren immer weiter aus. Das hat weitreichende Auswirkungen auf den Lebensraum Meer und die Fischereiwirtschaft, da höhere Organismen diese Regionen meiden. Auch die globalen Kreisläufe von Kohlenstoff und Stickstoff sind eng mit Sauerstoffminimumzonen verknüpft. Ein detailliertes Verständnis dieser Kreisläufe ist daher unverzichtbar, um die Auswirkungen des fortschreitenden Klimawandels auf die Weltmeere und mögliche Rückkopplungen vorherzusagen.
Der Stickstoffkreislauf im Meer
Alles Leben auf der Erde hängt vom Stickstoff ab, denn er ist unverzichtbar für die Zellbestandteile wie Proteine und die DNA. Die Organismen können jedoch nicht alle Verbindungen dieses Elements nutzen. Daher bestimmt im Ozean nur ein Teil der Stickstoffverbindungen die Produktivität des gesamten Ökosystems. Die Umwandlung einer Verbindung in eine andere übernehmen spezialisierte Mikroorganismen. Im Ozean wird Stickstoff in Form von Ammonium (NH4+) hauptsächlich durch den Abbau organischer Verbindungen frei gesetzt. In einem zentralen Schritt, bekannt als Nitrifizierung, wird Ammonium in Nitrit (NO2-) und dann in Nitrat (NO3-) umgewandelt. Dieser Prozess verbraucht Sauerstoff. Das Nitrat wird anschließend ohne Sauerstoff in mehreren Zwischenschritten in gasförmigen elementaren Stickstoff (Luftstickstoff, N2) umgewandelt. Diese Reaktion nennt sich Denitrifizierung. Alle Umwandlungen werden durch Mikroorganismen vermittelt. Das N2 entweicht als Gas aus dem Meer. Vor ein paar Jahren entdeckten Forscher vom Bremer Max-Planck-Institut den Prozess der anaeroben Oxidation von Ammonium (ANAMMOX) im Meer. Unter sauerstofffreien Bedingungen wandeln Anammox-Bakterien Ammonium direkt mit Nitrit in gasförmigen Stickstoff (N2).
In weiten Teilen der Ozeane limitiert der Mangel an Stickstoff das Algenwachstum und beeinflusst damit entscheidend die Menge des Treibhausgases CO2, die biologisch gebunden werden kann. Angesichts der wichtigen Rolle der Ozeane für die globale CO2-Bilanz sind detaillierte Kenntnisse über die Regulierung des marinen Stickstoffkreislaufs und dessen Kopplung mit dem globalen Kohlenstoffkreislauf erforderlich.
Flacher Teil der Kontinentalmasse, der wasserüberflutet zwischen Küstenlinie und 200m-Tiefenlinie liegt und dort vom in die Tiefsee überleitenden Kontinentalabhang abgelöst wird. Vor der Westküste Südamerikas ist der Schelf sehr schmal und leitet abrupt in Tiefseerinnen (Atacamagraben) über.
Port. Begriff für die katastrophalen Dürren im NordesteBrasiliens. Als sêcas grandes gelten solche mit zwei aufeinanderfolgenden Trockenjahren. Unter ihrem Einfluss kommt es zu Hungersnöten, Massenwanderungen und sozialen Unruhen.
Wenn die Trockenkalamitäten auch direkt durch Zirkulationsabweichung über dem tropischen Südatlantik verursacht werden, so besteht doch offensichtlich ein Zusammenhang mit Zirkulationsanomalien in weit abgelegenen Regionen. Caviedes (1973) hat vermutlich als erster die zeitliche Koppelung von sêcas in NO-Brasilien und El Niño-Ereignissen an der peruanischen Westküste aufgezeigt und als Ursache eine gegenläufige Lageänderung der südhemisphärischen subtropischen Antizyklonen auf der West- und Ostseite Südamerikas postuliert. Dadurch ist auf der pazifischen Seite ein außergewöhnliches Ausgreifen der ITK weit nach Süden ermöglicht, während gleichzeitig auf der atlantischen Seite Stärke und äquatornahe Lage der Antizyklone ein Vordringen der ITK bis in die normale Position verhindert.
Durch weitere Untersuchungen gilt inzwischen die Verbindung von Niederschlagsanomalien im Nordeste mit der Südlichen Oszillation als gut belegt.
Weiße, runde Scheibe mit ca. 30 cm Durchmesser zur Bestimmung der Wassertrübung/-klarheit. Die Scheibe wird an einer markierten Leine ins Wasser eingetaucht. Die Tiefe, in der sie nicht mehr von der Oberfläche erkennbar ist, gilt als Maß für die Wasserklarheit. Diese kann beispielsweise durch die Anzahl von Mikroorganismen oder aufgewühlte Partikel beeinträchtigt sein. Die Scheibe wurde nach ihrem Erfinder, dem italienischen Astronom Angelo Secchi benannt, der sie 1865 erstmals einsetzte.
Die Sechurawüste liegt südlich der Region Piura entlang der peruanischenPazifikküste und reicht 20 bis 100 km landeinwärts bis zu Füßen der Anden. Die Gesamtfläche der Wüste beträgt 188.735km². Im Norden grenzt sie an die tropischen Trockenwälder von Tumbes-Piura, südlich schließt die Atacamawüste an.
Während El Niño-Jahren kommt es in der Wüste regelmäßig zu Überflutungen. 1998 strömten die Wassermassen der übervollen Flüsse in die küstennahe Wüste. Wo zuvor 15 Jahre lang nur ausgedörrte Landschaft war, entstand plötzlich der zweitgrößte See Perus mit einer Länge von 145 km, einer Breite von 30 km und einer Tiefe von 3 m, aus dem gelegentlich Sand- und Tonhügel herausragten.
Die Temperaturen in der Wüste variieren dank des mäßigenden Einflusses des nahen Pazifiks nur wenig. Wegen des Upwellings von kühlem Tiefenwasser und der absinkenden Luftmassen der Südostpazifische Antizyklone, gehört die Sechura zu den aridesten Wüsten der Erde. Die Sommer (Dezember bis März) sind warm und sonnig mit Durchschnittswerten von über 24 °C. Die Winter (Juni bis September) sind kühl und bewölkt und haben Temperaturen, die von 16 °C nachts bis 24 °C tagsüber schwanken.
Die vielen kurzen Flussläufe, die die Sechura durchqueren, schufen die Voraussetzung für prähistorische Siedlungen, z.B. der Moche- und der Sicán-Kultur. Heute erlauben die Flüsse eine intensive Bewässerungslandwirtschaft auf den fruchtbaren Schwemmlandböden. Zwei der fünf größten peruanischen Städte liegen im Norden dieser Region.
Sedimentkerne sind Proben, die senkrecht aus Meeressedimenten oder aus Sedimenten unter Binnengewässern gewonnen werden. Bei der Annahme einer horizontal homogenen Sedimentationsrate kann sie als Archiv für paläogeophysikalische Informationen, insbesondere als Klimaarchiv dienen. Informationen enthält man u.a. aus eingelagerten Radionukliden, stabilen Isotopen wie 18O oder Deuterium oder anderen Substanzen, die je nach klimatischen Bedingungen unterschiedlich stark ins Sediment transportiert werden.
Die Gesamtheit des für die See und ihre Nutzung geltenden Rechts. Es ist geprägt von zahlreichen Besonderheiten, die meist in der isolierten Situation auf See und im Fehlen staatlicher Souveränität auf hoher See begründet sind. Unterscheiden lässt sich privates und öffentliches Seerecht. Von Bedeutung sind insbesondere das internationale öffentliche Seerecht, welches das Seevölkerrecht bildet, im Privatrecht das Seehandelsrecht, im öffentlichen Recht das Seeverkehrsrecht, das Flaggenrecht und weitere. Daneben gibt es weitere Sonderbestimmungen, die es erlauben, von Seearbeitsrecht, Seestrafrecht und Seeprozessrecht zu sprechen.
Zwischen 1973 und 1982 gab es drei UN-Seerechtskonferenzen (United Nations Convention on the Law of the Seas, UNCLOS), deren Ziel es war, ein international geltendes Seerecht zu etablieren. Das gelang mit der dritten UN-Seerechtskonferenz (UNCLOS III) im Jahr 1982. Ihr Ergebnis war die Schaffung des Seerechtsübereinkommens der Vereinten Nationen (SRÜ). Bis heute wurde das SRÜ von 157 Staaten ratifiziert.
Das SRÜ ist mit insgesamt 320 Artikeln der umfangreichste und bedeutsamste multilaterale Vertrag, der im VN-Rahmen entwickelt wurde. Er ersetzt die vier Genfer Seerechtskonventionen von 1958 und trifft Regelungen über nahezu alle Bereiche des Seevölkerrechts (Abgrenzung der verschiedenen Meereszonen wie Küstenmeer, Anschlusszone, Meerengen, Archipelgewässer, ausschließliche Wirtschaftszone, Festlandsockel, Hohe See; Nutzung dieser Gebiete durch Schifffahrt, Überflug, Rohr- und Kabelverlegung, Fischerei und wissenschaftliche Meeresforschung; Schutz der Meeresumwelt; Entwicklung und Weitergabe von Meerestechnologie; Regelung des Meeresbodenbergbaus; Streitbeilegung, insbesondere Errichtung des Internationalen Seegerichtshofes). Durch das SRÜ wurden sowohl geltendes Seevölkerrecht kodifiziert als auch neue seevölkerrechtliche Normen geschaffen wie beispielsweise im Bereich des Meeresumweltschutzes. Auf jährlichen Vertragsstaatenkonferenzen beraten die Vertragsparteien über die Umsetzung des Übereinkommens.
Ordnung der Meereszonen nach dem UN-Seerechtsübereinkommen (UNCLOS)
Angesichts der inzwischen teilweise überholten Inhalte und Struktur des SRÜ schlägt der WBGU (2013) eine neue Meeres-Governance (Zusammenfassung), also eine Gestaltung von Schutz und Nutzung der Meere vor. Ausgangspunkt ist ein fundamentaler Standpunkt- bzw. Perspektivenwechsel und die Anwendung der folgenden drei Prinzipien:
Die Meere als Menschheitserbe: Die Meere sind ein globales Kollektivgut, für das klar definierte, an Nachhaltigkeitskriterien orientierte Schutzverpflichtungen und Nutzungsrechte fehlen. Aus dem Menschheitserbeprinzip folgt aus Sicht des WBGU, dass globale Kollektivgüter allen Menschen zugänglich sein müssen und keinem Staat, Individuum oder Unternehmen uneingeschränkt zur Verfügung stehen. Die Erhaltung und nachhaltige Nutzung des Menschheitserbes erfordert Sachwalter, ein Schutz- und Nutzungsregime sowie Teilungsregeln, mit denen Kosten und Vorteile des Regimes gerecht verteilt werden. Daraus ergibt sich, aus politikwissenschaftlicher Perspektive, ein System geteilter Souveränitätsrechte zwischen Staaten, basierend auf einem globalen, an Nachhaltigkeitszielen ausgerichteten Ordnungsrahmen.
Der systemische Ansatz: Der weithin in der Meeres-Governance vorherrschende sektorale Ansatz, der durch einen engen Blick auf die jeweilige Nutzung (z. B. Fischerei, Ölförderung, Naturschutz) geprägt ist, wird den systemischen Anforderungen der Nachhaltigkeit nicht gerecht. Der WBGU beabsichtigt mit der Einführung eines systemischen Ansatzes eine Integration der verschiedenen Systemebenen sowie eine Integration der Interaktionen natürlicher und sozialer Systeme, die beim Umgang mit den Meeren berücksichtigt werden sollten. Der Ansatz beinhaltet folgende Ebenen: Erstens sind Meeresökosysteme selbst komplexe Systeme, die nach einem „ökosystemaren Ansatz“ geschützt und genutzt werden sollten. Zweitens sollte der systemische Ansatz über die Nutzungen der Meeresökosysteme weit hinausgehen und auch Land/Meer-Interaktionen berücksichtigen, denn viele Risiken für die Meere haben ihre Ursache in der Wirtschaftsweise an Land. Drittens sollten im Zeitalter des Anthropozäns auch die Kopplungen im Erdsystem berücksichtigt werden, beispielsweise CO2-Emissionen aus fossilen Energieträgern, die Meeresökosysteme indirekt über den Klimawandel durch Temperaturanstieg sowie direkt über die Versauerung des Meerwassers schädigen. Auf allen diesen Ebenen ist viertens zu berücksichtigen, dass komplexe und dynamische Wechselwirkungen zwischen Gesellschaft und Natur bestehen.
Das Vorsorgeprinzip: Das Vorsorgeprinzip sieht vor, dass nach dem (neuesten) Stand von Wissenschaft und Technik Vorsorge gegen mögliche Umweltschäden getroffen wird, auch wenn keine vollständige wissenschaftliche Gewissheit über die Eintrittswahrscheinlichkeit eines Schadens oder über die Schadenshöhe besteht. Bei komplexen Systemen, zu denen die Meeresökosysteme mitsamt ihrer Land/Meer-Interaktionen ohne Zweifel gehören, ist die Anwendung des Vorsorgeprinzips besonders wichtig, da ihre Reaktion auf Einflüsse oder Störungen schwer abschätzbar ist.
Ein natürliches Reservoir, das eine Substanz wie etwa Kohlendioxid in großen Mengen aufnimmt. Als Kohlenstoffsenken bezeichnet man zum Beispiel Wälder, den tiefen Ozean oder auch Korallen, bei denen das Kohlendioxid im Kalk gebunden ist.
Im Zusammenhang mit dem Emissionsanstieg aus der Verbrennung fossiler Brennstoffe ist die Frage nach der Menge an Kohlenstoff, die durch die Ozeane aufgenommen werden kann, von großer Bedeutung. Da das Meerwasser in der Lage ist, im Verhältnis 50 mal mehr Kohlenstoff zu speichern als die Atmosphäre, spricht man von einer Kohlenstoffsenke. Der Grund liegt in der guten Löslichkeit von Kohlendioxid (CO2 ) in Wasser. CO2 findet sich gelöst im Wasser in 3 Formen, die untereinander im reaktionschemischen Gleichgewicht stehen: gelöstes CO2 (< 1%), Carbonat CO32- (8%) und Hydrogencarbonat HCO3- (91%).
Die Aufnahmekapazität des Meerwassers für Kohlendioxid nimmt jedoch mit der Erhöhung der atmosphärischenCO2-Konzentration ab. Mit der Zunahme an gelöstem CO2 in den oberen Ozeanschichten als Folge des Austausches mit der Luft bildet sich vermehrt Hydrogencarbonat unter Verbrauch von Carbonat. Mit der sinkenden Carbonatkonzentration steht weniger CO32- zur Reaktion mit gelöstem CO2 zur Verfügung. Daraus resultiert letztendlich eine verminderte Aufnahmefähigkeit des Ozeans für das aus Verbrennungsprozessen zusätzlich freigesetzte Kohlendioxid. Die wichtigsten Faktoren, die die CO2- Aufnahme regulieren, sind die Temperatur, die Wasserzirkulation und die biologische Produktion. Je kälter die Wasseroberfläche ist, desto mehr Kohlendioxid kann in Lösung gehen, wogegen eine Erwärmung zur CO2-Abgabe führt.
Sensitivität ist der Grad, zu dem ein System durch Klimavariabilität oder Klimaveränderung beeinflusst wird, sei es negativ oder positiv. Die Wirkung kann direkt sein (z.B. eine Veränderung des Ernteertrags als Reaktion auf eine Veränderung des Durchschnitts, der Bandbreite oder der Variabilität der Temperatur) oder indirekt (z.B. Schäden, die durch eine zunehmende Häufigkeit an Küstenüberflutungen aufgrund des Meeresspiegelanstiegs verursacht werden). Dieses Konzept der Sensitivität darf nicht mit der Klimasensitivität verwechselt werden, die oben separat definiert wurde.
Dt. etwa Programm zur gelegenheitsabhängigen schiffsbasierten Messdatenerhebung; mit diesem internationalen, von der World Meteorological Organization (WMO) und der Intergovernmental Oceanographic Commission (IOC) betriebenen Programm werden ozeanographische Messinstrumente von Handels-, Kreuzfahrt- und Forschungsschiffen ausgesetzt. Es ist eine Komponente des Globalen Ozeanbeobachtungssystems (GOOS).
Dabei werden auf freiwilliger Basis von Schiffen, die routinemäßig wichtige Routen befahren, in vorher festgelegten Abständen Einweg-Messinstrumente (Expendable Bathythermographs, XBTs) zum Einsatz gebracht, die im offenen Ozean Temperaturprofile bis in ca. 850 m Tiefe erstellen. Die Daten werden dann über einen Satellitenlink an Verteilungszentren an Land geschickt.
Auf vielen Routen werden inzwischen auch Sensoren eingesetzt zur Beobachtung der Salinität (ThermoSalinoGraph, TSG), der Leitfähigkeit (Expendable Conductivity Temperature and Depth, XCTD), des Planktonvorkommens (Continuous Plankton Recorder, CPR), der Strömungsverhältnisse (Acoustic Doppler Current Profiler, ADCP; dt. Ultraschall-Doppler-Profil-Strömungsmesser), des CO2-Partialdrucks (biogeochemische Sensoren), der Fluoreszenz und weiterer Parameter.
Nachhaltige, die Bedürfnisse der lokalen Bevölkerung befriedigende Aquakulturen haben eine lange Tradition. Moderne, industrielle Formen wurden in den sechziger und siebziger Jahren des 20. Jahrhunderts analog zur Grünen Revolution als "Blaue Revolution" bezeichnet.
"Shrimp Farming" ist Garnelen-Aufzucht in Aquakulturen, vorwiegend an tropischen Küsten. Einst von der FAO als Lösung des Eiweiß-Problems in der Dritten Welt propagiert, werden die Zuchtgarnelen heute fast ausschließlich nach Japan, USA und Europa exportiert. Rund ein Drittel der weltweit gehandelten Garnelen werden in Aquakulturen produziert. Haupterzeuger sind Thailand, Ecuador und Indien.
Litopenaeus vannamei
Shrimp Farm in Honduras
Eine aus dem östlichen Pazifik stammende Garnele, die zu den wichtigsten Zuchtgarnelen zählt und weltweit verkauft wird.
Shrimp-Aquakulturen mit großflächigen Becken werden bevorzugt im Bereich der Mangrove angelegt, da die hier anzutreffende Mischung aus Salz- und Süßwasser ideale Lebensbedingungen für Garnelen darstellen. Hohe Besatzdichten von bis zu 600.000 Tieren pro Hektar Fläche und die Zufütterung von eiweißreichem Fischmehl ermöglichen höchste Erträge. Diese Massentierhaltung auf engstem Raum ist sehr störanfällig, erfordert die ständige Kontrolle der Wasserqualität sowie einen täglichen Wasseraustausch in den Zuchtbecken. Massiver Einsatz von Antibiotika, Fungiziden, Parasitiziden, Algiziden und Pestiziden sowie eine regelmäßige Chlorung des Wassers sollen Krankheiten vorbeugen. Infektionen vernichten immer wieder ganze Bestände. Da Garnelen schlechte Futterverwerter sind, werden für die Produktion von 1 kg Shrimps 2 - 3 kg Fischmehl verfüttert. Im Anhang befindet sich eine Grafik zum Wirkungsgefüge der Fischmehlthematik.
Als Folgen des Shrimp-Farming sind zu nennen: die Versalzung der umliegenden Böden und die Überdüngung der Küstengewässer durch die Abwässer, die Absenkung des Grundwasserspiegels durch den hohen Süßwasserbedarf, die Belastung der Gewässer mit Pharmaka, der Rückgang der Küstenfischerei, da der Nachwuchs aus den Mangroven ausbleibt, der Verlust traditioneller Lebensgrundlagen in der Mangrove, Ernteeinbußen durch versalzte Böden.
Die FAO sieht das "nomadic farming" als Wesensmerkmal der Shrimpszucht. Das bedeutet, dass die Betreiber keine Verantwortung für eine nachhaltige Produktion übernehmen müssen. Sobald sich an einem Standort die Zucht nicht mehr lohnt oder häufig auch sobald die Farmen von Viren oder anderen Pathogenen befallen sind, zieht man einfach weiter ("rape and run"). Die aufgegebenen Flächen sind wegen ihrer hohen Salzkonzentration in Boden und Grundwasser auch für die Landwirtschaft nicht nutzbar. Die ökologischen und sozialen Folgekosten (negative externe Kosten), die vor allem unterprivilegierte Gesellschaftsgruppen belasten, lässt man der örtlichen Bevölkerung zurück. Positiv ist zum Shrimp-Farming anzumerken, dass es den Shrimpfang im offenen Meer entlastet. Dieses shrimp trawling hat die größten Mengen an Beifang von allen Fischereiarten. Gleichzeitig wird mit den engmaschigen Netzen der Ozeanboden zerstört.
Allerdings ist die Beifangquote beim Sammeln der Shrimplarven für die Zuchtfarmen erheblich höher. Für einen Zuchtshrimp werden 100 Fische oder Shrimps mit aus dem Meer gezogen, ohne verwertet zu werden. Generell sind die sozialen und ökonomischen Auswirkungen der Shrimpzucht sehr kritisch zu sehen. Der oberste indische Gerichtshof stellte z.B. schon 1996 fest, dass die von der Shrimpindustrie verursachten Schäden an Umwelt und lokaler Wirtschaft die Gewinne aus deren Export weit übersteigen. Die zu 100 % exportorientierte Shrimp-Produktion entspricht der Notwendigkeit, Devisen zu erwirtschaften und die hoch verschuldete Wirtschaft Indiens zu entlasten, die im Teufelskreis von IWF, Weltbank, neo-liberaler Wirtschaftspolitik und Handelsliberalisierung gefangen ist.
Engl. solar constant oder total solar irradiance (TSI), die gesamte von der Sonne in allen Wellenlängen des elektromagnetischen Spektrums abgestrahlte Energie, die in einer Entfernung von einer Astronomischer Einheit (in etwa der mittlere Abstand zwischen Sonne und Erde) pro Sekunde durch eine Fläche von einem Quadratmeter außerhalb der Erdatmosphäre strömt. Ihr Wert beträgt etwa 1361 Watt pro Quadratmeter, er kann von Satelliten (SORCE) aus gemessen werden..
Zyklisch veränderliche Eigenschaften der Sonne, die mit den Turbulenzen ihres heißen Gases und laufenden Änderungen des Magnetfeldes zusammenhängen. Diese Aktivität zeigt sich am auffälligsten in wechselnder Häufigkeit der Sonnenflecken und ihrer Lage zum Äquator. Der Sonnenfleckenzyklus hat eine mittlere Periode von 11 Jahren (solarer Zyklus), kann aber über längere Zeiträume zwischen 9 und 13 Jahren liegen. Die mittlere Zahl der Sonnenflecken schwankt von 0 bis 5 im Sonnenfleckenminimum bis über 100 (um 1960 sogar an die 200) im Maximum. Zu diesem Phänomen kommen noch unregelmäßige Gas- und Strahlungsausbrüche (Flares), Änderungen im Sonnenwind, vereinzelte Sonnenstürme und Protonenschauer, und die riesigen Gasfontänen der Protuberanzen.
Obwohl die Sonnenflecken eine um etwa 1000 °C niedrigere Temperatur als die übrige Sonnenoberfläche (5500 °C) haben, strahlt die Sonne während des Aktivitätsmaximums mit einer geringfügig höheren Leistung als im Sonnenfleckenminimum. Dazu tragen vor allem die Sonnenfackeln (heißere Gebiete mit etwa 7000 °C) bei. Die Sonnenaktivität ist verantwortlich für Ereignisse des Weltraumwetters und wirkt sich direkt auf Satelliten, aber auch auf technische Einrichtungen auf der Erde aus. Sie beeinflusst darüber hinaus das Polarlicht, die Ionosphäre und damit die Ausbreitung der Radiowellen auf der Erde.
Syn. Solarstrahlung, solare Strahlung; die von der Photosphäre der Sonne emittierte elektromagnetische Strahlung, die nach dem Planck'schen Strahlungsgesetz der Strahlung eines Schwarzen Köpers der Temperatur 6000 K entspricht. Sie wird auch als Kurzwellenstrahlung bezeichnet. Sonnenstrahlung weist eine bestimmte Spannbreite von Wellenlängen (Spektrum) auf, die von der Temperatur der Sonne abhängig sind. Sie ist in den sichtbaren Wellenlängen am stärksten.
Der größte Teil der solaren Strahlung gelangt bis zur Erdoberfläche. Diesen Vorgang, bei dem sich Strahlung unbeeinflusst durch ein Medium (hier die Atmosphäre) ausbreitet, nennt man Transmission. Allerdings hat die Atmosphäre auch Einfluss auf die Sonnenstrahlung durch:
Reflexion
Absorption und
Streuung.
Diese Vorgänge führen zu einer Schwächung der Sonnenstrahlung, die als Folge der wechselnden atmosphärischen Bedingungen räumlich und zeitlich variabel ist.
Der mittlere Energiefluss der Sonnenstrahlung an der Obergrenze der Atmosphäre (extraterrestrische Sonnenstrahlung) wird als Solarkonstante bezeichnet. Das Maximum der spektralen Energieverteilung tritt im sichtbaren Bereich nach dem Wien'schen Verschiebungsgesetz bei 0,5 μm auf.
Das solare Strahlungsspektrum wird in drei Bereiche eingeteilt. 99 % der Energieabstrahlung erfolgt im Wellenlängenbereich 0,23-5 μm. An der Obergrenze der Atmosphäre sind davon 9 % UV-Strahlung, 45 % sichtbares Licht und 46 % Infrarotstrahlung. Beim Durchgang durch die Atmosphäre wird die Sonnenstrahlung insgesamt abgeschwächt (Extinktion), in einigen Wellenlängenbereichen erfolgt sogar eine fast gänzliche Auslöschung der Strahlung durch die atmosphärischen Gase und Spurenstoffe. Dies gilt u.a. für Wellenlängen < 0,29 μm, die in der zwischen 20-50 km auftretenden Ozonschicht weitestgehend absorbiert werden. Dadurch wird das Leben auf der Erde vor der gefährlichen UV-Strahlung geschützt. Weitere Schwächungen erfolgen durch die Streuung an Stickstoff- und Sauerstoffmolekülen sowie den Dunstpartikeln. Besonders im Infrarotbereich wird die Sonnenstrahlung von Wasserdampf- und Kohlendioxidmolekülen absorbiert, während das gesamte Spektrum durch die Dunstabsorption erheblich abgeschwächt wird.
Die Sonne ist mit ihrer Strahlung die Energiequelle, die Leben auf der Erde möglich macht. Sie stellt die Energie bereit, die Primärproduzenten (grüne Pflanzen, Algen) zum Aufbau von Biomasse nutzen. Sie treibt die Energietransporte in Atmosphäre und Ozeanen an.
Der Strahlungsantrieb durch die Sonne selbst unterliegt ebenfalls Schwankungen aufgrund variabler Solaraktivität, die nicht nur die häufig als Maßzahl verwendeten kühleren Sonnenflecken, sondern auch die weitgehend synchron auftretenden heißeren Sonnenfackeln und sonstigen Eruptionen umfasst. Aus Satellitenmessungen wissen wir mittlerweile, dass die Energieabgabe der Sonne (abgesehen von klimatisch irrelevanten Kurzzeitfluktuationen von einigen Wochen) derzeit nur im Größenordnungsbereich von 0,1 % schwankt, dabei aber signifikant positiv mit der Sonnenfleckenaktivität korreliert ist. Bei Aktivitätsmaxima wird die Wirkung der ausgedehnten kühleren Fleckenflächen durch die Zunahme von Fackeln und Eruptionen strahlungsenergetisch überkompensiert.
Bezeichnung für den führenden Modus der südpazifischen Luftdruckschwankungen, ein neu identifiziertes Muster der Variabilität im Südpazifik. In einer 2017 veröffentlichten Studie wurde das am häufigsten auftretende Muster der Schwankungen des Meeresspiegeldrucks (SLP) im Südostpazifik während des australischen Winters (d. h. auf der südlichen Hemisphäre) (d. h. von Juni bis August) identifiziert. Dieses Dipolmuster zeichnet sich durch gegenläufige Schwankungen des SLP in zwei nord-südlich ausgerichteten "Aktionszentren" aus, die sich zwischen etwa 60° S und 35° S befinden. Wir nennen diesen Dipol die Südpazifische Oszillation (SPO).
South Pacific Oscillation
Anomalien der Meeresoberflächentemperatur (SST) (schattierte Konturen), 10-m-Windanomalien (Vektoren) und Anomalien des Meeresspiegeldrucks (SLP) (Linienkonturen) in Verbindung mit der Südpazifischen Oszillation (SPO). Positive (negative) Werte der SLP-Anomalien werden durch rote (blaue) durchgezogene (gestrichelte) Konturen dargestellt. Überdurchschnittlich warme SST-Werte sind in Gelb und Rot dargestellt, während überdurchschnittlich kalte SST-Werte in Blau erscheinen. Die SST-Daten stammen von HadISST, die SLP-Daten von der NCEP/NCAR-Reanalyse.
Die beiden Zentren der SPO stehen für unterschiedliche physikalische Prozesse im Klimasystem der südlichen Hemisphäre. In diesem Beitrag konzentrieren wir uns auf den nördlichen Knotenpunkt der SPO (d. h. den vor der Westküste Südamerikas). Physikalisch gesehen steht dieses "Aktionszentrum" für Veränderungen in der Stärke des subtropischen Hochs im Südpazifik, eines semipermanenten Hochdruckgebiets im Südpazifik. Dieses Hochdruckzentrum sorgt in weiten Teilen des westlichen Südamerikas (z. B. in Peru und Chile) für ein mildes und relativ trockenes Klima, ähnlich wie in den Küstenregionen Kaliforniens (die - Sie haben es erraten - ebenfalls von einem subtropischen Hoch kontrolliert werden).
Die negativen Abweichungen vom Durchschnitt (gestrichelte blaue Konturen in der obigen Abbildung) deuten auf ein schwächeres subtropisches Hoch als normal hin, was eine Abschwächung der klimatologischen Südostpassate bedeutet. Daher ist auch der Auftrieb, d. h. das Aufsteigen von kühlerem Wasser in der Tiefe des Ozeans, im tropischen Pazifik geringer, und die SST ist wärmer als im Durchschnitt (schattierte Konturen in der Abbildung oben). Tatsächlich korreliert die SPO gut mit den SST-Anomalien im tropischen Pazifik, was der erste Hinweis darauf ist, dass dieses Muster für die Entwicklung von ENSO wichtig ist. Die SPO ist in den Wintermonaten am aktivsten, was für die südliche Hemisphäre der Zeitraum von Juni bis August ist (JJA).
Zusammengefasst: Die SPO dient als Bestimmungsgröße dafür, wo das Maximum der Anomalie für das kommende El-Niño-Ereignis liegen wird - also die Ausprägung des Ereignisses. Das bedeutet:
Eine stark positive SPO während des JJA bedeutet, dass das Ereignis wahrscheinlich ein starker / EP El Niño sein wird.
Eine nahezu neutrale oder negative SPO während des JJA bedeutet, dass es sich wahrscheinlich um einen schwachen/CP-El Niño handeln wird.
Der Southern Annular Mode (SAM), auch bekannt als Antarctic Oscillation (AAO), beschreibt die (nicht saisonale) Nord-Süd-Bewegung des Westwindgürtels, der die Antarktis umkreist und die mittleren bis höheren Breiten der südlichen Hemisphäre beherrscht. Die sich ändernde Position des Westwindgürtels beeinflusst die Stärke und Position von Kaltfronten und Sturmsystemen in den mittleren Breiten und ist ein wichtiger Treiber für die Niederschlagsvariabilität in Südaustralien und Neuseeland.
Über dem Ozean bewirken die stärkeren Westwinde stärkere Strömungen nach Osten, die an der Meeresoberfläche aufgrund des verstärkten windgetriebenen Ekman-Transports divergieren, was zu einer stärkeren Aufwärtsbewegung in etwa 60° S führt. Die Abweichungen der SAM von seinem ringförmigen Muster fördern den meridionalen Austausch und damit den Wärmetransport.
Bei einem positiven SAM-Ereignis zieht sich der Gürtel der starken Westwinde in Richtung Antarktis zusammen. Dies führt zu schwächeren Westwinden als normal und zu höheren Drücken über Südaustralien, was das Eindringen von Kaltfronten ins Landesinnere einschränkt. Im Herbst und Winter kann ein positiver SAM-Wert dazu führen, dass Kaltfronten und Stürme weiter südlich liegen und Südaustralien daher Regenfälle im Allgemeinen verpasst. Im Frühjahr und Sommer kann ein stark positiver SAM jedoch bedeuten, dass Südaustralien von der nördlichen Hälfte der Hochdrucksysteme beeinflusst wird, so dass es mehr Ostwinde gibt, die feuchte Luft aus dem Tasmanischen Meer bringen. Diese erhöhte Feuchtigkeit kann sich in Regen verwandeln, wenn die Winde auf die Küste und die Great Dividing Range treffen.
In den letzten Jahrzehnten sind vermehrt positive SAM-Phasen aufgetreten. Dies hängt mit dem antarktischen Ozonloch zusammen. Der Ozonabbau verstärkt die Winde um die Polarregion und erhöht den Luftdruck über Neuseeland, was zu einem schwächeren Westwind über Neuseeland im zeitigen Frühjahr führen kann, wenn das Ozonloch ausgeprägt ist. Diese Situation trug wesentlich zur "großen Trockenheit" ('big dry') in Südaustralien von 1997 bis 2010 bei.
Umgekehrt bewegt sich bei einem negativen SAM der Tiefdruckgürtel der südlichen Hemisphäre mit seinen starken Westwinden nach Norden in Richtung Äquator. Diese Verschiebung der Westwinde führt zu mehr (oder stärkeren) Stürmen und Tiefdrucksystemen über Südaustralien.
Auch in Neuseeland verursacht eine negative Phase typischerweise zunehmende Westwinde, unbeständiges Wetter und Stürme sowie tiefere Temperaturen an der Westküste Neuseelands. Eine Phase kann mehrere Wochen dauern, aber Veränderungen können schnell und unvorhersehbar sein. Über die südlichen Ozeane hinweg gibt es dann relativ weniger Westwinde und geringere Sturmaktivität.
In manchen Jahreszeiten begünstigen ENSO-Ereignisse (d. h. La Niña und El Niño) eine bestimmte Phase des SAM. El Niño begünstigt in den Frühlings- und Sommermonaten tendenziell eine negative SAM, während La Niña in den Frühlings- und Sommermonaten tendenziell eine positive SAM begünstigt. Beide Beziehungen verstärken typischerweise die jeweiligen trockenen und feuchten Signale von El Niño und La Niña.
Bezeichnung für eine zuerst von H.H. Hildebrandsson 1897 rudimentär beschriebene, von Sir Gilbert Walker detailliert vorgestellte und vermutlich auch von ihm benannte Luftdruckoszillation über dem tropischen Pazifik, die man als Wechselspiel zwischen dem südostasiatisch-westpazifischen Tiefdruckgebiet und dem südostpazifischen Hochdruckgebiet beschreiben kann. Hier vollzieht sich eine Massenverschiebung zwischen den genannten Luftdruckzellen (Ost-West-Luftdruckschaukel), die die Stärke der Passatwinde längs des äquatorialen Pazifiks bestimmt. Die Southern Oscillation ist im Falle einer Abschwächung der subtropischen Hochdruckzelle im ostpazifischen Raum verbunden mit einer Abschwächung der Ost-West gerichteten tropischen Walker-Zirkulation, damit auch mit einer Abschwächung der Passate und gleichzeitig mit einer Verstärkung der meridional gerichteten pazifischen Hadley-Zirkulation.
Entscheidend ist dabei der Druckunterschied zwischen dem Hochdruckgebiet im südöstlichen Pazifik (als Messwert wird der Bodendruck von Tahiti genommen) und dem asiatisch-australischen Tiefdrucksystem (Meßwert von Djakarta, Indonesien).
Messbar ist die Southern Oscillation mit dem Walker- oder Southern Oscillation Index (SOI). Der SOI weist zu El Niño-Ereignissen eine negative Korrelation auf, d.h. dass in El-Niño-Phasen der SOI eine negative Abweichung vom Mittelwert zeigt, also gering ist, und in La-Niña-Phasen eine positive Abweichung. Die unten stehende Abbildung zeigt das sehr auffällig an dem El Niño von 1982/83. Da der El Niño eng mit der Southern Oscillation verknüpft ist, spricht man auch vom El Niño/Southern Oscillation- (ENSO-) Phänomen. Diese gedankliche Verbindung erfolgte erst in den späten sechziger Jahren durch den norwegischen Meteorologen Jacob Bjerknes. César N. Caviedes schreibt die Namensfindung der Southern Oscillation dem holländischen Klimatologen Berlage (1957) zu.
SOI Druckmuster
Abweichung vom durchschnittlichen Meeresspiegeldruck in Wintern, in denen der Southern Oscillation Index stark positiv (oben) oder negativ (unten) ist. Während La Niña (positiver SOI) ist der Druck über dem zentralen Pazifik in der Nähe von Tahiti höher als der Durchschnitt (rot) und über Australien niedriger als der Durchschnitt (grau). Während El Niño ist der SOI negativ, und die Anomalien kehren sich um. NOAA Climate.gov Bild, basierend auf Daten des NOAA Physical Science Lab.
In dem Konzept von Bjerknes verstärken sich kalte und warme Phasen, La Niñas und El Niños, durch eine positive Rückkopplung: Eine Abkühlung der SST im Ostpazifik verstärkt die Walker-Zirkulation, die den Auftrieb (Upwelling) antreibt, wodurch die SST sich weiter abkühlt. Eine ostpazifische Erwärmung schwächt die Walkerzirkulation und unterdrückt den Auftrieb, wodurch die Ostwinde weiter geschwächt werden usw. Das bedeutet, eine großes Temperaturgefälle zwischen West- und Ostpazifik verstärkt die Passate, die wiederum das Temperaturgefälle verstärken, und umgekehrt. Dieser positive Feedback-Mechanismus erklärte wesentliche Vorgänge des ENSO-Phänomens. Es blieb allerdings unklar, wodurch die eine Phase in die andere übergehen konnte. Was stoppt z.B. die sich durch positive Rückkopplung ständig steigernde Erwärmung während eines El Niños? Warum dauert ein El Niño typischerweise nur 12-18 Monate? Und warum endet ein El Niño-Ereignis dann plötzlich und wird von einem kalten Ereignis, einer La Niña, abgelöst? Erklärungsversuche sind im Kapitel "Hypothesen" zusammengestellt.
Weitere 'Schaltkreise', die Impulse aus den tropischen und subtropischen Meeren in die mittleren und hören Breiten senden, und die über ihre Verknüpfungen von Bedeutung für das globale atmosphärische Geschehen sind:
Südostasien-Oszillation (SEO) - stellt die Luftdruckunterschiede zwischen dem Indonesientief und der Antizyklone über dem Nordpazifik dar
Arktische Oszillation (AO) - drückt die Luftdruckunterschiede zwischen dem Hoch über dem Nordpol und Druckgebilden über Alaska und Mitteleuropa aus.
Nordatlantik-Oszillation (NAO) - drückt die Luftdruckunterschiede zwischen Islandtief und Azorenhoch aus
Pazifisch-Nordamerikanische Telekonnektion (PNA) - besitzt einen Pol über dem Aleutentief und den anderen über Nordamerika
West-Pazifische Telekonnektion (WP) - drückt die zonalen Verschiebungen des Jetstreams über dem Pazifik aus
Überdurchschnittlich hohe Luftdrücke sind charakteristisch für beständigeres und schöneres Wetter mit wenig Regen, wohingegen unter dem Durchschnitt liegende Druckverhältnisse mit ‚schlechtem‘ Wetter einhergehen, mit Gewittern und Regen. Diese Grundaussagen treffen auch bei der Southern Oscillation zu. Folglich bedeuten die bei El Niño-Bedingungen höheren Luftdrücke über Australien, Indonesien, Südostasien und den Philippinen trockenere Verhältnisse oder sogar Dürren. Trockenere Bedingungen sind dann als Fernwirkungen auch über Hawaii, in Teilen Afrikas und im Nordosten von Brasilien und in Kolumbien anzutreffen. Am anderen Ende der Luftdruckschaukel herrschen übermäßige Regenfälle vor, und zwar über dem zentralen und östlichen Pazifik, entlang der Westküste von Südamerika, in Teilen Uruguays und in Teilen der südlichen USA, was oft zu Überschwemmungen führt. Wenn das Druckmuster über dem Pazifik seine Vorzeichen ändert, wie dies bei La Niñas der Fall ist, erhalten die bei El Niño unter Dürren leidenden Gebiete mit großer Wahrscheinlichkeit hohe Niederschläge und umgekehrt.
El Niño–Southern Oscillation, kurz ENSO, ist ein starkes natürliches Klimamuster, das im tropischen Pazifik wirkt. ENSO beinhaltet koordinierte, jahreszeitlich bedingte Veränderungen der Oberflächentemperatur des Ozeans und der atmosphärischen Zirkulation. Der Southern Oscillation Index (SOI) verfolgt den atmosphärischen Teil des Musters. Der Oceanic Niño Index (ONI) verfolgt den Anteil des Ozeans.
Der Southern Oscillation Index wird zur Messung der Southern Oscillation angewandt. Dazu wird der Luftdruck über den Osterinseln und über Darwin (12,4° S/130,9°O; N-Australien) gemessen. Auch andere Stationspaare, deren Jahresmittelwerte für den Luftdruck eine markante gegensätzliche Korrelation aufweisen, z.B. Tahiti (17,5°S/149,6°W) und Darwin, werden herangezogen. Beispielsweise benutzt das australische Bureau of Meteorology (BOM) diese Stationen. Die Abweichung von deren Differenz (Ost minus West) vom langjährigen Mittel stellt den Index dar.
Der SOI hat ein positives Vorzeichen (high-index phase), wenn der Druck im Osten über und im Westen unter dem Mittelwert liegt. Entsprechend verstärkt wehen die Passatwinde. Der SOI gilt somit auch als Maß für die Stärke der Passate über dem Pazifik. Gleichzeitig herrschen im Ostpazifik kühlere Wassertemperaturen vor. Etwa ab September wird der SOI häufig negativ (low-index phase). Das ist ein Anzeichen dafür, dass zumindest mit einem El Niño nach alter Definition zu rechnen ist.
Generell fallen in Zeitreihen negative Anomalien im SOI mit positiven Anomalien der Meeresoberflächentemperatur (El Niño-Phasen) zusammen. Ebenso fallen positive Anomalien im SOI mit negativen Anomalien der Meeresoberflächentemperatur (La Niña-Phasen) zusammen.
Der besondere Wert des SOI als Vergleichsindikator liegt in der Verfügbarkeit von Datenreihen des bodennahmen Luftdrucks in Darwin und Tahiti, die mit wenigen Unterbrechungen bis ins späte 19. Jh. zurückreichen. Ein Nachteil ist, dass der SOI bei historischen Vergleichen nur für ein Merkmal von ENSO korreliert werden kann, nämlich den zonalen Temperaturgradienten entlang des Äquators.
Southern Oscillation Index (SOI) von Januar 1990 bis November 2023
rot = El Niño-Phasen; blau = La Niña-Phasen
Grafik von N. Marschall nach Rohdaten des BOM - Messstationen: Tahiti und Darwin
Southern Oscillation Index (SOI) von 1876 bis 2023
Aus technischen Gründen (die Software konnte die vielen Monatswerte für einen so langen Zeitraum nicht zu einer Kurve verarbeiten) basiert diese Grafik jeweils auf dem Jahresdurchschnitt des SOI. Da El Niño jedoch gerade über den Jahreswechsel auftritt, zählen wir ein Jahr immer von Juli des Vorjahres bis Juni des eigentlichen Jahres (eine Art "ENSO-Jahr"). Ein Vergleich hat ergeben, dass diese Verfahrensweise wichtige El Niños deutlich besser abbildet als ein Durchschnitt für das jeweilige Kalenderjahr.
Deutlich erkennbar sind z.B. die starken El Niños 1982/83 und 1997/98 als stark negativer Ausschlag der Kurve.
stark positive Ausschläge = La Niña-Phasen stark negative Ausschläge = El Niño-Phasen
Grafik von N. Marschall nach Rohdaten des BOM - Messstationen: Tahiti und Darwin
Obwohl der Southern Oscillation Index eine langen Reihe von Stationsdaten seit dem 18. Jahrhundert hat, ist seine Zuverlässigkeit eingeschränkt, aufgrund der Lage von Darwin und Tahiti weit südlich des Äquators, so dass der oberflächennahe Luftdruck an beiden Standorten weniger direkt mit ENSO verbunden ist. Um dieses Problem zu überwinden, wurde ein neuer Index mit dem Namen Equatorial Southern Oscillation Index (EQSOI) geschaffen. Um diese Indexdaten zu generieren, wurden zwei neue Regionen, die sich auf den Äquator konzentrieren, abgegrenzt, um einen neuen Index zu erstellen: Die westliche liegt über Indonesien und die östliche über dem äquatorialen Pazifik, nahe der südamerikanischen Küste. Allerdings reichen die Daten des EQSOI nur bis 1949 zurück.
Im Kapitel 'Aktueller Zustand des Pazifiks' befinden sich Links zu Webseiten, auf denen man die neuesten SOI-Werte findet, ebenso weitere aktuelle Werte zum Zustand von Atmosphäre und Meer im Bereich des Pazifik. (Barnston 2015)
Griech. speleo=Höhle; sekundäre Mineralablagerung, besonders von Calciumcarbonat (CaCO3), in Höhlen/Grotten, als Ausscheidung aus calciumhydrocarbonathaltigen Wässern unter Abgabe von Kohlendioxid in die Luft (Tropfstein), z.B. Stalaktiten, Stalagmiten etc. Speläotheme zeigen jährliche Bänderungen oder enthalten Mineralstoffe, die radiometrisch bestimmt werden können. Die Dicke der Ablagerungen oder der Gehalt an Isotopen zeigt Klimavariationen an.
Die am häufigsten vorkommenden Speläotheme sind Höhlensinter oder Tropfsteine. Meistens bestehen sie aus den Mineralen Calcit und Aragonit oder der Verbindung Calciumcarbonat (Kalk), häufig sind auch verschiedene Formen von Gips. In geeigneten Gesteinen wie Sandstein oder Quarzit treten darüber hinaus Speläotheme aus Opal auf.
Zu dt. etwa Frühjahrs-Vorhersagbarkeitsbarriere; es ist die Zeit des Jahres, zu der – in den saloppen Worten des ENSO-Blogs - die ENSO-Meteorologen auf die neuesten Analysen und Modellvorhersagen starren und frustriert ihre Köpfe schütteln. Das Phänomen tritt oft bei den meisten ENSO-Vorhersagemodellen auf und ist durch einen deutlichen Abfall der Vorhersagegenauigkeit während der Monate März bis Mai charakterisiert. Bei der Wachstumsphase von El Niño ist der SPB deutlich ausgeprägter als in der Phase des Verfalls. Bei La Niña-Ereignissen und im Neutralstadium des ENSO-Zyklus ist der SPB sowohl in der Wachstums- als auch in der Verfallsphase weniger deutlich als bei denen von El Niño.
Es gibt mehrere Überlegungen, weshalb zu der Frühjahrsbarriere kommt, aber noch wurde kein eindeutig Schuldiger gefunden. Einer der Gründe liegt darin, dass das Frühjahr auch für ENSO eine Übergangsjahreszeit darstellt (siehe signals are low and noise is high). Das Frühjahr ist die Zeit, zu der ENSO umschwingt: Oft zerfallen El Niño- und La Niña-Ereignisse nach ihrem winterlichen Peak, manchmal durchlaufen sie dann einen neutralen Zustand bevor sie möglichweise zu ihrem jeweiligen Gegenpart im späteren Jahresverlauf werden. Es besteht im Frühjahr eine schwächere Koppelung zwischen Ozean und Atmosphäre aufgrund einer Verminderung der durchschnittlichen SST-Gradienten im tropischen Pazifik.
Neuerdings versucht man mit Hilfe von Temperaturdaten aus dem Wasserkörper unter der Oberfläche das Spring Barrier-Problem zu überwinden. Man kann belegen, dass alle größeren El Niño-Ereignisse seit 1980 einen vorherigen Aufbau von höheren Temperaturen aufweisen. Dies kann je nach Stärke des Wärmeaufbaus zu einer bis zu 21-monatigen Vorlaufzeit führen, verbunden mit einer verbesserten Vorhersagemöglichkeit von El Niño-Ereignissen.
Die Ursachen für die Existenz der SPB werden weiter diskutiert.
Wichtige Maßzahl einer Verteilung von Werten, sie ist definiert als Wurzel der Varianz (der gemittelten quadrierten Abweichungen jedes Werts vom Mittelwert). Sie misst die Breite einer Verteilung, also wie stark eine Variable streut. Bei der Normalverteilung liegen 68 % aller Werte innerhalb einer Standardabweichung vom Mittelwert.
Der von McKeeund Kollegen entwickelte Standardisierte Niederschlagsindex (Standardized Precipitation Index, SPI) ist einer der gebräuchlichsten klimatologischen Niederschlagsindizes zur Identifikation von Niederschlagsüberschüssen und -defiziten (Dürren). Der SPI dient hierbei der Bewertung und Charakterisierung der Niederschlagsverhältnisse eines Monats, Quartals bzw. Halbjahres in Relation zu den jeweiligen Normalwerten. Die Verteilungsfunktion der Niederschlagswerte wird hierbei in eine Standard-Normalverteilung (Glockenkurve) transformiert. Für jeden Niederschlagswert kann die in Standardabweichungen angegebene Position in der Verteilungsfunktion angegeben werden, was dem SPI-Wert entspricht. Es wird dann von einer Dürre gesprochen, wenn der Niederschlagswert kleiner als minus eine Standardabweichung ist. Die Berechnung des SPI ist auch für über mehrere Monate aggregierte Niederschlagssummen möglich, was die Detektion von verschiedenen Dürrearten ermöglicht. Ein negativer SPI-Wert zeigt einen Zeitraum, der trockener war als normal, ein positiver SPI-Wert zeigt einen Zeitraum, der feuchter war als normal. Der SPI hat seine Grenzen in ariden Regionen, in denen sich durch viele natürlicherweise niederschlagsfreie Monate die Verteilungsfunktion nicht mehr in eine Standard-Normalverteilung transformieren lässt.
Niederschlag hoher Intensität und einer Mindestmenge von 5 mm Niederschlagshöhe in 5 Minuten Niederschlagsdauer bzw. (7,1 mm/10 min), (10 mm/20 min), (17,1 mm/60 min). Starkregen erfolgen meist aus konvektiven Wolken, wie z.B. Cumulus- und Cumulonimbuswolken und rufen schnell ansteigende und abfließende Hochwasser hervor.
Insbesondere in Entwicklungsländern kann ein Starkregen als extremes Naturereignis Schadensursache für schlecht gebaute und deshalb anfällige Gebäudedächer sein (direkte Wirkung), meistens sind jedoch die aus dem Starkregen entstehenden Konsequenzen, nämlich Überschwemmungen, Hangrutschungen, Erosion, etc. die direkten physischen Bedrohungen und Schadensursachen (längere Wirkungskette). Gegenstand der Bedrohungsanalyse sind die direkten physischen Bedrohungen als Bestandteil einer möglicherweise längeren Kette von Wirkungen. Die direkte physische Bedrohung ist jene Bedrohung, die von der betroffenen Bevölkerung als solche wahrgenommen wird. Im genannten Beispiel wäre es nicht der Starkregen,sondern die Überschwemmungen, Hangrutschungen und die Erosion. Dies hängt jedoch wiederum davon ab, ob der Starkregen aufgrund gegebener Standortcharakteristiken (Wassereinzugsgebiet, Steilhänge, fehlende Vegetationsdecke, geringe Infiltrationsfähigkeit der Böden) und Anfälligkeitsfaktoren zu solchen sekundären Extremereignissen wie Überschwemmungen, Erosion oder Hangrutschungen führt und es dort diesen Sekundär-Bedrohungen gegenüber anfällige Elemente gibt, wie z.B. Straßen oder Felder an Hängen, Siedlungen in Tieflagen, etc. (= Anfälligkeitsfaktoren). Wieweit ein Naturereignis eine Bedrohung darstellt, hängt auch vom Standort der Betrachtung ab: Ein Starkregen im Gebirge stellt für die Siedlung in der Unterliegerregion keine Bedrohung dar, sondern höchstens die Überschwemmung, die aufgrund des Starkregens entstehen kann, und auch nur dann,wenn die Siedlung anfällig gegenüber Überschwemmungen ist. Für die ungeschützte Straße am Hang stellt die Hangrutschung eine Bedrohung dar, die vom Starkregen ausgelöst wird. Ob der Starkregen in der Oberliegerregion,wo er abregnet, eine Bedrohung darstellt, hängt davon ab, ob ihm anfällige Elemente gegenüberstehen, wie z.B. Salat- und Gemüseanbau im Frühstadium. Wieviel Schaden z.B. eine Landwirtschaft als wichtige Einkommensquelle durch Starkregen erleidet, hängt von einer Serie von Prozessen,Wirkungen und Anfälligkeitsfaktoren ab, wie die Grafik zur Wirkungskette von Starkregen für die Landwirtschaft veranschaulicht. Dabei verwandeln sich die Wirkungen des Starkregens in physische Bedrohungen und damit in Schadensursachen, wie z.B.Hangrutschungen, Überflutungen und Erosion.
Wirkungskette von Starkregen für Landwirtschaft und Einkommen
Quelle: GTZ (2004): Risikoanalyse - eine Grundlage der Katastrophenvorsorge
Engl. radiative forcing; der Strahlungsantrieb ist die Veränderung in der vertikalen Nettoeinstrahlung (Einstrahlung minus Ausstrahlung, ausgedrückt in Watt pro Quadratmeter: Watt/m²) an der Tropopause aufgrund einer Veränderung eines äußeren Antriebs des Klimasystems, wie z.B. eine Veränderung in der Konzentration von Kohlendioxid oder der Sonnenstrahlung. Der Begriff wurde vom IPCC eingeführt, um im Rahmen der Klimastudien den Einfluss externer Faktoren auf die Strahlungsbilanz bzw. das Klimasystem der Erde zu beschreiben.
Der Strahlungsantrieb wird berechnet, indem alle troposphärischen Eigenschaften auf ihren ungestörten Werten konstant gehalten werden und nachdem sich die stratosphärischen Temperaturen, sofern verändert, an das strahlungsdynamische Gleichgewicht angepasst haben. Der Strahlungsantrieb wird als „unverzögert“ bezeichnet, wenn keine Veränderung in den stratosphärischen Temperaturen beobachtet wird. Für die Zielsetzung des IPCC-Berichtes wurde der Strahlungsantrieb weiter definiert als die Veränderung im Vergleich zum Jahr 1750 und bezieht sich, sofern nicht anders vermerkt, auf den global und jährlich gemittelten Wert.
Der Strahlungsantrieb darf nicht mit dem Wolkenstrahlungsantrieb verwechselt werden, einem ähnlichen Begriff für die Beschreibung des Einflusses der Wolken auf die Einstrahlung an der Außengrenze der Atmosphäre.
Die Bilanz der ein- und ausgehenden Strahlung der Atmosphäre oder des Erdbodens. Für die Atmosphäre ist die Bilanz negativ, d.h. es wird weniger kurzwellige Sonnenstrahlung absorbiert als langwellige Strahlung abgegeben. Die Erdoberfläche dagegen hat eine positive Strahlungsbilanz. Von der ursprünglichen Sonnenstrahlung erreicht im Durchschnitt ein Drittel den Erdboden auf direktem Wege. Die insgesamt am Erdboden ankommende Sonnenstrahlung besteht aus dieser direkten Strahlung und der diffus gestreuten Himmelsstrahlung. Diese Globalstrahlung erwärmt den Erdboden, der seinerseits (entsprechend seiner Temperatur) langwellig ausstrahlt. Die regionalen Unterschiede im Strahlungshaushalt sind eine Folge der wechselnden Einstrahlungsverhältnisse und terrestrischer Parameter, die die Strahlungsumsätze beeinflussen.
Globaler mittlerer Energiehaushalt unter heutigen Klimabedingungen
Die Zahlen geben die Größenordnungen der einzelnen Energieströme in W m-2 an, die innerhalb ihrer Unsicherheitsbereiche angepasst wurden, um die Energiebudgets zu schließen. Zahlen in Klammern, die an die Energieströme angehängt sind, decken den Wertebereich ab, der mit den Beobachtungseinschränkungen übereinstimmt. (Angepasst aus Wild et al., 2013.) Der Energieaustausch zwischen Sonne, Erde und Weltraum wird von weltraumgestützten Plattformen wie dem Clouds and the Earth's Radiant Energy System (CERES) und dem Solar Radiation and Climate Experiment (SORCE) beobachtet, die im Jahr 2000 bzw. 2003 mit der Datenerfassung begonnen haben.
Die zur Erde kommende Sonnenenergie wird durch Wolken, Luft und Boden (hier besonders von Schnee) zu 30 % wieder in den Weltraum reflektiert (das heißt die Albedo der gesamten Erde ist 0,30). Die restlichen 70 % werden absorbiert: rund 20 % von der Atmosphäre, 50 % vom Erdboden. Letztere werden durch Wärmestrahlung und durch Wärmeleitung mit anschließender Konvektion wieder an die Lufthülle abgegeben. Würde diese Energie wieder vollständig in den Weltraum abgestrahlt werden, läge die mittlere Lufttemperatur bei -18 °C, während sie tatsächlich +15 °C beträgt. Die Differenz erklärt sich aus dem natürlichen Treibhauseffekt der Atmosphäre. Die sogenannten Treibhausgase in der erwärmten Atmosphäre (vor allem Wasserdampf und Kohlendioxid) emittieren Infrarotstrahlung – auch in Richtung Erde. Der Nachschub für die abgestrahlte Energie erfolgt durch Konvektion und Absorption (ein Teil der Abstrahlung von der Erdoberfläche im Infraroten wird absorbiert). Die von der Atmosphäre emittierte Infrarotstrahlung führt zu einer Erwärmung der Erdoberfläche um durchschnittlich 33 °C. Diese Zahlen gelten nur für die Erde als Ganzes. Lokal und regional hängen die Verhältnisse von zahlreichen Faktoren ab:
von der Albedo der Erdoberfläche, die vom 30 %-Mittel stark abweichen kann (beispielsweise Schnee 40 bis 90 %, Wüste 20 bis 45 %, Wald 5 bis 20 %)
vom oben erwähnten Einfallswinkel der Sonnenstrahlen und der Dauer ihrer Einwirkung
von Bewölkung und Luftfeuchtigkeit
vom Wärmetransport durch Wind, von Luftschichtungen usw.
Theoretisch sind diese Faktoren weitgehend modellierbar, doch nicht in allen Details wie Staueffekten an Gebirgen oder unregelmäßiger Bewegung von Tiefdruckgebieten. Für gute Vorhersagen benötigt die Meteorologie außer enormer Rechenleistung auch ein weltweit dichtes Raster von Messdaten über alle Luftschichten, was in der Praxis an Grenzen stößt.
Kleine Flocken mit kumulusförmigem Aussehen; die unteren Teile der Flocken sind im Allgemeinen zerklüftet und werden bei sehr niedrigen Temperaturen von faserigen Spuren ( Eiskristallvirgen) begleitet. Stratocumulus floccus ist ein Anzeichen für Instabilität in diesem Bereich.
Stratocumulus floccus bildet sich oft als Folge der Auflösung der Basis von Stratocumulus castellanus.
Diese Aufnahme zeigt schwache Konvektion am frühen Morgen (0640 Uhr Ortszeit, 22.5.2010, Janakkala, Finland)
Die Stratosphäre (griechi. stratum: Decke, sphaira: Kugel) ist vom Erdboden aus gesehen nach der Troposphäre die zweite Schicht der Erdatmosphäre. Die Temperatur ist im unteren Teil dieser Luftschicht, der sogenannten kalten Stratosphäre, ab rund 8 km in Polarregionen und ab 16 km Höhe im tropischen Bereich, in vertikaler Richtung konstant bzw. nimmt nur gering zu, im oberen Teil, ab etwa 20 - 30 km Höhe, steigt die Temperatur bis zu 50 km Höhe deutlich an.
Die Stratosphäre wird in ihrem unteren Teil von der Tropopause (Grenzschicht zur Troposphäre) und in ihrem oberen Teil von der Stratopause (Grenzschicht zur darüber liegenden Mesosphäre) begrenzt. Der oben genannte Lufttemperaturanstieg ist auf die Ozonschicht zurückzuführen, welche sich in der Stratosphäre befindet. Dabei erwärmt sich die Luft von rund -60 °C im unteren Bereich, bei ca. 11 km Höhe, bis 0 °C in rund 50 km Höhe. Dieser Temperaturanstieg ist auf die Absorption der UV-Strahlung durch das Ozon zurückzuführen.
Engl. storm, gale; Bezeichnung für Wind von großer Heftigkeit, nach der Beaufort-Skala der Stärke 9 bis 11 (74 bis 117 km/h), der bereits erhebliche Schäden anrichten kann. Ein Sturm mit einer Windgeschwindigkeit von mindestens 32,7 m/s (117,7 km/h) oder 12 Beaufort wird als Orkan bezeichnet. Dazwischen spricht man bei 10 Beaufort von einem schweren und bei 11 Beaufort von einem orkanartigen Sturm.
Erreicht der Wind nur kurzzeitig (für wenige Sekunden) Sturmstärke, so spricht man von einer Sturmböe. In der Regel sind mit einem Sturm auch starke Regenfälle verbunden, weshalb die Bezeichnung umgangssprachlich oft als Synonym für einen schweren Schauer oder ein Gewitter verwendet wird, beide stellen jedoch nur Begleiterscheinungen bzw. Spezialfälle eines Sturms dar. Auf See ist für den windbedingt hohen Wellengang ebenfalls die Bezeichnung Sturm gebräuchlich, mit einer geringeren Betonung auf den meist gleichzeitigen Niederschlägen. Je nachdem, was ein Sturm aufwirbelt bzw. womit er zusammen auftritt, spricht man des Weiteren von einem Schneesturm, Hagelsturm, Sandsturm (Buran) oder Staubsturm. In Gebirgen entstehen Föhnstürme als Trockenwindereignis.
Auch eine Unterscheidung nach der Jahreszeit wird manchmal genutzt, man spricht dann beispielsweise von einem Wintersturm. Weitere Sturmarten sind der Tornado, gelegentlich (Klein-)Trombe, Windhose, Wasserhose oder Twister genannt, sowie der Schneesturm Blizzard. In Küstenregionen kann es durch das Zusammenwirken von Sturm und Gezeiten zu Sturmfluten kommen.
Sturmwinde können entstehen, wenn hohe Druckgradienten (hohe Druckunterschiede auf relativ kurzer Distanz) auftreten. Diese sind als Sturmtief häufig im Einflussbereich starker Tiefdruckgebiete vorhanden. Ferner können Sturmwinde durch topographisch bedingte Kanalisierung des Windes entstehen, zum Beispiel als Talwind in engen Tälern.
Stürme treten häufig über dem Meer auf, da dort weniger Bodenreibung vorhanden ist. So können sich die Winde besser entfalten als auf dem Festland und erreichen wesentlich häufiger Sturmstärke. Zudem können tropische Wirbelstürme, also Hurrikane und Taifune, nur über dem Meer entstehen und schwächen sich über Landmassen rasch ab.
Direkte Sturmschäden betreffen vor allem das Abdecken von Dächern oder andere Windverfrachtungen, bei waldreichen Gebieten kommt der Sachschaden durch umgeworfene Bäume hinzu (Sturmholz). Von Bedeutung sind auch indirekte Schäden, zum Beispiel durch die Ablagerungen von Sand auf Landwirtschaftsflächen bei einem Sandsturm oder Hagelschäden. Für Menschen geht die größte Gefahr von herumfliegenden Gegenständen, herabfallenden Ästen und umfallenden Bäumen, sowie gegebenenfalls von beschädigten überirdischen Stromleitungen aus, so dass es in der Regel am sichersten ist, sich für die Dauer eines Sturms im Inneren von Gebäuden aufzuhalten.
Die Übergangszone zwischen den Tropen und den gemäßigten Breiten. Sie reicht polwärts der Wendekreise bis ca. 45° N/S. Die klimatisch äußerst unterschiedlichen Subtropen umfassen Gebiete mit Wüsten, Steppen sowie Winterregengebieten an den Westseiten und sommer- bis immerfeuchten Klimaten an den Ostseiten der Kontinente. Charakteristisch sind hohe Sommertemperaturen und milde Winter. Die Anzahl der humiden Monate schwankt zwischen 0 und 12. Die wendekreisnäheren Teile der Subtropen sind von der Wurzelzone der Passate, den ausgeprägten subtropisch-randtropischen Hochdruckgebieten, geprägt und somit trocken.
Auch subtropisch-randtropischer Hochdruckgürtel; ein auf beiden Hemisphären in 25-40° Breite ausgebildeter Bereich langlebiger quasipermanenter Hochdruckzellen. Dies sind auf der Nordhalbkugel z.B. das Azorenhoch und das Bermudahoch, auf der Südhalbkugel das St. Helenahoch (Südatlantikhoch) und das ostpazifische Hoch (s. südostpazifische Antizyklone). Die Hochdruckzellen entstehen dynamisch durch Massenzufluss in der Höhe, was zu absteigender Luftbewegung, Wolkenauflösung und damit zu Trockenheit führt. Wegen der Land-Meer-Verteilung liegt der subtropische Hochdruckgürtel auf der Nordhalbkugel 5° weiter polwärts als auf der Südhalbkugel. Jahreszeitlich verschiebt er sich entsprechend dem Sonnenhöchststand. Außerdem besteht ein enger statistischer Zusammenhang zwischen der geographischen Breite des Auftretens des subtropischen Hochdruckgürtels und dem meridionalen Temperaturgradienten zwischen 35° und 60° Breite.
Der subtropische Hochdruckgürtel trennt in Bodennähe die überwiegend tropische Passat-Region von der Westwindzone der mittleren Breiten. Im Sommer ist sie über den Kontinenten unterbrochen (Hitzetief).
Oben: Semipermanente Drucksysteme im Januar
Deutlich erkennbar sind die subtropischen Hochdruckzellen mit besonderer Ausprägung über den Ozeanen.
Unten: Satellitenkomposit mit Echtfarbendarstellung
Es fallen die Trockengebiete der Westseiten der Kontinente im Bereich der Subtropenhochs auf, z.B. Kalifornien, Chile, SW-Afrika.
Demgegenüber sind die Ostseiten offenbar feuchter, z.B. der Südosten der USA und von China.
Ein Band schwacher Ostströmung im Atlantischen und Pazifischen Ozean, eingebettet in den Südäquatorialstrom nahe 8° S, verursacht durch ein Windstress-Minimum in den Passatwinden der Südhalbkugel.
Im Pazifik wird die SECC durch den asiatisch-australischen Monsun kontrolliert und ist während des Nordwest-Monsuns (Dezember-April) mit Geschwindigkeiten von annähernd 0,3 m s-1 am stärksten; sie wird während des restlichen Jahres kaum noch wahr genommen. Östlich der Datumsgrenze nimmt seine Stärke rapide ab und ist während des größten Teils des Jahres im östlichen Pazifik nicht zu sehen.
Äquatornaher (3°N-20°S), westwärts gerichteter Ast eines subtropisch-tropischen Strömungskreises (sog. Gyre), dessen Wassermassen durch Corioliskraft und SO-Passat an die Küsten der gegenüberliegenden Kontinente getrieben werden. Dort fließt das Wasser zum größeren Teil polwärts und geht in die große subtropische Gyre ein. Zu einem geringeren Teil biegen die Wassermassen in den schmalen und trägen äquatorialen Gegenstrom um, der etwas nördlich des Äquators nach O fließt.
Wie der Nordäquatorialstrom ist der Südäquatorialstrom mit weniger als 200 m Tiefe relativ flach, seine Geschwindigkeit ist mit max. 100 m/s höher als die seines nördlichen Gegenstücks mit ca. 20 m/s.
Im Ostpazifik bildet der Südäquatorialstrom des Pazifiks normalerweise eine Kaltwasserzunge als Fortsetzung des Humboldtstromes. Zusätzlich führt die Corioliskraft hier zu Ekman-Transporten, die nördlich und südlich des Äquators jeweils eine polwärtige Komponente haben. Dies führt zu einem Aufquellen kalten Wassers am Äquator.
An einer bestimmten Stelle in Äquatornähe, gewöhnlich bei 150° O, taucht die westwärtige Strömung unter die Wassermassen des westpazifischen Warmwasserkörpers (warm pool) bis in eine Tiefe von 150 - 300 m ab. Dieser Bereich ist als äquatoriale Ozeanfront bekannt. Während eines El Niño-Ereignisses verlagert sich die Front ostwärts, beispielsweise bis 140°W, was gleichbedeutend mit einer Vergrößerung des Warmwasserkörpers ist.
Syn. südostpazifisches Hochdrucksystem; großräumiges, dynamisches Luftdruckgebilde über dem Südpazifik mit im statistischen Mittel hohem Druck. Die Ausprägung und Lage dieser Antizyklone ist entscheidend für wesentliche ozeanographische und meteorologische Vorgänge im Zusammenhang mit ENSO. Je höher der Kerndruck des Hochs (CPA, Central Pressure of the Anticyclone) ist, umso kälter ist der Humboldtstrom und das Wasser im Bereich der peruanischenAuftriebsgebiete. Umgekehrt ist auch das Hoch stärker, wenn die SST tiefer sind. Während des letzten starken El Niño-Ereignisses sank der CPA im Südpazifik von April bis Oktober 1997 von 1024 hPa auf 1015 hPa. Im gleichen Jahr verlagerte sich der Bereich des höchsten Druckes deutlich weiter nach Süden. Sowohl der Humboldtstrom wie auch das Upwelling an der Küste werden durch antizyklonale Winde über dem SO-Pazifik angetrieben. Der Humboldtstrom ist bei einer Antizyklone mit niedrigem CPA folglich schwach ausgeprägt.
Eine NW-SO-ausgerichtete Konvergenzzone, die im südlichen Zentralpazifik bei 30°S und 130°W ausläuft und in Äquatornähe bei 140°O mit der ITK verschmilzt. Sie entsteht dadurch, dass Luftmassen während der östlich von Australien stattfindenden Zyklogenese aus mittleren Breiten von Australien und von der Antarktis einströmen und mit den aus östlicher Richtung über den Pazifik heranwehenden Passaten kollidieren.
Während des südhemisphärischen Sommers lässt die SPCZ das weltweit größte Regenband entstehen. Die SPCZ tendiert während des Südwinters zu einer Verlagerung nach NO, im Südsommer nach SW. In einer El Niño-Phase des ENSO-Zyklus verlagert sich die SPCZ nach NO, in einer La Niña-Phase nach SW. Diese Lageveränderungen haben einen tiefgreifenden Einfluss auf das Klima (z.B. Niederschläge, Winde und Häufigkeit von tropischen Wirbelstürmen) und das Leben in den meisten Ländern des südwestlichen Pazifiks.
Die mittlere Lage von SPCZ und ITCZ / ITK in Bezug zu den mittleren SST
Eine vereinfachte Beschreibung des Mechanismus, wie Ozean und Atmosphäre zusammenwirken, um ein ENSO-Ereignis zu verursachen, beginnt mit der Wirkung der Meeresoberflächentemperatur auf die Winde. Die Abbildung links zeigt, dass die beiden Konvergenzzonen in der Atmosphäre mit Regionen mit hohen Meeresoberflächentemperaturen zusammenfallen. Das liegt daran, dass die Luft dort erwärmt wird, wo das Wasser warm ist; sie steigt auf und erzeugt eine Konvergenz der Winde über der Meeresoberfläche - mit anderen Worten, die Meeresoberflächenwinde wehen in Richtung der Regionen mit hoher Meeresoberflächentemperatur. Dies führt zu einer Ansammlung von warmem Wasser, was die Erwärmung erhöht; die Luft steigt schneller, die Windgeschwindigkeit nimmt zu - eine positive Rückkopplung ist gegeben.
Nehmen wir nun an, dass durch eine Störung die Region der höchsten Temperatur von der Region, in der sich die ITCZ und die SPCZ treffen (Punkt A in der Abbildung links), zu einem Punkt weiter östlich (Punkt B) verschoben wird. Die Winde wehen weiterhin in Richtung der höchsten Meeresoberflächentemperatur, so dass die Winde westlich dieses Punktes ihre Richtung umkehren und von östlichen Passatwinden auf Westwinde wechseln. Wiederum wird dieses Muster durch positive Rückkopplung verstärkt. Das Zentrum der Niederschläge wird von A nach B verschoben; in Australien werden Dürrebedingungen beobachtet. Quelle: M. Tomczak (2002)
In seiner allgemeinen Bedeutung ein Begriff, der den ganzheitlichen Zusammenhang von Dingen, Vorgängen oder Teilen bezeichnet, der entweder in der Natur gegeben (ein Gas, eine Flüssigkeit) oder vom Menschen hergestellt ist (z.B. ein politisches System); daneben ein auf allgemeine Grundsätze zurückgeführtes und danach geordnetes Ganzes von Einzelerkenntnissen einer Wissenschaft oder des menschlichen Wissens insgesamt; ferner das Prinzip oder die Ordnung, nach der etwas aufgebaut wird.
Nach dem Verständnis von Physik, Kybernetik und Technik ein grundlegender Begriff, der die Zusammenfassung mehrerer, im Allgemeinen untereinander in Wechselwirkung stehender Komponenten zu einer als Ganzes aufzufassenden Einheit bezeichnet. Man unterscheidet offene und geschlossene Systeme, je nachdem, ob das System mit der Umgebung in Wechselwirkung steht oder nicht (Energie- und Materieaustausch). Bei der Betrachtung des Systems Ozean-Atmosphäre sind neben den statischen besonders die dynamischen Aspekte wichtig.
Der oft mit dem Terminus "Erdsystem" (engl. "earth system") synonym gebrauchte Begriff bezieht sich auf die interagierenden physikalischen, chemischen und biologischen Prozesse der Erde. Das System besteht aus den Landmassen, den Ozeanen, der Atmosphäre und den vor allem an den Polen konzentrierten Eisregionen. Es umfasst die natürlichen Kreisläufe des Planeten, wie z.B. die Kreisläufe des Kohlenstoffs, des Wassers, des Stickstoffs, des Phosphors, des Schwefels und weiteren Stoffen, sowie Prozesse im Erdinneren. Auch das Leben ist ein wesentlicher Bestandteil des Erdsystems. Es beeinflusst beispielsweise Zyklen und Prozesse von Kohlenstoff, Stickstoff, Wasser, Sauerstoff und vielen weiteren.
Das Konzept des Erdsystems schließt auch die menschliche Gesellschaft mit ein. In vielen Fällen ist der Mensch der wesentliche Verursacher von Veränderungen im System Erde.
In den letzten Jahrzehnten des 20. Jahrhunderts hat sich eine fundamentale Wende im Denkansatz der Wissenschaften von der Erde vollzogen. Bis dahin hatten die einzelnen Komponenten des Erdsystems im Vordergrund wissenschaftlichen Interesses gestanden und waren von getrennten Disziplinen erforscht worden: die Ozeane von der Meereskunde, die Atmosphäre von der Meteorologie und Klimaforschung, die feste Erde von Geologie, Geochemie und Geophysik, und so weiter. Auch die vom Menschen verursachten Umweltprobleme wurden isoliert betrachtet, z.B. Luftbelastung, Wasserverschmutzung, Ozonloch, Klimawandel. Mit dem dramatischen Anwachsen des Einflusses menschlicher Aktivitäten auf die Umwelt entstand der Begriff „Globaler Wandel“, der ausdrückt, dass sich unsere Umwelt im globalen Maßstab verändert und gleichzeitig quer durch alle Erdsystemkomponenten und wissenschaftliche Disziplinen erstreckt. Jede Änderung in einer einzelnen Komponente kann das ganze System beeinflussen, und Fernwirkungen und Rückkopplungen sind zentrale Eigenschaften des Erdsystems. Verändert man zum Beispiel die Zusammensetzung der Atmosphäre durch Zugabe von Kohlendioxid (CO2), so erwärmt sich das Klima, der Meeresspiegel wird höher, Gletscher schmelzen ab und Pflanzen wachsen schneller. Diese Änderungen wiederum beeinflussen die Zusammensetzung der Atmosphäre, wodurch vielfache Rückkopplungen und Querverbindungen entstehen.
Das Erdsystem und seine Wechselwirkungen
Kompartimente des Erdsystems vom Erdkern bis zur oberen Atmosphäre und dem Strahlungsgürtel. Die Pfeile zeigen den Transfer von Masse, Wärme und Strahlung oder Kräfte zwischen den Kompartimenten. Pfeile in beide Richtungen bedeuten, dass die Kompartimente durch Rückkopplungen miteinander verbunden sind. Pfeile, die nur in eine Richtung führen, stehen für externe Antriebe, die auf das Kompartiment einwirken, d. h. die Eigenschaften des Systems reagieren auf den Einfluss, ohne dass die Einflussquelle selbst beeinflusst wird.
Das Erdsystem umfasst dabei ein gewaltiges Spektrum von Zeitskalen: von Milliarden Jahren für den Erdmantel bis hin zu Jahren oder weniger für Gase in der Atmosphäre. Antriebe durch menschliche Aktivitäten sind auf der rechten Seite dargestellt. Die moderne Systemtheorie besagt, dass das menschliche Verhalten durch Rückkopplungen mit dem Erdsystem beeinflusst wird. Diese Wechselwirkung ist hier dargestellt.