GeoForschungsZentrum Potsdam mit neuer wegweisender Sonderpublikation zur Klimadebatte

Das Deutsche GeoForschungsZentrum (GFZ) ist das nationale Forschungszentrum für Geowissenschaften in Deutschland. Es befindet sich im Wissenschaftspark Albert Einstein auf dem Potsdamer Telegrafenberg. Das GFZ umfasst alle Disziplinen der Geowissenschaften von der Geodäsie bis zum Geoingenieurwesen und betreibt sie in einem engen interdisziplinären Verbund mit den benachbarten Naturwissenschaften Physik, Mathematik und Chemie sowie den ingenieurwissenschaftlichen Disziplinen Felsmechanik, Ingenieurhydrologie und Ingenieurseismologie. Damit ist das Institut bestens aufgestellt, um sich fundiert und ausgewogen an der aktuellen Klimadebatte zu beteiligen.

In den vergangenen Monaten haben wir bereits zwei wichtige Forschungsarbeiten mit GFZ-Beteiligung hier im Blog vorgestellt. So berichteten wir im April 2012 über eine Studie zur Klimageschichte des Aralsees, die ergab, dass sich im Laufe der letzten zwei Jahrtausende trockene, staubige Phasen stets mit feuchteren, weniger staubigen Phasen im Takte der Temperatur- und Sonnenaktivitätsentwicklung abwechselten (siehe unser Blogartikel „Starke Sonne drängt den Staub am Aralsee zurück: Feuchtere Zeiten während Wärmeperioden“). Im Mai 2012 stellten wir dann GFZ-Forschungsergebnisse zu einer Kältephase vor 2800 Jahren vor, die durch geringe Sonnenaktivität ausgelöst wurde (siehe unser Blogartikel „Geoforschungszentrum Potsdam: Solarflaute vor 2800 Jahren löste Kälteperiode in Mitteleuropa aus“).

Im Juli 2012 erschien nun eine bemerkenswerte Sonderpublikation des GFZ in Zusammenarbeit mit Bild der Wissenschaft, die den Titel „Klimawandel: Was wissen wir wirklich?“ trägt. Im Folgenden wollen wir einige ausgewählte Passagen aus dieser Schrift zitieren. Das gesamte Heft kann über den Leserservice von Bild der Wissenschaft (leserservice@wissenschaft.de) bezogen werden.

 

Auszüge aus dem Vorwort von Prof. Reinhard Hüttl, Wissenschaftlicher Vorstand und Vorstandsvorsitzender des Deutschen GeoForschungsZentrums GFZ: 

Wer die Welt in die Kategorien Schwarz und Weiß aufteilt, liegt zwangsläufig falsch. Denn zwischen diesen beiden Extremen gibt es nicht nur einige, sondern beliebig viele Graustufen. Diese uralte Erkenntnis trifft auch auf die Klimaforschung zu. […] Da gibt es auf der einen Seite die sogenannten Klimaskeptiker […]. Das andere Extrem sind diejenigen, die in lebhaften Farben Katastrophen zeichnen […]. Wie so oft liegt die Realität zwischen den Extremen. […] 

Das Klima ist auch eng verknüpft mit den verschiedenen Teilsystemen der Erde, von den Strömungen in den Weltmeeren über die Vegetation an der Erdoberfläche bis hin zu den Vorgängen im Erdinneren. Zudem ist unsere Erde ein Planet und unterliegt wichtigen extraterrestrischen Einflüssen, und dies gilt in besonderem Maße für das Klima. […] 

Das [Klima] ändert sich auch, wenn der Mensch nicht mitwirkt. Klimamodelle können dieses komplizierte System daher nicht beschreiben – an sich benötigen wir modellhafte Abbildungen des gesamten Erdsystems. Aber auch damit ließe sich das Klima nicht planen, sondern allenfalls könnten wir seine Dynamik besser abschätzen. So wissen wir auch nicht exakt, welchen Anteil der Mensch am aktuellen Klimawandel hat und welcher Anteil den natürlichen Klimafaktoren zukommt. 

weiter lesen

Teilen:

Ein dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen

Vor einigen Tagen unterbrach das führende klimaskeptische Blog Watts Up With That? (WUWT) seine sonst so emsige Tätigkeit. Wo im Normalbetrieb jeden Tag eine ganze Hand voll neuer Blogartikel erschienen, herrschte plötzlich lähmende Inaktivität. Der Betreiber der Webseite, der Meteorologe Anthony Watts, kündigte eine wichtige Pressemitteilung für den Abend des 29. Juli europäischer Zeit an. Die Gerüchteküche brodelte und die Vermutungen gingen in die verschiedensten Richtungen. Hoffentlich handelte es sich nicht um Anthony’s Gesundheit. Waren es vielleicht juristische Vorgänge im Hintergrund, die WUWT zum Stop zwangen? Nein, keines von beidem, beruhigte Anthony die Blogosphäre vorab. Aber man müsse noch Geduld haben.

Der angekündigte Veröffentlichungszeitpunkt rückte näher und die versprochene Meldung erschien pünktlich. Und Anthony enttäuschte nicht. In der Tat handelte es sich um die Bekanntmachung einer wichtigen neuen Publikation, bei der es um die Bestimmung des Erwärmungstrends der letzten 30 Jahre geht. Das Problem hatten wir bereits vor einigen Tagen hier im Blog vorgestellt (siehe unser Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…“). Es geht um die Frage, inwieweit die offiziellen Daten-„Korrekturen“ eigentlich gerechtfertigt sind. Wir hatten berichtet, dass die Daten-Änderungen seltsamerweise stets zu einer signifikanten Beschleunigung des Erwärmungstrends gegenüber den Rohdaten führte, obwohl Phänomene wie etwa der städtische Wärmeinseleffekt eher gegenteiligen Korrekturbedarf vermuten lassen sollten.

Als Autoren des neuen Papers sind neben Anthony Watts auch Stephen McIntyre und John Christy mit von der Partie. McIntyre ist durch seine beeindruckende Fehleranalyse des berühmt-berüchtigten Hockey Stick Diagramms bekannt. Christy ist angesehener Experte für Satelliten-Temperaturdaten von der University of Alabama in Huntsville. Das Manuskript soll in Kürze bei einem Fachmagazin zur Publikation eingereicht werden. Die Praxis, Manuskripte bereits vor Einreichung öffentlich bekannt zu machen geht auf Richard Muller vom Berkeley Earth Surface Temperature (BEST) Projekt zurück, der im June 2011 in einem Interview mit dem Scientific American gesagt hatte:

„Ich weiß, dass das Paper noch nicht zum Druck akzeptiert wurde. Aber in meinem Umfeld unter dem Nobelpreisträger Luis Alvarez war es gängige Praxis, Manuskripte bereits vor ihrer Publikation und sogar vor ihrer Einreichung möglichst weit zu streuen. Hierdurch erreichten wir eine sehr viel umfangreichere und weiter verteilte fachliche Überprüfung als durch die wenigen Fachgutachter der Fachzeitschrift.“ 

Das Ergebnis der neuen Studie ist erschreckend: Anstatt die durch den städtischen Wärminseleffekt überhöhten Temperaturen herunter zu korrigieren, haben die offiziellen US-Temperaturverwaltungsstellen offenbar die Daten von qualitativ verlässlicheren Stationen nach oben verändert, was kaum gerechtfertigt erscheint. Wenn sich das Ergebnis bestätigen sollte, wäre dies ein dicker Hund. Die Erwärmung der letzten Jahre wäre in den USA dann sehr viel weniger schnell von statten gegangen als immer angenommen. Da ähnliche Fehler auch im globalen Datensatz vermutet werden, könnte die Sache schnell weltweite Relevanz erlangen. 

Hier der Text der Pressemitteilung:

weiter lesen

Teilen:

Was ist die Ursache der Tornado-Häufung von 2011 in den USA? Menschengemachter Klimawandel oder natürliche Variabilität?

Es muss wohl ein menschliches Grundgesetz sein: Alles wird immer schlimmer! Die Sommer werden immer heißer, die Überschwemmungen immer heftiger, die Hagelkörner waren noch nie so groß und die Kürbisse noch nie so klein. Irgendetwas verleitet uns offenbar, uns selbst in den Mittelpunkt der Geschichte zu rücken, um unsere eigene Wichtigkeit zu unterstreichen. Wie schön wäre es, wenn wir Teil einer ganz außergewöhnlichen, noch nie dagewesenen Entwicklung wären. Wir könnten froh sein, gerade in dieser Welt zu leben und wären unseren Vorfahren dadurch weit überlegen. Wie schlimm wäre es, wenn wir in einer Zeit leben würden, die nur Mittelmaß wäre, wo die Sommer auch nicht viel heißer wären wie zu anderen Zeiten, sich die Überschwemmungen im ganz normalen Rahmen bewegen, die Hagelkörner nur 08/15 wären und auch die Kürbisse halt ganz normale Kürbisse sind.

So oder so ähnlich könnte es auch mit den Stürmen sein. Immer wenn ein Sturm über das Land gefegt ist, melden sich kluge Zeitgenossen, die die Einzigartigkeit gerade dieses Sturmes und überhaupt der aktuellen stürmischen Zeiten hervorhebt. Was für eine schöne Schlagzeile. Die Leute lesen es gerne und der Name des Experten kreist einmal durch das Medien-Universum. Das bringt Bekanntheit, Expertenruhm, Ehrfurcht und auch endlich wieder neue wissenschaftliche Fördermittel.

Wir wollen uns in den kommenden Tagen etwas näher mit den Stürmen dieser Erde beschäftigen. Sind sie häufiger, stärker und gefährlicher geworden, wie man es immer wieder in den Medien hört? Oder erleben wir derzeit eine ganz normale Sturmtätigkeit, die sich von den letzten Jahrzehnten kein bisschen unterscheidet?

Im heutigen Artikel soll es um Tornados gehen. Was ist das eigentlich genau? Wikipedia erklärt es uns (leicht vereinfacht):

„Ein Tornado ist ein kleinräumiger Luftwirbel in der Erdatmosphäre, der eine annähernd senkrechte Drehachse aufweist und im Zusammenhang mit konvektiver Bewölkung steht. Der Wirbel erstreckt sich hierbei durchgehend vom Boden bis zur Wolkenuntergrenze.“ 

Und der Spiegel beschreibt uns wie man sich so einen Tornado vorzustellen hat: 

„Sie werden ehrfürchtig „Finger Gottes“ genannt: Tornados verwüsten in den USA regelmäßig ganze Kleinstädte. Die Luftwirbel kündigen sich bereits von weitem an: Zeugen erzählen von tiefem Brausen wie bei Wasserfällen, das stetig lauter wird und schließlich donnernd faucht. Zahlreiche Tornados ziehen jedes Jahr über Amerika hinweg.“ 

Es gibt sie aber nicht nur in Amerika. Auch in Deutschland treten sie laut dem Deutschen Wetterdienst (DWD) durchaus von Zeit zu Zeit auf, werden hier aber meist Windhosen genannt:

Die Zahl der Tornados in Deutschland habe nach Beobachtungen des DWD nicht zugenommen. 20 bis 60 Tornados werden pro Jahr registriert. „Aber das ist nur die Spitze des Eisbergs“, sagte Friedrich; manche Tornados würden gar nicht erkannt, weil sie über freies Feld zögen und keine Schäden anrichteten.

Auch im benachbarten Polen schlug im Juli 2012 ein Tornado mit voller Wucht zu, wie Die Welt am 16.7.2012 berichtete:

„Eine ungewöhnliche Tornado-Serie hat im Norden und Westen Polens schwere Zerstörungen angerichtet. Nach Angaben der Behörden wurde mindestens ein Mensch getötet. Zehn weitere seien verletzt worden. Besonders betroffen war am Sonntagabend offenbar die Region um den bei Touristen beliebten Nationalpark Bory Tucholskie. Hier wütete ein Wirbelsturm auf einer Breite von 800 bis 1.000 Metern. Die Tornados zerstörten Behördenangaben zufolge mehr als 400 Hektar Waldfläche und mehr als 100 Häuser; Strommasten wurden umgeknickt und Straßen mussten gesperrt werden, weil Bäume auf die Fahrbahn gefallen waren; Einige Züge mussten Umwege fahren, weil auch Gleise von Bäumen sowie anderen durch die Luft gewirbelten Gegenständen blockiert wurden.“

In den USA wüteten Tornados im Jahr 2011 besonders stark und führten zur zweithöchsten Anzahl von Tornado-Todesopfern in den letzten 137 Jahren. Wie immer nach solchen Tornado-Anhäufungen entflammt sogleich eine Diskussion, ob vielleicht der Klimawandel daran Schuld sein könnte. Ähnliche Diskussion über mögliche Hintergründe hat es stets gegeben. Im Jahre 1953 haben drei Tornados in den USA mindestens 90 Menschen das Leben gekostet. Sogleich wurde damals spekuliert, dass vielleicht Atomwaffentests in der Atmosphäre die Stürme ausgelöst haben könnten (siehe Bericht im New Scientist). Seltsamerweise hat es jedoch nie Ursachendiskussion gegeben, wenn die Tornado-Aktivität mal für ein paar Jahre abflaute. Ob vielleicht der Mensch an dem Ausbleiben der Tornados Schuld haben könnte? Diese Frage stellte keiner.

weiter lesen

Teilen:

La Ola im Ozean: Die klimazyklische Stadionwelle

Eines der großen Rätsel in den Klimawissenschaften ist, warum sich der IPCC so strikt weigert, die Ozeanzyklen bei den Temperaturprognosen zu berücksichtigen. Während im Hauptteil des letzten Klimaberichts ausführlich auf Zyklen wie etwa die Pazifisch Dekadische Osziallation (PDO) oder die Atlantische Multidekadenoszillation (AMO) eingegangen wird, sollen sie bei den Temperaturprognosen dann plötzlich keine Rolle mehr spielen. Das wäre doch nur alles ein wildes Rauschen und die Entwicklung der Zyklen weitgehend unvorhersagbar.

Interessanter Einwand. Machen wir doch einmal die Probe aufs Exempel. Vergleicht man die PDO-Kurve mit der globalen Temperaturentwicklung, so fällt eine erstaunliche gemeinsame Zyklik auf, die etwa 60 Jahre für einen Umlauf benötigt (Abbildung 1). Immer wenn die PDO anstieg, gingen auch die Temperaturen rauf. Und wenn die PDO absackte, wurde es auch wieder kühler bzw. stagnierten die Temperaturen. Der 60-Jahreszyklus ist dabei einem langfristig ansteigenden Temperaturtrend überlagert, der sich durch die Zunahme der Sonnenaktivität und möglicherweise dem CO2 erklärt. Offensichtlich vermag es der Ozeanzyklus, die Temperaturen um etwa 0,2°C nach oben oder unten zu verbiegen. Langfristig gleichen sich diese Modifikationen zwar aus, aber es ist überaus wichtig, den Anteil einer solchen Beeinflussung größenmäßig abzuschätzen. So geht wohl ein signifikanter Teil der starken Erwärmungsphase von 1977-2000 auf die ansteigende bzw. hohe PDO zurück. Der CO2-bedingte Anteil an der Erwärmung muss entsprechend geringer gewesen sein.

Abbildung 1: Die Pazifisch Dekadische Oszillation (PDO) besitzt eine Zyklendauer von ca. 60 Jahren und erhöht bzw. erniedrigt die Temperatur um jeweils etwa 0,2°C je nach PDO-Phase. Der Erwärmungsstop im Jahr 2000 fällt mit dem Abstieg der PDO zusammen und stellt eine Wiederholung der Situation aus den 1940er Jahren dar (Abbildung 25 in “Die kalte Sonne”).

Aber es gibt ja nicht nur die PDO, sondern eine ganze Flöte von weiteren klimasysteminternen Zyklen. Nehmen wir zum Beispiel die AMO. Auch sie besitzt einen etwa 60-jährigen Zyklus, der jedoch um 10-20 Jahre zeitverzögert zur PDO abläuft (Abbildung 2). Und auch die Nordatlantische Oszillation (NAO) schwingt in diesem Größenmaßstab. Ist es nicht verwunderlich, dass all diese Zyklen in ähnlichen Zeitmaßstäben schwingen, wenn auch nicht synchron?

Abbildung 2: 60-Jahreszyklik der PDO (oben) und AMO (unten). Quelle: the energycollective

Eine US-amerikanische Forschergruppe um Marcia Wyatt von der University of Colorado hat sich jetzt Gedanken über das Problem gemacht die sie 2012 im Fachjournal Climate Dynamics veröffentlichten. Die Wissenschaftler versuchen in ihrer Arbeit eine neuartige Sichtweise: Man sollte das Klimasystem nicht so sehr als Ansammlung von Klimaklötzchen sehen muss, wie es Klimamodelle tun, sondern vielmehr als ein eng miteinander verwobenes Netzwerk mit nahen aber auch fernen Verknüpfungen. Hierdurch können die Daten schlüssiger interpretiert und Trends besser herausgearbeitet werden. Insbesondere sehen die Forscher Hinweise darauf, dass sich klimasysteminterne Schwingungen wie beispielsweise die AMO im Klimasystem selbständig fortpflanzen und weitere Klimazyklen mit etwas Zeitverzug anstoßen. Die Autoren nennen ihr Modell daher „Die Stationwelle“.

weiter lesen

Teilen:

Mysteriöse Entkopplung von der IPCC-Theorie: Heiße Zeiten vor 10 Millionen Jahren, obwohl CO2 im Keller war

In den theoretischen IPCC-Rechenmodellen wird von einer starken Klimawirkung des CO2 ausgegangen. Dies würde sich so aus den Formeln ergeben, heißt es. Kritik ist unerwünscht. Auch der Hinweis, dass CO2 allein nur etwa 1,1°C Erwärmung pro CO2-Verdopplung ausmacht und die vom IPCC präferierten Werte von 2,0-4,5°C auf starken, noch weitgehend unerforschten Verstärkermechanismen beruhen, wird als wenig hilfreich von IPCC-nahen Wissenschaftlern angesehen. Vor kurzem berichteten wir über derartige Probleme mit dem vom IPCC vorgesehenen Wolken- und Wasserdampf-Verstärker.

Wenn die Theorie also noch nicht richtig unter Kontrolle ist und nicht richtig belastbar ist, könnte man ja einfach einmal in die Vergangenheit schauen. Wenn CO2 wirklich ein so potentes Klimagas ist, müsste es in der Vergangenheit die Temperaturen doch maßgeblich mit beeinflusst haben und zumindest über weite Strecken ein Gleichlauf zu erkennen sein. In Abbildung 1 ist die Entwicklung der CO2- und Temperaturentwicklung für die letzten 500 Millionen Jahre dargestellt. Eine Synchronität ist nicht zu erkennen. Im Gegenteil. Der letzte CO2-Höhepunkt vor 160 Millionen Jahren scheint in eine Abkühlung zu fallen. Und auch die ordovizische Eiszeit vor 440 Millionen Jahren ereignete sich bei sehr hohen CO2-Werten von mehreren tausend ppm. Große Enttäuschung: Der Realitäts-Check mit der Vergangenheit schlägt fehl. Die geologische Geschichte deutet an, dass CO2 gar nicht so ein toller Klima-Kraftprotz ist als der es sich aktuell ausgiebt.

 

Abbildung 1: Vergleich von CO2– (orange) und Temperaturentwicklung (violett) während der vergangenen 500 Millionen Jahre. Blau-umrahmte Kästen markieren Eiszeiten. Es ist keine allgemeine Übereinstimmung zwischen CO2 und Temperatur zu erkennen. Quelle: Cez Okno.

 

Im Juni 2012 erschien nun in Nature eine neue Arbeit einer US-amerikanischen Forschergruppe um Jonathan LaRiviere von der University of California in Santa Cruz. Die Wissenschaftler nahmen sich die geologische Phase des späten Miozäns, 12 bis 5 Millionen Jahre vor unserer Zeit. Die Globaltemperatur lag damals deutlich über den heutigen Werten und die Nordhemisphäre war fast eisfrei. Und genau hier lag das Problem: Der CO2-Gehalt der Atmosphäre war zu dieser Zeit vergleichsweise niedrig und lag nur bei 200-350 ppm. Zum Vergleich: Die heutige Kohlendioxid-Konzentration beträgt 390 ppm. Irgendetwas schien hier nicht zu passen. Wer oder was hatte sich erdreistet, die Temperatur so nach oben zu drücken, obwohl der CO2-Wert so im Keller war?

weiter lesen

Teilen:

Filmkritik zu „Klimawelten – Von den Kap Verden zur Hudson Bay“: Interessante Gespräche am Ende der Welt mit fachlichen Defiziten

Mitte Juli 2012 lief auf Arte der neue Dokumentarfilm “Klimawelten – Von den Kap Verden zur Hudson Bay”. Autor des Films ist die Soziologin und Filmemacherin Tink Diaz. Auf ihrer Webseite schreibt Diaz über den Film:

Eine Gruppe von jungen Sozial- und Kulturwissenschaftlern erforscht zurzeit [die] „menschlichen“ Folgen des Klimawandels an ausgewählten Küstenorten der vier Weltmeere. Die Doktoranden sammeln Daten, die für die Entwicklung von Klimaschutzstrategien weltweit dringend benötigt werden. Wir begleiten zwei dieser jungen Forscher mit unserer Kamera – die Ethnologinnen Jelena Adeli und Claudia Grill. Sie forschen an den denkbar unterschiedlichsten Orten der Welt: die eine in West Afrika, die andere am Rand der kanadischen Arktis. Die beiden wollen wissen, ob die lokalen Bevölkerungen die Zunahme von verheerenden Stürmen, Dürre und schmelzendem Eis wahrnehmen, und wenn ja: wie sie diese Veränderungen deuten. Als Strafe Gottes? Oder – ähnlich wie vielerorts in der westlichen Welt – als eine Art von Wetterkapriole, wie es sie immer schon mal gegeben hat? Jelenas und Claudias Forschungsmethode ist die teilnehmende Beobachtung. Und so tauchen auch wir mit unserer Kamera für eine Weile hinein in die Lebenswelt von dürregeplagten afrikanischen Bauern und Fischern. Ebenso lernen wir sub-arktische Jäger und Fallensteller kennen, die das schmelzende Eis weder als von Menschen verursacht interpretieren, noch als Bedrohung empfinden. Doch nur 300 km weiter nördlich treffen wir zusammen mit Claudia auf Inuit, die das alles wiederum anders sehen….

Der Film ist auf youtube anschaubar. Auch auf der Arte-Webseite wird er demnächst möglicherweise zur Verfügung gestellt.

Ziel des Films ist es herauszufinden, was die Menschen in den beiden Studiengebieten über den Klimawandel denken. Es geht explizit nicht darum, die wissenschaftlichen Grundlagen des Klimawandels darzustellen und zu diskutieren, sagt die Filmemacherin in ihrer Doku. Den Ball nehmen wir daher gerne auf und wollen im Folgenden überprüfen, ob die im Film enthaltenen Aussagen zum Klimawandel plausibel sind und in welchem Kontext sie zu sehen sind.

Der erste Teil des Films spielt in Churchill an der kanadischen Hudson Bay, wo die Österreicherin Claudia Grill ihre soziologischen Forschungen durchführt. Ausgangspunkt ist die Beobachtung, dass sich das arktische Meereis in der Bucht in den letzten Jahrzehnten immer später im Jahr bildet und im Frühling dann auch wieder früher aufbricht. Dadurch haben die Eisbären in der kalten Jahreszeit weniger Zeit, um auf dem Eis herumzulaufen und nach Robben zu jagen. Stattdessen lungern die Bären nun verstärkt in Churchill herum. Eine erste Anpassung an den Klimawandel wäre, dass die Leute in Churchill jetzt den Schlüssel im Auto stecken lassen, damit sich die Bevölkerung im Falle eines Eisbärenangriffs im jeweils nächstgelegenen Wagen in Sicherheit bringen können. Im Film wird zudem die These aufgestellt, dass die Eisbären daher in 30 Jahren ausgestorben sein werden und ihre Zahl angeblich bereits abgenommen hätte. Dies würde dann zu einem ökonomischen Desaster führen, da die Leute in Churchill momentan noch viel Geld mit dem Eisbärtourismus verdienen.

Wir wollen dies kurz überprüfen. Die Meereisbedeckung hat in den vergangenen 30 Jahren in der Tat abgenommen (Abbildung 1), was gut zu einer insgesamt kürzeren Meereis-Saison in der Hudson Bay passen würde. Dabei sollte man jedoch auch beachten, dass die Meereisbedeckung in den letzten 5 Jahren relativ stabil geblieben ist.

Warum hat die Meereisbedeckung in den letzten Jahrzehnten eigentlich abgenommen? Klar, es ist 1977-2000 wärmer geworden, da ist es normal, dass auch das arktische Meereis schmilzt, bis wieder ein Gleichgewicht erreicht ist. Da dies aufgrund der Trägheit des Systems nur zeitverzögert passiert, erklärt sich auch das Schmelzen bis 2007. Was im Film leider überhaupt nicht angesprochen wurde, ist der Umstand, dass diese Meereisschmelze keinesfalls ein „noch niemals dagewesenes Ereignis“ darstellt. Vor etwa tausend Jahren, zur Zeit der Mittelalterlichen Wärmeperiode gab es nämlich bereits ähnlich meereisarme Bedingungen im arktischen Raum. Die Wikinger nutzten die Situation aus und kreuzten mit ihren Schiffen munter durch das eisarme Nordpolarmeer, auf dem Weg nach Island, Grönland und Neufundland. Die damals in der Hudson Bay lebenden Inuit und Cree-Indianer mussten ganz ähnliche Dinge erlebt haben wie sie sich heute abspielen. Leider konnten die Naturvölker ihre Erfahrungen nicht schriftlich festhalten, so dass man die Eisarmut in der Hudson Bay während der Mittelalterlichen Wärmeperiode gerne übersieht. Auch der Film ignoriert dies leider, so dass ein verzerrter Kontext entsteht. Die Möglichkeit, dass die heutige Eisschmelze vielleicht nur Teil der natürlichen Klimazyklik ist, bleibt unerwähnt. 

weiter lesen

Teilen:

3. REKLIM-Konferenz: „Klimawandel in Regionen“ am 3.9.2012 in Potsdam

Am 3. September 2012 findet in Postdam die 3. REKLIM-Konferenz „Klimawandel in Regionen“ statt. Dies ist eine gemeinsame Veranstaltung des Helmholtz-Zentrums Potsdam DeutschesGeoForschungsZentrum (GFZ) und des Alfred-Wegener-Instituts für Polar- und Meeresforschung (AWI). Aus der Ankündigung: Die globale Erwärmung hat für einzelne Regionen der Erde ganz unterschiedliche Folgen. Helmholtz-Forscherinnen und Forscher aus acht Forschungszentren der Helmholtz-Gemeinschaft untersuchen solche regionalen Klimaänderungen und liefern damit die Grundlage für Anpassungs- und Vermeidungsstrategien. REKLIM liefert eine wissenschaftlich solide Basis für den regionalen Klimaservice, der u. a. durch die Regionalen Klimabüros der Helmholtz-Gemeinschaft wahrgenommen wird. Ziel der diesjährigen Regionaltagung in Potsdam ist es, neueste Ergebnisse aus …

weiter lesen

Während der Mittelalterlichen Wärmeperiode war es auf den schottischen Orkneyinseln im Sommer wärmer als heute

Die Orkneys sind ein aus ca. 100 kleineren Inseln und einer Hauptinsel bestehender zu Schottland gehörender Archipel. Durch den warmen Golfstrom kann man es dort gut aushalten. Das dachten sich wohl auch die Wikinger, die etwa 780 n. Chr. von Skandinavien herübergeschippert kamen und für einige hundert Jahre das Kommando auf den Orkneys übernahmen. Ganz besonders schienen die rauhen Gesellen Fisch und Napfschnecken zu mögen, welche Archäologen massenhaft in den wikingischen Müllhaufen fanden.

Als Donna Surge und James Barrett von der University of North Carolina bzw. der englischen University of Cambridge erstmals von diesem Abfall hörten, kam ihnen eine Idee. Könnte man mit den Schalenresten nicht eventuell die Temperaturentwicklung der Wikingerzeit auf den Orkneyinseln rekonstruieren? Und in der Tat, es war möglich, wie die beiden jetzt in einem Artikel zeigen konnten, der sich derzeit im Druck in der Fachzeitschrift Palaeo3 befindet und bereits seit Mitte Juli 2012 online aufrufbar ist.

Die Temperaturrekonstruktion erfolgte dabei auf Basis von Sauerstoffisotopen an den Napfschnecken. Der Vorteil dieser schleimigen Freunde ist, dass sie schnellwachsend und kurzlebig sind, was punktgenaue Daten liefert. Und noch einen weiteren Vorteil haben die Napfschnecken für den Klimaforscher: Sie registrieren separat und hochauflösend sowohl die Sommer- wie auch die Wintertemperaturen. Jetzt mussten die untersuchten Schnecken nur noch zeitlich eingeordnet werden, was anhand von archäologischen Beifunden sowie der Radiokarbonmethode an Knochen, verkohlten Getreidekörnern und Schalen erfolgte.

Auf diese Weise konnten Donna Surge und James Barrett die Meeresoberflächentemperaturen während des Höhepunktes der Wikingerzeit von 800-1200 n. Chr. rekonstruieren. Die Zeit fällt dabei praktischerweise ziemlich genau in die Mittelalterliche Wärmeperiode.

Und was fanden die Wissenschaftler? Die wärmsten Sommer waren damals auf den Orkneys im Durchschnitt etwa ein Grad wärmer als heute. Das ist schon recht erstaunlich, wenn man bedenkt, dass die CO2-Konzentration damals noch mehr als 100 ppm unter dem heutigen Niveau lag. Ob es vielleicht etwa mit der gut dokumentierten erhöhten Sonnenaktivität zu tun haben könnte, die damals herrschte? (Siehe S. 60-63 in „Die kalte Sonne“).

weiter lesen

Teilen:

Wolken kühlen Südamerika ab: Schlechte Karten für den Wolkenverstärker des IPCC

Wetter und Klima stellen ein äußerst dynamisches System dar, das sich durch ständige Veränderung auszeichnet. Auch ohne äußere Einflüsse wie Sonnenaktivitätsschwankungen oder anthropogene Störungen würde das Wetter- und Klimasystem „schwingen“. Mittlerweile kennen wir eine Vielzahl solcher natürlicher Veränderlichkeiten und Zyklen, die in ihrem Maßstab von wenigen Tagen bis etlichen Jahrzehnten reichen. Am bekanntesten sind wohl die Nordatlantische Oszillation (NOA), die Pazfische Dekadische Oszillation (PDO) und El Nino.

Ein weniger bekanntes klimasysteminternes Muster ist die sogenannte Southern Annular Mode, kurz „SAM“ (Abbildung 1). Das Phänomen läuft auch unter dem Namen „Antarktische Oszillation“ (AAO).

Abbildung 1: regionale Übersicht über klimasysteminterne Schwankungen und Zyklen. Quelle: University Corporation for Atmospheric Research.

 

Im Rahmen der SAM ändern sich Hoch- und Tiefdruckgebiete in der Antarktis sowie in mittleren südlichen Breiten, was zu Intensitätsschwankungen in den Westwinden führt (nähere Details auf der UCAR-Webseite). Wenn man die zeitliche Entwicklung des SAM Index aufträgt, erkennt man die starken Änderungen im Jahres-Maßstab (Abbildung 2). Löst man die Daten zeitlich weiter auf, dann erkennt man auch SAM-Änderungen im Tagesmaßstab. Eine vereinfachte Erläuterung des Southern Annular Mode gibt es in einem sehenswerten Videoclip der Landwirtschaftsbehörde des australischen Bundestaates Victoria.

Abbildung 2: Entwicklung des Southern Annular Mode für die vergangenen 70 Jahre. Der ansteigende Langzeittrend ist nach Ansicht einiger Forscher auf die antarktische Ozonausdünnung sowie die Zunahme der Treibhausgaskonzentration zurückzuführen. Für unsere Betrachtung ist jedoch die Variabilität im Jahresbereich und kürzer von Interesse. Quelle: Jianping Li.

 

Dies soll jedoch nur die Einleitung zu einer spannenden Studie sein, die Benjamin Laken und Enric Pallé vom Instituto de Astrofísica de Canarias auf Teneriffa im Juli 2012 im Journal of Geophysical Research veröffentlicht haben. Die beiden Forscher nahmen sich Satellitendaten zur Wolkenbedeckung aus den Jahren 2000-2008 vor und suchten gezielt nach starken Änderungen im Datensatz im Tagesmaßstab. Sie interessierten sich dabei für die Frage, was wohl Ursache derartiger starker Änderungen gewesen sein könnte und welche Auswirkungen dies auf andere Wetterparameter hatte.

Laken und Pallé fanden bei ihren Untersuchungen sehr starke Änderungen der Wolkenbedeckung über Südamerika (Abbildung 3). Dabei fiel ihnen auf, dass die Bewölkung in der Regel zunahm, wenn der SAM-Index ins Positive umschlug (Abbildung 4). Offensichtlich führen die entsprechenden Luftdruckänderungen dabei in statistisch signifikanter Weise zu einer verstärkten Wolkenbildung. Der Bedeckungsgrad erhöht sich im Rahmen dieser SAM-Schwankungen ziemlich abrupt um bis zu 20%.

weiter lesen

Teilen:

Der ominöse Wasserdampfverstärker für das CO2 spielt weiter Versteck: Wasserdampfkonzentration in der Atmosphäre in den letzten 14 Jahren offenbar nicht angestiegen

Das CO2 ist ein mächtiges Treibhausgas, heißt es. Wenn wir nicht schleunigst unsere Industriegesellschaft komplett umkrempeln, wird die Welt in einem Hitzeinferno zugrunde gehen. Dies sagen jedenfalls die Klimamodelle aus dem Computer. Nur die wenigsten Klimadiskutanten wissen jedoch, dass die angebliche Klimakraft gar nicht im CO2 selbst, sondern in fragwürdigen Verstärkungsmechanismen liegt. Das CO2 alleine besitzt nämlich lediglich ein Erwärmungspotential von 1,1°C pro CO2-Verdopplung. Erst durch die theoretische Annahme von bislang schlecht verstandenen Verstärkern katapultiert beim IPCC die Erwärmung auf 2,0-4,5°C pro CO2-Verdopplung, allen voran Wasserdampf und Wolken.

Der Wasserdampfgehalt der Atmosphäre lässt sich schwer bestimmen (siehe S. 167-169 in „Die kalte Sonne“). Im Rahmen des NASA Water Vapor Project (NVAP) wird derzeit eine globale Wasserdampf-Datenbank erstellt, die die Entwicklung des Wasserdampfgehalts in der Gesamtatmosphäre seit 1988 dokumentiert. In einem neuen Paper hat nun eine Gruppe um Thomas Vonder Haar von der Colorado State University die Wasserdampfentwicklung für die Zeit von 1988-2009 in einer Graphik dargestellt (Abbildung 1). Vonder Haar ist einer der Hauptbearbeiter im NVAP Projekt und veröffentlichte die besagte Studie in den Geophysical Research Letters.

Abbildung 1: Wasserdampfentwicklung 1988-2009. Quelle: Vonder Haar (im Druck).

 

In der Publikation lassen sich die Autoren zu keiner Trendaussage hinreißen und verweisen auf ein späteres, separates Paper. In den Schlussfolgerungen ihres Papers schreiben die Forscher:

„Zu diesem Zeitpunkt können wir das Vorhandensein eines robusten Trends in der globalen Wasserdampfentwicklung weder beweisen noch widerlegen.“

weiter lesen

Teilen:

TV-Tipp: „Waldbrände, die Geißel der Zukunft?“ (Arte, 26.7.2012)

Am 26.7.2012 zeigt Arte um 22:25-23:20 Uhr den Dokumentarfilm „Waldbrände, die Geißel der Zukunft?“. Ankündigung der Sendung: Waldbrände treten in den letzten Jahren weltweit immer häufiger auf. Erderwärmung in Folge des Klimawandels und großflächige Brände scheinen eine fatale Wechselwirkung einzugehen. Die Dokumentation berichtet nicht nur von der aktuellen Situation, sondern zeigt auch Wissenschaftler auf der Suche nach Lösungsstrategien, denn es steht zu befürchten, dass Waldbrände in Zukunft weltweit Menschen aus ihren bisherigen Lebensräumen verdrängen werden.

Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…

Es gibt einen Punkt in der Klimadiskussion, den wohl alle Beteiligten ähnlich sehen: In den letzten 300 Jahren ist es wärmer geworden! Und dies ist wenig überraschend, liegt doch der Startpunkt der Entwicklung in der Kleinen Eiszeit, einer natürlichen Kälteperiode, während der es im globalen Durchschnitt mindestens ein Grad kühler war als heute. Das Muster ist zudem bekannt: Schaut man mit geeignetem geologischem Werkzeug in die Vergangenheit, so hat es in den letzten 10.000 Jahren eine ganze Reihe von Klimaschwankungen dieser Größenordnung im Tausendjahres-Maßstab gegeben (siehe S. 68-75 in „Die kalte Sonne“). Der Klimawandel ist ein steter Begleiter der Erdgeschichte gewesen und keineswegs erst kürzlich vom alles beherrschenden Menschen ausgelöst.

Eines der wichtigsten Argumente des Weltklimarats für ein heute außer Kontrolle geratenes Klima ist, dass sich das Klima in den letzten 40 Jahren mit einer angeblich noch nie dagewesenen Geschwindigkeit erwärmt hätte. Leider haben die IPCC-Experten dabei geflissentlich übersehen, dass es 1860-1880 und 1910-1940 ähnliche Erwärmungsraten gegeben hat. Und es gibt noch eine weitere unbequeme Wahrheit, die IPCC-nahen Forschern Bauchschmerzen verursacht und überwiegend totgeschwiegen wird. In einigen Regionen der Erde ist nämlich die Durchschnittstemperatur während der letzten 70 Jahre gar nicht weiter angestiegen. Zu diesen Regionen gehören zum Beispiel die USA und Grönland (siehe S. 109 in „Die kalte Sonne“). Hier wurde in den 1930er und 40er Jahren ein Temperaturniveau erreicht, dass in etwa dem heutigen entspricht. Dies ist durch langjährige Messreihen von Wetterstationen gut belegt. Die Originalmessdaten sprechen eine klare Sprache.

Was die Wenigsten wissen: In der Welt der Temperaturdaten-Archive gibt es eine ganze Reihe von kreativen „Gestaltungsmöglichkeiten“, mit denen die Originalmessdaten „bearbeitetet“ bzw. „korrigiert“ werden, bevor sie als offizieller Messdatensatz veröffentlicht werden. Zum Teil sind dies sogar sehr sinnvolle Modifikationen. Wenn sich zum Beispiel Messgeräte ändern oder Messstationen örtlich etwas verlagert werden, müssen selbstverständlich entsprechende Anpassungen vorgenommen werden, um die Daten vergleichbar zu machen und künstliche Brüche und Artefakte zu vermeiden. Gleiches gilt, wenn eine früher auf einer Kuhweide gelegene, ländliche Wetterstation allmählich von wärmespeichernden Neubauten und Asphaltflächen umzingelt wird. Dies ist der sogenannte städtische Wärmeinseleffekt (Urban Heat Island Effekt, kurz UHI), auf den wir in einem späteren Blogartikel genauer eingehen werden. Durch die allmählich zunehmende Bebauung vieler Regionen registrieren die städtischen Wetterstationen heute spürbar höhere Temperaturen als die im ländlichen Umland gelegenen Stationen. Entsprechend müssten also jüngere, städtische Messdaten künstlich etwas abgekühlt werden. Die Entfernung von nichtklimatischen Artefakten jeglicher Art aus den Temperaturdatensätzen wird auch Homogenisierung genannt.

Es gibt drei wichtige globale Temperaturdatensätze die auf Messungen am Boden basieren. Hierzu gehören der CRU-Datensatz der Climate Research Unit der University of East Anglia, das Global Historical Climate Network (GHCN) von NOAA und der GISS-Datensatz des Goddard Institute for Space Studies das zur NASA gehört. In der Regel erhält man von diesen Organisationen die korrigierten, homogenisierten Daten und muss darauf vertrauen, dass die Daten wissenschaftlich ordnungsgemäß und gut begründet bearbeitet wurden. In der Öffentlichkeit ist die Existenz dieses Homogenisierungs-Bearbeitungsschritts wenig bekannt und das Vertrauen in die Temperaturkurven entsprechend groß. Aber ist dieses bedingungslose Vertrauen wirklich gerechtfertigt? Immerhin lässt sich hier doch so einiges verändern, was im schlimmsten Fall völlig andere Trendaussagen zur Folge haben könnte.

Zum Glück sind von etlichen Wetterstationen sowohl die homogenisierten, modifizierten Temperaturwerte wie auch die unbearbeiteten Rohdaten bekannt. Auf diese Weise kann man die beiden Temperaturentwicklungen bequem in einem gemeinsamen Diagramm plotten und miteinander vergleichen. Und genau dies hat eine ganze Reihe von engagierten Bloggern und Wissenschaftlern getan. Die Ergebnisse sind dabei jedoch alles andere als vertrauensstiftend, wie wir im Folgenden zeigen werden. Höchste Zeit für ein unabhängiges Audit.

weiter lesen

Teilen:

Klimaanpassungsschule an der Berliner Charité und Golfen für den Klimaschutz – Die Klimanews der Woche

In Bayern hat es dieses Jahr bereits 93.208 Mal geblitzt, meldete die Süddeutsche Zeitung am 10.7.2012. Schuld daran könnte doch eigentlich nur die Klimakatastrophe sein, möchte man meinen. Nichts da, sagt die SZ und gibt Entwarnung:

Wer nun glaubt, dieses Jahr ist das Geschehen am Himmel besonders heftig und über Bayern entladen sich besonders viele Gewitter, der täuscht sich aber. „Dieser Frühsommer ist nicht besonders auffällig“, sagt [Volker Wünsche, Meteorologe beim Deutschen Wetterdienst (DWD)]. „Im Gegenteil: Zumindest bisher liegt er im langjährigen Mittel. Das gilt auch für die Blitzeinschläge, also Blitze, die tatsächlich auf die Erde prallen. 93.208 registrierten die Antennen des Blitz Informationssystems (Blids) bis einschließlich 8. Juli [2012] in Bayern. „Das liegt im jährlichen Mittel“, sagt Blids-Leiter Stephan Thern. 

—————————

Der Vorsitzende vom Bund der Energieverbraucher Aribert Peters sagte, 600.000 bis 800.000 Menschen in Deutschland werde bereits der Strom abgestellt, weil sie ihn nicht mehr zahlen könnten. Sind die stetig steigenden Strompreise in Deutschland als Risiken und Nebenwirkungen der Energiewende so einfach hinzunehmen? Ist es vernünftig, dass immer mehr Geringverdiener im Dunkeln sitzen und die energieintensive Industrie allmählich ins Ausland abwandert?

Die Politik hat den Missstand mittlerweile erkannt. „Augen zu und durch“ war gestern. Die SZ berichtet am 18.7.2012:

Nach Umweltminister Peter Altmaier (CDU) hatte am Dienstag [17.7.2012] auch Wirtschaftsminister Philipp Rösler (FDP) den Zeitplan für die Energiewende in Frage gestellt. Rösler sagte der Bild-Zeitung, die Zeitachse und die Ziele seien zwar vereinbar. „Aber wir müssen nachsteuern, wenn Jobs und unsere Wettbewerbsfähgkeit bedroht sein sollten.“ Die Bezahlbarkeit von Strom für Verbraucher und Betriebe habe für ihn „oberste Priorität“. Altmaier hatte zuvor bezweifelt, dass alle Ziele tatsächlich erreicht werden können. So stelle sich die Frage, „ob es wirklich gelingt, den Stromverbrauch bis zum Jahre 2020 um zehn Prozent zu senken.“

Mittlerweile gehen die gestiegenen Zusatzkosten der Energiewende an die Substanz der mittelständischen Unternehmen. Die Textilveredlung Drechsel hat jetzt die Zahlung der EEG-Umlage kurzerhand eingestellt:

Die Textilveredlung Drechsel GmbH (TVD) zahlt keine EEG-Umlage mehr. Die erste Mahnung hat das mittelständische Unternehmen vom Energieversorger Stadtwerke Bochum bereits erhalten. „Wir sind bereit zu kämpfen und die Sache notfalls bis vor das Bundesverfassungsgericht in Karlsruhe zu bringen“, sagt Bernd Drechsel, geschäftsführender Gesellschafter bei TVD. „In den vergangenen Jahren ist die EEG-Abgabe dramatisch gestiegen und sie soll noch weiter steigen. Energieintensive Unternehmen wie wir haben überhaupt keine Planungssicherheit mehr.“ Es gibt Hinweise auf eine Erhöhung der Umlage auf 5 Cent pro KWh ab 2013.

Quelle: tvd.de

Währenddessen hat Greenpeace vom Deutschen Institut für Wirtschaftsforschung (DIW) eigene Rechnungen anstellen lassen. Überraschung: Greenpeace kommt zu dem Schluss, dass der Atomausstieg kaum zu höheren Börsenpreisen für Strom führen würde (Quelle: SZ, 4.7.2012). Das ist super. Denn wenn nun wider Greenpeace-Erwarten die Strompreise unbeirrt weiter ansteigen, wird uns doch Greenpeace sicher die zusätzlichen Kosten erstatten, oder?

—————————

Anfang Juli 2012 wurde Helmut Schmidt für seine Verdienste um die transatlantischen Beziehungen mit dem Eric-M.-Warburg-Preis ausgezeichnet. In seiner Dankesrede zeigte er sich u.a. alarmiert über den Zustand der Europäischen Union und bescheinigte allen europäischen Institutionen mit Ausnahme der Europäischen Zentralbank eine „tiefgreifende Krise“. In diesem Zusammenhang wies Schmidt auch auf den drohenden Verlust der internationalen Wettbewerbsfähigkeit Europas hin (Quelle: SZ, 4.7.2012):

„Der Rest der Welt wächst und wächst und produziert – und wir streiten uns in Europa um des Kaisers Bart“.

Auch Bundeskanzlerin Merkel zeigte sich verwundert, wie sorglos viele Bürger trotz der Finanzkrise in Europa und der angespannten Lage auch für deutsche Unternehmen in die Zukunft blicken. Die Grundsorge, ob die deutsche Wirtschaft angesichts der Globalisierung in zehn Jahren noch so stark sei wie heute, treibe die Menschen nicht so sehr um, sagte Merkel (Quelle: Die Welt, 2.7.2012). Am 12.6.2012 mumaßte die SZ bereits, dass Kanzlerin Merkel mittlerweile offenbar keinen Wert mehr auf den „Ehrentitel“ Klimakanzlerin legt.

—————————

Wo sollten unsere Prioritäten liegen? Im Regionalteil der Bildzeitung äußerte sich am 28.6.2012 Bauernpräsident Rukwied zu dieser wichtigen Frage:

Der neu gewählte Präsident des Deutschen Bauernverbandes, Joachim Rukwied, sieht die Welternährung als wichtigste Herausforderung – noch vor dem Klimawandel. Die sichere Versorgung mit Lebensmitteln sei die vordringliche Aufgabe, sagte Rukwied am Donnerstag beim Bauerntag in Fürstenfeldbruck. Zugleich änderten sich Ernährungsgewohnheiten weltweit hin zu mehr Fleischkonsum – unabhängig von den kritischen Diskussionen in Deutschland und Europa.

Apropos Prioritäten. Was könnte wohl die wichtigste Aufgabe in der heutigen Medizin sein? Ein Heilmittel gegen Krebs vielleicht? Oder effektivere Prophylaxe gegen Malaria? Falsch geraten. Es ist die Integration von Fragen des Klimawandels in den medizinischen Alltag:

weiter lesen

Teilen:

TV-Tipp: Die Klimakatastrophe: 6°C, die die Welt verändern (N24, 4.10.2012)

Am 4.10.2012 zeigt N24 um 22:15 Uhr die Doku „Die Klimakatastrophe: 6°C, die die Welt verändern“. Ankündigung der Sendung: Unsere Erde erwärmt sich immer weiter. Noch ließe sich dieser Prozess aufhalten – doch was geschieht, wenn nichts dagegen unternommen wird? Mit welchen Folgen muss man rechnen, wenn die großen Gletscher weiter schmelzen und gigantische Flüsse einfach austrocknen? In der N24-Dokumentation „Die Klimakatastrophe: 6°C, die die Welt verändern“ entwerfen Klimaexperten ein wahres Horrorszenario – und beantworten die Frage: Wie lässt sich die Katastrophe noch abwenden?  

TV-Tipp: Klimaerwärmung im Kinder-TV (arte, 22.9.2012)

Am 22.9.2012 sendet Arte von 08:25-08:30 Uhr eine Kindersendung namens „Dr. W.“ bei der es diesmal um die Klimaerwärmung geht. Ankündigung der Sendung: „Wieso, weshalb, warum?“ Dr. W weiß auf (fast) jede Frage eine Antwort. Mit unendlicher Neugier stürzt er sich auf Alltagsdetails, allgemeine Fragestellungen und Sachverhalte. Dr. W, eine Mischung aus Gelehrtem, Clown und Zauberer, erklärt und veranschaulicht auf unkonventionelle Art und Weise. Mal in 3D oder in der Gestalt einer Cartoonfigur geht er erfinderisch, witzig und frech den Fragen dieser Welt nach. In jeder Folge konzentriert sich Dr. W gemeinsam mit seinem Assistenten Pep auf eine neue Frage, die …

weiter lesen