Neues zur Mittelalterlichen Wärmeperiode: Die wundersame Wiederholung der Temperaturgeschichte

Die Mittelalterliche Wärmeperiode ist so eine ganz seltsame Sache. Sie ereignete sich vor 1000 Jahren und wurde einige hundert Jahre später von der Kleinen Eiszeit abgelöst. Und danach folgte die Modern Wärmeperiode (MWP), in der wir uns heute befinden. Das interessante an der Mittelalterlichen Wärmeoperiode ist nun, dass es damals genauso warm war wie heute – und das obwohl der CO2-Gehalt der Atmosphäre sehr niedrig auf vorindustriellem Niveau war. Was könnte die Temperaturen damals so aufgeheizt haben? Die Sonne kann es ja nicht gewesen sein, sagt der Weltklimarat. Laut den Formeln kann sie keine signifikanten Temperaturhebungen verursachen. Seltsamerweise war die Sonne zu genau dieser Zeit aber besonders aktiv. Nur ein dummer Zufall? Ein düsterer Gedanke schießt durchs Hirn: Könnte es sein, ja könnte es sein, dass die IPCC-Modelle die Sonne nicht richtig abbilden? Irgendwann werden die Kollegen vom Weltklimara vermutlich selber drauf kommen. Bis dahin wollen wir ein bisschen mithelfen und im folgenden neue Fallstudien zur Mittelalterliche Wärmeperiode (MWP) weltweit kurz zusammenfassen:

EUROPA

Atlantik

Maximale Wassertemperaturen lagen während der MWP im nordöstlichen Atlantik mehr als 2°C höher als gegen Ende des 20 Jahrhunderts. Dies ergab eine Studie von Richter et al. die 2009 in den Quaternary Science Reviews erschien.

 

Großbritannien

Donna Surge und James Barrett untersuchte die Temperaturgeschichte der schottischen Orkneyinseln. Zu ihrer Überraschung fanden sie, dass die Temperaturen während der MWP um etwa 1°C höher lagen als im späten 20. Jahrhundert. Die Studie erschien im Juli 2012 in Palaeogeography, Palaeoclimatology, Palaeoecology. Siehe auch Berichte auf kaltesonne und The Hockey Schtick.

 

Norwegen

Temperaturrekonstruktionen aus Spitzbergen und Nord-Norwegen ergaben, dass die Temperaturen dort während der MWP deutlich höher lagen als heute. Divine et al. veröffentlichten ihre Studie 2011 im Fachjournal Polar Research.

Zu ähnlichen Ergebnissen kam auch ein Team um Jan Esper von der Johannes Gutenberg University in Mainz. Ihre Untersuchungen zeigten, dass die Sommer in Nordskandinavien während der MWP wohl ähnlich warm oder sogar wärmer als heute waren. Die Arbeit erschien im Januar 2012 in der Zeitschrift Global and Planetary Change.

 

Schweden

In Schweden hat Keith Briffa mit Kollegen die Mittelalterliche Wärmeperiode (MWP) wiedergefunden. Im Oktober 2012 erschien in der Zeitschrift The Holocene eine neue Arbeit hierzu. Die Temperaturen während der MWP waren damals genau so hoch wie heute. Siehe auch Beitrag auf WUWT.

 

Schweiz

Eine Studie des schweizerischen Seebergsees kommt zu dem Schluss:

Die mittlere Juli-Temperatur war gegen Ende der Mittelalterlichen Wärmeperiode etwa 1,2°C wärmer als im 20. Jahrhundert.

Die Arbeit erschien im April 2012 in den Quaternary Science Reviews. Siehe auch Bericht des NIPCC.

 

Spanien

Auf der Iberischen Halbinsel war die MWP durch außergewöhnlich trockene Bedingungen gekennzeichnet. Dies ergab eine Studie eines spanischen Forscherteams, das seine Ergebnisse im Juni 2012 in den Quaternary Science Reviews veröffentlichte.

AMERIKA 

Bahamas

Gegen Ende der MWP war es auf den Bahamas schon einmal so warm wie heute. Dies fanden Saenger et al., die ihre Ergebnisse 2009 in Nature Geoscience veröffentlichten.

weiter lesen

Teilen:

Peinliche Nachrichtenpanne im Ersten: Tagesschau.de auf klimatischem Holzweg

Die gute alte Tagesschau gilt allgemein als Garant für Qualität, Gründlichkeit und Aktualität. Am 19. November 2012 hingegen ist Tagesschau.de eine schlimme Panne unterlaufen. Mit dem Beitrag „Erde erwärmt sich schneller als gedacht“ tat sich die Tagesschau keinen Gefallen. In Wirklichkeit ist nämlich genau das Gegenteil der Fall. Gerade in den letzten Wochen wurde in der Wissenschaft wieder heftig diskutiert, weshalb es eigentlich seit nunmehr 16 Jahren nicht mehr wärmer geworden ist. Pikanterweise hatte keines der aufwendigen Weltklimaratsmodelle diesen Erwärmunsgstop vorhergesagt. Siehe unsere Blogartikel: —Neue HadCRUT-Daten belegen: Globale Temperatur seit 16 Jahren nicht mehr angestiegen —IPCC-Anhänger argumentieren gegen den Erwärmungsstopp: Zeit für einen Faktencheck —Die Temperaturen der …

weiter lesen

Winter am antarktischen Rossmeer haben sich in den letzten 30 Jahren drastisch abgekühlt

Der antarktische Kontinent hat zwei riesige Kerben, als hätte jemand dort hineingebissen. In der einen Kerbe befindet sich das Weddellmeer und in der anderen das Rossmeer. In letzteres mündet der Whitehall Gletscher. Ein neuseeländisch-australisches Team um Kate Sinclair vom Joint Antarctic Research Institute in Wellington hat sich nun die Temperaturentwicklung der letzten 125 Jahre dieses Gebiets näher angeschaut. Sie veröffentlichten ihre Ergebnisse im Mai 2012 im Journal of Climate. Für ihre Studie zogen die Forscher einen mehr als 100 m langen Bohrkern aus dem Gletscher. An diesem eisigen Schichtenarchiv rekonstruierten die Forscher die  Temperaturentwicklung anhand von Sauerstoffisotopen. Das Ergebnis fiel deutlich aus (Auszug …

weiter lesen

Die Zeichen stehen auf Frost

Nach der ersten Kältewelle (siehe „Und plötzlich wurde es kalt in Deutschland“) stellen wir uns natürlich jetzt die Frage, wie denn der Winter so werden wird. Die vergangenen Winter waren zum Teil ziemlich hart. Geht dies trotz Klimawandel so weiter oder kommen bald die von Mojib Latif angekündigten schneelosen Winter?

Über die wenig hoffnungsfrohe Winterprognose der Rutgers University haben wir bereits berichtet (siehe „Klimawissenschaftlerin der Rutgers University: Europa steht möglicherweise erneut ein harter Winter ins Haus“). Nun legte auch der Britische Wetterdienst nach und kündigte einen britischen Winter an, der kälter als der Durchschnitt ausfallen soll. Der Meteorologe Jim Dale erklärte der Zeitung Metro gegenüber:

Wir sagen eine Periode von Mitte November bis Ende Januar voraus, die kälter als der Durchschnitt ausfallen wird. Es wird zu gewissen Zeiten größere Schneemengen geben, besonders im Norden und Osten [Großbritanniens], auch London wird Schnee abbekommen. Die Tiefsttemperaturen werden in Südengland bis auf -10°C heruntergehen, in Teilen Schottlands sogar bis auf -18°C.

Auch für die Ostküste der USA ist für diesen Winter 2012/2013 mehr Schnee als üblich vorhergesagt. Interessant wird es auch für eine Faustregel, die Hans Graf von der University of Cambridge und Davide Zanchettin vom Max-Planck-Institut für Meteorologie in Hamburg entwickelt haben. Sie haben eine Faustregel aufgestellt, mit der sich Monate im Voraus prognostizieren lässt, ob der Winter kalt oder mild wird. Spiegel Online berichtete darüber am 18.1.2012:

Die Faustregel der Forscher für die Winterwetter-Prognose in Deutschland lautet, dass es in Deutschland einen frostigen Schneewinter gibt, wenn folgende Bedingungen erfüllt sind:

  • Im Zentralpazifik herrscht seit Monaten El Niño, das heißt, das Meerwasser an der Oberfläche ist deutlich wärmer als sonst.
  • Breitet sich das warme Wasser aber nach Osten bis an die Küste Südamerikas aus, sinken die Chancen auf einen kalten Winter in Mitteleuropa.
  • Es gab keine großen Vulkanausbrüche – sie verändern das Wettergeschehen.

Die Fachwelt staunt: „Ich finde die Arbeit sehr hilfreich“, sagt Mojib Latif vom Helmholtz-Zentrum für Ozeanforschung in Kiel, einer der weltweit führenden El-Niño-Experten. „Das ist eine interessante Veröffentlichung“, ergänzt der Klimatologe Eduardo Zorita vom Helmholtz-Zentrum für Küstenforschung in Geesthacht.

Wie aber funktioniert die Fernwirkung von El Niño auf das Europawetter? Auslöser sei der warme Zentralpazifik, aus dem ungewöhnlich viel Wasser verdunste, berichten Graf und Zanchettin: Die Luft steigt auf, bildet mächtige Wolken über dem Meer. Wenn Wolken wachsen, wird Wärme frei, die sogenannte Kondensationswärme – sie setzt in höheren Luftschichten eine Wetterkaskade in Gang.

weiter lesen

Teilen:

Die Temperaturen der Troposphäre und der Wasseroberflächen: seit 18 Jahren ohne signifikanten Trend

Gastbeitrag von Frank Bosse

Während die Auseinandersetzung über den nicht vorhandenen Aufwärtstrend in den globalen Temperaturen der letzten 16 Jahre seit 1995  nach den Aufzeichnungen der CRU (HadCRUT4) noch im Gange ist, hat sich etwas womöglich viel Weitreichenderes getan.

Im Jahre 2011 erschien eine Arbeit von Santer und Kollegen, in der sie beschrieben, dass es mindestens eines 17 Jahre langen Trends bedarf, um die menschlichen Einflüsse auf die mittlere Temperatur der Troposphäre zu identifizieren. In der Zusammenfassung der Arbeit ist zu lesen:

“Our results show that temperature records of at least 17 years in length are required for identifying human effects on global-mean tropospheric temperature.”

Dabei wurde die Temperaturreihe “TLT” ( Temperature lower Troposphere) namentlich angesprochen. Wir können uns diese Reihe – sie wird monatlich erhoben – betrachten:

Es kommt nun ein Sachverhalt zum Tragen, den man Autokorrelation nennt. Was bedeutet das? Machen wir ein Beispiel: Sie wollen den Temperaturverlauf des Wassers in einem 10 l-Eimer durch einem linearen Trend beschreiben. Es ist klar, dass die Temperaturänderung recht langsam verläuft, da Wasser eine hohe Wärmeträgheit aufweist. Sie haben 1h Zeit, einen Trend nachzuweisen. Nehmen wir an, Sie messen alle 10 min und nehmen die Werte auf. Das ergibt am Ende eine Reihe mit 6 Messwerten und die Regressionsrechnung zeigt, dass es einen Trend gibt, dieser jedoch auch zufällig sein kann. In der Statistik ist die Frage zu beantworten: Ist der Trend positiv und zwar nicht etwa zufällig sondern ist er es nachprüfbar und auf eine echte Erwärmung zurückzuführen? Wenn ja: dann ist der Trend signifikant. Mit dem Zufall ist es so ein Ding, man begrenzt ihn, indem man fordert: zu 95%  muss der Trend „echt“ sein, nur 5% lassen wir dem Zufall übrig.  In der Statistik nennt man das ein 95%-Konfidenzintervall.

Mit den 6 Messwerten, die Sie oben gemessen haben, können Sie nun diese Bedingung nicht erfüllen. Nun kommen Sie auf die Idee, nicht alle 10 min zu messen, sondern jede Minute. Sie haben dann 60 Messwerte und schaffen es so, einen signifikanten Trend nachzuweisen. Ist er aber auch „echt“ im Sinne der Physik? Oder haben Sie nur eine Wiederholung der eigentlich mehr oder weniger selben Messwerte erzeugt und so eine scheinbare Signifikanz eingetragen?

Dafür gibt es in der Statistik Tests, die ausweisen, ob die Messwerte zu stark voneinander abhängig sind oder nicht. Diese Abhängigkeit eines Messwertes vom vorigen nennt man Autokorrelation.

Wenden wir nun einen Test (den von Durbin und Watson, es gibt ihn seit 1951) auf die Temperatur der unteren Troposphäre (TLT) an. Wir sehen, dass die monatlichen Werte zu „dicht“ gesetzt sind. Mit ein wenig Sicherheit können wir die Autokorrelation ausschließen, wenn wir nur 6-monatige Mittelwerte berücksichtigen.

weiter lesen

Teilen:

IPCC-Anhänger argumentieren gegen den Erwärmungsstopp: Zeit für einen Faktencheck

Vor kurzem berichteten wir an dieser Stelle über die neuen globalen Temperaturdaten des Hadley Centre des britischen meteorologischen Dienstes, das in Zusammenarbeit mit der Climate Research Unit (CRU) der University of East Anglia den sogenannten HadCRUT-Datensatz herausgibt. Die neuen Daten zeigen deutlich, dass die globale Temperatur seit nunmehr 16 Jahren nicht mehr angestiegen ist (siehe unser Blogbeitrag „Neue HadCRUT-Daten belegen: Globale Temperatur seit 16 Jahren nicht mehr angestiegen“).

Die britische Tageszeitung Daily Mail berichtete ausführlich über die neuen Zahlen und den Erwärmungsstop. Selbstverständlich konnte dies den Anhängern der Klimakatastrophe nicht gefallen, so dass sich daraufhin ein wilder Schlagabtausch im Netz entspann. Frank Bosse hat die Diskussion verfolgt und die gegen den Erwärmungsstop vorgebrachten Argumente für uns auf Herz und Nieren geprüft. Dabei stieß er auf eine Reihe von seltsamen Ungereimtheiten.

 

Gastbeitrag von Frank Bosse 

 

1. Chronologie der Ereignisse 

Anfang Oktober 2012: HadCRUT4 erscheint aktualisiert bis August 2012 

13. Oktober 2012: In der britischen Tageszeitung „Daily Mail“ erscheint ein Artikel von David Rose mit dem Titel: „Die globale Erwärmung stoppte vor 16 Jahren“.

18. Oktober 2012: Bob Ward vom Grantham Research Institute on Climate Change and Environment widerspricht den Aussagen im Daily-Mail-Artikel vom 13.Oktober. Er führt an, dass es sehr wohl einen signifikanten Trend in den Temperaturen 1997 bis August 2012 gäbe.

Wards ARGUMENT 1: die verwendete mathematische Methode zur Trendanalyse wäre ungeeignet:

„These data define a warming trend of 0.047°C per decade. Applying simple linear regression using ordinary least squares to the data shows that this trend is statistically significant at the 95 per cent level. It should be noted simple linear regression using ordinary least squares is not really the best method for assessing these data| as it depends on assumptions which are violated by global temperature measurements. Nevertheless, it can be used to show that Rose’s claim that “from the beginning of 1997 until August 2012, there was no discernible rise in aggregate global temperatures” is entirely false. “ 

Wards ARGUMENT 2: Der Autor des Daily Mail Artikels hätte manipuliert, da er den Startpunkt bewusst in das warme, El Nino-beeinflusste Jahr 1997 gelegt hätte.

“Why did Rose choose January 1997 as a starting point? In April 1997, the strongest El Niño event of the 20th century| was underway, causing global temperatures to become anomalously warm. Hence by choosing January 1997 as a starting point, with the end point in mid-2012 when there was no El Niño occurring, Rose seemingly hoped to maximise his chances of finding a time period over which there was no measurable global warming.” 

20. Oktober 2012: Ein zweiter Artikel erscheint in der Daily Mail. Diesmal mit ergänzenden Aussagen von Judith Curry. Sie merkt u.a. an, dass es wissenschaftlich nicht sinnvoll ist, El Nino-Effekte und andere Ozeanzyklen-Effekte aus den Globaltemperaturen herauszufiltern und „bereinigte“ Kurven zu erstellen. Die Temperatur ist stets ein Mischprodukt aus natürlichen und anthropogenen Effekten, so dass eine separate Berechnung der globalen Temperatur physikalisch keinen Sinn macht.

21. Oktober 2012: Nach Prüfung des Arguments 1 stellte sich heraus, dass der Trend 1997-2011 statistisch nicht signifikant ist, wenn die Autokorrelation der monatlichen Werte berücksichtigt wird. Darauf wurde Grant Foster (auch als „tamino“ bekannt) in seinem Blog angesprochen. Seine Antwort auf die Frage, ob der angesprochene Trend signifikant ist (Post 21.Oktober 07:05 pm):

“No. Taking autocorrelation into account the trend is not statistically significant.”

23. Oktober 2012: Bob Ward antwortet in einer Email auf den Hinweis der Insignifikanz des Temperaturtrends 1997-2011:

„Dear ….,
Many thanks for your message. You are correct that there is a major problem in analysing monthly global average temperature values without taking into account autocorrelation, which I did point out when I provided a link to the paper by Muhlbauer and co-authors. The difficulty, as I am sure you appreciate, is finding an appropriate method for assessing the statistical significance of global temperature trends, as this paper by Liebmann et al indicates: [journals.ametsoc.org] 

Und dann bringt Ward in seiner Email ein neues Argument, das wir hier als ARGUMENT 3 führen wollen:

However, the main point of my article is not to assert that the last 15 years of monthly global average temperature values defines a statistically significant trend, but rather that the same challenges occur for many 15-year sequences over the past 40 years – ie using 15 years of data is not a good way of telling whether global warming has stopped. Best wishes, Bob  

Bob Ward
Policy and Communications Director
Grantham Research Institute on Climate Change and the Environment
London School of Economics and Political Science
Houghton Street, London, UK, WC2A 2AE

 

Ward erkennt also an, dass es ein großes Problem mit seinem Argument 1 gibt. Nun erklärt er, dass aber das gleiche Problem (nämlich die Insignifikanz bei Berücksichtigung der Autokorrelation) mit vielen 15-Jahrestrends der letzten 40 Jahre bestünde und es daher kein guter Weg sei, mit diesen Trendwerten eine Aussage treffen zu wollen, ob die Erwärmung gestoppt wäre oder nicht.

23. Oktober 2012: Auf dem Blog von Forster bzw. tamino erscheint ein Link zu einem seiner Meinung nach exzellenten Beitrag auf skepticalscience.com. Dort wird Judith Curry als Leugner bezeichnet mit dem Argument, dass die Erwärmung nicht (nur) eine Erwärmung der Oberfläche wäre, sondern eine in der Tiefe der Meere (OHC). Dies wollen wir hier als ARGUMENT 4 behandeln.

 

2. Würdigung der vorgebrachten Argumente

ARGUMENT 1: Ungeeignete mathematische Methode

Der Trend der Temperaturen von 1997-2011 ist statistisch nicht signifikant positiv. Die Berücksichtigung der Autokorrelation ist zwingend erforderlich. Daher sind Jahresmittelwerte zu nutzen.

Fazit: Das Argument 1 ist nicht stichhaltig.

weiter lesen

Teilen:

Und plötzlich wurde es kalt in Deutschland

So ein bisschen hatten wir uns auf die globale Erwärmung eigentlich schon gefreut. Die Experten hatten uns ernsthaft Hoffnung gemacht, dass die harten Winter nun langsam seltener werden. Michael Krüger schreibt dazu auf Readers Edition:

Eigentlich, ja eigentlich sollten solche Extremwetterlagen mit Frost und Schnee infolge des fortschreitenden Klimawandels immer seltener werden. Noch im Jahr 2000 verkündetet der Klimaforscher Mojib Latif im Spiegel: “Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben”. Und nun das, ein Schneerekord und das schon im Oktober.

Mit einem beeindruckenden Fanfarenstoß meldete sich der Winter jetzt etwas verfrüht aus seiner wohlverdienten Sommerpause zurück. Schneerekorde in Ostdeutschland, klirrende Minusgrade in Norddeutschland und ein historischer Wintereinbruch in Süddeutschland. Die Main Post berichtete hierzu am 27. Oktober 2012:

Solch ein Wetter-Phänomen hat die Region Mainfranken seit Jahrzehnten nicht erlebt: Schnee im Oktober. Vor gut einer Woche saßen die Menschen in Würzburg, Schweinfurt oder Bad Kissingen noch mit T-Shirts und Shorts in den Straßencafés und genossen den fränkischen Spätsommer, nur wenige Tage später schickt der Winter einen ersten frostigen Gruß. Innerhalb von acht Tagen stürzten die Temperaturen um nahezu 25 Grad in die Tiefe und unter den Gefrierpunkt. „Das ist ein richtiger Wintereinbruch. So etwas kommt vielleicht alle 30 bis 40 Jahre vor“, sagte Diplom-Meteorloge Christoph Hartmann vom Deutschen Wetterdienst (DWD) in Offenbach, „das erlebt man nur ein- oder zweimal im Leben“. Letztmals, so der Experte, muss es Anfang der 70er Jahre in der Region Würzburg um diese Jahreszeit eine geschlossene Schneedecke gegeben haben.

Man erinnere sich: In den 1970er Jahren machte man sich große Sorgen über eine neu heranrückende Eiszeit. Die Temperaturen sanken damals schneller als je zuvor in den vergangenen 1000 Jahren, berichtete der Spiegel 1974 (siehe notrickszone). Auch damals war übrigens die Sonnenaktivität im Keller. Zudem drückten die Ozeanzyklen die Temperaturen nach unten, genau wie heute…

Nüchtern betrachtet, passt der frühe Wintereinbruch in Deutschland und die Serie der Kältewinter in den letzten Jahren nicht so richtig mit der angekündigten katastrophalen Klimaerwärmung zusammen. Das haben natürlich auch die kalt überrumpelten Klimawissenschaftler bemerkt und haben sich mittlerweile eine wissenschaftliche Hilfshypothese zurechtgelegt. Das ist doch ganz einfach, sagen sie. Weil das arktische Meereis schrumpft, verändern sich die atmosphärischen Zirkulationsmuster und es strömt mehr Kälte nach Europa. Ok, nette Idee. Kann man glauben oder auch nicht. Nur schade, dass das Modell erst nach der Kältewinterserie kam und nicht vorher. Wenn die Winter in Mitteleuropa jetzt kälter werden, ist die Klimakatastrophe Schuld. Und wenn die Winter wärmer werden sollten, dann greift natürlich wieder das klassische globale Erwärmungsmodell, und wieder ist die Klimakatastrophe Schuld. Eine sehr komfortable Situation. Das erinnert so ein bisschen an:

Regel eins: Ich habe immer recht.
Regel zwei: Falls dies einmal nicht der Fall sein sollte, wird automatisch Regel eins wirksam.

Claus Kleber unterstützt diesen Argumentationsansatz mit ganzen Kräften und verkaufte am 27.10.2012 seinen Zuschauern im Heute Journal die genannte fragwürdige Hilfshypothese als gesichertes Wissen (siehe auch Beitrag auf EIKE):

Man muss Wetter und Klima natürlich voneinander trennen. Trotzdem sollten wir uns kurz an den ziemlich bescheidenen Sommer 2012 erinnern. Mitte August 2012 schrieb Dominik Jung von www.wetter.net in der Leipziger Volkszeitung, dass der deutsche Sommer bis dahin etwa 0,2 Grad kälter war als die langjährigen Werte der Jahre 1981 bis 2010. In der Bildzeitung sagte Jung am 22. Juli 2012:

weiter lesen

Teilen:

Klimawissenschaftlerin der Rutgers University: Europa steht möglicherweise erneut ein harter Winter ins Haus

Die Klimaerwärmung schreitet unaufhaltsam voran, heisst es. Obwohl es seit nunmehr 16 Jahren nicht mehr wärmer geworden ist, meinen einige Klimawissenschaftler beobachtet zu haben, dass nun alles noch viel schneller abläuft als von ihnen bislang prognostiziert. Verwundert reibt man sich die Augen. Zu dieser seltsamen Geschichte gehört irgendwie auch die Serie besonders kalter Winter in den letzten 5 Jahren. Wie passt das eigentlich mit der Klimaerwärmung zusammen? Hatte uns nicht Mojib Latif um die Jahrtausendwende gewarnt, dass unsere Kinder wohl kaum noch in den Genuss von Schneemannbauen und Winterrodeln kommen werden? Das Klima-Establishment reagierte umgehend und überlegte sich schnell einen Bug-Fix. …

weiter lesen

Neue HadCRUT-Daten belegen: Globale Temperatur seit 16 Jahren nicht mehr angestiegen

In den Klimamodellen des Weltklimarats IPCC gibt es für die Temperaturentwicklung nur eine prognostizierte Richtung, nämlich einen strammen Anstieg. Auch Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK) teilt diese Überzeugung und erklärte noch im November 2011 der Neuen Osnabrücker Zeitung:

„Die Erderwärmung schreitet weltweit ungebremst fort. Die Temperatur steigt zwischen 0,16 und 0,18 Grad Celsius pro Jahrzehnt.“

Die Qualität von Prognosen muss sich jedoch bekanntlich an den harten Daten der Realität beweisen. Einer der wichtigsten globalen Temperaturdatensätze stammt vom Hadley Centre des britischen meteorologischen Dienstes in Zusammenarbeit mit der Climate Research Unit (CRU) der University of East Anglia. Während das Hadley Centre für die Meeresoberflächentemperaturen zuständig ist, kümmert sich die CRU um die Temperaturen auf den Kontinenten. Zusammen geben sie den sogenannten HadCRUT-Datensatz heraus.

Vor kurzem kamen nun die neuen HadCRUT-Zahlen heraus, die bis August 2012 reichen. Was sich bereits in der Vergangenheit andeutete, bestätigte sich jetzt: Die globale Temperatur ist seit nunmehr 16 Jahren nicht mehr angestiegen (Abbildung 1). Eine ganz unerwartete Entwicklung, wenn man die selbstbewussten Erwärmungsvorhersagen des IPCC bedenkt.

Die Veröffentlichung der neuen Zahlen geschah ohne großen Medienrummel in aller Stille. Mit einiger Verzögerung griff nun die britische Daily Mail das Thema auf und berichtete über die unverhoffte Verlängerung des Temperaturplateaus. Unter anderem befragte die Zeitung auch Phil Jones, den derzeitigen Direktor der Climate Research Unit. Dieser bestätigte das Plateau und hielt es sogar für möglich, dass sich dieses noch weiter verlängert. Dies gelte aber nur für den Fall, dass sich in den kommenden Monaten im Pazifik nicht eine El Nino-Wetterlage ausbildet, die die globalen Temperaturen kurzfristig nach oben schnellen ließe. Auf die möglichen Gründe für die Abweichung der IPCC-Modelle angesprochen, sagte Jones:

„Wir verstehen noch immer nicht vollständig, wie wir Veränderungen in den Ozeanen [Ozeanzyklen] in den Modellen einzubeziehen haben. Und weil wir es noch nicht vollständig verstehen, könnte man sagen, dass die natürliche Variabilität momentan die Erwärmung unterdrückt. Wir wissen nicht, welche Rolle die natürliche Variabilität spielt.“

Im Jahr 2009 hatte Phil Jones einem Kollegen per email mitgeteilt, dass er sich erst Sorgen über die Qualität der IPCC-Klimamodelle machen würde, wenn der Erwärmungsstop mehr als 15 Jahre anhielte. Die Email gelangte damals im Rahmen des bekannten Climategate-Vorfalls an die Öffentlichkeit, bei dem unbekannte Hacker in den Server der Climate Research Unit eingedrungen waren. Die in der Email genannten 15 Jahre sind nun mittlerweile überschritten. Da wundert es dann schon, wenn Jones im Daily Mail Artikel seine persönliche Schmerzgrenze plötzlich auf 20 Jahre ausdehnt und behauptet, dass Phasen fehlender Erwärmung von 15-16 Jahren stets zu erwarten gewesen wären.

Die Klimawissenschaftlerin Judith Curry, Leiterin des Instituts für Erd und Klimawissenschaften an der Georgia Tech University, sieht die Lage noch etwas nüchterner. Im selben Artikel der Daily Mail erklärt sie:

„Die neuen Daten bestätigen die Existenz einer Pause in der globalen Erwärmung. […] Klimamodelle sind zwar sehr umfassend, jedoch sind sie noch immer unvollständig und nicht perfekt. Die natürliche Variabilität war in den letzten zwei Jahrzehnten stärker ausgeprägt als die Erwärmung durch Treibhausgase. Es wird immer klarer, dass wir bei der Zuordnung der Erwärmung seit 1980 und bei den Zukunftsprognosen die natürliche Variabilität als fundamental wichtigen Faktor viel mehr berücksichtigen müssen.“

Abbildung 1: HadCRUT-Temperaturdaten 1997 bis heute (rote Kurve). Die Trendlinie (grün) zeigt keinen signifikanten Anstieg. Das Temperaturplateau existiert seit nunmehr 16 Jahren. Quelle: Real Science basierend auf woodfortrees.

weiter lesen

Teilen:

Erwärmung des 20. Jahrhunderts bekommt Konkurrenz: US-Forscher finden 46 starke natürliche Erwärmungsereignisse in antarktischem Eiskern

Einzigartig und noch nie dagewesen, so wird die Erwärmung des 20. Jahrhunderts gerne charakterisiert. Insgesamt ist es in dieser Zeit global 0,6°C wärmer geworden. Dazu kommen dann noch etwa 0,2°C aus der Spanne 1850-1900. Aber ist diese Erwärmung wirklich so außergewöhnlich wie oftmals behauptet? Jackson Davis von der University of California in Santa Cruz und sein Co-Autor Peter Taylor haben sich den berühmten Vostok-Eiskern aus der Antarktis vorgenommen und für die vergangenen gut 10.000 Jahre auf Temperatursprünge hin untersucht. Dabei fanden sie gleich 46 Episoden während der sich die Temperatur um jeweils mehr als 0,74°C pro Jahrhundert steigerte (Abbildung 1). Und …

weiter lesen

Kein nordatlantisches Phänomen: Mittelalterliche Wärmeperiode und Kleine Eiszeit in den Anden gefunden

Die Kleine Eiszeit und die Mittelalterliche Wärmephase sind nordatlantische Phänomene, erklärten uns Stefan Rahmstorf und etliche seiner IPCC-Kollegen einst. Global gesehen würde sich das schon irgendwie wieder ausgleichen, also sollte man sich nicht allzu große Sorgen wegen dieser lokalen Klimaanomalien machen. Schon gar nicht sollte man auf den irrigen Gedanken kommen, die Sonne könnte irgendwas damit zu tun haben. Das wäre nur purer Zufall, dass die Sonne während der Mittelalterlichen Wärmeperiode so stark war. Und die Sonnenflaute während der Kleinen Eiszeit hat auch nichts zu sagen. Ebenfalls völlig belanglos ist die Tatsache, dass die zweite Hälfte des 20. Jahrhunderts eine …

weiter lesen

Golfstrom bleibt laut neuen Messdaten stabil: Stefan Rahmstorfs Modell beginnt zu wackeln

Die warme Meeres-Strömung namens Golfstrom transportiert große Mengen warmen Wassers von West nach Ost über den Nordatlantik und sorgt an den Westküsten Europas zwischen etwa 50 und 70 Grad nördlicher Breite ganzjährig für ein mildes Klima. Diese Wohltat der Natur begreift man erst, wenn man in der genannten geographischen Breite über den Atlantik an die Ostküste des nordamerikanische  Kontinents schaut. Dort bestimmt der Antagonist des Golfstroms Wetter und Klima, nämlich der aus der eisigen Baffin-Bay nach Süden strömende kalte Labrador-Strom. So hat St. Jones an der Ostküste von Neufundland in 47°N ein Jahresmittel von 5°C, dagegen haben am Westeingang des Englischen Kanals die Orte Brest auf 48°N und Plymouth auf 50°N ein Jahresmittel von jeweils 11°C ! Das sind Wetter- und Klima-Welten in einer anderen Liga.

Schon seit einigen Jahren ist der gute, nützliche Golfstrom in das Visier der Klima-Alarmisten geraten (siehe z.B. Artikel auf EIKE). Die Klimaerwärmung würde zum Abreißen des Golfstroms führen, was Kälte und Verderben bringt. Hollywood nahm das Thema bereitwillig auf und produzierte hierzu den Golfstrom-Eiszeitschocker „The Day After Tomorrow„.

Auch der unvermeidliche Stefan Rahmstorf spielt bei dieser Geschichte eine wichtige Rolle, wie Michael Krüger auf Readers Edition beschreibt:

Im Jahr 1999 hat der deutsche Forscher Stefan Rahmstorf den mit einer Million Dollar dotierten “Jahrhundertpreis” der amerikanischen James-S-McDonnel-Stiftung für seine Arbeit zur Berechnung des Klimawandels durch die Veränderungen des Golfstroms erhalten. Rahmstorf hatte postuliert, dass schon eine recht kleine Erwärmung der globalen Temperaturen zwangsläufig zu einem geänderten Fluss oder gar zum Umkippen der “Klimamaschine Golfstrom” führt. Nun wurde seine Theorie durch Messdaten widerlegen.

Kürzlich verkündete Rahmstorf noch in seinem Internetblog KlimaLounge unter dem Titel “Golfstrom und Wahrheit” Folgendes, da ihn die Berichterstattung zur Stabilität des Golfstroms in der Zeitschrift mare nicht gefallen hatte:

“Summa summarum kann man also aus diesen recht breit abgestützten Einschätzungen folgern, dass das Risiko eines Umkippens der Nordatlantikströmung unter Experten zunehmend pessimistischer eingeschätzt wird. Das entspricht auch meiner eigenen Einschätzung, die ebenfalls im Laufe meiner Arbeit an dem Thema pessimistischer geworden ist. … Nach aktuellem Stand erscheint das Risiko eher größer, als wir es vor zehn oder fünfzehn Jahren gesehen haben.”

Jetzt hat sich herausgestellt, [dass Rahmstorf und viele seiner Kollegen] mit dieser Einschätzung [und ihren Modellrechnungen] falsch gelegen haben. Dies belegen aktuelle Messungen, die im Bereich des Golfstroms durchgeführt wurden. Die Tagesschau berichtete gestern:

Golfstrom trotzt Wetterextremen/ Europas robuste Meeresheizung

Er gilt als Heizung Europas und ist robuster als vermutet: Der Golfstrom hat sich trotz zunehmender Wetterextreme nicht abgeschwächt. Das stellten Ozeanforscher fest, die dafür an 3000 Messstationen den Nordatlantik untersuchten. Auch ihre Prognosen stimmen optimistisch.”

weiter lesen

Teilen:

Natürlicher Klimawandel führte zum Kollaps der Indus-Hochkultur vor 4000 Jahren

Die jungsteinzeitliche/kupfersteinzeitliche und ansatzweise bronzezeitliche Indus-Kultur (auch Harappa-Kultur genannt) war eine der frühesten städtischen Zivilisationen, die sich etwa in den Jahren 2800–1800 v. Chr. entlang des Indus im Nordwesten des indischen Subkontinents entwickelte. Sie erstreckte sich über fast das gesamte heutige Pakistan sowie Teile Indiens und Afghanistans, insgesamt 1.250.000 km², und war damit flächenmäßig größer als das antike Ägypten und Mesopotamien zusammen. Neben diesen war sie eine der drei frühesten Zivilisationen der Welt. Auf der Webseite der Kinderzeitmaschine erfahren wir:

Bis heute kennen wir über 170 Städte, die aus dieser Zeit stammen. Das gesamte Gebiet war ungefähr 1500 km lang […]. Alle Städte hatten einen ähnlichen Aufbau und aus diesem Grund fasst man sie unter der „Induskultur“ zusammen. Im Gegensatz zu den Hochkultur in Mesopotamien oder Ägypten finden sich am Indus keine Tempel oder Paläste. Überreste der Indusschrift sind bis heute nicht entziffert und können deshalb auch nicht weiterhelfen, mehr über diese Kultur zu erfahren. Auffallend ist jedoch, dass schon sehr früh Standardmaße und -gewichte eingeführt wurden und es schon eine detaillierte Stadtplanung gab. Das kann man gut an dem rechtwinklig angelegten Straßennetz erkennen. Es gab auch ein hoch entwickeltes Abwassersystem. Die fünf großen Städte während der Induskultur waren Harappa, Mohenjo-Daro, Dholavira, Ganweriwala und Kalibangan. Äußerst wichtig war der gut organisierte Überland- und Überseehandel. In Mesopotamien hat man Siegel und Waren aus dem Indusland gefunden, die den intensiven Handel der beiden Hochkulturen belegen. Auch Schmuck wurde ausgeführt. Die Herstellung von Schmuck aus Edelsteinen wie dem Karneol gehört ebenfalls zu den Kennzeichen der Induskultur.

Abbildung 1: Verbreitungsgebiet der Harappa-Kultur (Bildquelle).

 

Aber nichts ist für die Ewigkeit, scheint es. Auch die Indus- bzw. Harappa-Kultur erlebte nach ihrem Höhepunkt einen allmählichen Niedergang, der zum zivilisatorischen Kollaps führte. Wie immer, stellt sich die Frage nach den Gründen? Waren es vielleicht Kriege oder schlimme Krankheiten? Einen gefährlichen Klimawandel kann es damals in vorindustrieller Zeit ja noch nicht gegeben haben, da die CO2-Konzentration in der Atmosphäre mehr oder weniger stabil war.

Aber halt. War das Klima vielleicht doch nicht so stabil und optimal wie uns immer von IPCC-Seite erzählt wird? Gab es vielleicht signifikante natürliche Zyklen, die Veränderungen in ähnlichem Ausmaß verursachten wie in den letzten 150 Jahren? Ja, diese natürlichen Zyklen gibt es. Und es spricht viel dafür, dass diese von der schwankenden Sonnenaktivität angetrieben werden. Entsprechende Fallstudien aus China haben wir an dieser Stelle bereits vorgestellt:

Eine Forschergruppe um Liviu Giosan von der Woods Hole Oceanographic Institution hat nun das Ende der Indus- bzw. Harappa-Kultur näher untersucht und fand einen stetigen Austrocknungstrend, der sich über viele Jahrhunderte verfolgen lies und letztendlich die Landwirtschaft zusammenbrechen ließ. Die Studie erschien im Mai 2012 im Fachmagazin PNAS. Das Online-Wissenschaftsmagazin Scinexx berichtete über die Arbeit:

Das Klima brachte vor rund 4.000 Jahren die alte Harappa-Hochkultur im Nordwesten des Indischen Subkontinents zu Fall. Sie gilt als eine der drei großen frühen Zivilisationen der Menschheit und erstreckte sich über eine größere Fläche als Ägypten und Mesopotamien zusammen. Jetzt hat ein internationales Forscherteam herausgefunden, dass ein immer schwächer werdender Monsun die Indus-Kultur erst ermöglichte, dann aber zum Niedergang verurteilte. Die zunehmende Trockenheit habe die Flusslandschaft im Indusgebiet erst soweit stabilisiert, dass die Bewohner dort intensive Landwirtschaft betreiben und ihre großen Städte bauen konnten. Diese Phase habe aber nur rund 2.000 Jahre gedauert, berichten die Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“. Dann wurde das Klima noch trockener und zwang Harappa zum Aufgeben ihrer Städte und Felder. […]

weiter lesen

Teilen:

Der Ozean will sich nicht so richtig aufheizen: Theoretische IPCC Erwärmungsraten auf dem Prüfstand

Sommer, Sonne, Freibad. Noch können wir die warme Jahreszeit genießen, doch bald schon wird der Herbst übernehmen. Nutzen wir die Gelegenheit für ein kleines Experiment. An einem warmen Sommertag packen wir unsere Badehose und ein gutes Buch ein (warum z.B. nicht „Die kalte Sonne“) und begeben uns zum Freibad. Auf dem Weg zum Becken verbrennen wir uns dabei fast die Füße. Mit einem beherzten Sprung ins kühle Nass vermeiden wir in letzter Sekunde, dass uns die Zehen wegschmelzen.

Und was hat das alles jetzt eigentlich mit der Klimakatastrophe zu tun, werden Sie fragen. Genau, das Wasser ist kalt, obwohl die Sonne vom Himmel brennt und der Boden glüht. Wasser ist wärmetechnisch bekanntlich viel träger als die Landmassen. Auf diesen Effekt geht zum Beispiel auch der Monsun zurück.

Ebenfalls bekannt ist natürlich, dass sich die globale Temperatur in den letzten 150 Jahren um 0,8°C erhöht hat. Da dies ein Durchschnittswert ist, fällt die Erwärmung der Landmassen höher und die der Ozeane geringer als 0,8°C aus. Um wieviel weniger hat sich nun das Meer aber eigentlich erwärmt? Und wie viel hätten es denn laut den IPCC-Modellen sein sollen? Im Mai 2012 erschien in den Geophysial Research Letters hierzu eine neue Studie einer Forschergruppe des US-amerikanischen National Oceanographic Data Center (NOAA). Die Gruppe um Sydney Levitus stellte hierin eine verbesserte Abschätzung der Entwicklung der Ozean-Wärme für den Zeitraum von 1955 bis 2010 vor. Hierbei verwendeten die NOAA-Wissenschaftler unter anderem bislang unveröffentlichte historische Daten, die bislang nicht zur Verfügung standen. Außerdem konnten sie andere Daten bereinigen, bei denen sich in der Vergangenheit Messgerät-bedingte Fehler eingeschlichen hatten.

Das Resultat war überraschend: Im genannten 55-jährigen Zeitraum haben sich die Weltozeane im Durchschnitt nur um schlappe 0,09°C erwärmt. In der Welt der Ozeanographen übersetzt sich dieser Wert in 0,39 Watt pro Quadratmeter. Tja, und dieser Wert will so gar nicht zu den von den IPCC-Modellen angenommenen Zahlen passen. Laut IPCC hätte sich der Ozean nämlich viel stärker, um umgerechnet 1,12 Watt pro Quadratmeter erwärmen müssen.

Wo könnte der Fehler liegen? In den IPCC-Modellen wird eine sehr hohe Klimawirkung des CO2 angenommen. Der Großteil der Klimawirkung des CO2 geht dabei auf fragwürdige Verstärkungseffekte durch Wasserdampf und Wolken zurück (siehe unser Blogartikel „Der ominöse Wasserdampfverstärker für das CO2 spielt weiter Versteck: Wasserdampfkonzentration in der Atmosphäre in den letzten 14 Jahren offenbar nicht angestiegen“ und „Wolken kühlen Südamerika ab: Schlechte Karten für den Wolkenverstärker des IPCC“). Erst wenn man diese unbewiesenen Verstärkereffekte abzieht, scheint auch die Entwicklung der Ozeanwärme wieder einigermaßen zu passen. Alles deutet daraufhin, dass der IPCC die CO2-Klimasensitivität um einen Faktor 3 überschätzt hat.

weiter lesen

Teilen:

Wenn das Beste nicht gut genug ist: Die BEST-Temperaturstudie steckt in der Krise

Erinnern Sie sich? Im Herbst 2011 wurden der Öffentlichkeit mit großem Medienaufwand vier wissenschaftliche Manuskripte einer Forschergruppe der kalifornischen Universität Berkeley präsentiert. Das Team um den Physiker Richard Muller nennt sich das „BEST“-Team, wobei BEST für Berkeley Earth Surface Temperature steht. Dabei wollte man dem Team-Namen gerecht werden und die „beste“ Analyse aller historischen Temperaturmessdaten durchführen, die es je gegeben hat. Die BEST-Forscher nahmen sich also alle verfügbaren Daten und begannen zu sortieren, zu bewerten und zu korrigieren. Am Schluss stellte sich heraus: Ja, die die bisher verwendeten offiziellen Kurven waren ok gewesen. Den städtischen Wärmeinseleffekt gibt es zwar, aber er ist auf so kleine Flächen auf der großen Erde verteilt, dass er im Großen und Ganzen keine Rolle spielt.

Nun ist knapp ein Jahr vergangen. Die vier BEST-Manuskripte wurden damals bei verschiedenen Zeitschriften eingereicht. Einige Beobachter hatten damals zu Bedenken gegeben, dass es für den großen Medienbahnhof vielleicht etwas zu früh wäre, da die Arbeiten das offizielle wissenschaftliche Begutachtungssystem ja noch gar nicht bestanden hätten. Wie steht es also heute um diese mit vielen Vorschusslorbeeren ausgestatteten Manuskripte?

Die Überraschung: Interessanterweise hat bis heute immer noch kein einziges dieser Manuskripte die „Peer Review“-Hürde genommen. Offensichtlich gab es mit den Forschungsergebnissen also doch größere Probleme. Das hinderte das BEST-Team jedoch nicht, kürzlich (Ende Juli 2012) ein fünftes, unbegutachtetes Manuskript mit großem medialem Trara vorzustellen. Zwischenzeitlich hat man den Startpunkt der Untersuchungen um weitere 100 Jahre zurückverlegt, nämlich auf 1750. Parallel dazu fand Muller es angemessen, in der New York Times einen Meinungsbeitrag zu platzieren, in dem er behauptet, die gesammelten BEST-Werke würden beweisen, dass die Erwärmung der letzten Jahrzehnte fast vollständig durch den Menschen verursacht worden seien. Daran bestünde nun kein Zweifel mehr. Muller sieht den menschlichen Anteil am Klimawandel sogar noch extremer als der IPCC in seinem letzten Bericht von 2007, sagt er. Schließlich wagt er in der New York Times dann auch noch eine Zukunfts-Temperaturprognose:

„Ich erwarte, dass sich die Erwärmung mit bisheriger Geschwindigkeit fortsetzt und in den kommenden 50 Jahren die Landmassen um etwa 1,5 Grad [Fahrenheit, das sind 0,8°C] erhöhen wird. Wenn man die Ozeane mit einbezieht, ist der Wert entsprechend geringer. Wenn jedoch China mit seiner rapiden wirtschaftlichen Entwicklung so weiter macht (in den letzten 20 Jahren waren dies 10% Wachstum pro Jahr) und sich die Nutzung von Kohle dort weiter steigert (China fügt derzeit monatlich etwa ein neues Gigawatt an Kraftwerksleistung hinzu), dann könnte der genannte Erwärmungsbetrag bereits in weniger 20 Jahren Wirklichkeit werden.“

Ok, könnte man meinen, ein Team dass sich BEST nennt und nur das Beste für die Wissenschaft will und dazu noch von der renommierten Universität Berkely stammt, muss ja wohl recht haben. Danke für diese tolle Studie, endlich haben wir Klarheit. Dann kann die Global Warming-Akte ja endlich geschlossen werden.

Wäre doch toll, oder? Leider gib es einige unerwartete Probleme mit den BEST-Studien, so dass wir uns wohl noch länger über die Ursachen des Klimawandels streiten werden müssen:

 

Ziel der BEST-Untersuchungen und Publikationsstatus

Das Ziel der BEST-Studie war die Erarbeitung einer verlässlichen globalen Temperaturkurve für die letzten 250 Jahre, beschränkt auf die Landgebiete. Da die entsprechenden Manuskripte noch immer nicht veröffentlicht sind, kann über die Qualität der Bemühungen bislang noch nichts gesagt werden. Und weil das Begutachtungssystem vertraulich ist, wissen wir auch nicht genau, an was es nun eigentlich liegt, dass es nicht voran geht. Aus diesem Grund hat Andrew Revkin jetzt einfach einmal beim BEST-Team nachgefragt. Die Antwort fällt ziemlich deutlich aus:

„Alle Artikel wurden bei Fachzeitschriften eingereicht, und wir haben bereits umfangreiche Gutachten der Zeitschriften zurückerhalten. Keines der Gutachten hat Fehler irgendwelcher Art bemängelt. Vielmehr hat es sich vor allem um Vorschläge für Ergänzungen und weitere Literaturzitate gehandelt. Einer der Gutachter hatte keinerlei Beanstandungen zum Manuskriptinhalt, schlug jedoch vor, die Veröffentlichung bis zum Erscheinen des umfangreichen Hintergrundartikels, in dem unsere Methodik im Detail beschrieben wird, zurückzuhalten.“

Alles in bester Butter, könnte man meinen. Alle Reviewer superhappy und nur noch eine reine Formalie, bis die Studien endlich offiziell erscheinen. Die Reviewer selber sind selbstverständlich öffentlich nicht bekannt, und da es sich wie gesagt um ein vertrauliches Begutachtungssystem handelt, dürfen sie auch gar nicht mit Ihrer Kritik an die Öffentlichkeit. Also müssen wir der BEST-Aussage hier wohl oder übel glauben.

Tja, wenn es da nicht einen Gutachter gäbe, dem das Affentheater zu blöd geworden ist. Hierbei handelt es sich um Ross McKitrick, Professor an der kanadischen University of Guelph. Zusammen mit Steve McIntyre hatte McKitrick vor einigen Jahren bereits den unrühmlichen Hockeystick enttarnt, die angeblich ereignislose Temperaturgeschichte der vorindustriellen Zeit, die sich jedoch als recht bewegt entpuppte, wenn man die Analyse korrekt durchführt. Eben dieser McKitrick war also nun für das Journal of Geophysical Research einer der offiziellen Gutachter bei einem der BEST-Manuskripte. Eigentlich wollte er auch die Vertraulichkeit wahren. Als er dann aber die neuerlichen Auftritte von Muller in der Presse mitbekam, bei denen jener sich auch auf die Manuskripte aus dem Herbst 2011 stützte, konnte McKitrick nicht anders und machte sein Gutachten vom September 2011 in seinem Blog öffentlich. Und was darin zu lesen ist, will so gar nicht zu der Alles-im-grünen-Bereich-Botschaft der BEST-Mannschaft passen (siehe auch Beitrag auf WUWT):

weiter lesen

Teilen: