Klimahysterie –Strahlenhysterie – Das zyklische Auftreten von Optima und Pessima im Holozän

Demokratie bedeutet Volksherrschaft, nicht Parteienherrschaft.

Das EXXON-#Verwirrspiel des Stefan @Rahmstorf (V1) von www.klimamanifest.ch

Die Lügengeschichten des Stefan Rahmsdorf

 

Vortrag-Klimahysterie-Strahlenhysterie-EIKE-Tagung-2019

Dr. Lutz Niemann, 13. Internationale Klima- und Energiekonferenz, 22.-23.11.2019, München

Ich habe Physik studiert und habe bei meiner Diplomarbeit und Dissertation mit offenen radioaktiven Stoffen gearbeitet. Daher hatte ich seit meinem Studium Kenntnisse im Umgang mit Radioaktivität,  ich kannte schon immer die Bedeutung von Becquerel und Milli-Sievert.

Im Beruf habe ich bei Siemens zum Thema „elektrische Kontakte“ gearbeitet, war dort Strahlenschutzbeauftrag- ter für Vollschutzgeräte,  wurde fortgebildet. Das Interesse für Strahlenthemen blieb erhalten, daher stehe ich jetzt hier. Zunächst wenige Worte zur Klimahysterie: Auch ich habe lange Zeit den Zusammenhang von CO2 und Klima für richtig gehalten, ich bin auf die einfachen Modellvorstellungen  und Deutungen herein gefallen. Erst das EIKE-Buch von Michael Limburg „Klimahysterie“ brachte den für mich den entscheidenden Hinweis:

Es sind in der Luft in jedem beliebigen Volumen viel mehr H2O-Moleküle  als CO2-Moleküle enthalten. H2O und CO2 sind beides Moleküle mit einem Dipolmoment, sind daher IR-aktiv, und daher kommt es auf die Anzahl der Moleküle in einem Volumen Luft an. Bei 20°C und 60% Feuchte sind zum Beispiel 55-mal mehr Moleküle von H2O vorhanden als von CO2.

Ich habe bei Siemens in München in der Hofmannstraße das Infrarot-Spektrometer betreut. Dabei muß vor je- der Analyse der Untergrund aufgenommen werden, das ist die Infrarotanalyse der 10 cm Luftstrecke im Strah- lengang des Gerätes, das zeigt Bild 1. H2O hat viel mehr Absorptionsbanden als CO2.

Bild 1: Infrarot-Spektrum von Luft, Untergrund bei der IR-Analyse

Bild 2: Infrarot-Spektrum von Luft aus der IR- Bibliothek

Dasselbe erkennt man auch beim Infrarot-Spektrum von Luft, wie es in jeder Spektrumbibliothek enthalten ist, siehe Bild 2.

Diese Darstellungen zeigen: Es hat H2O (Wasser) eine viel größere Wirkung als CO2 auf alle Vorgänge infolge Strah- lungsabsorption in der Atmosphäre, es wirkt über einen viel größeren Wellenlängenbereich und die integrale Fläche der Peaks ist größer.

CO2 hat nur eine Wirkung von wenigen %, wenn es um die Strahlenabsorption in der Luft geht. H2O ist be- stimmend in der Atmosphäre und bestimmt das Wetter und damit die Klimate an allen Stellen der Erde. Der Wasserkreislauf spielt die Hauptrolle bei Wetter und Klima, dabei insbesondere die latente Wärme, die bei des- sen Phasenübergängen gebunden oder freigesetzt wird. Daher gilt:

Wer CO2 sagt, ist schon auf die Demagogie herein gefallen, denn der Wasserkreislauf bestimmt das Wetter und damit alle Klimate an allen Stellen der Erde, dabei wird alles gesteuert von der Sonne. CO2 hat keinen Einfluß auf die Wettervorgänge in der Atmosphäre. [1]

Zur Strahlenhysterie: Der Unfall in Fukushima 2011

Vorweg wenige Worte zur Wissenschaftlichkeit der Arbeit von EIKE: Seit dem März 2011 habe ich 37 Berichte geschrieben, alle wurden bei EIKE veröffentlicht. 7 dieser Berichte wurden in Fachzeitschriften abgedruckt, das waren die „StrahlenschutzPRAXIS“ und das „Internat. Jour. f. Nuclear Power“. Beides sind private wissenschaft- liche Zeitschriften jeweils eines Vereins für seine eigenen Mitglieder: vom „Fachverband Strahlenschutz Deutschland – Schweiz“ (FS) und von der „Kerntechnischen Gesellschaft“. Mit dem Abdruck meiner Berichte erhalten meine Berichte die Zustimmung  der wissenschaftlichen Fachwelt.

Beim Erdbeben am 11.3.2011 wurden alle Reaktoren in Fukushima bestimmungsgemäß  automatisch abge- schaltet und die Kerne weiter gekühlt. Erst durch den Tsunami etwa eine ¾-tel Stunde später wurde das Kraft- werksgelände überflutet und die Stromversorgung fiel aus, weil sich Schalträume und Notstromversorgung  im Keller befanden. Damit gab es für die Reaktoren keine Kühlung mehr. Es stiegen Temperatur und Druck in den Reaktordruckgefäßen, so daß bald Druck abgelassen werden mußte. Als der Wasserspiegel in den Reaktoren gesunken war und Brennelemente nicht mehr gekühlt wurden, konnte bei der gestiegenen Temperatur durch Reaktion von Zr mit H2O Wasserstoff entstehen, der bei den notwendigen Druckentlastungen frei gesetzt wur- de. Es gab mehrere Wasserstoffexplosionen, wobei Gebäude zerstört wurden, nicht jedoch der Reaktor. Dabei wurden radioaktive Spaltprodukte frei gesetzt.

In den automatischen Meßstellen auf dem Kraftwerksgelände wurde die Ortsdosisleistung  der Strahlung ge- messen, die Daten waren weltweit abrufbar. Hier eines der Diagramme. In Deutschland haben die Kollegen der GRS eine erläuternde Beschriftung in die Diagramme eingefügt, siehe Bild 3.

Bild 3: Ortsdosisleistung auf dem Kraftwerksgelände von Fukushima [2]

Über der Zeitachse ist die Ortsdosisleistung  an den verschiedenen Meßpunkten auf dem Kraftwerksgelände aufgetragen. Die Peaks bedeuten immer ein Freisetzen von Radioaktivität in die Luft.

Das rote Feld bedeutet eine kumulierte Strahlendosis von 48 Milli-Sievert innerhalb von 24 Stunden. Diese Do- sis kann erreicht werden, wenn sich eine Person 24 Stunden am Ort des Meßpunktes auf dem Kraftwerksge- ländes aufhält. Nun sind 48 Milli-Sievert ein Hundertstel der letalen Dosis von 5 Sievert, wo es gefährlich wird. Die Dosis 5 Sievert führt zur Strahlenkrankheit, wobei 50% der Menschen an der Strahlenkrankheit sterben.

Mit diesem Diagramm wird klar: Niemand innerhalb und außerhalb des Kraftwerksgeländes konnte eine für die Gesundheit gefährliche Strahlendosis erhalten. Und in den Kraftwerksgebäuden gibt es nur ausgebildete Personen, die wegen ihrer Meßgeräte Gefahrenstellen  meiden konnten. Damit war klar, daß es durch den Un- fall keine Gefährdung von Menschen durch die frei gesetzte Radioaktivität geben konnte.

Das wurde bestätigt durch Mitarbeiter der IAEA (Wiener Atomenergie-behörde), die im Mai 2011 nach Japan gereist sind und dort gemessen haben. Es wird durch den Unfall keine gesundheitlichen Schädigungen von Personen durch frei gesetzte Radioaktivität geben, so hieß es in einem vorläufigen Bericht der IAEA vom

1.6.2011. Auf der EIKE-Seite wurde eine Zusammenfassung  des Berichtes von mir Anfang Juni 2011 eingestellt und ist dort abrufbar.

In deutschen Medien war nichts von den aufschlußreichen täglichen Veröffentlichungen der Strahlungsmessun- gen in Fukushima zu finden. Nur im Münchner Merkur war einmal ein Diagramm wie Bild 3 zu finden, Herrn Dirk Ippen sei Dank dafür.

Die Strahlenschutzgesetze  verlangen nun, daß auch vor Strahlung zu schützen ist, die KEINE Gefährdung der Menschen zur Folge haben kann. Daher wurde schon am 11. März damit begonnen, die Bevölkerung in der Umgebung des Kraftwerkes zu evakuieren. Über 100 000 Menschen wurden insgesamt aus ihren Häusern vertrieben oder gingen aus Strahlenangst auch freiwillig. Viele mussten lange Zeit in Massenunterkünften  leben, was für die Betroffenen eine Katastrophe bedeutete. In der deutschen Fachzeitschrift StrahlenschutzPRAXIS heißt es dazu:

Fukushima war keine radiologische Katastrophe, sondern es war eine soziale Katastrophe.

Nicht die Strahlung führte in Japan zu gesundheitlichen Problemen, sondern die Evakuierungen führten zu Problemen und auch zu sehr vielen Todesfällen.

Es wurden die Krankenhäuser und Altenheime evakuiert, mit schlimmen Folgen für die betroffenen Menschen. Nach anfänglichem Zögern wurden sogar die Intensivpatienten  aus den Krankenhäusern abtransportiert, mit unmittelbar tödlichen Folgen für rund 50 Patienten. Das ist durch Gesetz verordneter Totschlag.

Die aus Altenheimen abtransportierten Patienten wurden in andere Heime verlegt. Da aber dazu Platz fehlte, wurden sie oft umeinander gekarrt, von einem Ort zum nächsten Ort. Die Sterblichkeit der alten Leute stieg auf das 4-fache an, siehe Bild 4.

Bild 4: Anstieg der Todesfälle in Altersheimen um 300% durch die Evakuierungen [3]

In allgemein zugänglichen Medien herrscht Schweigen zu den sozialen Folgen von Fukushima. Nur in SPIEGEL wurde von 150 bis 600 Todesopfern durch die Evakuierungen berichtet. In der Fachzeitschrift Strahlenschutz- PRAXIS berichten Michel, Völkle und Lorenz:

Der Fukushima-Unfall brachte keine Schädigungen der Menschen durch die Strahlung, aber die Evakuierungen hatten mehr als 1000 tödliche Strahlenschutzopfer zur Folge.

Diese Zahl aus dem Kreise der Fachleute dürfte der Wahrheit am nächsten kommen:  Die Menschen wurden per Gesetz vor Strahlung geschützt, und dieser Schutz führte für viele zum Tod.

Viel wichtiger als der Strahlenschutz wäre daher ein Schutz vor den Strahlenschützern.

Als Beleg einige Beispiele zu den Folgen der unsinnigen Strahlenschutzgesetzgebung: Beispiel 1:

Bild 5: Strahlendosis durch freigesetzte Radioaktivität, Summe bis März 2012, [2]

Die freigesetzte Radioaktivität  verursachte in der Umgebung von Fukushima eine Bodenkontamination.  Es wur- den in Fachmedien sowohl die Verteilung der Bodenkontamination  wie auch der Dosis für Menschen darge- stellt. Bild 5 zeigt die aufsummierte Dosis im ersten Jahr nach dem Unfall für Personen, wenn sie sich das gan- ze Jahr dort im Freien aufhalten würden. Der Mensch lebt jedoch überwiegend in Häusern, daher ist es vernünf- tig, die in Bild 5 angegebenen Dosen durch 10 zu dividieren, um zu realen Dosiswerten für die Bevölkerung zu gelangen.

Um die Bedeutung einer Dosis von 20 bzw. 2 Milli-Sievert einzuschätzen ist ein Vergleich notwendig. Dazu soll die zusätzliche Strahlendosis beim Fliegen dienen. Auf unserer Breite hat man in Reiseflughöhe von 12km ei- nen Strahlenpegel – das ist die Dosis pro Zeiteinheit, also die Ortsdosisleistung  – der rund das 100-fache von derjenigen unten am Boden beträgt. Die Strahlung ist mit der Aktivität der Sonne variabel und vom Breitengrad abhängig. Beim fliegenden Personal der Lufthansa summiert sich die Strahlendosis in einem Jahr auf maximal rund 10 mSv, wenn es überwiegend die Nordatlantikroute fliegt. Der Mittelwert der Zusatzdosis vom gesamten Lufthansapersonal liegt bei 2 mSv. Diese zusätzlichen Bestrahlungsdosen  werden jedes Jahr veröffentlicht. Es wurden also in Japan Menschen wegen einer Dosis evakuiert,  die beim Lufthansaperso- nal erlaubt ist, nur spricht man bei Lufthansapersonal und den Passagieren im Flieger nicht von „Verstrahlung“. Bild 6 zeigt ein Beispiel der Flugzeuge über dem Nordatlantik zwischen USA und Europa.

Bild 6: Flugradar vom 30.8.2019 um 7:50 Uhr MEZ. [5]

In jedem dieser Flugzeuge sitzen 100 oder 200 oder mehr Menschen und werden „verstrahlt“. Bei ihnen ist die „Verstrahlung“ erlaubt, nicht jedoch in Fukushima, daher wurden die Menschen evakuiert.

Beispiel 2: In Deutschland wurden unter der damaligen Bundesministerin Frau Ilse Aigner die Grenzwerte für Lebensmit- telkontamination  herab gesetzt auf 600 Bq/kg durch Cs-137. Noch heute muß immer wieder Wildschweinfleisch entsorgt werden, das vom Tschernobyl-Unfall kontaminiert wurde. Die Rechnung zeigt: Wer derart kontaminier- tes Fleisch von Wild verspeist, erhält durch verspeiste 100 Bq Cs-137 eine Zusatzdosis von 0,0014 mSv. Diese Zusatzdosis ist identisch mit der Zusatzdosis von 15 Minuten Flug auf unserer Breite in Reiseflughöhe.  Die Be- grenzung der Lebensmittelkontamination  ist unsinnig, denn bei einer Flugreise werden viel höhere Strahlendosen erreicht. Die Herabsetzung der Grenzwerte war politisch bedingt, sie erzeugt unbegrün- dete Strahlenangst. Seit Frau Aigner Ministerin wurde, ist sie für mich als Bürger unerreichbar, Briefe werden von ihrem Büropersonal mit „Danke“ plus den üblichen nichts sagenden Sätzen beantwortet.

Beispiel 3: In Japan hat man sehr strenge Vorgaben beim Strahlenschutz: Es wurden weite Gebiete rund um das Kraftwerk dekontaminiert, d.h. die oberen 10cm Boden abgetragen. Dieser Boden steht dort jetzt in riesigen Säcken ein- gefüllt in der Landschaft, es sind etwa 30 Millionen Kubikmeter. Ziel dieser Maßnahme war es, die Ortsdosis- leistung auf 0,0001 bis 0,0002 mSv pro Stunde herab zu drücken. Im Flugzeug bei uns und desgleichen in Japan auf Reiseflughöhe hat man rund 0,006 mSv/h oder noch mehr, also einen zig-fach höheren Strah- lenpegel, mit dem die Passagiere „verstrahlt“ werden dürfen. (siehe Bild 6). Der befohlene Bodenabtrag in Japan rund um Fukushima ist nicht sinnvoll.

Beispiel 4: Es werden in Japan gigantische Anstrengungen gemacht, damit ein Einsickern von kontaminiertem Grundwas- ser ins Meer verhindert wird. Den bisherigen Verlauf der Kontamination vom Meerwasser mit Jod-131 nach dem Unfall zeigt Bild 7:

Bild 7: Verlauf der im Meer vor dem Kraftwerk gemessenen Radioaktivität durch Jod-131, HWZ 6d. [2]

Der dicke schwarze Strich in Bild 7 ist der in Japan geltende Grenzwert, er wurde zu Anfang überschritten, dann wurde die Radioaktivität im Meer verteilt und klang an den Meßstellen ab.

Zum Vergleich: Es gibt Radon-Heilbäder, wo die Patienten Heilung erfahren durch die Strahlung des Radons. Die Wettinquelle in Bad Brambach hat einen Radongehalt von 25 000 Bq/Liter (grün in Bild 7). In Gebieten mit Urgestein enthält das Trinkwasser z.B. 1000Bq Rn/Liter, das ist in nordischen Ländern der Fall, z.B. Finnland. Wieder ist der festgelegte Grenzwert politischer Natur, denn bei Konzentrationen der Radioaktivität  in Heilbä- dern erfahren die Patienten heilende Effekte. Dabei ist noch zu berücksichtigen: Die biologische Wirksamkeit der alpha-Strahlung des Radon ist 20-mal höher als diejenige von beta- oder gamma-Strahlung wie bei J-131.

Japan wirft bei den Aufräumarbeiten gigantische Geld-Beträge zum Fenster hinaus, um die belanglose Kontamination vom Erdreich und vom Meerwasser zu verringern.

Die Strahlenschutzgesetzgebung gilt nur für den Umgang mit Kernbrennstoffen. Sie gilt NICHT für Höhenstrah- lung, Bodenstrahlung oder im medizinischen Bereich. Das ist ein Fehler in der Gesetzgebung.

Die Folgen der Strahlenhysterie in Deutschland:

·     Ausstieg aus der sicheren Stromversorgung durch Abschaltung der Kernkraftwerke

·     Sicherheitszonen um die KKW‘s: von  2/10/25km   auf   5/20/100km erweitert

·     Schaffung eines Strahlenschutzgesetzes, also Höherstufung der „Strahlengefahr“

·     Neue Strahlenschutzverordnung: bisher ca. 100 Seiten, jetzt ca. 600 Seiten

Dieses sind alles Maßnahmen der Politik, es sind keine Forderungen der Strahlen-Fachleute. In einem persön- lichen Mail hat der damalige Präsident der Strahlenschutzkommission,  Herrn Prof. Wolfgang-Ulrich Müller die Erweiterung der Sicherheitszonen als Forderung der Politik bestätigt. Man darf davon ausgehen, daß das neue Strahlenschutzgesetz  und die neue Strahlenschutzverordnung  politische Maßnahmen sind, um die Strahlen- hysterie in Deutschland zu erhalten und damit den Ausstieg aus der sicheren Stromversorgung zu begründen.

Die Strahlenschutzgesetzgebung sollte dringend korrigiert werden, denn durch sie wird keine reale Ge- fahr abgewehrt. Diese Forderung wurde bereits weltweit von unzähligen Wissenschaftlern in mehreren 1000 Veröffentlichungen begründet. In Deutschland herrscht dazu Stille in den allgemeinen Medien, nur wenige Fachleute – nicht die „Experten“ – wissen Bescheid und äußern sich dazu.

Wie konnte zu der als falsch kritisierten Strahlenschutzgesetzgebung kommen?

Die heutigen Kenntnisse zur schädlichen Wirkung von Strahlung beruhen auf den Untersuchungen an den Überlebenden der Kernwaffenexplosionen  von Hiroshima und Nagasaki. Es hat sich dort eine Zunahme des Krebsrisikos ab etwa der Dosis 0,5 Sievert gezeigt, siehe Bild 8 und 9.

Bild 8: Zunahme des Krebsrisikos bei den Überle- benden in Hiroshima und Nagasaki [6]

 

Bild 9: Excess relative risk = f (Dosis) Hiroshima und Nagasaki mit Meßungenauigkeit

Die recht eindeutige lineare Abhängigkeit in Bild 8 ohne Angabe der Fehlergrenzen ist störend, daher wurden aus Arbeiten verschiedener Autoren die Diagramme auf einem Blatt in Bild 9 dargestellt, wenn Rückschlüsse auf die Fehlergrenzen durch die Vertrauensbereiche möglich waren. Der Zusammenhang  in der Zunahme des Krebsrisikos ist klar, die Steigung der Geraden ist ungewiß.

Man schließt aus dem bei hoher Dosis ab ca. 0,5Sv sichtbaren linearen Zusammenhang,  daß auch bei beliebig kleiner Dosis von 1mSv noch ein Krebsrisiko besteht. Zusätzlich man macht die Annahme, daß dieses Risiko unabhängig von der Zeit sei, in welcher die Dosis einwirkt. Das heißt, die in kurzer Zeit wie bei der Explosion festgestellte  Wirkung zum Krebsrisiko sei auch vorhanden, wenn sich dieselbe Dosis über lange Zeit aufsum- miert. Das ist eine unbeweisbare Annahme, sie hat sich eingebürgert und bestimmt weltweit die Strahlen- schutzgrundsätze:

Jede noch so kleine Dosis ist schädlich und daher zu vermeiden.   (§28 StrlSchV1989)

Der Fehler dieser Annahme wird ersichtlich beim Vergleich mit der Wirkung des Giftes und Kanzerogens Etha- nol: Eine Flasche Schnaps in Minuten hinunter gekippt ist schädlich, vielleicht sogar tödlich. Die gleiche Dosis über ein ganzes Jahr ist aber nicht schädlich.

Mit der Annahme des hypothetischen Risikos jeder noch so kleinen Dosis werden häufig hypothetische Todesopfer berechnet. Das geschieht bei Strahlung infolge Kerntechnik, niemals jedoch infolge Zusatzbestrah- lung durch Flugreisen oder im medizinischen Bereich.

Es gibt immer wieder bedeutende Stimmen, die Kritik an diesem Vorgehen mit Strahlung äußern. So sagten einige Mitglieder der International Commission on Radiological Protection ICRP zum Strahlenrisiko bei kleiner Dosis: Es ist „speculative, unproven, undetectable and „phantom“ [7]. Ein Phantom ist ein Geisterbild oder Gespenst.

Deutschland glaubt an diese Gespenster und steigt daher aus seiner Stromversorgung aus.

Die Fehler der Strahlenschutzgesetze sind den Authoritäten in Sachen Strahlung in Deutschland (und weltweit) bekannt, aber sie schweigen, denn sie werden für das SCHÜTZEN bezahlt.

Der Gesetzgeber sind bei uns die Abgeordneten im Bundestag. Es sind Menschen, und Menschen können ir- ren. Der Blick in die Geschichte zeigt immer wieder Irrtümer des Gesetzgebers.

Der Unfall von Tschernobyl in 1986

Der Tschernobyl-Reaktor  ist etwas ganz anderes als alle anderen Reaktoren in der westlichen Welt. Er ist mit Graphit moderiert und mit Wasser gekühlt, und das birgt von Haus aus Gefahren. Rußland hat gezeigt, daß man den Reaktor sicher betreiben kann, wenn man alle Vorschriften beachtet. Das hatte man jedoch 1986 nicht gemacht und den Unfall verursacht. Mit Graphit moderierte und mit Wasser gekühlte Reaktoren gab es in den 1940-er Jahren in den USA ebenfalls, aber sie wurden bald still gelegt, weil man die Gefahren erkannte.

Ursprünglich waren die Reaktoren dieser Bauart zur Produktion von Waffen-Plutonium konstruiert worden, in den USA wie auch in Rußland. Während in den USA diese Reaktoren wegen der ihnen innewohnenden Gefah- ren bald still gelegt wurden, hatte man sie in Rußland zur Stromerzeugung optimiert. Heute gibt es in Rußland noch 10 Reaktoren des Typs Tschernobyl mit jeweils 1000 MWel in Betrieb. Die 2 Reaktoren dieser Art in Li- tauen wurden auf Forderung der EU still gelegt, um dem Land die Aufnahme in die EU zu ermöglichen.

Der Unfall von Tschernobyl geschah während eines Versuches, den man beim Abfahren des Reaktors machen wollte. Dabei wurden Fehler gemacht und mehrfach wichtige Warnsignale nicht beachtet. Es kam zu einer Leis- tungsexkursion und der Reaktor wurde zerstört. Es gab mehrere Brände, konventionelle  sowie ein Brand des durch nukleare Wärme aufgeheizten Reaktorgraphits. 10 bis 20% des radioaktiven Inventars wurden freigesetzt und mit den Rauchgasen in große Höhen transportiert und mit dem Wind weiträumig verteilt.

Es gab Todesopfer in Tschernobyl: Von den 134 Strahlenkranken starben 28 Personen als Folge der Strahlen- krankheit. Diese Todesopfer waren überwiegend Feuerwehrleute der ersten Stunde, es wurde dort offensicht- lich nicht auf die Strahlengefährdung geachtet [9].

Hätte man diese Feuerwehrleute mit Strahlungsmeßgeräten versehen, bzw. nicht in die Bereiche mit hoher Strahlung geschickt, dann wären sie nicht erkrankt und es hätte auch keine Todesopfer gegeben.

Aus der Umgebung des Reaktors mit dem Radius von 30km wurden etwa doppelt so viele Menschen evakuiert wie in Fukushima. Wenn man die Daten von Fukushima als Vergleich heran zieht, kann man auf mehr als 2000 Todesopfer durch die Evakuierung schließen – dazu wurde in Medien geschwiegen.

Auch in Tschernobyl gab es mehr Evakuierungsopfer als Strahlenopfer

Bild 10: Bodenkontamination mit Cs-137 in der Umgebung des Reaktors [8]

Eine Bodenkontamination  von 10MBq Cs-137/km² hat einen Strahlenpegel von 0,02mSv/h zur Folge. Das ist zu vergleichen mit dem Strahlenpegel im Flugzeug: Auf Reiseflughöhe in Deutschland sind es 0,006mSv/h, beim Flug nach New York werden in höherer Breite auch 0,01mSv/h erreicht (je nach Aktivität der Sonne).

Auch in Tschernobyl waren die Evakuierungen eine Folge der unsinniger Strahlenschutzgesetzgebung. Hätte man die Evakuierungen nicht gemacht und die Menschen in ihrer Heimat belassen, dann hätte man zwar Gesetze mißachtet, nicht jedoch den Menschen geschadet.

Die heutigen Strahlenwerte in der Umgebung von Tschernobyl kann man im Internet über die dort inzwischen installierten automatisierten Meßstellen  aufrufen, siehe Bild 11:

Bild 11: Ortsdosisleistung am 13.1.2016 in der „Todeszone“ von Tschernobyl, gemessen in nSv/h [10]

Die Strahlung ist jetzt gesunken, aber gegenüber der Zeit vor dem Unfall immer noch erhöht, das wird noch sehr lange Zeit so bleiben. Sie erreicht aber NICHT den Strahlenpegel im Flugzeug, der bei uns 100-fach höher ist als am Boden.

Um die Ruine des zerstörten Reaktors wurde 1986 ein erster Sarkophag gebaut. Inzwischen wurde noch ein 2- ter Sarkophag über den ersten gebaut. Den Bau konnte man zeitweise verfolgen [10], hier einige Bilder:

Bild 12: 2-ter Sarkophag am 20. Juni 2013

 

Bild 13: 2-ter Sarkophag am 27.1.2014

Der Bau kostete über 2 Mrd. EURO. Er wiegt das 3-fache vom Eifelturm. Durch diesen Bau soll verhindert wer- den, daß Radioaktivität  aus den Kellerräumen vom geschmolzen Kernmaterial in die Umwelt gelangt [11]. Auch das ist eine Maßnahme, die nicht als Schutz vor Strahlung gerechtfertigt werden kann, denn das Material unten im Keller ist ausgeglüht, alle Elemente mit niedrigem Schmelz- und Siedepunkt sind schon entwichen. Es ist sinnvoll, Menschen am Einzudringen in die Ruine zu hindern, mehr ist nicht erforderlich.

Ein Betretungsverbot und ein Zaun in 100 Meter Entfernung rund um die Ruine hätten zum Schutz der Menschen ausgereicht. 2 Mrd. EURO könnte man auch sinnvoller verwenden, zum Beispiel zur Versor- gung der Bevölkerung im medizinischen Bereich.

Im Kontrollraum des Unglückreaktors hat man heute einen Strahlenpegel  wie im Flugzeug: 0,006mSv/h. Herr Dr. Walter Rüegg aus der Schweiz konnte dieses bei seinem Besuch dort im Jahre 2015 messen.

Der Tschernobyl-Unfall war die schlimmste Katastrophe in der friedlichen Anwendung der Kerntechnik. Durch das spezielle Risiko der Kerntechnik – das ist die Strahlung – verloren 28 Menschen ihr Leben, und das auch nur weil die Feuerwehrleute ungeschützt in die brennende Ruine geschickt worden sind.

Zu Tschernobyl-Opfern gibt es von den Fachmedien viele verschiedene Zahlen, dazu hat Frau Dr. Anna Vero- nika Wendland eine exzellente  Zusammenfassung  geschrieben [12]. Es wird empfohlen, diese Fleißarbeit zu beachten, Frau Wendland kennt viele KKW’s bestens von innen.

Als Schlagzeile findet man oft Angaben von hypothetischen Opfern durch Strahlung, die aufgrund der Annahme „jedes Becquerel kann töten“ – siehe oben – berechnet wurden. Auf der Tagung von IAEA und WHO in Wien „20 Jahre nach Tschernobyl“ hatte man sich auf 4000 virtuelle Todesopfer geeinigt. Wenn man diese Berech- nung akzeptiert, dann sollte man diese Berechnung von virtuellen Todesfällen auch auf die Zusatzbestrahlung beim Fliegen anwenden und dsgl. mit anderen Risiken machen und sagen:

Die Zusatzbestrahlung beim Fliegen ergibt weltweit jährlich 5000 virtuelle Krebstodesopfer.

Und wenn man aus der Dosisabhängigkeit  des Krebsrisikos beim Alkoholkonsum dieselben Berech- nungen macht wie bei Strahlung, dann kann man jährlich 2 Millionen virtuelle Krebstodesopfer durch Alkohol allein für Deutschland ausrechnen – es sterben in Deutschland aber nur ca. 800 000 Pers./a.

Dieser Vergleich zeigt die Unsinnigkeit solcher Rechnungen, egal bei welchem „Schadstoff“ und in welchem Zusammenhang  sie gemacht werden (siehe z.B. aktuell das Thema Stickoxid beim Diesel).

Und jetzt kommt der Hammer:

Strahlenhysterie verhindert die nukleare Abrüstung von 34 t Waffen-Plutonium in der USA

Vor langer Zeit hatten Gorbatschow und Reagan eine nukleare Abrüstung eines Teiles des nuklearen Waffen- materiales vereinbart. Das spaltbare Uran-235 wurde inzwischen verdünnt und in Kernreaktoren zur Stromer- zeugung eingesetzt, diese Gefahr ist beseitigt. Etwas schwieriger gestaltet sich die Abrüstung vom Plutonium, je 34 Tonnen aus USA und Rußland müssen abgerüstet werden. In Rußland gibt es dazu keine Probleme, es kann im Natrium-Brüter eingesetzt werden, denn Rußland beherrscht diese Technik.

In den USA sieht es anders aus, denn seit der Präsidentschaft von Carter wurden viele Aktivitäten im nuklearen Bereich eingestellt: Es gibt keine Wiederaufarbeitung der eingesetzten Brennelemente,  es gibt kein Programm zum geschlossenen Brennstoffkreislauf mit Schnellem Brüter. Um daher das Waffen-Plutonium der USA im Reaktor einzusetzen und so zu beseitigen, sind Brennelemente aus einem Gemisch von Plutoniumoxid und Uranoxid herzustellen, das nennt man MOX-Brennelemente.  Die Technik wurde in Deutschland entwickelt, Siemens hatte in Hanau eine neue MOX-Anlage gebaut. Mit dieser Anlage hätte man die 34 Tonnen Waffen- Plutonium der USA in 6 Jahren in MOX-Elemente einbringen können, um sie dann im Reaktor zur Stromerzeu- gung zu benutzen und das Waffen-Plutonium so zu beseitigen.

Diese neue Anlage in Hanau hatte keine Aussicht, in Betrieb gehen zu können, weil zur Zeit ihrer Fertigstellung Joschka Fischer in Hessen Minister geworden war. Eine Genehmigung zur Inbetriebnahme war ohne Aussicht. Siemens hat die Anlage schließlich wieder abgebaut, sie stand einige Jahre in Hanau im Hof in Containern ver- packt. Auch ein angedachter Verkauf an China gegen ein Spottgeld war aussichtslos. Schließlich wurde die Anlage verschrottet [13].

Da die Verpflichtung der USA zur Abrüstung der 34 Tonnen Plutonium wegen der abgeschlossenen Verträge weiterhin besteht, wurde in den USA der Bau einer eigenen MOX-Anlage in Savannah River Site in South Carolina in Angriff genommen. Diese Anlage ist zu 70% fertig, aber in 2018 wurde der Bau wegen Kostenexplo- sion eingestellt. Der Grund der Kostenexplosionen  ist in immer neuen Auflagen der Behörden zu sehen, die wiederum eine Folge der weltweit grassierenden Strahlenangst ist. Bild 14.

Bild 14: Kostenexplosion bei MOX-Anlagen, Vergleich Deutschland – USA

Die MOX-Anlage in Hanau hatte etwa 1 Mrd. DM gekostet, die wesentlich kleinere und zu 70% fertige Anlage in den USA hat schon 17 Mrd. US$ verschlungen und würde bis zur Fertigstellung ca. 50 Mrd. US$ kosten [14].

Aus 34 Tonnen Waffen-Plutonium könnte man 2000 Nagasaki-Bomben bauen, oder bei modernster Waf- fentechnik ein Vielfaches davon. Hoffen wir, dass es gut bewacht wird und niemals in falsche Hände gerät — das wäre eine wirkliche Gefahr, >1000-fach größer als die friedliche Nutzung der Kerntechnik.

Es läuft einiges falsch mit der Kernenergie, besonders in Deutschland. Der Grund sind falsche Gesetze, mit denen eine nicht existierende Strahlengefahr abgewehrt werden soll (§28 StrlSchV1989). Gesetze werden von Menschen gemacht und Menschen können irren. Das ist beim Strahlenschutz sicher der Fall. Der Kernenergieausstieg ist eine Folge der jahrelang geschürten Strahlenangst. Fachleute der Strahlenbiologie und aus der Kernenergiebranche protestieren gegen diese falschen Gesetze, aber sie kommen nur auf ihren Fachtagungen oder in ihren Fachzeitschriften zu Wort. Die hauptamtlichen Strah- lenschützer sehen die Dinge teilweise anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Massenmedien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich. Manchmal wird daher von Lückenmedien oder Lügenmedien gesprochen.

Literatur

[1] Gerlich & Tscheuschner, Falsifizierung der atmosphärischen CO2 –Treibhauseffekte im Rahmen der Physik [2] www.grs.de und Fachtagung „Strahlenschutz – Ein Jahr nach Fukushima“ des FS, am 8./9.3.2012, in Mainz [3] www.ncbi.nim.gov/pmc/articles/PMC3608616

[4] StrahlenschutzPRAXIS 4/2018, Seite 10 bis 21

[5] https://www.flightradar24.com

[6] Strahlenschutz, Radioaktivität und Gesundheit, 4. Auflage 1991, BtMLU, ISBN 3-910088-82-1

[7] J Radiol Prot. 2013 Sep;33(3):497-571

[8] “Radioaktivität,  Risiko – Sicherheit”, Kernforschungszentrum Karlsruhe 1991

[9] Bericht der sowjetischen Delegation auf der Konferenz am 25. – 28.8.1986 bei der IAEA in Wien

[10] https://chnpp.gov.ua/ru/home

[11] Buch von Anatoly N. Tkachuk „Ich war im Sarkophag von Tschernobyl“

[12] https://nuklearia.de/2017/04/25/tschernobyl-fakes-und-fakten/ [13] Wolfgang Stoll „Plutonium in Hanau“, ISBN 978-3-939033-18-9 [14] www.nukeklaus.net  verschiedene Bericht zum Thema „Plutonium“

 

TU-BERLIN Erläuterungen zur Vorlesung TWK an der TU-Berlin
Inst. f. Ökologie
(1998-2016)
LV-TWK-Kehl
von PD Dr. habil. H. Kehl ZM45
StartPage / Startseite für die LV Vegetationsökologie Tropischer & Subtropischer Klimate
back A2-12
Das zyklische Auftreten von Optima und Pessima im Holozän
Average near-surface temp. of the northern hemisphere ..
Holocene climate dynamics during the past 9000 years
Rückzug und Vordringen des Aletsch-Gletschers
Andere Gletscher im Pamir Tajikistans
Optima und Pessima im Holozän
„(…) recent climate stability may be the exception rather than the rule.“ Dansgaard et al. (1993)
Abb. A2-12/01:

Überblick zu den holozänen Optima und Pessima (nur Temperaturen) im wesentlichen der nördlichen Hemisphäre, ohne hypothetische Kaltzeittrends und Spekulationen über „mögliche Zukünfte“ ( Hans von Storch in einem Interview 2009). Die Anpassungen beziehen sich ausschliesslich auf grafische Aspekte und die Beschriftung.

Lit.-Angaben zur Abb. vgl. unter Schönwiese (1994a) Klimatologie (Lehrbuch),    Schönwiese (1994c, S. 66: Abb. 10, mit eingezeichnetem Kaltzeittrend, hypothetisch), Schönwiese (1995), S. 92, Abb. 25 und Schönwiese (2019) Abb. 16, S. 61). Bzgl. verwendeter Datenquellen wird von Schönwiese (2019, S. 61) insbesondere Clark (1982) genannt, i.d.R. jedoch auf das von ihm verfasste Lehrbuch (1994a) und nicht näher definierte „zahlreiche Primärquellen“ (1994c, S. 238) verwiesen. Als wesentliche Quellen werden von Schönwiese u.a. genannt: Dansgaard & Johnsen (1969) Dansgaard et al. (1969).

Siehe auch „Der Klimawandel in Vergangenheit und Zukunft – Wissensstand und offene Fragen,“ von LinkSchönwiese (2008), in: AMOSINTERNATIONAL 2. Jg., Heft 1 und A Reconstruction of Regional and Global Temperature for the Past 11,300 Years“ (2013). Weiterführende Infos finden Sie ausserdem unter: „Klima- u. Vegetationsgeschichte SO-Europas sowie des östl. Mittelmeerraums“ inkl. Eintragung des hypothetischen Kaltzeittrends und vieler weiterer Lit.-Angaben.

Eine durchaus lesenswerte und kritische Auseinandersetzung von Helmut Kuntz (2016) mit der bisherigen Temperaturrekonstruktion findet sich auf der oppositionellen Website von EIKE unter dem Titel: „Die Problematik der Temperaturrekonstruktion. Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k.“

[last date of access: 15.11.2019]

Abb. A2-12/02:

Figure … The combined oxygen isotope signal from Spannagel covering the past 9,000 years (black) together with the HSG curve from core V29-191 (red, reversed scale). The HSG curve from sediments in the N. Atlantic has been discussed earlier [Bond et al., 2001]. For better comparison with COMNISPA, the HSG curve was detrended -13%/9,000 yr) and tuned to the COMNISPA curve applying the program AnalySeries1.1 [Paillard et al., 1996]. Tuning yields a correlation coefficient of r = 0.71, which is comparably high for geological data. The untuned curves are shown in auxiliary Figure S11. The tuning of the peaks was performed within the range allowed by the uncertainty of the 14C ages of the HSG record [Bond et al., 2001] (…).“ (Mangini et al. (2007) Persistent influence of the North Atlantic hydrography on central European winter temperature during the last 9000 years. GEOPHYSICAL RESEARCH LETTERS, VOL. 34.)

Siehe auch die Forschungsergebnisse im Rahmen von Link PAGES (Past Global Changes): [date of access: 15.11.2019]
Die oben vorgestellen Rekonstruktionen der Temperaturentwicklung – auch in Verbindung mit den PAGES 2k-Resultaten und der nachgewiesenen Gletscherdynamik in den europäischen Alpen – widersprechen wesentlich jenen unrealistischen Vereinfachungen, zutreffender jedoch dreisten Manipulationen, welche als „Hockeystick-Kurve“ eine zweifelhafte Berühmtheit erlangten.
Rückzug und Vordringen von Alpen-Gletschern am Beispiel des Aletsch-Gletschers:
Abb. A2-12/03:

Ausdehnung und Rückzug des LinkGrossen Aletsch-Gletschers in den Alpen, verändert nach Holzhauser et al. (2005) undJoerin et al. (2006).

Deutlich zu erkennen ist die Phase weit zurückgezogener Gletscher während des Römischen Optimums und der Mittelalterlichen Warmzeit. Bitte beachten Sie, dass die Schwankungsbreiten stark überzeichnet wurden und die Länge des Grossen Aletsch-Gletschers seit der LIA nur um etwa 10% abgenommen hat.

Lt. Expertenkommission für Kryosphärenmessnetze (EKK) der Akademie der Naturwissenschaften Schweiz (SCNAT) betrug 2011 die Länge des Gletschers etwa 22,75 km. Vgl. LinkThe Swiss Glaciers, 2005/06 and 2006/07, Glaciological Report (Glacier) No. 127/128, 2011„. 101 S.

Nach Holzhauser (1995) war der Grosse Aletsch-Gletscher zum Ende der Kleinen Eiszeit etwa Mitte des 19. Jahrhunderts (siehe Abb. A2-12/03) talabwärts noch rund 2,5 km länger und tw von grösserer Mächtigkeit. [date of access: 17.02.14]

Nach LinkH. Aspöck (2008) „Usually it is believed that the present Alpine glaciers are the remnants of the huge glaciers of the latest glacial period; however, most probably this is not true, since most probably the glaciers in the Alps had totally disappeared during the Atlanticum, and we definitely know that the timber-line in the Alps was considerably higher 6,000 years ago.“

Aus: LinkPostglacial formation and fluctuations of the biodiversity of Central Europe in the light of climate change 4 S.- Vector-Borne Diseases: Impact of Climate Change on Vectors and Rodent Reservoirs, Berlin, 27 & 28 September 2007, Bundesministerium für Gesundheit und UBA). [date of access: 22.11.12]

Weitere Infos zur Dynamik alpiner Gletscher während des Holozäns:
Andere Gletscher, Beispiel Tajikistan, Pamir-Hochgebirge:
Abb. A2-12/04 – a/b/c:

Gletscher in Tajikistan (Pamir-Hochgebirge): Der LinkFedchenko Gletscher mit einer Länge von 77km, einer Fläche von 700km² und einem Eisvolumen von 144km³ ist der längste und grösste Gletscher ausserhalb der Polarregionen (Fotos a und b). Nach Angaben des HydroMed-Dienstes Tajikistans wurde bei diesem Gletscher nur ein leichter Rückzug beobachtet (genaue.Angaben liegen jedoch nicht vor; lt. Wikipedia hat der Gletscher im gesamten 20. Jhd. etwa 1km seiner Länge eingebüsst). Der Gletscher erstreckt sich von 6.200m a.s.l. bis 2.900m a.s.l. Gletscher in dieser Höhe zeigen i.d.R. kaum Anzeichen für Rückzüge als Folge der Klimaerwärmung.

Kleinere Gletscher tieferer Lagen, hier ein kurzer – namenloser – Gletscher mit etwa 1.800m Länge in einem steilen Hang (Foto c) zeigen dagegen während der Sommermonate starke Abschmelzungsprozesse.

Kleine Auflistung holozäner Klimaschwankungen: 1*
Eine ausführlichere und ergänzte Tabelle finden sie HIER
(zu Altersangaben „BP“ und „BC“ vgl. Sie bitte Wikipedia! und die Anmerkung unten)
BP *2
BD *2 Phasen / Perioden
ca. 11.500 – ca. 8.500 ca. 9.500 – ca. 6.500 Generell humide Phase im Bereich der Sahara Afrikas, (White & Mattingly 2006, SDW, Sept.: 46-53) – Vgl. Sie dazu auch die Abb. mit postglazialen ariden und humiden Phasen in der Sahara!
ca. 9.700 ca. 7.700 Humide Phase in Afrika: der Tschadsee hat etwa die Grösse des Kaspischen Meeres erreicht (Science, 18.10.2002, e.g. Thompson et al. 2002) – Vgl. Sie dazu auch die Abb. mit postglazialen ariden und humiden Phasen in der Sahara!
ca. 9.200 – ca. 5.700 ca. 7.200 – ca. 3.700 Optima des Atlantikum als wärmster Abschnitt des Holozän, Temp. in der nördlichen Hemisphäre etwa 1 bis 2 K höher als heute, jedoch ähnlich feucht wie heute (nach Berner & Streif 2000: 135); nach Schönwiese (1995) wird das Atlantikum in 3 Maxima (7-6 ka BP, 4-5 ka BP und 3 ka BP) aufgeteilt.
ca. 8.300 –
ca. 7.800
ca. 6.300 –
ca. 5.800
ca. 500 Jahre Dürreperiode in Afrika, nachgewiesen im Gletschereis des Kilimandscharo. Der Tschadsee schrumpft und droht auszutrocknen (vgl. nächste Angabe für die Sahara!); – Vgl. Sie dazu auch die Abb. mit postglazialen ariden und humiden Phasen in der Sahara!
ca. 8.200
ca. 7.500
ca. 6.200
ca. 5.500
starker Kälteeinbruch (ca. 200 Jahre) begleitet von extrem ariden Phasen zwischen 8 und 7 ka BP in der nördlichen Hemisphäre (GISP2-Eiskern Grönland und Ammersee, Bayern, nach Berner & Streif 2000: 135 sowie Klimaentwicklung in der Holozän-Warmzeit, Website der BGR)
zwischen
ca. 8.000 – ca. 7.000
zwischen
ca. 6.000 – ca. 5.000
unbeständige, insgesamt aride Phase im Bereich der Sahara Afrikas, (White & Mattingly 2006, SDW, Sept.: 46-53)
ca. 7.000 – ca. 5.000 ca. 5.000 – ca. 3.000 Optimum (1. Temp.-Max. im Atlantikum nach Schönwiese) mit wesentlich höheren Durchschnittstemperaturen (um 2 bis 4 K in Europa und N-Amerika, Wintertemperaturen jedoch niedriger als heute), einer weitaus geringeren Vergletscherung als heute und einer Waldgrenze in den Alpen, die etwa 200 – 300 Meter höher lag. H. Aspöck (2007) nimmt sogar an, dass die Alpen während dieser Periode wohl völlig eisfrei waren.

Humide Phase an den äquatorseitigen Rändern der Sahara mit Ausdehnung der Savannenvegetation nach Norden, die humide Phase dauert hier von etwa 7.000 bis etwa 5.000 BP (vgl. Sie die Abb. mit postglazialen ariden und humiden Phasen in der Sahara!)

ca. 6.700 – ca. 5.500 ca. 4.700 – ca. 3.500 Lange – eher schwach – aride Phase in N-Afrika, langsamer Vegetationsrückgang im nördlichen Bereich der Sahara (nach Claussen et al., 1999)
ca. 6.100 – ca. 5.400 ca. 4.100 – ca. 3.400 Klimapessimum mit sehr niedrigen Temperaturen in der nördlichen Hemisphäre
ca. 5.440
(± 30 J.)
ca. 3.940
(± 30 J.)
Abrupter Beginn einer sehr ariden Phase in N-Afrika mit schnellem Vegetationsrückzug in der Sahara. (nach Claussen et al., 1999)
ab ca.
5.000 BP – dato:
ab ca.
3.000 BD – dato:
Beginn einer ariden Phase im Bereich der Sahara Afrikas, die bis heute anhält, (White & Mattingly 2006, SDW, Sept.: 46-53)
ca. 5.300 – ca. 4.200 ca. 3.300 – ca. 2.200 Optimum (2. Temp.-Max. im Atlantikum nach Schönwiese / bzw. Übergang zum Subboreal) mit wesentlich höheren Durchschnittstemperaturen und geringerer Vergletscherung als heute und einer Waldgrenze in den Alpen, die etwa 200 – 300 Meter höher lag, im 2. Optimum Entwicklung der ägyptischen Hochkultur; Entstehung der Anlagen von Stonehenge (in der Nähe von Amesbury in Wiltshire, England, etwa 13 Kilometer nördlich von Salisbury)
ca. 5.200 – ca. 5.000 ca. 3.200 – ca. 3.000 Dürreperiode und kühle Bedingungen in Afrika, nachgewiesen im Gletschereis des Kilimandscharo;
ca. 4.000 – ca. 3.700 ca. 2.000 – ca. 1.700 Dürreperiode in Afrika, nachgewiesen im Gletschereis des Kilimandscharo (Science, 18.10.2002, S. 589, zit. in SdW, Dez. 2002, S. 44);
ca. 4.000 – ca. 3.600 ca. 2.000 – ca. 1.600 Extrem abrupt einsetzende Dürreperiode in N-Afrika. „The transition to today’s arid climate was not gradual, but occurred in two specific episodes. The first, which was less severe, occurred between 6,700 and 5,500 years ago. The second, which was brutal, lasted from 4,000 to 3,600 years ago. Summer temperatures increased sharply, and precipitation decreased, according to carbon-14 dating. This event devastated ancient civilizations and their socio-economic systems.“ (Besprechung des Artikels von Claussen et al., 1999 in ScienceDaily)
ca. 3.500 – ca. 3.100 ca. 1.500 – ca. 1.100 Klimapessimum: ausgeprägteste Klimaverschlechterung in der Löbben Kaltphase, dokumentiert in der Schweiz durch Gletschervorstösse. „Insbesondere gelang es, die mehrteilige Löbben-Kaltphase (mehrfach) nachzuweisen. Um 4’475 ± 75 yBP sowie um 3’340 ± 80 yBP erreichten die Gletscher ihre grösste postglaziale Ausdehnung im Bereich der Oberhornalp.“ Wipf (2001)
ab
ca. 3.100
ab
ca. 1.100
Optimum (3. Temp.-Max. im Atlantikum nach Schönwiese / im Subboreal) relativ kurze Phase mit höheren Durchschnittstemperaturen und geringerer Vergletscherung als heute, wird verschiedentlich auch „Klimaoptimum der Bronzezeit“ genannt
ca. 2.900 – ca. 2.300 ca. 950 –
ca. 350
Klimapessimum am Ende der Bronzezeit bis in die Eisenzeit (mit den bisher niedrigsten holozänen Temperaturen, evtl. nur Europa). Häufig wird diese Phase auch „Klimapessimum der Bronzezeit“ genannt, vgl. u.a. Prof. Wolf-DieterBlümel (2002) siehe unten unter „Klimawandel und Kulturgeschichte“ und unter Publikationen!

In aktuellen Untersuchungen wird diese sehr kühle Phase auf die indirekten Auswirkungen einer extrem geringen Sonnenaktivität zurückgeführt, vgl.Martin-Puertas, C. et al. (2012).

ca. 350 BD –
ca. 350 AD
Römisches Optimum („Globale“ Temperaturerhöhung?) Lokale Erwärmung um ca. 4K (um 2.300-2.000 cal. year B.P., – siehe dazu Anmerkung unten! – Angaben modifiziert am 01.10.08), nach Sediment-Untersuchungen eines israelisch-schwedischen Wissenschaftlerteams in Ost-Afrika (Bergsee auf dem Mt. Kenia, Klimageschichte von 4.550 – 1.250 BP), vgl. Rietti-Shati et al. (1998) Science, Bd. 281 [Issue 5379], S.980-982;

Wesentliche Erwärmung in der nördlichen Hemisphäre. Bergbau in den Alpen, wo heute Dauerfrost herrscht – extrem starker Rückgang der Vergletscherung; die Gletscherzungen lagen mindestens 300m höher als heute (vgl. Schlüchter & Jörin, 2004); Holzhauser et al. (2005), Joerin et al. (2006) und die Abb. A2-12/03: „Ausdehnung und Rückzug des Grossen Aletsch-Gletschers in den Alpen“, verändert nach Holzhauser et al. (2005) und Joerin et al. (2006).

Hannibal gelingt es, die Alpen zu überqueren 217 BC / zweiter Punischer Krieg 218-201 BC. VonBlümel (2002) wird auf der Basis umfangreicher Untersuchungen angenommen, dass die Mitteltemperaturen in Europa während des römerzeitlichen Klimaoptimums etwa 1 – 1,5° C höher waren als heute. Teilweise höhere Temperaturen als heute für diesen Zeitraum wurden auch von dem DFG-Projekt Drama gefunden.

Eine ähnliche Vermutung äussern auch Esper et al. (2014). In einem Interview mit dem Spiegel sagte Esper: „Die historischen Temperaturen zur Römerzeit und im Mittelalter [sind] bis dato als zu kühl eingeschätzt wurden“, (…). Es sei im Durchschnitt um 0,6 Grad wärmer gewesen als vermutet – und lange Zeit wärmer als heutzutage.

Bereits um 250 AD setzte dann jedoch „eine dramatische Verschlechterung“ ein.

ca. 350 –
ca. 550
Klimapessimum der Völkerwanderungszeit; Trockenheit in Zentralasien; , Aridisierung und Abkühlung auch in Italien und Arabien, starke Ausdehnung der Gletscher im Alpenraum, verbunden mit einem Sinken der Baumgrenze. Heftige Sturmfluten an europäischen Küsten.

Schon die Wikinger sollen Angst vor einer Klimakatastrophe gehabt haben, lt. dem Runenstein von Rök. Danach gab es eine Wetteranomalie von 535/536 in NW-Europa, welche evtl. die „Legende des Fimbulwinters begründete. Damals hatten die Menschen nachweislich mit untypisch niedrigen Temperaturen, Ernteausfällen und Hunger zu kämpfen“.

ca. 750 –
(ca. 850)
ca. 1250
(ca.1150)
Mittelalterliches Wärmeoptimum, Wikinger (Normannen s.l.) besiedeln die südlichen Küstenregionen Grönlands und treiben Ackerbau; sie entdecken lange vor Kolumbus (N-) Amerika. In England, aber auch im östlichen Mitteleuropa (Ostpreussen, Pommern), entstehen zahlreiche Weinanbaugebiete.

Die landwirtschaftlichen Anbaugrenzen in den Mittelgebirgen reichen etwa 200 m höher als heute. Stärkster Rückgang des Waldes (Bork et al. 1998) und intensive Ausweitung der Ackerflächen. Die Alpengletscher haben sich fast wieder so weit zurück gezogen, wie zur Zeit des wesentlich länger andauernden „Römischen Optimums“ und die Geschwindigkeit des Eisrückzuges nach dem davor liegenden Pessimum entspricht der Dynamik nach dem Ende der „Kleinen Eiszeit“. Vgl.Joerin et al. (2006).

Die Temperaturen lagen nach Loehle (2007) vermutlich vor allem in der nördlichen Hemisphäre und regional 1 bis 1.5 K über der langjährigen Mitteltemperatur, oder entsprachen nach Cubasch et al. (2004) und Moberg et al. (2005) etwa den heutigen; Glaser (2001) vermutet dagegen, dass die aktuellen Werte bereits leicht über denen des Mittelalterlichen Wärmeoptimums liegen könnten.

Auf der Grundlage von Feldforschungen wird vonBlümel (2002: 22) dagegen angenommen, dass die mittleren Temperaturen im Vergleich zu heute um 1,5 – 2,0 °C gestiegen waren und Vermutungen gerechtfertigt sind, dass dieses Optimum auch in den Randgebieten der sommerfeuchten Tropen (Namibia) zu höheren Niederschlägen geführt hatte (ibid, S.25-26).

Übrigens: auch während dieser Zeit kam es immer wieder zu Kälteeinbrüchen in Mittel- und Nordeuropa, die mit Phasen geringer Niederschläge in Mittelamerika korrelierten und wohl zum Kollaps der klassischen Mayakultur während einer Superdürre zwischen 1.300 – 1.100 BP führten! (vgl. Peterson & Haug 2006) und Kennett et al. 2012)

ca.
1150 – 1850
Klimapessimum (Kleine Eiszeit), in Mittelamerika lange Periode geringer Niederschläge, Wikinger verlassen im 15. Jahrh. Grönland, Missernten und Hungersnöte treten in Europa auf (kühl und regenreich), Sturmfluten und Überschwemmungen sind häufig, die Getreidepreise steigen zum Ende der Kleinen Eiszeit in unermessliche Höhen – um 1805 herum, gleichzeitig sogenanntes Dalton – Minimum (Maunder – Minimum 400 – 330 BP), die Temperaturen lagen weltweit vermutlich ca. 2 K unter den heutigen; vgl. Hinweise zur Sonnenfleckenaktivität!

Zu den extremen Wettereignissen während der „Kleinen Eiszeit“ gehörte aber auch das bisher unübertroffene Dürre- und Hitzejahr 1540. Nach Wetter et al. (2014) kann kein Zweifel daran bestehen, dass diese Hitzeereignisse bei weitem die Hitzejahre dieses Jahrhunderts (z.B. 2003, 2010) übertroffen haben. Besprechung von Axel Bojanowski in SPON vom 2. Juli 2014.

1850 – dato
Erwärmung
Heftige und sehr kontroverse Diskussion darüber, ob anthropogen bedingt oder nicht, vor dem Hintergrund einer auf 7.7 Milliarden angewachsenen Menschheit (2019, Dez.).
Hier
aktuelle Zahlen zur Weltbevölkerung.
Gegenwart: ‚Modernes Optimum‘ mit leichter Abnahme der Permafrostgebiete und Zunahme der Niederschläge an den südlichen Rändern der Sahara? Satellitenbilder zeigen keine Ausweitung der Sahara (Kerr 1998, Science 31 July 1998: Vol. 281. no. 5377, pp. 633 – 634), aber gegenwärtig einen Rückgang der Wüsten Afrikas und eine Zunahme der Vegetation an den nördlichen und südlichen Rändern der Savannenzonen (Pearce, Fred 2002, New Scientist, 2002, Nr. 2361, S. 4), aber auch einen Rückgang des arktischen, nicht jedoch des antarktischen Eises.

Gleichzeitig findet eine zunehmende Degradation fragiler Böden und Vegetation durch Übernutzung statt.

Vermutlich Rückgang des arktischen, nicht jedoch des antarktischen Eises (cf Bintanja, R. et al. 2013, Berndt, C. et al. 2014, Chylek et al. 2006).

Die aussergewöhnliche Zunahme des antarktischen Eises kann hier verfolgt werden: Sea Ice Extent. Median (orange line). National Snow and Ice Data Center, Boulder, Colorado [date of last access: 15.08.2014]

1* & 2* Anmerkungen:

  • Bei der hier verwendeten Zeitangabe BP (before present) handelt es sich im Wesentlichen um Kalenderjahre vor Heute. Die Altersangabe BP wird eigentlich für unkallibrierte 14C – Daten verwendet. „Present“ – also die Gegenwart – ist das Jahr 1950, es ist das Jahr der „Erfindung“ dieser Methode. Generell ist in der populärwissenschaftlichen, aber auch wissenschaftlichen Literatur, nicht immer klar, ob es sich um kallibrierte 14C – oder unkallibrierte 14C – Daten handelt. Hinzu kommt, dass die zeitlichen Angaben zum gleichen Ereignis in der Literatur oft sehr weit voneinander abweichen, eine Diskussion über die Hintergründe dieser Abweichungen gehört jedoch nicht zum Anliegen dieser Übersicht. Da die o.g. Zeitangaben ausschliesslich der Orientierung dienen und Abweichungen von ±50 – 80 Jahren BD (before date) bzw. BC (before christ) in diesem Kontext völlig unerheblich sind, wurde bei Altersangaben BD das Jahr 1950 als Ausgangsjahr nicht mehr berücksichtigt.

Die markante Temperaturerhöhung bezieht sich auf einen Hochgebirgssee des Mount Kenya. Rietti-Shatti et al. (1998: 981) schreiben dazu: „Thus, according to Eq.1, the shift to the more depleted values indicates a warming phase of up to 4°C on Mount Kenya.“ Und auf S.982 werden für den gleichen Zeitraum Warmphasen für den Viktoriasee (Flachland),
für den Mount Satima (Kenya, nach Karlen & Rosqvist 1988), aber auch „in the Northeastern St. Elias Mountains in Southern Yukon Territory and Alaska and in Swedish Lapland“ (nach Denton & Karlen 1973) hervorgehoben, ohne jedoch Angaben zu den Temperaturen zu machen. (Lit. vgl. in der Originalarbeit)

Diesen Angaben zufolge scheint also kein Zweifel daran zu bestehen, dass es sich hier um Indikatoren einer wesentlichen
globalen, oder wenigstens Erwärmung in der nördlichen Hemisphäre gehandelt hat, wobei erhebliche regionale Unterschiede auftraten. Gestützt werden diese Befunde durch die umfangreiche und detaillierte Arbeit von von Mayewski et al. (2004) Holocene Climate Variability.- Quaternary Research 62: 243-255. 13 S.
[date of last access: 15.08.14]


Siehe auch die Zusammenfassung unten sowie „Summary and Conclusions“ in der Veröffentlichung von Mayewski et al., ibid. Und hier zur angenommenen Bedeutung der Sonnenaktivität und der Treibhausgase. Ferner:
Rasmussen et al. (2007) und Kirkby (2007).

Auch wenn heute kein Zweifel mehr daran bestehen kann, dass die Klimavariabilität während des Holozäns sehr stark und regional teilweise sehr unterschiedlich ausgeprägt war und sehr schnelle und signifikante Klimawechsel (rapid climate change / RCC, nach Mayewski et al., ibid) im Zeitrahmen von wenigen hundert Jahren, oder auch wesentlich kürzer, mit elementarer Bedeutung für Kulturen, eher zur Normalität gehörten, ist doch allen genaueren Angaben zur globalen Temperaturerhöhung oder -abnahme in der Geschichte des Holozäns eher mit Skepsis zu begegnen. Vieles deutet aber nach dem aktuellen Stand des Wissens darauf hin, dass die Temperaturschwankungen in der nördlichen Hemisphäre weitaus höher waren als in der südlichen Hemisphäre.

  • Ausführliche Angaben zur Radiokohlenstoffdatierung, ihrer Relevanz und Anwendung finden Sie hier und hier. [date of last access: 15.08.14]
  • Die in der Literatur gefundenen Angaben bzgl. Beginn und Ende der verschiedenen Phasen (Klimaoszillationen) weichen teilweise sehr stark voneinander ab, oder sind sogar widersprüchlich. Der Schwerpunkt der Angaben bezieht sich auf die nördliche Hemisphäre, vor allem auf N-Afrika und Europa. Ab etwa Beginn der Zeitenwende wird berücksichtigt, dass die „Gegenwart“ bei der Angabe BP (before present) auf 1950 festgelegt wurde.
  • Die Auflistung oben soll vermitteln, dass das aktuelle Interglazial generell von Zeiten mit höheren (sogen. Optima) und niedrigeren (sogen. Pessima) Temperaturen über mehrere Jahrhunderte (bis Jahrtausende) geprägt war.
  • Mit den Begriffen Pessima und Optima werden keine Aussagen zu den Niederschlagsverhältnissen verbunden, d.h. humide und aride Phasen korrelieren nicht unbedingt mit niedrigen und hohen Temperaturen und können ausserdem in den verschiedenen Klimazonen der nördlichen und südlichen Hemisphäre (aber auch innerhalb der Hemisphären!) zur gleichen Zeit sehr unterschiedlich sein. Z.B. erlebte die südliche Sahara zwischen 7.000 und 5.500 BP eine humide Phase und die nördliche Sahara war während dieses Zeitabschnitts eher trocken. Vgl. Sie dazu noch einmal die Abb. mit postglazialen ariden und humiden Phasen in der Sahara!
  • Um den neuesten Kenntnisstand bzgl. Temperaturentwicklung im Holozän zu erfahren, ist das Studium von aktueller (!!) Primärliteratur unabdingbar. Weitere Angaben in der Literatur unten und unter Klimawandel und Kulturgeschichte„.
© Harald Kehl – TU-Berlin – Institut für Ökologie
URL dieser Seite: http://lv-twk.oekosys.tu-berlin.de/project/lv-twk/002-holozaene-optima-und-pessima.htm
Diese Seite wurde modifiziert am Sonntag, den 12. Januar 2020, um 23:14:21
Webmaster
Seite empfehlen      print      Bookmark me