7. Oktober 2019 – von Timo Küntzle, Dennis Meyer und Johannes Strobl
„We are running out of time“ – uns läuft die Zeit davon. Dieser Satz fällt häufig, sobald es um die Rettung des Weltklimas geht.
Wie dringlich die Klimafrage für viele Menschen inzwischen ist, zeigte auch der weltweite Klimastreik, an dem sich am 20. September Millionen Menschen an fast 3.000 Orten der Welt beteiligten.
Doch wie weit wollen wir bei der Rettung des Planeten gehen? Wenn die Menschheit tatsächlich akut gefährdet ist, müssen wir dann nicht alles versuchen, um die Situation zu verbessern?
Für Aufsehen sorgte im Frühjahr ein atomkraftfreundliches Facebook-Posting von Greta Thunberg, dem Gesicht der jugendlichen Klimaprotestbewegung Fridays for Future.
Das Thunberg-Posting sorgte bei vielen für Unverständnis. Schließlich ist die Ablehnung der Atomenergie seit jeher fester Bestandteil aller großen Umweltbewegungen. Versperrt die Angst den Blick auf die tatsächlichen Chancen und Risiken?
Die Aussage der Klimaaktivistin fügt sich in eine Reihe von Stellungnahmen aus der Wissenschaft, die aufhorchen lassen: „Es ist Zeit, unsere Denkweise zu ändern. Erneuerbare und nukleare Energie schließen einander nicht aus. Sie passen zusammen“, argumentieren vier renommierte Wissenschaftler, zwei davon vom weltbekannten Massachusetts Institut of Technology (MIT) in den USA. In einem im Wissenschaftsmagazin Science Anfang des Jahres veröffentlichten Aufruf fordern sie, bestehende Kernkraftwerke zu erhalten und darüber nachzudenken, neue zu bauen.
Und auch der Weltklimarat IPCC, so etwas wie die höchste wissenschaftliche Instanz in Sachen Klima, misst der Atomkraft entscheidende Bedeutung bei.
Sie und andere sagen: Auf Kernkraft können wir nicht verzichten. Atomkraft als Klimaretter?
Der Reaktorunfall im sowjetischen Atomkraftwerk Tschernobyl am 26. April 1986 war die größte Katastrophe in der zivilen Nutzung der Kernenergie. Über die Opferzahl wird bis heute heftig debattiert.
Beim Stichwort Atomkraft denken viele an die Reaktorkatastrophe von Tschernobyl. Die Bilder des Unfalls am 26. April 1986 und der heldenhafte Einsatz der Ersthelfer haben sich in unser Gedächtnis eingebrannt. 28 Menschen starben innerhalb weniger Wochen an den Folgen massiver Strahlenbelastung. Mit der radioaktiven Wolke, die sich über Europa ausbreitete, fraß sich auch die Angst vor einer scheinbar unbeherrschbaren Technologie in das kollektive Bewusstsein der Europäer.
Für Aufsehen sorgte ein im Jahr 2008 veröffentlichter Bericht der Vereinten Nationen: Dieser kommt zum Schluss, dass es in den 22 Jahren nach dem Unglück „lediglich“ 43 direkte Strahlentote gegeben hat. Neben den 28 Toten durch akute Strahlenkrankheit nennt der Bericht 15 weitere Todesfälle durch strahlenbedingte Fälle von Schilddrüsenkrebs.
Über die Zahl der indirekten Todesopfer gibt es seit Jahrzehnten wissenschaftliche Kontroversen. Die Schätzungen variieren je nach Studie zwischen 4.000 und 60.000 Menschen, die aufgrund der Langzeitfolgen und der durch Radioaktivität erhöhten Krebsraten starben.
Der UNSCEAR-Bericht beschränkt sich auf die als gesichert geltenden direkten Todesopfer durch Strahlung. Schätzungen zu möglichen indirekten Opfern sind nicht inkludiert.
Die Zahlen der WHO (2005a) beziehen sich lediglich auf die am stärksten betroffenen Länder Ukraine, Russland und Weißrussland. In den WHO-Bericht (2005b) flossen auch Schätzungen für Länder mit niedriger Strahlenbelastung ein.
Die Studie von Cardis et al. (2006) aus dem Journal „International Journal of Cancer“ berechnete insgesamt 16.000 Todesfälle für ganz Europa.
Beauftragt von den Europäischen Grünen schätzten Fairlie und Summer im Jahr 2006, dass weltweit bis zum Jahr 2056 zwischen 30 000 (a) und 60 000 (b) Menschen durch Tschernobyl ums Leben kommen werden.
Der Grund für die gravierenden Schwankungen sind die unterschiedlichen statistischen Rechenmodelle. So wird in Studien, die ein Schätzergebnis mit besonders hoher Opferzahl liefern, meist davon ausgegangen, dass bereits kleinste Dosen an Radioaktivität gesundheitsschädliche Folgen nach sich ziehen. Also auch solche, die deutlich unterhalb der natürlichen Hintergrundstrahlung liegen. Derartige Berechnungen gelten in der Wissenschaft allerdings als nicht seriös.
Umumstritten ist, dass es bei starker Strahlung einen linearen Zusammenhang zwischen der Dosis und dem Krebsrisiko für Menschen gibt. Das heißt: Je höher die Dosis, desto mehr Menschen erkranken. Umgekehrt ist ein linearer Zusammenhang im Bereich sehr niedriger Strahlungsdosen spekulativ. Trotzdem ist genau das die Grundlage für das sogenannte LNT-Modell („linear no-threshold“ = linear, kein Schwellenwert). Das Modell geht davon aus, dass bei jeder noch so kleinen Strahlendosis ein gewisser Teil der damit konfrontierten Bevölkerung stirbt; dass es keine unbedenkliche Dosis gibt.
In Zahlen ausgedrückt funktioniert das Statistik-Modell so: Bei einer Strahlungsdosis von 5.000 Millisievert sterben im Schnitt 50 Prozent der Menschen innerhalb weniger Tage. Bei einer 5.000-fach niedrigeren Dosis von einem Millisievert sterben dem LNT-Modell zufolge 50 geteilt durch 5.000, also 0,01 Prozent der davon betroffenen Menschen. Geht man nun etwa davon aus, dass 500 Millionen Menschen einer zusätzlichen Strahlung von einem Millisievert ausgesetzt sind, und legt das LNT-Modell als Berechnung zugrunde, dann liegt die Zahl der statistisch zu erwartenden indirekten Todesopfer bei 50.000. Derartige Angaben geben keine zuverlässige Auskunft über tatsächliche Opferzahlen.
Noch eklatanter ist der Unterschied zwischen den tatsächlichen und den wahrgenommenen Auswirkungen bei der am 11. März 2011 durch ein Erdbeben ausgelösten Reaktorkatastrophe in Fukushima. Laut Berichten der WHO (2013) und der japanischen Polizei (2016) gab es keinen einzigen direkten Todesfall aufgrund von Radioaktivität. 1.600 Menschen starben allerdings an den Folgen des Stresses, der durch die hastige Evakuierung aus der Sperrzone ausgelöst worden war.
Erst im September 2018 bestätigte die japanische Regierung offiziell den ersten Strahlentoten im Zusammenhang mit der Katastrophe in Fukushima. Ein Beauftragter für Strahlenmessung, der von März bis Dezember 2011 an der Unglücksstelle tätig war, erkrankte laut dem japanischen Gesundheitsministerium an Lungenkrebs und starb. Lungenkrebs ist eine relativ häufige Erkrankung. Ob sie bei dem Mann tatsächlich durch Strahlung ausgelöst wurde, lässt sich wissenschaftlich nicht zweifelsfrei klären.
Jede Form der Energieerzeugung ist mit gesundheitlichen Risiken verbunden. Im Bewusstsein vieler Menschen nehmen Tschernobyl und Fukushima eine beherrschende Stellung ein, während Katastrophen wie der Dammbruch von Banqiao (China) 1975 mit geschätzten 200.000 Todesopfern oder die 1963 durch einen Bergrutsch verursachte Flutkatastrophe am Stausee von Vajont (Italien) mit 1.900 Toten ein Schattendasein im kollektiven Gedächtnis fristen.
Im Jahr 2007 erschien im angesehenen medizinischen Fachjournal The Lancet eine Studie mit dem Titel „Elektrizitätserzeugung und Gesundheit“. Dabei wurden die über den gesamten Zyklus einer Stromgewinnungsmethode zu beklagenden Todesopfer auf die dabei gewonnene Strommenge umgelegt. Im Vergleich mit anderen Methoden der Energieerzeugung, so das erstaunliche Ergebnis der Autoren, ist die Kernkraft die mit Abstand am wenigsten tödliche Form der Stromgewinnung. Der Grund dafür liegt in der sehr hohen Stromerzeugungskapazität von Kernkraftwerken. Demgegenüber schädigen die bei der Verbrennung von Kohle, Öl, Gas und Biomasse entstehenden Schadstoffe erheblich unsere Lungen und Atemwege. Laut einer aktuellen Studie des Max-Planck-Instituts für Chemie ist Luftverschmutzung die Ursache für weltweit bis zu 5,5 Millionen frühzeitige Todesfälle. Und das jedes Jahr.
Zu einem ähnlichen Ergebnis kommt der Umweltwissenschaftler James Conca. Anders als in der Lancet-Studie inkludiert der langjährige Greenpeace-Unterstützer erneuerbare Energiequellen in seiner Analyse. Die relativ hohe Anzahl von 1.400 Todesfällen pro tausend Terawattstunden durch Wasserkraft liegt an der Berücksichtigung von Katastrophen wie der bereits erwähnten von Banqiao. Im Vergleich dazu zählen Wind- und Solarkraftwerke mit 150 bzw. 440 Todesfällen pro tausend Terawattstunden zu den sichersten Quellen der Stromerzeugung. Die Hauptursache für Todesfälle bei Wind- und Solarenergie sind Unfälle während der Rohstoffgewinnung, Herstellung, Konstruktion und Wartung der Anlagen. Dennoch: Trotz der Berücksichtigung von Tschernobyl, Fukushima und des Uranbergbaus stellt die Nuklearenergie mit 90 Toten auch in der Forbes-Analyse die sicherste Form der Energieerzeugung dar.
z.B. Unfälle bei Abbau und Transport der benötigten Rohstoffe; Unfälle und in Kauf genommene Umweltverschmutzung beim Kraftwerksbetrieb; etc.
Greenpeace schätzt die Zahl der Krebstoten durch die Kernschmelze von Tschernobyl auf 93.000. Der Umweltorganisation zufolge ist der Reaktorunfall für Zehntausende weitere Todesfälle verantwortlich, darunter auch für solche, die durch Herz-Kreislauf-Erkrankungen oder Leberzirrhosen verursacht wurden. Solche Erkrankungen können allerdings auch auf Alkoholmissbrauch oder andere Ursachen zurückzuführen sein. In Summe sollen, laut Greenpeace, bis zu 200.000 Menschen durch Tschernobyl zu Tode gekommen sein, also um ein Vielfaches mehr als öffentliche und wissenschaftliche Institutionen errechnet haben.
Selbst wenn man beim Verhältnis der erzeugten Strommenge zu den Opferzahlen die pessimistischsten Greenpeace-Schätzungen der Tschernobyl- und Fukushima-Opferzahlen zu Grunde legt, liegt die Zahl der „Kernkraft-Toten“ noch immer bei weit weniger als einem Zehntel der „Kohle-Toten“.
Die Frage „Haben Tschernobyl und Fukushima nicht viel zu viele Opfer gekostet?“ lässt sich dennoch mit einem klaren Ja beantworten. Selbstredend ist jedes Opfer eines zu viel. Eine Gesamtbeurteilung der Kernenergie unter Ausblendung der Opfer anderer Energieträger ist aber problematisch.
Anhand von Daten der World Nuclear Association wurde die kumulierte Atom-Strommenge in Terawattsunden für den Zeitraum von 1970 bis 2018 bestimmt. Im zweiten Schritt wurden die Toten pro 1000 Terawattstunden mittels Schätzungen von Greenpeace (200.000 Tote durch Tschernobyl) und den Vereinten Nationen (2.000 Tote durch Fukushima) berechnet und zu den 70 Todesopfern pro 1.000 Terawattstunden für Nuklearenergie aus der Lancet-Studie addiert.
Reaktorunfälle zerstören nicht nur Menschenleben, sondern auch die Umwelt. Wie schlimm kann es die Tier- und Pflanzenwelt wirklich treffen?
Nicht nur der Mensch, auch die Natur wurde 1986 von der Reaktorkatastrophe von Tschernobyl schwer getroffen. Zehn Tage lang war aus dem brennenden Reaktorblock 4 dunkler, radioaktiver Rauch aufgestiegen. Er enthielt Tonnen von strahlenden Materialien, die zum Großteil in einem Umkreis von 30 Kilometern um den Unglücksort niedergingen. Unmittelbar danach verendeten dort unzählige Tiere, Pflanzen starben ab, es kam zu Missbildungen und erhöhter Sterblichkeit des Nachwuchses bei verschiedensten Arten.
Berühmt wurde der „Red Forest“, ein zehn Quadratkilometer großes Waldstück unmittelbar neben dem Kraftwerk, dessen Nadelbäume sich bald nach dem Unglück rot färbten und eingingen.
Aber dann passierte Erstaunliches. Laut dem Bericht des Tschernobyl-Forums begannen sich Tier- und Pflanzenbestände schon ab Frühling 1987 zu erholen. Aus Nachbargebieten wanderten Tiere in das Sperrgebiet ein und füllten jene Populationen auf, die durch die radioaktive Belastung dezimiert worden waren. In dem 20 Jahre nach dem Unglück veröffentlichten Bericht heißt es:
Eine 2003 in Wien gegründete Arbeitsgruppe zur Aufklärung der Folgen des Reaktorunfalls unter dem Dach der internationalen Atomenergiebehörde IAEA.
Mitglieder sind u.a. der Wissenschaftliche Ausschuss der Vereinten Nationen über die Wirkungen atomarer Strahlung UNSCEAR und die Regierungen der Ukraine, Russlands und Weißrusslands.
Heute tummeln sich dort Bären, Wölfe, Wildschweine, Adler und viele andere seltene Tierarten; darunter sogar eine Herde Przewalski-Wildpferde.
Die Radioaktivität ging in den Monaten und Jahren nach dem Unglück durch den natürlichen Zerfall der Stoffe zurück, die hohen Strahlungswerte sanken. Zudem trugen die Aufräumarbeiter (die sogenannten Liquidatoren) die oberste Bodenschicht ab und entsorgten sie. Dass die Wildnis sich ausbreiten konnte, führen die Wissenschaftler darauf zurück, dass die ehemals in dem Gebiet lebenden 350.000 Menschen ihre Heimat verlassen mussten. Mit den Menschen verschwanden nämlich auch Industrie und Landwirtschaft. Für die Natur war plötzlich viel mehr Raum.
Einige Wissenschaftler sehen in den Aussagen des Tschernobyl-Forums eine Verharmlosung der Folgen des schwersten Unfalls in der Geschichte der Kernenergie. Sie verweisen auf Studien, die bei Tschernobyl-Vögeln kleinere Gehirne nachwiesen, bei Schwalben vermehrte Deformationen der Flügel feststellten oder auf einen Rückgang von Spinnen und Insekten, der auch 20 Jahre nach dem Unfall noch feststellbar sei. Ob es der Natur rund um Tschernobyl heute besser oder schlechter geht und warum das so ist, lässt sich wissenschaftlich nicht eindeutig klären. Vor allem, weil es an Vergleichsdaten von vor dem Reaktorunfall fehlt.
Eindeutig messbar sind allerdings aktuelle Strahlungswerte. Unmittelbar außerhalb des von einem Stahlsarkophag eingeschlossenen Reaktorblocks 4 von Tschernobyl übertreffen die Strahlungswerte zwar den globalen Durchschnitt um ein Vielfaches, sie bleiben aber noch immer unterhalb jener Werte, die an manchen Orten der Erde von Natur aus herrschen.
Einige Messstellen innerhalb der Sperrzone zeigten am 1. Oktober 2019 niedrigere Werte als die Messstation Zwettl im Waldviertel zum selben Zeitpunkt.
Solche Momentaufnahmen können allerdings nicht darüber hinwegtäuschen, dass die einstige Heimat von über 300.000 Menschen auch über 30 Jahre nach dem Unglück aus Sicherheitsgründen gesperrt bleibt. Mehrere Hundert Menschen haben sich dem Verbot übrigens widersetzt und sind, teils schon kurz nach der Evakuierung, in ihre Häuser zurückgekehrt.
Aufgrund ihrer geringen Anzahl lässt sich nicht sicher sagen, ob es ihrer Gesundheit geschadet hat. Eine Studie deutet allerdings darauf hin, dass es ihnen besser erging, als jenen, die eine neue Heimat in Städten mit hoher Luftverschmutzung außerhalb der Evakuierungszone gefunden haben.
Während des Reaktorunglücks von Fukushima wurden Mengen an radioaktiven Materialien in die Umwelt freigesetzt, die ungefähr einem Zehntel jener von Tschernobyl entsprechen. Einer Übersichtsarbeit aus dem Jahr 2013 zufolge landeten mehr als 80 Prozent der strahlenden Substanzen im Pazifischen Ozean. Dank moderner Analysemethoden konnten diese zwar im gesamten Ozean von Japan bis Chile nachgewiesen werden. Allerdings seien die Konzentrationen außerhalb japanischer Gewässer wegen der schnellen und enorm starken Verdünnung zu vernachlässigen.
Fischerei- und landwirtschaftliche Produkte aus der Region Fukushima waren unmittelbar nach dem Unglück teils hoch belastet und mussten vernichtet werden. In der 600 Quadratkilometer großen Sperrzone (Zum Vergleich: 4.300 Quadratkilometer wurden bei Tschernobyl gesperrt) wird noch heute verseuchter Boden abgetragen, Gebäude und Fahrzeuge mussten dekontaminiert werden. Acht Jahre nach dem Unglück sind große Teile der Sperrzone wieder freigegeben, auch wenn viele ehemalige Bewohner inzwischen woanders wohnen und nicht zurückkehren. Lebensmittel aus Fukushima gelten heute als sicher.
Am Kraftwerksgelände selbst lagern derzeit mehr als eine Million Tonnen radioaktiv belastetes Wasser in fast 1.000 Tanks. Es wurde seit dem Unglück 2011 benutzt, um die drei beschädigten Reaktoren zu kühlen. Weil der Platz für die Tanks irgendwann aufgebraucht ist, könnte das Wasser Plänen zufolge irgendwann ins Meer geleitet werden. Die lokale Fischerei sorgt sich deshalb um ihre Absatzchancen. Aus naturwissenschaftlicher Sicht gilt der Plan als eher unproblematisch, weil das Wasser vor allem schwach strahlendes Tritium enthält und im Meer weiter verdünnt würde.
Die Folgen der Nuklearkatastrophen von Tschernobyl und Fukushima waren für Mensch und Natur verheerend. Sie zu verharmlosen, wäre unangebracht. Gleichzeitig spricht aber vieles dagegen, dass die Unfälle „ewige Todeszonen“ hinterlassen haben.
Die ungeklärte Frage der Endlagerung radioaktiver Abfälle gilt als eine der größten Schwächen der Kernenergie.
In Finnland wurde eine Antwort auf die Frage gefunden, hier entsteht das weltweit erste atomare Endlager für hochradioaktiven Abfall. In fünf Jahren soll mit der Einlagerung ausgedienter Brennstäbe begonnen werden. Dennis Meyer hat sich vor Ort umgesehen.
Kernenergie trägt wenig zur globalen Energieversorgung bei und tauge deshalb kaum als Klimaretter, sagen die Gegner. Ein stichhaltiges Argument?
In der Debatte über die sinnvollsten Energieträger wird häufig vergessen, dass es einen gewaltigen Unterschied macht, ob auf den gesamten Energieverbrauch oder nur auf den Strom-Mix geschaut wird. Denn nicht einmal 20 Prozent des wachsenden Gesamt-Energiebedarfs der Menschheit werden in Form von Elektrizität genutzt.
Der viel größere Teil des Energiebedarfs wird über das direkte Verbrennen von Rohstoffen wie Holz, Kohle, Öl (bzw. deren Sekundärprodukte wie Benzin und Diesel) und Gas gedeckt: beim Heizen; beim Kochen mit Holz und Tierdung in ärmeren Regionen der Welt; bei der Produktion von Stahl, Beton und Stickstoffdünger; beim Transport von Menschen und Gütern mit Flugzeugen, Schiffen, Autos und Rollern; oder bei der Arbeit mit Rasenmähern, Baggern, Traktoren und anderen Maschinen. Nicht einmal zwei Prozent dieser notwendigen Energie wurden im Jahr 2017 in Atomkraftwerken produziert. Wie soll ein Energieträger mit einem solch bescheidenen Anteil zum Klimaretter aufsteigen?
Stellt man dieselbe Frage für Solar- und Windenergie, die Hoffnungsträger der sogenannten Energiewende, zeigt sich die Ausgangslage noch weit betrüblicher: Der Anteil der Solarenergie betrug 2017 nur 0,29 Prozent. Windenergie kommt auf 0,73 Prozent, Wasserkraft auf 2,6 Prozent. Kurzum: In der globalen Statistik des Energiekonsums ist die Atomkraft relativ unbedeutend, Wind- und Sonnenenergie dagegen nahezu bedeutungslos.
Erst wenn man ausschließlich die global produzierte Strommenge betrachtet, gewinnen die Atomkraft (10 Prozent), die Windenergie (4 Prozent) und die Solarenergie (2 Prozent) an Bedeutung. Aber selbst bei dieser Betrachtungsweise liegen Kohle, Gas und Öl noch immer weit vorne.
In Österreich liegt der Anteil erneuerbarer Energien an der Stromerzeugung mit 72 Prozent über dem globalen Durchschnitt – vor allem wegen seiner wasserkraftfreundlichen Geografie und seinem Reichtum an Holz (Biomasse). Diese klimafreundliche Bilanz verblasst allerdings beim Blick auf den Gesamtenergieverbrauch. Dieser wird auch in Österreich noch immer zu zwei Dritteln aus Kohle, Öl und Gas gedeckt.
In Österreich laufen zwar bekanntlich keine Atomkraftwerke, doch ganz ohne Atomstrom geht es auch in Österreich nicht. Denn Stromimporte aus dem Ausland enthalten einen gewissen Anteil an Atomstrom. Schätzungen zufolge liegt dieser bei bis zu 16 Prozent. Wie hoch der Atomstrom-Anteil tatsächlich ist, lässt sich aufgrund eines mangelhaften Herkunftsnachweissystems nicht sagen.
Zusammengefasst: Beim Blick auf den aktuellen globalen Energiemarkt fällt es schwer, an eine baldige Zukunft aus nicht-fossilen Energieträgern zu glauben. Der Anteil der Atomkraft ist gering, noch geringer ist aber der von Wind- und Sonnenenergie. Kohle, Öl und Gas sind noch immer mit riesigem Abstand unsere wichtigsten Energiequellen. Sie werden es auf absehbare Zeit auch bleiben.
Radioaktivität ist ein natürliches Phänomen. Lange bevor es Menschen gab, strahlte bereits der Untergrund. Auch aus dem All wird die Erde schon immer von Strahlung getroffen. Was ist Strahlung eigentlich genau, und wann müssen wir uns vor ihr fürchten?
Das erklärt der Physiker Florian Aigner.
Radioaktivität ist Teil unseres Lebens. Einige Strahlenquellen sind weitgehend unbeachtet und dürften überraschen.
Es strahlt überall, aus natürlichen und aus künstlichen Quellen. Hätten Sie gewusst, dass Zigaretten radioaktiv sind? Spuren von Uran sind nämlich natürlicher Bestandteil des mineralischen Phosphordüngers, mit dem Tabakbauern ihre Pflanzen ernähren.
An manchen Orten auf der Erde, etwa in Indien oder dem Iran, können das Gestein im Untergrund und die beim Hausbau verwendeten Baumaterialien im Extremfall dutzendfach stärkere Strahlung abgeben, als es dem globalen Durchschnitt entspricht.
Alleine durch die Strahlungsquellen der Natur ist jeder Bewohner Österreichs einer jährlichen Durchschnittsdosis von 2,9 Millisievert ausgesetzt. Wer hoch oben in den Bergen wohnt, bekommt etwas mehr kosmische Strahlung ab als der Durchschnitt. Bewohner des Waldviertels leben mit einer leicht erhöhten Strahlung, weil der Granit unter ihren Füßen radioaktiv ist.
Zur natürlichen Strahlung kommt ein kleinerer Anteil an künstlichen Strahlungsquellen hinzu. Alles in Allem treffen uns in Österreich durchschnittlich 4,6 Millisievert Strahlung pro Einwohner und Jahr. Das ist etwas mehr als der globale Durchschnitt von 3,1 Millisievert pro Jahr.
Die mit Abstand stärksten Strahlungsdosen sind allerdings durch menschlich verursachte Ereignisse frei geworden – wenn auch örtlich und zeitlich begrenzt. Zum Beispiel durch die Atombomben-Abwürfe von Hiroshima und Nagasaki 1945 oder den Reaktorunfall von Tschernobyl 1986.
Strahlung trifft uns nicht nur permanent von außen, sie ist ebenso ein natürlicher Vorgang innerhalb des menschlichen Körpers. Aus dem Boden gelangt Radioaktivität nämlich über das Wasser, via Pflanzen und Tiere auch in den Nahrungskreislauf. Außerdem atmen wir ständig das aus dem Boden aufsteigende radioaktive Radon ein. Erhöhte Konzentrationen des Edelgases können sich etwa in schlecht belüfteten Kellerräumen sammeln.
Die Karte zeigt das Jahresmittel der äußeren Gamma-Strahlung (Ortsdosisleistung), die über ein permanentes Netz aus über 300 Messstationen des österreichischen Strahlenfrühwarnsystems erfasst wird. (Genauer: eine Interpolation der Messergebnisse.)
Hauptbestandteil der externen Strahlung ist die terrestrische Strahlung, die aus dem Zerfall radioaktiver Elemente im Boden entsteht. Die Messstationen erfassen aber auch Gammastrahlen aus dem All und jene, die auf Atomwaffenversuche oder den Unfall von Tschernobyl zurückzuführen sind. Die beiden letzteren Quellen machen aber nur einen Bruchteil der gesamten Strahlung aus, der Menschen in Österreich ausgesetzt sind.
Die Strahlung kann kurzfristig bis auf das Dreifache ansteigen, wenn bei Regen natürliche Radioaktivität aus der Luft ausgewaschen wird. Dagegen schirmt eine Schneedecke die Strahlung aus dem Boden ab und lässt die Messwerte sinken.
Der Vergleich zeigt Werte für die effektive Dosis und Werte für die Ortsdosisleistung.
Bei der effektiven Dosis werden die biologische Wirksamkeit unterschiedlicher Strahlungsarten (etwa Gamma- oder Alpha-Strahlung) sowie die unterschiedliche Empfindlichkeit verschiedener menschlicher Gewebearten gewichtet. Die Ortsdosisleistung zeigt die äußere Bestrahlung an einem bestimmten Ort. Beide Werte sind streng wissenschaftlich betrachtet, nicht unmittelbar vergleichbar.
Die angegebenen Werte können von Fall zu Fall variieren – es handelt sich um Größenordnungsabschätzungen, die einen qualitativen Vergleich unterschiedlicher Quellen von Strahlung ermöglichen, nicht um präzise Messergebnisse, die für alle Menschen in allen Situationen exakt zutreffen.
Radioaktivität ist also natürlicher Bestandteil unseres Alttags. Aber auch mit menschengemachten zusätzlichen Quellen sind wir regelmäßig konfrontiert.
Das sagte der damalige Vorsitzende der US-Atomenergiebehörde Lewis Strauss im Jahr 1954. Erfüllt hat sich diese Hoffnung bis heute nicht.
Die Frage der Wirtschaftlichkeit von Atomkraftwerken wird seit Jahrzehnten kontrovers diskutiert. Erst im Juli 2019 kam das Deutsche Institut für Wirtschaftsforschung (DIW) zu dem Ergebnis, dass sich Atomkraft aus betriebswirtschaftlicher Sicht nicht rechne, selbst wenn die Kosten für die Endlagerung nicht berücksichtigt werden. Im Schnitt mache ein Atomkraftwerk über den gesamten Zyklus zwischen 1,5 und 8,9 Milliarden Euro Verlust. Der Bau dieser Anlagen sei mittlerweile drei- bis zehnmal so teuer wie in der Vergangenheit kalkuliert. Kritiker werfen dem DIW hingegen eine selektive Quellenwahl vor. Unter den getroffenen Annahmen wären Wind- und Solarkraft ebenso unrentabel, so das Urteil des atomkraftfreundlichen Vereins Nuklearia. Außerdem würden Kernkraftwerke in der Realität deutlich länger laufen als in der Studie angenommen. Bei kapitalintensiven Kraftwerken wie Atomreaktoren wirkt es sich gewaltig auf die erwartete Profitabilität aus, ob die veranschlagte Betriebsdauer 40 oder 60 Jahre beträgt.
Zahlreiche Wissenschaftler, NGOs und staatliche Institutionen haben versucht, das Rätsel über die Wirtschaftlichkeit verschiedener Energieträger zu lösen. Kaum werden neue Ergebnisse veröffentlicht, werden deren Objektivität und Seriosität von der Gegenseite angezweifelt. Der häufigste Vorwurf: eine zu große Nähe zur Industrie, egal ob zur Atom-, Kohle-, Solar- oder Windkraftindustrie. Die Europäische Kommission versuchte im Jahr 2014 Licht ins Dunkel zu bringen und veröffentlichte eine Studie, die Subventionen und Stromerzeugungskosten unterschiedlicher Energieträger vergleicht.
Das Ergebnis: Kohle ist von den konventionellen Energieträgern der billigste. Bei den Erneuerbaren schneiden Geothermie und Wasserkraft am besten ab und stellen sogar von allen Varianten die günstigsten Alternativen dar. Atomstrom ist in etwa so teuer wie der Strom aus Gaskraftwerken und liegt zwischen Kohle- und Solarenergie. Die höchsten Kosten weisen Offshore-Windkraftanlagen und Biomassekraftwerke auf. Laut Studie gibt es nur zwei Energieträger, die durchgehend rentabel sind: Geothermie und Wasserkraft. Alle anderen Energieträger sind zumindest zeitweise nicht rentabel.
Konventionelle Stromproduzenten, also Atom-, Gas- und Kohlekraftwerke erhalten pro erzeugter Megawattstunde weit weniger staatliche Zuschüsse als Solarkraft, Wind und Biomasse. Am wenigsten Subventionen fließen an Betreiber geothermischer Anlagen und Wasserkraftwerken. Große Schwäche der Untersuchung: Sie ist nur eine Momentaufnahme, die Technologien entwickeln sich ständig weiter, die Kosten der Energieerzeugung verändern sich binnen kurzer Zeit oft drastisch. So sind allein zwischen 2008 und 2012 die Kosten für Photovoltaikmodule dramatisch gefallen, was zu einem Rückgang der Stromerzeugungskosten von über 200 €/MWh im Jahr 2008 auf rund 100 €/MWh im Jahr 2012 führte. Mittlerweile schätzt das Fraunhofer-Institut diese Kosten von Solaranlagen sogar auf durchschnittlich 76 €/MWh.
Einer aktuelleren Untersuchung der Europäischen Kommission zufolge flossen im Jahr 2016 65 Prozent der Energiesubventionen in der EU in Erneuerbare, 16 Prozent in fossile Energieträger und lediglich 3 Prozent an die Kernkraft.
Atomkraftwerke produzieren radioaktiven Müll, Kohlekraftwerke stoßen Schadstoffe, Feinstaub und Treibhausgase aus. Allein in Europa wird die Zahl der frühzeitigen Todesfälle durch Kohle-Luftverschmutzung jährlich auf etwa 23.000 Menschen geschätzt. Aber auch erneuerbare Energien haben negative Auswirkungen auf die Umwelt. Diese schwer greifbaren „externen Kosten“ werden nicht von den Kraftwerksbetreibern getragen, sondern von der Allgemeinheit.
Die bereits erwähnte EU-Studie hat die externen Kosten verschiedener Arten der Stromerzeugung einander gegenübergestellt. Experten berechneten dabei die negativen Folgen für das Klima, die Feinstaubbelastung, die Giftigkeit für Menschen, die Inanspruchnahme landwirtschaftlicher Flächen und sogar die Auswirkungen von nuklearen Unfällen.
Für Kohle, Öl und Gas zeigte die Studie die mit Abstand höchsten Umweltkosten. Kernenergie verursacht demnach weniger Umweltauswirkungen, die aber dennoch über denen von Solarenergie oder Biomasse liegen. Am wenigsten umweltbelastend ist die Wasserkraft. Aber auch sie kann natürliche Lebensräume zerstören und steht in der Kritik von Naturschützern.
Kritiker werfen oft ein, dass die Gesamtkosten für Atomstrom bei Einberechnung des Versicherungsrisikos eines atomaren Super-GAUs höher ausfallen würden. Wegen der extremen Höhe eines erwarteten Maximalschadens und der schwer abschätzbaren Unfallwahrscheinlichkeit sei es praktisch unmöglich, Katastrophenfälle adäquat zu versichern. Laut den Versicherungsforen Leipzig würde eine ausreichende Haftpflichtversicherung die Kilowattstunde Atomstrom zwischen 14 Cent und absurd hohen 67 Euro verteuern. Nicht zuletzt deswegen deckeln Staaten wie Deutschland die Haftungssumme für Kernkraftwerksbetreiber bei 2,5 Milliarden Euro.
Aber auch Solar- und Windkraft verursachen Kosten, die in der Debatte über die Energiewende oft nicht berücksichtigt werden. Aufgrund ihrer Wetterabhängigkeit und der starken, unvorhersehbaren Produktionsschwankungen führen Solar- und Windkraft bei steigendem Anteil am Strommix zu rasant steigenden Systemkosten. Werden diese Kosten einberechnet, verteuert sich der Strom aus Wind- und Solarkraft um bis zu 30 Prozent. Je höher der Stromanteil von Wind- und Solarkraftwerken, desto höher sind diese Zusatzkosten.
Welcher Energieträger unter Berücksichtigung all dieser Aspekte am besten abschneidet, lässt sich nicht mit Gewissheit beantworten. Einzig fossile Energieträger sind aufgrund ihrer schwerwiegenden negativen Auswirkungen für die Allgemeinheit auf lange Sicht weder ökologisch noch wirtschaftlich vertretbar. So ist Kohle zwar auf den ersten Blick eine billige und zuverlässige Energiequelle, auf den zweiten Blick steigen durch die Umweltverschmutzung die Gesamtkosten erheblich. Ob und wie wirtschaftlich Atomkraftwerke im Vergleich zu erneuerbaren Energieträgern sind, hängt von den Baukosten, der Betriebsdauer und den veranschlagten Kosten für Versicherung und Endlagerung ab. Und das sind Fragen, die vielleicht niemals restlos geklärt werden können.
Seit fast siebzig Jahren wird Kernspaltung zur Energieerzeugung genutzt. Die Reaktorkatastrophe von Fukushima im Jahr 2011 schien das Ende des Atomkraft-Zeitalters einzuläuten. Doch in vielen Ländern wird an einem Ausbau und einer Weiterentwicklung der Kernenergie gearbeitet. Auch Bill Gates investiert kräftig in die Erforschung neuer Reaktortypen.
Die Kernspaltung wird bereits seit 1954 zur Energieerzeugung genutzt. Damals ging in der russischen Stadt Obninsk der erste kommerziell betriebene Reaktor ans Netz. Die Kernkraft wurde stetig weiterentwickelt, das Grundprinzip der Technologie blieb allerdings das gleiche.
Während Österreichs 40 Jahre altes Nein zur Atomkraft auch angesichts des Klimawandels nicht infrage gestellt wird und Deutschland am 2011 beschlossenen Atomausstieg festhalten, investieren viele Staaten Milliarden in den Ausbau der Atomenergie: So will Indien zum Beispiel bis 2050 mindestens die Hälfte seines Energiebedarfs durch Kernenergie decken. Auch China setzt voll auf Atomstrom: Dort stehen acht der zehn weltweit zuletzt ans Netz gegangenen Reaktoren. In den nächsten Jahren sollen elf weitere hinzukommen.
Doch auch im Westen ist Atomkraft nach wie vor gefragt. Vielerorts wird an einer technischen Revolution der Kernenergie gearbeitet; die neuen Reaktortypen (Experten sprechen von der vierten Generation) sollen leistungsstärker, günstiger, sicherer und effizienter sein. Eine ganze Reihe von Technologien ist in Erprobung: Flüssigsalz-, Brut- und Laufwellenreaktoren, genauso wie die sogenannten Small Modular Reactors.
Allein im amerikanischen Silicon Valley arbeiten rund 50 Hightech-Firmen an der Atomkraft der Zukunft. Der wohl prominenteste Fürsprecher der Kernenergie ist Bill Gates. In einem offenen Brief schrieb der Microsoft-Gründer im Dezember 2018:
Gleichzeitig betonte Gates, dass das Risiko eines Unfalls durch die modernen Innovationen gegen null tendiere. Der zweitreichste Mann der Welt fördert das von ihm gegründete Startup Terrapower mit Millionenbeträgen und großem Engagement: So setzte er sich persönlich bei mehreren Umweltministern für mehr Forschungsgelder ein. Die Firma mit Sitz im US-Bundesstaat Washington beschäftigt rund 150 Mitarbeiter und finanziert sich nicht nur durch Zuwendungen des zweitreichsten Menschen der Welt, sondern auch durch Fördergelder der US-amerikanischen Regierung.
Auch wenn das Projekt noch in den Kinderschuhen steckt: Bill Gates ist nicht dafür bekannt, ein Traumtänzer zu sein, der sein Geld zum Fenster hinauswirft. Mitte nächsten Jahres will Terrapower bereits die Pläne für einen neuartigen Reaktortypen präsentieren, der mit Atommüll betrieben werden kann. Etwa 2025 soll der erste Prototyp hergestellt werden. Bis das erste „Gates-Kraftwerk“ ans Netz gehen kann, werden aber selbst bei optimistischen Annahmen noch 15 bis 30 Jahre vergehen. Bis dahin müssen die Herausforderungen des Klimawandels mit anderen Technologien gemeistert werden.
Große Hoffnung lag auch lange Zeit auf der Technologie des Flüssigsalzreaktors. Statt fester Brennstäbe sollten die Kraftwerke mit Uran in Flüssigsalz betrieben werden. In dieser Form, so die Idee der Forscher, könne Energie günstiger und einfacher gewonnen werden. Statt die abgebrannten Brennstäbe auszuwechseln, ließe sich der Brennstoff bei vollem Betrieb einfach nachfüllen. Außerdem sollten die Reaktoren so konzipiert werden, dass sie auch mit Atommüll oder dem in der Natur reichlich vorhandenen Metall Thorium betrieben werden können. Die weltweiten Thorium-Vorkommen sind etwa zehnmal so groß wie die Uran-Vorkommen und außerdem wesentlich energiereicher. Mit einem Kilogramm Thorium ließe sich etwa 100-mal so viel Strom erzeugen wie mit der gleichen Menge Uran. Doch bei der Entwicklung der ersten Thorium-Reaktoren traten unvorhergesehene Probleme auf, sodass viele Länder von der Technologie wieder Abstand genommen haben.
Auch europäische Nuklearwissenschaftler mussten kürzlich einen herben Rückschlag einstecken. Schuld daran ist „Astrid“, ein Reaktor-Prototyp, der sicherer, sauberer und günstiger sein sollte, so die Verheißungen der Forscher. „Astrid“ sollte mit flüssigem Natrium statt Wasser gegen Überhitzung geschützt und auch mit Atommüll betankt werden können und der Bau deutlich kosteneffizienter sein als bei herkömmlichen Reaktoren. Ende August zog Frankreichs Kommissariat für Atomenergie und alternative Energie „Astrid“ allerdings den Stecker – nach fast zehn Jahren Forschung und öffentlichen Investitionen in Höhe von 737 Millionen Euro. Der Grund: Die geschätzten Kosten für die Weiterentwicklung des Projekts hin zu einem Prototypen lagen zuletzt bei mehr als fünf Milliarden Euro.
Jetzt ruhen die Hoffnungen auf ITER, einem Projekt, das nicht nur von der EU, sondern auch der Schweiz, den USA sowie Russland, Indien, China, Japan und Südkorea finanziert wird. ITER steht für International Thermonuclear Experimental Reactor. ITER setzt nicht auf Kernspaltung sondern auf Kernfusion, wäre also so etwas wie eine kleine Sonne auf der Erde und könnte den Traum von der unendlichen Energie wahr werden lassen. Die Pläne für einen solchen Reaktor reichen bis ins Jahr 1990 zurück. Erst 2035 soll ITER in Betrieb gehen, mit einer kommerziellen Nutzung dieser Technologie rechnen die Forscher frühestens in dreißig Jahren. Zu spät, um zum Retter des Weltklimas zu avancieren.
Es gilt also, die erprobten und ausgereiften Technologien zu verbessern und die alten Kraftwerke ständig zu erneuern. Allein im finnischen Kernkraftwerk Olkiluoto werden jedes Jahr rund 50 Millionen Euro in die Instandhaltung der beiden 1979 und 1981 ans Netz gegangenen Reaktoren investiert. Das zahlt sich jetzt auch für den Betreiber aus: Die ursprünglich auf 40 Jahre angelegte Nutzung wurde Ende letzten Jahres verlängert. Die Prüfbehörden erteilten eine Betriebserlaubnis bis 2038 und stellten eine weitere Verlängerung in Aussicht. Zum Vergleich: Die maximale Lebensdauer von Windrädern liegt bei etwa 20 Jahren, die von Solarmodulen bei etwa 25 Jahren.
Eine rasch umsetzbare Technologie wären modulare Kleinkraftwerke, sogenannte Small Modular Reactors. Die Idee: Die deutlich kleineren und leistungsschwächeren Reaktoren werden in einer Fabrik hergestellt und vor Ort montiert. Das hat zur Folge, dass Atomreaktoren wesentlich günstiger produziert werden können und wegen der kleineren Mengen an radioaktiven Brennstoffen auch ein geringeres Risikopotenzial haben. Der erste Reaktor dieser Kategorie wird bereits im November 2019 in Betrieb gehen. Dabei handelt es sich um das schwimmende Kernkraftwerk Akademik Lomonossow, das vor wenigen Wochen weltweites Aufsehen erregte, als es nach rund drei Wochen auf See seinen Zielhafen Pewek an der Nordküste Sibiriens erreichte. Das Kraftwerk soll künftig 200.000 Menschen mit Strom versorgen.
Die Erneuerbaren gelten durchweg als grüne und sanfte Energieformen. Aber auch sie produzieren Treibhausgase, verbrauchen Rohstoffe und stellen Platzansprüche. Wie grün sind sie wirklich?
Im Bewusstsein der Österreicher ist die Atomkraft jene Energieform mit den potenziell schlimmsten Auswirkungen auf die Natur. In der Tat traf der Reaktorunfall von Tschernobyl 1986 Mensch und Natur hart. Auch wenn sich die Tier- und Pflanzenwelt vor Ort wegen des Rückgangs der Strahlung bald danach wieder erholt hat. Wenig bewusst ist oftmals die Tatsache, dass auch die Erneuerbaren Energien wie Biomasse, Wind- und Solarenergie oder die Wasserkraft erhebliche Folgen für die Natur mit sich bringen.
Die Erneuerbaren Energien werden gefördert, weil sie viel weniger Treibhausgase verursachen als fossile Energieträger wie Kohle, Öl und Gas. Das heißt aber längst nicht, dass bei der Produktion von Öko-Strom überhaupt keine Treibhausgase entstehen.
Das zeigt der Blick auf den vollständigen Lebenszyklus: Wird der Abbau benötigter Rohstoffe und deren Transport genauso berücksichtigt, wie die eigentliche Stromproduktion oder der spätere Rückbau und der anfallende Müll, verändert sich die CO2-Bilanz deutlich. Stellt man all dies in Rechnung zeigt sich: pro Kilowattstunde Solarstrom wird bis zu viermal mehr Kohlendioxid frei als bei der nuklearen Stromgewinnung. Bei der Biomasse ist die Bilanz noch schlechter. Das liegt vor allem an den Emissionen, die im landwirtschaftlichen Produktionsprozess von Biomasse entstehen.
Jede Form der Energieerzeugung greift in die Natur ein. Alleine schon durch ihren Platzbedarf. Dass der Mensch immer mehr Landflächen für unterschiedliche Zwecke nutzt, sieht der Welt-Biodiversitätsrat IPBES als eine der Hauptursachen für den weltweiten Rückgang der Artenvielfalt.
Wo ein Atommeiler steht, kann kein Baum wachsen. Der Abbau von Braunkohle hinterlässt vorrübergehend wie Mondlandschaften aussehendes, unwirtliches Niemandsland. Aber auch für Windräder und ihre Zufahrtswege müssen Wälder, Felder oder Wiesen weichen, sofern die Windparks nicht im Meer stehen. Und der Anbau von Energiepflanzen wie Mais, Raps oder Ölpalmen (Biomasse) steigert den Bedarf an landwirtschaftlich nutzbarem Land.
Das Pendant zum Weltklimarat mit der Aufgabe, die Wissenschaft zum Thema Artenvielfalt und Ökosystemleistungen zu bündeln.
Eine aufschlussreiche Berechnung zeigt auch die folgende Grafik. Sie zeigt für unterschiedliche Energieformen, wie viel Land diese benötigen würden, wenn sie der Menschheit hundert Prozent des Energiebedarfs des Jahres 2018 liefern müssten. Eindrücklich ist vor allem, wie viel Land der Anbau von Energiepflanzen kostet. Wollte man etwa den Weltenergiebedarf ausschließlich über den aus Biomasse gewonnenen Strom decken, bräuchte es dafür fünf mal mehr Land als jetzt schon für den Ackerbau verwendet wird. Wir müssten dann aufhören, Lebensmittel anzubauen und zusätzlich Wälder roden. Auch wenn solche Überlegungen rein hypothetisch sind, sie werfen dennoch ein Schlaglicht auf die oftmals unterschätzte Bedeutung der Ressource Land. Gemessen am Platzanspruch pro erzeugter Energiemenge schneidet die Atomenergie am günstigsten ab.
Für jede Form der Energiebereitstellung braucht es Rohstoffe. Staumauern und Windrad-Fundamente bestehen aus Beton, Photovoltaik-Paneele aus Glas, Stahl und anderen, zum Teil seltenen Metallen. In einer 2015 von der US-Regierung beauftragten Studie haben Wissenschaftler den Materialverbrauch verschiedener Energieträger miteinander verglichen. Pro Terawattstunde verschlingt die Solar-Stromerzeugung demnach etwas mehr Ressourcen als Wasser- und Windkraft. Der geringste Materialanspruch ergab sich in den Berechnungen der US-Forscher für die Kernenergie.
Der Vergleich verschiedener Energieträger in Punkto CO2-Emissionen, Flächenanspruch und Rohstoff-Verbrauch zeigt: In diesen Bereichen schneidet die Atomkraft besser ab als die Erneuerbaren.
UNO, International Renewable Energy Agency
Energieministerium der Vereinigten Staaten, Quadrennial Technology Review (2015)
Backup-Kosten, Speicherkosten, Stromausgleichskosten, Netzausbaukosten etc.
Sauberer Strom aus erneuerbaren Quellen: Wer will das nicht? Doch der Ausbau der Energieerzeugung aus Sonnen-, Wind- und Wasserkraft stellt die Stromnetze vor erhebliche Probleme. Droht uns ein Blackout, wenn wir allein auf grüne Energie setzen?
In der Nacht ist unser Strombedarf deutlich niedriger als am Tag. Entsprechend unproblematisch ist es, wenn beispielsweise Solarmodule in dieser Zeit keine Energie erzeugen. Doch die Energieerzeugung mittels Wind, Sonne und Wasser ist weiteren großen Schwankungen ausgesetzt. Und das ist ein großes Problem für unsere Netze. Forscher der Universität Oldenburg kommen zu dem Ergebnis, dass die Leistung eines einzelnen Windparks innerhalb weniger Sekunden um bis zu ein Megawatt schwanken kann. Das entspricht in etwa dem durchschnittlichen Energiebedarf von 2.500 Haushalten. Solarenergie ist sogar noch instabiler: vorbeiziehende Wolken können die Leistung binnen Sekunden zum Erliegen bringen.
Wasserkraft ist zwar nicht so schnellen Schwankungen unterworfen. Doch die Wassermengen in den Flüssen können von Jahr zu Jahr und Jahreszeit zu Jahreszeit stark variieren. 2003 erlebte ganz Europa den sogenannten Jahrhundertsommer mit extrem hohen Temperaturen und sehr wenig Niederschlägen. In diesem Jahr lag die durch Wasserkraft erzeugte Strommenge in Österreich um 20 Prozent niedriger als in den Vorjahren. Wissenschaftler prognostizieren für Österreichs Flüsse eine Zunahme sowohl von Hoch- als auch von Niedrigwassern, was die Schwankungsbreite der Pegel deutlich erhöhen dürfte. Entgegen landläufiger Annahmen ist die Stromproduktion bei extremen Hochwassern übrigens nicht besonders hoch, sondern besonders niedrig. Schwemmgut blockiert dann die Anlagen, viele Kraftwerke werden bei Hochwasser vorsorglich abgeschaltet.
Diese extremen Schwankungen müssen unsere Stromnetze abfangen können. Das ist mit enormem technischem Aufwand verbunden. Steigt der Energieanteil der Erneuerbaren auf etwa 30 bis 40 Prozent, steigt damit auch das Risiko für extreme Schwankungen. Und je größer die Schwankungen, desto höher ist der Bedarf an schnell zuschaltbaren und wetterunabhängigen Energieerzeugern wie Gaskraftwerken, die diesen Leistungsabfall schnell ausgleichen können. Sprich: Die Energiewende braucht ein Backup-System, ein Auffangnetz aus Kraftwerken, das einspringt, sobald Windräder still stehen und wolkenverhangene Himmel Solarpanele beschatten. Sonst droht ein Blackout, ein landesweiter Ausfall der Stromversorgung. Das gilt vor allem für Österreich, das in den vergangenen Jahren mehrfach an einem Blackout nur knapp vorbei schrammte. So importierte Österreich im Sommer 2018 zeitweise fast die Hälfte des benötigten Stroms aus dem Ausland. Die Landesgrenzen bilden in den Netzen allerdings eine Art Nadelöhr, so dass der Übertragungsnetzbetreiber Austrian Power Grid mehrfach den Import stoppen musste, um das Stromnetz vor einer Überlastung zu schützen.
Auch Atomkraftwerke sind nicht durchgehend am Netz, beispielsweise wegen Instandhaltungs- und Reparaturarbeiten, dem Austausch von Brennstäben oder technischer Störungen. In Belgien war im vergangenen Winter zeitweilig nur einer der sieben Kernreaktoren am Netz. Im Sommer müssen zahlreiche Kraftwerke ihre Leistung drosseln, weil die Temperatur des Flusswassers, mit dem die Reaktoren gekühlt werden, zu hoch wird. So wurden im Sommer vor allem in Frankreich zahlreiche Reaktoren gedrosselt oder sogar kurzzeitig ganz vom Netz genommen. Doch aufs Jahr gerechnet produziert ein Kernreaktor deutlich zuverlässiger und daher mehr Strom als Wasser-, Wind- und Solarkraftanlagen mit gleicher Leistungskapazität (siehe Grafik). Das zeigen unter anderem aktuelle Zahlen des US-amerikanischen Energieministeriums. Der Energiemarkt der USA eignet sich besonders gut für einen Vergleich, da dort sowohl Atomenergie als auch die Erneuerbaren nennenswerte Anteile am Energiemix haben.
Um große Mengen Strom zu speichern, kann die elektrische Energie in eine andere Energieform umgewandelt und bei Bedarf wieder in Strom zurückgewandelt werden. Dafür gibt es im Wesentlichen drei Technologien: Batterien, Pumpspeicherkraftwerke und Gas-Speicherung. Das Problem: Alle drei Speichermöglichkeiten sind noch vergleichsweise teuer. Außerdem geht bei der Umwandlung ein nicht unwesentlicher Teil der Energie verloren, bei der sogenannten Rückverstromung aus Gas gehen nur etwa ein Drittel bis maximal die Hälfte der Ausgangsenergie ins Netz. Neue Speicherlösungen, die zurzeit entwickelt werden, sollen den Energieverlust auf 20 Prozent drücken.
Unklar ist, ob und wenn ja, wann ein Durchbruch in der Speicher-Technologie zu erwarten ist. Während Leonore Gewessler von den österreichischen Grünen davon ausgeht, dass es in den nächsten Jahren einen nennenswerten Fortschritt geben wird, meint der finnische Parlamentsabgeordnete Atte Harjanne, ebenfalls von den Grünen, dass wir noch Jahrzehnte auf einen solchen Durchbruch warten müssen. Damit erklärt er auch seine positive Bewertung der Atomkraft.
Aufgrund dieser Speicherprobleme werden Windkraft- und Photovoltaikanlagen häufig abgeregelt, d.h. potenzieller Strom wird nicht eingespeist, weil die Netze nur eine begrenzte Strommenge aufnehmen können. Dieses Phänomen wird als Geisterstrom bezeichnet. Werden solche Produktionsspitzen erreicht, greift das sogenannte Einspeisemanagement: Rotoren können aus dem Wind gedreht werden, die Leistung von Photovoltaikanlagen lässt sich per Funksteuerung stufenweise senken.
Diese Abregelung ist für die Netzbetreiber die letzte zu wählende Maßnahme, um das Netz zu stabilisieren. In Deutschland fielen dennoch allein im ersten Quartal 2019 3,23 Milliarden Kilowattstunden Geisterstrom an. Das entspricht dem jährlichen Heizbedarf von rund 100.000 Haushalten oder dem jährlichen Energieverbrauch von 1,5 Millionen E-Autos.
Ein möglicher Ausweg aus der Misere: Mehr Investitionen in moderne Netze, mehr Forschung und mehr Förderungen für Speichertechnologien, weniger Förderung für installierte Leistung. Atomkraftwerke können Schwankungen im Netz gut ausgleichen, genauso wie Gaskraftwerke. Im Unterschied zu diesen sind Kernreaktoren allerdings auch noch nahezu klimaneutral.
Ja. Um genau zu sein, sogar sehr viele. Nach wissenschaftlichen Berechnungen müssten in den nächsten 30 Jahren weltweit rund 1.000 neue Reaktoren gebaut werden, damit die Atomkraft einen nennenswerten Beitrag zur Senkung des CO2-Ausstoßes leisten kann, nämlich 5 bis 6 Prozent.
Um diese Zahl zu erreichen, bräuchte es ein schnelles und globales Umdenken. Denn zurzeit sind gerade einmal 450 Reaktoren in 30 Ländern in Betrieb. 53 weitere sind im Bau.
Wer es ernst meint mit dem Kampf gegen den Klimawandel sollte alle Möglichkeiten in Erwägung ziehen, empfehlen viele Experten und Wissenschaftler. Ist die Atomkraft in diesem Zusammenhang wirklich vernachlässigbar oder lohnt sich ein neuer und ideologiebefreiter Blick auf die Technologie?
Die Atomkraft könnte ein wichtiges Puzzlestück im Kampf gegen den Klimawandel sein. Vor allem neue und effizientere Reaktoren würden dazu beitragen, jahrzehntelang rund um die Uhr nahezu klimaneutrale Energie zu erzeugen: ein großer Vorteil gegenüber den wetterabhängigen Erneuerbaren Energien. Außerdem ist der Platz- und Ressourcenverbrauch von Atomkraftwerken im Verhältnis zu ihrer Leistung äußerst gering.
Der demokratische Präsidentschaftskandidat und Senator von New Jersey, Cory Booker, äußerte Mitte September in einem Interview seinen Unmut über die ablehnende Haltung vieler Parteikollegen gegenüber der Kernenergie und verglich sie mit den meist republikanischen Leugnern des Klimawandels. Um das Null-Emissions-Ziel zu erreichen, könne man nicht ausgerechnet auf die Energiequelle verzichten, die mehr Strom produziert als alle Erneuerbaren zusammen.
Der Bau von Atomkraftwerken kostet viel Geld – je nach Berechnung bis zu dreimal soviel wie die Produktion und Installation erneuerbarer Energieerzeuger mit der gleichen Leistung. Das macht die Kernenergie für private Unternehmen unattraktiv. Bei einem Großteil der aktuellen Kernkraftprojekte sind staatliche oder teilstaatliche Unternehmen involviert. Auch die Bauzeit liegt oft bei mehr als zehn Jahren. Viele Wissenschaftler fordern daher, vor allem die heute verfügbaren Reaktoren möglichst lange am Netz zu halten.
Acht Jahre nach der Reaktorkatastrophe von Fukushima fährt Japan einen Teil seiner bereits abgeschalteten Reaktoren wieder hoch. Die Regierung beschloss im Juni 2018, fünf abgeschaltete Reaktoren wieder ans Netz zu bringen und will den Anteil der Atomkraft am gesamten Strommix bis 2030 auf rund 20 Prozent steigern – mit dem Ziel, die Treibhausgas-Emissionen so schnell wie möglich zu senken. Der tschechische Ministerpräsident Andrej Babiš erklärte Ende September bei der UN-Vollversammlung, dass er im Kampf gegen den Klimawandel auf einen Ausbau der Kernenergie setze. Auch im Atomkraftwerk Dukovany, das nur rund 50 Kilometer von der österreichischen Grenze entfernt steht, soll ein weiterer Reaktor gebaut werden.
Klar ist, dass Atomstrom allein die Klimakrise nicht bewältigen kann. Das größte Potenzial zur Reduktion von Treibhausgasen im Energiesektor liegt in einer Steigerung der Effizienz und im Energiesparen.
Klar ist aber auch: Um das 1,5-Grad-Ziel noch zu erreichen, müsste die Menschheit einen globalen Kraftakt leisten. Verglichen mit dem Niveau des Jahres 2010 müsste sie ihre jährlichen Treibhausgasemissionen bis zum Jahr 2050 um 45 Prozent reduzieren. Das sagen die von Politikern und Umwelt-NGOs tausendfach zitierten und als vertrauenswürdig erachteten Experten des Weltklimarates IPCC; zuletzt in ihrem Sonderbericht vom Oktober 2018.
Im selben Bericht steht aber auch, dass die Atomenergie ihren Anteil an der Energieproduktion erhöhen muss. Einen grundsätzlichen Widerspruch zum Ausbau der Erneuerbaren offenbart das Dokument nicht. Wörtlich steht dort: „Bis zur Mitte des Jahrhunderts kommt der Großteil der Primärenergie in den meisten 1,5-Grad-Szenarien aus nicht-fossilen Quellen (zum Beispiel Erneuerbare und Nuklearenergie).“
Sätze wie dieser werden weit seltener zitiert.
von Timo Küntzle, Dennis Meyer, Johannes Strobl, Florian Aigner, Carla Marquez und Lilly Panholzer
Lesen Sie auch: