Veröffentlicht am

Richtlinien für einen globalen CO2-Haushalt

Zahlreiche Untersuchungen haben während des letzten Jahrzehnts gezeigt, daß die globale Erwärmung in etwa proportional zur CO2-Konzentration in unserer Atmosphäre ist. Auf diese Weise läßt sich unser verbleibende Kohlenstoffhaushalt abschätzen. Das ist die Gesamtmenge des vom Menschen produzierten Kohlendioxids, die noch in die Atmosphäre abgegeben werden kann, bevor ein festgelegter globaler Temperaturgrenzwert erreicht wird. Auf diesen Grenzwert haben sich die Nationen der Welt im Pariser Abkommen 2015 geeinigt. Er soll 1,5°C nicht überschreiten, und in jedem Fall weit unter 2,0°C liegen. Es wurden jedoch zahlreiche Schätzungen für das verbleibende CO2 gemacht, was sich negativ auf die politische Entscheidungsfindung auswirkt. Jetzt hat eine internationale Forschergruppe von ausgewiesenen Klimaexperten eine Richtlinie für die Errechnung des globalen CO2-Haushalts im renomierten Fachmagazin Nature veröffentlicht. Die Forscher schlagen vor, daß die Anwendung dieser Richtlinie dazu beitragen soll, die teils gravierenden Unterschiede bei der Abschätzung des CO2-Haushalts auszugleichen, und die Unsicherheiten in Forschung und Politik zu verringern.

Seit dem fünften Bericht des Zwischenstaatlichen Gremiums für Klimawandel (IPCC) hat das Konzept eines CO2-Haushalts als Instrument zur Ausrichtung der Klimapolitik an Bedeutung gewonnen. In einer Reihe von Studien aus den letzten zehn Jahren wurde geklärt, warum der Anstieg der globalen Durchschnittstemperatur in etwa proportional zur Gesamtmenge der CO2-Emissionen ist, die seit der industriellen Revolution durch menschliche Aktivitäten verursacht wurden. Dabei zitiert die Forschergruppe zahlreiche veröffentlichte Belege. Diese Literatur hat es Wissenschaftlern ermöglicht, den linearen Zusammenhang zwischen Erwärmung und CO2-Emissionen als transiente Klimareaktion auf kumulierte CO2-Emissionen (TCRE) zu definieren. Die Brillianz dieses Konzepts wird deutlich, die man erkennt, daß die Reaktion des komplexen Systems Erde auf unsere CO2-Emissionen durch eine ungefähr lineare Beziehung dargestellt werden kann. In jüngster Zeit wurden jedoch zusätzliche Prozesse, die die zukünftige Erwärmung beeinflussen, in Modelle einbezogen. Dabei handelt es sich z.B. um das Auftauen des arktischen Permafrosts. Diese zusätzlichen Prozesse erhöhen die Unsicherheit. Zudem wird die globale Erwärmung nicht nur durch CO2-Emissionen verursacht. Andere Treibhausgase, wie z.B. Methan, fluorierte Gase oder Lachgas, sowie Aerosole und deren Vorstufen beeinflussen die globalen Temperaturen. Dies verkompliziert die Beziehung zwischen zukünftigem CO2 weiter.

Bei der durch CO2 verursachten Klimaerwärmung trägt jede Tonne zur Erwärmung bei, egal ob diese Tonne CO2 heute, morgen oder in der Verganganheit ausgestoßen wurde. Dies bedeutet, daß die globalen CO2-Emissionen auf das Null gesenkt werden müssen, um dann dort zu bleiben. Das heißt auch, daß unsere Emissionen umso schneller sinken müssen, je mehr wir in den kommenden Jahren emittieren. Auf Nullemission würde sich die Erwärmung zwar stabilisieren, aber nicht verschwinden oder oder sich gar umgekehren. Eine Überziehung des CO2-Haushalts müßte also später wieder durch ein Entfernen des CO2s ausgeglichen werden.  So kann z.B. die Entfernung mit Hilfe von filtern geschehen, wie wir bereits berichteten. Schlußendlich wird dies wohl der einzig verbleibende Weg sein, denn die Durchdringung unserer Energiewirtschaft mit CO2-neutralen Quellen hat sich bei 5% stabilisiert. Die Aufstellung eines Kohlenstoffhaushalts macht die Dringlichkeit deutlich. Leider sind die Angaben über die uns verbleibende Menge CO2 weit gestreut. In ihrer Richtlinie zitieren die Forscher zahlreiche Studien zur Erhaltung des 1,5°C-Ziels, die von 0 Tonnen CO2 bis zu 1.000 Gigatonnen reichen. Für das 2,0°C-Ziel reicht die Spannweite von ca. 700 Gigatonnen bis hin zu fast 2.000 Gigatonnen verbleibende CO2-Emissionen. Das Ziel der Forscher ist es, diese Unsicherheit einzuschränken, in dem sie eine klare Richtlinie vorschlagen. Das zentrale Element dieser Richtlinie ist die Gleichung zur Berechnung des verbleibenden CO2-Haushaltsrahmens:

Blim = (TlimThistTnonCO2TZEC) / TCRE − EEsfb

Dieser Rahmen sind die verbleibenden CO2-Emissionen (Blim) für die spezifische Temperaturgrenze (Tlim) als Funktion von fünf Termen, die Aspekte des geophysikalischen und gekoppelten Mensch-Umwelt-Systems darstellen: die bisherige vom Menschen verursachte Erwärmung (Thist), der Nicht-CO2-Beitrag zum zukünftigen Temperaturanstieg (TnonCO2), die Nullemissionsfestlegung (TZEC), die TCRE und eine Anpassung für Quellen aus eventuellen Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb).

Term

Bedeutung

Art

Derzeitiges Verständnis

Erwärmungsgrenze Tlim Wahl der Temperaturmetriken, mit denen die globale Erwärmung, die Wahl des vorindustriellen
Bezugszeitraums und die Übereinstimmung mit den globalen Klimazielen ausgedrückt werden
Wählbar Mittel bis hoch
Vergangene menschenverursachte Erwärmung Thist Unvollständige Erfassung in Beobachtungsdatensätzen und Methoden zur Abschätzung der vom Menschen verursachten Komponente; Siehe auch Tlim Unsicherheit Mittel bis hoch
Nicht-CO2 Erwärmung TnonCO2 Die Höhe der verschiedenen Nicht-CO2-Emissionen, die mit den weltweiten Netto-Null-CO2-Emissionen übereinstimmen, hängt von den politischen Entscheidungen, aber auch vom unsicheren Erfolg ihrer Umsetzung ab Wählbare Unsicherheit Mittel
Nicht-CO2 Erwärmung TnonCO2 Klimareaktion auf Nicht-CO2-Verusacher, insbesondere in Bezug auf die Aerosolrückgewinnung und  Temperaturreduzierung aufgrund geringerer Methanemissionen Unsicherheit Niedrig bis mittel
Nullemissionsverpflichtung TZEC Vorzeichen und Ausmaß der Nullemissionsverpflichtung in dekadischen Zeitskalen für aktuelle und nahezu Null jährliche CO2-Emissionen Unsicherheit Niedrig
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Verteilung der TCRE-Unsicherheit, Linearität der TCRE zur Erhöhung und Stabilisierung der kumulativen CO2-Emissionen und Auswirkung von Temperaturmetriken auf die TCRE-Schätzung Unsicherheit Niedrig bis mittel
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Über die Spitzenerwärmung hinausgehende Unsicherheit der Linearität, Wert und Verteilung der TCRE zur  Verringerung der kumulierten CO2-Emissionen Unsicherheit Niedrig
Rükkopplungen mit nicht erfaßten
geologischen Systemen
EEsfb Dauer und Ausmaß des Auftauens von Permafrost und der Methanfreisetzung aus Feuchtgebieten und deren Darstellung in Geomodellen sowie andere mögliche Arten von Rückkopplungen Unsicherheit Sehr niedrig

In dem CO2-Haushalt ist wohl die Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb) die größte Unsicherheit. Diese Rückkopplungsprozesse sind typischerweise mit dem Auftauen von Permafrost und der damit verbundenen langfristigen Freisetzung von CO2 und CH4 verbunden. Es wurden jedoch auch andere Rückkopplungsquellen für das Geosystem identifiziert, wie z.B. die Änderungen der CO2-Aufnahme in der Vegetation und die damit verbundene Stickstoffverfügbarkeit. Weitere Rückkopplungsprozesse involvieren die Änderungen der Oberflächenalbedo, der Wolkendecke oder von Brandbedingungen.

Es bleibt es eine Herausforderung, die Unsicherheiten im Zusammenhang mit den Schätzungen des CO2-Haushalt angemessen zu charakterisieren. In einigen Fällen ist die Ursache der Unsicherheiten ungenaue Kenntnis der zugrunde liegenden Prozesse oder mangelnde Genauigkeit der Messungen. In anderen Fällen werden Begriffe nicht einheitlich verwendet. Für eine bessere Vergleichbarkeit und Flexibilität schlagen die Forscher vor, die globalen Werte der Oberflächenlufttemperatur routinemäßig zu messen. Diese Methode liefert unveränderliche Zahlen für Modelle, Modellabläufe über gewählte Zeiträume hinweg. Detailliertere Vergleiche zwischen veröffentlichten Schätzungen den CO2-Haushalt sind derzeit schwierig, da oft die Originaldaten aus den ursprünglichen Studien fehlen. Die Forscher schlagen daher vor, diese zukünftig zusammen mit den Publikationen bereitzustellen.

Die Zerlegung des CO2-Haushalts in seine Einzelfaktoren ermöglicht es, eine Reihe vielversprechender Wege für die zukünftige Forschung zu identifizieren. Ein Forschungsbereich, der dieses Feld voranbringen könnte, ist die nähere Betrachtung der TCRE. Zukünftige Forschungen werden voraussichtlich die Bandbreite der TCRE-Schätzungen einschränken, was die Unsicherheit verringern wird. Ein weiteres vielversprechendes Forschungsgebiet ist die Untersuchung der Wechselbeziehung zwischen Einzelfaktoren und ihren verbunden Unsicherheiten, beispielsweise zwischen Unsicherheiten in Thist und TnonCO2. Dies könnte durch die Entwicklung von Methoden erreicht werden, die eine zuverlässige Abschätzung der vom Menschen verursachten Erwärmung in jüngerer Zeit ermöglichen. Klar ist auch, daß weniger komplexe Klimamodelle nützlich sind, um die Unsicherheiten weiter zu reduzieren. Gegenwärtig weist jeder Faktor des vorgestellten Rahmens seine eigenen Unsicherheiten auf, und es fehlt eine Methode, um diese Unsicherheiten formal zu kombinieren.

Auch bei Frontis Energy denken wir, daß Fortschritte in diesen Bereiche unser Verständnis bei der Schätzungen des CO2-Haushalts verbessern würde. Ein systematisches Verständnis des CO2-Haushalts und ist für eine wirksame Zielsetzung und die Kommunikation der Herausforderungen beim Klimaschutze von entscheidender Bedeutung.

Veröffentlicht am

Ammoniak als Energiespeicher #3

Als treue Leserin oder treuer Leser unseres Blogs werden Sie sich bestimmt an unsere vorherigen Beiträge zum Thema Ammoniak als Energiespeicher erinnern. Darin beschreiben wir mögliche Wege zur Gewinnung von Ammoniak aus der Luft, sowie der Rückgewinnung der dabei aufgebrachten Energie in Form von Methan. Letzteres Verfahren haben wir zum Patent angemeldet (WO2019/079908A1). Da die weltweite Nahrungsmittelproduktion große Mengen Ammoniak als Dünger erfordert, ist die Technologie zur Gewinnung aus der Luft schon sehr ausgereift. Diese basiert im Wesentlichen noch immer auf dem Haber-Bosch-Verfahren, welches zu Beginne des letzten Jahrhunderts zur Industriereife gebracht wurde. Dabei wird atmosphärischer Stickstoff (N2) zu Ammoniak (NH3) reduziert. Trotz der Einfachheit der beteiligten Moleküle ist die Spaltung der starken Stickstoff-Stickstoff-Bindungen im N2 und die daruas folgende Stickstoff-Wasserstoff-Bindungen eine große Herausforderung für katalytische Chemiker. Die Reaktion findet in der Regel unter harschen Bedingungen statt und benötigt viel Energie, d.h. hohe Reaktionstemperaturen, hohe Drücke und komplizierte Kombinationen von Reagenzien, die zudem oft teuer und energieintensiv in der Herstellung sind.

Jetzt hat eine Forschergruppe um Yuya Ashida einen Artikel im renomierten Fachblatt Nature veröffentlicht, in dem sie zeigen, daß eine Samariumverbindung in wässriger Lösung mit einem Molybdänkatalysator kombiniert, Ammoniak aus Luftstickstoff bilden kann. Die Arbeit eröffnet neue Möglichkeiten auf der Suche nach Wegen zur Ammoniaksynthese, welche unter Umgebungsbedingungen ablaufen. Unter solchen Bedingungen wäre der Energieaufwand zur Herstellung von Ammoniak geringer und somit die Energieeffizienz bei Energiespeicherung höher. Im heutigen Haber-Bosch-Verfahren werden Luftstoff und Wasserstoffgas über einem eisenhaltigen Katalysator miteinander verbunden. Die weltweite Ammoniakproduktion liegt heute bei 250 bis 300 Tonnen pro Minute und liefert Düngemittel, mit denen fast 60% der Weltbevölkerung versorgt werden (The Alchemy of Air, erhältlich bei Amazon).

Vergleich von Ansätzen zur Herstellung von Ammoniak. Oben: Bei der industriellen Haber-Bosch-Synthese von Ammoniak (NH3) reagiert Stickstoffgas (N2) mit Wasserstoffmolekülen (H2), typischerweise in Gegenwart eines Eisenkatalysators. Das Verfahren erfordert hohe Temperaturen und Drücke, ist jedoch thermodynamisch ideal, weil nur wenig Energie für Nebenprozesse verschwendet wird. Mitte: Nitrogenase-Enzyme katalysieren die Reaktion von Stickstoff mit sechs Elektronen (e) und sechs Protonen (H+) unter Laborbedingungen zu Ammoniak. Zwei zusätzliche Elektronen und Protonen bilden jedoch ein Molekül H2, und die Umwandlung von ATP (der Zellbrennstoff) in ADP treibt die Reaktion an. Das Verfahren weist daher ein hohes chemisches Überpotential auf. Es verbraucht viel mehr Energie, als für die eigentliche Ammoniakbildungsreaktion benötigt wird. Unten: Bei der neue Reaktion, vorgeschlagen von Ashida und Kollegen, wird ein Gemisch aus Wasser und Samariumdiiodid (SmI2) mit Stickstoff unter Umgebungsbedingungen in Gegenwart eines Molybdänkatalysators in Ammoniak umwandelt. SmI2 schwächt die O−H-Bindungen des Wassers und erzeugt die Wasserstoffatome, die dann mit Distickstoff reagieren.

Im großtechnischen Maßstab wird  Ammoniak bei Temperaturen von über 400°C und Drücken von ungefähr 400 Atmosphären synthetisiert. Diese Bedingungen werden oft auch als „harsch“ bezeichnet. Anfägnlich waren dies harschen Bedingungen nur schwer zu kontrollieren, was oft zu tötlichen Unfällen in den frühen Jahren des Haber-Bosch-Verfahrens führte. Dies hat viele Chemiker dazu motiviert, „mildere“ Alternativen zu finden. Schlußendlich bedeutete dies immer die Suche nach neuen Katalysatoren, um die Betriebstemperaturen und -drücke zu senken. Die Suche nach neuen Katalysatoren sollte am Ende Investitionen beim Bau von neuen Ammoniakanlagen senken. Da die Ammoniaksynthese zu den größten Kohlendioxidproduzenten gehört, würden dadurch auch die damit verbudenen Emissionen gesenkt werden.

Wie viele andere Chemiker vor ihnen, haben sich die Autoren von der Natur inspirieren lassen.  Die Familie der Nitrogenaseenzyme ist für die biologische Umwandlung von Luftstickstoff in Ammoniak verantwortlich, ein Prozess, der als Stickstoffixierung bezeichnet wird. Dieser Prozess ist in der modernen Welt die Quelle von Stickstoffatomen in Aminosäuren und Nukleotiden, also den elementaren Bausteinen des Lebens. Im Gegensatz zum Haber-Bosch-Prozess verwenden Nitrogenasen jedoch kein Wasserstoffgas als Quelle für Wasserstoffatome. Stattdessen übertragen sie Protonen (Wasserstoffionen; H+) und Elektronen (e) auf jedes Stickstoffatom, um N−H Bindungen herzustellen. Obwohl Nitrogenasen Stickstoff bei Umgebungstemperatur fixieren, verwenden sie acht Protonen und Elektronen pro Stoffmolekül. Dies ist bemerkenswert, weil Stöchiometrie der Reaktion nur sechs erfordert. Die Nitrogenasen stellen dadurch notwendigen thermodynamischen für die Fixierung bereit. Die Bereitstellung von überschüssigen Wasserstoffäquivalenten bedeutet, daß Nitrogenasen ein hohes chemischen Überpotential angewisen sind. Sie also verbrauchen viel mehr Energie, als tatsächlich für eigentliche Stickstoffixierung notwendig wäre.

Der nun veröffentliche Weg ist nicht der erste Versuch, die Nitrogenasereaktion nachzuahmen. Auch früher wurden Metalkomplexe zusammen mit Protonen- und Elektronenquellen verwendet, um Luftstickstoff in Ammoniak umzuwandeln. So hatten z.B. die selben Forscher zuvor 8 Molybdänkomplexe entwickelt, die die Stickstoffixierung auf diese Weise katalysieren. Dabei wurden  230 Ammoniakmoleküle pro Molybdänkomplex produziert. Die damit verbundenen Überpotentiale waren mit fast 1.300 kJ pro Mol Stickstoff erheblich. In der Realität is das Haber-Bosch-Verfahren also gar nicht so energieintensiv, wenn der richtige Katalysator zum Einsatz kommt.

Die Herausforderung für Katalyseforscher besteht nun darin, die besten biologischen und industriellen Ansätze für die Stickstoffixierung so zu kombinieren, daß das Verfahren normalen Umgebungstemperaturen und -drücken abläuft. Gleichzeitig muß der Katalysator das chemische Überpotential so weit reduzieren, das der Neubau von Haber-Bosch-Anlagen nicht mehr so viel Kaptial erfordert, wie zur Zeit noch. Das ist eine große Herausforderung, da bisher noch keine Kombination von Säuren (die als Protonenquelle dienen) und Reduktionsmitteln (die Elektronenquellen) gefunden wurde, die eine thermodynamischen Bedinugnen für die Fixierung auf dem Niveau von Wasserstoffgas liefert. D.h. die Kombination muß reaktiv genug sein, um N−H-Bindungen bei Raumtemperatur bilden zu können. In dem nun vorgeschlagenen Weg mit  Molybdän und Samarium haben die Forsche eine Strategie übernommen, bei der die Protonen- und Elektronenquellen nicht mehr getrennt eingesetzt werden. Dieser grundlegend neue Ansatz für die katalytische Ammoniaksynthese basiert auf einem Phänomen, das als koordinationsinduzierte Bindungsschwächung bekannt ist. In dem vorgeschlagenen Weg basiert das Phänomen auf dem Zusammenspiel von Samariumdiiodid (SmI2) und Wasser.

Wasser ist stabiel aufgrund seiner starken Sauerstoff-Wasserstoff-Bindungen (O−H). Wenn das Sauerstoffatom im Wasser jedoch mit SmI2 koordiniert wird gubt es sein einziges Elektronenpaar auf und seine O−H-Bindungen werden geschwächt. Dadurch wird resultierende Mischung zu einer ergiebigen Quelle für Wasserstoffatome, also für Protonen und Elektronen. Die Forschor um Yuya Ashida verwenden sie diese Mischung mit einem Molybdänkatalysator, um Stickstoff zu fixieren. SmI2-Wasser-Gemische also  für diese Art der Katalyse besonders geeignet. In ihnen wurde zuvor eine beträchtliche koordinationsinduzierte Bindungsschwächung gemessen, die unter anderem zur Herstellung von Kohlenstoff-Wasserstoff-Bindungen eingesetzt wurde.

Die Ausweitung dieser Idee auf die katalytische Ammoniaksynthese ist aus zwei Gründen bemerkenswert. Erstens wird durch den Molybdänkatalysator die Ammoniaksynthese in wässriger Lösung erleichtert. Das ist erstaunlich, weil Molybdänkomplexe in Wasser häufig abgebaut werden. Zweitens bietet die Verwendung einer koordinationsinduzierten Bindungsschwächung eine neue Methode zur Stickstofixierung bei normalen Umgebungstemperaturen und -drücken. Dadurch wird zusätzlich die Verwendung potenziell gefährlicher Kombinationen von Protonen- und Elektronenquellen vermieden. Solche Kombinationen können sich z.B. spontan entzünden. Der Ansatz der Autoren funktioniert auch, wenn Ethylenglykol (HOCH2CH2OH) anstelle von Wasser verwendet wird. So werden die in Frage kommenden Protonen- und Elektronenquellen um einen möglichen Vorläufer erweitert.

Ashida und Kollegen schlagen einen Katalysezyklus für ihr Verfahren vor, bei dem der Molybdänkatalysator zunächst an Stickstoff koordiniert und die N−N-Bindung unter Bildung eines Molybdännitrido-Komplexes spaltet. Dieser Molybdännitrido-Komplex enthält eine Molybdän-Stickstoff-Dreifachbindung.  Das SmI2-Wasser-Gemisch liefert dann Wasserstoffatome zu diesem Komplex, wodurch schließlich Ammoniak produziert wird. Die Bildung von N−H-Bindungen mithilfe von Molybdännitridokomplexen stellt eine erhebliche thermodynamische Herausforderung dar, da die N−H-Bindungen ebenfalls durch das Molybdän geschwächt werden. Dennoch werden die Nachteile durch die Reduktion des chemisches Überpotential ausgeglichen. Das SmI2 erleichtert nicht nur den Transfer von Wasserstoffatomen, sondern hält auch das Metall in reduzierter Form vor. So wird die ungewollte Bildung von Molybdänoxid in wässriger Lösung verhindert.

Das neue Verfahren muß noch erhebliche betriebliche Hürden nehmen, bevor es großtechnisch eingesetzt werden kann. So wird z.B. SmI2 in großen Mengen verwendet, was viel Abfall erzeugt. Die Abtrennung von Ammoniak aus wässrigen Lösungen ist energetisch aufwendig. Würde das Verfahren jedoch zur Energiespeicherung in Kombination mit unserer Methode der Rückgewinnung eingesetzt, entfiele die Abtrennung aus der wässrigen Lösung. Letztlich verbleibt immernoch ein chemisches Überpotential von etwa 600 kJ/mol. Zukünftige Forschungen sollten sich darauf konzentrieren, Alternativen zu SmI2 zu finden. Diese könnten z.B. auf Metallen basieren, die häufiger als Samarium vorkommen und ebenfalls die koordinationsbedingte Bindungsschwächung zu fördern. Wie schon bei Fritz Haber und Carl Bosch wird es wohl auch bei der neu entwickelten Methode noch einige Zeit dauern, bis ein industriereifes Verfahren zur Verfügung steht.

(Foto: Wikipedia)

Veröffentlicht am

Grönlandeis trägt zu 25% des Meeresspiegelanstiegs bei

Kürzlich berichteten wir über den Verlust der Schneedecke in Europa. Nicht nur in Europa gibt es weniger Schnee und Eis, auch Grönlands Eisdecke schmilzt. Der Eispanzer Grönlands trägt 25% zum globalen Meeresspiegelanstieg bei. Damit ist es größte Beitrag der Kryosphäre. Der erhöhte Massenverlust des Grönlandeises während des 21. Jahrhunderts ist hauptsächlich auf den erhöhten Oberflächenwasserabfluß zurückzuführen, von dem ~93% aus der relativ kleinen Ablationszone des Eisschildrands stammen (~22% der Eisfläche). Da die Schneedecke im Sommer schmilzt, wird in der Ablationszone nacktes Gletschereis freigelegt. Blankes Eis dunkler und weniger porös ist als Schnee. Es absorbiert mehr als doppelt so viel Sonnenstrahlung und hält weniger Schmelzwasser zurück. Glattes Eis erzeugt also einen großen Anteil (~78%) des gesamten Abflusses Grönlands ins Meer, obwohl im Sommer nur ein kleiner Bereich der Eisdecke exponiert ist. Die genaue Erfassung der reduzierten Albedo und des vollen Ausmaßes von nacktem Eis in Klimamodellen ist für die Bestimmung des gegenwärtigen und zukünftigen Abflußbeitrags Grönlands zum Meeresspiegelanstieg von hoher Bedeutung.

Der Massenverlust des grönländischen Eisschildes hat in letzter Zeit aufgrund der erhöhten Oberflächenschmelze und des Abflusses zugenommen. Da Schmelze durch Oberflächenalbedo kritisch beeinflußt wird, ist das Verständnis um die Prozesse und potentielle Rückkopplungen im Zusammenhang mit der Albedo eine Voraussetzung für die genaue Vorhersage des Massenverlusts. Die so verursachte Strahlungsvariabilität in der Ablationszone ließ die Eisschicht fünfmal schneller schmelzen als bei hydrologischen und biologischen Prozessen, die ebenfalls Eis verdunkeln. In einem wärmeren Klima üben die Schwankungen der Schneegrenzen aufgrund der flacheren höhergelegenen Eisschicht eine noch größere Kontrolle auf die Schmelze aus. Diese Schwankungen hatten zur Folge, daß die im Sommer 2012, dem Rekordjahr der Schneeschmelze, die kartierte Eisfläche sich über die größte gemessene Fläche von 300.050 km2 erstreckte. Das heißt, daß nacktes Eis 16% der Eisfläche ausmachte. Die kleinste Ausdehnung des nackten Eises war 184.660 km2 und wurde im Jahr 2006 beobachtet. Dies entsprach 10% der Eisfläche ausgesetzt, also fast 40% weniger Fläche als 2012. Die beobachtete Schneedecke schwankte jedoch sehr stark und er Beobachtungszeitraum war für eine Trendeinschätzung zu kurz.

Derzeitige Klimamodelle sind in ihren Vorhersagen für Hochwasserjahre jedoch zu ungenau, was zu einer Unsicherheit bei der Schätzung des Abflußbeitrags Grönlands zum Anstieg des globalen Meeresspiegels führt. Um die Faktoren zu verstehen, die das Schmelzen beeinflussen, haben Jonathan Ryan von der Brown University in Providence, Rhode Island seine Kollegen die grönländische Schneegrenze betrachtet. In Höhen unterhalb der Schneegrenze ist das dunklere Eis nicht vom Schnee bedeckt. Diese Schneegrenze wird während der Jahreszeiten Grönlands nach oben oder nach unten verschoben. Die Forscher haben diese Landschaften zwischen 2001 bis 2017 mithilfe von Satellitenbildern kartiert. Die durchschnittliche Höhe der Schneegrenze lag am Ende des Sommers 2009 zwischen 1.330 m und im Jahr 2012 bei 1.650 m. Die Schwankungen in der Schneegrenze sind der wichtigste Faktor, wenn es darum geht wie viel Sonnenenergie die Eisplatte absorbiert. Modellierer müssen diesen Effekt berücksichtigen, um ihre Vorhersagen zu verbessern. Das Wissen darum, wie viel und wie schnell das grönländische Eis schmilzt wird uns helfen, bessere Schutzmaßnahmen einzuleiten. Bei Frontis Energy denken wir, daß der beste Schutz vor einem Anstieg des Meeresspiegels die Vermeidung und das Recyclen von CO2 sind.

(Foto: Wikipedia)

Veröffentlicht am

Wirtschaftliche Verluste in Europa durch klimawandelbedingte Hochwasser

In Europa stehen Überschwemmungen im Zusammenhang mit starken Schwankungen des Luftdrucks. Diese Schwankungen sind auch als Nordatlantische Oszillation bekannt. Stefan Zanardo und seine Kollegen von Risk Management Solutions in London in Großbritannien, analysierten historische Aufzeichnungen von schweren Überschwemmungen in Europa bis ins Jahr 1870.  Sie verglichen Muster des Atmosphärendrucks zum Zeitpunkt der Überschwemmungen. Wenn sich die Nordatlantische Oszillation im positiven Zustand befindet, treibt ein starkes Tiefdrucksystem in Island Wind und Sturm in ganz Nordeuropa an. Umgekehrt macht sie im negativen Zustand Südeuropa feuchter als sonst. Normalerweise treten Hochwasser in Nordeuropa auf. Sie verursachen den größten Schaden, wenn die Nordatlantische Oszillation im Winter positiv war. Zudem muss bereits ausreichend Regen gefallen sein, um den Boden mit Wasser zu sättigen. Die Luftdruckentwicklung in Europa kann sich mit dem künftigen Klimawandel ändern, und die öffentlichen Verwaltungen sollten dies bei der Bewertung des Hochwasserrisikos in einer Region berücksichtigen, so die Wissenschaftler.

Das ist wichtig, weil in Europa Hochwasser häufig für den Verlust von Menschenleben, für  erhebliche Sachschäden, Betriebsunterbrechungen verantwortlich sind. Durch die Klimaerwärmung wird sich diese Situation weiter verschlechtern. Die Risikoverteilung wird sich ebenfalls verändern. Das häufige Auftreten katastrophaler Hochwasserereignisse in den letzten Jahren hat ein starkes Interesse an diesem Problem sowohl im öffentlichen als auch im privaten Sektor ausgelöst. Im öffentlichen  Sektor wurde daran gearbeitet, Frühwarnsysteme zu verbessern. Diese Frühwarnsysteme haben in der Tat einen wirtschaftlichen Nutzen. Darüber hinaus wurden in den europäischen Ländern verschiedene Strategien zur Risikominimierung umgesetzt. Dazu zählen staatliche Eingriffe in den Hochwasserschutz, Massnamhen zur Erhöhung des Risikobewusstseins, sowie Risikotransfer durch eine bessere Verbreitung von Hochwasserversicherungen. Die Bekämpfung der Ursache, nämlich der globalen Erwärmung, hingt dagegen noch stark hinter den Erfordernissen hinterher.

Zusammenhänge zwischen großräumigen Klimamustern, insbesondere der Nordatlantischen Oszillation, und Extremereignissen im Wasserkreislauf auf dem europäischen Kontinent wurden seit langem bekannt. Wie sich dieser Zusammenhang auf wirtschaftliche Risiken durch Hochwasserverluste auswirkt, wurde jedoch noch untersucht. Die zunehmende Hochwasserbelastung und alarmierende Klimawandel-Szenarien sorgen für wachsende Besorgnis über zukünftige wirtschaftliche Verluste durch Hochwasser. Zwar is bekannt, dass klimatische Muster auch meteorologische Ereignisse steuern. Es ist aber nicht immer klar, ob sich diese Verbindung auf das Auftreten von Hochwasserereignissen und die damit verbundenen wirtschaftlichen Verluste auswirkt. In Ihrer Studie zeigen die Forscher, dass tatsächlich ein signifikanter Zusammenhang zwischen der Nordatlantischen Oszillation und den Überschwemmungsverlusten besteht. Dazu verwendeten die Forscher aktuelle Daten aus Hochwasserdatenbanken sowie Katastrophenmodelle. Solche Modelle ermöglichen die Quantifizierung der wirtschaftlichen Verluste, die letztendlich durch die Nordatlantischen Oszillation verursacht werden. Diese Verluste variieren stark zwischen den Staaten der Nordatlantischen Oszillation.

Die Studie zeigt, dass die Nordatlantische Oszillation die durchschnittlichen Verluste auf lange Sicht gut vorhersagen kann. Auf der Grundlage der jüngsten Entwicklung der Vorhersagbarkeit der Nordatlantischen Oszillation argumentieren die Forscher, dass insbesondere die zeitlichen Schwankungen des Hochwasserrisikos, verursacht durch Klimaoszillationen, vorhergesagt werden können.  Das kann helfen, frühzeitig Gegenmaßnahmen zu ergreifen. Dadurch können Schäden durch Hochwasser vermidnert werden. Während die Wissenschaftler ihre Vorhersagen für die Nordatlantischen Oszillation verbessern, wird die Gesellschaft sich besser auf zukünftige Überschwemmungen vorbereiten können.

(Foto: Wikipedia, Stefan Penninger, Schweden)

Veröffentlicht am

Flüssigbrennstoff aus bio-elektrischen Reaktoren

Bei Frontis Energy haben wir viel darüber nachgedacht, wie man CO2 wiederverwerten kann. Während hochwertige Produkte wie Polymere für medizinische Anwendungen rentabler sind, ist die Nachfrage nach solchen Produkten zu gering, um CO2 in großen Mengen wiederzuverwertten. Das ist aber nötig, um die CO2-Konsentration unserer Atmosphäre auf ein vorindustrielles Niveau zu bringen. Biokraftstoffe, zum Beispiel aus Biomasse, wurden seit langem als Lösung vorgeschlagen. Leider benötigt Biomasse sie zu viel Ackerland. Zudem ist die zugrundeliegende Biochemie zu komplex, um sie in Ihrer Gesamtheit zu verstehen und so effektive Lösungen zu implementieren. Daher schlagen wir einen anderen Weg vor, um das Ziel der Dekarbonisierung unseres Planeten schnell zu erreichen. Das vorgeschlagene Verfahren beginnt mit einem gewünschten Zielkraftstoff und schlägt eine mikrobielle Vergesellschaftung vor, um diesen Kraftstoff herzustellen. In einem zweiten Schritt wird das mikrobielle Konsortium in einem bioelektrischen Reaktor (BER) untersucht.

Mögliche Biosynthesewege zur elektrosynthetischen Kraftstoffgewinnung. CO2 kann für die Herstellung von Flüssigbrennstoff auf mehreren Wegen verwendet werden. Das Endprodukt, langkettige Alkohole, kann entweder direkt als Brennstoff verwendet oder zu Kohlenwasserstoffen reduziert werden. Es werden Beispiele für Bioelektrokraftstoff-Pfade gezeigt, bei denen CO2 und Strom als Ausgangsmaterial verwendet werde. Methan, Acetat oder Butanol sind die Endprodukte. Nachfolgende Verfahren sind 1, aerobe Methanoxidation, 2, direkte Verwendung von Methan, 3 heterotrophe Phototrophen, 4, Aceton-Butanol-Gärung, 5, Biomassegewinnung, 6, Butanol als direktes Endprodukt, 7, weitere Vergärung durch Hefen zu Fuselalkoholen

Unser heutiges atmosphärische CO2-Ungleichgewicht ist die direkte Folge der Verbrennung fossiler Kohlenstoffe. Diese Realität erfordert schnelle und pragmatische Lösungen, um einen weitere CO2-Anstieg zu verhindern. Die direkte Abscheidung von CO2 aus der Luft ist schon bald rentabel. Dadurch wird die Nutzung von Ackerland für den Anbau von Treibstoff verhindert. Die Herstellung von Kraftstoff für Verbrennungsmotoren mit CO2 also Ausgangsmaterial ist kurzfristig die beste Zwischenlösung, da sich dieser Kraftstoff nahtlos in die vorhandene städtische Infrastruktur integriert. Biokraftstoffe wurden in den letzten Jahren intensiv erforscht, insbesondere auf dem neuen Gebiet der synthetischen Biologie. So verführerisch die Anwendung gentechnisch veränderter Organismen (GVO) zu sein scheint, so sind doch traditionell gezüchtete mikrobielle Stämme bereits vorhanden und somit sofort verfügbar. Unter Vermeidung von GVO, wird CO2 bereits heute in BER zur Herstellung von C1-Kraftstoffen wie Methan verwendet. BER können auch zur Herstellung von Kraftstoffvorläufern wie Ameisensäure oder Synthesegas, sowie C1+ -Verbindungen wie Acetat, 2-Oxybutyrat, Butyrat, Ethanol und Butanol eingesetzt werden. Gleichzeitig lassen sich BER gut in die städtische Infrastruktur integrieren, ohne daß kostbares Ackerland benötigt wird. Mit Ausnahme von Methan ist jedoch keiner der vorgenannten bioelektrischen Kraftstoffen (BEKS) in reiner Form leicht brennbar. Während Elektromethan eine im Handel erhältliche Alternative zu fossilem Erdgas ist, ist seine volumetrische Energiedichte von 40-80 MJ/m3 niedriger als die von Benzin mit 35-45 GJ/m3. Abgesehen davon, wird Methan als Kraftstoff von den meisten Automobilnutzern nicht gekauft. Um flüssigen Brennstoff herzustellen, müssen Kohlenstoffketten mit Alkoholen oder besser Kohlenwasserstoffen als Endprodukten verlängert werden. Zu diesem Zweck ist Synthesegas (CO + H2) eine theoretische Option und kann durch die Fischer-Tropsch-Synthese gewonnen werden. Tatsächlich sind Synthesegasvorläufer aber entweder fossile Brennstoffe (z. B. Kohle, Erdgas, Methanol) oder Biomasse. Während fossile Kraftstoffe offensichtlich nicht CO2-neutral sind, benötigt man zur Herstellung von Biomasse Ackerland. Die direkte Umwandlung von CO2 und elektrolytischen Wasserstoff in C1+ -Kraftstoffe wird wiederum durch elektroaktive Mikroben im Dunkeln katalysiert (siehe Titelbild). Dadurch wird die Konkurrenz zwischen Nahrungsmittelanbau und Kraftstoffpflanzen vermieden. Leider wurde nur bislang wenig anwendbares zu elektroaktiver Mikroben erforscht. Im Gegensatz dazu gibt es eine Vielzahl von Stoffwechselstudien über traditionelle mikrobielle Kraftstoffproduzenten. Diese Studien schlagen häufig die Verwendung von GVO oder komplexen organischen Substraten als Vorläufer vor. Bei Frontis Energy gehen wir einen anderen weg. Wir ermitteln systematisch Stoffwechselwege für die Produktion von flüssigem BEKS. Der schnellste Ansatz sollte mit einem Screening von metabolischen Datenbanken mit etablierten Methoden der metabolischen Modellierung beginnen, gefolgt von Hochdurchatztestsin BER. Da Wasserstoff das Zwischenprodukt in der Bioelektrosynthese ist, besteht die effizienteste Strategie darin, CO2 und H2 als direkte Vorläufer mit möglichst wenigen Zwischenschritten zu benutzen. Skalierbarkeit und Energieeffizienz, also wirtschaftliche Machbarkeit, sind dabei entscheident.

Zunächst produziert ein elektrotropher Acetogen Acetat, das von heterotrophen Algen im darauffolgenden Schritt verwendet wird.

Das größte Problem bei der die BEKS-Produktion ist das mangelnde Wissen über Wege, die CO2 und elektrolytisches H2 verwenden. Diese Lücke besteht trotz umfangreicher Stoffwechseldatenbanken wie KEGG und KBase, wodurch die Auswahl geeigneter BEKS-Stämme einem Stochern im Nebel gleichkommt. Trotz der hohen Komplexität wurden Stoffwechselmodelle verwendet, um Wege zur Kraftstoffproduktion in Hefen und verschiedenen Prokaryoten aufzuzeigen. Trotz ihrer Unzulänglichkeiten wurden Stoffwechelatenbanken breits eingesetzt, um Artwechselwirkungen zu modellieren, z.B. mit ModelSEED / KBase (http://modelseed.org/) in einer heterotrophen Algenvergesellschaftung, mit RAVEN / KEGG oder mit COBRA. Ein erster systematischer Versuch für acetogene BEKS-Kulturen, bewies die die Verwendbarkeit von KBase für BER. Diese Forschung war eine Genomstudie der vorhandenen BEKS-Konsortien. Dieselbe Software kann auch in umgekehrt eingesetzt werden, beginnend mit dem gewünschten Brennstoff. Im Ergebnis werden dann die erforderlichen Organismen benannt. Wir beschrieben nun einige BEKS-Kulturen.

Mögliche Kombinationen für die BEKS-Produktion mit Clostridien, 3, oder heterotrophe Algen, 7. Die Weiterverarbeitung erfolt durch Hefen.

Hefen gehören zu den Mikroorganismen mit dem größten Potenzial für die Produktion von flüssigem Biokraftstoff. Bäckerhefe (Saccharomyces cerevisiae) ist das prominenteste Beispiel. Hefen sind zwar für die Ethanolfermentation bekannt, produzieren aber auch Fuselöle wie Butan, Phenyl- und Amylderivate, Aldehyde und Alkohole. Im Gegensatz zu Ethanol, das durch Zuckerfermentation gebildet wird, wird Fuselöl im Aminosäurestoffwechsel synthetisiert, gefolgt von Aldehydreduktion. Es wurden viele Enzyme identifiziert, die an der Reduktion von Aldehyden beteiligt sind, wobei Alkoholdehydrogenasen am häufigsten beobachtet werden. Die entsprechenden Reduktionsreaktionen erfordern reduziertes NADH⁠, es ist jedoch nicht bekannt, ob an Kathoden gebildetes H2 daran beteiligt sein kann.
Clostridien, beispielsweise Clostridium acetobutylicum und C. carboxidivorans, können Alkohole wie Butanol, Isopropanol, Hexanol und Ketone wie Aceton aus komplexen Substraten (Stärke, Molke, Cellulose usw.) oder aus Synthesegas herstellen. Der Clostridienstoffwechsel wurde vor einiger Zeit aufgeklärt und unterscheidet sich von Hefe. Er erfordert nicht zwangsläufig komplexe Substrate für die NAD+-Reduktion, denn es wurde gezeigt, daß Wasserstoff, Kohlenmonoxid und Kathoden Elektronen für die Alkoholproduktion abgeben können. CO2 und Wasserstoff wurden in einem GMO-Clostridium verwendet, um hohe Titer von Isobutanol herzustellen. Typische Vertreter für die Acetatproduktion aus CO2 und H2 sind C. ljungdahlii, C. aceticum und Butyribacterium methylotrophicum. Sporomusa sphaeroides produziert Acetat in BES. Clostridien dominierten auch in Mischkulturen in BER, die CO2 in Butyrat umwandelten. Sie sind daher vorrangige Ziele für eine kostengünstige Produktion von Biokraftstoffen. In Clostridien werden Alkohole über Acetyl-CoA synthetisiert. Diese Reaktion ist reversibel, wodurch Acetat als Substrat für die Biokraftstoffproduktion mit extrazellulärer Energieversorgung dienen kann. In diesem Fall wird die ATP-Synthese durch Elektronenbifurkation aus der Ethanoloxidation oder durch Atmung und Wasserstoffoxidation betrieben. Ob die Elektronenbifurkation oder Atmung mit Alkoholen oder der Ketonsynthese verknüpft sind ist nicht bekannt.
Phototrophe wie Botryococcus produzieren auch C1+ Biokraftstoffe. Sie synthetisieren eine Reihe verschiedener Kohlenwasserstoffe, darunter hochwertige Alkane und Alkene sowie Terpene. Hohe Titer wurden jedoch nur mithilfe von GVOs produziert, was in vielen Ländern aus rechtlichen Gründen ökonomisch schwer möglich ist. Darüber hinaus erfordert die Dehydratisierung / Deformylierung vom Aldehyd zum Alkan oder Alken molekularen Sauerstoff, was deren Produktion in BER unmoeglich macht, da Saurstoff bevorzugt die Kathode oxidiert. Der Olefinweg von Synechococcus hängt auch von molekularem Sauerstoff ab, wobei das Cytochrom P450 an der Fettsäuredecarboxylierung beteiligt ist. Die Anwesenheit von molekularem Sauerstoff beeinflußt die BES-Leistung auch durch den sofortigen Produktabbau. Im Gegensatz dazu zeigen unsere eigenen Vorversuche (siehe Titelfoto) und ein Korrosionsexperiment, daß Algen mit einer Kathode als Elektronendonor im Dunkeln leben können, selbst wenn geringe Mengen Sauerstoff vorhanden waren. Die an der Herstellung einiger Algenkraftstoffe beteiligten Enzyme sind zwar bekannt (wie die Deformylierung von Olefinen und Aldehyden), es ist jedoch nicht bekannt, ob diese Wege durch Wasserstoffnutzung beschritten werden können (möglicherweise über Ferredoxine). Ein solcher Zusammenhang wäre ein vielversprechender Hinweis für Kohlenwasserstoff-erzeugenden Cyanobakterien, die an Kathoden wachsen können. Unsere zukünftige Forschungen wird zeigen, ob wir hier richtig liegen.
Bei Frontis Energy glauben wir, daß eine Reihe anderer Mikroorganismen Potenzial zur BEKS-Produktion haben. Um nicht GVO zurückgreifen zu müssen, müssen BER-kompatible Mischkulturen über rechnergestützte Stoffwechselmodelle aus vorhandenen Datenbanken identifiziert werden. Mögliche Intermediate sind z.Z. unbekannt. Der Kenntnis ist aber Voraussetzung für profitable BEKS-Reaktoren.

Veröffentlicht am

Weiße Weihnacht in Europa?

Gefühlt kennen wir weiße Weihnachten nur noch aus Märchen. Jetzt gibt es auch einen wissenschaftlichen Beleg dafür, daß die Schneedecke in Europa im Winter immer dünner wird. Dank des Klimawandels nimmte diese immer rascher ab.

Die Forschergruppe um Dr. Fontrodona Bach vom Königlichen Niederländischen Meteorologischen Institut in De Bilt analysierte zu Schneebedeckungs- und Klimadaten aus sechs Jahrzehnten von tausenden Wetterstationen in ganz Europa. Die Forscher fanden heraus, daß die mittlere Schneehöhe mit Ausnahme einiger lokaler extrem kalter Stellen seit 1951 mit 12% pro Jahrzehnt zurückgegangen ist. Ihre Forschungsergebnisse publizierten die Wissenschaftler kürzlich im Fachblatt Geophysical Research Letters. Die Höhe der „extremen“ Schneedecke, die die lokale, Infrastruktur beeinträchtigt, ist etwas langsamer zurückgegangen.

Der beobachtete Rückgang, der sich nach den achtziger Jahren beschleunigte, ist das Ergebnis einer Kombination von steigenden Temperaturen und den Auswirkungen des Klimawandels auf den Niederschlag. Die abnehmende Schneedecke kann die Verfügbarkeit von Süßwasser während der Frühlingsschmelze verringern, stellten die Autoren fest.

(Foto: Doris Wulf)

Veröffentlicht am

Kohlendioxid aus der Luft wird bald erschwinglich

Kohlendioxid (CO2) ist ein Abfallprodukt aus der Verbennung fossiler Energierohstoffe wie Öl, Gas und Kohle. Es ist nahezu wertlos weil es kaum Verwendung findet. Dennoch sind Technologien wie Power-to-Gas oder die Elektrosynthese von Methanol in der Lage, CO2 direkt als Rohstoff wieder in ein wertvolles, wenngleich billiges Produkt zu verwandeln. Damit steigt das kommerzielle Interesse an CO2 und letztendlich wird das Filtern aus der Luft wirtschaftlich interessant. Das heißt, das Filtern von CO2 aus der Luft ist mehr als eine teure Strategie zum Verhindern der globalen Erwärmung. Die Betonung liegt auf teuer. Denn jetzt wurde eine detaillierte wirtschaftliche Analyse im Fachmagazin Joule veröffentlicht, die nahe legt, daß diese Filtertechnologie bald eine rentable Realität werden könnte.

Die Studie wurde von Ingenieuren der kanadischen Firma Carbon Engineering in Calgary angefertigt. Seit 2015 betreibt die Firma eine Pilotanlage zur CO2−Extraktion in British Columbia. Diese Anlage − basierend auf einem Konzept namens Direct Air Capture (DAC) − bildete die Grundlage für die wirtschaftliche Analyse. Diese enthält die Kosten von kommerziellen Anbietern aller Hauptkomponenten. Abhängig von einer Vielzahl von Gestaltungsoptionenliegen die Kosten für das Extrahieren einer Tonne CO2 aus der Luft zwischen $94 und $232. Die letzte umfassende Analyse der Technologie, durchgeführt von der American Physical Society im Jahr 2011, schätzte, daß es $600 pro Tonne kosten würde.

Neben Carbon Engineering arbeitet auch Climeworks in Zürich an DAC. Dort hat die Firma eine kommerzielle Anlage eröffnet, die jedes Jahr 900 Tonnen CO2 aus der Atmosphäre für den Einsatz in Gewächshäusern auffangen kann. Climeworks hat auch eine zweite Anlage in Island eröffnet, die 50 Tonnen CO2 pro Jahr einfangen und in unterirdischen Basaltformationen vergraben kann. Laut Daniel Egger von Climeworks kostet das Einfangen einer Tonne CO2 in seinem Schweizer Werk etwa $600. Unternehmensvertreter erwarten, daß die Zahl in den nächsten fünf bis zehn Jahren unter $100 pro Tonne fallen wird.

Technisch wird CO2 in einer alkalische Lösung von Kaliumhydroxid gelöst, die mit CO2 reagiert, um Kaliumcarbonat zu bilden. Nach der Weiterverarbeitung wird dies zu einem festen Rückstand aus Calciumcarbonat, das bei Erhitzung das CO2 wieder freisetzt. Das CO2 könnte dann  unterirdisch entsorgt oder zur Herstellung von synthetischen, CO2-neutralen Treibstoffen verwenden werden. Carbon Engineering konnte die Kosten seiner Filteranganlage zu diesem Zweck auf $94 pro Tonne CO2 senken.

Sauberer Treibstoff aus atmospärischem CO2 und elektrolytischem Wasserstoff.

Geht man jedoch davon aus, daß CO2 im Gestein verpeßt würde, dann würde ein Preis von $100 pro Tonne etwa $0,0022 pro Liter zum Benzinpreis beitragen. Letztendlich hängt die Wirtschaftlichkeit der CO2-Extraktion von Faktoren ab, die sich je nach Standort unterscheiden, einschließlich des Preises für Energie und ob ein Unternehmen auf staatliche Subventionen zugreifen kann oder nicht. Aber die Kosten pro Tonne DAC-CO2 dürften in naher Zukunft immernoch über dem realen Marktpreis für CO2 liegen. Emissionszertifikate im Handelssystem der Europäischen Union werden beispielsweise für etwa 16 € pro Tonne CO2 gehandelt. Würde die CO2-Extraktionstechnologie in Märkten Fuß fassen, in denen das CO2 über Preis verkauft werden kann oder in ein Produkt wie Plastik bzw. Treibstoff umgewandelt wird, dann könnte DAC wirtschaftlich sein.

Bei Frontis Energy sind wir begeistert von dieser Aussicht, hilft uns DAC doch dabei, CO2 überall in Methangas umzuwandeln. Power-to-Gas ist dafür perfekt geeignet. Allerdings müßte da noch was Preis passieren. $100 pro Tonne sind zwar schon gut (verglichen mit $600), aber um ein Produkt wie Methan am Markt wirtschaftlich plazieren zu können, sind eher $10 pro Tonne notwending:

CO2-Wirtschaftlichkeit für Power-to-Gas mit elektrolytischem Wasserstoff. Cal, Kalifornien, EOR, enhanced oil recovery

Klar, wir haben immer was zu meckern, aber wir können es trotzdem kaum erwarten, zu sehen, wie der Preis für DAC weiter fällt und wünschen Carbon Engineering um Climeworks gutes Gelingen. Weiter so!

(Fotos: Carbon Engineering)

Veröffentlicht am

Gut leben und das Klima retten

In Paris hat sich die Menschheit das Ziel gesetzt, die globale Erwärmung auf 1,5 °C zu begrenzen. Die meisten Menschen glauben, daß das durch erheblichen Einbußen bei unserer Lebensqualität erkauft werden muß. Das ist ein Grund, weshalb Klimaschutz von vielen Menschen geradeheraus abgelehnt wird. Bei Frontis Energy denken wir, daß wir das Klima schützen und gleichzeitig besser leben können. Aus gutem Grund, wie die neueste, in Nature Energy veröffentlichte, Studie einer Forschergruppe um Arnulf Grubler vom Internationalen Institut für angewandte Systemanalyse in Laxenburg, Österreich, jetzt gezeigt hat.

Die Gruppe untersuchte mithilfe von Computermodellen das Potenzial von technologischen Trends, den Energieverbrauch zu senken. Dabei gingen die Forscher unter andeem davon aus, daß die Nutzung von Car-Sharing-Diensten zunehmen wird und daß fossile Brennstoffe der Solarenergie und anderen Formen erneuerbarer Energie weichen werden. In einem solchen Szenario deutet ihr Modell darauf hin, daß der weltweite Energieverbrauch trotz Zunahme von Bevölkerung, Einkommen und Wirtschaftstätigkeit um etwa 40% sinken würde. Die Luftverschmutzung und die Nachfrage nach Biokraftstoffen würden ebenfalls sinken, was die Gesundheit und die Nahrungsmittelversorgung verbessern würde.

Im Gegensatz zu vielen früheren Einschätzungen legen die Ergebnisse der Gruppe nahe, daß Menschen den Temperaturanstieg auf 1,5 °C über dem vorindustriellen Niveau begrenzen können, ohne auf drastische Strategien zu setzen, um CO2 aus der Atmosphäre im späteren Verlauf dieses Jahrhunderts abzuziehen.

Nun kann man bezweifeln, daß der Umstieg auf Car-Sharing-Angebote tatsächlich keinen Einschnitt in der Lebensqualität bedeutet. Wir denken trotzdem, daß die individuelle Wahl der Fortbewegung gewahrt werden kann bei gleichzeitigem Klimaschutz. Die Rückgewinnung von CO2 zur Herstellung von Verbrennungkraftstoffen ist z.B. so eine Möglichkeit. Die Power-to-Gas-Technologie ist die fortschrittlichste Variante CO2-Recyclings und sollte in zukünftigen Studien sicherlich berücksichtigt werden. Ein Beispiel dafür ist die Bewertung der Power-to-Gas-Technologie durch eine schweizer Forschergruppe um Frédéric Meylan, die herausgefunden hat, daß die CO2-Bilanz mit herkömmlicher Technologie schon nach wenigen Zyklen ausgeglichen werden kann.

(Bild: Pieter Bruegel der Ältere, Das Schlaraffenland, Wikipedia)

Veröffentlicht am

CO2 Netto und Brutto − photosynthetische Betriebswirtschaft mit Algen

Daß Algen nicht nur CO2 speichern, sondern auch freisetzen, ist manchen Interessierten sicherlich bekannt. Bis jetzt unbekannt war allerdings, daß Algen durch die Klimaerwärmung sogar zusätzliches CO2 freisetzen können. Das fanden jetzt der Algenforscher Chao Song und seine Kollegen von der University of Georgia in Athens, GA heraus.

Wie die Forscher im Fachblatt Nature Geoscience publizierten, beschleunigt sich der Stoffwechsel von Algen durch höhere Wassertemperaturen in großen Flüssen. Das könnte dazu führen, daß einige Flüsse mehr CO2 freisetzen als bisher, wodurch sich die Erderwärmung noch weiter beschleunigen könnte. Zwar würde sich auch die Photosyntheserate in Flußalgen erhöhen, doch Pflanzen an den Ufern der Flüsse wären noch schneller. Der mikrobielle Abbau des Pflanzenmaterials würde das so fixierte CO2 sofort wieder freisetzen. Das heißt, konkurrierende Mikroorganismen würden die Flußalgen überwachsen oder die Algen müßten ihren Stoffwechsel der Konkurrenz anpassen − was auch tun.

Um den Nettoeffekt solcher Veränderungen zu berechnen, überwachten die Wissenschaftler die Temperatur, den gelösten Sauerstoffgehalt und andere Parameter in weltweit 70 Flüssen. Dann benutzten sie die Daten für ihre Computermodelle. Diese Modelle deuten darauf hin, daß im Laufe der Zeit die steigenden Photosyntheseraten in einigen Flüssen nicht mit dem Pflanzenwachstum Schritt halten und zu einer Freisetzung von CO2 führen könnten. Diese Nettoerhöhung von 24% des aus Flüssen freigesetzten CO2 könnte im globalen Maßstab einen zusätzlichen Temperaturanstieg von 1 °C bedeuten.

Dem Computermodell fehlen allerdings noch einige Daten. So wurden z.B. die Sedimentierungsraten nicht mit in Betracht gezogen. Außerdem wachsen nicht an allen Ufern Pflanzen. Viele Flußläufe passieren nur spärlich bewachsenes Gebiet. Wie immer ist also mehr Forschung nötig, um bessere Antworten zu erhalten.

(Foto: Wikipedia)