Veröffentlicht am

Bioelektrischer Alkohol als Flüssigkraftstoff mit Hilfe von Hefen

Hefen wie Saccharomyces cerevisiae werden, wie der Name erraten läßt, zur Herstellung von Bier und anderen alkoholischen Getränken im großen Maßstab eingesetzt. Ihre hohe Salz- und Ethanoltoleranz macht sie dabei aber nicht nur für die Herstellung von Getränken nützlich, sondern auch für hohe Alkoholkonzentrationen bei der Produktion von Kraftstoffen. Wie wir schon berichteten, sind dabei neben dem bekannten Ethanol besonders auch die langkettigen Fuselalkohole interessant. Schon heute wird Bioethanol mit Benzin gemischt und verbessert somit die CO2-Bilanz von Verbrennungsmotoren. Dieser flüssiger Biokraftstoff wird entweder aus Stärke oder Lignocellulose hergestellt. Die lokale Produktion und Verwendung von Bioethanol unterstützt lokale Volkswirtschaften, verringert den CO2-Ausstoß und fördert die Selbstversorgung. Letzteres ist besonders wichtig für ressourcenarme Binnenländer von Bedeutung.

Um Ethanol und andere Alkohole effizient aus Lignocellulose-Hydrolysaten herzustellen, müssen Hefen sowohl Glucose als auch Pentosen wie Xylose und Arabinose verwenden. Dies liegt daran, daß Biomasse sowohl reich an Lignocellulose und damit auch Glucose und Xylose ist. Dies ist allerdings auch der Hauptnachteil der Verwendung von Saccharomyces cerevisiae, da sie Xylose nicht fermentieren kann. Dementsprechend ist die Identifizierung von Hefestämmen, die sowohl Glucose als auch Xylose fermentieren können, von großer Bedeutung. Hocheffiziente Hefestämme können, z.B. in Co-Kulturen mit anderen Hefen, die zur Lignocellulosefermentation fähig sind, für die Ethanolherstellung verwendet werden. Eine solche Hefe ist z.B. Wickerhamomyces anomalous.

Um die Ethanolproduktion weiter zu verbessern, kann bioelektrische Fermentationstechnologie eingesetzt werden, die die traditionelle Fermentation unterstützt. Der mikrobielle Metabolismus kann so elektrochemisch gesteuert werden. Die Vorteile sind vielfältig. Die Fermentation wird durch das Anlegen eines elektrochemischen Potentials selektiv, wodurch sich die Effizienz der  von Zuckerverwertung erhöht. Zudem wird so der Einsatz von Additiven zur Kontrolle das Redoxgleichgewichts sowie des pH-Wertes minimiert. Auch das Zellwachstum kann dadurch verbessert werden.

Solche bioelektrischen Zellen sind galvanische Zellen. Die in der bioelektrischen Zelle verwendeten Elektroden können als Elektronenakzeptoren oder -quelle wirken. Solche elektrochemischen Veränderungen wirken sich nicht nur auf den Stoffwechsel und die Zellregulation aus, sondern auch auf die Wechselwirkungen zwischen den eingesetzten Hefen aus. Jetzt hat eine Forschergruppe aus Nepal (einem ressourcenarmen Binnenland) neue Hefestämme von Saccharomyces cerevisiae und Wickerhamomyces anomalous in einem bioelektrischen Fermenter verwendet, um die Ethanolproduktion aus Biomasse zu verbessern. Die Ergebnisse haben die Wissenschaftler im Fachmagazin Frontiers in Energy Research publiziert.

Für die Studie wurden Saccharomyces cerevisiae und Wickerhamomyces anomalus ausgewählt, da beide gute Ethanolproduzenten sind und von letzterer gezeigt wurde, daß sie Xylose in Ethanol umwandeln können. Nachdem die Forscher eine Spannung an das System angelegt hatten, verdoppelte sich die Ethanolproduktion durch die verwendeten Hefen. Beide Hefen bildeten einen Biofilm auf den Elektroden, was das System ideal für den Einsatz als Durchflußsystem macht, da die Mikroorganismen nicht ausgewaschen werden.

Saccharomyces cerevisiae, lichtmikroskopische Aufnahme, 600-fache Vergrößerung (Foto: Amanda Luraschi)

Die Forscher spekulierten, daß die erhöhte Ethanolproduktion durch die stärker angetrieben Umwandlung von Pyruvat zu Ethanol zu Stande kam − dem zentralen Stoffwechselmechanismus der Hefe. Dies führten die Forscher auf einen Beschleunigung der Redoxreaktionen an der Anode und Kathode zurück. Die zugeführte externe Spannung polarisierte die im Cytosol vorhandenen Ionen und erleichtert so den Elektronentransfer von der Kathode. Dies und die beschleunigte Glucoseoxidation führten wahrscheinlich zu einer erhöhten Ethanolproduktion.

Normalerweise wird Pyruvat in Gärhefen zu Ethanol umgewandelt. Eine externe Spannungseingabe kann die Kinetik des Glukosestoffwechsels in Saccharomyces cerevisiae sowohl unter aeroben als auch unter anaeroben Bedingungen zu steuern. Dabei spielen intrazelluläre wie das Transplasmamembran-Elektronentransfersystem eine wichtige Rolle für den Elektronentransport durch die Zellmembran. Das Elektronentransfersystem besteht aus Cytochromen und verschiedenen Redoxenzymen, die der Membran an bestimmten Stellen Redoxaktivität verleiht.

Die Autoren haben zudem festgestellt, daß eine erhöhte Salzkonzentration die Leitfähigkeit und damit die Ethanolproduktion fördert. Die erhöhte Ethanolproduktion aus lignocellulosehaltiger Biomasse könnte auch auf das Vorhandensein verschiedener Naturstoffe zurückzuführen sein, die das Wachstum von Hefestämmen fördern könnten. Wenn die Celluloseacetatmembran durch eine Nafion™-Membran ersetzt wurde, erhöhte dies die Ethanolproduktion ebenfalls. Das könnte auf einen verbesserten Transport von Xylose durch die Nafion™-Membran sowie auf die Abnahme des Innenwiderstands zurückzuführen sein. Eine weitere Steigerung der Ethanolproduktion wurde beobachtet, wenn der bioelektrische Reaktor mit feinen Platinpartikeln betrieben wurde, die auf die Platinanode aufgetragen waren, und Neutralrot auf der Graphitkathode abgeschieden wurde.

Hefekulturen von links nach rechts: Saccharomyces cerevisiae, Candida utilis, Aureobasidium pullulans, Trichosporum cutaneum, Saccharomycopsis capsularis, Saccharomycopsis lipolytica, Hanseniaspora guilliermondii, Hansenula capsulata, Saccharomyces carlsbergensis, Saccharomyces rouxii, Rhodotorula rubra, Phaffia rhodozyba, Cryptococcus laurentii, Metschnikowia pulcherrima, Rhodotorula pallida

Bei Frontis Energy denken wir, daß die vorliegende Studie vielversprechend ist. Für die Zukunft sollten aber langkettige Fuselalkohole in Betracht gezogen werden, da diese weniger flüchtig und besser mit derzeitigen Verbrennungsmotoren verträglich sind. Diese können zudem leicht in die entsprechenden langkettigen Kohlenwasserstoffe umgewandelt werden.

Veröffentlicht am

Richtlinien für einen globalen CO2-Haushalt

Zahlreiche Untersuchungen haben während des letzten Jahrzehnts gezeigt, daß die globale Erwärmung in etwa proportional zur CO2-Konzentration in unserer Atmosphäre ist. Auf diese Weise läßt sich unser verbleibende Kohlenstoffhaushalt abschätzen. Das ist die Gesamtmenge des vom Menschen produzierten Kohlendioxids, die noch in die Atmosphäre abgegeben werden kann, bevor ein festgelegter globaler Temperaturgrenzwert erreicht wird. Auf diesen Grenzwert haben sich die Nationen der Welt im Pariser Abkommen 2015 geeinigt. Er soll 1,5°C nicht überschreiten, und in jedem Fall weit unter 2,0°C liegen. Es wurden jedoch zahlreiche Schätzungen für das verbleibende CO2 gemacht, was sich negativ auf die politische Entscheidungsfindung auswirkt. Jetzt hat eine internationale Forschergruppe von ausgewiesenen Klimaexperten eine Richtlinie für die Errechnung des globalen CO2-Haushalts im renomierten Fachmagazin Nature veröffentlicht. Die Forscher schlagen vor, daß die Anwendung dieser Richtlinie dazu beitragen soll, die teils gravierenden Unterschiede bei der Abschätzung des CO2-Haushalts auszugleichen, und die Unsicherheiten in Forschung und Politik zu verringern.

Seit dem fünften Bericht des Zwischenstaatlichen Gremiums für Klimawandel (IPCC) hat das Konzept eines CO2-Haushalts als Instrument zur Ausrichtung der Klimapolitik an Bedeutung gewonnen. In einer Reihe von Studien aus den letzten zehn Jahren wurde geklärt, warum der Anstieg der globalen Durchschnittstemperatur in etwa proportional zur Gesamtmenge der CO2-Emissionen ist, die seit der industriellen Revolution durch menschliche Aktivitäten verursacht wurden. Dabei zitiert die Forschergruppe zahlreiche veröffentlichte Belege. Diese Literatur hat es Wissenschaftlern ermöglicht, den linearen Zusammenhang zwischen Erwärmung und CO2-Emissionen als transiente Klimareaktion auf kumulierte CO2-Emissionen (TCRE) zu definieren. Die Brillianz dieses Konzepts wird deutlich, die man erkennt, daß die Reaktion des komplexen Systems Erde auf unsere CO2-Emissionen durch eine ungefähr lineare Beziehung dargestellt werden kann. In jüngster Zeit wurden jedoch zusätzliche Prozesse, die die zukünftige Erwärmung beeinflussen, in Modelle einbezogen. Dabei handelt es sich z.B. um das Auftauen des arktischen Permafrosts. Diese zusätzlichen Prozesse erhöhen die Unsicherheit. Zudem wird die globale Erwärmung nicht nur durch CO2-Emissionen verursacht. Andere Treibhausgase, wie z.B. Methan, fluorierte Gase oder Lachgas, sowie Aerosole und deren Vorstufen beeinflussen die globalen Temperaturen. Dies verkompliziert die Beziehung zwischen zukünftigem CO2 weiter.

Bei der durch CO2 verursachten Klimaerwärmung trägt jede Tonne zur Erwärmung bei, egal ob diese Tonne CO2 heute, morgen oder in der Verganganheit ausgestoßen wurde. Dies bedeutet, daß die globalen CO2-Emissionen auf das Null gesenkt werden müssen, um dann dort zu bleiben. Das heißt auch, daß unsere Emissionen umso schneller sinken müssen, je mehr wir in den kommenden Jahren emittieren. Auf Nullemission würde sich die Erwärmung zwar stabilisieren, aber nicht verschwinden oder oder sich gar umgekehren. Eine Überziehung des CO2-Haushalts müßte also später wieder durch ein Entfernen des CO2s ausgeglichen werden.  So kann z.B. die Entfernung mit Hilfe von filtern geschehen, wie wir bereits berichteten. Schlußendlich wird dies wohl der einzig verbleibende Weg sein, denn die Durchdringung unserer Energiewirtschaft mit CO2-neutralen Quellen hat sich bei 5% stabilisiert. Die Aufstellung eines Kohlenstoffhaushalts macht die Dringlichkeit deutlich. Leider sind die Angaben über die uns verbleibende Menge CO2 weit gestreut. In ihrer Richtlinie zitieren die Forscher zahlreiche Studien zur Erhaltung des 1,5°C-Ziels, die von 0 Tonnen CO2 bis zu 1.000 Gigatonnen reichen. Für das 2,0°C-Ziel reicht die Spannweite von ca. 700 Gigatonnen bis hin zu fast 2.000 Gigatonnen verbleibende CO2-Emissionen. Das Ziel der Forscher ist es, diese Unsicherheit einzuschränken, in dem sie eine klare Richtlinie vorschlagen. Das zentrale Element dieser Richtlinie ist die Gleichung zur Berechnung des verbleibenden CO2-Haushaltsrahmens:

Blim = (TlimThistTnonCO2TZEC) / TCRE − EEsfb

Dieser Rahmen sind die verbleibenden CO2-Emissionen (Blim) für die spezifische Temperaturgrenze (Tlim) als Funktion von fünf Termen, die Aspekte des geophysikalischen und gekoppelten Mensch-Umwelt-Systems darstellen: die bisherige vom Menschen verursachte Erwärmung (Thist), der Nicht-CO2-Beitrag zum zukünftigen Temperaturanstieg (TnonCO2), die Nullemissionsfestlegung (TZEC), die TCRE und eine Anpassung für Quellen aus eventuellen Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb).

Term

Bedeutung

Art

Derzeitiges Verständnis

Erwärmungsgrenze Tlim Wahl der Temperaturmetriken, mit denen die globale Erwärmung, die Wahl des vorindustriellen
Bezugszeitraums und die Übereinstimmung mit den globalen Klimazielen ausgedrückt werden
Wählbar Mittel bis hoch
Vergangene menschenverursachte Erwärmung Thist Unvollständige Erfassung in Beobachtungsdatensätzen und Methoden zur Abschätzung der vom Menschen verursachten Komponente; Siehe auch Tlim Unsicherheit Mittel bis hoch
Nicht-CO2 Erwärmung TnonCO2 Die Höhe der verschiedenen Nicht-CO2-Emissionen, die mit den weltweiten Netto-Null-CO2-Emissionen übereinstimmen, hängt von den politischen Entscheidungen, aber auch vom unsicheren Erfolg ihrer Umsetzung ab Wählbare Unsicherheit Mittel
Nicht-CO2 Erwärmung TnonCO2 Klimareaktion auf Nicht-CO2-Verusacher, insbesondere in Bezug auf die Aerosolrückgewinnung und  Temperaturreduzierung aufgrund geringerer Methanemissionen Unsicherheit Niedrig bis mittel
Nullemissionsverpflichtung TZEC Vorzeichen und Ausmaß der Nullemissionsverpflichtung in dekadischen Zeitskalen für aktuelle und nahezu Null jährliche CO2-Emissionen Unsicherheit Niedrig
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Verteilung der TCRE-Unsicherheit, Linearität der TCRE zur Erhöhung und Stabilisierung der kumulativen CO2-Emissionen und Auswirkung von Temperaturmetriken auf die TCRE-Schätzung Unsicherheit Niedrig bis mittel
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Über die Spitzenerwärmung hinausgehende Unsicherheit der Linearität, Wert und Verteilung der TCRE zur  Verringerung der kumulierten CO2-Emissionen Unsicherheit Niedrig
Rükkopplungen mit nicht erfaßten
geologischen Systemen
EEsfb Dauer und Ausmaß des Auftauens von Permafrost und der Methanfreisetzung aus Feuchtgebieten und deren Darstellung in Geomodellen sowie andere mögliche Arten von Rückkopplungen Unsicherheit Sehr niedrig

In dem CO2-Haushalt ist wohl die Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb) die größte Unsicherheit. Diese Rückkopplungsprozesse sind typischerweise mit dem Auftauen von Permafrost und der damit verbundenen langfristigen Freisetzung von CO2 und CH4 verbunden. Es wurden jedoch auch andere Rückkopplungsquellen für das Geosystem identifiziert, wie z.B. die Änderungen der CO2-Aufnahme in der Vegetation und die damit verbundene Stickstoffverfügbarkeit. Weitere Rückkopplungsprozesse involvieren die Änderungen der Oberflächenalbedo, der Wolkendecke oder von Brandbedingungen.

Es bleibt es eine Herausforderung, die Unsicherheiten im Zusammenhang mit den Schätzungen des CO2-Haushalt angemessen zu charakterisieren. In einigen Fällen ist die Ursache der Unsicherheiten ungenaue Kenntnis der zugrunde liegenden Prozesse oder mangelnde Genauigkeit der Messungen. In anderen Fällen werden Begriffe nicht einheitlich verwendet. Für eine bessere Vergleichbarkeit und Flexibilität schlagen die Forscher vor, die globalen Werte der Oberflächenlufttemperatur routinemäßig zu messen. Diese Methode liefert unveränderliche Zahlen für Modelle, Modellabläufe über gewählte Zeiträume hinweg. Detailliertere Vergleiche zwischen veröffentlichten Schätzungen den CO2-Haushalt sind derzeit schwierig, da oft die Originaldaten aus den ursprünglichen Studien fehlen. Die Forscher schlagen daher vor, diese zukünftig zusammen mit den Publikationen bereitzustellen.

Die Zerlegung des CO2-Haushalts in seine Einzelfaktoren ermöglicht es, eine Reihe vielversprechender Wege für die zukünftige Forschung zu identifizieren. Ein Forschungsbereich, der dieses Feld voranbringen könnte, ist die nähere Betrachtung der TCRE. Zukünftige Forschungen werden voraussichtlich die Bandbreite der TCRE-Schätzungen einschränken, was die Unsicherheit verringern wird. Ein weiteres vielversprechendes Forschungsgebiet ist die Untersuchung der Wechselbeziehung zwischen Einzelfaktoren und ihren verbunden Unsicherheiten, beispielsweise zwischen Unsicherheiten in Thist und TnonCO2. Dies könnte durch die Entwicklung von Methoden erreicht werden, die eine zuverlässige Abschätzung der vom Menschen verursachten Erwärmung in jüngerer Zeit ermöglichen. Klar ist auch, daß weniger komplexe Klimamodelle nützlich sind, um die Unsicherheiten weiter zu reduzieren. Gegenwärtig weist jeder Faktor des vorgestellten Rahmens seine eigenen Unsicherheiten auf, und es fehlt eine Methode, um diese Unsicherheiten formal zu kombinieren.

Auch bei Frontis Energy denken wir, daß Fortschritte in diesen Bereiche unser Verständnis bei der Schätzungen des CO2-Haushalts verbessern würde. Ein systematisches Verständnis des CO2-Haushalts und ist für eine wirksame Zielsetzung und die Kommunikation der Herausforderungen beim Klimaschutze von entscheidender Bedeutung.

Veröffentlicht am

Billiger Biokraftstoff mit hoher Oktanzahl entwickelt

Forscher des National Renewable Energy Laboratory (NREL) haben eine billige Methode zur Herstellung von Benzin mit hoher Oktanzahl aus Methanol entwickelt und diese im Fachblatt Nature Catalysis veröffentlicht. Methanol kann über verschiedene Wege aus CO2 gewonnen werden, wie wir bereits im letzten Jahr berichteten. Biomasse, wie z.B. Holz, ist dabei eine mögliche Methode.

Die Herstellung von Biokraftstoffen aus Holz ist allerdings zu teuer, um mit fossilen Brennstoffen zu konkurrieren. Um eine Lösung für dieses Problem zu finden, kombinierten die NREL-Forscher ihre Grundlagenforschung mit einer wirtschaftlichen Analyse. Dabei zielten die Forscher zunächst auf den teuersten Teil des Prozesses. Danach fanden die Forscher Methoden, um diese Kosten mit Methanol als Zwischenprodukt zu senken.

Bisher lagen die Kosten für die Umwandlung von Methanol in Benzin oder Diesel bei ungef 0.24 € pro Liter. Die Forscher haben nun einen Preis von ca. 0.16 € pro Liter erreicht.

Bei der katalytischen Umwandlung von Methanol in Benzin handelt es sich um ein wichtiges Forschungsgebiet im Bereich der CO2-Rückgewinnung. Die traditionelle Methode beruht auf mehrstufigen Prozessen und hohen Temperaturen. Sie ist teuer, produziert minderwertigen Kraftstoff in geringen Mengen. Damit ist sie im Vergleich zu Kraftstoffen auf Erdölbasis nicht konkurrenzfähig.

Das entwickelte Verfahren stieß zunächst auf das Problem eines Wasserstoffmangels. Wasserstoff ist das energetische Schlüsselelement in Kohlenwasserstoffen. Die Forscher stellten die Hypothese auf, daß die Verwendung des Übergangsmetalls Kupfer dieses Problem lösen würde, was es auch tat. Die Forscher schätzen, daß der mit Kupfer infundierte Katalysator zu 38% mehr Ausbeute weniger Kosten führte.

Durch Erleichterung der Wiedereingliederung von C4-Nebenprodukten während der Homologation von Dimethylether ermöglichte der Kupfer-Zeolith-Katalysator die 38%ige Steigerung der Ausbeute des Produkts und eine 35%ige Reduzierung der Umwandlungskosten im Vergleich zu herkömmlichen Zeolith-Katalysatoren. Alternativ dazu wurden C4-Nebenprodukte an ein synthetisches Kerosin weitergeleitet, das fünf Spezifikationen für einen typischen Düsentreibstoff erfüllte. Die Treibstoffsynthesekosten nahmen dabei im Vergleich geringfügig zu. Selbst wenn die Kosteneinsparungen minimal wären, hätte das resultierende Produkt einen höheren Wert.

Abgesehen von den Kosten bietet der neue Prozess den Anwendern weitere Wettbewerbsvorteile. Zum Beispiel können Unternehmen mit Ethanolherstellern um Gutschriften für erneuerbare Brennstoffe konkurrieren (wenn der verwendete Kohlenstoff aus Biogas oder Hausabfällen stammt). Der Prozess ist auch mit vorhandenen Methanolanlagen kompatibel, die Erdgas oder festen Abfall zur Erzeugung von Synthesegas verwenden.

Veröffentlicht am

Halbleiternanoröhrchen mit photovoltaischem Effekt

Kostengünstigen und effiziente Methoden zur Umwandlung von Sonnenlicht in Elektrizität stehen im Fokus der Erforschung umweltfreundlicher Methoden zur Energiegewinnung. Solarzellen, die zu diesem Zweck entwickelt wurden bestehen zurzeit aus Halbleitern wie Silizium. Elektrische Energie wird am Übergang zwischen zwei verschiededen Halbleitern erzeugt. Der Wirkungsgrad dieser Solarzellen hat jedoch seine theoretische Grenze fast erreicht. Neue Methoden zur Umwandlung von Sonnenlicht in Elektrizität müssen daher gefunden werden, um eine größere Durchdringung unserer Energienetze mit erneuerbaren Energiequellen zu ermöglichen. Ein internationales Forscherkonsortium aus Deutschland, Japan und Israel hat jetzt einen wichtigen Fortschritt in dieser Richtung erzielt. Zhang und Kollegen veröffentlichten ihre Ergebnisse kürzlich im angesehen Fachblatt Nature. Sie demonstrieren eine übergangsfreie Solarzelle, die durch Auftragen einer atomeren Halbleiterschicht in eine Nanoröhre hergestellt werden kann.

In einer herkömmlichen Solarzelle werden zwei Bereichen eines Halbleiters in einem als Dotierung bekannten Prozess unterschiedliche chemische Elemente hinzugefügt. Der elektrische Transport erfolgt durch die negativ geladene Elektronen einer Region und durch die positiv geladene Elektronenlöcher (Defektelektronen). An der Verbindungsstelle zwischen diesen beiden Bereichen wird ein elektrisches Feld erzeugt. Wenn an diesem Übergang Sonnenlicht absorbiert wird, entstehen Elektron-Defektelektronen-Paare. Die Elektronen und Defektelektronen werden dann durch das entstandene elektrische Feld getrennt, wodurch ein elektrischer Strom entsteht. Diese Umwandlung von Sonnenenergie in Strom wird als photovoltaischer Effekt bezeichnet. Dieser photovoltaische Effekt ist besonders wichtig für eine umweltfreundliche Energiegewinnung. Sein Wirkungsgrad hat wie eingangs gesagt fast die theoretische Grenze erreicht.

Physikalisch entsteht der photovoltaische Effekt in traditionellen pn-Übergängen, bei denen ein p-Typ-Material (mit einem Überschuss an Defektelektronen) an ein n-Typ-Material (mit einem Überschuss an Elektronen) angrenzt. In der lichtinduzierten Erzeugung von Elektronen-Defektelektronen-Paaren und deren anschließende Trennung wird Strom erzeugt. Weitere Fortschritte werden durch die Nutzung anderer photovoltaischer Effekte erwartet, die keinen Übergang erfordern und nur in Kristallen mit gebrochener Inversionssymmetrie auftretet. Die praktische Umsetzung dieser Effekte wird jedoch durch die geringe Effizienz der vorhandenen Materialien behindert. Halbleiter mit reduzierter Dimensionalität oder kleinerem Bandabstand haben sich als effizienter erwiesen. Übergangsmetall-Dichalkogenide (TMDs) sind z.B. zweidimensionale Halbleiter mit kleiner Bandlücke, bei denen verschiedene Effekte durch Aufbrechen der Inversionssymmetrie in ihren Volumenkristallen beobachtet wurden.

Die neu entwickelte photovolataische Methode basiert auf Wolframdisulfid, einem Mitglied der TMD-Familie. Kristalle dieses Materials sind schichtförmig aufgebaut und können ähnlich wie Graphit schichtweise abgezogen werden. Die resultierenden atomdicken Bleche können dann durch chemische Verfahren zu Röhrchen mit Durchmessern von etwa 100 Nanometern gewalzt werden. Die Autoren stellten photovoltaische Apparate aus drei Arten von Wolframdisulfid her: eine Monoschicht, eine Doppelschicht und eine Nanoröhre.

Eine systematische Reduzierung der Kristallsymmetrie wurde über die bloße gebrochene Inversionssymmetrie hinaus erreicht. Der Übergang von einer zweidimensionalen Monoschicht zu einer Nanoröhre mit polaren Eigenschaften wurde erheblich verbessert. Die so erzeugte Photostromdichte ist um Größenordnungen größer als die anderer vergleichbarer Materialien. Die Ergebnisse bestätigen nicht nur das Potenzial von TMD-basierten Nanomaterialien, sondern allgemein auch die Bedeutung der Reduzierung der Kristallsymmetrie für die Verbesserung des photovoltaischen Effekts.

Während die Nanoröhrenbauelemente einen großen photovoltaischen Effekt hatten, erzeugten die Einschicht- und Zweischicht-Bauelemente unter Beleuchtung nur einen vernachlässigbaren elektrischen Strom. Die Forscher führen die unterschiedlichen Leistungsmerkmale der Solarzellen auf ihre ausgeprägte Kristallsymmetrie zurück. So kann man spontan einen Strom in gleichmäßigen Halbleitern erzeugen, ohne daß ein Übergang erforderlich ist.

Der Effekt wurde erstmals 1956 in den Bell Laboren in New Jersey beobachtet, nur zwei Jahre nach der Erfindung moderner Siliziumsolarzellen. Der Effekt ist auf nicht zentrosymmetrische Materialien beschränkt, die durch mangelnde Symmetrie bei räumlicher Inversion (die Kombination aus einer 180°-Drehung und einer Reflexion) gekennzeichnet sind. Der Effekt hat zwei faszinierende Eigenschaften: Der durch Licht erzeugte Strom hängt von der Polarisation des einfallenden Lichts ab und die zugehörige Spannung ist größer als die Bandlücke des Materials. Das ist die Energie, die zur Anregung von leitenden freien Elektronen erforderlich ist. Der Effekt weist jedoch typischerweise eine geringe Umwandlungseffizienz auf und ist daher im Laufe der Jahre eher von akademischem als von praktischem Interesse geblieben.

Um eine hohe Effizienz zu erzielen, muß ein Material eine hohe Lichtabsorption und eine geringe innere Symmetrie aufweisen. Diese beiden Eigenschaften existieren jedoch in einem bestimmten Material normalerweise nicht gleichzeitig. Halbleiter, die das meiste einfallende Sonnenlicht absorbieren, weisen im Allgemeinen eine hohe Symmetrie auf. Das verringert oder verhindert gar den Effekt. Materialien mit geringer Symmetrie, wie Perowskitoxide, absorbieren aufgrund ihrer großen Bandlücke nur wenig Sonnenlicht. Um dieses Problem zu umgehen, wurden enorme Anstrengungen unternommen, um die Lichtabsorption in Materialien mit geringer Symmetrie zu verbessern, beispielsweise durch Verwendung der erwähnten Dotierung. Inzwischen wurde gezeigt, daß die Effekt in Halbleitern auftreten kann, indem mechanische Felder verwendet werden, um die Kristallsymmetrie des Materials anzupassen.

Die neu entdeckte Lösung ist ermutigend im Hinblick auf die Herstellung von Halbleiternanoröhrchen mit hoher Lichtabsorption. Im Falle von Wolframdisulfid ist die Kristallsymmetrie der Nanoröhrchen im Vergleich zur Mono- und Doppelschicht aufgrund der gekrümmten Wände des Röhrchens verringert. Die Kombination aus ausgezeichneter Lichtabsorption und geringer Kristallsymmetrie bedeutet, daß die Nanoröhrchen einen erheblichen photovoltaischen Effekt aufweisen. Die elektrische Stromdichte übertrifft die von Materialien, die von Natur aus eine geringe Symmetrie aufweisen. Dennoch ist die erzielte Umwandlungseffizienz immer noch viel geringer ist als die des Photovoltaik-Effekts in herkömmlichen Solarzellen auf Sperrschichtbasis.

Die Ergebnisse der Autoren belegen das große Potenzial von Nanoröhrchen bei der Gewinnung von Sonnenenergie und werfen verschiedene technologische Herausforderungen und wissenschaftliche Fragen auf. Aus Anwendersicht wäre es aufschlußreich, eine Solarzelle zu fertigen die aus eine hohen Zahl von Halbleiternanoröhrchen besteht, um zu überprüfen, ob sich der Ansatz skalieren lässt. Die Richtung des erzeugten Stroms würde weitgehend von der inneren Symmetrie des Materials bestimmt. Daher wäre eine gleichmäßige Symmetrie über das Nanoröhrchenanordnungen erforderlich, um einen gemeinsamen Strom zu erzeugen. Dabei könnten sich die in verschiedenen Nanoröhrchen gegenseitig ausgleichen, was zu einer Anullierung des erzeugten Stroms führen würde.

Bei Frontis Energy fragen wir uns, ob die beschrieben Methode mit dem klassichen photovoltaischen Effekt in derselben Solarzelle zusammenwirken könnte. Das würde eventuell den Gesamtwirkungsgrad steigern. Die beiden Effekte könnten die Sonnenenergie aufeinander folgend nutzen. Trotz der verbleibenden Herausforderungen bietet die vorgelgte Arbeit einen Möglichkeit zur Entwicklung hocheffizienter Solarzellen.

(Photo: Wikipedia)

Veröffentlicht am

Intelligente Batterien durch künstliches Lernen

Erneuerbare Energie, z.B. Wind- und Solarenergie stehen nur intermediär zur Verfügung. Um das Ungleichgewicht zwischen Angebot und Nachfrage auszugleichen, können unter anderem Batterien von Elektrofahrzeugen aufgeladen werden und so als Energiepuffer für das Stromnetz fungieren. Autos verbringen den größten Teil ihrer Zeit im Stand und könnten ihren Strom in das Stromnetz zurückspeisen. Dies ist zwar zur Zeit noch Zukunftsmusik aber Vermarktung von Elektro- und Hybridfahrzeugen verursacht in jedem Fall eine wachsende Nachfrage nach langlebigen Batterien, sowohl für das Fahren  als auch als Netzpufferung. Methoden zur Bewertung des Batteriezustands werden dadurch zunehmend an Bedeutung an Bedeutung gewinnen.

Die lange Testdauer des Akkzustands ist ein Problem, das die rasche Entwicklung neuer Akkus behindert. Bessere Methoden zur Vorhersage der Akkulebensdauer werden daher dringend benötigt, sind jedoch äußerst schwierig zu entwickeln. Jetzt berichten Severson und ihre Kollegen im Fachjournal Nature Energy, daß künstliches Lernen bei der Erstellung von Computermodellen zur Vorhersage der Akkulebensdauer helfen kann. Dabei werden Daten aus Lade- und Entladezyklen frühen Stadien verwendet.

Normalerweise beschreibt eine Gütezahl den Gesundheitszustand eines Akkus. Diese Gütezahl quantifiziert die Fähigkeit des Akkus, Energie im Verhältnis zu seinem ursprünglichen Zustand zu speichern. Der Gesundheitszustand ist 100%, wenn der Akku neu ist und nimmt mit der Zeit ab. Das aehnelt dem Ladezustand eines Akkus. Das Abschätzen des Ladezustands einer Batterie ist wiederum wichtig, um eine sichere und korrekte Verwendung zu gewährleisten. In der Industrie oder unter Wissenschaftlern besteht jedoch kein Konsens darüber, was genau Gesundheitszustand ist oder wie es bestimmt werden sollte.

Der Gesundheitszustand eines Akkus spiegelt zwei Alterserscheinungen wider: fortschreitender Kapazitätsabfall sowie fortschreitende Impedanzerhöhung (ein anderes Maß für den elektrischen Widerstand). Schätzungen des Ladezustands eines Akkus müssen daher sowohl den Kapazitätsabfall als auch den Impedanzanstieg berücksichtigen.

Lithiumionenbatterien sind jedoch komplexe Systeme in denen sowohl Kapazitätsschwund als auch Impedanzanstieg durch mehrere wechselwirkende Prozesse hervorgerufen werden. Die meisten dieser Prozesse können nicht unabhängig voneinander untersucht werden, da sie oft parallel stattfinden. Der Gesundheitszustand kann daher nicht aus einer einzigen direkten Messung bestimmt werden. Herkömmliche Methoden zur Abschätzung des Gesundheitszustands umfassen die Untersuchung der Wechselwirkungen zwischen den Elektroden einer Batterie. Da solche Methoden oft in das System „Batterie“ direkt eingreifen, machen sie den Akku unbrauchbar, was wohl selten gewünscht ist.

Der Gesundheitszustand kann aber auch auf weniger invasive Weise mithilfe adaptive Modelle und experimentelle Techniken bestimmt. Adaptive Modelle lernen aus aufgezeichneten Akkuleistungsdaten und passen sich dabei selbst an. Sie sind nützlich, wenn keine systemspezifischen Informationen zum Akku verfügbar sind. Solche Modell eignen sich zur Diagnose der Alterungsprozessen. Das Hauptproblem besteht jedoch darin, daß sie mit experimentellen Daten trainiert werden müssen, bevor sie zur Bestimmung der aktuellen Kapazität einer Batterie verwendet werden können.

Experimentelle Techniken werden verwendet, um bestimmte physikalische Prozesse und Ausfallmechanismen zu bewerten. Dadurch kann die Geschwindigkeit des zukünftigen Kapazitätsverlusts abgeschätzt werden. Diese Methoden können jedoch keine zeitweilig auftretenden Fehler erkennen. Alternative Techniken nutzen die Geschwindigkeit der Spannungs-  oder Kapazitätsänderung (anstelle von Rohspannungs- und Stromdaten). Um die Entwicklung der Akkutechnologie zu beschleunigen, müssen noch weitere Methoden gefunden werden, mit denen die Lebensdauer der Batterien genau vorhergesagt werden kann.

Severson und ihre Kollegen haben einen umfassenden Datensatz erstellt, der die Leistung von 124 handelsüblichen Lithiumionenbatterien während ihrer Lade- und Entladezyklen umfaßt. Die Autoren verwendeten eine Vielzahl von Schnelladebedingungen mit identische Entladungen, um die Lebensdauer der Batterien zu ändern. In den Daten wurde eine breite Palette von 150 bis 2.300 Zyklen erfaßt.

Anschließend analysierten die Forscher die Daten mithilfe von künstliches Lernalgorithmen und erstellten dabei Modelle, mit denen sich die Lebensdauer der Akkus zuverlässig vorhersagen lässt. Bereits nach den ersten 100 Zyklen jedes experimentell charakterisierten Akkus zeigten diese deutliche Anzeichen eines Kapazitätsschwunds. Das beste Modell konnte die Lebensdauer von etwa 91% der in der Studie untersuchten vorhersagen. Mithilfe der ersten fünf Zyklen konnten Akkus in Kategorien mit kurzer (<550 Zyklen) oder langer Lebensdauer eingeordnet werden.

Die Arbeit der Forscher zeigt, daß datengetriebene Modellierung durch künstliches Lernen ein zur Vorhersage des Gesundheitszustands von Lithiumionenbatterien ist. Die Modelle können Alterungsprozesse identifizierten, die sich in frühen Zyklen nicht in Kapazitätsdaten manifestieren. Dementsprechend ergänzt der neue Ansatz die bisheringen Vorhersagemodelle. Bei Frontis Energy sehen wir aber auch die Möglichkeit, gezielt generierte Daten mit Modellen zu kombinieren, die das Verhalten anderer komplexer dynamischer Systeme vorherzusagen.

(Foto: Wikipedia)

 

Veröffentlicht am

Schneller photoelektrischer Wasserstoff

Das Erreichen hoher Stromdichten bei gleichzeitig hoher Energieeffizienz ist eine der größten Herausforderungen bei der Verbesserung photoelektrochemischer Geräte. Höhere Stromdichten beschleunigen die Erzeugung von Wasserstoff und anderer elektrochemischer Brennstoffe.

Jetzt wurde ein kompaktes solarbetriebenes Gerät zur Wasserstofferzeugung entwickelt, das den Brennstoff in Rekordgeschwindigkeit erzeugt. Die Autoren um Saurabh Tembhurne beschreiben ein Konzept im Fachblatt Nature Energy, das es ermöglicht, konzentrierte Sonneneinstrahlung (bis zu 474 kW/m²) durch thermische Integration, Stofftransportoptimierung und bessere Elektronik zwischen Photoabsorber und Elektrokatalysator zu verwenden.

Die Forschungsgruppe der Eidgenössischen Technischen Hochschule in Lausanne (EPFL) errechnete die Zunahme der maximalen Wirkungsgrade, die theoretisch möglich sind. Danach überprüften sie die errechneten Werte experimentell unter Verwendung eines Photoabsorbers und eines Elektrokatalysators auf Iridium-Rutheniumoxid-Platin-Basis. Der Elektrokatalysator erreichte eine Stromdichte von mehr als 0,88 A/cm², wobei der erechneten Wirkungsgrad für die Umwandlung von Sonnenenenergie in Wasserstof mehr als 15% betrug. Das System war unter verschiedenen Bedingungen für mehr als zwei Stunden stabil. Als nächtes wollen die Forscher ihr System skalieren.

Der produzierte Wasserstoff kann in Brennstoffzellen zur Stromerzeugung verwendet werden weshalb sich das entwickelte System zur Energierspeicherung eignet. Die mit Wasserstoff betriebene Stromerzeugung gibt nur reines Wasser ab, die saubere und schnelle Erzeugung von Wasserstoff ist jedoch eine Herausforderung. Bei der photoelektrischen Methode werden Materialien verwendet, die denen von Solarmodulen ähneln. Die Elektrolyte basierten in dem neuen System auf Wasser, wobei auch Ammoniak denkbar wäre. Sonnenlicht, das auf diese Materialien fällt, löst eine Reaktion aus, bei der Wasser in Sauerstoff und Wasserstoff gespalten wird. Bisher konnten alle photoelektrischen Methoden jedoch nicht im industriellen Maßstab eingesetzt werden.

2 H2O → 2 H2 + O2; ∆G°’ = +237 kJ/mol (H2)

Das neu entwickelte System nahm mehr als das 400-fachen der Sonnenenergie auf, die normalerweise auf eine bestimmte Erdoberfläche fällt. Dazu benutzten die Forscher Hochleistungslampen, um die notwendige „Sonnenenergie“ bereitzustellen. Bestehende Solaranlagen konzentrieren die Sonnenenergie mithilfe von Spiegeln oder Linsen in ähnlichem Maße. Die Abwärme wird verwendet, um die Reaktionsgeschwindigkeit zu erhöhen.

Das Team sagt voraus, daß das Testgerät mit einer Grundfläche von etwa 5 cm in sechs Sonnenstunden schätzungsweise 47 Liter Wasserstoffgas produzieren kann. Dies ist die höchste Rate pro Flächeneinheit für solche solarbetriebenen elektrochemischen Systeme. Bei Frontis Energy hoffen wir, dieses System schon bald testen und anbieten zu können.

(Foto: Wikipedia)

Veröffentlicht am

Ammoniak als Energiespeicher #3

Als treue Leserin oder treuer Leser unseres Blogs werden Sie sich bestimmt an unsere vorherigen Beiträge zum Thema Ammoniak als Energiespeicher erinnern. Darin beschreiben wir mögliche Wege zur Gewinnung von Ammoniak aus der Luft, sowie der Rückgewinnung der dabei aufgebrachten Energie in Form von Methan. Letzteres Verfahren haben wir zum Patent angemeldet (WO2019/079908A1). Da die weltweite Nahrungsmittelproduktion große Mengen Ammoniak als Dünger erfordert, ist die Technologie zur Gewinnung aus der Luft schon sehr ausgereift. Diese basiert im Wesentlichen noch immer auf dem Haber-Bosch-Verfahren, welches zu Beginne des letzten Jahrhunderts zur Industriereife gebracht wurde. Dabei wird atmosphärischer Stickstoff (N2) zu Ammoniak (NH3) reduziert. Trotz der Einfachheit der beteiligten Moleküle ist die Spaltung der starken Stickstoff-Stickstoff-Bindungen im N2 und die daruas folgende Stickstoff-Wasserstoff-Bindungen eine große Herausforderung für katalytische Chemiker. Die Reaktion findet in der Regel unter harschen Bedingungen statt und benötigt viel Energie, d.h. hohe Reaktionstemperaturen, hohe Drücke und komplizierte Kombinationen von Reagenzien, die zudem oft teuer und energieintensiv in der Herstellung sind.

Jetzt hat eine Forschergruppe um Yuya Ashida einen Artikel im renomierten Fachblatt Nature veröffentlicht, in dem sie zeigen, daß eine Samariumverbindung in wässriger Lösung mit einem Molybdänkatalysator kombiniert, Ammoniak aus Luftstickstoff bilden kann. Die Arbeit eröffnet neue Möglichkeiten auf der Suche nach Wegen zur Ammoniaksynthese, welche unter Umgebungsbedingungen ablaufen. Unter solchen Bedingungen wäre der Energieaufwand zur Herstellung von Ammoniak geringer und somit die Energieeffizienz bei Energiespeicherung höher. Im heutigen Haber-Bosch-Verfahren werden Luftstoff und Wasserstoffgas über einem eisenhaltigen Katalysator miteinander verbunden. Die weltweite Ammoniakproduktion liegt heute bei 250 bis 300 Tonnen pro Minute und liefert Düngemittel, mit denen fast 60% der Weltbevölkerung versorgt werden (The Alchemy of Air, erhältlich bei Amazon).

Vergleich von Ansätzen zur Herstellung von Ammoniak. Oben: Bei der industriellen Haber-Bosch-Synthese von Ammoniak (NH3) reagiert Stickstoffgas (N2) mit Wasserstoffmolekülen (H2), typischerweise in Gegenwart eines Eisenkatalysators. Das Verfahren erfordert hohe Temperaturen und Drücke, ist jedoch thermodynamisch ideal, weil nur wenig Energie für Nebenprozesse verschwendet wird. Mitte: Nitrogenase-Enzyme katalysieren die Reaktion von Stickstoff mit sechs Elektronen (e) und sechs Protonen (H+) unter Laborbedingungen zu Ammoniak. Zwei zusätzliche Elektronen und Protonen bilden jedoch ein Molekül H2, und die Umwandlung von ATP (der Zellbrennstoff) in ADP treibt die Reaktion an. Das Verfahren weist daher ein hohes chemisches Überpotential auf. Es verbraucht viel mehr Energie, als für die eigentliche Ammoniakbildungsreaktion benötigt wird. Unten: Bei der neue Reaktion, vorgeschlagen von Ashida und Kollegen, wird ein Gemisch aus Wasser und Samariumdiiodid (SmI2) mit Stickstoff unter Umgebungsbedingungen in Gegenwart eines Molybdänkatalysators in Ammoniak umwandelt. SmI2 schwächt die O−H-Bindungen des Wassers und erzeugt die Wasserstoffatome, die dann mit Distickstoff reagieren.

Im großtechnischen Maßstab wird  Ammoniak bei Temperaturen von über 400°C und Drücken von ungefähr 400 Atmosphären synthetisiert. Diese Bedingungen werden oft auch als „harsch“ bezeichnet. Anfägnlich waren dies harschen Bedingungen nur schwer zu kontrollieren, was oft zu tötlichen Unfällen in den frühen Jahren des Haber-Bosch-Verfahrens führte. Dies hat viele Chemiker dazu motiviert, „mildere“ Alternativen zu finden. Schlußendlich bedeutete dies immer die Suche nach neuen Katalysatoren, um die Betriebstemperaturen und -drücke zu senken. Die Suche nach neuen Katalysatoren sollte am Ende Investitionen beim Bau von neuen Ammoniakanlagen senken. Da die Ammoniaksynthese zu den größten Kohlendioxidproduzenten gehört, würden dadurch auch die damit verbudenen Emissionen gesenkt werden.

Wie viele andere Chemiker vor ihnen, haben sich die Autoren von der Natur inspirieren lassen.  Die Familie der Nitrogenaseenzyme ist für die biologische Umwandlung von Luftstickstoff in Ammoniak verantwortlich, ein Prozess, der als Stickstoffixierung bezeichnet wird. Dieser Prozess ist in der modernen Welt die Quelle von Stickstoffatomen in Aminosäuren und Nukleotiden, also den elementaren Bausteinen des Lebens. Im Gegensatz zum Haber-Bosch-Prozess verwenden Nitrogenasen jedoch kein Wasserstoffgas als Quelle für Wasserstoffatome. Stattdessen übertragen sie Protonen (Wasserstoffionen; H+) und Elektronen (e) auf jedes Stickstoffatom, um N−H Bindungen herzustellen. Obwohl Nitrogenasen Stickstoff bei Umgebungstemperatur fixieren, verwenden sie acht Protonen und Elektronen pro Stoffmolekül. Dies ist bemerkenswert, weil Stöchiometrie der Reaktion nur sechs erfordert. Die Nitrogenasen stellen dadurch notwendigen thermodynamischen für die Fixierung bereit. Die Bereitstellung von überschüssigen Wasserstoffäquivalenten bedeutet, daß Nitrogenasen ein hohes chemischen Überpotential angewisen sind. Sie also verbrauchen viel mehr Energie, als tatsächlich für eigentliche Stickstoffixierung notwendig wäre.

Der nun veröffentliche Weg ist nicht der erste Versuch, die Nitrogenasereaktion nachzuahmen. Auch früher wurden Metalkomplexe zusammen mit Protonen- und Elektronenquellen verwendet, um Luftstickstoff in Ammoniak umzuwandeln. So hatten z.B. die selben Forscher zuvor 8 Molybdänkomplexe entwickelt, die die Stickstoffixierung auf diese Weise katalysieren. Dabei wurden  230 Ammoniakmoleküle pro Molybdänkomplex produziert. Die damit verbundenen Überpotentiale waren mit fast 1.300 kJ pro Mol Stickstoff erheblich. In der Realität is das Haber-Bosch-Verfahren also gar nicht so energieintensiv, wenn der richtige Katalysator zum Einsatz kommt.

Die Herausforderung für Katalyseforscher besteht nun darin, die besten biologischen und industriellen Ansätze für die Stickstoffixierung so zu kombinieren, daß das Verfahren normalen Umgebungstemperaturen und -drücken abläuft. Gleichzeitig muß der Katalysator das chemische Überpotential so weit reduzieren, das der Neubau von Haber-Bosch-Anlagen nicht mehr so viel Kaptial erfordert, wie zur Zeit noch. Das ist eine große Herausforderung, da bisher noch keine Kombination von Säuren (die als Protonenquelle dienen) und Reduktionsmitteln (die Elektronenquellen) gefunden wurde, die eine thermodynamischen Bedinugnen für die Fixierung auf dem Niveau von Wasserstoffgas liefert. D.h. die Kombination muß reaktiv genug sein, um N−H-Bindungen bei Raumtemperatur bilden zu können. In dem nun vorgeschlagenen Weg mit  Molybdän und Samarium haben die Forsche eine Strategie übernommen, bei der die Protonen- und Elektronenquellen nicht mehr getrennt eingesetzt werden. Dieser grundlegend neue Ansatz für die katalytische Ammoniaksynthese basiert auf einem Phänomen, das als koordinationsinduzierte Bindungsschwächung bekannt ist. In dem vorgeschlagenen Weg basiert das Phänomen auf dem Zusammenspiel von Samariumdiiodid (SmI2) und Wasser.

Wasser ist stabiel aufgrund seiner starken Sauerstoff-Wasserstoff-Bindungen (O−H). Wenn das Sauerstoffatom im Wasser jedoch mit SmI2 koordiniert wird gubt es sein einziges Elektronenpaar auf und seine O−H-Bindungen werden geschwächt. Dadurch wird resultierende Mischung zu einer ergiebigen Quelle für Wasserstoffatome, also für Protonen und Elektronen. Die Forschor um Yuya Ashida verwenden sie diese Mischung mit einem Molybdänkatalysator, um Stickstoff zu fixieren. SmI2-Wasser-Gemische also  für diese Art der Katalyse besonders geeignet. In ihnen wurde zuvor eine beträchtliche koordinationsinduzierte Bindungsschwächung gemessen, die unter anderem zur Herstellung von Kohlenstoff-Wasserstoff-Bindungen eingesetzt wurde.

Die Ausweitung dieser Idee auf die katalytische Ammoniaksynthese ist aus zwei Gründen bemerkenswert. Erstens wird durch den Molybdänkatalysator die Ammoniaksynthese in wässriger Lösung erleichtert. Das ist erstaunlich, weil Molybdänkomplexe in Wasser häufig abgebaut werden. Zweitens bietet die Verwendung einer koordinationsinduzierten Bindungsschwächung eine neue Methode zur Stickstofixierung bei normalen Umgebungstemperaturen und -drücken. Dadurch wird zusätzlich die Verwendung potenziell gefährlicher Kombinationen von Protonen- und Elektronenquellen vermieden. Solche Kombinationen können sich z.B. spontan entzünden. Der Ansatz der Autoren funktioniert auch, wenn Ethylenglykol (HOCH2CH2OH) anstelle von Wasser verwendet wird. So werden die in Frage kommenden Protonen- und Elektronenquellen um einen möglichen Vorläufer erweitert.

Ashida und Kollegen schlagen einen Katalysezyklus für ihr Verfahren vor, bei dem der Molybdänkatalysator zunächst an Stickstoff koordiniert und die N−N-Bindung unter Bildung eines Molybdännitrido-Komplexes spaltet. Dieser Molybdännitrido-Komplex enthält eine Molybdän-Stickstoff-Dreifachbindung.  Das SmI2-Wasser-Gemisch liefert dann Wasserstoffatome zu diesem Komplex, wodurch schließlich Ammoniak produziert wird. Die Bildung von N−H-Bindungen mithilfe von Molybdännitridokomplexen stellt eine erhebliche thermodynamische Herausforderung dar, da die N−H-Bindungen ebenfalls durch das Molybdän geschwächt werden. Dennoch werden die Nachteile durch die Reduktion des chemisches Überpotential ausgeglichen. Das SmI2 erleichtert nicht nur den Transfer von Wasserstoffatomen, sondern hält auch das Metall in reduzierter Form vor. So wird die ungewollte Bildung von Molybdänoxid in wässriger Lösung verhindert.

Das neue Verfahren muß noch erhebliche betriebliche Hürden nehmen, bevor es großtechnisch eingesetzt werden kann. So wird z.B. SmI2 in großen Mengen verwendet, was viel Abfall erzeugt. Die Abtrennung von Ammoniak aus wässrigen Lösungen ist energetisch aufwendig. Würde das Verfahren jedoch zur Energiespeicherung in Kombination mit unserer Methode der Rückgewinnung eingesetzt, entfiele die Abtrennung aus der wässrigen Lösung. Letztlich verbleibt immernoch ein chemisches Überpotential von etwa 600 kJ/mol. Zukünftige Forschungen sollten sich darauf konzentrieren, Alternativen zu SmI2 zu finden. Diese könnten z.B. auf Metallen basieren, die häufiger als Samarium vorkommen und ebenfalls die koordinationsbedingte Bindungsschwächung zu fördern. Wie schon bei Fritz Haber und Carl Bosch wird es wohl auch bei der neu entwickelten Methode noch einige Zeit dauern, bis ein industriereifes Verfahren zur Verfügung steht.

(Foto: Wikipedia)

Veröffentlicht am

Grönlandeis trägt zu 25% des Meeresspiegelanstiegs bei

Kürzlich berichteten wir über den Verlust der Schneedecke in Europa. Nicht nur in Europa gibt es weniger Schnee und Eis, auch Grönlands Eisdecke schmilzt. Der Eispanzer Grönlands trägt 25% zum globalen Meeresspiegelanstieg bei. Damit ist es größte Beitrag der Kryosphäre. Der erhöhte Massenverlust des Grönlandeises während des 21. Jahrhunderts ist hauptsächlich auf den erhöhten Oberflächenwasserabfluß zurückzuführen, von dem ~93% aus der relativ kleinen Ablationszone des Eisschildrands stammen (~22% der Eisfläche). Da die Schneedecke im Sommer schmilzt, wird in der Ablationszone nacktes Gletschereis freigelegt. Blankes Eis dunkler und weniger porös ist als Schnee. Es absorbiert mehr als doppelt so viel Sonnenstrahlung und hält weniger Schmelzwasser zurück. Glattes Eis erzeugt also einen großen Anteil (~78%) des gesamten Abflusses Grönlands ins Meer, obwohl im Sommer nur ein kleiner Bereich der Eisdecke exponiert ist. Die genaue Erfassung der reduzierten Albedo und des vollen Ausmaßes von nacktem Eis in Klimamodellen ist für die Bestimmung des gegenwärtigen und zukünftigen Abflußbeitrags Grönlands zum Meeresspiegelanstieg von hoher Bedeutung.

Der Massenverlust des grönländischen Eisschildes hat in letzter Zeit aufgrund der erhöhten Oberflächenschmelze und des Abflusses zugenommen. Da Schmelze durch Oberflächenalbedo kritisch beeinflußt wird, ist das Verständnis um die Prozesse und potentielle Rückkopplungen im Zusammenhang mit der Albedo eine Voraussetzung für die genaue Vorhersage des Massenverlusts. Die so verursachte Strahlungsvariabilität in der Ablationszone ließ die Eisschicht fünfmal schneller schmelzen als bei hydrologischen und biologischen Prozessen, die ebenfalls Eis verdunkeln. In einem wärmeren Klima üben die Schwankungen der Schneegrenzen aufgrund der flacheren höhergelegenen Eisschicht eine noch größere Kontrolle auf die Schmelze aus. Diese Schwankungen hatten zur Folge, daß die im Sommer 2012, dem Rekordjahr der Schneeschmelze, die kartierte Eisfläche sich über die größte gemessene Fläche von 300.050 km2 erstreckte. Das heißt, daß nacktes Eis 16% der Eisfläche ausmachte. Die kleinste Ausdehnung des nackten Eises war 184.660 km2 und wurde im Jahr 2006 beobachtet. Dies entsprach 10% der Eisfläche ausgesetzt, also fast 40% weniger Fläche als 2012. Die beobachtete Schneedecke schwankte jedoch sehr stark und er Beobachtungszeitraum war für eine Trendeinschätzung zu kurz.

Derzeitige Klimamodelle sind in ihren Vorhersagen für Hochwasserjahre jedoch zu ungenau, was zu einer Unsicherheit bei der Schätzung des Abflußbeitrags Grönlands zum Anstieg des globalen Meeresspiegels führt. Um die Faktoren zu verstehen, die das Schmelzen beeinflussen, haben Jonathan Ryan von der Brown University in Providence, Rhode Island seine Kollegen die grönländische Schneegrenze betrachtet. In Höhen unterhalb der Schneegrenze ist das dunklere Eis nicht vom Schnee bedeckt. Diese Schneegrenze wird während der Jahreszeiten Grönlands nach oben oder nach unten verschoben. Die Forscher haben diese Landschaften zwischen 2001 bis 2017 mithilfe von Satellitenbildern kartiert. Die durchschnittliche Höhe der Schneegrenze lag am Ende des Sommers 2009 zwischen 1.330 m und im Jahr 2012 bei 1.650 m. Die Schwankungen in der Schneegrenze sind der wichtigste Faktor, wenn es darum geht wie viel Sonnenenergie die Eisplatte absorbiert. Modellierer müssen diesen Effekt berücksichtigen, um ihre Vorhersagen zu verbessern. Das Wissen darum, wie viel und wie schnell das grönländische Eis schmilzt wird uns helfen, bessere Schutzmaßnahmen einzuleiten. Bei Frontis Energy denken wir, daß der beste Schutz vor einem Anstieg des Meeresspiegels die Vermeidung und das Recyclen von CO2 sind.

(Foto: Wikipedia)

Veröffentlicht am

Wirtschaftliche Verluste in Europa durch klimawandelbedingte Hochwasser

In Europa stehen Überschwemmungen im Zusammenhang mit starken Schwankungen des Luftdrucks. Diese Schwankungen sind auch als Nordatlantische Oszillation bekannt. Stefan Zanardo und seine Kollegen von Risk Management Solutions in London in Großbritannien, analysierten historische Aufzeichnungen von schweren Überschwemmungen in Europa bis ins Jahr 1870.  Sie verglichen Muster des Atmosphärendrucks zum Zeitpunkt der Überschwemmungen. Wenn sich die Nordatlantische Oszillation im positiven Zustand befindet, treibt ein starkes Tiefdrucksystem in Island Wind und Sturm in ganz Nordeuropa an. Umgekehrt macht sie im negativen Zustand Südeuropa feuchter als sonst. Normalerweise treten Hochwasser in Nordeuropa auf. Sie verursachen den größten Schaden, wenn die Nordatlantische Oszillation im Winter positiv war. Zudem muss bereits ausreichend Regen gefallen sein, um den Boden mit Wasser zu sättigen. Die Luftdruckentwicklung in Europa kann sich mit dem künftigen Klimawandel ändern, und die öffentlichen Verwaltungen sollten dies bei der Bewertung des Hochwasserrisikos in einer Region berücksichtigen, so die Wissenschaftler.

Das ist wichtig, weil in Europa Hochwasser häufig für den Verlust von Menschenleben, für  erhebliche Sachschäden, Betriebsunterbrechungen verantwortlich sind. Durch die Klimaerwärmung wird sich diese Situation weiter verschlechtern. Die Risikoverteilung wird sich ebenfalls verändern. Das häufige Auftreten katastrophaler Hochwasserereignisse in den letzten Jahren hat ein starkes Interesse an diesem Problem sowohl im öffentlichen als auch im privaten Sektor ausgelöst. Im öffentlichen  Sektor wurde daran gearbeitet, Frühwarnsysteme zu verbessern. Diese Frühwarnsysteme haben in der Tat einen wirtschaftlichen Nutzen. Darüber hinaus wurden in den europäischen Ländern verschiedene Strategien zur Risikominimierung umgesetzt. Dazu zählen staatliche Eingriffe in den Hochwasserschutz, Massnamhen zur Erhöhung des Risikobewusstseins, sowie Risikotransfer durch eine bessere Verbreitung von Hochwasserversicherungen. Die Bekämpfung der Ursache, nämlich der globalen Erwärmung, hingt dagegen noch stark hinter den Erfordernissen hinterher.

Zusammenhänge zwischen großräumigen Klimamustern, insbesondere der Nordatlantischen Oszillation, und Extremereignissen im Wasserkreislauf auf dem europäischen Kontinent wurden seit langem bekannt. Wie sich dieser Zusammenhang auf wirtschaftliche Risiken durch Hochwasserverluste auswirkt, wurde jedoch noch untersucht. Die zunehmende Hochwasserbelastung und alarmierende Klimawandel-Szenarien sorgen für wachsende Besorgnis über zukünftige wirtschaftliche Verluste durch Hochwasser. Zwar is bekannt, dass klimatische Muster auch meteorologische Ereignisse steuern. Es ist aber nicht immer klar, ob sich diese Verbindung auf das Auftreten von Hochwasserereignissen und die damit verbundenen wirtschaftlichen Verluste auswirkt. In Ihrer Studie zeigen die Forscher, dass tatsächlich ein signifikanter Zusammenhang zwischen der Nordatlantischen Oszillation und den Überschwemmungsverlusten besteht. Dazu verwendeten die Forscher aktuelle Daten aus Hochwasserdatenbanken sowie Katastrophenmodelle. Solche Modelle ermöglichen die Quantifizierung der wirtschaftlichen Verluste, die letztendlich durch die Nordatlantischen Oszillation verursacht werden. Diese Verluste variieren stark zwischen den Staaten der Nordatlantischen Oszillation.

Die Studie zeigt, dass die Nordatlantische Oszillation die durchschnittlichen Verluste auf lange Sicht gut vorhersagen kann. Auf der Grundlage der jüngsten Entwicklung der Vorhersagbarkeit der Nordatlantischen Oszillation argumentieren die Forscher, dass insbesondere die zeitlichen Schwankungen des Hochwasserrisikos, verursacht durch Klimaoszillationen, vorhergesagt werden können.  Das kann helfen, frühzeitig Gegenmaßnahmen zu ergreifen. Dadurch können Schäden durch Hochwasser vermidnert werden. Während die Wissenschaftler ihre Vorhersagen für die Nordatlantischen Oszillation verbessern, wird die Gesellschaft sich besser auf zukünftige Überschwemmungen vorbereiten können.

(Foto: Wikipedia, Stefan Penninger, Schweden)

Veröffentlicht am

Ammoniak als Energiespeicher #2

Kürzlich berichteten wir an dieser Stelle über Pläne australischer Unternehmer und ihrer Regierung, Ammoniak (NH3) als Energiespeicher für überschüssige Windenergie zu benutzen. Wir schlugen vor, Ammoniak und CO2 aus Abwasser in Methangas (CH4) umzuwandeln, da dieses stabiler und leichter zu transportieren ist. Das Verfahren folgt der chemischen Gleichung:

8 NH3 + 3 CO2 → 4 N2 + 3 CH4 + 6 H2O

Jetzt haben wir dazu einen wissenschaftlichen Artikel im Onlinemagazin Frontiers in Energy Research veröffentlicht. Darin zeigen wir zunächst, daß der Prozess thermodynamisch möglich ist, und zwar indem methanogene Mikroben den durch Elektrolyse gebildeten Wasserstoff (H2) aus dem Reaktiongleichgewicht entfernen. Dadurch nähern sich die Redoxpotentiale der oxidativen (N2/NH3) und der reduktiven Halbreaktionen (CO2/CH4) so weit an, daß der Prozess spontan ablaufen kann. Er benötigt nur noch einen Katalysator, der in Form von Mikroben aus dem Abwasser gewonnen wird.

Pourbaix-Diagramm der Ammoniumoxidation, Wasserstoffbildung und CO2-Reduktion. Ab pH 7 wird die an Methanogenese gekoppelte Ammoniumoxidation thermodynamisch möglich.

Dazu haben wir zunächst nach entsprechenden Mikroben gesucht. Für unsere Experimente in mikrobiellen Elektrolysezellen haben wir Mikroorganismen aus Sedimenten des Atlantischen Ozeans vor Namibia als Impfmaterial benutzt. Meeressedimente sind besonders geeignet, da diese vergleichsweise reich an Ammoniak, frei von Sauerstoff (O2) und relativ arm an organischem Kohlenstoff sind. Der Ausschluß von Sauerstoff is wichtig, da dieser normalerweise als Oxidationsmittel zur Entfernung von Ammoniak dient:

2 NH3+ + 3 O2 → 2 NO2 + 2 H+ + 2 H2O

Der Prozess ist auch als Nitrifikation bekannt und hätte eine Art elektrochemischen Kurzschluß bewirkt, da dabei die Elektronen vom Ammoniak direkt auf den Sauerstoff übertragen werden. Dadurch wäre die Anode (die positive Elektronen-akzeptierende Elektrode) umgangen worden und die Energie des Ammoniaks wäre dann im Wasser gespeichert. Die anodische Wasseroxidation verbraucht aber viel mehr Energie, als die Oxidation von Ammoniak. Zudem sind Edelmetalle zur Wasseroxidation notwendig. Ohne Sauerstoff an der Anode zu produzieren, konnten wir zeigen, daß die Oxidation von Ammonium (die gelöste Form des Ammoniaks) an die Produktion von Wasserstoff gekoppelt ist.

Oxidation von Ammonium zu Stickstoffgas ist gekoppelt an Wasserstoffproduktion in mikrobiellen Elektrolysereaktoren. Die angelegten Potentiale sind +550 mV bis +150 mV

Dabei war es wichtig, daß das elektrochemische Potential an der Anode negativer, als die +820 mV der Wasseroxidation waren. Zu diesem Zweck haben wir einen Potentiostat benutzt, der das elektrochemische Potential konstant zwischen +550 mV und +150 mV hielt. Bei all diesen Potentialen wurde an der Anode N2 und an der Kathode H2 produziert. Da die einzige Elektronenquelle in der Anodenkammer Ammonium war, konnten die Elektronen zur Wasserstoffproduktion also nur von der Ammoniumoxidation stammen. Zudem war Ammonium auch die einzige Stickstoffquelle für die Produktion von N2. Demzufolge ware die Prozesse also gekoppelt.

Im darauffolgenden Schritt wollten wir zeigen, daß dieser Prozess auch eine nützliche Anwendung hat. Stickstoffverbindungen kommen oft in Abwässern vor. Sie bestehen vorwiegend aus Ammonium. Es finden sich aber auch Medikamente und deren Abbauprodukte darunter. Gleichzeitig werden 1-2% der weltweit produzierten Energie im Haber-Bosch-Prozess verbraucht. Im Haber-Bosch-Prozess wird N2 der Luft entnommen, um Stickstoffdünger herzustellen. Weitere 3% unserer produzierten Energie werden dann verwendet, den so gewonnen Stickstoff wieder aus dem Abwasser zu entfernen. Diese sinnlose Energieverschwendung erzeugt 5% unserer Treibhausgase. Dabei könnte Abwasser sogar eine Energiequelle sein⁠. Tatsächlich wird ein kleiner Teil seiner Energie schon seit mehr als einem Jahrhundert als Biogas zurückgewonnen. Während der Biogasgewinnung wird organisches Material aus Klärschlamm durch mikrobiellen Gemeinschaften zersetzt und in Methan umgewandelt:

H3C−COO + H+ + H2O → CH4 + HCO3 + H+; ∆G°’ = −31 kJ/mol (CH4)

Die Reaktion erzeugt CO2 und Methan im Verhältnis von 1:1. Das CO2 im Biogas macht es nahazu wertlos. Folglich wird Biogas häufig abgeflammt. Die Entfernung von CO2 würde das Produkt enorm aufwerten und kann durch Auswaschen erreicht werden. Auch stärker reduzierte Kohlenstoffquellen können das Verhältnis vom CO2 zum CH4 verschieben. Dennoch bliebe CO2 im Biogas. Durch die Zugabe von Wasserstoff in Faultürme würde dieses Problem gelöst. Der Prozess wird als Biogasaufbereitung bezeichnet. Wasserstoff könnte durch Elektrolyse erzeugt werden:

2 H2O → 2 H2 + O2; ∆G°’ = +237 kJ/mol (H2)

Dafür wären aber, wie schon eingangs erläutert, teure Katalysatoren notwendig und der Energieverbrauch wäre höher. Der Grund ist, daß die Elektrolyse von Wasser in bei einer hohen Spannung von 1,23 V stattfindet. Eine Möglichkeit, dies zu umgehen, bestünde darin, das Wasser durch Ammonium zu ersetzen:

2 NH4+ → N2 + 2 H+ + 3 H2; ∆G°’ = +40 kJ/mol (H2)

Mit Ammonium erfolgt die Reaktion bei nur 136 mV wodurch man entsprechend viel Energie einsparen könnte. Mit geeigneten Katalysatoren könnte somit Ammonium als Reduktionsmittel für die Wasserstoffproduktion dienen. Mikroorganismen im Abwasser können solche Katalysatoren sein. Unter Auschluß von Sauerstoff werden Methanogene im Abwasser aktiv und verbrauchen den produzierten Wasserstoff:

4 H2 + HCO3 + H+ → CH4 + 3 H2O; ∆G°’ = –34 kJ/mol (H2)

Die methanogene Reaktion hält die Wasserstoffkonzentration so niedrig (üblicherweise unter 10 Pa), daß die Ammoniumoxidation spontan, also mit Energiegewinn abläuft:

8 NH4+ + 3 HCO3 → 4 N2 + 3 CH4 + 5 H+ + 9 H2O; ∆G°’ = −30 kJ/mol (CH4)

Genau dies ist die eingangs beschriebene Reaktion. Bioelektrische Methanogene wachsen an der Kathode und gehören zur Gattung Methanobacterium. Angehörige dieser Gattung sind besonders auf niedrige H2-Konzentrationen spezialisiert.

Der geringe Energiegewinn ist auf die geringe Potentialdifferenz von Eh = +33 mV der CO2-Reduktion gegenüber der Ammoniumoxidation zurückzuführen (siehe Pourbaix-Diagramm oben). Es reicht kaum aus, um die notwendige Energie von ∆G°’= +31 kJ/mol für die ADP-Phosphorylierung bereitzustellen. Darüber hinaus ist die Stickstoffbindungsenergie von Natur aus hoch, was starke Oxidationsmittel wie O2 (Nitrifikation) oder Nitrit (Anammox) erfordert.

Anstelle starker Oxidationsmittel kann eine Anode z.B. bei +500 mV die Aktivierungsenergie für die Ammoniumoxidation bereitgestellen. Allzu positive Redoxpotentiale treten jedoch in anaeroben Umgebungen natürlich nicht auf. Daher haben wir getestet ob die Ammoniumoxidation an die hydrogenotrophe Methanogenese gekoppelt werden kann, indem ein positives Elektrodenpotential ohne O2 angeboten wird. Tatsächlich konnten wir dies in unserem Artikel nachweisen und haben das Verfahren zum Patent angemeldet. Mit unserem Verfahren könnte man z.B. Ammonium profitabel aus Industrieabwässern entfernen. Er ist auch zur Energiespeicherung geeignet, wenn man z.B. Ammoniak mithilfe überschüssiger Windenergie synthetisiert.