Veröffentlicht am

Photokatalytische Synthese aus CO2

Um unsere Abhängigkeit von fossile Brennstoffen zu verringern, werden derzeit enorme Anstrengungen in Industrie und. In dieser Hinsicht erscheint Synthesegas eine elegante und billige Lösung für eine nachhaltige Energieentwicklung zu sein. Synthesegas ist das Gemisch aus Wasserstoff (H2) und Kohlenmonoxid (CO) als Hauptbestandteilen. Es stellt ein wichtiges chemisches Ausgangsmaterial dar, das häufig für industrielle Prozesse zur Erzeugung von Chemikalien und Kraftstoffen verwendet wird:

Nutzung von Synthese in verschiedenen Industriesektoren

Synthesegas kann aus Methan (CH4) in einer Reformierungsreaktion mit Wasser (H2O), Sauerstoff (O2) oder Kohlendioxid (CO2) hergestellt werden. Der als Methan-Trockenreformierung (MTR) bezeichnete Prozess kann mit Kohlendioxid kombiniert werden:

CH4 + CO2 → 2 H2 + 2 CO

Dies ist ein umweltfreundlicher Weg, der zwei Treibhausgase in ein wertvolles chemisches Ausgangsmaterial verwandelt.

Das MTR-Verfahren erfordert jedoch chemische Katalysatoren und hohe Temperaturen zwischen 700 und 1.000°C. Normalerweise kommt es zu Kohlenstoffablagerung und letztlich Katalysatordeaktivierung.

Einige Chemiker haben kürzlich gezeigt, daß Licht und nicht Wärme eine effektivere Lösung für diese energiehungrige Reaktion sein könnte.

Photokatalyse als Lösung

Eine Forschergreuppe der Rice University in Houston, hat zusammen mit Kollegen der Princeton University und der University of California lichtstimulierte Katalysatoren entwickelt, mit denen MTR-Reaktionen ohne Wärmeeintrag effizient betrieben werden können. Diese Arbeit wurde in der renommierten Zeitschrift Nature Energy veröffentlicht.

Die Forscher berichteten über einen hocheffizienten und kohlenstoffbeständigen plasmonischen Photokatalysator, der genau ein Ruthenium (Ru) -Atom pro 99 Kupfer (Cu) -Atome enthält. Das isolierte Einzelatom von Ru, das auf Cu-Antennen-Nanopartikeln erhalten wird, bietet eine hohe katalytische Aktivität für die MTR-Reaktion. Auf der anderen Seite ermöglichen Cu-Antennen eine starke Lichtadsorption unter Beleuchtung und bringen heiße Elektronen an die Rutheniumatome. Die Forscher schlugen vor, daß sowohl die Erzeugung heißer Ladungsträger als auch die Einzelatomstruktur für die hervorragende katalytische Leistung in Bezug auf Effizienz und kohlenstoffbeständigkeit wesentlich sind.

Das optimale Cu-Ru-Verhältnis wurde in Synthesereihen von CuxRuy-Katalysatoren mit unterschiedlichen Molverhältnissen von plasmonischem Metall (Cu) und katalytischem Metall (Ru) untersucht, wobei x, y der Atomanteil von Cu und Ru in Prozent sind. Insgesamt war Cu19,8Ru0,2 die vielversprechendste Zusammensetzung in Bezug auf Selektivität, Stabilität und Aktivität. Im Vergleich zu reinen Cu-Nanopartikeln zeigt das Cu19,8Ru0,2-Gemisch erhöhte photokatalytische Reaktionsgeschwindigkeiten (ca. 5,5-mal höher) und eine verbesserte Stabilität zeigten. Dabei wurde seine Leistung über einen Zeitraum von 20 Stunden beibehalten. Berechnungen zeigten, daß isolierte Ru-Atome auf Cu die Aktivierungsbarriere für den Methan-Dehydrierungsschritt im Vergleich zu reinem Cu senken, ohne die unerwünschte Kohlenstoffablagerung zu fördern.

Darüber hinaus wurde die Forschung durch verschiedene Methoden (CO-DRIFTS mit DFT) unterstützt, um Einzelatom-Ru-Strukturen auf Cu-Nanopartikeln in Cu19,9Ru0,1 und Cu19,8Ru0,2 Zusammensetzungen zu entschlüsseln und nachzuweisen.

Der Vergleich zwischen thermokatalytischer und photokatalytischer Aktivität an derselben Oberfläche für MTR wurde ebenfalls angestellt. Die thermokatalytische Reaktionsgeschwindigkeit bei 726ºC (ca. 60 mol CH4 / g / s) war geringer als 25% der photokatalytischen Reaktionsgeschwindigkeit unter Weißlichtbeleuchtung ohne äußere Wärme (etwa 275 umol CH4 / g / s). Diese Steigerung der Aktivität wird auf den durch heiße Träger erzeugten Mechanismus zurückgeführt, der im photokatalytischen MTR vorherrscht. Die Rolle des heißen Trägers ist eine Erhöhung der C−H-Aktivierungsraten auf Ru sowie eine verbesserte H2-Desorption.

Die Wissenschaftler berichteten auch, daß der Katalysator eine Umsatzrate von 34 mol H2 pro mol Ru pro Sekunde und eine photokatalytische Stabilität von 50 h unter Weißlichtbeleuchtung (19,2 W / cm2) ohne externe Wärme erreichte.

Da die synthetisierten Photokatalysatoren hauptsächlich auf Cu basieren, das ein reichlich vorhandenes Element ist, bietet dieser Ansatz einen vielversprechenden, nachhaltigen Katalysator, der bei niedrigen Temperaturen für MTR arbeitet. Dies ermöglicht eine billigere Synthesegasproduktion mit höheren Raten und bringt uns einem sauber brennenden Kohlenstoffbrennstoff näher.

(Photo: Wikipedia)

Veröffentlicht am

Hydrophile Membranen mit schnellem und selektivem Ionentransport

Neben den bekannten Nafion™-Membranen, die derzeit das wohl beste Preis-Leistungsverhältnis bei zahlreichen elektrochemischen Zellen (Protonenaustauschbrennstoffzellen, Methanolbrennstoffzellen, Elektrolysezellen usw.) darstellen, wächst mit der Diversifizierung unserer Energieressourcen auch Nachfrage nach effizienten und selektiven Ionenaustauschmembranen für Energiespeicher wie Flußbatterien.

Eine Sumitomo Flußbatterie zur Energiespeicherung einer Solaranlage. (Foto: Sumitomo Electric Co.)

Flußbatterien – der Durchbruch bei der Energiespeicherung

Die hohe Nachfrage nach zuverlässigen und kostengünstigen Energiespeichersystemen spiegelt sich in der zunehmenden Vielfalt der Technologien zur Energiespeicherung wider. Einer der vielversprechendsten Kandidaten unter den verschiedenen elektrochemischen Speichersystemen sind Flußbatterien. Sie könnten die Anforderungen an Energiespeicher in großem Maßstab erfüllen und sich durch hohe Effizienz, niedrige Skalierungskosten, hohe Lade- / Entladezyklenzahl sowie unabhängige Energiespeicher- und Stromerzeugungskapazitäten auszeichnen.

Da diese Technologie noch jung ist, liegt derzeit der Fokus auf kommerziell und wirtschaftlich tragfähigen Systeme, insbesondere auf der:

  • Verbesserung der Kernkomponenten, z.B. Membranen mit besonderen Eigenschaften,
  • Verbesserung der Energieeffizienz
  • Reduzierung des Gesamtkostensystems.

Erfüllt Anforderungen an Flußbatterien

Zwei Forschergruppen aus Großbritannien, eine vom Imperial College und die andere von der University of Cambridge, verfolgten einen neuen Ansatz, um die nächste Generation mikroporöser Membranmaterialien für die Flußbatterien zu entwickeln. Sie haben ihre Daten kürzlich in der bekannten Zeitschrift Nature Materials veröffentlicht. Gut definierte enge mikroporöse Kanäle ermöglichen zusammen mit der hydrophilen Funktionalität der Membranen einen schnellen inorganischen Ionentransport und eine hohe Selektivität für kleine organische Moleküle. Die neue Membranarchitektur ist besonders wertvoll für wässrige organische Flußbatterien, die eine hohe Energieeffizienz und Kapazitätserhaltung ermöglichen. Wichtig ist, daß die Membranen unter Verwendung der Rollpresstechnologie und eines kostengünstigen mesoporösen Polyacrylnitril-Trägers hergestellt wurden. Dies könnte die Membranen billig in der Herstellung machen.

Wie die Autoren berichteten, besteht die Herausforderung für die Flußbatterien der neuen Generation in der Entwicklung kostengünstiger Polymermembranen auf Kohlenwasserstoffbasis, die eine präzise Selektivität zwischen Ionen und organischen redoxaktiven Molekülen aufweisen. Darüber hinaus hängt der Ionentransport in diesen Membranen von der Bildung der miteinander verbundenen Wasserkanäle über die Mikrophasentrennung ab, was auf molekularer Ebene als komplexer und schwer zu kontrollierender Prozess angesehen wird.

Das neue Synthesekonzept ionenselektiver Membranen basiert auf hydrophilen Polymeren mit intrinsischer Mikroporosität (PIMs), die einen schnellen Ionentransport und eine hohe molekulare Selektivität ermöglichen. Die strukturelle Vielfalt von PIMs kann durch Monomerauswahl, Polymerisationsreaktion und nachsynthetische Modifikation gesteuert werden, wodurch diese Membranen für Flußbatterien weiter optimiert werden.

Zwei Arten von hydrophilem PIM wurden entwickelt und getestet: PIMs, die von Tröger-Basen abgeleitet sind, und PIMs auf Dibenzodioxin-Basis mit hydrophilen und ionisierbaren Amidoximgruppen.

Die Autoren bezeichnen ihren Ansatz als innovativ, weil:

  1. PIMs verwendet wurden, um starre und verzerrte Polymerketten zu erhalten, die zu Hohlräumen in mikroporösen Membranen im Subnanometerbereich führen;
  2. Hydrophiler funktionelle Gruppen eingeführt wurden, die miteinander verbundene Wasserkanäle bilden, um die Hydrophilie und Ionenleitfähigkeit zu optimieren;
  3. Zur Verarbeitung eine Lösung verwendet wurde, dei die Membranherstellung auf Nanometerstärke erlaubt. Dies reduziert den Ionentransportwiderstand und die Membranproduktionskosten weiter.

Die Ionenleitfähigkeit wurde durch experimentelle Echtzeitbeobachtungen der Wasser- und Ionenaufnahme bewertet. Die Ergebnisse legen nahe, dass die Wasseradsorption in den eingeschlossenen dreidimensionalen miteinander verbundenen Mikroporen zur Bildung wasserunterstützter Ionenkanäle führt. Diese ermöglichen einen schnellen Transport von Wasser und Ionen.

Der selektive ionische und molekulare Transport in PIM-Membranen wurde unter Verwendung konzentrationsgesteuerter Dialysediffusionstests analysiert. Es wurde bestätigt, daß das neue Design von Membranen große redoxaktive Moleküle effektiv blockiert und gleichzeitig einen schnellen Ionentransport ermöglicht, der für den Betrieb organischer RFBs von entscheidender Bedeutung ist.

Darüber hinaus wurden chemische Langzeitstabilität, gute elektrochemisch und  thermische Stabilität sowie gute mechanische Festigkeit der hydrophilen PIM-Membranen nachgewiesen.

Schließlich wurde berichtet, daß die Leistungs- und Stabilitätstests von Flußbatterien auf der Basis der neuen Membranen mit denen Nafion ™ -basis vergleichbar sind. Langzeitests werden zeigen, wie gut diese Membranen sich im Alltag bewähren.

(Mima Varničić, 2020, Foto: Wikipedia)

Veröffentlicht am

Hochleistungs-Biodiesel aus Biomasseabfall

In unseren vorherigen Beiträgen haben wir die Rückgewinnung von Ressourcen aus Abfällen im Zusammenhang mit der Abwasserbehandlung erörtert und gezeigt, daß verbesserte Vorschriften sich positiv auf die Wasserqualität und die öffentliche Gesundheit auswirken. Hier zeigen wir, daß intelligente katalytische Prozesse landwirtschaftlichen Abfallprodukte in wertvolle Rohstoffe umwandeln können.

Kostengünstige Abfallbiomasse kann als erneuerbare Energiequelle dienen, um eine nachhaltige Alternative zu fossilen Kohlenstoffressourcen zu schaffen. So kann der Bedarf an umweltfreundlicher Energie besser gedeckt werden. Beispielsweise sind die von Carbonsäuren aus Biomasse abgeleiteten C2– und C4-Ether vielversprechende Kraftstoffkandidaten. So wurde z.B. berichtet, daß sich bei Verwendung von Ethern Biokraftstoffparameter wie Zündqualität und Ruß, und damit auch Feinstaub, im Vergleich zu handelsüblichem Petrodiesel signifikant verbessert haben (>86% Rußindexreduzierung). Die Zündqualität (Cetanzahl) wurde über 56% verbessert.

Die Wissenschaftler des National Renewable Energy Laboratory arbeiten zusammen mit ihren Kollegen von der Yale Universität, dem Argonne National Laboratory und dem Oak Ridge National Laboratory an einem gemeinsamen Projekt mit dem Ziel der gemeinsamen Optimierung von Kraftstoffen und Motoren. Die Forschung konzentriert sich auf die Verbesserung des Kraftstoffverbrauchs und der Fahrzeugleistung bei gleichzeitiger Reduzierung der Emissionen durch Identifizierung von Mischmaterial aus Biomasse.

In ihrem kürzlich in der renommierten Fachzeitschrift PNAS veröffentlichten Artikel wurde ein neues Molekül, 4-Butoxyheptan, in einem katalytischen Verfahren mit hoher Ausbeute aus Lignocellulose-Biomasse isoliert. Aufgrund seines hohen Sauerstoffgehalts kann dieses vorteilhafte Mischmaterial die Leistung von Dieselkraftstoff verbessern, indem die intrinsische Rußneigung des Kraftstoffs beim Verbrennen verringert wird.

Das Forschungsteam hat einen neuen Ansatz beschrieben, um den Entwicklungsprozess zur Herstellung geeigneter sauerstoffhaltiger Dieselbeimischungenn (Dieseloxygenate) zu beschleunigen. Dabei lag der Fokus auf der Verbesserung der Kraftstoffeigenschaften verglichen mit fossilem Diesel.

Dieser Ansatz umfaßt Schritte:

  1. Charakterisierung der Kraftstoffeigenschaften durch die Identifizierung und Aufstellung zugänglicher Oxygenatprodukte; Vorhersage der Kraftstoffeigenschaften dieser Produkte a priori durch rechnergestütztes Screening
  2. Produktionsprozess durch die Entwicklung des Syntheseweges ausgehend von Biomasse. Das beinhaltet ein kontinuierliches, lösungsmittelfreies Syntheseverfahren auf der Basis eines Metall-Säure-Katalysators bei der Herstellung der ausgewählten Verbindung im Liter-Maßstab
  3. Testen und Analysieren mit dem Ziel, Messungen der Kraftstoffeigenschaften zu validieren und mit Vorhersagen zu vergleichen

Die Kraftstoffeigenschaften der untersuchten Zieloxygenate hängen mit den Gesundheits- und Sicherheitsaspekten wie Flammpunkt, biologischem Abbaupotential und Toxizität / Wasserlöslichkeit sowie mit Markt- und Umweltaspekten wie Zündqualität (Cetanzahl) und Viskosität zusammen. Eine Verbesserung der Kraftstoffqualität wird durch die erhöhung des Heizwertes und die Verringerung des Rußpotentials durch Beimischung sauerstoffhaltiger Mischstoffe erreicht. Infolgedessen schien 4-Butoxyheptan das vielversprechendste Molekül zu sein, das mit herkömmlichem Diesel gemischt werden kann. Es wurde gezeigt, daß die Messungen der Kraftstoffeigenschaften weitgehend mit prädiktiven Schätzungen übereinstimmen, was die Genauigkeit des Ansatzes für die Auswahl des Mischmaterials bestätigte.

Die Beimischung von 20-30% 4-Butoxyheptan zum Dieselkraftstoff wurde als günstig vorgeschlagen. Die Verbesserung der Selbstentzündungsqualität sowie die signifikante Verringerung des Rußindexes von 215 auf 173 (20% Verringerung) zeigen, daß die Beimischung dieses Moleküls die Dieselemissionseigenschaften verbessern könnte, ohne die Leistung zu beeinträchtigen. In Bezug auf Entflammbarkeit, Toxizität und Lagerstabilität wurde der Oxygenatbrennstoff als risikoarm eingestuft.

Lebenszyklusanalysen zeigen, daß dieses Gemisch kostengünstig sein und im Vergleich zu Petrodiesel zu erheblichen Treibhausgasreduzierungen (um 50 bis 271%) führen kann.

Da Forschung ein nie endender Prozess ist, ist wieder mehr Forschung notwendig. Zukünftige Untersuchungen sollten die Biemischung in einem tatsächlichen Motor zum Gegenstand machen, sowie die Herstellung des Biokraftstoffs in einem integrierten Prozess direkt aus Biomasse umfassen.

(Mima Varničić, 2020, Foto: Pixabay )

Veröffentlicht am

Abwasser ist eine global unterschätzte Resource

In unserem letzten Beitrag zur Wasserqualität in China haben wir auf eine Studie hingewiesen, die zeigt, wie sich eine verbesserte Abwasserbehandlung positiv auf die Umwelt und letztendlich auf die öffentliche Gesundheit auswirkt. Abwasserbehandlung erfordert jedoch eine ausgeklügelte und kostspielige Infrastruktur. Diese ist nicht überall verfügbar. Die Gewinnung von Ressourcen aus Abwasser kann jedoch einen Teil der Kosten ausgleichen, die durch den Bau und Betrieb von wolchen Anlagen entstehen. Die offene Frage ist, wieviele Ressourcen sind im Abwasser enthalt?

Eine kürzlich in der Fachzeitschrift Natural Resources Forum veröffentlichte Studie versucht, diese Frage zu beantworten. Es ist die erste dieser Art, die abschätzt, wie viel Abwasser alle Städte der Erde pro Jahr produzieren. Die Menge ist enorm, wie die Autoren sagen. Derzeit fallen weltweit jährlich 380 Milliarden m³ Abwasser an. Die Autoren ließen bei ihrer Untersuchung nur 5% der städtischen Gebiete aus.

Die wichtigsten Ressourcen im Abwasser sind Energie, Nährstoffe wie Stickstoff, Kalium und Phosphor sowie das Wasser selbst. In kommunalen Kläranlagen stammen sie aus menschlichen Exkrementen. In Industrie und Landwirtschaft enthält Abwasser Überreste der Produktionsprozesse. Das Forscherteam berechnete, wie viele Nährstoffe aus kommunalen Abwässern wahrscheinlich in den globalen Abwasserstrom gelangen. Dabei errechneten sie erreichen eine Gesamtzahl von 26 Millionen Tonnen pro Jahr. Das ist fast das Achtzigfache des Gewichts des New Yorker Empire State Buildings.

Wenn man die gesamte Stickstoff-, Phosphor- und Kaliumbelastung zurückgewinnen würde, könnte man theoretisch 13% des weltweiten Düngemittelbedarfs decken. Die Forscher gingen davon aus, daß das Abwasservolumen wahrscheinlich weiter zunehmen wird, da auch die Weltbevölkerung, die Urbanisierung und der Lebensstandard zunehmen. Sie schätzen weiter, daß es im Jahr 2050 fast 50% mehr Abwasser geben wird als im Jahr 2015. Es wird notwendig sein, so viel wie möglich davon zu behandeln und die Nährstoffe in diesem Abwasser stärker zu nutzen! Wie wir in unserem vorherigen Beitrag betont haben, verursacht Abwasser immer mehr Umwelt- und Gesundheitsprobleme.

Abwasser enthält auch viel Energie. Kläranlagen in Industrieländern nutzen sie seit langem in Form von Biogas. Die meisten Kläranlagen fermentieren Klärschlamm in großen anaeroben Fermentern und produzieren daraus Methan. Infolgedessen sind einige dieser Kläranlagen jetzt energieunabhängig.

Die Autoren berechneten in ihrer Studie das Energiepotential, das im Abwasser aller Städte weltweit verborgen liegt. Grundsätzlich reicht die Energie aus, um 500 bis 600 Millionen Durchschnittsverbraucher mit Strom zu versorgen. Die einzigen Probleme sind: Abwasserbehandlung und Energietechnologie sind teuer und werden daher in nicht Schwellen- und Entwicklungsländern wenig eingesetzt. Laut den Wissenschaftlern wird sich dies ändern. Gelegentlich passiert dies bereits.

Singapur ist ein prominentes Beispiel. Dort wird das Abwasser so gründlich geklärt, daß es in das normale Wassernetz zurückgeführt wird. In Jordanien gelangt das Abwasser aus den Städten Amman und Zerqa durch ein Gefälle in die kommunale Kläranlage. Dort sind kleine Turbinen installiert, die seit ihrem Bau Energie liefern. Solche Projekte zeigen, daß eine Rückgewinnung von Ressourcen möglich ist. Sie macht die Abwasserbehandlung effizienter und kostengünstiger.

Die Frontis-Technologie basiert auf der mikrobiellen Elektrolyse, bei der viele Schritte in Kläranlagen in einem einzigen Reaktor kombiniert werden, um sowohl Nährstoffe als auch Energie zurückzugewinnen.

(Foto: Wikipedia)

Veröffentlicht am

Verbesserungen der Wasserqualität in China

In den letzten Jahrzehnten war China durch eine rasante technologische und wirtschaftliche Entwicklung gekennzeichnet, dies jedoch auf Kosten seiner Umwelt. Die Verschlechterung der Wasserqualität im Landesinneren gilt als eine der schwerwiegendsten Umweltbedrohungen für das Ökosystem und letztendlich auch für die Gesundheit der Einwohner des Landes.

Seit 2001 hat China große Anstrengungen unternommen, um Umweltvorschriften in Kraft zu setzen und die Wasserverschmutzung durch Siedlungen, landwirtschaftliche Betriebe und Industrie zu stoppen. Nach dem „10. Nationalen Fünfjahresplan“ der Kommunistischen Partei Chinas wurden beträchtliche Investitionen in Systeme zur Kontrolle der Umweltverschmutzung und zur Abwasserentsorgung getätigt.

Einige Studien zeigten, daß durch diese Maßnahmen die chinesischen Seen und Flüsse erwartungsgemäß sauberer wurden. Zwar hat  sich seitdem die Wasserqualität erheblich verbessert. Andere Landesteile haben jedoch immer noch Probleme mit verschmutzen Wasser.

Jetzt hat eine Forschergruppe der Chinesischen Akademie der Wissenschaften in Peking in der renommierten Zeitschrift Science eine der umfassendsten nationalen Untersuchungen zur Oberflächenwasserqualität Chinas veröffentlicht. Die Forscher untersuchten alle Regionen des Landes, um herauszufinden, wie sich die Wasserqualität über einen Zeitraum von zirka 15 Jahren entwickelt hat. Der Artikel bewertet die Wasserqualität anhand von drei Parametern: Gehalt an gelöstem Sauerstoff (DO), chemischer Sauerstoffbedarf (CSB) und Ammoniumstickstoff (N) in Oberflächengewässern. Die Forscher führten zwischen 2003 und 2017 monatliche Punktmessungen an den wichtigsten chinesischen Flüssen und Seen im ganzen Land durch.

Aufgrund regionaler Unterschiede in der Binnenwasserqualität Chinas sowie der Dynamik in mehreren anthropogenen Verschmutzungsquellen sind solche Studien von entscheidender Bedeutung, um die erforderliche Regulierungen zur Verbesserung der Wasserqualität zu anzugehen. Diese müssen an die Nachhaltigkeit der Ökosysteme in allen Länderregionen angepaßt werden.

Die Ergebnisse zeigen, daß in den letzten 15 Jahren die durchschnittliche jährliche Verschmutzung im ganzen Land deutlich und linear gesunken ist oder auf einem guten Niveau gehalten wurde. Folglich ist der jährliche Prozentsatz der Wasserqualität für CSB um 1,77%, für N 1,83% und für DO um 1,45% pro Jahr gestiegen. Zwar gibt es in China keine Belastungsgrenzwerte für Gewässer. Doch die Studie zeigt, daß sich Chinas Wasserqualität kontinuierlich verbessert hat.

Die beste Nachricht ist, daß die notorisch hohen Verschmutzung zurückgegangen sind, da Kommunen und Industrie daran gearbeitet haben, ihre Abwässer zu säubern und zu reduzieren. Den Autoren zufolge wurde die sichtbarste Linderung in Nordchina festgestellt, während in der westlichen Region des Landes die Wasserqualität während des gesamten Beobachtungszeitraums in einem guten Zustand blieb. Der Grund ist wahrscheinlich, daß die Verschmutzung durch Menschen verursacht wird, diese Teile des Landes aber nur dünn besidelt sind.

Trotz großer Anstrengungen zur Verringerung der Schadstoffemissionen gelten urbane Zentren nach wie vor als die wichtigsten Verursacher von Verschmutzung. Diese Gebiete sind aufgrund der ständigen Zuzugs der Landbevölkerung und der schnellen Verstädterung der ländlichen Regionen einem zusätzlichen Druck ausgesetzt. Insbesondere in Nordchina ist der Kampf gegen Umweltverschmutzung besonders schwierig, da diese Region durch eine explodierende Urbanisierung besonders betroffen ist.

Um Chinas Umweltverschmutzung weiter zu reduzieren und die Wasserqualität zu verbessern, empfehlen die Autoren, daß sich zukünftige Aktivitäten auf Wassermanagementsysteme und die Kontrolle der Wasserverschmutzung konzentrieren. Für beide hat die Zentralregierung Leitlinien zur Kontrolle und Verbesserung des Wasserverbrauchs und der Verschmutzung auf regionaler und nationaler Ebene für die Jahr bis 2020 und 2030 herausgegeben.

Bei Frontis Energy unterstützen wir alle Aktivitäten, die zur Verbesserung der Wasserqualität und der öffentlichen Gesundheit Chinas beitragen. Die Frontis-Technologie bietet dem Benutzer einen Anreiz, das Abwasser vor der Einleitung durch Entnahme seiner Energie zu reinigen. Unsere zum Patent angemeldeten Lösungen basieren auf mikrobieller Elektrolyse, die dazu beiträgt, Energie aus Abwasser zu gewinnen und insbesondere in China anzuwenden.

Mima Varničić, 2020

(Foto: Gil Dekel / Pixabay)

Veröffentlicht am

Herausforderungen der Windenergie

Viele Menschen glauben, daß es keinen Verbesserungsbedarf gibt, weil Windkraftanlagen seit Jahrzehnten funktionieren.  Die Windenergie hat das Potenzial, eine der weltweit kostengünstigen Energiequellen zu sein. In einem kürzlich im Fachmagazin Science erschienenen wissenschaftlichen Artikel wurde die Wissenschaft aufgefordert, sich drei großen Herausforderungen in den Naturwissenschaften zu widmen, um die Innovation der Windenergie voranzutreiben. Dabei wurden im Wesentlichen drei Richtungen identifiziert:

  1. Die bessere Ausnutzung von Windströmungen
  2. Struktur- und Systemdynamik von Windrädern
  3. Netzzuverlässigkeit der Windkraft

Um bei der besseren Ausnutzung von Windströmungen voranzukommen, müssen die Dynamik der Bewegung der Luftmasse und ihre Wechselwirkungen mit Land und Turbinen verstanden werden. Um mehr Energie zu gweinnen, haben Windenergieanlagen an Größe zugenommen. Wenn sich Windenergieanlagen mit anderen Windenergieanlagen größere Gebieten teilen, veraendert sich zuh zunehmend die dort vorherrschende Strömung. Unser Wissen über Windströmungen in komplexem Gelände und bei unterschiedlichen atmosphärischen Bedingungen ist sehr lückenhaft. Wir müssen diese Bedingungen genauer modellieren, damit der Betrieb großer Windkraftanlagen am produktivaer und günstigster wird.

Wenn die Höhe von Windkraftanlagen zunimmt, müssen wir die Dynamik des Windes in diesen Höhen und Maßstäben verstehen. Die Verwendung vereinfachter physikalischer Modelle und grundlegender Beobachtungstechnologien in der Vergangenheit ermöglichte die Installation von Windkraftanlagen und die Vorhersage der Leistung in einer Vielzahl von Geländetypen. Die Herausforderung besteht darin, diese unterschiedlichen Bedingungen so zu modellieren, daß Windkraftanlagen so optimiert werden, daß sie sowohl kostengünstig und steuerbar sind, als auch am richtigen Ort installiert werden.

Die Struktur- und Systemdynamik von Windrädern ist ebenfalls mangelhaft erforscht. Windkraftanlagen sind heute die größten flexiblen, rotierenden Maschinen der Welt. Die Schaufellängen überschreiten routinemäßig 80 Meter. Ihre Türme ragen weit über 100 Meter hinaus. Um dies zu verbildlchen, können drei Airbus A380 in den Bereich eines Windenergierotors passen.  Da diese Anlagen immer größer und schwerer werden und unter zunehmenden strukturellen Belastungen arbeiten, sind neue Materialien und Herstellungsprozesse erforderlich. Das rührt daher, daß die Skalierbarkeit, der Transport, die strukturelle Integrität und das Recycling der verwendeten Materialien an ihre Grenzen stoßen.

Darüber hinaus wirft das Wechselspiel zwischen Turbinen- und atmosphärischer Dynamik mehrere wichtige Forschungsfragen auf. Viele vereinfachte Annahmen, auf denen frühere Windenergieanlagen basieren, gelten nicht mehr. Die Herausforderung besteht nicht nur darin, die Atmosphäre zu verstehen, sondern auch herauszufinden, welche Faktoren sowohl für die Effizienz der Stromerzeugung als auch für die strukturelle Sicherheit entscheidend sind.

Zudem ist unser heutiges Stromnetz nicht für den Betrieb großer zusätzlicher Windresourcen ausgelegt. In Zukunft muß es sich  daher grundlegend von dem heutigen unterscheiden. Es wird ein hoher Zuwachs an variabler Wind- und Sonnenkraft erwartet. Für die Aufrechterhaltung eines funktionierenden, effizienten und zuverlässigen Netzes müssen diese Stromerzeuger vorhersehbar und steuerbar sein. Außerdem müssen erneuerare Stromerzeuger in der Lage sein, nicht nur Strom, sondern auch stabilisierende Netzdienste bereitzustellen. Der Weg in die Zukunft erfordert eine integrierte Systemforschung an den Schnittstellen von Atmosphärenphysik, Windturbinendynamik, Anlagensteuerung und Netzbetrieb. Dazu gehören auch neue Energiespeicherlösungen wie Power-to-Gas.

Windenergieanlagen und deren Stromspeicher können wichtige Netzdienste wie Frequenzsteuerung, Rampensteuerung und Spannungsregelung bereitstellen. Innovative Steuerungen könnten die Eigenschaften von Windenergieanlagen nutzen, um die Energieerzeugung der Anlage zu optimieren und gleichzeitig diese wesentlichen Dienstleistungen bereitzustellen. Beispielsweise können modern Datanverarbeitungstechnologien großen Datenmengen für Sensoren liefern, die dann auf die gesamte Anlage angwendet werden. Daurch kan die Energieerfassung verbessert werden, was widerum die Betriebskosten deutlich senken kann. Der Weg zur Verwirklichung dieser Zukunft erfordert umfangreiche Forschungen an den Schnittstellen von atmosphärischer Strömungsmodellierung, individueller Turbinendynamik und Windkraftanlagensteuerung mit dem Betrieb größerer elektrischer Systeme.

Fortschritte in den Naturwissenschaften sind unerläßlich, um Innovationen voranzutreiben, Kosten zu senken und eine reibungslose Integration in das Stromnetz zu erreichen. Zusätzlich müssen auch Umweltfaktoren beim Ausbau der Windenergie berücksichtigt werden. Um erfolgreich zu sein, muß der Ausbau der Windenergienutzung verantwortungsbewußt erfolgen, um die Zerstörung der Landschaft so gering wie möglich halten. Investitionen in Wissenschaft und interdisziplinäre Forschung in diesen Bereichen werden mit Sicherheit helfen, akzeptablen Lösungen für alle Beteiligten zu finden.

Zu solchen Projekten gehören Untersuchungen, die die Auswirkungen des Windes auf wild lebende Tiere charakterisieren und verstehen. Auch wissenschaftliche Forschung, die Innovationen und die Entwicklung kostengünstiger Technologien ermöglicht, um die Auswirkungen von Wildtieren auf Windkraftanlagen an Land und vor der Küste wird derzeit intensiv betrieben.  Dazu muß verstanden werden, wie Windenergie so platziert werden kann, daß die lokalen Auswirkungen minimiert werden und gleichzeitig ein wirtschaftlicher Nutzen für die betroffenen Gemeinden entsteht.

Diese großen Herausforderungen der Windforschung bauen aufeinander auf. Die Charakterisierung der Betriebszone von Windenergieanlagen in der Atmosphäre wird für die Entwicklung der nächsten Generation noch größerer, kostengünstiger Windenergieanlagen von entscheidender Bedeutung sein. Das Verständnis sowohl der dynamischen Steuerung der Anlagen als auch der Vorhersage der Art des atmosphärischen Zuflusses ermöglichen eine bessere Steuerung.

Frontis Enegy unterstützt als innovatives Unternehmen den Übergang in eine CO2-neutrale Energieerzeugung.

(Foto: Fotolia)

Veröffentlicht am

Schnelles Aufladen von Lithiumakkus bei hoher Temperatur

Eine der größten Hürden bei der Elektrifizierung der Straßenverkehrs ist die lange Aufladezeit der Lithiumakkus in elektrischen Fahrzeugen. In einem aktuellen Forschungsbericht im Fachmagazin Joule wurde jetzt gezeigt, daß man die Ladezeit auf 10 Minuten verkürzen kann, während man den Akku erwärmt.

Ein Lithiumakku kann nach nur 10 Minuten Ladezeit eine 320 Kilometer lange Fahrt mit Strom versorgen − vorausgesetzt, ihre Temperatur wird beim Aufladen auf mehr als 60 °C erhöht.

Lithiumbatterien, bei denen Lithiumionen zur Stromerzeugung verwendet werden, werden bei Raumtemperatur langsam aufgeladen. Das Aufladen dauertof mehr als drei Stunden, im Gegensatz zu drei Minuten beim Volltanken.

Eine kritische Barriere für die Schnellaufladung ist die Lithiumbeschichtung, die normalerweise bei hohen Laderaten auftritt und die Lebensdauer und Sicherheit der Batterien drastisch beeinträchtigt. Die Forscher der Pennsylvania State University in University Park stellen wir eine asymmetrische Temperaturmodulationsmethode vor, die einen Lithiumakku bei einer erhöhten Temperatur von 60 °C auflädt.

Durch das Hochgeschwindigkeitsladen wird Lithium normalerweise dazu angeregt, eine der Elektroden der Batterie zu beschichten (Lithiumplattierung). Dadurch wird der Energiefluß blockiert und der Akku wird schließlich unbrauchbar. Um eine Ablagerung von Lithium auf der Anodenzu vermeiden, haben die Forscher die Expositionszeit bei 60 °C auf nur ~10 Minuten pro Zyklus begrenzt.

Dabei griffen die Forscher auf industriell verfügbare Materialien zurück und minimierten den Kapazitätsverlust bei 500 Zyklen auf 20%. Eine bei Raumtemperatur geladene Batterie konnte nur 60 Zyklen lang schnell geladen werden, bevor ihre Elektrode plattiert wurde.

Die asymmetrische Temperatur zwischen Laden und Entladen eröffnet einen neuen Weg, um den Ionentransport während des Ladens zu verbessern und gleichzeitig eine lange Lebensdauer zu erreichen.

Über viele Jahrzehnte wurde allgemein angenommen, daß Lithumakkus wegen des beschleunigten Materialabbau nicht bei hohen Temperaturen betrieben werden sollten. Im Gegensatz zu dieser herkömmlichen Weisheit stellten die Forscher nun ein Schnelladeverfahren vor, das eine Zelle bei 60 °C lädt und die Zelle bei einer kühlen Temperatur entlädt. Zudem wird durch Laden bei 60 °C  der Batteriekühlungsbedarf um mehr als das 12-fache verringert.

Bei Batterieanwendungen hängen die Entladungsprofile vom Endverbraucher ab, während das Ladeprotokoll vom Hersteller festgelegt wird und daher speziell ausgelegt und gesteuert werden kann. Das hier vorgestellte Schnelladeverfahren eröffnet einen neuen Weg für den Entwurf elektrochemischer Energiesysteme, die gleichzeitig eine hohe Leistung und eine lange Lebensdauer erzielen können.

Bei Frontis Energy denken wir ebenfalls, daß es sich bei dem neuen einfachen Ladeverfahren um eine vielversprechende Methode handelt. Wir sind gespannt auf die Markteinführung dieser neuen Schnellademethode.

(Foto: iStock)

Veröffentlicht am

Bioelektrischer Alkohol als Flüssigkraftstoff mit Hilfe von Hefen

Hefen wie Saccharomyces cerevisiae werden, wie der Name erraten läßt, zur Herstellung von Bier und anderen alkoholischen Getränken im großen Maßstab eingesetzt. Ihre hohe Salz- und Ethanoltoleranz macht sie dabei aber nicht nur für die Herstellung von Getränken nützlich, sondern auch für hohe Alkoholkonzentrationen bei der Produktion von Kraftstoffen. Wie wir schon berichteten, sind dabei neben dem bekannten Ethanol besonders auch die langkettigen Fuselalkohole interessant. Schon heute wird Bioethanol mit Benzin gemischt und verbessert somit die CO2-Bilanz von Verbrennungsmotoren. Dieser flüssiger Biokraftstoff wird entweder aus Stärke oder Lignocellulose hergestellt. Die lokale Produktion und Verwendung von Bioethanol unterstützt lokale Volkswirtschaften, verringert den CO2-Ausstoß und fördert die Selbstversorgung. Letzteres ist besonders wichtig für ressourcenarme Binnenländer von Bedeutung.

Um Ethanol und andere Alkohole effizient aus Lignocellulose-Hydrolysaten herzustellen, müssen Hefen sowohl Glucose als auch Pentosen wie Xylose und Arabinose verwenden. Dies liegt daran, daß Biomasse sowohl reich an Lignocellulose und damit auch Glucose und Xylose ist. Dies ist allerdings auch der Hauptnachteil der Verwendung von Saccharomyces cerevisiae, da sie Xylose nicht fermentieren kann. Dementsprechend ist die Identifizierung von Hefestämmen, die sowohl Glucose als auch Xylose fermentieren können, von großer Bedeutung. Hocheffiziente Hefestämme können, z.B. in Co-Kulturen mit anderen Hefen, die zur Lignocellulosefermentation fähig sind, für die Ethanolherstellung verwendet werden. Eine solche Hefe ist z.B. Wickerhamomyces anomalous.

Um die Ethanolproduktion weiter zu verbessern, kann bioelektrische Fermentationstechnologie eingesetzt werden, die die traditionelle Fermentation unterstützt. Der mikrobielle Metabolismus kann so elektrochemisch gesteuert werden. Die Vorteile sind vielfältig. Die Fermentation wird durch das Anlegen eines elektrochemischen Potentials selektiv, wodurch sich die Effizienz der  von Zuckerverwertung erhöht. Zudem wird so der Einsatz von Additiven zur Kontrolle das Redoxgleichgewichts sowie des pH-Wertes minimiert. Auch das Zellwachstum kann dadurch verbessert werden.

Solche bioelektrischen Zellen sind galvanische Zellen. Die in der bioelektrischen Zelle verwendeten Elektroden können als Elektronenakzeptoren oder -quelle wirken. Solche elektrochemischen Veränderungen wirken sich nicht nur auf den Stoffwechsel und die Zellregulation aus, sondern auch auf die Wechselwirkungen zwischen den eingesetzten Hefen aus. Jetzt hat eine Forschergruppe aus Nepal (einem ressourcenarmen Binnenland) neue Hefestämme von Saccharomyces cerevisiae und Wickerhamomyces anomalous in einem bioelektrischen Fermenter verwendet, um die Ethanolproduktion aus Biomasse zu verbessern. Die Ergebnisse haben die Wissenschaftler im Fachmagazin Frontiers in Energy Research publiziert.

Für die Studie wurden Saccharomyces cerevisiae und Wickerhamomyces anomalus ausgewählt, da beide gute Ethanolproduzenten sind und von letzterer gezeigt wurde, daß sie Xylose in Ethanol umwandeln können. Nachdem die Forscher eine Spannung an das System angelegt hatten, verdoppelte sich die Ethanolproduktion durch die verwendeten Hefen. Beide Hefen bildeten einen Biofilm auf den Elektroden, was das System ideal für den Einsatz als Durchflußsystem macht, da die Mikroorganismen nicht ausgewaschen werden.

Saccharomyces cerevisiae, lichtmikroskopische Aufnahme, 600-fache Vergrößerung (Foto: Amanda Luraschi)

Die Forscher spekulierten, daß die erhöhte Ethanolproduktion durch die stärker angetrieben Umwandlung von Pyruvat zu Ethanol zu Stande kam − dem zentralen Stoffwechselmechanismus der Hefe. Dies führten die Forscher auf einen Beschleunigung der Redoxreaktionen an der Anode und Kathode zurück. Die zugeführte externe Spannung polarisierte die im Cytosol vorhandenen Ionen und erleichtert so den Elektronentransfer von der Kathode. Dies und die beschleunigte Glucoseoxidation führten wahrscheinlich zu einer erhöhten Ethanolproduktion.

Normalerweise wird Pyruvat in Gärhefen zu Ethanol umgewandelt. Eine externe Spannungseingabe kann die Kinetik des Glukosestoffwechsels in Saccharomyces cerevisiae sowohl unter aeroben als auch unter anaeroben Bedingungen zu steuern. Dabei spielen intrazelluläre wie das Transplasmamembran-Elektronentransfersystem eine wichtige Rolle für den Elektronentransport durch die Zellmembran. Das Elektronentransfersystem besteht aus Cytochromen und verschiedenen Redoxenzymen, die der Membran an bestimmten Stellen Redoxaktivität verleiht.

Die Autoren haben zudem festgestellt, daß eine erhöhte Salzkonzentration die Leitfähigkeit und damit die Ethanolproduktion fördert. Die erhöhte Ethanolproduktion aus lignocellulosehaltiger Biomasse könnte auch auf das Vorhandensein verschiedener Naturstoffe zurückzuführen sein, die das Wachstum von Hefestämmen fördern könnten. Wenn die Celluloseacetatmembran durch eine Nafion™-Membran ersetzt wurde, erhöhte dies die Ethanolproduktion ebenfalls. Das könnte auf einen verbesserten Transport von Xylose durch die Nafion™-Membran sowie auf die Abnahme des Innenwiderstands zurückzuführen sein. Eine weitere Steigerung der Ethanolproduktion wurde beobachtet, wenn der bioelektrische Reaktor mit feinen Platinpartikeln betrieben wurde, die auf die Platinanode aufgetragen waren, und Neutralrot auf der Graphitkathode abgeschieden wurde.

Hefekulturen von links nach rechts: Saccharomyces cerevisiae, Candida utilis, Aureobasidium pullulans, Trichosporum cutaneum, Saccharomycopsis capsularis, Saccharomycopsis lipolytica, Hanseniaspora guilliermondii, Hansenula capsulata, Saccharomyces carlsbergensis, Saccharomyces rouxii, Rhodotorula rubra, Phaffia rhodozyba, Cryptococcus laurentii, Metschnikowia pulcherrima, Rhodotorula pallida

Bei Frontis Energy denken wir, daß die vorliegende Studie vielversprechend ist. Für die Zukunft sollten aber langkettige Fuselalkohole in Betracht gezogen werden, da diese weniger flüchtig und besser mit derzeitigen Verbrennungsmotoren verträglich sind. Diese können zudem leicht in die entsprechenden langkettigen Kohlenwasserstoffe umgewandelt werden.

Veröffentlicht am

Richtlinien für einen globalen CO2-Haushalt

Zahlreiche Untersuchungen haben während des letzten Jahrzehnts gezeigt, daß die globale Erwärmung in etwa proportional zur CO2-Konzentration in unserer Atmosphäre ist. Auf diese Weise läßt sich unser verbleibende Kohlenstoffhaushalt abschätzen. Das ist die Gesamtmenge des vom Menschen produzierten Kohlendioxids, die noch in die Atmosphäre abgegeben werden kann, bevor ein festgelegter globaler Temperaturgrenzwert erreicht wird. Auf diesen Grenzwert haben sich die Nationen der Welt im Pariser Abkommen 2015 geeinigt. Er soll 1,5°C nicht überschreiten, und in jedem Fall weit unter 2,0°C liegen. Es wurden jedoch zahlreiche Schätzungen für das verbleibende CO2 gemacht, was sich negativ auf die politische Entscheidungsfindung auswirkt. Jetzt hat eine internationale Forschergruppe von ausgewiesenen Klimaexperten eine Richtlinie für die Errechnung des globalen CO2-Haushalts im renomierten Fachmagazin Nature veröffentlicht. Die Forscher schlagen vor, daß die Anwendung dieser Richtlinie dazu beitragen soll, die teils gravierenden Unterschiede bei der Abschätzung des CO2-Haushalts auszugleichen, und die Unsicherheiten in Forschung und Politik zu verringern.

Seit dem fünften Bericht des Zwischenstaatlichen Gremiums für Klimawandel (IPCC) hat das Konzept eines CO2-Haushalts als Instrument zur Ausrichtung der Klimapolitik an Bedeutung gewonnen. In einer Reihe von Studien aus den letzten zehn Jahren wurde geklärt, warum der Anstieg der globalen Durchschnittstemperatur in etwa proportional zur Gesamtmenge der CO2-Emissionen ist, die seit der industriellen Revolution durch menschliche Aktivitäten verursacht wurden. Dabei zitiert die Forschergruppe zahlreiche veröffentlichte Belege. Diese Literatur hat es Wissenschaftlern ermöglicht, den linearen Zusammenhang zwischen Erwärmung und CO2-Emissionen als transiente Klimareaktion auf kumulierte CO2-Emissionen (TCRE) zu definieren. Die Brillianz dieses Konzepts wird deutlich, die man erkennt, daß die Reaktion des komplexen Systems Erde auf unsere CO2-Emissionen durch eine ungefähr lineare Beziehung dargestellt werden kann. In jüngster Zeit wurden jedoch zusätzliche Prozesse, die die zukünftige Erwärmung beeinflussen, in Modelle einbezogen. Dabei handelt es sich z.B. um das Auftauen des arktischen Permafrosts. Diese zusätzlichen Prozesse erhöhen die Unsicherheit. Zudem wird die globale Erwärmung nicht nur durch CO2-Emissionen verursacht. Andere Treibhausgase, wie z.B. Methan, fluorierte Gase oder Lachgas, sowie Aerosole und deren Vorstufen beeinflussen die globalen Temperaturen. Dies verkompliziert die Beziehung zwischen zukünftigem CO2 weiter.

Bei der durch CO2 verursachten Klimaerwärmung trägt jede Tonne zur Erwärmung bei, egal ob diese Tonne CO2 heute, morgen oder in der Verganganheit ausgestoßen wurde. Dies bedeutet, daß die globalen CO2-Emissionen auf das Null gesenkt werden müssen, um dann dort zu bleiben. Das heißt auch, daß unsere Emissionen umso schneller sinken müssen, je mehr wir in den kommenden Jahren emittieren. Auf Nullemission würde sich die Erwärmung zwar stabilisieren, aber nicht verschwinden oder oder sich gar umgekehren. Eine Überziehung des CO2-Haushalts müßte also später wieder durch ein Entfernen des CO2s ausgeglichen werden.  So kann z.B. die Entfernung mit Hilfe von filtern geschehen, wie wir bereits berichteten. Schlußendlich wird dies wohl der einzig verbleibende Weg sein, denn die Durchdringung unserer Energiewirtschaft mit CO2-neutralen Quellen hat sich bei 5% stabilisiert. Die Aufstellung eines Kohlenstoffhaushalts macht die Dringlichkeit deutlich. Leider sind die Angaben über die uns verbleibende Menge CO2 weit gestreut. In ihrer Richtlinie zitieren die Forscher zahlreiche Studien zur Erhaltung des 1,5°C-Ziels, die von 0 Tonnen CO2 bis zu 1.000 Gigatonnen reichen. Für das 2,0°C-Ziel reicht die Spannweite von ca. 700 Gigatonnen bis hin zu fast 2.000 Gigatonnen verbleibende CO2-Emissionen. Das Ziel der Forscher ist es, diese Unsicherheit einzuschränken, in dem sie eine klare Richtlinie vorschlagen. Das zentrale Element dieser Richtlinie ist die Gleichung zur Berechnung des verbleibenden CO2-Haushaltsrahmens:

Blim = (TlimThistTnonCO2TZEC) / TCRE − EEsfb

Dieser Rahmen sind die verbleibenden CO2-Emissionen (Blim) für die spezifische Temperaturgrenze (Tlim) als Funktion von fünf Termen, die Aspekte des geophysikalischen und gekoppelten Mensch-Umwelt-Systems darstellen: die bisherige vom Menschen verursachte Erwärmung (Thist), der Nicht-CO2-Beitrag zum zukünftigen Temperaturanstieg (TnonCO2), die Nullemissionsfestlegung (TZEC), die TCRE und eine Anpassung für Quellen aus eventuellen Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb).

Term

Bedeutung

Art

Derzeitiges Verständnis

Erwärmungsgrenze Tlim Wahl der Temperaturmetriken, mit denen die globale Erwärmung, die Wahl des vorindustriellen
Bezugszeitraums und die Übereinstimmung mit den globalen Klimazielen ausgedrückt werden
Wählbar Mittel bis hoch
Vergangene menschenverursachte Erwärmung Thist Unvollständige Erfassung in Beobachtungsdatensätzen und Methoden zur Abschätzung der vom Menschen verursachten Komponente; Siehe auch Tlim Unsicherheit Mittel bis hoch
Nicht-CO2 Erwärmung TnonCO2 Die Höhe der verschiedenen Nicht-CO2-Emissionen, die mit den weltweiten Netto-Null-CO2-Emissionen übereinstimmen, hängt von den politischen Entscheidungen, aber auch vom unsicheren Erfolg ihrer Umsetzung ab Wählbare Unsicherheit Mittel
Nicht-CO2 Erwärmung TnonCO2 Klimareaktion auf Nicht-CO2-Verusacher, insbesondere in Bezug auf die Aerosolrückgewinnung und  Temperaturreduzierung aufgrund geringerer Methanemissionen Unsicherheit Niedrig bis mittel
Nullemissionsverpflichtung TZEC Vorzeichen und Ausmaß der Nullemissionsverpflichtung in dekadischen Zeitskalen für aktuelle und nahezu Null jährliche CO2-Emissionen Unsicherheit Niedrig
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Verteilung der TCRE-Unsicherheit, Linearität der TCRE zur Erhöhung und Stabilisierung der kumulativen CO2-Emissionen und Auswirkung von Temperaturmetriken auf die TCRE-Schätzung Unsicherheit Niedrig bis mittel
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Über die Spitzenerwärmung hinausgehende Unsicherheit der Linearität, Wert und Verteilung der TCRE zur  Verringerung der kumulierten CO2-Emissionen Unsicherheit Niedrig
Rükkopplungen mit nicht erfaßten
geologischen Systemen
EEsfb Dauer und Ausmaß des Auftauens von Permafrost und der Methanfreisetzung aus Feuchtgebieten und deren Darstellung in Geomodellen sowie andere mögliche Arten von Rückkopplungen Unsicherheit Sehr niedrig

In dem CO2-Haushalt ist wohl die Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb) die größte Unsicherheit. Diese Rückkopplungsprozesse sind typischerweise mit dem Auftauen von Permafrost und der damit verbundenen langfristigen Freisetzung von CO2 und CH4 verbunden. Es wurden jedoch auch andere Rückkopplungsquellen für das Geosystem identifiziert, wie z.B. die Änderungen der CO2-Aufnahme in der Vegetation und die damit verbundene Stickstoffverfügbarkeit. Weitere Rückkopplungsprozesse involvieren die Änderungen der Oberflächenalbedo, der Wolkendecke oder von Brandbedingungen.

Es bleibt es eine Herausforderung, die Unsicherheiten im Zusammenhang mit den Schätzungen des CO2-Haushalt angemessen zu charakterisieren. In einigen Fällen ist die Ursache der Unsicherheiten ungenaue Kenntnis der zugrunde liegenden Prozesse oder mangelnde Genauigkeit der Messungen. In anderen Fällen werden Begriffe nicht einheitlich verwendet. Für eine bessere Vergleichbarkeit und Flexibilität schlagen die Forscher vor, die globalen Werte der Oberflächenlufttemperatur routinemäßig zu messen. Diese Methode liefert unveränderliche Zahlen für Modelle, Modellabläufe über gewählte Zeiträume hinweg. Detailliertere Vergleiche zwischen veröffentlichten Schätzungen den CO2-Haushalt sind derzeit schwierig, da oft die Originaldaten aus den ursprünglichen Studien fehlen. Die Forscher schlagen daher vor, diese zukünftig zusammen mit den Publikationen bereitzustellen.

Die Zerlegung des CO2-Haushalts in seine Einzelfaktoren ermöglicht es, eine Reihe vielversprechender Wege für die zukünftige Forschung zu identifizieren. Ein Forschungsbereich, der dieses Feld voranbringen könnte, ist die nähere Betrachtung der TCRE. Zukünftige Forschungen werden voraussichtlich die Bandbreite der TCRE-Schätzungen einschränken, was die Unsicherheit verringern wird. Ein weiteres vielversprechendes Forschungsgebiet ist die Untersuchung der Wechselbeziehung zwischen Einzelfaktoren und ihren verbunden Unsicherheiten, beispielsweise zwischen Unsicherheiten in Thist und TnonCO2. Dies könnte durch die Entwicklung von Methoden erreicht werden, die eine zuverlässige Abschätzung der vom Menschen verursachten Erwärmung in jüngerer Zeit ermöglichen. Klar ist auch, daß weniger komplexe Klimamodelle nützlich sind, um die Unsicherheiten weiter zu reduzieren. Gegenwärtig weist jeder Faktor des vorgestellten Rahmens seine eigenen Unsicherheiten auf, und es fehlt eine Methode, um diese Unsicherheiten formal zu kombinieren.

Auch bei Frontis Energy denken wir, daß Fortschritte in diesen Bereiche unser Verständnis bei der Schätzungen des CO2-Haushalts verbessern würde. Ein systematisches Verständnis des CO2-Haushalts und ist für eine wirksame Zielsetzung und die Kommunikation der Herausforderungen beim Klimaschutze von entscheidender Bedeutung.

Veröffentlicht am

Billiger Biokraftstoff mit hoher Oktanzahl entwickelt

Forscher des National Renewable Energy Laboratory (NREL) haben eine billige Methode zur Herstellung von Benzin mit hoher Oktanzahl aus Methanol entwickelt und diese im Fachblatt Nature Catalysis veröffentlicht. Methanol kann über verschiedene Wege aus CO2 gewonnen werden, wie wir bereits im letzten Jahr berichteten. Biomasse, wie z.B. Holz, ist dabei eine mögliche Methode.

Die Herstellung von Biokraftstoffen aus Holz ist allerdings zu teuer, um mit fossilen Brennstoffen zu konkurrieren. Um eine Lösung für dieses Problem zu finden, kombinierten die NREL-Forscher ihre Grundlagenforschung mit einer wirtschaftlichen Analyse. Dabei zielten die Forscher zunächst auf den teuersten Teil des Prozesses. Danach fanden die Forscher Methoden, um diese Kosten mit Methanol als Zwischenprodukt zu senken.

Bisher lagen die Kosten für die Umwandlung von Methanol in Benzin oder Diesel bei ungef 0.24 € pro Liter. Die Forscher haben nun einen Preis von ca. 0.16 € pro Liter erreicht.

Bei der katalytischen Umwandlung von Methanol in Benzin handelt es sich um ein wichtiges Forschungsgebiet im Bereich der CO2-Rückgewinnung. Die traditionelle Methode beruht auf mehrstufigen Prozessen und hohen Temperaturen. Sie ist teuer, produziert minderwertigen Kraftstoff in geringen Mengen. Damit ist sie im Vergleich zu Kraftstoffen auf Erdölbasis nicht konkurrenzfähig.

Das entwickelte Verfahren stieß zunächst auf das Problem eines Wasserstoffmangels. Wasserstoff ist das energetische Schlüsselelement in Kohlenwasserstoffen. Die Forscher stellten die Hypothese auf, daß die Verwendung des Übergangsmetalls Kupfer dieses Problem lösen würde, was es auch tat. Die Forscher schätzen, daß der mit Kupfer infundierte Katalysator zu 38% mehr Ausbeute weniger Kosten führte.

Durch Erleichterung der Wiedereingliederung von C4-Nebenprodukten während der Homologation von Dimethylether ermöglichte der Kupfer-Zeolith-Katalysator die 38%ige Steigerung der Ausbeute des Produkts und eine 35%ige Reduzierung der Umwandlungskosten im Vergleich zu herkömmlichen Zeolith-Katalysatoren. Alternativ dazu wurden C4-Nebenprodukte an ein synthetisches Kerosin weitergeleitet, das fünf Spezifikationen für einen typischen Düsentreibstoff erfüllte. Die Treibstoffsynthesekosten nahmen dabei im Vergleich geringfügig zu. Selbst wenn die Kosteneinsparungen minimal wären, hätte das resultierende Produkt einen höheren Wert.

Abgesehen von den Kosten bietet der neue Prozess den Anwendern weitere Wettbewerbsvorteile. Zum Beispiel können Unternehmen mit Ethanolherstellern um Gutschriften für erneuerbare Brennstoffe konkurrieren (wenn der verwendete Kohlenstoff aus Biogas oder Hausabfällen stammt). Der Prozess ist auch mit vorhandenen Methanolanlagen kompatibel, die Erdgas oder festen Abfall zur Erzeugung von Synthesegas verwenden.