Veröffentlicht am

Abwasser ist eine global unterschätzte Resource

In unserem letzten Beitrag zur Wasserqualität in China haben wir auf eine Studie hingewiesen, die zeigt, wie sich eine verbesserte Abwasserbehandlung positiv auf die Umwelt und letztendlich auf die öffentliche Gesundheit auswirkt. Abwasserbehandlung erfordert jedoch eine ausgeklügelte und kostspielige Infrastruktur. Diese ist nicht überall verfügbar. Die Gewinnung von Ressourcen aus Abwasser kann jedoch einen Teil der Kosten ausgleichen, die durch den Bau und Betrieb von wolchen Anlagen entstehen. Die offene Frage ist, wieviele Ressourcen sind im Abwasser enthalt?

Eine kürzlich in der Fachzeitschrift Natural Resources Forum veröffentlichte Studie versucht, diese Frage zu beantworten. Es ist die erste dieser Art, die abschätzt, wie viel Abwasser alle Städte der Erde pro Jahr produzieren. Die Menge ist enorm, wie die Autoren sagen. Derzeit fallen weltweit jährlich 380 Milliarden m³ Abwasser an. Die Autoren ließen bei ihrer Untersuchung nur 5% der städtischen Gebiete aus.

Die wichtigsten Ressourcen im Abwasser sind Energie, Nährstoffe wie Stickstoff, Kalium und Phosphor sowie das Wasser selbst. In kommunalen Kläranlagen stammen sie aus menschlichen Exkrementen. In Industrie und Landwirtschaft enthält Abwasser Überreste der Produktionsprozesse. Das Forscherteam berechnete, wie viele Nährstoffe aus kommunalen Abwässern wahrscheinlich in den globalen Abwasserstrom gelangen. Dabei errechneten sie erreichen eine Gesamtzahl von 26 Millionen Tonnen pro Jahr. Das ist fast das Achtzigfache des Gewichts des New Yorker Empire State Buildings.

Wenn man die gesamte Stickstoff-, Phosphor- und Kaliumbelastung zurückgewinnen würde, könnte man theoretisch 13% des weltweiten Düngemittelbedarfs decken. Die Forscher gingen davon aus, daß das Abwasservolumen wahrscheinlich weiter zunehmen wird, da auch die Weltbevölkerung, die Urbanisierung und der Lebensstandard zunehmen. Sie schätzen weiter, daß es im Jahr 2050 fast 50% mehr Abwasser geben wird als im Jahr 2015. Es wird notwendig sein, so viel wie möglich davon zu behandeln und die Nährstoffe in diesem Abwasser stärker zu nutzen! Wie wir in unserem vorherigen Beitrag betont haben, verursacht Abwasser immer mehr Umwelt- und Gesundheitsprobleme.

Abwasser enthält auch viel Energie. Kläranlagen in Industrieländern nutzen sie seit langem in Form von Biogas. Die meisten Kläranlagen fermentieren Klärschlamm in großen anaeroben Fermentern und produzieren daraus Methan. Infolgedessen sind einige dieser Kläranlagen jetzt energieunabhängig.

Die Autoren berechneten in ihrer Studie das Energiepotential, das im Abwasser aller Städte weltweit verborgen liegt. Grundsätzlich reicht die Energie aus, um 500 bis 600 Millionen Durchschnittsverbraucher mit Strom zu versorgen. Die einzigen Probleme sind: Abwasserbehandlung und Energietechnologie sind teuer und werden daher in nicht Schwellen- und Entwicklungsländern wenig eingesetzt. Laut den Wissenschaftlern wird sich dies ändern. Gelegentlich passiert dies bereits.

Singapur ist ein prominentes Beispiel. Dort wird das Abwasser so gründlich geklärt, daß es in das normale Wassernetz zurückgeführt wird. In Jordanien gelangt das Abwasser aus den Städten Amman und Zerqa durch ein Gefälle in die kommunale Kläranlage. Dort sind kleine Turbinen installiert, die seit ihrem Bau Energie liefern. Solche Projekte zeigen, daß eine Rückgewinnung von Ressourcen möglich ist. Sie macht die Abwasserbehandlung effizienter und kostengünstiger.

Die Frontis-Technologie basiert auf der mikrobiellen Elektrolyse, bei der viele Schritte in Kläranlagen in einem einzigen Reaktor kombiniert werden, um sowohl Nährstoffe als auch Energie zurückzugewinnen.

(Foto: Wikipedia)

Veröffentlicht am

Verbesserungen der Wasserqualität in China

In den letzten Jahrzehnten war China durch eine rasante technologische und wirtschaftliche Entwicklung gekennzeichnet, dies jedoch auf Kosten seiner Umwelt. Die Verschlechterung der Wasserqualität im Landesinneren gilt als eine der schwerwiegendsten Umweltbedrohungen für das Ökosystem und letztendlich auch für die Gesundheit der Einwohner des Landes.

Seit 2001 hat China große Anstrengungen unternommen, um Umweltvorschriften in Kraft zu setzen und die Wasserverschmutzung durch Siedlungen, landwirtschaftliche Betriebe und Industrie zu stoppen. Nach dem „10. Nationalen Fünfjahresplan“ der Kommunistischen Partei Chinas wurden beträchtliche Investitionen in Systeme zur Kontrolle der Umweltverschmutzung und zur Abwasserentsorgung getätigt.

Einige Studien zeigten, daß durch diese Maßnahmen die chinesischen Seen und Flüsse erwartungsgemäß sauberer wurden. Zwar hat  sich seitdem die Wasserqualität erheblich verbessert. Andere Landesteile haben jedoch immer noch Probleme mit verschmutzen Wasser.

Jetzt hat eine Forschergruppe der Chinesischen Akademie der Wissenschaften in Peking in der renommierten Zeitschrift Science eine der umfassendsten nationalen Untersuchungen zur Oberflächenwasserqualität Chinas veröffentlicht. Die Forscher untersuchten alle Regionen des Landes, um herauszufinden, wie sich die Wasserqualität über einen Zeitraum von zirka 15 Jahren entwickelt hat. Der Artikel bewertet die Wasserqualität anhand von drei Parametern: Gehalt an gelöstem Sauerstoff (DO), chemischer Sauerstoffbedarf (CSB) und Ammoniumstickstoff (N) in Oberflächengewässern. Die Forscher führten zwischen 2003 und 2017 monatliche Punktmessungen an den wichtigsten chinesischen Flüssen und Seen im ganzen Land durch.

Aufgrund regionaler Unterschiede in der Binnenwasserqualität Chinas sowie der Dynamik in mehreren anthropogenen Verschmutzungsquellen sind solche Studien von entscheidender Bedeutung, um die erforderliche Regulierungen zur Verbesserung der Wasserqualität zu anzugehen. Diese müssen an die Nachhaltigkeit der Ökosysteme in allen Länderregionen angepaßt werden.

Die Ergebnisse zeigen, daß in den letzten 15 Jahren die durchschnittliche jährliche Verschmutzung im ganzen Land deutlich und linear gesunken ist oder auf einem guten Niveau gehalten wurde. Folglich ist der jährliche Prozentsatz der Wasserqualität für CSB um 1,77%, für N 1,83% und für DO um 1,45% pro Jahr gestiegen. Zwar gibt es in China keine Belastungsgrenzwerte für Gewässer. Doch die Studie zeigt, daß sich Chinas Wasserqualität kontinuierlich verbessert hat.

Die beste Nachricht ist, daß die notorisch hohen Verschmutzung zurückgegangen sind, da Kommunen und Industrie daran gearbeitet haben, ihre Abwässer zu säubern und zu reduzieren. Den Autoren zufolge wurde die sichtbarste Linderung in Nordchina festgestellt, während in der westlichen Region des Landes die Wasserqualität während des gesamten Beobachtungszeitraums in einem guten Zustand blieb. Der Grund ist wahrscheinlich, daß die Verschmutzung durch Menschen verursacht wird, diese Teile des Landes aber nur dünn besidelt sind.

Trotz großer Anstrengungen zur Verringerung der Schadstoffemissionen gelten urbane Zentren nach wie vor als die wichtigsten Verursacher von Verschmutzung. Diese Gebiete sind aufgrund der ständigen Zuzugs der Landbevölkerung und der schnellen Verstädterung der ländlichen Regionen einem zusätzlichen Druck ausgesetzt. Insbesondere in Nordchina ist der Kampf gegen Umweltverschmutzung besonders schwierig, da diese Region durch eine explodierende Urbanisierung besonders betroffen ist.

Um Chinas Umweltverschmutzung weiter zu reduzieren und die Wasserqualität zu verbessern, empfehlen die Autoren, daß sich zukünftige Aktivitäten auf Wassermanagementsysteme und die Kontrolle der Wasserverschmutzung konzentrieren. Für beide hat die Zentralregierung Leitlinien zur Kontrolle und Verbesserung des Wasserverbrauchs und der Verschmutzung auf regionaler und nationaler Ebene für die Jahr bis 2020 und 2030 herausgegeben.

Bei Frontis Energy unterstützen wir alle Aktivitäten, die zur Verbesserung der Wasserqualität und der öffentlichen Gesundheit Chinas beitragen. Die Frontis-Technologie bietet dem Benutzer einen Anreiz, das Abwasser vor der Einleitung durch Entnahme seiner Energie zu reinigen. Unsere zum Patent angemeldeten Lösungen basieren auf mikrobieller Elektrolyse, die dazu beiträgt, Energie aus Abwasser zu gewinnen und insbesondere in China anzuwenden.

Mima Varničić, 2020

(Foto: Gil Dekel / Pixabay)

Veröffentlicht am

Herausforderungen der Windenergie

Viele Menschen glauben, daß es keinen Verbesserungsbedarf gibt, weil Windkraftanlagen seit Jahrzehnten funktionieren.  Die Windenergie hat das Potenzial, eine der weltweit kostengünstigen Energiequellen zu sein. In einem kürzlich im Fachmagazin Science erschienenen wissenschaftlichen Artikel wurde die Wissenschaft aufgefordert, sich drei großen Herausforderungen in den Naturwissenschaften zu widmen, um die Innovation der Windenergie voranzutreiben. Dabei wurden im Wesentlichen drei Richtungen identifiziert:

  1. Die bessere Ausnutzung von Windströmungen
  2. Struktur- und Systemdynamik von Windrädern
  3. Netzzuverlässigkeit der Windkraft

Um bei der besseren Ausnutzung von Windströmungen voranzukommen, müssen die Dynamik der Bewegung der Luftmasse und ihre Wechselwirkungen mit Land und Turbinen verstanden werden. Um mehr Energie zu gweinnen, haben Windenergieanlagen an Größe zugenommen. Wenn sich Windenergieanlagen mit anderen Windenergieanlagen größere Gebieten teilen, veraendert sich zuh zunehmend die dort vorherrschende Strömung. Unser Wissen über Windströmungen in komplexem Gelände und bei unterschiedlichen atmosphärischen Bedingungen ist sehr lückenhaft. Wir müssen diese Bedingungen genauer modellieren, damit der Betrieb großer Windkraftanlagen am produktivaer und günstigster wird.

Wenn die Höhe von Windkraftanlagen zunimmt, müssen wir die Dynamik des Windes in diesen Höhen und Maßstäben verstehen. Die Verwendung vereinfachter physikalischer Modelle und grundlegender Beobachtungstechnologien in der Vergangenheit ermöglichte die Installation von Windkraftanlagen und die Vorhersage der Leistung in einer Vielzahl von Geländetypen. Die Herausforderung besteht darin, diese unterschiedlichen Bedingungen so zu modellieren, daß Windkraftanlagen so optimiert werden, daß sie sowohl kostengünstig und steuerbar sind, als auch am richtigen Ort installiert werden.

Die Struktur- und Systemdynamik von Windrädern ist ebenfalls mangelhaft erforscht. Windkraftanlagen sind heute die größten flexiblen, rotierenden Maschinen der Welt. Die Schaufellängen überschreiten routinemäßig 80 Meter. Ihre Türme ragen weit über 100 Meter hinaus. Um dies zu verbildlchen, können drei Airbus A380 in den Bereich eines Windenergierotors passen.  Da diese Anlagen immer größer und schwerer werden und unter zunehmenden strukturellen Belastungen arbeiten, sind neue Materialien und Herstellungsprozesse erforderlich. Das rührt daher, daß die Skalierbarkeit, der Transport, die strukturelle Integrität und das Recycling der verwendeten Materialien an ihre Grenzen stoßen.

Darüber hinaus wirft das Wechselspiel zwischen Turbinen- und atmosphärischer Dynamik mehrere wichtige Forschungsfragen auf. Viele vereinfachte Annahmen, auf denen frühere Windenergieanlagen basieren, gelten nicht mehr. Die Herausforderung besteht nicht nur darin, die Atmosphäre zu verstehen, sondern auch herauszufinden, welche Faktoren sowohl für die Effizienz der Stromerzeugung als auch für die strukturelle Sicherheit entscheidend sind.

Zudem ist unser heutiges Stromnetz nicht für den Betrieb großer zusätzlicher Windresourcen ausgelegt. In Zukunft muß es sich  daher grundlegend von dem heutigen unterscheiden. Es wird ein hoher Zuwachs an variabler Wind- und Sonnenkraft erwartet. Für die Aufrechterhaltung eines funktionierenden, effizienten und zuverlässigen Netzes müssen diese Stromerzeuger vorhersehbar und steuerbar sein. Außerdem müssen erneuerare Stromerzeuger in der Lage sein, nicht nur Strom, sondern auch stabilisierende Netzdienste bereitzustellen. Der Weg in die Zukunft erfordert eine integrierte Systemforschung an den Schnittstellen von Atmosphärenphysik, Windturbinendynamik, Anlagensteuerung und Netzbetrieb. Dazu gehören auch neue Energiespeicherlösungen wie Power-to-Gas.

Windenergieanlagen und deren Stromspeicher können wichtige Netzdienste wie Frequenzsteuerung, Rampensteuerung und Spannungsregelung bereitstellen. Innovative Steuerungen könnten die Eigenschaften von Windenergieanlagen nutzen, um die Energieerzeugung der Anlage zu optimieren und gleichzeitig diese wesentlichen Dienstleistungen bereitzustellen. Beispielsweise können modern Datanverarbeitungstechnologien großen Datenmengen für Sensoren liefern, die dann auf die gesamte Anlage angwendet werden. Daurch kan die Energieerfassung verbessert werden, was widerum die Betriebskosten deutlich senken kann. Der Weg zur Verwirklichung dieser Zukunft erfordert umfangreiche Forschungen an den Schnittstellen von atmosphärischer Strömungsmodellierung, individueller Turbinendynamik und Windkraftanlagensteuerung mit dem Betrieb größerer elektrischer Systeme.

Fortschritte in den Naturwissenschaften sind unerläßlich, um Innovationen voranzutreiben, Kosten zu senken und eine reibungslose Integration in das Stromnetz zu erreichen. Zusätzlich müssen auch Umweltfaktoren beim Ausbau der Windenergie berücksichtigt werden. Um erfolgreich zu sein, muß der Ausbau der Windenergienutzung verantwortungsbewußt erfolgen, um die Zerstörung der Landschaft so gering wie möglich halten. Investitionen in Wissenschaft und interdisziplinäre Forschung in diesen Bereichen werden mit Sicherheit helfen, akzeptablen Lösungen für alle Beteiligten zu finden.

Zu solchen Projekten gehören Untersuchungen, die die Auswirkungen des Windes auf wild lebende Tiere charakterisieren und verstehen. Auch wissenschaftliche Forschung, die Innovationen und die Entwicklung kostengünstiger Technologien ermöglicht, um die Auswirkungen von Wildtieren auf Windkraftanlagen an Land und vor der Küste wird derzeit intensiv betrieben.  Dazu muß verstanden werden, wie Windenergie so platziert werden kann, daß die lokalen Auswirkungen minimiert werden und gleichzeitig ein wirtschaftlicher Nutzen für die betroffenen Gemeinden entsteht.

Diese großen Herausforderungen der Windforschung bauen aufeinander auf. Die Charakterisierung der Betriebszone von Windenergieanlagen in der Atmosphäre wird für die Entwicklung der nächsten Generation noch größerer, kostengünstiger Windenergieanlagen von entscheidender Bedeutung sein. Das Verständnis sowohl der dynamischen Steuerung der Anlagen als auch der Vorhersage der Art des atmosphärischen Zuflusses ermöglichen eine bessere Steuerung.

Frontis Enegy unterstützt als innovatives Unternehmen den Übergang in eine CO2-neutrale Energieerzeugung.

(Foto: Fotolia)

Veröffentlicht am

Schnelles Aufladen von Lithiumakkus bei hoher Temperatur

Eine der größten Hürden bei der Elektrifizierung der Straßenverkehrs ist die lange Aufladezeit der Lithiumakkus in elektrischen Fahrzeugen. In einem aktuellen Forschungsbericht im Fachmagazin Joule wurde jetzt gezeigt, daß man die Ladezeit auf 10 Minuten verkürzen kann, während man den Akku erwärmt.

Ein Lithiumakku kann nach nur 10 Minuten Ladezeit eine 320 Kilometer lange Fahrt mit Strom versorgen − vorausgesetzt, ihre Temperatur wird beim Aufladen auf mehr als 60 °C erhöht.

Lithiumbatterien, bei denen Lithiumionen zur Stromerzeugung verwendet werden, werden bei Raumtemperatur langsam aufgeladen. Das Aufladen dauertof mehr als drei Stunden, im Gegensatz zu drei Minuten beim Volltanken.

Eine kritische Barriere für die Schnellaufladung ist die Lithiumbeschichtung, die normalerweise bei hohen Laderaten auftritt und die Lebensdauer und Sicherheit der Batterien drastisch beeinträchtigt. Die Forscher der Pennsylvania State University in University Park stellen wir eine asymmetrische Temperaturmodulationsmethode vor, die einen Lithiumakku bei einer erhöhten Temperatur von 60 °C auflädt.

Durch das Hochgeschwindigkeitsladen wird Lithium normalerweise dazu angeregt, eine der Elektroden der Batterie zu beschichten (Lithiumplattierung). Dadurch wird der Energiefluß blockiert und der Akku wird schließlich unbrauchbar. Um eine Ablagerung von Lithium auf der Anodenzu vermeiden, haben die Forscher die Expositionszeit bei 60 °C auf nur ~10 Minuten pro Zyklus begrenzt.

Dabei griffen die Forscher auf industriell verfügbare Materialien zurück und minimierten den Kapazitätsverlust bei 500 Zyklen auf 20%. Eine bei Raumtemperatur geladene Batterie konnte nur 60 Zyklen lang schnell geladen werden, bevor ihre Elektrode plattiert wurde.

Die asymmetrische Temperatur zwischen Laden und Entladen eröffnet einen neuen Weg, um den Ionentransport während des Ladens zu verbessern und gleichzeitig eine lange Lebensdauer zu erreichen.

Über viele Jahrzehnte wurde allgemein angenommen, daß Lithumakkus wegen des beschleunigten Materialabbau nicht bei hohen Temperaturen betrieben werden sollten. Im Gegensatz zu dieser herkömmlichen Weisheit stellten die Forscher nun ein Schnelladeverfahren vor, das eine Zelle bei 60 °C lädt und die Zelle bei einer kühlen Temperatur entlädt. Zudem wird durch Laden bei 60 °C  der Batteriekühlungsbedarf um mehr als das 12-fache verringert.

Bei Batterieanwendungen hängen die Entladungsprofile vom Endverbraucher ab, während das Ladeprotokoll vom Hersteller festgelegt wird und daher speziell ausgelegt und gesteuert werden kann. Das hier vorgestellte Schnelladeverfahren eröffnet einen neuen Weg für den Entwurf elektrochemischer Energiesysteme, die gleichzeitig eine hohe Leistung und eine lange Lebensdauer erzielen können.

Bei Frontis Energy denken wir ebenfalls, daß es sich bei dem neuen einfachen Ladeverfahren um eine vielversprechende Methode handelt. Wir sind gespannt auf die Markteinführung dieser neuen Schnellademethode.

(Foto: iStock)

Veröffentlicht am

Bioelektrischer Alkohol als Flüssigkraftstoff mit Hilfe von Hefen

Hefen wie Saccharomyces cerevisiae werden, wie der Name erraten läßt, zur Herstellung von Bier und anderen alkoholischen Getränken im großen Maßstab eingesetzt. Ihre hohe Salz- und Ethanoltoleranz macht sie dabei aber nicht nur für die Herstellung von Getränken nützlich, sondern auch für hohe Alkoholkonzentrationen bei der Produktion von Kraftstoffen. Wie wir schon berichteten, sind dabei neben dem bekannten Ethanol besonders auch die langkettigen Fuselalkohole interessant. Schon heute wird Bioethanol mit Benzin gemischt und verbessert somit die CO2-Bilanz von Verbrennungsmotoren. Dieser flüssiger Biokraftstoff wird entweder aus Stärke oder Lignocellulose hergestellt. Die lokale Produktion und Verwendung von Bioethanol unterstützt lokale Volkswirtschaften, verringert den CO2-Ausstoß und fördert die Selbstversorgung. Letzteres ist besonders wichtig für ressourcenarme Binnenländer von Bedeutung.

Um Ethanol und andere Alkohole effizient aus Lignocellulose-Hydrolysaten herzustellen, müssen Hefen sowohl Glucose als auch Pentosen wie Xylose und Arabinose verwenden. Dies liegt daran, daß Biomasse sowohl reich an Lignocellulose und damit auch Glucose und Xylose ist. Dies ist allerdings auch der Hauptnachteil der Verwendung von Saccharomyces cerevisiae, da sie Xylose nicht fermentieren kann. Dementsprechend ist die Identifizierung von Hefestämmen, die sowohl Glucose als auch Xylose fermentieren können, von großer Bedeutung. Hocheffiziente Hefestämme können, z.B. in Co-Kulturen mit anderen Hefen, die zur Lignocellulosefermentation fähig sind, für die Ethanolherstellung verwendet werden. Eine solche Hefe ist z.B. Wickerhamomyces anomalous.

Um die Ethanolproduktion weiter zu verbessern, kann bioelektrische Fermentationstechnologie eingesetzt werden, die die traditionelle Fermentation unterstützt. Der mikrobielle Metabolismus kann so elektrochemisch gesteuert werden. Die Vorteile sind vielfältig. Die Fermentation wird durch das Anlegen eines elektrochemischen Potentials selektiv, wodurch sich die Effizienz der  von Zuckerverwertung erhöht. Zudem wird so der Einsatz von Additiven zur Kontrolle das Redoxgleichgewichts sowie des pH-Wertes minimiert. Auch das Zellwachstum kann dadurch verbessert werden.

Solche bioelektrischen Zellen sind galvanische Zellen. Die in der bioelektrischen Zelle verwendeten Elektroden können als Elektronenakzeptoren oder -quelle wirken. Solche elektrochemischen Veränderungen wirken sich nicht nur auf den Stoffwechsel und die Zellregulation aus, sondern auch auf die Wechselwirkungen zwischen den eingesetzten Hefen aus. Jetzt hat eine Forschergruppe aus Nepal (einem ressourcenarmen Binnenland) neue Hefestämme von Saccharomyces cerevisiae und Wickerhamomyces anomalous in einem bioelektrischen Fermenter verwendet, um die Ethanolproduktion aus Biomasse zu verbessern. Die Ergebnisse haben die Wissenschaftler im Fachmagazin Frontiers in Energy Research publiziert.

Für die Studie wurden Saccharomyces cerevisiae und Wickerhamomyces anomalus ausgewählt, da beide gute Ethanolproduzenten sind und von letzterer gezeigt wurde, daß sie Xylose in Ethanol umwandeln können. Nachdem die Forscher eine Spannung an das System angelegt hatten, verdoppelte sich die Ethanolproduktion durch die verwendeten Hefen. Beide Hefen bildeten einen Biofilm auf den Elektroden, was das System ideal für den Einsatz als Durchflußsystem macht, da die Mikroorganismen nicht ausgewaschen werden.

Saccharomyces cerevisiae, lichtmikroskopische Aufnahme, 600-fache Vergrößerung (Foto: Amanda Luraschi)

Die Forscher spekulierten, daß die erhöhte Ethanolproduktion durch die stärker angetrieben Umwandlung von Pyruvat zu Ethanol zu Stande kam − dem zentralen Stoffwechselmechanismus der Hefe. Dies führten die Forscher auf einen Beschleunigung der Redoxreaktionen an der Anode und Kathode zurück. Die zugeführte externe Spannung polarisierte die im Cytosol vorhandenen Ionen und erleichtert so den Elektronentransfer von der Kathode. Dies und die beschleunigte Glucoseoxidation führten wahrscheinlich zu einer erhöhten Ethanolproduktion.

Normalerweise wird Pyruvat in Gärhefen zu Ethanol umgewandelt. Eine externe Spannungseingabe kann die Kinetik des Glukosestoffwechsels in Saccharomyces cerevisiae sowohl unter aeroben als auch unter anaeroben Bedingungen zu steuern. Dabei spielen intrazelluläre wie das Transplasmamembran-Elektronentransfersystem eine wichtige Rolle für den Elektronentransport durch die Zellmembran. Das Elektronentransfersystem besteht aus Cytochromen und verschiedenen Redoxenzymen, die der Membran an bestimmten Stellen Redoxaktivität verleiht.

Die Autoren haben zudem festgestellt, daß eine erhöhte Salzkonzentration die Leitfähigkeit und damit die Ethanolproduktion fördert. Die erhöhte Ethanolproduktion aus lignocellulosehaltiger Biomasse könnte auch auf das Vorhandensein verschiedener Naturstoffe zurückzuführen sein, die das Wachstum von Hefestämmen fördern könnten. Wenn die Celluloseacetatmembran durch eine Nafion™-Membran ersetzt wurde, erhöhte dies die Ethanolproduktion ebenfalls. Das könnte auf einen verbesserten Transport von Xylose durch die Nafion™-Membran sowie auf die Abnahme des Innenwiderstands zurückzuführen sein. Eine weitere Steigerung der Ethanolproduktion wurde beobachtet, wenn der bioelektrische Reaktor mit feinen Platinpartikeln betrieben wurde, die auf die Platinanode aufgetragen waren, und Neutralrot auf der Graphitkathode abgeschieden wurde.

Hefekulturen von links nach rechts: Saccharomyces cerevisiae, Candida utilis, Aureobasidium pullulans, Trichosporum cutaneum, Saccharomycopsis capsularis, Saccharomycopsis lipolytica, Hanseniaspora guilliermondii, Hansenula capsulata, Saccharomyces carlsbergensis, Saccharomyces rouxii, Rhodotorula rubra, Phaffia rhodozyba, Cryptococcus laurentii, Metschnikowia pulcherrima, Rhodotorula pallida

Bei Frontis Energy denken wir, daß die vorliegende Studie vielversprechend ist. Für die Zukunft sollten aber langkettige Fuselalkohole in Betracht gezogen werden, da diese weniger flüchtig und besser mit derzeitigen Verbrennungsmotoren verträglich sind. Diese können zudem leicht in die entsprechenden langkettigen Kohlenwasserstoffe umgewandelt werden.

Veröffentlicht am

Richtlinien für einen globalen CO2-Haushalt

Zahlreiche Untersuchungen haben während des letzten Jahrzehnts gezeigt, daß die globale Erwärmung in etwa proportional zur CO2-Konzentration in unserer Atmosphäre ist. Auf diese Weise läßt sich unser verbleibende Kohlenstoffhaushalt abschätzen. Das ist die Gesamtmenge des vom Menschen produzierten Kohlendioxids, die noch in die Atmosphäre abgegeben werden kann, bevor ein festgelegter globaler Temperaturgrenzwert erreicht wird. Auf diesen Grenzwert haben sich die Nationen der Welt im Pariser Abkommen 2015 geeinigt. Er soll 1,5°C nicht überschreiten, und in jedem Fall weit unter 2,0°C liegen. Es wurden jedoch zahlreiche Schätzungen für das verbleibende CO2 gemacht, was sich negativ auf die politische Entscheidungsfindung auswirkt. Jetzt hat eine internationale Forschergruppe von ausgewiesenen Klimaexperten eine Richtlinie für die Errechnung des globalen CO2-Haushalts im renomierten Fachmagazin Nature veröffentlicht. Die Forscher schlagen vor, daß die Anwendung dieser Richtlinie dazu beitragen soll, die teils gravierenden Unterschiede bei der Abschätzung des CO2-Haushalts auszugleichen, und die Unsicherheiten in Forschung und Politik zu verringern.

Seit dem fünften Bericht des Zwischenstaatlichen Gremiums für Klimawandel (IPCC) hat das Konzept eines CO2-Haushalts als Instrument zur Ausrichtung der Klimapolitik an Bedeutung gewonnen. In einer Reihe von Studien aus den letzten zehn Jahren wurde geklärt, warum der Anstieg der globalen Durchschnittstemperatur in etwa proportional zur Gesamtmenge der CO2-Emissionen ist, die seit der industriellen Revolution durch menschliche Aktivitäten verursacht wurden. Dabei zitiert die Forschergruppe zahlreiche veröffentlichte Belege. Diese Literatur hat es Wissenschaftlern ermöglicht, den linearen Zusammenhang zwischen Erwärmung und CO2-Emissionen als transiente Klimareaktion auf kumulierte CO2-Emissionen (TCRE) zu definieren. Die Brillianz dieses Konzepts wird deutlich, die man erkennt, daß die Reaktion des komplexen Systems Erde auf unsere CO2-Emissionen durch eine ungefähr lineare Beziehung dargestellt werden kann. In jüngster Zeit wurden jedoch zusätzliche Prozesse, die die zukünftige Erwärmung beeinflussen, in Modelle einbezogen. Dabei handelt es sich z.B. um das Auftauen des arktischen Permafrosts. Diese zusätzlichen Prozesse erhöhen die Unsicherheit. Zudem wird die globale Erwärmung nicht nur durch CO2-Emissionen verursacht. Andere Treibhausgase, wie z.B. Methan, fluorierte Gase oder Lachgas, sowie Aerosole und deren Vorstufen beeinflussen die globalen Temperaturen. Dies verkompliziert die Beziehung zwischen zukünftigem CO2 weiter.

Bei der durch CO2 verursachten Klimaerwärmung trägt jede Tonne zur Erwärmung bei, egal ob diese Tonne CO2 heute, morgen oder in der Verganganheit ausgestoßen wurde. Dies bedeutet, daß die globalen CO2-Emissionen auf das Null gesenkt werden müssen, um dann dort zu bleiben. Das heißt auch, daß unsere Emissionen umso schneller sinken müssen, je mehr wir in den kommenden Jahren emittieren. Auf Nullemission würde sich die Erwärmung zwar stabilisieren, aber nicht verschwinden oder oder sich gar umgekehren. Eine Überziehung des CO2-Haushalts müßte also später wieder durch ein Entfernen des CO2s ausgeglichen werden.  So kann z.B. die Entfernung mit Hilfe von filtern geschehen, wie wir bereits berichteten. Schlußendlich wird dies wohl der einzig verbleibende Weg sein, denn die Durchdringung unserer Energiewirtschaft mit CO2-neutralen Quellen hat sich bei 5% stabilisiert. Die Aufstellung eines Kohlenstoffhaushalts macht die Dringlichkeit deutlich. Leider sind die Angaben über die uns verbleibende Menge CO2 weit gestreut. In ihrer Richtlinie zitieren die Forscher zahlreiche Studien zur Erhaltung des 1,5°C-Ziels, die von 0 Tonnen CO2 bis zu 1.000 Gigatonnen reichen. Für das 2,0°C-Ziel reicht die Spannweite von ca. 700 Gigatonnen bis hin zu fast 2.000 Gigatonnen verbleibende CO2-Emissionen. Das Ziel der Forscher ist es, diese Unsicherheit einzuschränken, in dem sie eine klare Richtlinie vorschlagen. Das zentrale Element dieser Richtlinie ist die Gleichung zur Berechnung des verbleibenden CO2-Haushaltsrahmens:

Blim = (TlimThistTnonCO2TZEC) / TCRE − EEsfb

Dieser Rahmen sind die verbleibenden CO2-Emissionen (Blim) für die spezifische Temperaturgrenze (Tlim) als Funktion von fünf Termen, die Aspekte des geophysikalischen und gekoppelten Mensch-Umwelt-Systems darstellen: die bisherige vom Menschen verursachte Erwärmung (Thist), der Nicht-CO2-Beitrag zum zukünftigen Temperaturanstieg (TnonCO2), die Nullemissionsfestlegung (TZEC), die TCRE und eine Anpassung für Quellen aus eventuellen Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb).

Term

Bedeutung

Art

Derzeitiges Verständnis

Erwärmungsgrenze Tlim Wahl der Temperaturmetriken, mit denen die globale Erwärmung, die Wahl des vorindustriellen
Bezugszeitraums und die Übereinstimmung mit den globalen Klimazielen ausgedrückt werden
Wählbar Mittel bis hoch
Vergangene menschenverursachte Erwärmung Thist Unvollständige Erfassung in Beobachtungsdatensätzen und Methoden zur Abschätzung der vom Menschen verursachten Komponente; Siehe auch Tlim Unsicherheit Mittel bis hoch
Nicht-CO2 Erwärmung TnonCO2 Die Höhe der verschiedenen Nicht-CO2-Emissionen, die mit den weltweiten Netto-Null-CO2-Emissionen übereinstimmen, hängt von den politischen Entscheidungen, aber auch vom unsicheren Erfolg ihrer Umsetzung ab Wählbare Unsicherheit Mittel
Nicht-CO2 Erwärmung TnonCO2 Klimareaktion auf Nicht-CO2-Verusacher, insbesondere in Bezug auf die Aerosolrückgewinnung und  Temperaturreduzierung aufgrund geringerer Methanemissionen Unsicherheit Niedrig bis mittel
Nullemissionsverpflichtung TZEC Vorzeichen und Ausmaß der Nullemissionsverpflichtung in dekadischen Zeitskalen für aktuelle und nahezu Null jährliche CO2-Emissionen Unsicherheit Niedrig
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Verteilung der TCRE-Unsicherheit, Linearität der TCRE zur Erhöhung und Stabilisierung der kumulativen CO2-Emissionen und Auswirkung von Temperaturmetriken auf die TCRE-Schätzung Unsicherheit Niedrig bis mittel
Transiente Klimareaktion auf
kumulierte CO2-Emissionen
TCRE Über die Spitzenerwärmung hinausgehende Unsicherheit der Linearität, Wert und Verteilung der TCRE zur  Verringerung der kumulierten CO2-Emissionen Unsicherheit Niedrig
Rükkopplungen mit nicht erfaßten
geologischen Systemen
EEsfb Dauer und Ausmaß des Auftauens von Permafrost und der Methanfreisetzung aus Feuchtgebieten und deren Darstellung in Geomodellen sowie andere mögliche Arten von Rückkopplungen Unsicherheit Sehr niedrig

In dem CO2-Haushalt ist wohl die Rückkopplungen mit nicht erfaßten geologischen Systemen (EEsfb) die größte Unsicherheit. Diese Rückkopplungsprozesse sind typischerweise mit dem Auftauen von Permafrost und der damit verbundenen langfristigen Freisetzung von CO2 und CH4 verbunden. Es wurden jedoch auch andere Rückkopplungsquellen für das Geosystem identifiziert, wie z.B. die Änderungen der CO2-Aufnahme in der Vegetation und die damit verbundene Stickstoffverfügbarkeit. Weitere Rückkopplungsprozesse involvieren die Änderungen der Oberflächenalbedo, der Wolkendecke oder von Brandbedingungen.

Es bleibt es eine Herausforderung, die Unsicherheiten im Zusammenhang mit den Schätzungen des CO2-Haushalt angemessen zu charakterisieren. In einigen Fällen ist die Ursache der Unsicherheiten ungenaue Kenntnis der zugrunde liegenden Prozesse oder mangelnde Genauigkeit der Messungen. In anderen Fällen werden Begriffe nicht einheitlich verwendet. Für eine bessere Vergleichbarkeit und Flexibilität schlagen die Forscher vor, die globalen Werte der Oberflächenlufttemperatur routinemäßig zu messen. Diese Methode liefert unveränderliche Zahlen für Modelle, Modellabläufe über gewählte Zeiträume hinweg. Detailliertere Vergleiche zwischen veröffentlichten Schätzungen den CO2-Haushalt sind derzeit schwierig, da oft die Originaldaten aus den ursprünglichen Studien fehlen. Die Forscher schlagen daher vor, diese zukünftig zusammen mit den Publikationen bereitzustellen.

Die Zerlegung des CO2-Haushalts in seine Einzelfaktoren ermöglicht es, eine Reihe vielversprechender Wege für die zukünftige Forschung zu identifizieren. Ein Forschungsbereich, der dieses Feld voranbringen könnte, ist die nähere Betrachtung der TCRE. Zukünftige Forschungen werden voraussichtlich die Bandbreite der TCRE-Schätzungen einschränken, was die Unsicherheit verringern wird. Ein weiteres vielversprechendes Forschungsgebiet ist die Untersuchung der Wechselbeziehung zwischen Einzelfaktoren und ihren verbunden Unsicherheiten, beispielsweise zwischen Unsicherheiten in Thist und TnonCO2. Dies könnte durch die Entwicklung von Methoden erreicht werden, die eine zuverlässige Abschätzung der vom Menschen verursachten Erwärmung in jüngerer Zeit ermöglichen. Klar ist auch, daß weniger komplexe Klimamodelle nützlich sind, um die Unsicherheiten weiter zu reduzieren. Gegenwärtig weist jeder Faktor des vorgestellten Rahmens seine eigenen Unsicherheiten auf, und es fehlt eine Methode, um diese Unsicherheiten formal zu kombinieren.

Auch bei Frontis Energy denken wir, daß Fortschritte in diesen Bereiche unser Verständnis bei der Schätzungen des CO2-Haushalts verbessern würde. Ein systematisches Verständnis des CO2-Haushalts und ist für eine wirksame Zielsetzung und die Kommunikation der Herausforderungen beim Klimaschutze von entscheidender Bedeutung.

Veröffentlicht am

Billiger Biokraftstoff mit hoher Oktanzahl entwickelt

Forscher des National Renewable Energy Laboratory (NREL) haben eine billige Methode zur Herstellung von Benzin mit hoher Oktanzahl aus Methanol entwickelt und diese im Fachblatt Nature Catalysis veröffentlicht. Methanol kann über verschiedene Wege aus CO2 gewonnen werden, wie wir bereits im letzten Jahr berichteten. Biomasse, wie z.B. Holz, ist dabei eine mögliche Methode.

Die Herstellung von Biokraftstoffen aus Holz ist allerdings zu teuer, um mit fossilen Brennstoffen zu konkurrieren. Um eine Lösung für dieses Problem zu finden, kombinierten die NREL-Forscher ihre Grundlagenforschung mit einer wirtschaftlichen Analyse. Dabei zielten die Forscher zunächst auf den teuersten Teil des Prozesses. Danach fanden die Forscher Methoden, um diese Kosten mit Methanol als Zwischenprodukt zu senken.

Bisher lagen die Kosten für die Umwandlung von Methanol in Benzin oder Diesel bei ungef 0.24 € pro Liter. Die Forscher haben nun einen Preis von ca. 0.16 € pro Liter erreicht.

Bei der katalytischen Umwandlung von Methanol in Benzin handelt es sich um ein wichtiges Forschungsgebiet im Bereich der CO2-Rückgewinnung. Die traditionelle Methode beruht auf mehrstufigen Prozessen und hohen Temperaturen. Sie ist teuer, produziert minderwertigen Kraftstoff in geringen Mengen. Damit ist sie im Vergleich zu Kraftstoffen auf Erdölbasis nicht konkurrenzfähig.

Das entwickelte Verfahren stieß zunächst auf das Problem eines Wasserstoffmangels. Wasserstoff ist das energetische Schlüsselelement in Kohlenwasserstoffen. Die Forscher stellten die Hypothese auf, daß die Verwendung des Übergangsmetalls Kupfer dieses Problem lösen würde, was es auch tat. Die Forscher schätzen, daß der mit Kupfer infundierte Katalysator zu 38% mehr Ausbeute weniger Kosten führte.

Durch Erleichterung der Wiedereingliederung von C4-Nebenprodukten während der Homologation von Dimethylether ermöglichte der Kupfer-Zeolith-Katalysator die 38%ige Steigerung der Ausbeute des Produkts und eine 35%ige Reduzierung der Umwandlungskosten im Vergleich zu herkömmlichen Zeolith-Katalysatoren. Alternativ dazu wurden C4-Nebenprodukte an ein synthetisches Kerosin weitergeleitet, das fünf Spezifikationen für einen typischen Düsentreibstoff erfüllte. Die Treibstoffsynthesekosten nahmen dabei im Vergleich geringfügig zu. Selbst wenn die Kosteneinsparungen minimal wären, hätte das resultierende Produkt einen höheren Wert.

Abgesehen von den Kosten bietet der neue Prozess den Anwendern weitere Wettbewerbsvorteile. Zum Beispiel können Unternehmen mit Ethanolherstellern um Gutschriften für erneuerbare Brennstoffe konkurrieren (wenn der verwendete Kohlenstoff aus Biogas oder Hausabfällen stammt). Der Prozess ist auch mit vorhandenen Methanolanlagen kompatibel, die Erdgas oder festen Abfall zur Erzeugung von Synthesegas verwenden.

Veröffentlicht am

Halbleiternanoröhrchen mit photovoltaischem Effekt

Kostengünstigen und effiziente Methoden zur Umwandlung von Sonnenlicht in Elektrizität stehen im Fokus der Erforschung umweltfreundlicher Methoden zur Energiegewinnung. Solarzellen, die zu diesem Zweck entwickelt wurden bestehen zurzeit aus Halbleitern wie Silizium. Elektrische Energie wird am Übergang zwischen zwei verschiededen Halbleitern erzeugt. Der Wirkungsgrad dieser Solarzellen hat jedoch seine theoretische Grenze fast erreicht. Neue Methoden zur Umwandlung von Sonnenlicht in Elektrizität müssen daher gefunden werden, um eine größere Durchdringung unserer Energienetze mit erneuerbaren Energiequellen zu ermöglichen. Ein internationales Forscherkonsortium aus Deutschland, Japan und Israel hat jetzt einen wichtigen Fortschritt in dieser Richtung erzielt. Zhang und Kollegen veröffentlichten ihre Ergebnisse kürzlich im angesehen Fachblatt Nature. Sie demonstrieren eine übergangsfreie Solarzelle, die durch Auftragen einer atomeren Halbleiterschicht in eine Nanoröhre hergestellt werden kann.

In einer herkömmlichen Solarzelle werden zwei Bereichen eines Halbleiters in einem als Dotierung bekannten Prozess unterschiedliche chemische Elemente hinzugefügt. Der elektrische Transport erfolgt durch die negativ geladene Elektronen einer Region und durch die positiv geladene Elektronenlöcher (Defektelektronen). An der Verbindungsstelle zwischen diesen beiden Bereichen wird ein elektrisches Feld erzeugt. Wenn an diesem Übergang Sonnenlicht absorbiert wird, entstehen Elektron-Defektelektronen-Paare. Die Elektronen und Defektelektronen werden dann durch das entstandene elektrische Feld getrennt, wodurch ein elektrischer Strom entsteht. Diese Umwandlung von Sonnenenergie in Strom wird als photovoltaischer Effekt bezeichnet. Dieser photovoltaische Effekt ist besonders wichtig für eine umweltfreundliche Energiegewinnung. Sein Wirkungsgrad hat wie eingangs gesagt fast die theoretische Grenze erreicht.

Physikalisch entsteht der photovoltaische Effekt in traditionellen pn-Übergängen, bei denen ein p-Typ-Material (mit einem Überschuss an Defektelektronen) an ein n-Typ-Material (mit einem Überschuss an Elektronen) angrenzt. In der lichtinduzierten Erzeugung von Elektronen-Defektelektronen-Paaren und deren anschließende Trennung wird Strom erzeugt. Weitere Fortschritte werden durch die Nutzung anderer photovoltaischer Effekte erwartet, die keinen Übergang erfordern und nur in Kristallen mit gebrochener Inversionssymmetrie auftretet. Die praktische Umsetzung dieser Effekte wird jedoch durch die geringe Effizienz der vorhandenen Materialien behindert. Halbleiter mit reduzierter Dimensionalität oder kleinerem Bandabstand haben sich als effizienter erwiesen. Übergangsmetall-Dichalkogenide (TMDs) sind z.B. zweidimensionale Halbleiter mit kleiner Bandlücke, bei denen verschiedene Effekte durch Aufbrechen der Inversionssymmetrie in ihren Volumenkristallen beobachtet wurden.

Die neu entwickelte photovolataische Methode basiert auf Wolframdisulfid, einem Mitglied der TMD-Familie. Kristalle dieses Materials sind schichtförmig aufgebaut und können ähnlich wie Graphit schichtweise abgezogen werden. Die resultierenden atomdicken Bleche können dann durch chemische Verfahren zu Röhrchen mit Durchmessern von etwa 100 Nanometern gewalzt werden. Die Autoren stellten photovoltaische Apparate aus drei Arten von Wolframdisulfid her: eine Monoschicht, eine Doppelschicht und eine Nanoröhre.

Eine systematische Reduzierung der Kristallsymmetrie wurde über die bloße gebrochene Inversionssymmetrie hinaus erreicht. Der Übergang von einer zweidimensionalen Monoschicht zu einer Nanoröhre mit polaren Eigenschaften wurde erheblich verbessert. Die so erzeugte Photostromdichte ist um Größenordnungen größer als die anderer vergleichbarer Materialien. Die Ergebnisse bestätigen nicht nur das Potenzial von TMD-basierten Nanomaterialien, sondern allgemein auch die Bedeutung der Reduzierung der Kristallsymmetrie für die Verbesserung des photovoltaischen Effekts.

Während die Nanoröhrenbauelemente einen großen photovoltaischen Effekt hatten, erzeugten die Einschicht- und Zweischicht-Bauelemente unter Beleuchtung nur einen vernachlässigbaren elektrischen Strom. Die Forscher führen die unterschiedlichen Leistungsmerkmale der Solarzellen auf ihre ausgeprägte Kristallsymmetrie zurück. So kann man spontan einen Strom in gleichmäßigen Halbleitern erzeugen, ohne daß ein Übergang erforderlich ist.

Der Effekt wurde erstmals 1956 in den Bell Laboren in New Jersey beobachtet, nur zwei Jahre nach der Erfindung moderner Siliziumsolarzellen. Der Effekt ist auf nicht zentrosymmetrische Materialien beschränkt, die durch mangelnde Symmetrie bei räumlicher Inversion (die Kombination aus einer 180°-Drehung und einer Reflexion) gekennzeichnet sind. Der Effekt hat zwei faszinierende Eigenschaften: Der durch Licht erzeugte Strom hängt von der Polarisation des einfallenden Lichts ab und die zugehörige Spannung ist größer als die Bandlücke des Materials. Das ist die Energie, die zur Anregung von leitenden freien Elektronen erforderlich ist. Der Effekt weist jedoch typischerweise eine geringe Umwandlungseffizienz auf und ist daher im Laufe der Jahre eher von akademischem als von praktischem Interesse geblieben.

Um eine hohe Effizienz zu erzielen, muß ein Material eine hohe Lichtabsorption und eine geringe innere Symmetrie aufweisen. Diese beiden Eigenschaften existieren jedoch in einem bestimmten Material normalerweise nicht gleichzeitig. Halbleiter, die das meiste einfallende Sonnenlicht absorbieren, weisen im Allgemeinen eine hohe Symmetrie auf. Das verringert oder verhindert gar den Effekt. Materialien mit geringer Symmetrie, wie Perowskitoxide, absorbieren aufgrund ihrer großen Bandlücke nur wenig Sonnenlicht. Um dieses Problem zu umgehen, wurden enorme Anstrengungen unternommen, um die Lichtabsorption in Materialien mit geringer Symmetrie zu verbessern, beispielsweise durch Verwendung der erwähnten Dotierung. Inzwischen wurde gezeigt, daß die Effekt in Halbleitern auftreten kann, indem mechanische Felder verwendet werden, um die Kristallsymmetrie des Materials anzupassen.

Die neu entdeckte Lösung ist ermutigend im Hinblick auf die Herstellung von Halbleiternanoröhrchen mit hoher Lichtabsorption. Im Falle von Wolframdisulfid ist die Kristallsymmetrie der Nanoröhrchen im Vergleich zur Mono- und Doppelschicht aufgrund der gekrümmten Wände des Röhrchens verringert. Die Kombination aus ausgezeichneter Lichtabsorption und geringer Kristallsymmetrie bedeutet, daß die Nanoröhrchen einen erheblichen photovoltaischen Effekt aufweisen. Die elektrische Stromdichte übertrifft die von Materialien, die von Natur aus eine geringe Symmetrie aufweisen. Dennoch ist die erzielte Umwandlungseffizienz immer noch viel geringer ist als die des Photovoltaik-Effekts in herkömmlichen Solarzellen auf Sperrschichtbasis.

Die Ergebnisse der Autoren belegen das große Potenzial von Nanoröhrchen bei der Gewinnung von Sonnenenergie und werfen verschiedene technologische Herausforderungen und wissenschaftliche Fragen auf. Aus Anwendersicht wäre es aufschlußreich, eine Solarzelle zu fertigen die aus eine hohen Zahl von Halbleiternanoröhrchen besteht, um zu überprüfen, ob sich der Ansatz skalieren lässt. Die Richtung des erzeugten Stroms würde weitgehend von der inneren Symmetrie des Materials bestimmt. Daher wäre eine gleichmäßige Symmetrie über das Nanoröhrchenanordnungen erforderlich, um einen gemeinsamen Strom zu erzeugen. Dabei könnten sich die in verschiedenen Nanoröhrchen gegenseitig ausgleichen, was zu einer Anullierung des erzeugten Stroms führen würde.

Bei Frontis Energy fragen wir uns, ob die beschrieben Methode mit dem klassichen photovoltaischen Effekt in derselben Solarzelle zusammenwirken könnte. Das würde eventuell den Gesamtwirkungsgrad steigern. Die beiden Effekte könnten die Sonnenenergie aufeinander folgend nutzen. Trotz der verbleibenden Herausforderungen bietet die vorgelgte Arbeit einen Möglichkeit zur Entwicklung hocheffizienter Solarzellen.

(Photo: Wikipedia)

Veröffentlicht am

Intelligente Batterien durch künstliches Lernen

Erneuerbare Energie, z.B. Wind- und Solarenergie stehen nur intermediär zur Verfügung. Um das Ungleichgewicht zwischen Angebot und Nachfrage auszugleichen, können unter anderem Batterien von Elektrofahrzeugen aufgeladen werden und so als Energiepuffer für das Stromnetz fungieren. Autos verbringen den größten Teil ihrer Zeit im Stand und könnten ihren Strom in das Stromnetz zurückspeisen. Dies ist zwar zur Zeit noch Zukunftsmusik aber Vermarktung von Elektro- und Hybridfahrzeugen verursacht in jedem Fall eine wachsende Nachfrage nach langlebigen Batterien, sowohl für das Fahren  als auch als Netzpufferung. Methoden zur Bewertung des Batteriezustands werden dadurch zunehmend an Bedeutung an Bedeutung gewinnen.

Die lange Testdauer des Akkzustands ist ein Problem, das die rasche Entwicklung neuer Akkus behindert. Bessere Methoden zur Vorhersage der Akkulebensdauer werden daher dringend benötigt, sind jedoch äußerst schwierig zu entwickeln. Jetzt berichten Severson und ihre Kollegen im Fachjournal Nature Energy, daß künstliches Lernen bei der Erstellung von Computermodellen zur Vorhersage der Akkulebensdauer helfen kann. Dabei werden Daten aus Lade- und Entladezyklen frühen Stadien verwendet.

Normalerweise beschreibt eine Gütezahl den Gesundheitszustand eines Akkus. Diese Gütezahl quantifiziert die Fähigkeit des Akkus, Energie im Verhältnis zu seinem ursprünglichen Zustand zu speichern. Der Gesundheitszustand ist 100%, wenn der Akku neu ist und nimmt mit der Zeit ab. Das aehnelt dem Ladezustand eines Akkus. Das Abschätzen des Ladezustands einer Batterie ist wiederum wichtig, um eine sichere und korrekte Verwendung zu gewährleisten. In der Industrie oder unter Wissenschaftlern besteht jedoch kein Konsens darüber, was genau Gesundheitszustand ist oder wie es bestimmt werden sollte.

Der Gesundheitszustand eines Akkus spiegelt zwei Alterserscheinungen wider: fortschreitender Kapazitätsabfall sowie fortschreitende Impedanzerhöhung (ein anderes Maß für den elektrischen Widerstand). Schätzungen des Ladezustands eines Akkus müssen daher sowohl den Kapazitätsabfall als auch den Impedanzanstieg berücksichtigen.

Lithiumionenbatterien sind jedoch komplexe Systeme in denen sowohl Kapazitätsschwund als auch Impedanzanstieg durch mehrere wechselwirkende Prozesse hervorgerufen werden. Die meisten dieser Prozesse können nicht unabhängig voneinander untersucht werden, da sie oft parallel stattfinden. Der Gesundheitszustand kann daher nicht aus einer einzigen direkten Messung bestimmt werden. Herkömmliche Methoden zur Abschätzung des Gesundheitszustands umfassen die Untersuchung der Wechselwirkungen zwischen den Elektroden einer Batterie. Da solche Methoden oft in das System „Batterie“ direkt eingreifen, machen sie den Akku unbrauchbar, was wohl selten gewünscht ist.

Der Gesundheitszustand kann aber auch auf weniger invasive Weise mithilfe adaptive Modelle und experimentelle Techniken bestimmt. Adaptive Modelle lernen aus aufgezeichneten Akkuleistungsdaten und passen sich dabei selbst an. Sie sind nützlich, wenn keine systemspezifischen Informationen zum Akku verfügbar sind. Solche Modell eignen sich zur Diagnose der Alterungsprozessen. Das Hauptproblem besteht jedoch darin, daß sie mit experimentellen Daten trainiert werden müssen, bevor sie zur Bestimmung der aktuellen Kapazität einer Batterie verwendet werden können.

Experimentelle Techniken werden verwendet, um bestimmte physikalische Prozesse und Ausfallmechanismen zu bewerten. Dadurch kann die Geschwindigkeit des zukünftigen Kapazitätsverlusts abgeschätzt werden. Diese Methoden können jedoch keine zeitweilig auftretenden Fehler erkennen. Alternative Techniken nutzen die Geschwindigkeit der Spannungs-  oder Kapazitätsänderung (anstelle von Rohspannungs- und Stromdaten). Um die Entwicklung der Akkutechnologie zu beschleunigen, müssen noch weitere Methoden gefunden werden, mit denen die Lebensdauer der Batterien genau vorhergesagt werden kann.

Severson und ihre Kollegen haben einen umfassenden Datensatz erstellt, der die Leistung von 124 handelsüblichen Lithiumionenbatterien während ihrer Lade- und Entladezyklen umfaßt. Die Autoren verwendeten eine Vielzahl von Schnelladebedingungen mit identische Entladungen, um die Lebensdauer der Batterien zu ändern. In den Daten wurde eine breite Palette von 150 bis 2.300 Zyklen erfaßt.

Anschließend analysierten die Forscher die Daten mithilfe von künstliches Lernalgorithmen und erstellten dabei Modelle, mit denen sich die Lebensdauer der Akkus zuverlässig vorhersagen lässt. Bereits nach den ersten 100 Zyklen jedes experimentell charakterisierten Akkus zeigten diese deutliche Anzeichen eines Kapazitätsschwunds. Das beste Modell konnte die Lebensdauer von etwa 91% der in der Studie untersuchten vorhersagen. Mithilfe der ersten fünf Zyklen konnten Akkus in Kategorien mit kurzer (<550 Zyklen) oder langer Lebensdauer eingeordnet werden.

Die Arbeit der Forscher zeigt, daß datengetriebene Modellierung durch künstliches Lernen ein zur Vorhersage des Gesundheitszustands von Lithiumionenbatterien ist. Die Modelle können Alterungsprozesse identifizierten, die sich in frühen Zyklen nicht in Kapazitätsdaten manifestieren. Dementsprechend ergänzt der neue Ansatz die bisheringen Vorhersagemodelle. Bei Frontis Energy sehen wir aber auch die Möglichkeit, gezielt generierte Daten mit Modellen zu kombinieren, die das Verhalten anderer komplexer dynamischer Systeme vorherzusagen.

(Foto: Wikipedia)

 

Veröffentlicht am

Schneller photoelektrischer Wasserstoff

Das Erreichen hoher Stromdichten bei gleichzeitig hoher Energieeffizienz ist eine der größten Herausforderungen bei der Verbesserung photoelektrochemischer Geräte. Höhere Stromdichten beschleunigen die Erzeugung von Wasserstoff und anderer elektrochemischer Brennstoffe.

Jetzt wurde ein kompaktes solarbetriebenes Gerät zur Wasserstofferzeugung entwickelt, das den Brennstoff in Rekordgeschwindigkeit erzeugt. Die Autoren um Saurabh Tembhurne beschreiben ein Konzept im Fachblatt Nature Energy, das es ermöglicht, konzentrierte Sonneneinstrahlung (bis zu 474 kW/m²) durch thermische Integration, Stofftransportoptimierung und bessere Elektronik zwischen Photoabsorber und Elektrokatalysator zu verwenden.

Die Forschungsgruppe der Eidgenössischen Technischen Hochschule in Lausanne (EPFL) errechnete die Zunahme der maximalen Wirkungsgrade, die theoretisch möglich sind. Danach überprüften sie die errechneten Werte experimentell unter Verwendung eines Photoabsorbers und eines Elektrokatalysators auf Iridium-Rutheniumoxid-Platin-Basis. Der Elektrokatalysator erreichte eine Stromdichte von mehr als 0,88 A/cm², wobei der erechneten Wirkungsgrad für die Umwandlung von Sonnenenenergie in Wasserstof mehr als 15% betrug. Das System war unter verschiedenen Bedingungen für mehr als zwei Stunden stabil. Als nächtes wollen die Forscher ihr System skalieren.

Der produzierte Wasserstoff kann in Brennstoffzellen zur Stromerzeugung verwendet werden weshalb sich das entwickelte System zur Energierspeicherung eignet. Die mit Wasserstoff betriebene Stromerzeugung gibt nur reines Wasser ab, die saubere und schnelle Erzeugung von Wasserstoff ist jedoch eine Herausforderung. Bei der photoelektrischen Methode werden Materialien verwendet, die denen von Solarmodulen ähneln. Die Elektrolyte basierten in dem neuen System auf Wasser, wobei auch Ammoniak denkbar wäre. Sonnenlicht, das auf diese Materialien fällt, löst eine Reaktion aus, bei der Wasser in Sauerstoff und Wasserstoff gespalten wird. Bisher konnten alle photoelektrischen Methoden jedoch nicht im industriellen Maßstab eingesetzt werden.

2 H2O → 2 H2 + O2; ∆G°’ = +237 kJ/mol (H2)

Das neu entwickelte System nahm mehr als das 400-fachen der Sonnenenergie auf, die normalerweise auf eine bestimmte Erdoberfläche fällt. Dazu benutzten die Forscher Hochleistungslampen, um die notwendige „Sonnenenergie“ bereitzustellen. Bestehende Solaranlagen konzentrieren die Sonnenenergie mithilfe von Spiegeln oder Linsen in ähnlichem Maße. Die Abwärme wird verwendet, um die Reaktionsgeschwindigkeit zu erhöhen.

Das Team sagt voraus, daß das Testgerät mit einer Grundfläche von etwa 5 cm in sechs Sonnenstunden schätzungsweise 47 Liter Wasserstoffgas produzieren kann. Dies ist die höchste Rate pro Flächeneinheit für solche solarbetriebenen elektrochemischen Systeme. Bei Frontis Energy hoffen wir, dieses System schon bald testen und anbieten zu können.

(Foto: Wikipedia)