Mittwoch, Dezember 11, 2024
StartAktuellesTägliche Meldungen

Tägliche Meldungen

Meldungen 2012Meldungen 2013Meldungen 2014Meldungen 2015
Meldungen 2016Meldungen 2017Meldungen 2018Meldungen 2019
Meldungen 2020Meldungen 2021Meldungen 2022Meldungen 2023

Dezember 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


November 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Oktober 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


September 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


August 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Juli 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Juni 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Mai 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


April 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


März 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt
Gesundheit
Gesellschaft

Februar 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Januar 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Regenerative Kraftstoffe: Baukasten für die Verkehrswende

Vor etwa zehn Jahren wurde an der Hochschule Coburg der Diesel-Kraftstoff R33 entwickelt – der Name steht für einen Anteil von 33 Prozent erneuerbarer Komponenten. Dieses Potenzial wurde nun mit dem Diesel R51 auf mehr als 50 Prozent erweitert.

Regenerative Kraftstoffe ergänzen den Ausbau der Elektromobilität und können dazu beitragen, beim Verkehr schnell unabhängiger von fossilen Rohstoffen zu werden. Für Fahrzeuge, die derzeit bereits auf den Straßen unterwegs sind, wollte ein Forschungsprojekt die Serienverträglichkeit bei der Nutzung neuer Kraftstoffe sicherstellen: Die Hochschule Coburg hat gemeinsam mit der Volkswagen AG und der AGQM Biodiesel e.V. den Schritt vom Diesel R33 zum B10 und Diesel R51 untersucht.

Mehr als die Hälfte sind erneuerbare Komponenten
Diesel R33 ist ein Mischkraftstoff, der vor über zehn Jahren an der Hochschule Coburg konzipiert wurde und mit Volumenanteilen von 7 Prozent Biodiesel und 26 Prozent hydriertem Pflanzenöl (HVO) einen regenerativen Anteil von 33 Volumenprozent abbilden kann. Die Unterschiede in der Dichte- und Viskosität von HVO und Biodiesel gleichen sich gegenseitig aus. In dem neuen Forschungsprojekt wurden zwei Kraftstoffe untersucht: Der Dieselkraftstoff B10 enthält zehn Volumenprozent Biodiesel. Diesel R51 enthält ebenfalls zehn Volumenprozent Biodiesel und zusätzlich 41 Volumenprozent HVO. Er ist die Weiterentwicklung des Diesel R33. Das neue Forschungsprojekt umfasste Untersuchungen mit mehreren Testfahrzeugen im Realbetrieb und am Emissions-Rollenprüfstand der Hochschule sowie umfangreiche Analysen von Kraftstoff und Motorölproben im Chemielabor.
An der Fakultät Maschinenbau und Automobiltechnik der Hochschule Coburg wurde das Projekt von Prof. Dr. Markus Jakob gemeinsam mit Chemikerin Anja Singer geleitet. Das System der Mischkraftstoffe bezeichnet Jakob als „Baukasten“ – und sieht in diesem Ansatz eines der wichtigsten Werkzeuge für die Energiewende im Verkehr. „Auf der einen Seite erzielt man durch die richtige Kombination mehrerer Beimischkomponenten schnell hohe Regenerativanteile“, erklärt der Wissenschaftler. Gleichzeitig könne auch weiterhin die Verträglichkeit mit den aktuellen Serienfahrzeugen sichergestellt werden. „Und auf der anderen Seite nutzt man bei dem Baukasten gleichzeitig die Produktionskapazitäten mehrerer Quellen, wodurch sich auch schneller höhere Beimischanteile realisieren lassen. Die 51 Volumenprozent des Diesel R51 sind ein erster wichtiger Schritt, der aber noch nicht das Maximum des Baukastens darstellt.“

Die Kraftstoffe im Praxistest
Die Praxistests am Emissions-Rollenprüfstand der Hochschule belegen, dass alle getesteten Kraftstoffe die Euro 6d Grenzwerte im verpflichteten Messverfahren des Worldwide harmonized Light Duty Test Procedure (WLTP) sicher einhalten können. Über die Abgasnorm herausgehende Abgaskomponenten wie Formaldehyd oder Ammoniak liegen an der messbaren Detektionsgrenze. Die Motorölverdünnungstests, die sowohl am Rollenprüfstand als auch in einem realen Kurzstrecken- und Langstreckenbetrieb durchgeführt worden sind, zeigen, dass alle getesteten Kraftstoffe eine vergleichbare Motorölverdünnung aufweisen.
Bei den Detailanalysen im Chemielabor zeigte sich außerdem, dass die Kraftstoffe und Kraftstoff-Motoröl-Gemische alle Anforderungen an die Alterungsstabilität mehrfach übertreffen. Das Projekt demonstriert damit, dass das Kraftstoffbaukastenprinzip des Diesel R33 auf einen Diesel R51 erweitert werden kann, ohne dass negative Effekte bei den Emissionen und der Motorölverdünnungsneigung auftreten. Damit bieten die Kraftstoffe B10 und Diesel R51 das Potenzial, um neben der Elektromobilität einen weiteren Beitrag zur Defossilisierung im Verkehrssektor anbieten zu können.
Die Fakultät Maschinenbau und Automobiltechnik der Hochschule Coburg dankt den Projektpartnern für die Kooperation und Forschungsmöglichkeiten an der Hochschule. Die Projektpartner stellen hier eine gekürzte Variante des Abschlussberichts öffentlich zur Verfügung: https://www.agqm-biodiesel.de/f-und-e/forschungsberichte

(nach oben)


Wie reagieren marine Nahrungsnetze auf Alkalinitätserhöhungen? Erste Studie zeigt vielversprechende Ergebnisse

Um den Klimawandel einzudämmen, müssen CO2-Emissionen schnell und umfassend reduziert werden. Zusätzlich muss ein Teil des bereits ausgestoßenen CO2 aus der Atmosphäre entfernt werden. Ein Lösungsansatz dafür ist, die CO2-Aufnahme des Ozeans durch Alkalinitätserhöhung zu steigern. Dabei wird der Prozess der Verwitterung nachgeahmt, indem gemahlenes oder gelöstes Gestein dem Wasser zugegeben wird. Bislang ist noch wenig über die Auswirkungen dieser Methode auf das Leben im Meer bekannt. Eine neue Studie des GEOMAR zeigt, dass die Auswirkungen unter bestimmten Voraussetzungen gering wären und das Nahrungsnetz stabil bliebe. Die Ergebnisse erscheinen heute in Science Advances.

Der Ozean nimmt bereits heute ein Viertel bis ein Drittel der vom Menschen verursachten CO2-Emissionen auf, doch dieser Prozess führt auch zur Versauerung des Wassers. Durch den gezielten Eintrag von bestimmten Mineralien kann die Alkalinität des Meerwassers erhöht werden. Das bedeutet, dass das Wasser dann mehr CO2 chemisch binden kann, ohne weiter zu versauern. Welche Auswirkungen eine Alkalinitätserhöhung (Ocean Alkalinity Enhancement, OAE) auf die Umwelt hätte, ist noch wenig erforscht. Wissenschaftler:innen aus der Gruppe von Professor Dr. Ulf Riebesell am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel haben nun im Rahmen des europäischen Projekts oceanNETs in einem Experiment auf Gran Canaria erstmals die Reaktion von Zooplankton und mögliche Auswirkungen auf das Nahrungsnetz untersucht. Ihre Ergebnisse erscheinen heute in der Fachzeitschrift Science Advances.

Experiment im Riesen-Reagenzglas
Die Studie hat einen Ansatz gewählt, der die Meereschemie nur geringfügig stört: die CO₂-equilibrierte Alkalinitätserhöhung – eine Form von OAE, bei der der zu bindende Kohlenstoff bereits vom alkalisierten Wasser absorbiert wurde, bevor er in die Meeresumwelt freigesetzt wird. Für ihr Experiment setzten die Wissenschaftler:innen sogenannte KOSMOS-Mesokosmen ein (Kiel Off-Shore Mesocosms for Ocean Simulations) – große Behälter, die direkt ins Meerwasser gelassen werden und dort jeweils acht Kubikmeter Wassersäule isolieren. In diese wurden verschiedene Konzentrationen von Natriumkarbonat und -bicarbonat (auch als Soda, bzw. Backpulver bekannt) eingebracht – von keiner Alkalinitätssteigerung bis hin zur Verdopplung der natürlichen Alkalinität. Über einen Zeitraum von 33 Tagen wurde untersucht, wie sich die Alkalinisierung auf das Zooplankton auswirkt, das eine zentrale Rolle im marinen Nahrungsnetz spielt. Dafür analysierten die Forschenden eine Vielzahl von Parametern wie Biomasse, Produktion, Diversität und Fettsäuren des Zooplanktons.

Die Ergebnisse zeigen, dass die Planktongemeinschaften stabil blieben und das Zooplankton die moderaten chemischen Veränderungen durch die CO₂-equilibrierte OAE weitgehend tolerierte. Zwar verschlechterte sich während des Experiments die Nahrungsqualität der Schwebstoffe, von denen sich das Zooplankton ernährt, doch dies schien die Konsumenten nicht zu beeinträchtigen. Die Forschenden vermuten, dass die nährstoffarmen Bedingungen im Untersuchungsgebiet – ein charakteristisches Merkmal subtropischer Gewässer – mögliche indirekte Auswirkungen der OAE auf das Zooplankton abgemildert haben könnten.

Potenzial im Klimaschutz und weiterer Forschungsbedarf
Die Alkalinitätserhöhung könnte eine bedeutende Rolle bei der Entnahme von CO2 aus der Atmosphäre im Kampf gegen den Klimawandel spielen. Wenn der Ozean mehr CO2 aufnehmen kann, ohne saurer zu werden, könnte er ein noch stärkerer Puffer gegen die globale Erwärmung werden und den Weg in eine Zukunft ebnen, in der kohlenstoffintensive Industrien durch erneuerbare Energien ersetzt, die Emissionen von Industrien, die nicht dekarbonisiert werden können, neutralisiert und historische Kohlenstoffemissionen sicher entfernt und gelagert werden. Es besteht jedoch noch dringender Forschungsbedarf, um die Auswirkungen auf das gesamte marine Ökosystem zu klären.

„Unsere Untersuchung hat gezeigt, dass die CO2-equilibrierte Alkalinitätserhöhung das Zooplankton in dem untersuchten nährstoffarmen subtropischen Gebiet nur geringfügig beeinflusst und das Nahrungsnetz insgesamt stabil bleibt“, erklärt Erstautor Nicolás Smith Sánchez, Doktorand am GEOMAR, „das sagt allerdings noch nichts darüber aus, wie andere marine Umgebungen darauf reagieren oder wie sicher andere, technisch besser umsetzbare OAE-Ansätze sind, die größere chemische Veränderungen im Meerwasser verursachen.“

Die Wissenschaftler:innen empfehlen daher, die Methode in verschiedenen Ökosystemen weiter zu erforschen, da es keinen universellen OAE-Ansatz geben wird, der überall anwendbar ist. Die Methode müsse an die jeweiligen Bedingungen angepasst werden. Sánchez: „Unsere Studie ist ein vielversprechender erster Schritt zur Definition eines verantwortungsvollen Rahmens für die Anwendung der Alkalinitätserhöhung.“

Förderung:
Das Projekt OceanNETs (Ocean-based Negative Emission Technologies; Ozeanbasierte Technologien zur Entfernung von Kohlendioxid) läuft von 2020 bis 2025 und wird durch das Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union gefördert.

Originalpublikation:
Sánchez, N., Goldenberg, S., Brüggemann, D., Taucher, J., & Riebesell, U. (2024). Plankton food web structure and productivity under Ocean Alkalinity Enhancement. Science Advances.
https://doi.org/10.1126/sciadv.ado0264

Weitere Informationen:
http://www.geomar.de/n9694 Bildmaterial zum Download
https://www.geomar.de/fb2-bi/biogeochemische-prozesse Prof. Ulf Riebesells Arbeitsgruppe
http://Biogeochemische Prozesse
https://www.oceannets.eu/ OceanNETs
https://www.oceanblogs.org/oceannets/ OceanNETs Blog

(nach oben)


Globaler Wasserstoffatlas zeigt mögliche Importländer für Deutschland

Zur Deckung seines Bedarfs wird Deutschland einen Großteil des grünen Wasserstoffs und der wasserstoffbasierten Syntheseprodukte importieren müssen. Im Projekt »HYPAT« hat daher ein Konsortium aus Wissenschaft und Entwicklungszusammenarbeit einen globalen Wasserstoff-Potenzialatlas entwickelt, der nachhaltige Standorte für die grüne Wasserstoffwirtschaft der Zukunft identifiziert und analysiert. Er zeigt erstmals umfassend mögliche Partnerländer Deutschlands für eine kooperative Entwicklung inklusive der potenziellen Handelsvolumina, Produktions- und Transportkosten jeweils für 2030 und 2050 auf.

Im Rahmen des Projekts hat das Fraunhofer-Institut für Solare Energiesysteme ISE vor allem technoökonomische Analysen potenzieller Standorte für die grüne Wasserstoffproduktion und den Export möglicher Power-to-X-Produkte durchgeführt. Das Team analysierte detailliert die Kosten entlang der Wertschöpfungskette für den Import aus Brasilien, Marokko, Kanada, der Ukraine und den Vereinigten Arabischen Emiraten. Dabei berücksichtigten die Forschenden auch die Bedürfnisse der Partnerländer wie die nachhaltige Deckung der eigenen Energienachfrage, die Erreichung der formulierten Klimaziele und die Einhaltung spezifischer Nachhaltigkeitskriterien für die Wasserstoffwirtschaft.

Wasserstoffimport nach Deutschland simuliert
Mit Hilfe des Simulationstools »H2ProSim« betrachtete das Team den Import von fünf Power-to-X-Produkten (Flüssigwasserstoff, Ammoniak, flüssige organische Wasserstoff-träger, Methanol, Fischer-Tropsch-Produkte) per Schiff. Während die Wasserstoff-Produktion als solche den höchsten Anteil an den Kosten hat (zwei Drittel bis drei Viertel), fallen je nach Produkt und Produktionsvolumen die Kosten für Synthese, Speicherung und Transport unterschiedlich stark ins Gewicht.
In Abhängigkeit vom gewählten Entwicklungsszenario sind laut der Studie künftig Im-portkosten von ca. 3,50 bis 6,50 Euro pro Kilogramm Wasserstoff in 2030 und 2 bis 4,50 Euro in 2050 möglich (s. Abb.). Prinzipiell können die meisten der im Projekt analysierten Länder Kosten in vergleichbarer Höhe realisieren.
Dabei muss die Frage, ob der Transport per Schiff oder Pipeline günstiger ist, für jedes Land individuell beantwortet werden. Während der Import per Schiff eine größere Flexibilität für Marktteilnehmer erlaubt, bringt der Pipeline-Transport einerseits strategische Partnerschaften und andererseits Abhängigkeiten mit sich, die man eigentlich vermeiden möchte.
Für den Import von reinem Wasserstoff per Schiff zeichnet sich Flüssigwasserstoff langfristig als kostengünstigste Option ab, allerdings ist diese Technologie noch nicht markt-verfügbar. Unter den Power-to-X-Produkten ist Ammoniak der vielversprechendste Kandidat, gefolgt von Methanol und Fischer-Tropsch-Syntheseprodukten. Die Studienautorinnen und -autoren empfehlen daher die Förderung von Ammoniak als kurz- und mittelfristig am einfachsten realisierbares und günstigstes Produkt. Zudem sollte die Entwicklung von Flüssigwasserstoff-Technologien als potenziell wirtschaftlich attraktivste Option für Wasserstoffimporte beschleunigt werden.

Positive Effekte auf Exportländer
Die Forschenden des Fraunhofer ISE betrachteten gemeinsam mit ihren Projektpartnern auch Umweltaspekte, Nachhaltigkeitskriterien und soziale sowie wirtschaftliche Entwicklungschancen für die Exportländer, wie die erwartete Wertschöpfung vor Ort, Arbeits-plätze und weitere Co-Benefits. Die Wasserstoff-exportierenden Länder können demnach durch den Handel profitieren: der Ausbau der für die Produktion nötigen erneuerbaren Energien kann zu einer schnelleren Energiewende und geringen Stromkosten führen. Dieser Synergieeffekt kann sich allerdings bei steigenden Exportvolumina wieder abschwächen: wenn das erneuerbare-Energien-Potenzial ausgeschöpft ist, kann es zu Strompreissteigerungen im Exportland kommen.
»Wir empfehlen daher, die Auswirkungen auf die lokale Energiewende früh mit den Exportländern zu adressieren, um Fehlentwicklungen im Ausbau der Infrastrukturen zu vermeiden. Bei einigen Ländern sind Obergrenzen beim Exportvolumen deutlich geworden und diese sollten berücksichtigt werden«, erklärt Ombeni Ranzmeyer, einer der Studienautoren vom Fraunhofer ISE. Länder, die ihre Industrie und Energiewirtschaft schneller defossilisieren können, sollten zudem den Vorzug erhalten.

Nachhaltige Wasserversorgung für Wasserstoffproduktion
Um ein Kilogramm Wasserstoff zu produzieren, benötigen Elektrolyseure aktuell 15 bis 20 Kilogramm Frischwasser (einschließlich Verlusten und Kühlung). Zudem wird in deutlich geringerem Maße Wasser für die Stromerzeugung benötigt – als Kühlmittel oder zur Reinigung von Photovoltaikanlagen, sowie je nach Produkt für die Synthese. In Regionen mit geringen Süßwasserreserven müssen daher Alternativen (Meerwasserentsalzung, Transport durch Pipelines) in die Planung von nachhaltigen Wasserstoff-Projekten eingehen. Das Team des Fraunhofer ISE analysierte im HYPAT-Projekt beispielhaft die Wasserkosten für potenzielle Power-to-X-Standorte in Marokko, wobei Geodaten mit den Kosten von Wasseraufbereitungstechnologien und -leitungen kombiniert wurden. Die Studie zeigt, dass für die Wirtschaftlichkeit der Wasserversorgung- und -übertragung eine Mindestgröße des Elektrolyseurprojekts erreicht werden muss, die je nach Region variiert. Die Investitionskosten für die Wasserversorgung lagen für Marokko je nach Standort bei 0,012 bis 0,245 € pro Kilogramm erzeugten Wasserstoffs, was im Vergleich zu anderen Kosten (z. B. für die Elektrolyse) sehr niedrig ist. »Wir konnten mit dieser Studie einen ausgewogenen Rahmen für die Bewertung der Wasserkosten für Elektrolyse- und PtX-Produktionsmodelle schaffen, ohne dabei die Nachhaltigkeitsaspekte zu vernachlässigen, die alle Sektoren betreffen, die auf die kostbare Ressource Wasser angewiesen sind«, so Studienautor Friedrich Mendler.

Das Projekt HYPAT- H2-POTENTIALATLAS – wurde im Rahmen des Ideenwettbewerbs »Wasserstoffrepublik Deutschland« im Modul Grundlagenforschung Grüner Wasserstoff vom Bundesministerium für Bildung und Forschung BMBF gefördert.

Wissenschaftliche Ansprechpartner:
marius.holst@ise.fraunhofer.de

Weitere Informationen:
https://hypat.de/hypat-wAssets/docs/new/publikationen/HYPAT-Abschlussbericht.pdf Abschlussbericht

(nach oben)


Wassersicherheit trotz Klimawandel: „Die Wasserwende ist dringend“ – Interview mit ISOE-Forscher Robert Lütkemeier

Auch in Deutschland nehmen Hitze- und Dürreperioden sowie Starkregen- und Hochwasserereignisse zu. Diese Extremereignisse erhöhen den Druck auf die Wasserressourcen und gefährden die bestehende Infrastruktur. Mit ihrer Nationalen Wasserstrategie vom März 2023 wollte die Ampelregierung den daraus resultierenden vielfältigen Herausforderungen begegnen – der angekündigte Umsetzungsplan des Aktionsprogramms liegt jedoch bis heute nicht vor. Ein Gespräch mit ISOE-Forscher Robert Lütkemeier über die drängendsten Probleme und die Entwicklung geeigneter Maßnahmen für ein klimaresilientes Wassermanagement.

Dass unsere Wasserressourcen zunehmend unter Druck geraten, ist seit Jahren bekannt. Als die Ampelregierung im März 2023 ihre nationale Wasserstrategie vorstellte, hat sie versprochen, dass damit die Ressource in Zukunft besser geschützt werde und die Trinkwasserversorgung überall sicher bleibe. Wie schätzen Sie das Potenzial der Strategie ein?

Die Nationale Wasserstrategie ist ein zentraler Schritt, um die wachsenden Herausforderungen in den Bereichen Wasserversorgung, Ressourcenschutz und Klimaanpassung in Deutschland anzugehen. Durch den partizipativen Entwicklungsprozess wurden zehn strategische Themenfelder identifiziert, die 78 konkrete Maßnahmen umfassen. Diese decken ein breites Spektrum von kurz- bis langfristigen Handlungsplänen ab und sollen sicherstellen, dass die Wasserversorgung stabil und bezahlbar bleibt, Ressourcen besser geschützt und Klimaanpassungsmaßnahmen effektiver gestaltet werden. Der Erfolg der Strategie hängt jedoch maßgeblich von der konkreten Umsetzung ab. Das Bundesumweltministerium hatte schon für Mitte 2024 einen Umsetzungsplan angekündigt. Nach dem Aus der Ampelkoalition ist unklar, wann er kommt. Aber dieser Plan wird entscheidend sein, um die Maßnahmen koordiniert und wirkungsvoll umzusetzen.

In welchem Themenfeld der Wasserstrategie sehen Sie den größten Handlungsbedarf?
Alle zehn strategischen Themenfelder der Nationalen Wasserstrategie sind wichtig, besondere Aufmerksamkeit erfordern aus meiner Sicht jedoch die Maßnahmen zur Anpassung an Wasserextreme. Deutschland sieht sich zunehmend mit Starkregen, Hochwasser und Dürreperioden konfrontiert, die nicht nur Leib und Leben gefährden, sondern auch die Sicherheit unserer Wasserversorgung auf die Probe stellen und gleichzeitig den Ökosystemen substanziellen Schaden zufügen können. Wie massiv der Klimawandel beispielsweise den Grundwasserstress verschärfen kann, haben wir kürzlich in einer Studie für ganz Europa ermittelt. Unsere Berechnungen deuten darauf hin, dass im schlimmsten Fall mehr als die Hälfte der Landfläche Europas bis zum Ende des Jahrhunderts mit einer Abnahme des Grundwasserabflusses von über 25 Prozent rechnen muss. Diese Abnahme kann die Wasserversorgung und Ökosysteme negativ beeinflussen – hier setzt unsere Forschung an. Es geht darum, uns als Gesellschaft klimaresilienter aufzustellen und solchen Herausforderungen zu begegnen.

Wie greifen Sie diesen Zusammenhang von Extremen und Wasser- bzw. Landnutzung in Ihrer Forschung auf?
Wir sprechen vom sogenannten Wasser-Land-Nexus, denn Fragen des Wassermanagements lassen sich nur im Zusammenhang mit der Landnutzung bearbeiten. Und speziell für die Herausforderungen durch Extreme – also einerseits „zu viel Wasser“ und andererseits „zu wenig Wasser“ – benötigen wir Lösungen, um diese zunehmenden Schwankungen auszugleichen. Zentral ist es daher aus meiner Sicht, den Wasserhaushalt sowohl in der Stadt als auch auf dem Land zu entschleunigen.

Was muss man sich unter einer Entschleunigung des Wasserhaushalts vorstellen?
Es bedeutet, gewissermaßen den Druck rauszunehmen aus dem Wasserkreislauf, indem wir den Wasserrückhalt stärken. Und genau dieser Punkt taucht in verschiedenen Themenfeldern der Nationalen Wasserstrategie auf, das begrüßen wir.

Was heißt das ganz konkret, wenn Sie den Wasserrückhalt stärken wollen. Wo sollte man das tun und vor allem wie?
Es gibt bereits einige Städte und Kommunen in Deutschland, die blaue und grüne Infrastrukturen nutzen, um den Wasserrückhalt effektiv zu fördern. In diesem Zusammenhang wird dann oft von der Schwammstadt gesprochen. Gemeint ist, dass Regenwasser möglichst dort gespeichert wird, wo es auf den Boden auftrifft, anstatt es direkt in die Kanalisation abzuleiten. Diese Maßnahme ist essenziell angesichts der zunehmenden Häufigkeit von Starkregenereignissen und Trockenphasen und macht urbane Gebiete widerstandsfähiger gegenüber extremen Wetterbedingungen. Indem Regenwasser in Böden, Versickerungsflächen oder durch spezielle grüne Infrastrukturen wie Gründächer und begrünte Fassaden gespeichert wird, lässt sich das Risiko von Überschwemmungen erheblich reduzieren. Solche Maßnahmen sehen wir mittlerweile immer häufiger in Städten. Wo wir allerdings mehr machen müssen, ist beim Wasserrückhalt in der Landschaft, also auf Wiesen und Äckern, in Wäldern und den Bach- und Flussläufen.

Was schlagen Sie für ländliche Räume vor?
Einzelne Maßnahmen für den Wasserrückhalt in der Landschaft gibt es natürlich schon längst. Mit Blick auf den Klimawandel müssen solche Maßnahmen aber besser miteinander verzahnt werden, um die Folgen von Extremereignissen strategisch abzuschwächen. Das erfordert ein Umdenken, sowohl in der Raumplanung als auch in einzelnen Sektoren, denn die gängige Praxis war bisher häufig, Wasser möglichst schnell abzuführen. Beispielsweise mit Drainagen in der Landwirtschaft, mit denen sich Ackerflächen entwässern lassen. Was wir jetzt aber brauchen, sind gewissermaßen Schwammlandschaften. Dafür sind verschiedene Maßnahmen in den Bereichen Landwirtschaft, Forstwirtschaft und Wasserwirtschaft notwendig.

Können Sie ein Beispiel nennen?
Eine Bepflanzung der Ackerflächen das ganze Jahr hindurch kann zum Beispiel die Infiltrationskapazität erhöhen. Oder anders gesagt: Äcker mit Bodenbedeckung können mehr Wasser aufnehmen als Brachflächen. Dadurch lässt sich der Oberflächenabfluss deutlich reduzieren. Auch die Renaturierung von Flussläufen bremst das Wasser ab, und sie hat zudem noch etliche Vorteile mit Blick auf Biodiversität und Wasserqualität. Und in den Wäldern, wo große Flächen ja dürre- und schädlingsbedingt abgestorben sind, bietet es sich jetzt an, den neuen Baumbestand auch mit Maßnahmen für Wasserrückhalt und Infiltration zu sichern. Solche Maßnahmen fördern die Grundwasserneubildung, mindern Hochwassergefahren und schaffen gleichzeitig Reserven für Trockenperioden. Kurz: Wir wissen, wie wir auch im ländlichen Raum die Resilienz gegenüber Extremereignissen stärken und langfristige Vorteile für die Wasserversorgung bieten können. Aber es fehlt bislang an Möglichkeiten für eine schnelle und koordinierte Umsetzung in der Breite.

Woran scheitert die Umsetzung?
Weil Lösungen auf dem Papier oft einfacher klingen, als sie in der Praxis sind. Häufig stößt schon die Planung solcher Maßnahmen auf Konflikte, denn ein großräumiger Wasserrückhalt erfordert auch großflächige Maßnahmen. In der Folge müssen zum Beispiel Landwirte ihre konventionellen Bewirtschaftungsformen anpassen, und hierfür braucht es Information und Aufklärung sowie Unterstützung und Förderung. Wir verfolgen mit unserem transdisziplinären Forschungsansatz deshalb das Ziel, durch eine enge Zusammenarbeit von Wissenschaft und Praxis anwendungsorientierte Lösungen zu entwickeln. Mit unserer Forschungsgruppe regulate ist uns das beispielsweise für den Landkreis Mansfeld-Südharz in Sachsen-Anhalt gelungen, wo wir gemeinsam mit Vertreterinnen und Vertretern der Wasserversorgung, der Behörden, der Landwirtschaft und des Naturschutzes ein Maßnahmenbündel geschnürt haben. Damit liegen konkrete Handlungsempfehlungen vor, um lokale Grundwasserkörper nachhaltig zu bewirtschaften und den Wasserrückhalt in der Region zu stärken. Daher hoffen wir, dass der Umsetzungsplan der Nationalen Wasserstrategie auch Erfahrungen der transdisziplinären Forschung berücksichtigt, um evidenzbasierte lokale Aktionen zu planen und in die Praxis überführen zu können.

Ist es realistisch, dass die Wasserwende gelingt?
Die Wasserwende ist zweifellos eine komplexe Aufgabe, denn gemeint ist ja nicht weniger als die Transformation unseres gegenwärtigen Wassermanagements. Aber angesichts der Klimarisiken ist die Wasserwende nun mal dringend erforderlich. Technische Innovationen müssen dabei mit organisatorischen und gesellschaftlichen Veränderungen Hand in Hand gehen, um Wasser effizienter zu nutzen und Extremereignissen besser zu begegnen. Interessant sind in dieser Hinsicht kommunale Klimaanpassungs- oder Wasserversorgungskonzepte, die wichtige Schritte in die richtige Richtung sind. Ein umfassender Wandel erfordert jedoch die Bereitschaft und das Engagement aller, bestehende Praktiken zu hinterfragen und neue Wege zu gehen – sei es durch wassersparende Technologien, blaue und grüne Infrastrukturen zur Wasserspeicherung oder infiltrationssteigende Maßnahmen in der Land- und Forstwirtschaft. Das bedeutet aber auch, Konflikte, die mit dem Wandel verbunden sind, zu erkennen, zu bearbeiten und die vielfältigen Interessen auszugleichen. Die Herausforderungen sind wirklich groß. Aber mit dem richtigen, sprich transdisziplinären Ansatz sind wir in der Lage, die Wasserwende erfolgreich zu gestalten und damit unsere Resilienz gegenüber den Folgen des Klimawandels auszubauen.

Dr. Robert Lütkemeier leitet am ISOE – Institut für sozial-ökologische Forschung das Forschungsfeld Wasser und Landnutzung. Er ist zudem Co-Leiter der Nachwuchsforschungsgruppe „regulate“, die sich mit Fragen des Grundwassermanagements in Europa beschäftigt.

Zum Interview im ISOE-Blog:
https://isoe.blog/wassersicherheit-trotz-klimawandel-die-wasserwende-ist-dringen…

Wissenschaftliche Ansprechpartner:
Dr. Robert Lütkemeier
Leiterin des Forschungsfelds Wasser und Landnutzung
ISOE – Institut für sozial-ökologische Forschung
Frankfurt am Main
luetkemeier@isoe.de

Weitere Informationen:
https://www.isoe.de/nc/forschung/projekte/project/regulate/
https://www.frontiersin.org/journals/water/articles/10.3389/frwa.2024.1448625/fu…

(nach oben)


Forschungsprojekt „CoolDown“ widmet sich Optimierung der Fernwärme im Gebäudebestand

Im vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) geförderten Projekt „CoolDown“ steht die Sammlung und Validierung von geeigneten Maßnahmen für die zügige und praxistaugliche Transformation von Wärmenetzen mit dem Fokus auf der Sekundärseite und (Bestands)-Gebäuden. Hierzu werden detailliert die technischen, regulatorischen und ökonomischen Anforderungen identifiziert und bewertet. Das Projekt startete im Oktober 2024 und läuft bis September 2028. Jetzt hat das erste Arbeitstreffen des Verbundes am Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE in Kassel stattgefunden.
Der geplante Ausstieg aus der Kohleverstromung bis 2038 und der europäische Klimaschutzplan bedeuten den schrittweisen Rückzug von der Kohleverbrennung sowie perspektivisch auch vom Erdgas. Der Ausstieg aus der Verbrennung fossiler Energieträger hat unmittelbare Auswirkungen auf die Wärmeerzeugung und die Fernwärmeversorgung. Um die politisch gesteckten Klimaschutzziele im Wärmebereich zu erreichen, ist neben der flächendeckenden Gebäudesanierung und der Umstellung der Wärmeerzeugung auf Wärmepumpen ein massiver Ausbau der Fernwärme erforderlich. Daher entwickeln das Fraunhofer IEE und Partner aus der Fernwärme-, Wohnungswirtschaft sowie dem Handwerk im Rahmen des Projekts „CoolDown“ praktikable Lösungen für die Optimierung und Dekarbonisierung der Fernwärmeversorgung sowie die Nutzung erneuerbarer Wärmequellen im Gebäudebestand.
Eine Absenkung der Systemtemperaturen in den Wärmenetzen eröffnet die Möglichkeit eines effizienteren Anlagenbetriebs sowie der Einbindung größerer Mengen erneuerbarer Wärme, gegebenenfalls auch dezentral. Auch ökonomisch sind Maßnahmen zur Senkung der Systemtemperaturen wichtig. Dadurch lassen sich Einsparungen von etwa 0,5 €/MWh*K erzielen, was EU-weit einem jährlichen Einsparpotenzial von rund 14 Milliarden Euro entspricht. Eine effiziente Auskühlung des Rücklaufs erhöht zudem die Temperaturdifferenz zwischen Vor- und Rücklauf, was die Transportkapazität des Fernwärmesystems direkt steigert und Raum für weitere Anschlüsse ohne eine Netzverstärkung bietet.
„Für eine kostengünstige und dekarbonisierte Wärmeversorgung ist es notwendig, von der Verbrennung fossiler Brennstoffe, die höhere Systemtemperaturen ermöglichen, Abstand zu nehmen. Vielmehr müssen die Systemtemperaturen gesenkt werden, was sinnvollerweise mit der sekundärseitigen Reduktion der Rücklauftemperaturen beginnt. So können lokal verfügbare erneuerbare Wärmequellen effizient eingebunden werden, was wiederum zu stabileren Wärmepreisen und einer günstigeren Wärmeversorgung führt“ so Dr. Dietrich Schmidt, Projektleiter am Fraunhofer IEE.
Insbesondere im unsanierten Gebäudebestand ergeben sich technologische Herausforderungen, um diese Gebäude auch bei reduzierten Vorlauftemperaturen ausreichend mit Wärme versorgen zu können. Eine Lösungsstrategie besteht in der Behebung fehlerhafter Ausführungen oder Einstellungen der Anlagentechnik, um eine effizientere Rücklaufauskühlung zu realisieren und die Versorgung so effizient wie möglich sicherzustellen. Zahlreiche Maßnahmen sind bekannt, finden jedoch in der Praxis oft nur unzureichende Umsetzung. Hier gilt es herauszufinden, welche Systeme aus ökonomischer und ökologischer Sicht geeignet sind, um die Probleme in verschiedenen Gebäudetypen zu lösen. Diese Lösungen müssen zudem effizient mit dem Fachhandwerk kommuniziert werden. Die Maßnahmen werden von Gebäudeeigentümern umgesetzt, während der Nutzen eines optimierten Netzbetriebes den Wärmenetzbetreibern bzw. -versorgern zugutekommt. Für die Netzbetreiber stellt sich die Frage, wie die Anschlussnehmer motiviert werden können und welche Technologien geeignet sind, um die Rücklauftemperaturen weiter zu senken.
Im Rahmen des Verbundprojektes CoolDown sind weitere gebäude- und sekundärseitige Maßnahmen für eine verbesserte Rücklaufauskühlung zu entwickeln, um diese sowohl energetisch als auch monetär (sowohl im Betrieb als auch bei der nachträglichen Installation) möglichst realitätsgetreu bewerten zu können.

Wissenschaftliche Ansprechpartner:
Dr. Dietrich Schmidt, Fraunhofer IEE

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2024/forschungspr…

(nach oben)


Abfallkolonialismus

Wege von Textilabfällen aus wohlhabenden Städten auf drei Kontinenten untersucht / Studie in Nature Cities gibt Empfehlungen für die ab 1. Januar 2025 verpflichtende Trennung von Textilabfällen u.a. für Berlin

Ein internationales Forscher*innenteam hat den Wegen von Textilabfällen in neun wohlhabenden Städten auf drei Kontinenten nachgespürt. Die kürzlich in Nature Cities veröffentlichte Studie beleuchtet den Umgang dieser Städte mit Alttextilien und schlägt Maßnahmen vor, um die Abfallmengen zu reduzieren und Recyclingkreisläufe zu fördern. Als eine der untersuchten Städte könnte Berlin eine Vorreiterrolle übernehmen – allerdings nur mit den richtigen Strategien.

Textilabfälle haben in den vergangenen Jahren aufgrund des globalen „Fast Fashion“-Trends massiv zugenommen. Günstige, kurzlebige Mode sorgt für steigende Konsum- und Entsorgungsraten: Seit 2000 hat sich der globale Textilabfall auf 92 Millionen Tonnen pro Jahr verdoppelt, von denen nur 0,5 Prozent recycelt werden. In Europa und Australien gehen die meisten Alttextilien als Exporte nach Afrika und Asien, wo die Entsorgungskapazitäten oft unzureichend sind. Die Wissenschaftler*innen warnen vor den sozialen und ökologischen Folgen, die sich insbesondere für ärmere Länder daraus ergeben – ein Problem, das auch als „Abfallkolonialismus“ bekannt ist.

Wenig Forschung zu wachsendem Abfallstrom
Textilabfälle stellen eine neue Herausforderung dar, die von der Forschung bislang wenig beachtet wurde. „Früher wurde Kleidung bis zur völligen Unbrauchbarkeit getragen oder biologisch abgebaut“, erklärt Dr. Samira Iran von der TU Berlin, eine der beteiligten Forscher*innen im ausführlichen Interview https://www.tu.berlin/go274621/ zu der Studie. „Heute sind synthetische Fasern und chemische Beschichtungen weit verbreitet, was das Volumen an nicht biologisch abbaubaren Textilien steigen lässt.“ Die bisherigen Studien konzentrierten sich vor allem auf industrielle Textilabfälle – private Altkleider wurden kaum erforscht.

Gemeinsamkeiten und Herausforderungen in verschiedenen Städten
Die Studie zeigt, dass in den meisten Städten Wohltätigkeitsorganisationen und private Wiederverkäufer die Sammlung und Sortierung von Alttextilien übernehmen. Stadtverwaltungen spielen dabei meist eine passive Rolle, indem sie lediglich Flächen oder Lizenzen zur Verfügung stellen. In Amsterdam hingegen werden die Textilabfälle direkt von einem städtischen Unternehmen verwaltet – ein Modell, das den Forscher*innen zufolge mehr Transparenz und Kontrolle ermöglicht. Die Wiederverwendungsquoten der gesammelten Textilien sind in allen untersuchten Städten jedoch gering: In Luxemburg liegt sie bei nur 3-4 Prozent, in Genf bei etwa 5 Prozent und in Oslo bei lediglich 0,03 Prozent.

Berliner Perspektiven für nachhaltige Textilwirtschaft
Für Berlin, wo eine breite Sammlung durch gemeinnützige und private Organisationen besteht, bieten sich gute Möglichkeiten, nachhaltige Kreislaufwirtschaft für Textilien zu fördern. Die Forscher*innen empfehlen, ein stadtweites System zur getrennten Textilsammlung aufzubauen. Damit könnten die neuen EU-Vorgaben erfüllt werden, die ab 1. Januar 2025 eine verpflichtende Trennung von Textilabfällen vorsehen. Auch die Berliner Stadtreinigungsbetriebe (BSR) könnten laut der Studie stärker in die Textilsammlung eingebunden werden.

Empfehlungen für ein nachhaltiges Textilsystem
Um die Herausforderungen des wachsenden Textilabfalls zu meistern, empfiehlt die Studie ein dreiteiliges Konzept:

  1. Reduzierter Textilkonsum: Modewerbung im öffentlichen Raum zu beschränken, Slow-Fashion-Initiativen zu fördern und Freizeitshopping durch attraktivere öffentliche Plätze und Parks zu ersetzen, könnten helfen, den Konsum von Fast Fashion einzudämmen.
  2. Stärkere lokale Wiederverwendung: Die Stadtverwaltung könnte lokale Akteur*innen wie Secondhand-Läden und Repair-Cafés stärker unterstützen und Bildungsprogramme zum Erlernen von Näh- und Reparaturtechniken anbieten.
  3. Vermeidung von Textilentsorgung und -exporten: Durch Investitionen in lokale Sortier- und Recyclinganlagen könnte die Stadt langfristig den Textilkreislauf schließen und die Menge exportierter Abfälle reduzieren.

Über die Studie
Die Untersuchung umfasst Daten zu den Textilabfällen und -strategien in Amsterdam, Austin, Berlin, Genf, Luxemburg, Manchester, Melbourne, Oslo und Toronto. Für Berlin hat eine Mitarbeiterin der Senatsverwaltung für Umwelt, Verkehr und Klimaschutz als Interviewte mitgemacht. Durch Interviews und die Analyse der Textilwirtschaft in verschiedenen Städten haben die Forscher*innen erstmals detaillierte Handlungsempfehlungen für städtische Verwaltungen erarbeitet, um Abfälle ressourceneffizient zu reduzieren und zu recyceln.

Weiterführende Informationen:
Das ausführliche Interview zur Studie mit Dr. Samira Iran https://www.tu.berlin/go274621/

Zur Studie https://www.nature.com/articles/s44284-024-00149-y

Kontakt:
Samira Iran
Fachgebiet Arbeitslehre/ Ökonomie und Nachhaltiger Konsum
TU Berlin
E-Mail: samira.iran@tu-berlin.de

(nach oben)


Wie schnell werden Kunststoffe in der Umwelt abgebaut?

Wenn Kunststoffe in die Natur gelangen, werden sie dann biologisch abgebaut? Und falls ja, wie lange dauert das? Welche Faktoren tragen dazu bei?

Wie wichtig diese Fragen sind, machen die zunehmenden Mengen an Kunststoff-Verunreinigungen in der Umwelt deutlich. „Das Wissen dazu ist aber lückenhaft, es ist eine offene Frage“, schildert Stefan Mecking, Professor für Chemische Materialwissenschaft an der Universität Konstanz. In einem neuen Forschungsprojekt will der Chemiker nun klären, ob Kunststoffe wie Polyethylen in verschiedenen Umgebungen biologisch abgebaut werden, wie lange dieser Prozess dauert – und wie sie beschaffen sein müssen, um möglichst gut abbaubar zu sein. Die Deutsche Forschungsgemeinschaft (DFG) fördert seine Forschung mit einem Reinhart-Koselleck-Projekt, einem Förderprogramm für wissenschaftliche Pionierarbeit mit einer Förderhöhe von bis zu 1,25 Mio. Euro.

Stefan Mecking setzt bei Polyethylen (PE) an – dem weltweit meisthergestellten Kunststoff. „Polyethylen ist etwas, was man zunächst als ein nicht-abbaubares Material bezeichnen würde. Polyethylen zerfällt in der Umwelt sehr langsam, über abiotische und biologische Schritte, und es gibt teils kontroverse Diskussionen dazu, welche Rolle diese spielen und wie schnell sie überhaupt ablaufen können“, so Mecking. Der Konstanzer Chemiker will eindeutige Daten dazu erheben. „Es geht uns darum, eine zuverlässige Methode zu entwickeln, um den Bio-Abbau dieses Kunststoffs quantifizieren zu können.“

Wie aber untersucht man das? Umweltverunreinigungen durch Kunststoffe werden schlussendlich durch Umwandlung bis zu Kohlendioxid abgebaut. Theoretisch könnte man also einfach die Entwicklung des Kohlendioxids verfolgen. Das Problem ist nur: Bei einem biologischen Abbauprozess wird auch in der natürlichen Umgebung Kohlendioxid freigesetzt, beispielsweise aus Böden, und es lässt sich schwer bestimmen, ob das CO2 nun vom Kunststoff oder aus dem Hintergrund stammt.

Meckings Ansatz ist folglich, das Kohlendioxid aus dem Kunststoff unterscheidbar zu machen – wie durch einen „chemischen Fingerabdruck“. Seine Arbeitsgruppe will daher Methoden entwickeln, welche spezielle Varianten von Polyethylen erzeugen, die mit stabilen Isotopen markiert sind. Diese Varianten hätten dieselben Eigenschaften wie gewöhnliches Polyethylen, aber durch die Markierung lässt sich nachvollziehen, ob das CO2 von ihnen stammt. Anhand der Menge des freigesetzten markierten Kohlendioxids lässt sich erschließen, wie schnell der Abbauprozess stattfindet.

Eine Kernfrage des Projekts wird sein, welche Faktoren die biologische Abbaubarkeit eines Kunststoffs beeinflussen. Dies berührt auch weitergehend die Frage, wie ein Kunststoff beschaffen sein sollte, um möglichst nicht über Jahrzehnte oder Jahrhunderte erhalten zu bleiben, falls er in die Umwelt gelangen sollte. Stefan Mecking blickt hierfür auf dessen molekulare Struktur. Kunststoffe bestehen aus charakteristischen, teils sehr langen kettenförmigen Molekülen. Diese Struktur wird die Abbaubarkeit eines Kunststoffs beeinflussen, ebenso die Größe der Teilchen. Mit im Fokus stehen auch funktionelle Gruppen in den Ketten, welche durch vorangehende Abbauschritte entstehen. Solche „chemischen Schaltstellen“ können den Bioabbau maßgeblich beeinflussen. Die Rolle all dieser Faktoren zu klären, mittels hierzu maßgeschneiderter Moleküle, wird ein zentraler Teil des Forschungsprojekts sein. „Ich bin optimistisch, dass wir die damit verbundenen Herausforderungen überwinden können. Unter anderem deswegen, weil wir sämtliche Methoden, die für dieses Projekt essentiell sind, in unserem Labor etablieren. Dadurch sind wir in der Lage, schnell zu reagieren und die logischen nächsten Experimente zu entwerfen“, schließt Mecking.

Weitere Informationen unter: https://www.dfg.de/de/aktuelles/neuigkeiten-themen/info-wissenschaft/2024/ifw-24…

Faktenübersicht:
•Reinhart Koselleck-Projekt der Deutschen Forschungsgemeinschaft für Prof. Dr. Stefan Mecking, Universität Konstanz, zum Thema „Quantifizierung des Bioabbaus von Polyethylen vermittels katalytischer Methoden“
•Prof. Dr. Stefan Mecking ist Professor für Chemische Materialwissenschaft an der Universität Konstanz
•Reinhart Koselleck-Projekte werden von der Deutschen Forschungsgemeinschaft an herausragende Wissenschaftler*innen für besonders innovative und „in positivem Sinne risikobehaftete“ Forschungsprojekte vergeben. Die Dauer der Förderung beträgt fünf Jahre, die Förderhöhe liegt bei bis zu 1,25 Mio. Euro.

(nach oben)


Sauberes Wasser: OTH-Studierende bauen Pflanzenkläranlage in Uganda

Wie lässt sich Abwasser auf einfache und naturnahe Weise reinigen? – Für den Bau einer Pflanzenkläranlage für eine Schule waren vier Studierende von der OTH Regensburg im Sommer 2024 in Uganda. Zum Projekt entstand auch eine Bachelorarbeit, die am 27. November 2024 vorgestellt wurde.

Weltweit sterben jährlich rund 850.000 Menschen an den Folgen von verunreinigtem Wasser. Der Zugang zu sauberem, keimfreiem Wasser, wie wir es gewohnt sind, ist keinesfalls überall selbstverständlich. Hier Lösungen zu finden, um die Wassersituation nachhaltig zu verbessern, um Abwasser auf einfache, kostengünstige und naturnahe Weise zu reinigen, darum ging es Studierenden aus dem Studiengang Bauingenieurwesen an der OTH Regensburg. Hierzu entwickelten sie unter der Leitung von Prof. Andreas Ottl und getreu dem Motto „Every drop counts“ eine Abwasserreinigungsanlage, die in einem Land mit tropischem Klima wie Uganda realisiert werden sollte.

Von der ersten Skizze zur fertigen Bachelorarbeit
Für fünf Wochen waren vier Studierende in den Osten Afrikas nach Uganda gereist, um dort für eine Schule in Masaka die von ihnen geplante Pflanzenkläranlage umzusetzen. Zwei von ihnen, Vanessa Janoschek und Julia-Maria Hofer, haben zu ihrem Projekt auch eine Bachelorarbeit gemeinsam verfasst; der Titel: „Planung und Bau einer kostengünstigen, naturnahen Abwasserreinigungsanlage in einem Land mit tropischem Klima am Beispiel Uganda“.
Das Projekt und ihre Ergebnisse präsentierten die beiden am 27. November 2024 im Rahmen einer öffentlichen Veranstaltung an der OTH Regensburg. Im Fokus des bilderreichen Vortrags standen die einzelnen Schritte, Bauphasen und Ergebnisse, aber auch Herausforderungen des Projekts.

Auf nach Uganda: Wie baue ich eine Pflanzenkläranlage?
Nach einer mehrmonatigen Einarbeitungs- und Vorbereitungsphase, nach ersten Skizzen und detaillierteren Planungen ging es Anfang August 2024 nach Uganda, um dort die gemeinsam entwickelte Pflanzenkläranlage in Terrassenform anzulegen. Mit dabei waren neben Julia-Maria Hofer und Vanessa Janoschek auch die beiden Kommilitonen Martin Kroiß und Denis Bieniasz, die die beiden tatkräftig unterstützten, sowie Prof. Andreas Ottl, der das Projekt betreute. Ziel war die International School of Music, Languages and Polytechnic Studies (IMLS) in Masaka, an der sich Studierende der Fakultät Bauingenieurwesen seit 2021 mit einzelnen Projekten rund um eine bessere Wasserversorgung und -aufbereitung engagieren. Im Sommer 2024 wurden nun drei Becken in Terrassenform gebaut, wobei ugandische Arbeiter dazu schon entscheidend vorgearbeitet hatten. Es wurden Becken aufgemauert, Rohre verlegt, alles mit Kies aufgeschüttet und dann mit einheimischen, schnell wachsenden Papyruspflanzen bepflanzt. Zurück in Regensburg bekommt das Team regelmäßig Updates und Fotos zum Stand des Projekts von den Verantwortlichen vor Ort.

Ein Selbstläufer: Reinigung mittels Mikroorganismen
Warum sich das Team für eine Pflanzenkläranlage entschieden hatte? Weil dieses Modell einfach und energieeffizient ist und kaum Personalaufwand erfordert. „Diese Anlagen sind ein Selbstläufer“, so Vanessa Janoschek. Denn die Hauptakteure bei der Wasserreinigung sind Mikroorganismen, die den Großteil der „Arbeit“ erledigen. Gefragt nach ihren Erfahrungen antwortete Julia-Maria Hofer: „Besonders spannend, interessant und teils herausfordernd waren die kulturellen und kommunikativen Unterschiede sowie das andere zeitliche Verständnis.“

„Every drop counts“: eine Initiative für sauberes Wasser
Diese Initiative unter dem Motto „Every drop counts“ hatte der Dekan der Fakultät Bauingenieurwesen, Prof. Andreas Ottl, im Sommer 2021 gestartet. Der diesjährige Bau der Pflanzenkläranlage ist bereits das vierte Projekt, das Studierende in Kooperation mit der IMLS Schule in Masaka durchführen. 2023 hatte ein Team Zisternen gebaut, die der IMLS künftig 50.000 Liter Brauchwasser bereitstellen. Und in den kommenden Jahren? „Man wird sehen, wie das Projekt weitergeht. Ich gehe 2025 in Rente und es bleibt meinem Nachfolger überlassen, welche Schwerpunkte dieser setzen wird. Die erste Ausbaustufe ist jedenfalls gelungen“, so Prof. Ottl.

Partner und Finanzierung
Fest steht, dass sich der Regensburger Förderverein für Musik und Kultur e.V., der neben der IMLS Schule ein wichtiger Kooperationspartner des Projekts ist und den Weiterbau der Schule auch weiterhin begleitet und auch finanziell unterstützt, nach wie vor aktiv in Masaka sein wird. Für den Bau der Pflanzenkläranlage konnten genügend Spenden eingeworben werden, um den Materialbedarf zu finanzieren. Für die Reisekosten unterstützte das Förderprogramm PROMOS des Deutschen Akademischen Austauschdienstes (DAAD).

Weitere Eindrücke finden Sie auf dem Instagram-Kanal des Projekts:
@oth_uganda_everydropcounts

Verlinkungen:
https://fmk-uganda.de

(nach oben)


„Umweltfolgen der Digitalisierung künftig stärker berücksichtigen“

Erwartung von 87 Prozent der Deutschen – forsa-Umfrage
Osnabrück. Nahezu alle Lebensbereiche sind von intensiver Digitalisierung betroffen. Zugleich prägt Nachhaltigkeit die Debatte über den Erhalt eines lebenswerten Planeten. Die Deutsche Bundesstiftung Umwelt (DBU) hat die beiden Treiber der Transformation genauer unter die Lupe genommen und das forsa-Meinungsforschungsinstitut mit einer repräsentativen Erhebung zu diesen zwei Schlüsselfaktoren beim Wandel von Wirtschaft, Wissenschaft, Gesellschaft und Politik beauftragt. Eine Erkenntnis: Die große Mehrheit der Deutschen – insgesamt 87 Prozent – hält es für „wichtig“ oder „sehr wichtig“, dass Politik, Unternehmen und Gesellschaft künftig stärker mögliche Umweltfolgen der Digitalisierung berücksichtigen.

Fast alle Befragten verbinden mit Digitalisierung eine Veränderung der Arbeitswelt
„Ein Großteil der Bevölkerung hat ein Gespür dafür, worauf es ankommt, wenn wir diese doppelte Transformation aus digitalen Technologien sowie Klima- und Umweltschutz so bewältigen wollen, dass die Erde nicht vor die Hunde geht“, sagt DBU-Generalsekretär Alexander Bonde. „Die Digitalisierung entfaltet eine mächtige Wirkkraft und hat riesiges Potenzial für den Schutz von Luft, Boden und Wasser“, so Bonde. In jedem Fall verändere sie „fundamental, wie wir wohnen, arbeiten, produzieren, kommunizieren und konsumieren“. Das werde in Betrieben ebenso wie im Leben von Bürgerinnen und Bürgern zum grundlegenden Wandel von Produktionsprozessen, Konsumgewohnheiten und Infrastrukturen führen. Die aktuelle forsa-Umfrage stützt diese Einschätzung: Demnach verbinden fast alle Befragten – 97 Prozent – mit Digitalisierung eine Veränderung der Arbeitswelt. Und: Auch Kategorien wie Beschleunigung (87 Prozent), Globalisierung (86 Prozent) und Vereinfachung (80 Prozent) sind oder werden laut großer Mehrheit der Deutschen Folgen der Digitalisierung. Bonde: „Wir dürfen nicht den Fehler machen, künstliche Intelligenz, Virtual Reality, Big Data und all die anderen digitalen Technologien rein aus technischer oder wirtschaftlicher Sicht zu betrachten – ohne die Nachhaltigkeit zu beachten.“ Sonst bestehe die Gefahr, „dass die durch Digitalisierung generierten Umwelt-Vorteile wie Energieeinsparung, Effizienzsteigerungen und Ressourcenschonungen durch gravierende Rebound-Effekte letztlich in einer negativen Umweltbilanz enden und zunichte gemacht werden“.

DBU-Generalsekretär Bonde: Digitalisierung wird nur gemeinsam mit Nachhaltigkeit zum Wettbewerbsfaktor
Bonde nennt in diesem Zusammenhang etwa das Risiko zunehmenden Elektroschrotts wegen rasant steigender Zahl und häufigen Wechsels technischer Geräte. Auch durch Digitalisierung ausgelöste erheblich steigende Rechnerkapazitäten mit wiederum imposant wachsendem Energieverbrauch könnten eine Herausforderung bedeuten. Und ein erhöhter Treibhausgasausstoß drohe zum Beispiel dadurch, dass Online-Shopping zu vermehrten Waren-Rücksendungen und Transporten führe – oft mit der Folge, Retouren einfach zu vernichten und Ressourcen zu verschwenden. Der DBU-Generalsekretär: „Bei der Digitalisierung muss deshalb unbedingt Nachhaltigkeit mitgedacht werden. Nur gemeinsam wird beides zum Wettbewerbsfaktor und Geschäftsmodell – nicht nur für die Wirtschaft, sondern für eine Gesellschaft insgesamt.“

Rund zwei Drittel der Bevölkerung „stark“ oder „sehr stark“ an technischen Neuerungen interessiert
Die bundesweite Erhebung der „forsa Gesellschaft für Sozialforschung und statistische Analysen“ für den DBU-Umweltmonitor „Digitalisierung und Nachhaltigkeit“ wandte sich an mehr als 1000 Befragte ab 18 Jahren. Die ermittelten Ergebnisse können auf die Gesamtheit der erwachsenen Bevölkerung in Deutschland übertragen werden. Demnach sind aktuell rund zwei Drittel der Bevölkerung (64 Prozent) „stark“ oder „sehr stark“ an technischen Entwicklungen und Neuerungen interessiert. Bei der Frage nach der Erwartung an eine künftige Berücksichtigung möglicher Umweltfolgen der Digitalisierung differenziert forsa nicht nur zwischen Männern und Frauen – beide Geschlechter liegen in den Kategorien „wichtig“ und „sehr wichtig“ mit 85 Prozent (Männer) und 89 Prozent fast gleichauf –, sondern auch zwischen Parteien. Ergebnis: In den Kategorien „wichtig“ und „sehr wichtig“ liegen Anhänger von SPD (96 Prozent), Grünen (95 Prozent) und BSW (93 Prozent) weit vorn; es folgen die Anhänger von CDU (87 Prozent), FDP (78 Prozent) sowie AfD (63 Prozent).

Mögliche positive und negative Umweltfolgen der Digitalisierung
Mehr als zwei Drittel der Befragten (77 Prozent) sehen Hersteller und Anbieter in der Verantwortung, bei neuen Produkten und Entwicklungen Umweltfolgen genügend in die Planungen mit einzubeziehen. Lediglich 18 Prozent verorten diese Pflicht bei Verbraucherinnen und Verbrauchern. Gefragt nach Einschätzungen zu positiven Umweltfolgen durch Digitalisierung ergibt sich folgendes Bild: Große bis sehr große Auswirkungen für die Umwelt erwarten 74 Prozent der Befragten durch umweltfreundliche Technologien, die Energie einsparen. Immerhin noch 70 Prozent der Bevölkerung sehen in der Digitalisierung die Chance, zunehmend auf bestimmte Materialien wie Papier zu verzichten. Auch Mobilität spielt eine Rolle: 57 Prozent unter den Befragten gehen davon aus, dass Digitalisierung das Verkehrsaufkommen minimiert – etwa durch Carsharing und weniger Geschäftsreisen wegen Videokonferenzen oder Heimarbeit. Aber auch mögliche negative Umweltfolgen als Folge der Digitalisierung werden genannt. Ganz vorne: 80 Prozent der Befragten befürchten eine Zunahme von Elektromüll durch mehr elektronische Geräte wie Tablets und Smartphones. 72 Prozent betrachten den höheren Materialverbrauch für die Herstellung elektronischer Geräte als „große“ bis „sehr große“ Auswirkung. Fast zwei Drittel (60 Prozent) weisen auf den drohenden höheren Energieverbrauch sowie (59 Prozent) auf die mögliche höhere Luftverschmutzung durch mehr Lieferverkehr etwa infolge des Online-Shoppings hin.

Bemerkenswerte Erkenntnisse der forsa-Erhebung zu Digitalisierung und Nachhaltigkeit
Bemerkenswert sind gleichwohl folgende forsa-Erkenntnisse: lediglich 38 Prozent der Befragten assoziieren Digitalisierung mit Umweltschutz, 53 Prozent nicht. Und: Nur eine Minderheit der Befragten (36 Prozent) befürchtet sehr große Auswirkungen der Digitalisierung auf die Umwelt. Fast zwei Drittel (63 Prozent) entscheiden beim Kauf von Hardware allein nach dem Preis-Nutzen-Verhältnis – und lediglich 34 Prozent aufgrund von Nachhaltigkeitskriterien.

Weitere Informationen:
https://www.dbu.de/news/umweltfolgen-der-digitalisierung-kuenftig-staerker-berue… Online-Pressemitteilung

(nach oben)


Long COVID: Ansammlung des SARS-CoV-2-Spike-Proteins mit dauerhaften Auswirkungen auf das Gehirn verbunden

Forschende von Helmholtz Munich und der Ludwig-Maximilians-Universität (LMU) haben einen Mechanismus identifiziert, der möglicherweise die neurologischen Symptome von Long COVID erklärt.

Die Studie zeigt, dass das SARS-CoV-2-Spike-Protein in den schützenden Schichten des Gehirns, den Hirnhäuten, und im Knochenmark des Schädels bis zu vier Jahre nach der Infektion verbleibt. Diese dauerhafte Präsenz des Spike-Proteins könnte bei den Betroffenen chronische Entzündungen auslösen und das Risiko für neurodegenerative Erkrankungen erhöhen. Das Team unter Leitung von Prof. Ali Ertürk, Direktor des Instituts für Intelligente Biotechnologien bei Helmholtz Munich, stellte zudem fest, dass mRNA-COVID-19-Impfstoffe die Anreicherung des Spike-Proteins im Gehirn deutlich reduzieren. Das nach einer Infektion verbleibende Spike-Protein in Schädel und Hirnhäuten stellt ein neues therapeutisches Ziel dar.

Spike-Protein sammelt sich im Gehirn an
Eine neuartige KI-gestützte Bildgebungstechnik, entwickelt von Prof. Ali Ertürks Team, liefert neue Einblicke, wie das SARS-CoV-2-Spike-Protein das Gehirn beeinflusst. Die Methode macht Organe und Gewebeproben transparent, wodurch die dreidimensionale Visualisierung von Zellstrukturen, Stoffwechselprodukten und in diesem Fall viralen Proteinen möglich wird. Durch diese Technologie konnten die Forschenden eine bisher nicht feststellbare Ablagerung des Spike-Proteins in Gewebeproben von Menschen mit COVID-19 und Mäusen aufdecken.

Die im Fachjournal Cell Host & Microbe erschienene Studie zeigte signifikant erhöhte Konzentrationen des Spike-Proteins im Knochenmark des Schädels und in den Hirnhäuten, selbst Jahre nach der Infektion. Das Spike-Protein bindet an sogenannte ACE2-Rezeptoren, die in diesen Regionen besonders häufig vorkommen. „Das könnte diese Gewebe besonders anfällig für die langfristige Ansammlung des Spike-Proteins machen“, erklärt Dr. Zhouyi Rong, Erstautor der Publikation. Ertürk ergänzt: „Unsere Daten deuten auch darauf hin, dass das persistierende Spike-Protein an den Grenzen des Gehirns zu den langfristigen neurologischen Effekten von COVID-19 und Long COVID beitragen könnte. Dazu gehört auch eine beschleunigten Gehirnalterung, die für Betroffene den Verlust von fünf bis zehn Jahren gesunder Gehirnfunktion bedeuten könnte.“

Impfungen reduzieren Spike-Protein-Anreicherung und Entzündungen im Gehirn
Das Team um Ertürk entdeckte, dass der mRNA-COVID-19-Impfstoff von BioNTech/Pfizer die Anreicherung des Spike-Proteins im Gehirn signifikant reduzieren. Andere mRNA-Impfstoffe oder Impfstofftypen wie Vektor- oder proteinbasierte Impfstoffe wurden nicht untersucht. Mit dem mRNA-Impfstoff geimpfte Mäuse zeigten niedrigere Spike-Protein-Werte sowohl im Gehirngewebe als auch im Knochenmark des Schädels im Vergleich zu ungeimpften Mäusen. Die Reduktion betrug jedoch nur etwa 50 %, sodass ein Rest des Spike-Proteins weiterhin ein toxisches Risiko für das Gehirn darstellt. „Diese Reduktion ist ein wichtiger Schritt“, sagt Prof. Ertürk: „Unsere Ergebnisse sind zwar aus Mausmodellen abgeleitet und können nur eingeschränkt auf den Menschen übertragen werden, aber sie weisen auf die Notwendigkeit zusätzlicher Therapien und Interventionen hin, um langfristige Belastungen durch SARS-CoV-2-Infektionen vollständig zu bewältigen.“ Zudem seien weitere Studien notwendig, um die Relevanz der Ergebnisse für Patient:innen mit Long-COVID zu untersuchen.

Long COVID: Eine gesellschaftliche und medizinische Herausforderung
Weltweit haben sich 50 bis 60 Prozent der Bevölkerung mit COVID-19 infiziert. Davon leiden fünf bis zehn Prozent unter Long COVID. Das entspricht etwa 400 Millionen Menschen, die möglicherweise signifikante Mengen an Spike-Proteinen in sich tragen. „Das ist nicht nur ein individuelles Gesundheitsproblem – es ist eine gesellschaftliche Herausforderung“, sagt Prof. Ertürk: „Unsere Studie zeigt, dass mRNA-Impfstoffe das Risiko langfristiger neurologischer Folgen erheblich senken können und somit einen entscheidenden Schutz bieten. Aber auch nach Impfungen kommt es zu Infektionen, die zu persistierenden Spike-Proteinen im Körper führen können. Die Folge können chronische Gehirnentzündungen und ein erhöhtes Risiko für Schlaganfälle und andere Hirnschäden sein – die dann erhebliche Auswirkungen auf die öffentliche Gesundheit und die Gesundheitssysteme weltweit haben.“

Fortschritte in Diagnostik und Therapie
„Unsere Ergebnisse eröffnen neue Möglichkeiten zur Diagnose und Behandlung der langfristigen neurologischen Effekte von COVID-19“, sagt Ertürk. Im Gegensatz zu Gehirngewebe sind das Knochenmark des Schädels und die Hirnhäute für medizinische Untersuchungen leichter zugänglich. Kombiniert mit Protein-Panels – Tests zum Nachweis spezifischer Proteine in Gewebeproben – könnte dies ermöglichen, Spike-Proteine oder Entzündungsmarker im Blut oder der Gehirnflüssigkeit zu identifizieren. „Solche Marker sind für eine frühzeitige Diagnose von COVID-19-bedingten neurologischen Komplikationen wichtig“, so Ertürk: „Darüber hinaus könnte die Charakterisierung dieser Proteine die Entwicklung gezielter Therapien und Biomarker unterstützen, um neurologische Beeinträchtigungen durch COVID-19 besser zu behandeln oder sogar zu verhindern.“

Prof. Ulrike Protzer, leitende Virologin bei Helmholtz Munich und an der Technischen Universität München, betont die weitreichende Bedeutung der Studie: „Angesichts der anhaltenden globalen Auswirkungen von COVID-19 und des zunehmenden Interesses an Langzeitfolgen ist diese Studie, die neue Erkenntnisse über Invasionswege ins Gehirn und unerwartete langfristige Wechselwirkungen mit dem Wirt liefert, besonders relevant. Diese Ergebnisse sind nicht nur wissenschaftlich wegweisend, sondern auch von großer gesellschaftlicher Bedeutung.“

Über die Forschenden
Prof. Ali Ertürk ist Direktor des Instituts für Intelligente Biotechnologien bei Helmholtz Munich und Professor an der Ludwig-Maximilians-Universität München (LMU). Er ist Mitglied des Münchner Clusters für Systemische Neurologie (SyNergy).
Dr. Zhouyi Rong ist Wissenschaftler am Institut für Intelligente Biotechnologien bei Helmholtz Munich und an der LMU.
Prof. Ulrike Protzer ist Direktorin des Instituts für Virologie bei Helmhotz Munich und an der Technischen Universität München (TUM).

Über Helmholtz Munich
Helmholtz Munich ist ein biomedizinisches Spitzenforschungszentrum. Seine Mission ist, bahnbrechende Lösungen für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Interdisziplinäre Forschungsteams fokussieren sich auf umweltbedingte Krankheiten, insbesondere die Therapie und die Prävention von Diabetes, Adipositas, Allergien und chronischen Lungenerkrankungen. Mittels künstlicher Intelligenz und Bioengineering transferieren die Forschenden ihre Erkenntnisse schneller zu den Patient:innen. Helmholtz Munich zählt rund 2.500 Mitarbeitende und hat seinen Sitz in München/Neuherberg. Es ist Mitglied der Helmholtz-Gemeinschaft, mit mehr als 43.000 Mitarbeitenden und 18 Forschungszentren die größte Wissenschaftsorganisation in Deutschland. Mehr über Helmholtz Munich (Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH): www.helmholtz-munich.de

Wissenschaftliche Ansprechpartner:
Prof. Ali Ertürk
E-Mail: ali.erturk@helmholtz-munich.de

Originalpublikation:
Rong, Mai, Ebert, Kapoor et al., 2024: Persistence of spike protein at the skull-meninges-brain axis may contribute to the neurological sequelae of COVID-19. Cell Host & Microbe. DOI: 10.1016/j.chom.2024.11.007.
https://www.cell.com/cell-host-microbe/fulltext/S1931-3128(24)00438-4

(nach oben)


Visionen für Deutschlands Krankenversorgung

Medizinerinnen und Mediziner aus Dresden engagieren sich bundesweit in wegweisenden Institutionen. | Zuletzt übernahm Prof. Reinhard Berner den Vorsitz der Ständischen Impfkommission STIKO. | Hochschulmedizin bringt Visionen und Lösungen für die Krankenversorgung der Zukunft ein.

Die Hochschulmedizin Dresden prägt maßgeblich die Entwicklung der Krankenversorgung der Zukunft in Sachsen und darüber hinaus. Vielfältig haben Medizinerinnen und Mediziner ihre Expertise eingebracht und sind zudem Mitglieder in wichtigen Gremien und Institutionen. Erst im Oktober hat Prof. Reinhard Berner, Direktor der Klinik und Poliklinik für Kinder- und Jugendmedizin am Universitätsklinikum Carl Gustav Carus Dresden, den Vorsitz der Ständigen Impfkommission STIKO übernommen. Mit Prof. Jochen Schmitt gehört seit 2023 ein Vertreter der Hochschulmedizin Dresden zum Sachverständigenrat für Gesundheit und Pflege des Bundesgesundheitsministeriums. „Wir sind sehr stolz darauf, mit unserer Expertise, unseren Ideen und Visionen die Politik zu beraten und damit Verantwortung für die Gesellschaft zu übernehmen“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Universitätsklinikums Dresden. Er selbst setzt sich für ein langfristig tragfähiges Konzept für die Krankenversorgung in Ostsachsen ein, das auf der Basis von partnerschaftlichen Kooperationen und einem starken Netzwerk beruht.

Wie sieht die Krankenversorgung der Zukunft aus? Wie kann gewährleistet werden, dass die Menschen unabhängig von ihrem Wohnort auf dem Land oder in der Stadt gleichwertigen Zugang zu moderner Medizin und Therapien der Zukunft haben? Ideen und Visionen zu diesen Fragen kommen aus der Hochschulmedizin Dresden. Was sich in der Corona-Pandemie bewährt hat, ist inzwischen Blaupause für die Region Ostsachsen. Kooperationen und enger, partnerschaftlicher Austausch sowie die gemeinsame Versorgung von Patientinnen und Patienten stehen im Zentrum der visionären Überlegungen für eine tragfähige Krankenversorgung. Vielfältig wird dieses Konzept bereits umgesetzt. Medizinerinnen und Mediziner aus dem Uniklinikum arbeiten beispielsweise im „Kinder Tele-Intensivnetzwerk Sachsen“ mit Kolleginnen und Kollegen in ganz Sachsen zusammen. Ziel ist eine flächendeckende, sektorenübergreifende Optimierung der notfall- und intensivmedizinischen Versorgung kritisch kranker Kinder sowie Jugendlicher. Eine weitere Kooperation besteht mit Kliniken in Radeburg und Beelitz-Heilstätten in der Behandlung von geriatrischen Patientinnen und Patienten. Im Ostdeutschen Lungenzentrum arbeiten Medizinerinnen und Mediziner aus Coswig und dem Uniklinikum zusammen. Die Viszeral-, Thorax- und Gefäßchirurgie kooperiert mit der Asklepios Klinik Radeberg: Die aufwendigen Operationen finden dabei in Dresden statt, die Nachsorge in Radeberg. Die telemedizinische Infrastruktur sowie die Expertise im Umgang damit sind jeweils Basis dafür. „Alle diese Beispiele zeigen, dass sich die Hochschulmedizin Dresden einbringt und Verantwortung übernimmt. Kooperationen und ein starkes Netzwerk sind unser Schlüssel dafür. So können wir auch in Zukunft eine gute Krankenversorgung in Dresden und Ostsachsen garantieren“, sagt Prof. Michael Albrecht.

Neben diesem aktiven Einbringen ist es auch das Engagement vieler Medizinerinnen und Mediziner in Gremien und Institutionen mit deutschlandweiter Strahlkraft. Erst im Oktober hat Prof. Reinhard Berner, Direktor der Klinik und Poliklinik für Kinder- und Jugendmedizin am Universitätsklinikum Carl Gustav Carus Dresden, den Vorsitz der Ständigen Impfkommission STIKO übernommen. Zuvor war er bis 2023 Mitglied im Corona-ExpertInnenrat der Bundesregierung. Mit Prof. Jochen Schmitt gehört seit 2023 ein Vertreter der Hochschulmedizin Dresden zum Sachverständigenrat für Gesundheit und Pflege des Bundesgesundheitsministeriums. Ende vergangenen Jahres wurden Prof. Pauline Wimberger, Direktorin der Klinik für Frauenheilkunde und Geburtshilfe, sowie Prof. Triantafyllos Chavakis, Direktor des Instituts für klinische Chemie und Laboratoriumsmedizin am Universitätsklinikum Dresden, in die Leopoldina aufgenommen. „Wir sind sehr stolz auf alle unserer Medizinerinnen und Mediziner sowie die Forschenden der Hochschulmedizin Dresden. Die Beispiele zeigen, welche große Expertise und visionäre Denkleistung in Dresden vorhanden ist. Gern übernehmen wir auch damit Verantwortung – zum Wohl der Patientinnen und Patienten“, sagt Prof. Michael Albrecht.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Annechristin Bonß
Pressestelle
Tel.: +49 351 458 4162
E-Mail: pressestelle@uniklinikum-dresden.de

(nach oben)


Kunststoffe erfolgreich im Kreislauf führen: Fachforum zum Werkstofflichen Recycling, 26. und 27. März 2025 in Darmstadt

Das werkstoffliche Recycling von Kunststoffen steht vor vielfältigen Herausforderungen, die sowohl technischer als auch regulatorischer Natur sind. Immer mit dem Ziel, die Umweltauswirkungen bei der Kunststoffproduktion, -entsorgung und dem Recycling zu minimieren. Diese Herausforderungen erfordern innovative Ansätze und eine enge Zusammenarbeit zwischen Industrie, Forschung und Politik. Das siebte »Praxisforum Kunststoffrezyklate« am 26. und 27. März 2025 in Darmstadt adressiert diese Fragestellungen im Kontext des werkstofflichen Kunststoff-Recyclings und hat sich als Branchentreff mit hoher Praxisrelevanz etabliert. Das Programm der Tagung und die Online-Anmeldung sind nun verfügbar.

Internationaler Austausch in der Kunststoffbranche
Das Fraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit LBF lädt zum siebten »Praxisforum Kunststoffrezyklate« am 26. und 27. März 2025 nach Darmstadt ein. Die Fachtagung in englischer Sprache bietet den Teilnehmenden den Austausch im internationalen Kreis und bringt Kunststofferzeuger, -verarbeiter, sowie Recycler und Anwender zusammen.

Die Vorträge des Praxisforums fokussieren neben einer aktuellen Betrachtung der Regelwerke und der Marktsituation in Deutschland und Europa auch die Möglichkeiten der Qualitätsoptimierung von Kunststoffrezyklaten durch angepasste Sortierung und Additivierung sowohl für Thermoplaste als auch für Biopolymere. Im Kontext dieser Betrachtungen auf Materialebene werden auch Vorteile der Offline- und Online-Analytik zur Bewertung der Materialqualität und Prozessüberwachung diskutiert. Hier stehen insbesondere die Möglichkeiten datenbasierter Ansätze zur Material- und Prozessoptimierung auf Basis maschineller Lernalgorithmen bzw. künstlicher Intelligenz im Fokus.

Ohne entsprechende Anwendung kein Rezyklat-Einsatz!
Wie in den Vorjahren stehen verschiedene Anwendungen aus den Bereichen Verpackung, Entsorgung, Konsumgüter und Automotive sowie Ansätze und Herausforderungen für die Simulation von Kunststoffrezyklaten im Rahmen der Bauteilentwicklung im Vordergrund.

Neben den genannten fachlichen Inhalten ist die Veranstaltung durch die unterschiedlichen Blickwinkel auf das Thema mechanisches Recycling eine etablierte Plattform für den Austausch zwischen den Teilnehmenden und bietet ausgezeichnete Möglichkeiten für neue Netzwerke.

Neu in diesem Jahr ist die Möglichkeit, sich als Unternehmen durch Sponsoring sichtbar zu machen oder sich in einem kleinen Ausstellungsbereich zu präsentieren.

Veranstaltungsort für das siebte Praxisforum Kunststoffrezyklate ist das Welcome Hotel in Darmstadt. Das Hotel ist zentral gelegen, verfügt über eine Tiefgarage und kann gut mit öffentlichen Verkehrsmitteln erreicht werden.

Exklusives Zusatzformat: Fraunhofer #LBFDeepDive am 25. März 2025

Ein Tag voller Fachwissen und Diskussionen über die Alterung von Kunststoffen während ihres gesamten Lebenszyklus ist Fokus der eintägigen Veranstaltung #LBFDeepDive.

Die Teilnehmenden erfahren, wie sich Umwelteinflüsse auf die Materialeigenschaften auswirken und welche Herausforderungen sich daraus für das Kunststoffrecycling ergeben. Sie treffen Experten aus der Forschung des Fraunhofer LBF, tauschen Ideen aus, lernen innovative Lösungen zur Verbesserung der Recyclingfähigkeit und Materialqualität kennen und haben die Möglichkeit, ihre bestehenden Fragen zu diesem Thema gezielt mit verschiedenen Experten zu diskutieren.

Schnittstelle Wissenschaft und Wirtschaft
Das Fraunhofer LBF als anwendungsorientierte Forschungseinrichtung und neutraler Ansprechpartner bildet die Schnittstelle zwischen Wissenschaft und Wirtschaft und hat speziell im Themenumfeld Rezyklate eine führende Rolle in der Forschungslandschaft inne. Mit der Durchführung zahlreicher Technologietagungen und Industriearbeitskreise nimmt das Darmstädter Forschungsinstitut seit vielen Jahren einen festen Platz in der Kunststoffbranche ein und hat als erfahrener und etablierter Partner die Federführung der Veranstaltung 2022 von dem Hanser Verlag übernommen.

Wissenschaftliche Ansprechpartner:
Dr. Elke Metzsch-Zilligen, elke.metzsch-zilligen@lbf.fraunhofer.de Dr. Christian Beinert, christian.beinert@lbf.fraunhofer.de

Weitere Informationen:
https://www.kunststoffrezyklate.de/de/programm-2025.html?utm_source=pi-FPR-progr… Programm der Konferenz
https://www.kunststoffrezyklate.de/de/sponsoringmoeglichkeiten-2025.html Möglichkeiten der Unterstptzung

(nach oben)


Neue Studie zum Reifen- und Bremsabrieb: Hamburger Stadtluft erheblich mit Mikroplastik belastet

Feinstaub und Mikroplastik sind viel diskutierte Risiken für Umwelt und Gesundheit. Nun hat eine neue Studie des Centrums für Erdsystemforschung und Nachhaltigkeit an der Universität Hamburg und des Helmholtz-Zentrums Hereon erstmals die Rolle des Reifen- und Bremsabriebs bei der Entstehung des städtischen Feinstaubs untersucht. Ergebnis: Allein dieser Abrieb verursacht 12 Prozent des Feinstaubs in Hamburg – und ist die größte Quelle für Mikroplastik in der Umwelt.
Wer an einer vielbefahrenen Straße wohnt oder entlangläuft, atmet einen erheblichen Anteil Mikroplastik ein. „In Hamburg bestehen an den Hauptstraßen durchschnittlich 12 Prozent des Feinstaubs aus Reifen- und Bremsabrieb, das meiste davon ist Mikroplastik“, erklärt Mailin Samland, Erstautorin der Studie und Meteorologie-Doktorandin am Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) an der Universität Hamburg. Vor allem durch abruptes Bremsen und Beschleunigen gelangt das Mikroplastik in die Luft – und damit auch in die Atemwege. Vorausschauendes Fahren reduziert den Abrieb hingegen. Die Ergebnisse veröffentlichte Samland jetzt im Team mit dem Helmholtz-Zentrum Hereon im Fachmagazin Atmospheric Environment: X.
Dass Mikroplastik und Feinstaub der Gesundheit schaden, ist bekannt. Doch bisher konzentrieren sich die Diskussionen auf Emissionen aus dem Auspuff – der Reifenabrieb wurde nicht beachtet. Dabei führen dichter Verkehr und eng bebaute Straßen in Hamburg zu hohen Werten, insbesondere an viel befahrenen Straßen wie zum Beispiel der Max-Brauer-Allee oder der Stresemannstraße in Hamburg-Altona. Dies zeigt die Studie ebenso wie eine deutlich geringere Belastung in Nebenstraßen.
Die Feinstaubkonzentration wird im Stadtgebiet bisher nur punktuell erfasst. Die Forschenden konnten die Lücken mit Hilfe eines digitalen Luftqualitätsmodells schließen. Das Rechenmodell berücksichtigt lokale Emissionen ebenso wie Einträge aus dem Umland und simuliert, wie sich Schadstoffe in der Stadt verteilen. Dabei greift es auch auf Wetterdaten zurück und kalkuliert den Mix verschiedener Fahrzeugtypen ein.
„So können wir für das gesamte Stadtgebiet sagen, wo sich der Feinstaub und damit das Mikroplastik in der Luft konzentriert“, erklärt Umweltwissenschaftler Dr. Ronny Badeke vom Hereon, der an der Studie mitgearbeitet hat. „Die Ergebnisse lassen sich auf andere Großstädte übertragen. Dort schweben ähnlich viele Plastikpartikel in der Luft.“
Vor Kurzem wurden niedrigere EU-Feinstaubgrenzwerte beschlossen. Demnach muss die Luft in Städten deutlich sauberer werden. „Für eine gesunde Luft werden wohl selbst diese strengeren Werte nicht ausreichen“, sagt Mailin Samland vom CEN. Ein Fünftel dieses Grenzwerts werde allein durch das Mikroplastik erreicht, hinzu kommen Verkehrsabgase und andere Quellen.

Originalpublikation:
Fachartikel: Mailin Samland, Ronny Badeke, David Grawe, Volker Matthias (2024): Variability of aerosol particle concentrations from tyre and brake wear emissions in an urban area. Atmospheric Environment X, DOI: 10.1016/j.aeaoa.2024.100304.

Weitere Informationen:
https://www.uni-hamburg.de/newsroom/presse.html

(nach oben)


Kristalle mit Spinantrieb: Ein Durchbruch in der sauberen Wasserstoffproduktion

Wissenschaftler am MPI CPfS und dem Weizmann-Institut haben einen aufregenden neuen Ansatz zur Erzeugung sauberer Wasserstoffenergie entdeckt, bei dem eine bemerkenswerte Klasse von Kristallen verwendet wird, die die Quanteneigenschaften von Elektronen nutzen.
Die Wasserspaltung – die Aufspaltung von Wassermolekülen in Wasserstoff und Sauerstoff – ist ein vielversprechender Weg zu nachhaltiger Energie. Dieser Prozess wurde jedoch lange Zeit durch die langsame chemische Kinetik der Sauerstoffentwicklungsreaktion in Frage gestellt, die die Wasserstoffproduktion ineffizient und kostspielig macht.
Ein internationales Forschungsteam hat nun eine bahnbrechende Lösung gefunden. Durch die Verwendung spezieller Kristalle mit einzigartigen intrinsischen „chiralen“ Strukturen – d. h. sie haben eine charakteristische links- oder rechtshändige Atomanordnung – haben die Forscher den Prozess der Wasserspaltung erheblich verbessert.
Die topologischen chiralen Kristalle, die aus Rhodium und Elementen wie Silizium, Zinn und Wismut bestehen, besitzen eine außergewöhnliche Fähigkeit, den Elektronenspin zu manipulieren. Diese quantenmechanische Eigenschaft ermöglicht einen hocheffizienten Elektronentransfer zur Sauerstofferzeugung, wodurch die chemische Gesamtreaktion erheblich beschleunigt wird.
„Diese Kristalle sind im Grunde Quantenmaschinen“, sagt Dr. Xia Wang, leitende Forscherin am Max-Planck-Institut für Chemische Physik fester Stoffe. “Durch die Nutzung der einzigartigen Spineigenschaften von Elektronen haben wir einen Katalysator geschaffen, der herkömmliche Materialien um das 200-fache übertrifft.“ Prof. Binghai Yan (Weizmann Institute of Science) fügt hinzu: „Uns ist bewusst, dass unsere Katalysatoren immer noch seltene Elemente enthalten, aber wir sind zuversichtlich, dass wir auf der Grundlage unseres Entwurfsplans bald hocheffiziente und auch nachhaltige Katalysatoren entwickeln werden.“
Dieser Durchbruch ist nicht nur eine wissenschaftliche Kuriosität – er stellt einen potenziellen Sprung nach vorne in der Technologie für erneuerbare Energien dar. Der neue Katalysator könnte die Wasserstoffproduktion schneller, effizienter und wirtschaftlicher machen und uns einer sauberen Energiezukunft näher bringen.
Die von Wissenschaftlern des Max-Planck-Instituts CPfS und des Weizmann Institute of Science durchgeführte Forschung zeigt, wie modernste Quantenphysik reale Energieprobleme lösen kann.

Wissenschaftliche Ansprechpartner:
Xia.Wang@cpfs.mpg.de

Originalpublikation:
https://dx.doi.org/10.1038/s41560-024-01674-9

Weitere Informationen:
https://www.cpfs.mpg.de/3695486/20241125

(nach oben)


SpongeWorks: Expertenteam plant Schwammlandschaften für Klimaresilienz und Biodiversität

EU-Projekt soll unter Koordination der Leibniz Universität Hannover Wasserrückhaltung auf Landschaftsebene verbessern und Hochwasser vorbeugen

Extreme Wetterereignisse nehmen zu: Seit 1980 haben Überschwemmungen in Europa über 4.300 Todesfälle und wirtschaftliche Schäden in Höhe von mehr als 170 Milliarden Euro verursacht. Die Auswirkungen von Überschwemmungen und Dürren hängen von der Gesundheit der europäischen Landschaften und ihrer natürlichen Fähigkeit ab, Wasser zu halten, ähnlich wie ein Schwamm. Naturbasierte Lösungen, die die „Schwamm“-Funktion von Landschaften verbessern, entwickeln sich zunehmend zu einem nachhaltigen Ansatz, um die Resilienz und Wasserrückhaltekapazität von Landschaften zu erhöhen.

An diesem Punkt setzt ein neues, mit 15 Millionen Euro von der Europäischen Union gefördertes Projekt an. „SpongeWorks: Co-creating and upscaling Sponge Landscapes by Working with Natural Water Retention and Sustainable Management“ ist im September 2024 gestartet und wird von der Leibniz Universität Hannover (LUH) koordiniert. Der Projektleiter, Prof. Dr. Christian Albert vom Institut für Umweltplanung an der LUH, erklärt: „SpongeWorks zielt darauf ab, „Schwammlandschaften” so zu planen und „Schwammmaßnahmen” so umzusetzen, dass der Wasserrückhalt und die Wasserqualität verbessert, die Resilienz gegenüber Dürre und Überschwemmungen erhöht und die Biodiversität auf Landschaftsebene geschützt und entwickelt werden.“ Das Projekt wird verschiedene „Schwammmaßnahmen” umsetzen: von landwirtschaftlichen Praktiken wie der Anlage von Hecken, Pufferzonen und Versickerungsteichen bis hin zur Renaturierung von Flüssen und Mooren sowie der Wiedervernässung von Wäldern und Grünland. Diese Maßnahmen werden auf ihre Fähigkeit hin untersucht, die Bodengesundheit zu verbessern, Erosion zu verhindern und Grundwasserspeicher wieder aufzufüllen.

Dr. Ellis Penning von Deltares, Ko-Koordinatorin des Projekts, erläutert: „Indem wir die Wirksamkeit dieser Maßnahmen in einem breiteren Landschaftskontext in drei SpongeWorks-Demonstratoren aufzeigen, wollen wir andere europäische Regionen inspirieren und in die Lage versetzen, ebenfalls naturbasierte Maßnahmen zur Verbesserung der Klimaresilienz umzusetzen.“

SpongeWorks wird 19 unterschiedliche Schwammmaßnahmen umsetzen, die 4.000 Hektar Land, 47 Kilometer Flussstrecke und 22 Kilometer Hecken abdecken und mehr als 800 landwirtschaftliche Flächen einbeziehen. Die Projektpartner werden eng mit lokalen Entscheidungsträgern, Experten und Praktikern zusammenarbeiten, um die technischen, sozioökonomischen und finanziellen Aspekte dieser Maßnahmen gemeinsam zu bewerten. Durch ein einheitliches und systematisches Monitoring wird SpongeWorks die Wirksamkeit und Nachhaltigkeit dieser Maßnahmen demonstrieren.

In Deutschland sind die Umsetzung und Erforschung von Schwammmaßnahmen im grenzüberschreitenden deutsch-niederländischen Demonstrationsvorhaben des Vechte-Einzugsgebiets geplant. Hier sollen unter anderem Maßnahmen wie die Wiedervernässung von Waldgebieten sowie die Renaturierung von Flussabschnitten im Laarer Flussgebiet durchgeführt werden. Zusätzlich werden wassersensible landwirtschaftliche Praktiken umgesetzt, um die Wasserrückhaltekapazität im Boden zu steigern.

Zu den insgesamt 28 Konsortialpartnern gehören neben der LUH mit dem Institut für Umweltplanung als Koordinatorin und dem niederländischen Institut Deltares als Ko-Koordinatorin unter anderem die Universität Twente (Niederlande), das Internationale Institut für angewandte Systemanalyse (IASA) (Österreich), das UK Centre for Ecology & Hydrology (UKCEH) (Großbritianien) und das Office International de l’Eau (OiEau) (Frankreich). Das Projekt läuft von September 2024 bis August 2028. Es wird gemeinsam gefördert aus den EU-Horizon-Europe-Förderlinien Mission „Adaptation to Climate Change“, Mission “Restore our ocean and waters by 2030” und Mission „A Soil Deal for Europe“.

Das Auftakttreffen des SpongeWorks-Projektes findet vom 24. bis 26. September 2024 am Institut für Umweltplanung der Leibniz Universität Hannover statt. Weitere Details und eine Übersicht aller Partner sind auf der Projektwebsite verfügbar: https://spongeworks.eu/.

Hinweis an die Redaktion:
Für weitere Informationen stehen Ihnen Prof. Dr. Christian Albert und Maike Gebker, Institut für Umweltplanung an der Leibniz Universität Hannover, per Telefon unter Telefon +49 511 762 2697 oder per E-Mail unter gebker@umwelt.uni-hannover.de gern zur Verfügung.

(nach oben)


Naturnaher Küstenschutz bei steigendem Meeresspiegel

Das Deichvorland mit seinen Salzwiesen spielt eine zentrale Rolle im vorbeugenden Küstenschutz an der Nordsee. Mit dem klimabedingten Anstieg des Meeresspiegels kann das Vorland jedoch nicht überall schnell genug mitwachsen. Lahnungsfelder können hier unterstützen. Die Wirkungsweise und Optimierung dieser Bauwerke untersuchen Wissenschaftlerinnen der TU Braunschweig gemeinsam mit Partnern. Ziel ist es, Küstenschutzbehörden und Planerinnen Computermodelle an die Hand zu geben, mit denen sie die Auswirkungen von Bauwerksveränderungen und Meeresspiegelanstieg auf die Sedimentablagerung und damit auf die Verschlickung von Lahnungsfeldern besser vorhersagen können.

Der Klimawandel beschleunigt die Erosion der Küste. Insbesondere Ökosysteme im Deichvorland wie Salzwiesen sind dadurch zunehmend bedroht. Salzwiesen dienen als natürliches Küstenschutzelement, weisen eine hohe Biodiversität und Lebensraumvielfalt auf und wirken zudem als Kohlenstoffsenke zur Speicherung von klimarelevanten Kohlenstoffen. Das Deichvorland hat in der Vergangenheit immer wieder gezeigt, zu einem gewissen Grad mit dem steigenden Meeresspiegel mitwachsen zu können. An manchen Küstenabschnitten geschieht dies jedoch nicht schnell genug. Hier können Lahnungsfelder eingesetzt werden.

Lahnungsfelder als „Sedimentfalle“
Lahnungsfelder sind heute seeseitig des Deiches zumeist rechteckige Felder, die aus einer Kombination von Holzpfählen und Buschpackungen, sogenannten Faschinen, bestehen. Sie dienen als „Sedimentfalle“ und verstärken die lokale Ablagerungsrate von im Wasser schwebenden Sedimenten. Schon vor mehreren Jahrhunderten wurden solche Felder angelegt, um über mehrere Jahrzehnte hinweg Meer in Land zu verwandeln. Die Landgewinnung hat in der Vergangenheit weite Teile der norddeutschen Küste geprägt.

Heute ist diese Landgewinnung im Weltnaturerbe Wattenmeer jedoch kein Ziel mehr. Die Lahnungsfelder werden jetzt ausschließlich als naturnahes Küstenschutzelement erhalten. „Als Anpassungsmaßnahme an den steigenden Meeresspiegel bieten Lahnungsfelder das Potenzial, Salzwiesen weiter zu sichern und hiermit die Belastung auf Deiche zu verringern“, sagt Felix Spröer, Projekt-Mitarbeiter am Leichtweiß-Institut für Wasserbau der TU Braunschweig.

Bau und Erhalt der Lahnungsfelder basieren überwiegend auf jahrhundertelang überliefertem Wissen und wenigen vorhandenen Forschungsberichten. Die wissenschaftlich begleitete Analyse von Lahnungsfeldern hat daher das Ziel, die Wirkungsweise dieses Küstenschutzelements besser zu verstehen und weiter zu verbessern.

Messkampagne im Watt
Zusammen mit dem Ludwig-Franzius-Institut für Wasserbau und Ästuar- und Küsteningenieurwesen der Leibniz Universität Hannover (LUFI), dem Landesbetrieb für Küstenschutz, Nationalpark und Meeresschutz Schleswig-Holstein (LKN.SH) und dem Niedersächsischen Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) haben die Wissenschaftler*innen der TU Braunschweig bereits erste Messungen vor Ort durchgeführt.

Während das LUFI in einem Lahnungsfeld auf der nordfriesischen Insel Pellworm und an der Küste bei Hilgenriedersiel periodisch Messungen vorgenommen hat, errichtete die Abteilung Hydromechanik, Küsteningenieurwesen und Seebau des LWI eine dauerhafte Messeinheit zusammen mit dem LKN.SH im Watt. Der Messturm misst berührungslos dauerhaft die Wellenbewegung und -richtung, wird im Sinne des Naturschutzes über eine Brennstoffzelle mit Strom versorgt und liefert über das Mobilfunknetz Daten in Echtzeit direkt in die Büros der Wissenschaftler*innen nach Braunschweig. „So können vor allem auch Sturmflutereignisse sicher vermessen werden“, erklärt Felix Spröer. Aus den gesammelten Messdaten erhoffen sich die Forschenden Erkenntnisse über die hydraulisch-morphologischen Wechselwirkungen zwischen Lahnungsfeldern und Deichvorland.

Versuche am Leichtweiß-Institut für Wasserbau
Zusätzlich zu den Feldmessungen finden Experimente in den Wellenkanälen in Braunschweig und Hannover statt, um die detaillierte Interaktion von Wellen und Strömungen mit Lahnungen und auch Lahnungsfeldern zu untersuchen. In der Natur überlagern sich komplexe Prozesse – wie Strömung, Wellen, Wind, lokale Boden- und Sedimentbeschaffenheit und menschliche Einflüsse –, was eine Detailanalyse im Labor erleichtert.

Aus den Erkenntnissen aus Feldforschung und Laborversuchen wollen die Wissenschaftler*innen schließlich Variationen des Aufbaus von Lahnungsfeldern in detaillierten Computermodellen evaluieren. Diese sollen die Interaktion von Lahnungen, Strömung und Wellen, Sediment und lokaler Vegetation für verschiedene Varianten abbilden. Auf diese Weise wollen die Forschenden Verbesserungsmöglichkeiten für die Lahnungsfelder herausarbeiten, die dann in Reallaboren weiter getestet werden können. Die Forschungsergebnisse können ein weiteres Element für einen naturnahen, nachhaltigen Küstenschutz zur Anpassung an den Klimawandel sein.

Projektdaten
Das Forschungsprojekt VeMoLahn wird vom Bundesministerium für Bildung und Forschung (BMBF) von November 2022 bis Oktober 2025 mit rund 315.700 Euro gefördert (Förder-Kennzeichen: 03F0929A). „VeMoLahn“ steht für Interaktion von Vegetation und Morphodynamik in Lahnungsfeldern. Neben der Abteilung Hydromechanik, Küsteningenieurwesen und Seebau des Leichtweiß-Instituts für Wasserbau, sind das Ludwig-Franzius-Institut für Wasserbau und Ästuar- und Küsteningenieurwesen der Leibniz Universität Hannover, der Landesbetrieb für Küstenschutz, Nationalpark und Meeresschutz Schleswig-Holstein und der Niedersächsische Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz beteiligt.

Wissenschaftliche Ansprechpartner:
Felix Spröer
Technische Universität Braunschweig
Leichtweiß-Institut für Wasserbau
Abteilung Hydromechanik, Küsteningenieurwesen und Seebau
Beethovenstraße 51a
38106 Braunschweig
Tel.: 0531 391-3966
E-Mail: felix.sproeer@tu-braunschweig.de
www.tu-braunschweig.de/lwi/hyku

Dr.-Ing. Oliver Lojek
Technische Universität Braunschweig
Leichtweiß-Institut für Wasserbau
Abteilung Hydromechanik, Küsteningenieurwesen und Seebau
Beethovenstraße 51a
38106 Braunschweig
Tel.: 0531 391-7923
E-Mail: o.lojek@tu-braunschweig.de
www.tu-braunschweig.de/lwi/hyku

Prof. Dr.-Ing. Nils Goseberg
Technische Universität Braunschweig
Leichtweiß-Institut für Wasserbau
Abteilung Hydromechanik, Küsteningenieurwesen und Seebau
Beethovenstraße 51a
38106 Braunschweig
Tel.: 0531 391-3930
E-Mail: n.goseberg@tu-braunschweig.de
www.tu-braunschweig.de/lwi/hyku

(nach oben)


Immer mehr junge Menschen im Handwerk bleiben ihrem Ausbildungsberuf treu

Für viele Betriebe spielt die Ausbildung eine zentrale Rolle, um den künftigen Bedarf an Fachkräften zu decken. Eine am Dienstag veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung zeigt, dass Absolvent*innen einer Ausbildung im Handwerk aus der Kohorte 2020 häufiger und länger in ihrem Ausbildungsbetrieb und -beruf verbleiben als dies bei früheren Kohorten der Fall war.

Die Chancen auf ein Beschäftigungsverhältnis beim Ausbildungsbetrieb haben sich für Absolventinnen einer dualen Berufsausbildung im Handwerk im Zeitverlauf verbessert: zwölf Monate nach Ausbildungsabschluss arbeiteten etwa 58 Prozent der beschäftigten Absolventinnen der Kohorte 2020 noch in ihrem Ausbildungsbetrieb. Das entspricht einer Steigerung von etwa 6 Prozentpunkten gegenüber dem Jahrgang 2014.

„Es muss beobachtet werden, ob sich die Erhöhung der Verbleibsquoten in den Folgejahren fortsetzt oder ob im Coronajahr 2020 die Verbleibe möglicherweise auch nur deshalb so hoch waren, weil die Nachfrage nach Arbeitskräften von Betrieben außerhalb des Handwerks pandemiebedingt nachgelassen hat“, so IAB-Forscherin Gabriele Wydra-Somaggio.

Auch mit Blick auf den Verbleib im Ausbildungsberuf zeigt sich eine zunehmende Kontinuität nach dem Ausbildungsende. Mit 79 Prozent lag der Anteil unter den beschäftigten Absolvent*innen des Jahrgangs 2020 zwölf Monate nach Ausbildungsende etwa vier Prozentpunkte höher als noch 2014 und 2017.

Die Aufnahme einer sozialversicherungspflichtigen Beschäftigung im direkten Anschluss an die Ausbildung gelingt ebenfalls immer häufiger: 2014 waren rund 70 Prozent der Absolventinnen einen Monat nach Ausbildungsende sozialversicherungspflichtig beschäftigt. 2020 stieg dieser Anteil auf 77 Prozent. Knapp 95 Prozent waren zu diesem Zeitpunkt auch weiterhin in einem Handwerksberuf beschäftigt. Auch dieser Anteil ist gegenüber 2014 gestiegen. Der Anteil der arbeitslosen Absolventinnen sank von knapp 19 Prozent im Jahr 2014 auf rund 14 Prozent im Jahr 2020. „Gelungene Berufseinstiege gehen in der Regel mit stabileren Erwerbsverläufen und geringeren Risiken für spätere Arbeitslosigkeit einher“, ordnet IAB-Forscher Holger Seibert ein.

Den positiven Verbleibsquoten gegenüber steht eine insgesamt sinkende Zahl von Ausbildungsabsolventinnen im Handwerk. 2014 absolvierten knapp 35.000 Menschen in den 13 betrachteten Handwerkskammerbezirken eine Ausbildung, 2020 noch rund 31.500. Das entspricht einem Rückgang von etwa 10 Prozent. „In welchem Umfang die höheren Verbleibsquoten in Ausbildungsberuf und -betrieb sowie in einem Beruf des Handwerks zur Sicherung von Fachkräftebedarfen beitragen, ist vor dem Hintergrund des Rückgangs der Absolventinnenzahlen also offen und bedarf weiterer Forschung“, erklärt IAB-Forscher Duncan Roth.

Die Ergebnisse der Studie basieren auf Daten aus dem Ausbildungspanel Handwerk, einem Datensatz mit Informationen aus verschiedenen Handwerkskammern und Informationen der Integrierten Erwerbsbiografien (IEB) des IAB. Betrachtet wurden 13 Handwerkskammern von insgesamt 53 Kammern in Deutschland: Berlin, Dresden, Düsseldorf, Hannover, Koblenz, Mittelfranken, München/Oberbayern, Münster, Niederbayern/Oberpfalz, Oberfranken, Oldenburg, Unterfranken und Schwaben. Die Studie ist abrufbar unter: https://doku.iab.de/kurzber/2024/kb2024-18.pdf

(nach oben)


„Das ist eine Mammutaufgabe“ – Interview mit ISOE-Experte Thomas Friedrich zum Stand der Klimaanpassung in Kommunen

Am 1. Juli ist das erste bundesweite Klimaanpassungsgesetz in Kraft getreten. Damit werden Anpassungsmaßnahmen zur staatlichen Aufgabe: Bund, Länder und Kommunen müssen auf allen Verwaltungsebenen Vorsorge gegen die Folgen der Klimakrise treffen. Städte, Landkreise und Gemeinden sind jetzt stark gefordert. Was brauchen sie, um sich gegen Hitze, Dürren oder Starkregen zu wappnen? Ein Forschungsteam unter der Leitung des ISOE – Institut für sozial-ökologische Forschung hat dazu im Auftrag des Umweltbundesamtes eine repräsentative Kommunalbefragung durchgeführt. Ein Gespräch mit Projektleiter Thomas Friedrich über die Reaktionen aus mehr als tausend Kommunen.

Städte und Gemeinden müssen klimafest werden. Die Planung und Umsetzung von Klimaanpassungsmaßnahmen stellt Kommunen allerdings vor große Herausforderungen. Wie schätzen die Verantwortlichen in den Kommunen diese Aufgabe selbst ein?

Klimaanpassung ist eine Mammutaufgabe für viele Städte, Gemeinden und Landkreise, weil sie weitreichende Herausforderungen für kommunale Planungsabläufe und Strukturen mit sich bringt. Ein Großteil der Verantwortlichen in den Kommunen spürt die Folgen des Klimawandels. Fast zwei Drittel der Befragten schätzen den Handlungsbedarf für Klimaanpassungsmaßnahmen in den kommenden zehn Jahren als hoch oder sehr hoch ein. Die Anstrengungen werden umso höher eingeschätzt, je größer die Kommune ist. Vielfach fehlt es ihnen für die Erstellung von Klimaanpassungskonzepten oder die Planung und Umsetzung von Klimaanpassungsmaßnahmen nach eigenen Angaben noch an spezifischem Wissen, Ressourcen oder Unterstützung.

Für die Kommunalbefragung zur Klimaanpassung haben Sie insgesamt mehr als tausend Städte, Landkreise und Gemeinden befragt. Damit liegt der aktuell umfassendste Datensatz zum Stand und Fortschritt der Klimaanpassungsmaßnahmen in deutschen Kommunen vor. Gibt es ein Ergebnis, das Sie besonders überrascht hat?

Unser Ziel war es ja, mit unserer Befragung nicht nur die Kommunen zu erreichen, die bereits sehr aktiv sind bei der Klimaanpassung. Wir wollten vor allem auch diejenigen erreichen, die sich gerade erst auf den Weg gemacht haben. Das sind insbesondere kleinere und mittlere Städte und Gemeinden. Diese waren in ähnlichen Kommunalbefragungen bisher meist unterrepräsentiert. In unserer Stichprobe haben 57 Prozent der Kommunen weniger als 20 000 Einwohner*innen, was uns sehr freut. Aber es gab noch eine zweite Überraschung.

Nämlich?
Es hat mich auch überrascht, dass eine deutliche Mehrheit der Kommunen beim Thema Klimaanpassung zwar bereits aktiv ist, die Bearbeitung des Themas innerhalb der kommunalen Verwaltungen allerdings sehr unterschiedlich verankert ist. Das hat viel mit den Kommunengrößen und Kommunentypen zu tun, also ob es sich zum Beispiel um eine kleine Gemeinde handelt, eine kreisfreie Stadt oder einen Landkreis. Die Verantwortlichkeit für das Thema Klimaanpassung ist dann entsprechend in unterschiedlichen Fachbereichen angesiedelt und hängt natürlich auch davon ab, welche Bereiche es überhaupt gibt. Bei kleinen Städten und Gemeinden liegt die Verantwortung eher bei der Stadtplanung und -entwicklung, während in mittelgroßen Städten die Zuständigkeit oft bei den Umweltämtern liegt. Große Städte haben häufiger ein eigenständiges Klimareferat oder dergleichen.

Welche Maßnahmen werden bereits umgesetzt?
Eine typische Maßnahme ist die Pflege von Grünflächen und deren klimaangepasste Umgestaltung. Etwas mehr als die Hälfte aller Kommunen gab an, öffentliche Grünflächen bei Hitze und Trockenheit zu bewässern. Etwa ein Drittel der Kommunen nannte die Auswahl klimaangepasster und standortgerechter Baum- und Pflanzenarten oder Maßnahmen zur Renaturierung von Gewässern und Grünland. Vielfach werden aber auch Maßnahmen geplant oder umgesetzt, die überhaupt erst die Voraussetzungen für Klimaanpassungsmaßnahmen schaffen, wie zum Beispiel Aktionen zur Aufklärung und Sensibilisierung der Bevölkerung. Und das ist auch gut so. Denn für eine dauerhaft erfolgreiche Umsetzung von Maßnahmen zur Klimaanpassung ist die Akzeptanz der lokalen Bevölkerung ganz entscheidend. Dazu gehört auch, dass die Notwendigkeit und Dringlichkeit von Klimaanpassung nachvollzogen werden kann.

Und wo stoßen Kommunen an ihre Grenzen?
Als mit Abstand größte Herausforderung bei der Planung und Umsetzung von Klimaanpassungsmaßnahmen werden fehlende personelle und finanziellen Ressourcen genannt. Aber auch, und das war dann die dritte Überraschung, die kommunale Verwaltungsstruktur. Mehr als 80 Prozent der Befragten gaben an, dass die Aufgabe Klimaanpassung die vorhandenen Strukturen in der Kommunalverwaltung herausfordert. Das hat viel damit zu tun, dass das Querschnittsthema Klimaanpassung in den Zuständigkeiten von mehreren Ämtern oder Fachbereichen liegt. Das heißt, für eine gelingende Klimaanpassung ist eine fachbereichsübergreifende Kooperation innerhalb der Kommunen notwendig und die muss gut koordiniert und gewollt werden.

Wie können Kommunen bestmöglich unterstützt werden?
Was die finanziellen Ressourcen betrifft, sind natürlich auch Bund und Länder angesprochen, die ja schon vielfach Förderprogramme anbieten. Man muss aber auch sehen, dass viele Mittel nicht abgerufen werden, weil qualifiziertes Personal für die Antragstellung in den Kommunen fehlt. Darauf muss man reagieren. Hier ist der Ansatz, gezielt die Einstellung von kommunalen Klimaanpassungsmanager*innen zu fördern, sicherlich richtig. In etwa zwölf Prozent der Kommunen arbeiten bereits solche Fachleute.

Fast 90 Prozent der Kommunen haben demnach keine Fachkraft für Klimaanpassungsmanagement. Sind mehr solcher Fachleute die Lösung?
Grundsätzlich wäre es natürlich zu begrüßen, wenn alle Kommunen eigenes Personal für Klimaanpassungsmanagement einstellen könnten. Jedoch brauchen diese Expertinnen innerhalb ihrer Kommunen eine breite Unterstützung, damit sie nicht zu Einzelkämpferinnen werden. Wir haben gesehen, dass lediglich 22 Prozent der befragten Kommunen den Stellenwert, den das Thema Klimaanpassung in ihrer Verwaltung hat, mit „hoch“ angegeben haben. Und das, obwohl der kommende Handlungsbedarf überwiegend als „hoch“ oder „sehr hoch“ eingeschätzt wird. Hier fehlt es oftmals noch an Akzeptanz und einem Dringlichkeitsbewusstsein für das Thema innerhalb der Verwaltung und der Politik.

Gibt es weitere Unterstützungsmöglichkeiten für die Kommunen?
Nicht zu unterschätzen ist der interkommunale Austausch zum Thema Klimaanpassung, der vielerorts auch schon stattfindet. Die Bildung von kommunalen Netzwerken ist gerade dort sehr sinnvoll, wo es um mehr als nur Informationsaustausch geht. Der Austausch von Erfahrungen zwischen Kommunen unterschiedlicher Entwicklungsstufen bietet eine echte Chance, durch praxisnahe Einblicke voneinander zu lernen.

Kann auch die Forschung unterstützend tätig werden?
Auf jeden Fall. Als Forschende müssen wir uns überlegen, wie wir unser Wissen über Notwendigkeit, Dringlichkeit und Machbarkeit von Klimaanpassungsmaßnahmen so aufbereiten können, dass Kommunen es aufgreifen und gut damit arbeiten können. Jemand, der unter Hochdruck versucht, Maßnahmen zu koordinieren, hat schlichtweg keine Zeit, um Studien zu lesen. Daher ist es auch Aufgabe der Forschung, Formate für den Wissenstransfer zu entwickeln, die an die Wissensbedarfe und den Arbeitsalltag in den Kommunen angepasst sind. Am ISOE haben wir uns in den letzten Jahren sehr intensiv mit forschungsbasiertem Wissenstransfer beschäftigt, Formate und Wege entwickelt, die gerade auch Behörden gezielt adressieren. Beispielsweise erarbeiten wir aktuell im Auftrag eines hessischen Ministeriums Transferformate für Kommunen zum Thema Klimaanpassung. Dabei geht es genau darum, nämlich den Wissenstransfer passgenau auf die Bedarfe der Kommunen zuzuschneiden. Hier gibt es sicherlich noch viel Potenzial, etwa für Formate, die insbesondere die Unterschiede zwischen den Kommunen noch besser berücksichtigen.

Dr. Thomas Friedrich leitet am ISOE das Forschungsprojekt „KomKlAn – Wo stehen die Kommunen bei der Anpassung an den Klimawandel und wie kommen sie zu multifunktionalen und transformativen Anpassungslösungen?“, in dem im Herbst 2023 die bundesweite „Kommunalbefragung Klimaanpassung 2023“ durchgeführt wurde.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Friedrich
KomKlAn – Stand und Fortschritt kommunaler Klimaanpassung in Deutschland
ISOE – Institut für sozial-ökologische Forschung
thomas.friedrich@isoe.de

Originalpublikation:
Friedrich, Thomas/Immanuel Stieß/Georg Sunderer/Celina Böhmer/Waldemar Murawski/Frederik Knirsch/Antje Otto/Bianca Wutzler/Annegret Thieken (2024): Kommunalbefragung Klimaanpassung 2023. Climate Change, 34. Dessau-Roßlau https://www.umweltbundesamt.de/publikationen/kommunalbefragung-klimaanpassung-20…

Weitere Informationen:
http://Mehr Informationen zum Forschungsprojekt KomKlAn – Stand und Fortschritt kommunaler Klimaanpassung in Deutschland https://www.isoe.de/nc/forschung/projekte/project/komklan/

(nach oben)


DBFZ Jahrestagung 2024: Welchen Anforderungen kann/muss Biomasse gerecht werden?

Biomasse ist ein besonderer Baustein der nationalen Energieversorgung und nimmt für die wachsende Bioökonomie eine zentrale Rolle mit wachsenden Nachfragen ein. Im Rahmen der Jahrestagung des Deutschen Biomasseforschungszentrums (DBFZ) diskutierten am 11./12. September vor diesem Hintergrund rund 160 Teilnehmende aus Wissenschaft, Wirtschaft und Politik zum Thema „Multitalent Biomasse: Basisrohstoff, Kohlenstoffträger und Energieoption“.
In seinem Grußwort zur diesjährigen DBFZ Jahrestagung verwies der sächsische Staatssekretär für Energie, Klimaschutz, Umwelt und Landwirtschaft, Dr. Gerd Lippold, darauf, das Wissen über die Endlichkeit der fossilen Ressourcen sei der zentrale Ausgangspunkt für Zukunftsstrategien. Die Bioökonomie spiele dabei eine entscheidende Rolle als Lösungspfad für eine nachhaltigere und zukunftsfähigere Wirtschaft: „Für Biomasse braucht es eine optimale Kaskadennutzung und kluge Ideen bei der Nutzung von Resten und der Minimierung von Abfällen. Unser Ziel ist es, den innovativen Energie- und Wirtschaftsstandort Sachsen mit konkreten Strategien und Maßnahmenplänen im Rahmen des Energie- und Klimaprogramms sowie der Rohstoffstrategie weiter zu gestalten und die Potenziale der Bioökonomie dabei als Standortvorteil zu nutzen“, so Dr. Lippold.
In einer anschließenden Podiumsdiskussion mit Dr. Gerd Lippold (SMEKUL), Friedrich Nollau (BALANCE Erneuerbare Energien GmbH), Prof. Dr. Nicolaus Dahmen (Karlsruher Institut für Technologie), Dr. René Backes (DBFZ) und Prof. Dr. Michael Nelles (DBFZ/Universität Rostock), wurden in Bezugnahme auf das Tagungsthema verschiedene Herausforderungen in Hinsicht auf die energetische und stoffliche Biomassenutzung umrissen. Einig waren sich die Teilnehmenden u.a. darin, dass es bereits regionale Kreisläufe für Nachwachsende Rohstoffe gibt, die Kunst müsse es nun sein, diese nicht durch neue Regulatorik zu zerstören. Weitere Themen drehten sich um grüne Produkte und die Forschungsfrage, wie Biomasse in Systeme überführt werden kann, die eine kostengünstige und international konkurrenzfähige Nutzung ermöglichen: „Erdöl ist viel einfacher umzusetzen, und alle Prozesse der chemischen Industrie sind darauf abgestimmt. Biomasse ist kompliziert – und bislang fehlen Anreize, sie zu nutzen. Kaskaden werden sich nach wirtschaftlichen Gesichtspunkten bilden. Beeinflussen können wir es forschungsseitig über kreative Nutzung von biogenen Abfällen und Reststoffen– wenn das Abfallrecht es künftig zulässt“, so Dr. René Backes vom DBFZ.
In insgesamt drei Sessions, vierzehn Fachvorträgen zu den Themen „Zukunft Biomethan –Entdeckungsreise der Möglichkeiten“, „Biobasierte Lösungen für negative Emissionen“ und „Biomassekreisläufe“, einer Postersession und begleitenden Workshops wurde an insgesamt zwei Veranstaltungstagen nicht nur die große Breite der Anwendungsmöglichkeiten von Biomasse, sondern auch deren wichtiger Beitrag zum Klimaschutz zum Ausdruck gebracht. In seiner Präsentation machte u.a. Prof. Dr. Jakob Hildebrandt von der Hochschule Zittau/Görlitz deutlich, CO2-negative Baumaterialien könnten dann klimawirksam skaliert werden, wenn faire Wettbewerbsbedingungen geschaffen werden, welche negative Externalitäten wie graue Emissionen strikt einpreisen und CDR-Maßnahmen streng verifiziert werden, basierend auf regionalen Baselines und Additionalitätsnachweisen.
In seinem Abschlussstatement fasste der Leiter des DBFZ-Forschungsbereiches „Thermo-chemische Konversion“, Dr. Volker Lenz, zusammen, dass angesichts vieler vorgestellter spannender Anwendungen für stoffliche, energetische und gekoppelte Produkte und Prozesse aus und mit Biomasse, wir alle endlich ins „Machen“ kommen müssen: „Wir brauchen mit einer breiten Vielfalt der wissenschaftlichen Disziplinen einen konstruktiven Wettbewerb konkreter Umsetzungen, sowohl im regionalen als auch im nationalen Kontext, der alle beteiligten Akteursgruppen der Gesellschaft einbindet und der durch vorbildhafte Lösungsbeispiele Zuversicht schafft.“
Den Preis für das beste wissenschaftliche Poster erhielt Dr. Stefan Lukas für seinen Beitrag zum Thema „Neuwerg – Das Netzwerk für Nachwachsende Rohstoffe und Bioökonomie im Land Brandenburg“.
Im Nachgang der Veranstaltung wird ein kostenfrei verfügbarer Tagungsreader veröffentlicht, in dem alle Abstracts, Präsentationsfolien sowie Posterbeiträge der Referent:innen nachzulesen sind: www.dbfz.de/tagungsreader

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Nelles
Wissenschaftlicher Geschäftsführer
Tel.: +49 (0)341 2434-112
E-Mail: michael.nelles@dbfz.de

Weitere Informationen:
https://www.dbfz.de/pressemediathek/presse/pressemitteilungen/dbfz-jahrestagung-…

(nach oben)


Mit Künstlicher Intelligenz gegen Fluten

Wenn Deiche brechen, sind meist schwere Überschwemmungen und Schäden die Folge. Um Risse und morsche Stellen in Deichen, Staudämmen oder Brücken frühzeitig erkennen zu können, setzt ein zwölfköpfiges Team der Hochschule Magdeburg-Stendal auf den Einsatz von Drohnen. Das Besondere ist die Kombination mit Künstlicher Intelligenz. In der Forschungsgruppe Wasserbau und Wasserbauliches Versuchswesen soll im Rahmen des vierjährigen Projektes eine solche KI-Drohne entwickelt werden.

Professor Dr.-Ing. Bernd Ettmer ist seit 2008 als Professor für Wasserbau und Wasserbauliches Versuchswesen an der Hochschule tätig. Die Fachrichtung beinhalte alles, was mit dem Bau zu tun hat: Stauanlagen, Dämme, Wasserkraftanlagen, Schleusen, Uferbefestigungen, aber auch Hochwasserschutz, Flussumgestaltung und Renaturierung. Seit 2017 arbeiten das Team mit Drohnen und setzt diese vor allem für Fotos von Oberflächen ein. Mithilfe dieser Aufnahmen und Daten von Messbooten, können sie Geländemodelle anfertigen, die Aufschlüsse über die Begebenheiten der Gebiete geben sollen. „Die Drohne ist für uns erstmal ein reines Messinstrument. Man gibt ihr eine Route vor, sie fliegt autonom und wir haben ein komplettes Computermodell des abgeflogenen Gebietes“, erklärt Ettmer. Mit dem Projekt sollen Risse und Schäden an Bauwerken erkannt werden, auch unter Wasser. Damit die von der Drohne produzierten Fotos nicht aufwendig von einem Mitarbeiter auf Schäden untersucht werden müssen, werden KI-Technologien eingesetzt. 



Dafür muss die KI mit entsprechenden Bildern eines Risses oder Schadens angelernt werden. Ausgeschnittene Papierstücke dienen zuerst als symbolischer Riss und sollen mit fortschreitendem Training in Form und Farbe an die Natur angenähert werden. In den Laborhallen der Hochschule haben Ettmer und sein Team einen Versuchsdeich, an dem diese integriert werden können. Die Drohne fliegt über den Versuchsdeich, macht Aufnahmen und die KI-Technologie soll diese als Schaden identifizieren können. Da das Projekt erst Anfang diesen Jahres startete, werden derzeit erst die Grundlagen geschaffen. Dr.-Ing. Daniel Hesse ist Oberingenieur für Wasserbau und bei dem Projekt vorrangig für die Drohnen zuständig. „Aktuell betreiben wir die Drohnen mit einer Standard-RGB-Kamera. Die nächste Aufgabe ist es zu schauen, welche Sensoren wir für die adäquate Umsetzung des Projektes brauchen. Das können Spektralkameras, Laserscannung oder Thermalkameras sein“, führt Hesse aus. 



Nach den Tests in den Laborhallen, soll die Drohne auf dem Gelände der Hochschule üben, bevor sie an Deichen eingesetzt wird. Ettmer beschreibt, was sie mit dem Projekt erreichen wollen: „Im Idealfall wertet die KI die von der Drohne aufgenommen Bilder während des Fluges aus. So können potenzielle Schadstellen zeitgleich direkt erkannt und gemeldet werden.“ Dadurch kann nicht nur eine schnellere Einordnung der kritischen Stellen stattfinden, sondern menschliche Ressourcen können gezielt eingesetzt werden, um Schäden zu eliminieren. Bis zum Projektende 2027 wollen die Forscher mit der Kombination aus Drohne und KI ein zusätzliches Mittel zur Prävention von Hochwasser und Überschwemmungen zur Verfügung stellen.



Über dieses und weitere KI-Projekte informiert der Science Day der Hochschule am 20. November in Magdeburg.

Im Überblick 

Laufzeit des Projektes: 1.1.2024 bis 31.12.2027

Höhe der Finanzierung: 1.212.214,78 € 

Finanziert durch: Bundesministerium für Wirtschaft und Klimaschutz, 
Europäischer Fonds für regionale Entwicklung (EFRE)

Weitere Informationen:
http://h2.de/scienceday Programm und Anmeldung Science Day

(nach oben)


Insektenbioraffinerie erfolgreich aufgebaut: So werden Bioabfälle zu neuen Wertstoffen

Am Fraunhofer IGB in Stuttgart wurde erfolgreich eine Insektenbioraffinerie aufgebaut − dank einer Förderung durch das Landesministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg mit Landes- und EU-Mitteln. In dieser verwerten die Larven der Schwarzen Soldatenfliege organische Reststoffe und Bioabfälle und produzieren dabei begehrte Wertstoffe, z. B. für die Chemieindustrie. Nach drei Jahren Forschung fand das Projekt »InBiRa« nun seinen Abschluss. Zu diesem Anlass stellten die Fraunhofer-Forschenden und ihre Partner die Projektergebnisse bei einer Abschlusskonferenz vor. Ihr Fazit: Die Pilotanlage bietet eine einzigartige neue Plattform für innovative technische Produkte.
Wohin mit überlagerten Lebensmitteln und Bioabfällen aus Gastronomie und Biotonne? Jedenfalls muss nicht zwangsläufig alles einfach nur als Biomüll entsorgt und beispielsweise kompostiert werden. Was nicht mehr essbar ist, lässt sich trotzdem sinnvoll als Ressource nutzen. Möglich machen es die Larven der Schwarzen Soldatenfliege: Sie vertilgen die Abfälle nicht einfach nur, sie produzieren bei ihrem Wachstum Wertstoffe, die für die Industrie interessant sind − Proteine, Fette oder Chitin, aus denen Folgeprodukte hergestellt werden können. Am Fraunhofer IGB in Stuttgart wurde im Projekt »InBiRa« in den vergangenen drei Jahren erstmals eine Insektenbioraffinerie aufgebaut, um die Mast, Verarbeitung und Verwertung der Insekten im Pilotmaßstab zu erforschen.
Am 21. Oktober 2024 lud das Fraunhofer IGB alle Projektpartner, Vertreterinnen und Vertreter aus der Politik sowie potenzielle Anwender − z. B. aus der Abfallwirtschaft − zur InBiRa-Abschlusskonferenz ein. Am Institut in Stuttgart erhielten die Teilnehmenden nicht nur einen Überblick über die Projekterfolge, sondern konnten sich die dort aufgebaute Pilotanlage dabei auch anschauen. Bei dieser Gelegenheit zog Projektleiterin Dr.-Ing. Susanne Zibek, die am Fraunhofer IGB die Arbeitsgruppe Bioprozessentwicklung im Innovationsfeld Industrielle Biotechnologie führt, Bilanz nach drei Jahren intensiver Forschungsarbeit: »Mit unserer Insektenbioraffinerie können wir überlagerte Lebensmittel und Bioabfälle als Rohstoff für hochwertige technische Produkte nutzen und damit erstmals eine heimische Quelle für kurzkettige Fette erschließen, die tropische Fette in vielen Anwendungen ersetzen könnten.«

Komplexer Prozess: Wie funktioniert eine Bioraffinerie?
Im Rahmen der Konferenz ging Zibek insbesondere auf die Komplexität der aufgebauten Pilotanlage ein. »Grundsätzlich ähnelt das Prinzip einer Bioraffinerie dem einer klassischen Erdölraffinerie«, so die promovierte Chemieingenieurin. »Auch hier wird ein Rohstoff mit komplexer Zusammensetzung in seine einzelnen Bestandteile aufgetrennt.« In der InBiRa-Anlage werden alle benötigten Prozessschritte im Pilotmaßstab abgebildet. Das beginnt bei der Mast der Larven (dem »Farming«), geht über die Trennung der Fett- und Proteinfraktion (Primärraffination) weiter und reicht bis zu deren Umwandung zu den jeweils gewünschten Zwischenprodukten (Sekundärraffination).
Während der drei Jahre Projektlaufzeit wurden alle Schritte intensiv durchgeführt und ausführlich evaluiert. »Dafür haben wir ca. 20 Prozesseinheiten definiert, verfahrenstechnisch für die vorhandenen Stoffströme ausgelegt und schließlich für die Pilotanlage am IGB angeschafft − daran zeigt sich schon die Komplexität des Verfahrens«, erläutert Zibek.

Bioraffinerie mit großem Potenzial, um technische Produkte nachhaltig herzustellen
Konkret entstehen am Ende chemische Grundstoffe – sogenannte Plattformchemikalien – für Kraftstoffe, Kosmetika, Reinigungsmittel, Kunststoffe oder auch Pflanzendünger. Die Liste der möglichen Endanwendungen ist lang. Die Insektenbioraffinerie birgt also ein enormes Potenzial für die erfolgreiche Transformation hin zu einer kreislaufbasierten Bioökonomie, wie sie etwa in der Landesstrategie Nachhaltige Bioökonomie Baden-Württemberg angestrebt wird.
Da Baden-Württemberg auf bioökonomische Ansätze setzt, um nachhaltiger zu werden, war das Interesse der Landespolitik − und auch darüber hinaus − entsprechend groß. Allen voran nahmen Vertreterinnen und Vertreter aus dem Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg, dem Landesministerium für Ernährung, Ländlichen Raum und Verbraucherschutz sowie von der Europäischen Kommission an der Abschlusskonferenz teil.
Das Umweltministerium Baden-Württemberg förderte den Aufbau der InBiRa-Anlage am Fraunhofer IGB mit Mitteln des Landes und des Europäischen Fonds für regionale Entwicklung (EFRE), die im Rahmen des EFRE-Programms »Bioökonomie – Bioraffinerien zur Gewinnung von Rohstoffen aus Abfall und Abwasser – Bio-Ab-Cycling« vergeben wurden.

Stimmen aus der Politik: Forschungserfolge dank EFRE-Förderung von Land und EU
So zeigte sich Dr. Andre Baumann, Staatssekretär im Umweltministerium, beeindruckt von dem, was in den vergangenen drei Jahren an dem Forschungsinstitut in Stuttgart entstanden ist: »Ich habe dieses Projekt mit großem Interesse verfolgt und bin begeistert von den heute vorgestellten Forschungsergebnissen. Es zeigt deutlich: Eine Insektenbioraffinerie birgt ein großes Potenzial für die Herstellung vielfältiger und hochwertiger Produkte und bietet damit interessante Wertschöpfungsoptionen.« Der Umweltstaatssekretär unterstrich die Bedeutung des Systemansatzes für die Kreislaufführung von Stoffen: »Die zirkuläre Bioökonomie leistet schon heute einen wichtigen Beitrag, um die großen gesellschaftlichen Herausforderungen bei der Ressourcensicherheit und der Rohstoffknappheit bewältigen zu können. Als Land unterstützen wir diesen Prozess sehr gerne – sowohl mit finanziellen Förderungen wie beispielsweise für das InBiRa-Projekt, aber auch mit der Landesstrategie Nachhaltige Bioökonomie oder unserem Einsatz für die Ausgestaltung der passenden regulatorischen Rahmenbedingungen.«
Dass die Mittel aus dem EFRE-Programm gut eingesetzt wurden, bestätigt auch Nicolas Gibert-Morin, der als Vertreter der EU zur InBiRa-Konferenz in die schwäbische Landeshauptstadt angereist war. »Die Europäische Kommission unterstützt mit dem EFRE gerne Projekte wie die Insektenbioraffinerie: hoch innovativ, kreislauforientiert und ressourceneffizient. Wir freuen uns über den erfolgreichen Abschluss des Projektes und sind gespannt, wie es weitergeht, hoffentlich bald mit einem marktreifen Produkt.«, so der Leiter des Referats REGIO F.2, Generaldirektion Regionalpolitik und Stadtentwicklung (DG Regio), der EU-Kommission.

Projektpartner diskutieren bei Abschlusskonferenz über die Zukunft der Insekten-Bioraffinerie
Neben dem Fraunhofer IGB, dem die Koordination des Projekts unter Leitung von Dr.-Ing. Susanne Zibek oblag, waren weitere Partner aus Forschung und Industrie am InBiRa-Projekt beteiligt. So steuerten das Institut für Institut für Grenzflächenverfahrenstechnik und Plasmatechnologie (IGVP) und für Siedlungswasserbau Wassergüte- und Abfallwirtschaft (ISWA) der Universität Stuttgart ihre jeweiligen wissenschaftlichen Kompetenzen bei, ebenso das ifeu – Institut für Energie- und Umweltforschung Heidelberg gGmbH. Von Industrieseite war die Hermetia Baruth GmbH mit ihrer Expertise bei der Insektenmast involviert und die PreZero Stiftung & Co. KG stellte Bioabfälle für den Betrieb der InBiRa-Anlage zur Verfügung.
Am Ende der Abschlusskonferenz erörterten die Beteiligten aus Forschung, Politik mit potenziellen Anwendern aus der Abfallwirtschaft in einer Podiumsdiskussion die Potenziale der neuen Technologie sowie die Herausforderungen hinsichtlich regulatorischer Rahmenbedingungen und mögliche Lösungsansätze. InBiRa-Projektleiterin Zibek zeigte sich nach Projektabschluss optimistisch, dass die entwickelte Bioraffinerie schon bald konkrete Anwendung in der Praxis finden wird: »Ich bin zuversichtlich, dass wir demnächst einen Transfer in die Industrie umsetzen können, sodass wir mit den Larven eine sinnvolle Verwertung von überlagerten und sogar verdorbenen Lebensmitteln zu neuen Produkten für die chemische Industrie herstellen können.«

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2024/insekten…

(nach oben)


Neuer Grippe-Impfstoff ab 2025 zur Auswahl: Zusätzliche Substanz soll Schutz bei Menschen über 60 Jahren erhöhen

Zur Grippevorbeugung bei Menschen ab 60 Jahren empfiehlt die Ständige Impfkommission (STIKO) jetzt alternativ zum bereits vorher empfohlenen Hochdosis-Impfstoff einen neuen, verstärkten Impfstoff. Dieser enthält zusätzlich den Hilfsstoff MF-59, um die Immunwirkung zu erhöhen. Ärzte können diesen neuen Impfstoff ab Frühjahr 2025 bestellen, die Impfung wird ab Herbst 2025 für Patientinnen und Patienten verfügbar sein. „Dieses zusätzliche Angebot könnte dazu beitragen, die Akzeptanz der Schutzimpfung zu steigern und die Impfquote zu erhöhen“, sagt Dr. Anja Kwetkat, Sprecherin der Arbeitsgruppe Impfen der Deutschen Gesellschaft für Geriatrie (DGG).
„Vor allem ältere Menschen sind nach wie vor von schweren Grippeverläufen betroffen“, so die Altersmedizinerin. Laut Robert Koch-Institut (RKI) haben sich in der Saison 2021/2022 lediglich 43 Prozent der Menschen ab 60 impfen lassen.
„Wir rufen insbesondere Arztpraxen dazu auf, im kommenden Frühjahr rechtzeitig zusammen mit dem bisherigen Influenza-Hochdosis-Impfstopf auch das Mittel mit dem neuen Wirkstoff MF-59 zu bestellen, um damit ältere Menschen ab 60 Jahren umfassend vor den entsprechenden Viren zu schützen“, sagt Kwetkat, Direktorin der Klinik für Geriatrie und Palliativmedizin am Klinikum Osnabrück und Mitglied der STIKO. „Die STIKO empfiehlt einen dieser beiden Impfstoffe für Ältere zu verwenden, da beide nach aktueller Studienlage besser wirken als die Standardimpfstoffe.“

Impfung reduziert das Risiko von Hospitalisierungen und entlastet Gesundheitssystem
Laut RKI wurden in der Grippesaison 2023/2024 rund 221.000 Grippe-Erkrankungen registriert. Bei Menschen ab 60 waren es 62.451. Allerdings gehe das Institut von einer deutlich höheren Zahl an Erkrankungen aus, da nicht alle Fälle erfasst werden. „Im Jahr 2023 kam es zu 10.290 Hospitalisierungen und 852 Todesfällen aufgrund einer nachgewiesenen saisonalen Influenza-Infektion“, heißt es in einem aktuellen RKI-Bericht. In Zeiten von Grippewellen kann es zu Überlastungen der Krankenhäuser kommen. „Eine Impfung senkt die Anzahl der Erkrankungen, reduziert das Risiko von Hospitalisierungen und entlastet somit das Gesundheitssystem“, sagt Anja Kwetkat.

Empfehlungen für Saison 2024/2025 unverändert: Impfung bis Mitte Dezember
Die aktuellen Empfehlungen der STIKO für die jetzige Impfsaison bleiben unverändert: Bis Mitte Dezember sollten sich neben den Über-60-Jähringen insbesondere Bewohner von Alten- und Pflegeheimen mit dem Hochdosis-Impfstoff gegen Grippe impfen lassen – ab nächstem Jahr alternativ mit dem adjuvantierten Impfstoff, der bereits für Menschen ab 50 Jahren zugelassen ist. Eine grundsätzliche Impfung wird darüber hinaus für chronisch Kranke, Schwangere ab dem zweiten Trimester sowie medizinisches Personal empfohlen. Auch alle gesunden Erwachsenen, die mit alten oder mit chronisch kranken Menschen Kontakt haben, sollten sich impfen lassen.
„Während sich rund 80 Prozent der Ärzte impfen lassen, sind es bei Therapeuten und Pflegekräften in Gesundheitseinrichtungen nur rund die Hälfte. Hier sehen wir deutliches Potenzial“, erklärt Kwetkat. „Mit dem Herdenschutz, also einer hohen Impfquote in der Bevölkerung, wird der Schutz für alle erhöht. Schließlich gibt es auch Menschen, die aus gesundheitlichen Gründen nicht geimpft werden können – auch die gilt es, zu schützen.“ Die Weltgesundheitsorganisation WHO und die Europäische Union empfehlen eine Durchimpfungsrate von mindestens 75 Prozent bei älteren Personen und vulnerablen Gruppen.

Personalmangel in Kliniken und Arztpraxen: Impfung verringert Ausfallquote
Bei dem aktuell bestehenden Personalmangel in den Kliniken und Arztpraxen verringert die Impfung von medizinischem Personal zudem durch eine Verringerung der Ausfallquote eine Zuspitzung der Personalengpässe während der Grippesaison. „Und schließlich profitieren die Beschäftigten im Gesundheitswesen auch persönlich, wenn sie sich impfen lassen. Auch für junge, gesunde Menschen ist eine Influenza-Infektion extrem unangenehm und kann –wenngleich seltener als bei alten Menschen – auch zu schweren Komplikationen führen“, erläutert Kwetkat.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen/2347-pm-neuer-grippe-impfstoff…

(nach oben)


Klimaschädliches Fluor-Gas: Europa und USA stießen gemeinsam fast doppelt so viel aus wie gemeldet

Meteorolog*innen orteten regionale Quellen des hochpotenten Treibhausgases SF6 – China größter Emittent

Das Gas Schwefelhexafluorid (SF6) ist ein viel stärkeres und unterschätztes Treibhausgas als CO2. Es bleibt 1.000 Jahre in der Atmosphäre. In einer Studie der Universität Wien wurden die SF6 -Quellen nun regional zugeordnet. Demnach unterschätzen China, die USA und die EU ihre SF6-Emissionen massiv und zwar teilweise um mehr als die Hälfte. Die gute Nachricht: Beschränkungen wie die F-Gas-Verordnung der EU zeigen Wirkung. Um den Klimawandel zu stoppen müssten jedoch auch China und Indien die Verwendung beschränken – und das rasch. Die Studie des internationalen Teams unter der Leitung von Andreas Stohl wurde aktuell im Journal Atmospheric Chemistry and Physics veröffentlicht.

Das Gas Schwefelhexafluorid (SF6) hat viele gute Eigenschaften: Es ist nicht brennbar, ungiftig, ein ausgezeichneter Isolator und zerstört das stratosphärische Ozon nicht. Seit den 1990er-Jahren findet dieses fluorierte Gas (F-Gas) daher breite Verwendung vor allem als Isolator in der Hochspannungsindustrie, aber auch in der Halbleiter-Aluminium- und Magnesium-Industrie, in Sportschuhen, doppelt verglasten Fenstern oder Autoreifen.

SF6 ist aber auch das klimaschädlichste Treibhausgas, das wir bisher kennen: Sein Treibhauspotenzial ist 24.300-mal höher als CO2 und es verbleibt rund 1.000 Jahre in der Atmosphäre: „Das bedeutet, dass sich das Gas in der Atmosphäre sammelt und das Klima für Hunderte von Jahren erwärmen wird – eine Treibhausgas-Zeitbombe“, erklärt Martin Vojta, Meteorologe an der Universität Wien und Erstautor einer aktuell im Journal Atmospheric Chemistry and Physics publizierten SF6-Studie. „Die jährlichen globalen SF6-Emissionen entsprechen in ihrer Klimawirkung jetzt schon ungefähr den jährlichen CO2-Emissionen von Italien“, führt Vojta aus.

Internationales Register
Theoretisch weiß man über SF6-Emissionen bestens Bescheid: Dem Kyoto-Protokoll gemäß müssen Länder ihren Treibhausgas-Ausstoß melden, darunter auch die SF6-Emissionen; diese werden in einem internationalen Register eingetragen. Nationale Emissionen werden hierfür mit Hilfe so genannter Emissionsfaktoren statistisch hochgerechnet; diese basieren aber auf Schätzungen und sind oft sehr unsicher. Dies liegt auch daran, dass SF6- Emissionen in der Regel ungeplant sind: Solange das Gas als Isolator in Transformatoren oder in der Halbleiter-, Aluminium- und Magnesiumindustrie in einem geschlossenen System bleibt, ist es unproblematisch. Es entweicht normalerweise nur bei Schäden oder unsachgemäßer Handhabung und Entsorgung; wodurch sich auch die Emissionen nur schwer schätzen lassen. Zudem sind illegale Emissionen natürlich nicht berücksichtigt.

In der aktuellen Studie verwendeten die Forscher*innen atmosphärische Messungen von Beobachtungsstationen auf der ganzen Welt – zum Beispiel in Südkorea, Barbados und Teneriffa – und berechneten anhand der Luftströmungen bis 50 Tage zurück, woher diese kamen. „Wir verfolgen das SF6 sozusagen rückwärts, mittels der so genannten inversen Modellierung, und berechnen, wie viel davon an welchem Ort freigesetzt wurde, um die Messungen zu erklären“, sagt Andreas Stohl, Leiter der Studie und Experte für atmosphärische Transportprozesse an der Universität Wien.

Lücke zwischen Theorie und Realität
Der Schwerpunkt des Reality Checks lag auf Europa, China und den USA. Die Ergebnisse bestätigen nun eine massive Lücke zwischen Theorie und Realität: In keinem der Länder stimmen die von 2005 bis 2021 gemeldeten Emissionen mit den Messungen des Treibhausgases SF6 überein. „Tatsächlich haben alle Länder ihre Emissionen massiv unterschätzt, und zwar teilweise um mehr als die Hälfte“, erklärt Stohl.

Allerdings gibt es auch gute Nachrichten: In Europa und den USA gingen die SF6-Emissionen zwischen 2005 und 2021 stark zurück. So sanken die Emissionen in den USA von insgesamt 1250 Tonnen auf 480 Tonnen im Jahr 2021; wobei die tatsächlichen Emissionen durchschnittlich doppelt so hoch wie die offiziell gemeldet liegen. In der EU sanken die tatsächlichen SF6-Emissionen von 410 Tonnen (2005) auf 250 Tonnen (2021) pro Jahr. EU-weit wurde 2005 jedoch ca. 40% mehr SF6 an die Atmosphäre abgegeben als offiziell gemeldet, wobei die Lücke zwischen offizieller und tatsächlicher Emission bis 2021 deutlich kleiner wurde. Im Durchschnitt emittierten die USA und EU zusammen über diesen Zeitraum hinweg rund 80% mehr SF6 als angegeben.

Ein deutlicher Rückgang fand zwischen 2017 und 2018 statt, als die F-Gas-Verordnung der EU aus dem Jahr 2014 in Kraft trat bzw. umgesetzt wurde. Dies Verordnung regelt neben SF6 auch die Emissionen von Fluorkohlenwasserstoffen. „Damit zeigt sich einmal mehr, dass Vorschriften im Umweltbereich auch tatsächlich wirken, ein erfreuliches und auch politisch wichtiges Ergebnis“, sagt Stohl, der an der Universität Wien das Institut für Meteorologie und Geophysik sowie das interinstitutionelle Forschungsnetzwerk VINAR (mit der Geosphere Austria) leitet.

Emissionen Chinas vervierfacht
Weniger erfreulich ist hingegen der globale Trend: Im Gegensatz zur EU und den USA vervierfachten sich die Emissionen Chinas von 1280 Tonnen im Jahr 2005 auf 5160 Tonnen im Jahr 2021 – alleine schon dieser Anstieg machte den Rückgang in den USA und der EU mehr als wett. „Wir brauchen also in China, aber auch in Indien und anderen ostasiatischen Ländern dringend strenge Vorschriften, um den globalen Anstieg zu begrenzen“, fordert Stohl.

Um auch global ein besseres Bild zu erhalten, wäre es zudem wichtig, weitere Messstationen dort zu errichten, wo sie derzeit noch fehlen, beispielsweise in Indien, Afrika oder Südamerika. Sowohl Stohl als auch Vojta sind sich einig, dass mehr getan werden muss, um eine bessere Überwachung in diesen Regionen zu gewährleisten. „So kämen wir zu wesentlich genaueren Ergebnissen und könnten die regionalen Emissionen dieses Treibhausgases noch genauer einschätzen“, erklärt Vojta.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Mag. Dr. Andreas Stohl
Institut für Meteorologie und Geophysik, Universität Wien
1090 Wien, Josef-Holaubek-Platz 2 (UZA II)
T +43-1-4277-53555
andreas.stohl@univie.ac.at
www.univie.ac.at

Dr. Martin Vojta, BSc MSc
Institut für Meteorologie und Geophysik, Universität Wien
T +43-1-4277-53733
martin.vojta@univie.ac.at
www.univie.ac.at

Originalpublikation:
Martin Vojta, Andreas Plach, Saurabh Annadate, Sunyong Park, Gawon Lee, Pallav Purohit, Florian Lindl, Xin Lan, Jens Mühle, Rona L. Thompson, and Andreas Stohl: A global re-analysis of regionally resolved emissions and atmospheric mole fractions of SF6 for the period 2005–2021. Atmospheric Chemistry and Physics, NR / 2024
DOI: https://acp.copernicus.org/articles/24/12465/2024/

Weitere Informationen:
http://Ähnliche Themen an der Uni Wien:
http://In der aktuellen Folge des Uni Wien Podcasts „An der Quelle“ spricht der Klimawissenschafter Blaž Gasparini die Rolle von Zirruswolken für das Klima. Mehr dazu lesen und hören Sie hier: https://rudolphina.univie.ac.at/podcast-folge-7-warum-geoengineering-das-klima-n…

(nach oben)


Ein Skript für den Wald der Zukunft

FH Südwestfalen leitet Verbundvorhaben ReForm-regioWald – Vernetzung und regional angepasste Ideen für die Wiederaufforstung im Fokus
Soest. Klimawandel, Borkenkäfer und weitere Faktoren haben große Schäden in den Waldbeständen in ganz Deutschland verursacht. Als waldreiche Region ist Südwestfalen besonders stark betroffen. Im Projekt ReForm-regioWald arbeiten Expertinnen und Waldnutzerinnen interdisziplinär und transdisziplinär zusammen, um die Herausforderungen für den Wald anzugehen und Strategien für eine ökologisch und ökonomisch nachhaltige Aufforstung von Kalamitätsflächen zu diskutieren.
Wie geht man mit Herausforderungen um, die nicht vorhersehbar sind? Dazu zählen Extremwetterereignisse wie große Niederschlagsmengen in kurzer Zeit, Stürme oder anhaltende Trockenperioden. Zusätzlich finden Schädlinge wie der Borkenkäfer in den von Dürre geschwächten Bäumen ideale Lebensbedingungen vor. Selbst gesunde Bäume halten den multiplen Stressfaktoren irgendwann nicht mehr stand. Unter der Leitung von Prof. Dr. Harald Laser vom Fachbereich Agrarwirtschaft der Fachhochschule Südwestfalen betrachtet eine interdisziplinäre Projektgruppe ganzheitlich Themenkomplexe wie Biodiversität, Klimaschutz, Bodenschutz und weitere ökologische, ökonomische und soziale Aspekte.
Die Analyse der stark geschädigten Flächen hat eine ganze Reihe von Schadfaktoren identifiziert. So weisen Bodenproben im Raum Südwestfalen teilweise einen pH-Wert von unter 3 auf, was schon dem Wert von Zitronensäure nahekommt. Ein saurer Boden kann weniger Nährstoffe binden, für das Pflanzenwachstum wichtige Mineralien werden vom Regen ausgewaschen. Schwermetalle lösen sich und wirken toxisch auf Pflanzen, das Ökosystem Waldboden und das Grundwasser. Fichten-Monokulturen prägen seit dem 19. Jahrhundert das Bild in der Region und haben den Wald anfällig für Stürme und Schädlinge werden lassen. Zu große Wildbestände verursachen gravierende Schäden und stören vor allem junge Bäume in ihrem Wachstum. Nicht nur Klimawandel, Wetterereignisse und Schädlinge zeichnen verantwortlich für den Waldzustand, auch der Mensch greift in das empfindliche System ein, als Verbraucherin nachwachsender Rohstoffe, Waldbesitzerin, forstliche Beraterin, Wissenschaftlerin, als Mitarbeitende im holzverarbeitenden Gewerbe, Naturschützer*in oder als Erholungssuchende. Monokausale Schuldzuweisungen bleiben angesichts der multiplen Ursachenstruktur unterkomplex. Daher können auch Lösungsansätze nicht greifen, die nur aus einer Perspektive formuliert worden sind.
Zum Auftakt des Projekts trafen sich deshalb Ende Oktober an der Fachhochschule Südwestfalen in Soest 86 Vertreterinnen aus Forstwirtschaft, Naturschutz, Naherholung und Tourismus, Holzwirtschaft, Jagd, Verwaltung und Politik sowie Bürgerinnen und Bürger an der Fachhochschule Südwestfalen zum Austausch mit den Wissenschaftlerinnen. In gemischten Kleingruppen wurden unterschiedliche Perspektiven auf Waldnutzung und Wiederbewaldung, Nutzungskonflikte und mögliche Kompromisse diskutiert. Prof. Dr. Harald Laser bewertet das Experiment als geglückt: „In der Diskussion wurde deutlich, dass sich Ansprüche wie beispielsweise aus den Perspektiven Naturschutz und Wirtschaft nicht ausschließen müssen. Es geht jetzt darum, Synergieeffekte auszuloten, das Wissen der jeweiligen anderen Interessengruppen zusammenzubringen und die Erkenntnisse und geplanten Maßnahmen transparent in den Aufbau einer gemeinsamen Informations- und Forschungsinfrastruktur vor Ort einfließen zu lassen.“
Oberstes Ziel des Verbundprojektes ist die Vernetzung, die auch im Rahmen von neu geschaffenen Wald-Freiluft-Laboren für experimentelles Arbeiten und als Raum für Diskussion mit der Bevölkerung gefördert werden soll. „Wir wollen regional angepasste Ideen und Maßnahmen für die Wiederaufforstung für einen widerstandsfähigen und multifunktionalen Zukunftswald mit Modellcharakter aufzeigen, der ökologische Vielfalt und wirtschaftliche Tragfähigkeit vereint. Dazu zählt auch, neue Einkommensmöglichkeiten und Geschäftsmodelle für Waldbesitzer*innen zu erschließen,“ so Prof. Laser.

Förderung und Projektpartner
Das Bundesministerium für Bildung und Forschung fördert im Rahmen der REGULUS-Maßnahme regionale, interdisziplinäre Innovationsgruppen für eine klimaschützende Wald- und Forstwirtschaft. Dazu zählt das Verbundprojekt ReForm-regioWald, resiliente Forst-/Offenland-Systeme für eine multifunktionale regional angepasste Wald-Bioökonomie.
Das Förderprojekt läuft über fünf Jahre. Projektpartner sind der Landesbetrieb Wald und Holz NRW, Arbeitsgemeinschaft Biologischer Umweltschutz Kreis Soest und Biologische Station Hochsauerlandkreis. Vom Fachbereich Agrarwirtschaft der Fachhochschule Südwestfalen arbeiten Prof. Dr. Harald Laser, Prof. Dr. Marcus Mergenthaler, Prof. Dr. Wolf Lorleberg sowie Prof. Dr. Thomas Weyer mit ihren Teams gemeinsam an der Beantwortung der Forschungsfragen. Die Projektkoordination hat Dr. Bernd Pölling inne.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Harald Laser
laser.harald@fh-swf.de
https://www.fh-swf.de/de/ueber_uns/standorte_4/soest_4/fb_agrarwirtschaft/dozent…

(nach oben)


Regenwaldschutz senkt Zahl der Atemwegserkrankungen

Regenwaldschutz ist nicht nur gut für Biodiversität und Klima – auch die Gesundheit der Menschen, die in den entsprechenden Gebieten leben, verbessert sich dadurch spürbar. Zu diesem Schluss kommt eine aktuelle Studie der Universität Bonn und der Universidade Federal de Minas Gerais in Brasilien. Die Forscher zeigen darin, dass Maßnahmen gegen Brandrodung die Feinstaub-Konzentration in der Luft signifikant reduzieren. Damit sinkt auch die Zahl der Krankenhausaufenthalte und Todesfälle aufgrund von Atemwegs-Erkrankungen. Die Ergebnisse sind jetzt in der Fachzeitschrift „Nature Communications, Earth & Environment“ erschienen.

Im Jahr 2019 brannten fast 70.000 Quadratkilometer Wald im Amazonas-Gebiet – das entspricht der Fläche Bayerns. Natürliche Feuer sind unter den feuchten Bedingungen, die dort herrschen, normalerweise selten. Doch roden Großgrundbesitzer und Landräuber oft riesengroße Flächen, um sie als Weideland oder für den Ackerbau zu nutzen.

Dieser Raubbau an Brasiliens grüner Lunge zerstört den Lebensraum vieler Tier- und Pflanzenarten und beschleunigt darüber hinaus den Klimawandel. Die aktuelle Studie nimmt aber noch eine weitere Konsequenz in den Blick, die oft nicht genügend Beachtung findet: Der bei den Bränden entstehende Rauch gilt als ein wichtiger Auslöser für Atemwegs- und Herz-Kreislauf-Erkrankungen.

„Wir haben daher untersucht, inwieweit sich Waldschutzmaßnahmen auf die Gesundheit der Personen auswirkt, die in den betroffenen Gebieten leben“, erklärt Yannic Damm. Der Wissenschaftler ist Mitarbeiter der Arbeitsgruppe von Prof. Dr. Jan Börner am Institut für Lebensmittel- und Ressourcenökonomik (ILR) der Universität Bonn. Er hat die Studie zusammen mit seinem ILR-Kollegen Dr. Nicolas Gerber sowie mit Prof. Dr. Britaldo Soares-Filho von der Universidade Federal de Minas Gerais in Brasilien durchgeführt.

Wie wirkt Waldschutz auf die Gesundheit?
Das Amazonas-Gebiet Brasiliens wird grundsätzlich in zwei verschiedene Zonen unterteilt: den gesetzlich definierten Amazonas, der den Grenzen der Amazonas-Bundesstaaten folgt, und das sogenannte Amazonas-Biom, das der ursprünglichen Waldgrenze folgt. „Zwischen 2004 und 2010 wurde eine ganze Reihe von Gesetzen beschlossen, um die fortschreitende Entwaldung im gesamten Amazonas-Gebiet zu bremsen“, sagt Damm. „Wir haben uns in unserer Studie aber auf drei Maßnahmen konzentriert, die ausschließlich im Amazonas-Biom gelten und ab dem Jahr 2006 in Kraft traten.“

Die bekannteste dieser drei Maßnahmen ist vermutlich das sogenannte Soja-Moratorium. Darin verpflichteten sich weltweit agierende Handelsunternehmen dazu, kein Soja mehr zu kaufen, das auf frisch entwaldeten Flächen angebaut wurde. „Dadurch hat sich der Entwaldungsdruck messbar reduziert“, erklärt Damm. Allerdings gilt das Moratorium (ebenso wie die beiden anderen untersuchten Beschlüsse) lediglich für das Amazonas-Biom, nicht aber für angrenzende Regionen mit einem geringeren Schutzstatus.

Diese Tatsache machten sich die Forscher zu Nutze: Sie verglichen mehrere hundert Gemeinden an der Biom-Grenze mit benachbarten Gebieten, die aber jenseits dieser Grenze lagen und für die die drei Maßnahmen daher nicht galten. „Auf diese Weise konnten wir feststellen, welchen Effekt die verstärkten Schutzbestrebungen auf die öffentliche Gesundheit hatten“, betont Damm. Die Gruppe wertete dazu unter anderem die Feinstaubbelastung der Luft aus. Außerdem analysierten sie die Gründe, aus denen Menschen in den untersuchten Regionen ins Krankenhaus gekommen oder verstorben waren.

Schutzmaßnahmen retten 680 Menschenleben pro Jahr
Die Auswirkungen der Waldschutzmaßnahmen auf jeden dieser Parameter war deutlich. So sank nach 2006 die Konzentration der Feinstaub-Partikel in der Luft in allen untersuchten Gebieten. In den Gemeinden innerhalb der Biom-Grenzen fiel diese Abnahme aber um fast 7 Prozent höher aus. Auch die Zahl der Krankenhaus-Behandlungen sowie der Todesfälle aufgrund von Atemwegs- und Herz-Kreislauf-Erkrankungen ging zurück. In den Gebieten, in denen die drei Maßnahmen etabliert wurden, leben rund vier Millionen Frauen, Männer und Kinder. Die Forscher schätzen, dass durch die geringere Luftverschmutzung in dieser Gruppe jährlich rund 680 Menschenleben gerettet wurden.

„Unsere Studie hat zwei Botschaften“, erklärt ILR-Forscher Prof. Dr. Jan Börner, der auch Mitglied im Transdisziplinären Forschungsbereich (TRA) Sustainable Futures und im Exzellenzcluster „PhenoRob“ der Universität Bonn ist. „Nämlich einerseits, dass sich die Zerstörung des Regenwaldes erfolgreich eindämmen lässt. Und andererseits, dass das nicht nur der Artenvielfalt und dem Weltklima zugute kommt, sondern ganz konkret und sehr schnell auch der Bevölkerung vor Ort. Das ist ein Aspekt, der bei der Bewertung von Schutzmaßnahmen noch viel zu wenig berücksichtigt wird.“

Beteiligte Institutionen und Förderung:
An der Studie waren die Universität Bonn und die Universidade Federal de Minas Gerais in Brasilien beteiligt. Die Arbeiten wurden aus Mitteln der Deutschen Forschungsgemeinschaft (DFG), des Bundesministeriums für Bildung und Forschung (BMBF) sowie das Forschungs- und Innovationsprogramm der EU „Horizon Europe“ gefördert.

Wissenschaftliche Ansprechpartner:
Yannic Rudá Damm
Institut für Lebensmittel- und Ressourcenökonomik (ILR)
Universität Bonn
Tel. +49 228/73-1942
E-Mail: yannic.damm@ilr.uni-bonn.de

Originalpublikation:
Yannic Damm, Jan Börner, Nicolas Gerber, Britaldo Soares-Filho: Health benefits of reduced deforestation in the Brazilian Amazon; Nature Communications, Earth & Environment; DOI: 10.1038/s43247-024-01840-7, URL: https://www.nature.com/articles/s43247-024-01840-7

(nach oben)


Wovon hängt die Zustimmung zur EU-Klimapolitik ab?

Die Europäische Union hat sich ambitionierte Ziele gesetzt, um bis 2050 klimaneutral zu werden. Eine neues Policy Paper des Exzellenzclusters „The Politics of Inequality“ an der Universität Konstanz zeigt nun, dass die Akzeptanz der EU-Klimapolitik stark von der Einbindung sozialpolitischer Maßnahmen abhängt.

Wie steht die deutsche Bevölkerung zur EU-Klimapolitik? Diese Frage untersucht die Politikwissenschaftlerin Sharon Baute, Juniorprofessorin für Vergleichende Sozialpolitik und Principal Investigator am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz. In ihrem frei abrufbaren Policy Paper erörtert sie die Auswirkungen dieser Erkenntnisse auf die Zukunft der EU-Klimapolitik.
„Generell zeigt die Studie, dass es eine breite Basis für klimapolitische Maßnahmen gibt“, erklärt Baute. Etwa 95 Prozent der knapp 6.000 Befragten sind sich darüber einig, dass der Klimawandel zumindest teilweise menschengemacht ist, ein Großteil erwartet negative Folgen für die Menschheit. Um öffentliche Akzeptanz für klimapolitische Maßnahmen der EU zu erreichen, kommt es besonders auf deren Zusammensetzung an.
„Die Zustimmung zur europäischen Klimapolitik kann erheblich gesteigert werden, wenn sozialpolitische Maßnahmen einbezogen werden“, schlussfolgert Baute. „Sowohl einkommensschwache als auch einkommensstarke Gruppen bevorzugen Maßnahmenpakete mit sozialen Komponenten: beispielsweise Maßnahmen, die in Humankapital investieren – wie etwa die (Um-)Qualifizierung von Angestellten – oder Programme, die Subventionen für Haushalte mit geringem Einkommen vorsehen.“ Des Weiteren zeigen die Daten, dass die deutsche Bevölkerung eine Verteilung von EU-Mitteln nach Bevölkerungszahl gegenüber etwa einer Verteilung nach Treibhausgasemissionen bevorzugt.
Die Ergebnisse der Umfrage liefern wichtige Hinweise für die erfolgreiche Implementierung von klimapolitischen Maßnahmen. So sind sie zum Beispiel relevant im Kontext des Gebäudeenergiegesetzes (GEG), das im Januar 2024 in Kraft getreten ist. Gegen dessen ersten Entwurf, der soziale Aspekte nicht in den Blick nahm, gab es erheblichen Widerstand. Erst nach umfassenden Anpassungen konnte das Gesetz verabschiedet werden.

Faktenübersicht:

  • Die Originalpublikation „The distributive politics of the green transition: a conjoint experiment on EU climate change mitigation policy” ist abrufbar auf der Seite des Journal of European Public Policy.
  • Die Online-Umfrage wurde im Januar 2023 unter 5.796 Befragten der deutschen Bevölkerung im Alter von 18 bis 75 Jahren durchgeführt. Um sicherzustellen, dass die Stichprobe die demografische Zusammensetzung der allgemeinen Bevölkerung im Alter von 18 bis 75 Jahren repräsentiert, wurden Quoten für Alter, Geschlecht, Bildung und Region angewendet.
  • Basierend auf diesen Ergebnissen ist nun das Policy Paper „Wie lässt sich die öffentliche Zustimmung zur europäischen Klimapolitik erhöhen? Erkenntnisse aus der deutschen Bevölkerung“ erschienen. Das Policy Paper wird gemeinsam mit dem Berliner Think Tank „Das Progressive Zentrum (DPZ)“ veröffentlicht.
  • Sharon Baute ist Juniorprofessorin für Vergleichende Sozialpolitik und Principal Investigator am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz. Ihre Forschungsschwerpunkte liegen in den Bereichen Sozialpolitik, europäische Integration und internationale Solidarität.
  • Der Exzellenzcluster „The Politics of Inequality” an der Universität Konstanz erforscht aus interdisziplinärer Perspektive die politischen Ursachen und Folgen von Ungleichheit. Die Forschung widmet sich einigen der drängendsten Themen unserer Zeit: Zugang zu und Verteilung von (ökonomischen) Ressourcen, der weltweite Aufstieg von Populist*innen, Klimawandel und ungerecht verteilte Bildungschancen.

Hinweis an die Redaktionen
Ein Bild kann im Folgenden heruntergeladen werden:
https://www.uni-konstanz.de/fileadmin/pi/fileserver/2024_EXTRA/wovon_haengt_baut…
Bildunterschrift: Sharon Baute, Juniorprofessorin für Vergleichende Sozialpolitik und Principal Investigator am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz.
Foto: Ines Janas

(nach oben)


Wie Landwirtschaft ohne chemischen Pflanzenschutz geht

Was, wenn in Zukunft keine wirksamen chemischen Pflanzenschutzmittel mehr zur Verfügung stehen? Über diese Frage haben Vertreterinnen und Vertreter aus Wissenschaft, Landwirtschaft und Behörden an der Uni Würzburg diskutiert.

Zugegeben, es handelt sich um ein Extremszenario: eine Welt, in der es keine wirksamen chemischen Pflanzenschutzmittel mehr gibt. Völlig unrealistisch ist die Vorstellung jedoch nicht: „Verschiedene Umstände können dazu führen, dass in Zukunft keine chemischen Pflanzenschutzmittel mehr zur Verfügung stehen“, sagt Dr. Ute Fricke, Wissenschaftliche Mitarbeiterin am Lehrstuhl für Zoologie 3 (Tierökologie) der Julius-Maximilians-Universität Würzburg (JMU).

So genannte „resistente Schadorganismen“ in Kombination mit wenigen Neuzulassungen und auslaufenden Zulassungen von chemischen Pflanzenschutzmitteln könnten ein Grund dafür sein. Aber auch der gesellschaftliche Druck könnte zu einem Verzicht auf chemische Pflanzenschutzmittel führen. „Der aktuelle gesellschaftliche Druck diesbezüglich wird von den Teilnehmenden jedoch sehr unterschiedlich wahrgenommen, von sehr hoch bis derzeit stark abnehmend“, so die Wissenschaftlerin.

Ein Verzicht auf chemische Pflanzenschutzmittel hätte deutliche Folgen
Vor diesem Hintergrund hatte Ute Fricke im Rahmen des europäischen T0P-AGRI-Netzwerks (mehr dazu unten) zu einem Workshop an die Universität Würzburg eingeladen, um das Extremszenario mit seinen Folgen sowie mögliche Gegenmaßnahmen zu diskutieren. Daran teilgenommen haben Vertreterinnen und Vertreter des ökologischen und des konventionellen Landbaus, des Landschaftspflegeverbandes Würzburg und des Amtes für Ernährung, Landwirtschaft und Forsten (AELF Kitzingen-Würzburg). Vergleichbare Workshops fanden in den letzten Monaten auch unter anderem in Frankreich, Polen, Schweden, Serbien und Italien statt.

„Im Rahmen des Workshops in Würzburg haben die Teilnehmerinnen und Teilnehmer zahlreiche Maßnahmen zusammengetragen, die dazu beitragen können, im Extremfall auf chemische Pflanzenschutzmittel verzichten zu können“, fasst die Wissenschaftlerin das zentrale Ergebnis zusammen. Solche Maßnahmen hätten allerdings zur Folge, dass insgesamt weniger Getreide produziert würde, dafür aber beispielsweise mehr Hülsenfrüchte, wie etwa Erbsen, Luzerne und Sojabohnen.

Dann müssten neue Absatzmärkte erschlossen werden, und Menschen müssten ihre Ernährung dem veränderten Angebot anpassen, sprich: weniger Getreideprodukte und dafür mehr Hülsenfrüchte verzehren. Auch die Tierhaltung und Biogasanlagen müssten in die Verwertung der Produkte einbezogen werden, was sich auf die Futtermittelimporte auswirken würde.

Eine Vielzahl positiver Nebeneffekte
Für den Boden und das Klima hätten diese Maßnahmen eine Vielzahl positiver Nebeneffekte: „Die Bodenfruchtbarkeit steigt, die Wasserhaltefähigkeit des Bodens nimmt zu, was mit einer verbesserten Pufferkapazität bei Extremwetterereignissen einhergeht, und die Böden sind besser vor Erosion geschützt“, zählt Ute Fricke auf. Darüber hinaus würde dies einen Beitrag zum Klimaschutz leisten.

Einig waren sich die Teilnehmerinnen und Teilnehmer des Workshops darin, dass es ohne chemische Pflanzenschutzmittel zu Ertragseinbußen und Ernteverlusten durch Schadorganismen kommen wird. Mit den vorgeschlagenen Maßnahmen könnten jedoch bei standortangepasster Umsetzung und entsprechenden Änderungen der politischen Vorgaben höhere Erträge erzielt werden als im derzeitigen Durchschnitt des Biolandbaus.

„Ertragsstabilität kann durch die vorgeschlagenen Maßnahmen jedoch nicht gewährleistet werden“, so Ute Fricke. Um resiliente, ertragreiche Anbausysteme zu schaffen, die ohne chemische Pflanzenschutzmittel auskommen, seien deshalb über den erarbeiteten Katalog hinausgehende Maßnahmen und Innovationen notwendig.

Der Workshop
Der Workshop fand im Rahmen des T0P-AGRI-Netzwerks („Towards zer0 Pesticide AGRIculture: European Network for Sustainability“) statt. Dabei handelt es sich um eine europäische Initiative, die sich mit Veränderungen im Anbausystem beschäftigt, die es ermöglichen, qualitativ hochwertige und bezahlbare Lebensmittel ohne chemische Pflanzenschutzmittel zu produzieren.

Geleitet wurde der Workshop von Dr. Ute Fricke, unterstützt von Dr. Fabienne Maihoff und Denise Bertleff – alle drei arbeiten am Lehrstuhl für Tierökologie und Tropenbiologie der Universität Würzburg.

Weitere Informationen:
https://www.cost.eu/actions/CA21134/ Mehr Informationen zum TOP-AGRI-Netzwerk

(nach oben)


Weltdiabetestag 2024: Allein 8.000 der 400.000 neuen Demenz-Fälle pro Jahr gehen auf das Konto von Diabetes

Übermorgen ist Weltdiabetestag. Die Deutsche Gesellschaft für Neurologie (DGN) und die Deutsche Hirnstiftung möchten anlässlich des Aktionstags den Fokus auf das erhöhte Demenz-Risiko von Menschen mit Diabetes lenken. Hier besteht ein deutlicher Zusammenhang, allein 2 % aller Demenz-Fälle können auf Diabetes mellitus zurückgeführt werden. Diabetes-Typ-2-Prävention ist somit auch aktive Demenz-Prävention. Ein gesunder Lebensstil beeinflusst nicht nur das Diabetes-Risiko, sondern auch andere Demenz-Risikofaktoren, wie Cholesterin oder Bluthochdruck. Der additive Effekt für die Hirngesundheit ist somit viel höher als „nur“ 2 %.

Jedes Jahr entwickeln ca. 400.000 Menschen in Deutschland eine Demenz – und das Deutsches Zentrum für Neurodegenerative Erkrankungen e. V. (DZNE) warnt: Die Zahl der von einer Demenz Betroffenen wird nach Prognosen kontinuierlich von heute 1,8 Millionen auf bis zu 2,7 Millionen im Jahr 2050 ansteigen [1]. Auch die Diabetes-Rate (Typ 2) erhöht sich rasant, bis 2050 könnte sich die Zahl der Betroffenen womöglich verdoppeln [2].

Was viele nicht wissen: es besteht ein Zusammenhang zwischen beiden Erkrankungen: Menschen mit Diabetes haben ein erhöhtes Demenz-Risiko. Im Jahr 2021 kam eine große populationsbasierte Studie aus Großbritannien [3] sogar zu dem Schluss: Je früher man an einem Typ-2-Diabetes erkrankt, umso höher ist die Wahrscheinlichkeit, später eine Demenz zu entwickeln.

Bislang sind 14 Risikofaktoren für Demenz bekannt, die prinzipiell modifizierbar sind und durch medizinische Vorsorge und gesunde Lebensgewohnheiten zum Teil persönlich beeinflusst werden können [4]. Dazu gehören unter anderem Bluthochdruck, Übergewicht, Sehstörungen, Schwerhörigkeit, Fettstoffwechselstörungen, soziale Isolation – und eben auch Diabetes mellitus.

Bei Beseitigung aller 14 Risiken wären rund 45 % aller Demenz-Erkrankungen, also fast die Hälfte, vermeidbar – oder könnten zumindest deutlich hinausgezögert werden. Der alleinige Anteil des Diabetes am Demenz-Risiko wird in dieser großen Erhebung auf 2 % geschätzt [4]. Das bedeutet: Allein 8.000 der 400.000 neuen Demenz-Fälle pro Jahr in Deutschland gehen auf das Konto von Diabetes.

„Die Prävention von Diabetes mellitus ist somit ein Investment in die eigene Hirngesundheit“, erklärt Prof. Dr. Peter Berlit, Generalsekretär der Deutschen Gesellschaft für Neurologie. „Wer mit Ernährungsumstellung und viel Bewegung seinen Lebensstil gesundheitsbewusst gestaltet, um Diabetes zu vermeiden, beugt gleichzeitig anderen Erkrankungen und Faktoren vor, die eine Demenz begünstigen, wie z. B. Übergewicht, hohe Blutfettwerte oder Bluthochdruck. Der additive Effekt auf das Demenz-Risiko ist dann viel größer als nur die besagten 2 %.“

Wie schädigt Diabetes das Gehirn und führt zu einer Demenz?
Diabetes kann auf ganz unterschiedliche Weise das Gehirn schädigen: (1) durch Veränderungen an den Gehirngefäßen, denn Diabetes führt zu Gefäßverkalkungen, (2) durch Beeinträchtigung des Zucker- und Insulinstoffwechsels im Gehirn und (3) durch Hypoglykämien (Unterzuckerungen) durch die Diabetestherapie z. B. mit Insulin. Auch ein instabiler Blutzucker-Langzeitwert HbA1c ist mit einem höheren Demenz-Risiko verbunden [5].

Manche Stoffwechseleigenschaften des Diabetes schädigen das Gehirn direkt – ohne Vermittlung durch den Blutzucker: Bei Diabetes-Typ-2 wurde die Abnahme der Expression von Glukosetransportern ( GLUT-1 und GLUT-3) in verschiedenen Hirnregionen beobachtet, auch die Zunahme von Sauerstoffradikalen sowie mitochondriale Veränderungen, die im Zusammenhang mit den pathophysiologischen Veränderungen bei Demenz stehen könnten [6]. Entsprechend wurden bereits moderne Antidiabetika, sog. SGLT2-Inhibitoren, daraufhin getestet, ob sie auch das Demenz-Risiko von Menschen mit Diabetes senken können. Eine aktuelle koreanische Studie gibt Hoffnung, denn die medikamentöse Intervention reduzierte dort das Risiko um 21 % [7].

Ein weiterer demenzfördernder Effekt läuft über den Insulinstoffwechsel im Gehirn, wo es zu einer Art Insulinresistenz der Hirnzellen kommen kann. Dies hat negative Auswirkungen auf die Abbauvorgänge der Eiweißstoffe, Es gibt Forschergruppen, die daher bei der Alzheimer-Demenz vom „Diabetes Typ 3“ sprechen [8].

Der Zusammenhang zwischen Diabetes und Demenz hat auch eine umgekehrte Einflusskomponente: so wirkt sich eine beginnende Demenz negativ auf die Diabetesbehandlung aus, weil die Betroffenen ihre Therapie und ihre Lebensstilfaktoren schlechter handhaben können [9].

Diabetes-Prävention ist Demenz-Prävention
Dennoch: Die Prävention bleibt die wichtigste Säule im Kampf gegen Demenz-Erkrankungen. „Diabetes-Prävention ist weitgehend auch Demenz-Prävention. Die Deutsche Diabetes Stiftung hat elf Präventionsmaßnahmen [10] zusammengetragen, die die Deutsche Hirnstiftung mitträgt. Die aufgeführten Maßnahmen entsprechen zu großen Teilen unseren Empfehlungen für den Erhalt der Gehirngesundheit bis ins hohe Alter. Was wir allerdings noch zusätzlich zur Demenz-Prävention empfehlen, sind soziale Interaktionen und Aktivitäten, die das Gehirn fördern und fordern, z. B. das Erlernen einer Fremdsprache, eines Musikinstruments oder komplexer Schrittfolgen beim Tanzen“, erklärt Prof. Dr. Frank Erbguth, Präsident der Deutschen Hirnstiftung.


Quellen
[1] https://www.dzne.de/aktuelles/hintergrund/faktenzentrale/
[2] GBD 2021 Diabetes Collaborators. Global, regional, and national burden of diabetes from 1990 to 2021, with projections of prevalence to 2050: a systematic analysis for the Global Burden of Disease Study 2021. Lancet. 2023 Jul 15;402(10397):203-234. doi: 10.1016/S0140-6736(23)01301-6. Epub 2023 Jun 22. Erratum in: Lancet. 2023 Sep 30;402(10408):1132. doi: 10.1016/S0140-6736(23)02044-5. PMID: 37356446; PMCID: PMC10364581.
[3] Barbiellini Amidei C, Fayosse A, Dumurgier J, Machado-Fragua MD, Tabak AG, van Sloten T, Kivimäki M, Dugravot A, Sabia S, Singh-Manoux A. Association Between Age at Diabetes Onset and Subsequent Risk of Dementia. JAMA. 2021 Apr 27;325(16):1640-1649. doi: 10.1001/jama.2021.4001. PMID: 33904867; PMCID: PMC8080220.
[4] Livingston G, Huntley J, Liu KY et al. Dementia prevention, intervention, and care: 2024 report of the Lancet standing Commission. Lancet. 2024 Aug 10;404(10452):572-628. doi: 10.1016/S0140-6736(24)01296-0. Epub 2024 Jul 31. PMID: 39096926.
[5] Underwood PC, Zhang L, Mohr DC, Prentice JC, Nelson RE, Budson AE, Conlin PR. Glycated Hemoglobin A1c Time in Range and Dementia in Older Adults With Diabetes. JAMA Netw Open. 2024 Aug 1;7(8):e2425354. doi: 10.1001/jamanetworkopen.2024.25354. PMID: 39093563; PMCID: PMC11297381.
[6] Rojas M, Chávez-Castillo M, Bautista J, Ortega Á, Nava M, Salazar J, Díaz-Camargo E, Medina O, Rojas-Quintero J, Bermúdez V. Alzheimer’s disease and type 2 diabetes mellitus: Pathophysiologic and pharmacotherapeutics links. World J Diabetes. 2021 Jun 15;12(6):745-766. doi: 10.4239/wjd.v12.i6.745. PMID: 34168725; PMCID: PMC8192246.
[7] Kim HK, Biessels GJ, Yu MH, Hong N, Lee YH, Lee BW, Kang ES, Cha BS, Lee EJ, Lee M. SGLT2 Inhibitor Use and Risk of Dementia and Parkinson Disease Among Patients With Type 2 Diabetes. Neurology. 2024 Oct 22;103(8):e209805. doi: 10.1212/WNL.0000000000209805. Epub 2024 Sep 18. PMID: 39292986.
[8] Janoutová J, Machaczka O, Zatloukalová A, Janout V. Is Alzheimer’s disease a type 3 diabetes? A review. Cent Eur J Public Health. 2022 Sep;30(3):139-143. doi: 10.21101/cejph.a7238. PMID: 36239360.
[9] Erbguth F. Diabetes und Gehirn. Der Diabetologe 2015; 11: 300-308
10] https://www.diabetesstiftung.de/11-tipps-zur-praevention

Pressestelle der Deutschen Gesellschaft für Neurologie
Pressesprecher: Prof. Dr. med. Peter Berlit
Leiterin der DGN-Pressestelle: Dr. Bettina Albers
Deutsche Gesellschaft für Neurologie e. V.
Friedrichstraße 88
10117 Berlin
Tel.: +49 174 2165629
E-Mail: presse@dgn.org
Web: https://dgn.org

Weitere Informationen:
http://www.dgn.org; www.hirnstiftung.org

(nach oben)


Wie unser Gehirn die Welt vorhersagt

Neue Studie Tübinger Forschender zeigt, wie Lernprozesse im Gehirn unsere Wahrnehmung formen.

Ein Forschungsteam um Professor Dr. Markus Siegel vom Hertie-Institut für klinische Hirnforschung an der Universität Tübingen hat herausgefunden, dass unser Gehirn ständig die eigene Wahrnehmung der Welt optimiert, indem es aus den Erfahrungen der Vergangenheit lernt und Vorhersagen über die Zukunft trifft. Die in dem Fachjournal Nature Communications veröffentlichte Studie zeigt, dass das Gehirn seine neuronalen Strukturen so anpasst, dass es besser auf die Muster und Regelmäßigkeiten in unserer Umwelt reagieren kann. Dieses Vorhersagelernen könnte uns helfen, Informationen schneller zu verarbeiten und uns im Alltag leichter zurechtzufinden.

Die Forschenden nutzen in der Studie die Magnetenzephalographie (MEG). MEG ermöglicht es, die Gehirnaktivität des Menschen nicht-invasiv zu messen, indem die durch die Gehirnaktivität generierten Magnetfelder außerhalb des Kopfes aufgezeichnet werden. Während der MEG-Messung hörten die Teilnehmenden eine Serie von Tönen, die unterschiedlich strukturiert waren. Die Forschenden untersuchten daraufhin, wie das Gehirn diese akustischen Informationen verarbeitet und repräsentiert. Sie fanden heraus, dass das Gehirn durch das Erlernen der Tonmuster seine „innere Karte“ der Klänge veränderte: Ähnliche oder vorhersehbare Töne wurden im Gehirn gruppiert und zusammengefasst, was die Verarbeitung effizienter macht.

Besonders überraschend war, dass dabei ein Netzwerk aus sensorischen und höheren assoziativen Gehirnregionen zusammenarbeitet, um Vorhersagefehler zu erkennen und zu korrigieren. Das bedeutet, dass verschiedene Bereiche des Gehirns gemeinsam daran arbeiten, die Umwelt aktiv zu „verstehen“ und zu lernen, was als Nächstes passieren könnte.

„Unsere Ergebnisse zeigen, dass das Gehirn viel mehr tut, als nur In-formationen zu verarbeiten – es baut ständig eine Art Modell der Umwelt auf, das es an die Realität anpasst“, sagt Dr. Antonino Greco, Erstautor der Studie. „Dies könnte helfen zu erklären, warum wir in vertrauten Umgebungen oder bei bekannten Aufgaben besonders effizient sind“, erläutert Mitautor Professor Dr. Hubert Preissl.

Diese Forschung bietet neue Einblicke, die nicht nur für die Neurowissenschaften relevant sind, sondern auch Anwendungen in Bereichen wie Bildung und psychische Gesundheit haben könnten. So könnte dieses Wissen beispielsweise bei der Entwicklung von Lernstrategien oder in der Behandlung von sensorischen Wahrnehmungsstörungen hilfreich sein.

Die Studie verdeutlicht eindrucksvoll, wie flexibel und anpassungsfähig unser Gehirn ist – eine faszinierende Eigenschaft, die unseren Alltag und unsere Wahrnehmung der Welt maßgeblich prägt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Siegel
Hertie-Institut für klinische Hirnforschung
Universität Tübingen
Universitätsklinikum Tübingen
Telefon +49 7071 29-85297
markus.siegel@uni-tuebingen.de

Originalpublikation:
Greco A, Moser J, Preissl H, Siegel M (2024) Predictive learning shapes the representational geometry of the human brain. Nature Communications 15:9670
https://doi.org/10.1038/s41467-024-54032-4

(nach oben)


Wieviel Klimawandel steckt im Wetter?

Neue AWI-Simulationen erlauben, reale Wetterereignisse in verschiedenen Klimaszenarien zu vergleichen und so aufzuzeigen, welche Rolle die globale Erwärmung bei den Extremen spielt.

Erst vor wenigen Wochen sorgte das Sturmtief „Boris“ mit enormen Niederschlägen für Chaos und Überschwemmungen in Mittel- und Osteuropa. Wie eine Analyse des Alfred-Wegener-Instituts nun zeigt, hätte „Boris“ in einer Welt ohne die heutige Erderwärmung rund neun Prozent weniger Regen gebracht. Möglich ist eine so konkrete Aussage durch eine neue Modellierungsmethodik, deren Einsatz in Nahe-Echtzeit nun im Fachmagazin Nature Communications Earth & Environment vorgestellt wurde. Parallel dazu hat das AWI-Team ein frei verfügbares Online-Tool veröffentlicht, mit dem Interessierte den Fingerabdruck des Klimawandels im aktuellen Wettergeschehen identifizieren und eigene Vergleichsgrafiken erstellen können.

Mitte September sorgte das Sturmtief „Boris“ für sintflutartige Regenfälle und extremes Hochwasser in Polen, Tschechien, Österreich und Rumänien. Vielerorts handelte es sich um einen der stärksten jemals gemessenen Niederschläge innerhalb von fünf Tagen. Mindestens 27 Menschen starben, unzählige mussten ihre Häuser verlassen. Inzwischen hat sich die Lage entspannt und die Aufräumarbeiten laufen auf Hochtouren. Schon erschrecken uns aber die aktuellen Extreme in Spanien. Immer wieder wird in Öffentlichkeit, Politik und Medien eine Frage diskutiert: War der globale Klimawandel schuld an der Katastrophe?

„Diese absolut legitime Frage kann die Forschung seit einigen Jahren schon recht gut beantworten“, sagt Leitautorin Dr. Marylou Athanase, Physikerin in der Abteilung Klimadynamik am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). „Bereits ein oder zwei Wochen nach dem Ereignis liefern sogenannte Attributionsstudien erste Aussagen dazu, in welchem Maße ein solches Ereignis durch den Klimawandel wahrscheinlicher geworden ist.“

Das Problem dabei: Wahrscheinlichkeiten sind oft schwer zu greifen, besonders wenn sie auf konkrete, erlebbare Ereignisse treffen. Gerade in der Kommunikation nach außen – mit der Öffentlichkeit und Entscheidungstragenden – fehlte der Wissenschaft bislang ein Werkzeug, das den Einfluss des globalen Klimawandels auf tatsächliches Wetter vor Ort eindrücklich und leicht verständlich zeigt. „Am AWI haben wir deshalb einen ganz neuen Weg maßgeblich mit vorangetrieben – den ‚Storyline‘-Ansatz“, erklärt Dr. Antonio Sánchez-Benítez, ebenfalls Physiker in der Abteilung Klimadynamik und Ko-Leitautor der Studie. „Im Kern arbeiten wir dabei nach dem Was-wäre-wenn-Prinzip. Wie hätte ein konkretes Ereignis in einer Welt ohne Klimawandel ausgesehen? Und wie in einem noch wärmeren Klima? Durch den Vergleich der Was-wäre-wenn-Szenarien mit der Realität können wir dann sehr konkret den Fingerabdruck des Klimawandels bestimmen – nicht nur für Extremereignisse, sondern auch für das alltägliche Wetter.“

Am Beispiel des Sturmtiefs „Boris“ haben die AWI-Forschenden nun im Fachmagazin Nature Communications Earth & Environment vorgestellt, was der neue Ansatz leisten kann. Beim Vergleich der Szenarien zeigt sich: Sturmtief „Boris“ hätte ohne die globale Erwärmung circa neun Prozent weniger Niederschlag verursacht. In der Realität aber konnte sich „Boris“ auf dem Weg nach Mitteleuropa über dem östlichen Mittelmeer und dem Schwarzen Meer deutlich stärker auftanken, weil dort das Wasser im Vergleich zur vorindustriellen Zeit um zwei Grad Celsius wärmer geworden ist – und entsprechend mehr Wasserdampf in der Luft über der Region vorhanden war. Neun Prozent hört sich dabei erstmal wenig an, aber bei den Folgen von Starkregen geht es ja immer darum: Wieviel Wasser sammelt sich am Boden an und wohin läuft es ab – kann ein Fluß, ein Staudamm, die Kanalisation es halten, oder läuft es über und richtet so enormen Schaden an?

Wie aber ist es den Forschenden gelungen, Klimamodellrechnungen, die ja eher für langfristige Trends ausgelegt sind, mit konkretem lokalen Wetter zu verbinden? „Eine wichtige Säule dabei ist die sogenannte ‚Nudging‘-Technik“, erklärt Dr. Helge Gößling, Klimaphysiker und Leiter der Storyline-Forschung am AWI. „Klimamodelle simulieren normalerweise eine ganz eigene, quasi zufällige Abfolge von Wetterzuständen, die konsistent ist mit den physikalischen Gesetzen, auf denen ihre Programmierung beruht. Um Unterschiede im Klima zu bestimmen, muss man dann über einen langen Zeitraum und entsprechend viele Wetterzustände anschauen, ob sich die Mittelwerte und Verteilungen ändern. Auch bei Wettermodellen hat der simulierte Zustand nach ein paar Wochen ja nicht mehr viel mit der Realität zu tun, das konkrete Wetter ist eben nur begrenzt vorhersagbar. Beim ‚Nudging‘, was im Englischen so viel wie ‚Anstupsen‘ bedeutet, geben wir dem Modell real gemessene Winddaten wie die des Jetstreams vor und schubsen es so Stunde für Stunde ein Stück weit in Richtung der echten Winde. So können wir reales Wetter im realen Klima sehr gut simulieren. Dann versetzen wir das Modell in eine Welt ohne Klimawandel, indem wir unter anderem die Treibhausgaskonzentration herunterfahren, und wiederholen das Experiment.“

Das dabei eingesetzte Modell ist die CMIP6-Version des AWI-Klimamodells, das auch zur Datengrundlage des sechsten Sachstandsberichts des Weltklimarats (IPCC) beigetragen hat. Die ins Modell eingespeisten Winddaten stammen aus der ERA5-Reanalyse des Europäischen Zentrums für Mittelfristige Wettervorhersage (ECMWF). „Wir haben das System inzwischen soweit automatisiert, dass auf dem Hochleistungsrechner des Deutschen Klimarechenzentrums (DKRZ) tägliche Analysen zum aktuellen Wettergeschehen laufen“, erklärt Marylou Athanase. „Diese Daten werden dann auf ein Online-Tool übertragen, das auf den Servern des AWI läuft und für jede und jeden unter https://climate-storylines.awi.de frei zugänglich ist. Die Analysen werden mit drei Tagen Verzug durchgeführt und sind dann sofort online verfügbar. So kann sich jede und jeder Interessierte das ‚Klimawandel-Signal des Tages‘ für extremes und alltägliches Wetter weltweit und in Nahe-Echtzeit in Form von Karten und Zeitreihen interaktiv anschauen, wobei zunächst Temperatur und Niederschlag für Tage ab dem 1.1.2024 zur Verfügung stehen. Damit wollen wir zum besseren Verständnis des Zusammenhangs von Klimawandel und Wettergeschehen beitragen und konkrete und zeitnahe Antworten liefern, die dann auch in der medialen Berichterstattung zu Wetterereignissen verwendet werden können.“

Wissenschaftliche Ansprechpartner:
Dr. Helge Gößling, Tel.: 0471 4831-1877; E-Mail: helge.goessling@awi.de
Marylou Athanase, Tel.: 0471 4831-1683; E-Mail: marylou.athanase@awi.de (ausschließlich Englisch)
Antoinio Sanchez Benitez, Tel.: 0471 4831-1878; E-Mail: antonio.sanchez.benitez@awi.de (ausschließlich Englisch)

Originalpublikation:
Marylou Athanase, Antonio Sánchez-Benítez, Eva Monfort, Thomas Jung, Helge F. Goessling (2024). How climate change intensified storm Boris’ extreme rainfall, revealed by near-real-time storylines. Nature Communications Earth & Environment; DOI: https://doi.org/10.1038/s43247-024-01847-0

(nach oben)


Wirtschaftsdünger ansäuern – Emissionen senken, Nährstoffeffizienz steigern

Die Ansäuerung von Wirtschaftsdüngern ist ein Verfahren zur Senkung von Ammoniakemissionen. Im Vorhaben AcidDigSoil untersuchten Forschende, welche Auswirkungen angesäuerte Wirtschaftsdünger auf Biogasanlagen, Boden und Erträge haben. Im Ergebnis ist das Verfahren zur Emissionsminderung gut wirksam. Es führt jedoch zu wirtschaftlichen Verlusten bei der Biogasproduktion. Auch im Pflanzenbau wiegt die höhere Stickstoffverfügbarkeit der Gärreste die Kosten für die Ansäuerung nicht auf.

Verfahren für Biogasanlagenbetreiber derzeit jedoch unwirtschaftlich
An AcidDigSoil waren die Universität Kiel und die Landesforschungsanstalt für Landwirtschaft und Fischerei Mecklenburg-Vorpommern (LFA) beteiligt. Das Vorhaben wurde vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) über den Projektträger Fachagentur Nachwachsende Rohstoffe e. V. (FNR) gefördert. Die beiden Abschlussberichte stehen auf fnr.de unter den Förderkennzeichen 2220NR053A bzw. 2220NR053B zur Verfügung.

In Dänemark hat sich die Ansäuerung von Gülle im Stall, im Lager und bei der Ausbringung bereits ebenso etabliert wie die Ansäuerung von Biogasgärresten. Das Ziel ist die Reduktion von Ammoniak-Emissionen. Aufgrund gesetzlicher Vorgaben zur Begrenzung von Luftschadstoffen besteht diesbezüglich auch in Deutschland Handlungsbedarf.

Gleichzeitig spielen Wirtschaftsdünger im Biogassektor hierzulande eine wichtige Rolle als Substrat und sollen dort nach dem Willen der Politik noch stärker zum Einsatz kommen. Zudem sind sie wichtige Dünger. Vor diesem Hintergrund wurde das Projekt AcidDigSoil durchgeführt.

Für Betreiber von Biogasanlagen ist das Ergebnis ernüchternd: Der Einsatz angesäuerter Gülle ist technisch möglich, jedoch unwirtschaftlich. Die zur Ansäuerung eingesetzte Schwefelsäure mindert nicht nur den Methanertrag; in den Versuchen im Projekt sank er bei Schweinegülle im Mittel um 20 Prozent, bei Rindergülle um 27 Prozent. Außerdem stiegen die Schwefelwasserstoffkonzentrationen im Biogas stark an, womit überproportional hohe Mengen an Eisenpräparaten zur Entschwefelung nötig wurden. Gleichzeitig fiel die Schwefelkonzentration im Gärrest gegenüber Gärresten aus nicht-angesäuerter Gülle um das 4- bis 5-fache höher aus.

„Die erhöhten Schwefelfrachten müssen in der Düngebilanz berücksichtigt werden, sie können schnell zu einem Überschreiten der Düngeempfehlungen führen. In unseren Versuchen wurden diese bis zu 7-fach überschritten. Dieser Überschuss ist eine der wesentlichen Herausforderungen dieses Verfahrens,“ erklärt Professor Eberhard Hartung von der Universität Kiel.

Zwar lässt sich prinzipiell auch Essigsäure zur Ansäuerung einsetzen, die die Methanerträge sogar um rund ein Fünftel erhöhte. Allerdings liegt der Preis für Essigsäure beim etwa Achtfachen von Schwefelsäure, diese Mehrkosten lassen sich nur teilweise durch die höheren Methanausbeuten wieder hereinholen. Tierhaltende Betriebe, die keine eigene Biogasanlage betreiben, werden aus Kostengründen mit großer Wahrscheinlichkeit Schwefelsäure einsetzen.

Positiver fielen die Ergebnisse zu Boden und Nährstoffeffizienz aus: Es wurden keine nachteiligen Auswirkungen auf das Bodenmikrobiom festgestellt, auch zu einer Bodenversauerung oder einer Änderung des Phosphathaushaltes kam es nur minimal. Zudem ging weniger Ammonium durch die Ausgasung von Ammoniak verloren und die Umsetzung des Ammoniums zu Nitrat verlief langsamer, ein entsprechender Trend war bis fünf Monate nach der Ausbringung nachweisbar. Dadurch lassen sich potenziell Mineraldünger einsparen.

Die Gärreste aus angesäuerter Gülle haben die gleichen pH-Werte wie die aus nicht-angesäuerter Gülle. Um Emissionen zu mindern, ist es deshalb erforderlich, die Gärreste zur Ausbringung erneut anzusäuern. Dies testete die LFA mit Schleppschlauchtechnik in Weizen, Raps und Mais. Im Weizen reduzierte die Absenkung des pH-Wertes auf pH 5,5 die Ammoniakemissionen um über 80 Prozent. In allen Versuchsjahren stieg zudem der Rohproteingehalt der Weizenkörner, während eine Steigerung des Kornertrages nur in zwei von drei Jahren und nur in geringerem Maße belegbar war.

Unter Witterungsbedingungen, die hohe Emissionen fördern, lag die maximale Absenkung der NH3-Emissionen in Mais und Raps durch Ansäuerung bei ca. 70 Prozent. Beim Mais stiegen zudem die Erträge und Stärkegehalte, während sich im Raps bei der Ausbringung vor der Aussaat keine positiven Ertragseffekte feststellen ließen. In beiden Kulturen konnte die Einarbeitung der Gärreste mit einem Güllegrubber die Emissionen allerdings noch stärker reduzieren. Beim Mais war der Grubber zugleich auch die ertragsstärkste Variante.

Die LFA resümiert, dass Pflanzenbauer die Mehrkosten der Ansäuerung nach aktuellem Stand noch nicht durch die Einsparung bei Mineraldüngern und eventuelle Mehrerträge oder Qualitätssteigerungen der Ernteprodukte kompensieren können.

Insgesamt führt das Verfahren damit aufgrund der Kosten für Säure und Eisenpräparate, sinkender Methanerträge und hoher Schwefelfrachten im Gärrest bei zu geringen Vorteilen durch die höhere Stickstoffeffizienz zu Verlusten im Bereich der Biogasproduktion. Da es für den Emissions-, Umwelt- und Klimaschutz jedoch seine hohe Wirksamkeit belegt hat, wären Fördermaßnahmen für eine emissionsgeminderte Ausbringung eine Möglichkeit, eine stärkere Etablierung in der Praxis zu erreichen.

Hintergrund:
Ammoniak (NH3) ist eine gasförmige Stickstoffverbindung, die u. a. bei der Ausbringung von Wirtschaftsdüngern wie Flüssig- und Festmist sowie Gärresten emittiert. In der Atmosphäre reagiert sie mit anderen Gasen zu Ammoniumsalzen und gelangt in Form von Schwebstäuben mit Niederschlägen in Gewässer und Böden. Die Folgen sind Eutrophierung (Überdüngung) und Versauerung mit negativen Auswirkungen auf die Biodiversität. Die ammoniumsalzhaltigen Feinstäube gelten zudem als gesundheitsschädlich für den Menschen. Ein kleiner Teil des Ammoniaks wird außerdem in das besonders klimaschädliche Lachgas umgesetzt.

Handlungsdruck zur Senkung der Ammoniakemissionen erzeugt die NEC-Richtlinie der EU (National Emission Ceilings Directive), die 2018 in nationales Recht umgesetzt wurde. Demnach müssen die Emissionen hierzulande ab 2030 um 29 Prozent unter denen des Bezugsjahrs 2005 liegen.

Zum Weiterlesen:
Gärprodukte verlustarm ausbringen (https://biogas.fnr.de//biogas-nutzung/gaerprodukte/gaerprodukte-verlustarm-ausbr…)
„Weniger Ammoniak durch Ansäuerung“: Artikel Bauernzeitung v. 2020 (https://biogas.fnr.de/service/presse/news-archiv/archiv-nachricht/ammoniak-emiss…)

Ansprechpartner:
Fachagentur Nachwachsende Rohstoffe e.V.
Dr. Anne Warnig
Tel.: +49 3843 6930-178
E-Mail: a.warnig@fnr.de

Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Nicole Paul
Tel.: +49 3843 6930-142
Mail: n.paul@fnr.de

Weitere Informationen:
https://www.fnr.de/fnr-struktur-aufgaben-lage/fachagentur-nachwachsende-rohstoff…
https://www.fnr.de/projektfoerderung/projektdatenbank-der-fnr
https://www.fnr.de/index.php?id=11150&fkz=2220NR053A
https://www.fnr.de/index.php?id=11150&fkz=2220NR053B

(nach oben)


Wärmequelle Rhein: Bachelorstudent der H-BRS berechnet Effizienz von Flusswärmepumpen

Antonius Mashadhiarto Wiryanto, Student der Wirtschaftswissenschaften an der Hochschule Bonn-Rhein-Sieg (H-BRS), hat in seiner Bachelorarbeit am Beispiel des Rheins untersucht, ob Klimaveränderungen und Niedrigwasser den Einsatz von Flusswärmepumpen beeinflussen können.
Angesichts des Anstiegs der globalen Temperaturen ist der Einsatz erneuerbarer Energien wichtiger denn je. Im Jahr 2023 stammte in Deutschland nur knapp ein Fünftel der Wärme aus erneuerbaren Quellen. Elektrische Flusswärmepumpen könnten helfen, diesen Anteil zu erhöhen. Sie funktionieren ähnlich wie Wärmepumpen in Gebäuden. Dabei wird die Wärme nicht der Luft, sondern einer kleinen Menge Flusswasser entzogen. Die Temperatur des abgepumpten Wassers wird durch einen thermodynamischen Prozess erhöht. Die erwärmte Flüssigkeit kann dann beispielsweise in das Heizsystem eines Gebäudes geleitet werden. Nach der Wärmeabgabe wird das abgekühlte Wasser wieder in den Fluss zurückgeleitet. Das Wasser kommt dabei weder mit dem Kältemittel noch mit anderen chemischen Stoffen in Kontakt.
Flusswärmepumpen sind besonders effektiv in Regionen mit stabilen Wasserständen und Temperaturen. Hier setzt die wissenschaftliche Arbeit von Antonius Ashadhiarto Wiryanto an. Der Student der Wirtschaftswissenschaften berechnete in seiner Bachelorarbeit an der H-BRS, ob Flusswärmepumpen auch bei Niedrigwasser effizient arbeiten, und welchen Einfluss dies auf das Gewässer haben könnte. Für seine Analyse eines Rheinabschnitts bei Köln orientierte er sich an einer Flusswärmepumpe, die im Oktober 2023 am Rhein bei Mannheim in Betrieb genommen wurde.
„Der Einsatz von drei Flusswärmepumpen mit einer Leistung von insgesamt etwa 60 Megawatt könnte etwa 10.000 Haushalte in Köln für die nächsten 30 Jahre mit Wärme versorgen“, sagt Wiryanto. „Dadurch könnten außerdem rund 900.000 Tonnen an CO2-Emissionen eingespart werden.“ Seine Berechnungen zeigen auch, dass sich Temperatur und Volumen des Rheins durch den Betrieb der Wärmepumpen nicht wesentlich verändern würden und eine Nutzung auch bei Niedrigwasser möglich wäre.
Betreut wurde die Arbeit von Professorin Dr. Wiltrud Terlau, Direktorin des Internationalen Zentrums für Nachhaltige Entwicklung an der H-BRS, und dem Klimaforscher Dr. Karsten Brandt. Beide sehen aufgrund der gewonnenen Erkenntnisse ein großes Potenzial für den Einsatz von Flusswärmepumpen. „Ich bin davon überzeugt, dass in den kommenden 20 bis 30 Jahren an vielen Flüssen Deutschlands Wärmepumpen als Energie- und Wärmequelle genutzt werden könnten, um Häuser, Wohnungen und Unternehmen zu beheizen“, so Brandt. Terlau ergänzt: „Die Arbeit zeigt, dass Flusswärmepumpen großes Potenzial für den Klimaschutz und damit für den Erhalt unserer Zukunft bieten.“
Aufgrund des fortschreitenden Klimawandels besteht allerdings die Gefahr, dass sich im Laufe der Jahre die stetig sinkenden Wasserstände negativ auf die Wärmeleistung auswirken könnten. Brandt sieht trotz dieser Risiken viele Chancen in der Technologie der Flusswärmepumpen: „Die Arbeit zeigt, dass die genannten Problematiken nur an wenigen Tagen im Jahr den Wärmepumpeneinsatz erschweren würden und die Chancen gutstehen, die Wärme des Rheins zukünftig in Köln zum Heizen und später vielleicht auch zum Kühlen zu nutzen.“

Wissenschaftliche Ansprechpartner:
Professorin Dr. Wiltrud Terlau, +49 2241 865 410, wiltrud.terlau@h-brs.de

Weitere Informationen:
https://www.h-brs.de/de/kum/pressemitteilung/h-brs-student-berechnet-effizienz-v…

(nach oben)


Stadtwerke bei der Umsetzung lokaler Energieversorgungskonzepte unterstützen

Wie können Stadtwerke ihr Portfolio sowohl an den Zielen der Energiewende als auch an der Entwicklung des energiewirtschaftlichen Umfelds ausrichten? Mit dieser Frage haben sich das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT und die Stadtwerke Düsseldorf im Projekt »SW.Developer« befasst. Ergebnisse: eine Steckbrief-Sammlung für Technologien, Energieversorgungskonzepte und Fördermittel, ein Bewertungstool für lokale, integrale Versorgungslösungen und ein Online-Veranstaltungsformat.
»Unser zukünftiges Energiesystem wird geprägt sein durch eine starke Dezentralität verbunden mit hoher Komplexität und Dynamik. In dieser Umgebung müssen sich auch Stadtwerke neu ausrichten«, lautet die Einschätzung von Jana Schneeloch von Fraunhofer UMSICHT. Gefragt seien vor allem neue Geschäftsfelder, neue Partnerschaften und auch neue interne Strukturen. Die Schwierigkeit: »Häufig fehlt Stadtwerken der Überblick über Themen, die bislang nicht direkt mit bisherigen Geschäftsbereichen verbunden waren«, so Florian Winkler von den Stadtwerken Düsseldorf. Auch Ressourcen und geeignete Werkzeuge, um sich mit einer fundierten Analyse und Weiterentwicklung auseinanderzusetzen, seien in der Regel Mangelware.
Hier hat das Projekt »SW.Developer« – gefördert vom Bundesministerium für Wirtschaft und Klimaschutz – angesetzt. Ziel war es, eine Entwicklungsumgebung zu erarbeiten, die Stadtwerke dabei unterstützt, sich den Herausforderungen der Energiewende zu stellen. Entstanden sind eine Steckbrief-Sammlung, ein Bewertungstool und ein Online-Veranstaltungsformat.
Das SW.Wiki ist frei verfügbar und bietet Stadtwerken Unterstützung bei der Umsetzung lokaler Energieversorgungssysteme. In 120 Steckbriefen sind Informationen zu Technologien, Konzepten und Fördermitteln aufbereitet. Eine Verlinkung erlaubt, sich mit verschiedenen Lösungsoptionen zu befassen und auch verwandte Varianten in Betracht zu ziehen. Die technischen Daten können zudem in einer Vergleichstabelle nebeneinandergestellt werden.

Bewertungstool für lokale, integrale Versorgungslösungen
Mit Hilfe des SW.Evaluator können Stadtwerke einzelne Technologiekonzepte und auch Portfolios bewerten. Bei der Konzeptbewertung geht es um Konzepte für Strom- und Wärmeversorgung sowie E-Mobilitätseinbindung in Typgebäuden und -quartieren, die zuvor mittels mathematischer Optimierung nach Kosten optimiert wurden. Auch Gesamtkosten und direkte CO2-Emissionen sind als relevante Kennzahlen darstellbar. Im Fokus der Portfoliobewertung stehen Verkauf und Contracting der jeweiligen Technologiekonzepte als Produktlösungen.
Die Online-Veranstaltungsreihe SW.aktiv ist im Mai 2021 gestartet. Sie bietet ca. fünf Mal im Jahr der Stadtwerke-Community Gelegenheit, sich zu Themen wie Wärme, Wasserstoff, Digitalisierung, Wärmeplanung und Infrastruktur auszutauschen. Der Aufbau: Zunächst stellen sowohl Vertreterinnen und Vertreter von Stadtwerken als auch Forschende erfolgreiche Technologien und Lösungsansätze vor, die anschließend gemeinsam mit allen Teilnehmenden diskutiert werden. Der nächste Termin findet am 3. Dezember 2024 statt.
Die kompletten Projektergebnisse stehen im Abschlussbericht zur Verfügung. Darüber hinaus ist mit »Roadmap.SW« bereits ein Folgeprojekt gestartet. Zielsetzung: Stadtwerke bei Dekarbonisierung und Digitalisierung zu unterstützen. Neben Fraunhofer UMSICHT als Konsortialführer sind die Arbeitsgemeinschaft für sparsame Energie- und Wasserverwendung (ASEW), das FIR e. V. an der RWTH Aachen sowie die Ideenstadtwerke aus Neustadt am Rübenberge Projektpartner.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/stadt…

(nach oben)


Wasseraufbereitung: Nanoröhren fangen Steroidhormone

Steroidhormone gehören zu den verbreitetsten Mikroverunreinigungen im Wasser. Sie schaden der menschlichen Gesundheit und stören das ökologische Gleichgewicht von Gewässern. Am Karlsruher Institut für Technologie (KIT) haben Forscherinnen untersucht, wie der Abbau von Steroidhormonen in einem elektrochemischen Membranreaktor mit Kohlenstoffnanoröhren-Membran funktioniert. Sie stellten fest, dass die Adsorption der Steroidhormone an den Kohlenstoff-Nanoröhren ihren nachfolgenden Abbau nicht einschränkt. Über ihre Studie berichten die Wissenschaftlerinnen in Nature Communications (DOI: 10.1038/s41467-024-52730-7).
Menschen weltweit mit sauberem Wasser zu versorgen, gehört zu den großen Herausforderungen der Gegenwart und Zukunft. In Abwässern finden sich verschiedene Mikroverunreinigungen, das heißt organische und anorganische Stoffe, die in geringen Konzentrationen auftreten, sich aber dennoch schädlich auf Mensch und Umwelt auswirken. Besondere Risiken gehen von endokrin wirksamen Substanzen aus, also solchen, die sich auf das Hormonsystem auswirken können, wie beispielsweise Steroidhormone. Diese sind unter anderem in Arzneimitteln und Empfängnisverhütungsmitteln weit verbreitet. Im Wasser lassen sie sich schwer nachweisen, können aber die Gesundheit des Menschen und das ökologische Gleichgewicht von Gewässern empfindlich stören.

Oxidation ermöglicht Abbau von Mikroverunreinigungen
Mit herkömmlichen Methoden der Wasseraufbereitung lassen sich Steroidhormone weder aufspüren noch entfernen. Als fortschrittlicher Ansatz ist die elektrochemische Oxidation (EO) zunehmend anerkannt: EO-Systeme bestehen aus einer Anode und einer Kathode, angeschlossen an eine externe Stromquelle. Die elektrische Energie der Elektroden wird verändert (moduliert), was zu einer Oxidation an der Anodenoberfläche führt und die Verunreinigungen abbaut. Elektrochemische Membranreaktoren (EMR) nutzen die Möglichkeiten der EO noch wirksamer: Als Durchflusselektrode dient eine leitende Membran, was den Stofftransport verbessert. Überdies sind aktive Stellen für die reagierenden Moleküle vollständig zugänglich.

Kohlenstoff-Nanoröhren besitzen einzigartige physikalische und chemische Eigenschaften
Forscherinnen am Institute for Advanced Membrane Technology (IAMT) des KIT haben zusammen mit Wissenschaftlerinnen und Wissenschaftlern an der University of California, Los Angeles, und an der Hebrew University of Jerusalem nun die schwer verständlichen Mechanismen in EMR weiter aufgeklärt: Wie die Forschenden in der Sonderausgabe „Water Treatment and Harvesting“ der Fachzeitschrift Nature Communications berichten, untersuchten sie den Abbau von Steroidhormon-Mikroverunreinigungen in einem EMR mit Kohlenstoffnanoröhren-Membran. Kohlenstoff-Nanoröhren (Carbon Nanotubes, CNT) weisen Durchmesser im Nanometerbereich auf und besitzen einzigartige physikalische und chemische Eigenschaften: „Ihre hohe Leitfähigkeit ermöglicht einen effizienten Elektronentransfer“, erklärt Andrea Iris Schäfer, Professorin für Wasser-Verfahrenstechnik und Leiterin des IAMT des KIT. „Dank ihrer Nanostruktur verfügen CNT über eine außerordentlich große Oberfläche und damit ein enormes Potenzial für die Adsorption verschiedener organischer Verbindungen, was nachfolgende elektrochemische Reaktionen erleichtert.“
In ihrer Studie untersuchten die Forschenden mit modernsten analytischen Methoden das komplexe Zusammenspiel von Adsorption und Desorption, elektrochemischen Reaktionen und der Bildung von Nebenprodukten in einem EMR. „Wir haben festgestellt, dass die vorangehende Adsorption von Steroidhormonen, das heißt deren Anreicherung an der Oberfläche der CNT, den nachfolgenden Abbau der Hormone nicht einschränkt“, berichtet Dr. Siqi Liu, Postdoc am IAMT. „Dies führen wir auf die schnelle Adsorption und den effektiven Stofftransport zurück.“ Der analytische Ansatz der Studie erleichtert auch das Bestimmen der den Hormonabbau begrenzenden Faktoren und sich verändernden Bedingungen. „Unsere Untersuchung klärt einige grundlegende Mechanismen in elektrochemischen Membranreaktoren auf und liefert wertvolle Erkenntnisse, um elektrochemische Strategien zur Beseitigung von Mikroverunreinigungen im Wasser weiterzuentwickeln“, fasst Schäfer zusammen. (or)
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Wissenschaftliche Ansprechpartner:
Dr. Sabine Fodi, Pressereferentin, Tel.: +49 721 608-41154, E-Mail: sabine.fodi@kit.edu

Originalpublikation:
Siqi Liu, David Jassby, Daniel Mandler, Andrea I. Schäfer: Differentiation of adsorption and degradation in steroid hormone micropollutants removal using electrochemical carbon nanotube membrane. Nature Communications, 2024. DOI: 10.1038/s41467-024-52730-7
https://doi.org/10.1038/s41467-024-52730-7

(nach oben)


Reshaping Our Cities: BLUE PLANET Berlin Water Dialogues 2024 zu „Urban Water Resilience”

„Urban Water Resilience“ im Fokus: Am 28. November 2024 laden die BLUE PLANET Berlin Water Dialogues ein, gemeinsam mit internationalen Expert:innen und Entscheider:innen aus Forschung, Wirtschaft und Politik zukunftsweisende Konzepte für widerstandsfähige Wassersysteme in Städten zu diskutieren.

„Urban Water Resilience“ im Fokus: Am 28. November 2024 laden die BLUE PLANET Berlin Water Dialogues ein, gemeinsam mit internationalen Expert:innen und Entscheider:innen aus Forschung, Wirtschaft und Politik zukunftsweisende Konzepte für widerstandsfähige Wassersysteme in Städten zu diskutieren. Der Klimawandel verlangt ein ganzheitliches Umdenken von grauer, blauer und grüner Infrastruktur. Nach der Begrüßung durch Staatsekretär Dr. Severin Fischer (Senatsverwaltung für Wirtschaft, Energie und Betriebe) bietet die Online-Konferenz mit Keynotes von renommierten Fachleuten wie Will Sarni (Earth Finance, Water Foundry Ventures), Dr. Aklilu Fikresilassie (World Resources Institute Africa), Dr. Darla Nickel (Berliner Regenwasseragentur) und Dr. Carlo W. Becker (bgmr Landschaftsarchitekten) wertvolle Einblicke in innovative Strategien und praxisnahe Lösungen. Die Veranstaltung wird von der Senatsverwaltung für Wirtschaft, Energie und Betriebe gefördert.

Die diesjährigen BLUE PLANET Berlin Water Dialogues konzentrieren sich auf innovative Ansätze in Wassermanagement und Stadtplanung, die die urbane Resilienz stärken. Erfolgreiche Umsetzungsbeispiele zeigen den Teilnehmenden wegweisende Perspektiven für zukunftsfähige Städte auf. Die Veranstaltung gliedert sich in zwei zentrale Themenbereiche: „Stadtplanung“ und „Infrastruktur und Digitalisierung“.

Die Eröffnung zum Thema Schwammstadt übernehmen Dr. Carlo W. Becker und Dr. Darla Nickel. Dr. Becker, Landschaftsarchitekt und geschäftsführender Partner von bgmr Landschaftsarchitekten GmbH, ist auf nachhaltige Stadtentwicklung und Klimaanpassung spezialisiert. Dr. Nickel, Leiterin der Berliner Regenwasseragentur, stellt das Schwammstadtkonzept als praxiserprobtes Modell für eine dezentrale Regenwasserbewirtschaftung in Berlin vor. Ihr Ansatz: Regenwasser lokal speichern, nutzen und versickern lassen, um die Belastung urbaner Systeme zu reduzieren.

Anschließend bieten Projekt-Pitches vertiefte Einblicke in klimafreundliche Stadtentwicklungsprojekte und Pilotvorhaben aus Europa. Die erste Paneldiskussion, moderiert von Prof. Günter Müller-Czygan, Professor für Wasserinfrastruktur und Leiter des Instituts für nachhaltige Wassersysteme (inwa) an der Hochschule für angewandte Wissenschaften Hof, fokussiert auf die urbane Wasserresilienz angesichts extremer Regenereignisse. Die Debatte hebt die dringende Notwendigkeit einer urbanen Umgestaltung hervor.

Der zweite Themenblock „Infrastruktur und Digitalisierung“ wird von Will Sarni eingeleitet, einem führenden Berater für innovative Wasserstrategien. Sarni ist Leiter des Bereichs Wasser und Natur bei Earth Finance. Außerdem ist er Gründer und General Partner von Water Foundry Ventures, einem Venture-Fonds für Wassertechnologie, der sich auf die Bekämpfung von Wasserknappheit, die Wasserqualität und den gerechten Zugang zu Wasser konzentriert. Sarni unterstützt weltweit Unternehmen und Organisationen dabei, nachhaltige Wassermanagementstrategien zu entwickeln. Im anschließenden Pitch-Segment werden zukunftsweisende Modelle für widerstandsfähige städtische Infrastrukturen vorgestellt. Die zweite Paneldiskussion übernimmt Dr. Nicolas Caradot, Forschungsgruppenleiter ‚Smart City & Infrastruktur‘ am Kompetenzzentrum Wasser Berlin (KWB).

In der abschließenden Keynote beleuchtet Dr. Aklilu Fikresilassie, Leiter des Programms „Thriving Resilient Cities“ beim World Resources Institute (WRI) Africa, das Potenzial strategischer, datengestützter Maßnahmen für resilientere Städte. Mit über 20 Jahren Erfahrung in Stadtentwicklung, Umweltpolitik und Programmmanagement bietet Dr. Fikresilassie fundierte Einblicke in die spezifischen Herausforderungen und Chancen des urbanen Wassermanagements auf dem afrikanischen Kontinent.

Durch die BLUE PLANET Berlin Water Dialogues 2024 werden Dr. Pascale Rouault, Geschäftsführerin des KWB, und Boris Greifeneder, Geschäftsführer von German Water Partnership, führen.

Weitere Informationen:
http://Die Anmeldung ist kostenfrei.
http://Das digitale Veranstaltungsformat richtet sich an ein internationales Publikum und wird in englischer Sprache abgehalten. Weitere Informationen erhalten Sie unter www.blueplanetberlin.de oder Sie folgen uns auf LinkedIn.

Anhang
BPB_2. PM

(nach oben)


Klimafreundlicher Strom aus Ammoniak

Bei der Stromerzeugung mit Wasserstoff entstehen keine klimaschädlichen Emissionen. Doch Speicherung und Transport des Gases sind technisch anspruchsvoll. Fraunhofer-Forschende nutzen deshalb das leichter handhabbare Wasserstoffderivat Ammoniak als Ausgangsstoff. Im Hochtemperatur-Brennstoffzellen-Stack wird Ammoniak zerlegt und der entstehende Wasserstoff in Strom verwandelt. Die Abwärme kann beispielsweise als Heizenergie genutzt werden.
Auf dem Energieträger Wasserstoff und seinen Derivaten ruhen große Hoffnungen. In der nationalen Wasserstoffstrategie der Bundesregierung nehmen sie bei der Energiewende eine zentrale Rolle ein. Insbesondere Ammoniak (NH3) hat dabei ein hohes Potenzial, denn Wasserstoff lässt sich in Form von Ammoniak besser speichern und transportieren.
Ein Forschenden-Team mit Prof. Laura Nousch vom Fraunhofer-Institut für Keramische Technologien und Systeme IKTS in Dresden hat auf Basis eines Hochtemperatur-Brennstoffzellen-Stacks (Solid Oxide Fuel Cells, SOFC) einen Demonstrator entwickelt, der Ammoniak direkt und mit einem hohen Wirkungsgrad verstromen kann. Strom und Wärme entstehen in einer einzigen kompakten Anlage – ohne CO2-Emissionen oder andere schädliche Nebenprodukte.

Aus Ammoniak wird Wasserstoff, wird Strom
Fraunhofer-Forscherin Laura Nousch erklärt die Vorteile: »Ammoniak ist in der chemischen Industrie seit Jahrzehnten im Einsatz, zum Beispiel für die Herstellung von Düngemitteln, der Umgang mit dem Stoff daher etabliert und bekannt, dennoch muss der Stoff mit Vorsicht behandelt werden. Als Wasserstoffträger bietet Ammoniak eine hohe Energiedichte und ist zugleich relativ einfach zu speichern und zu transportieren. Für die klimafreundliche Herstellung von Strom und Heizenergie ist Ammoniak ein ideales Ausgangsmaterial.«
Im Prozess wird Ammoniak zunächst in die Brenngasaufbereitung, den sogenannten Cracker, eingeleitet und auf Temperaturen von 300 Grad Celsius und höher erhitzt. Es zerfällt in Wasserstoff (H2) und Stickstoff (N2). Letzterer kann am Ende des Prozesses zusammen mit Wasserdampf als unschädliche Abluft entlassen werden. Anschließend wird der Wasserstoff in die Hochtemperatur-Brennstoffzelle geleitet. In keramischen Elektrolyten wird er über die Anode geführt, während die Kathode von Luft umflossen wird. Bei der Aufspaltung des Wasserstoffs entstehen Elektronen, die von der Anode zur Kathode wandern. So beginnt Strom zu fließen. Neben Wasserdampf produziert die elektrochemische Reaktion auch Wärmeenergie. Außerdem entsteht durch die Nachverbrennung Abwärme. »Diese wird zum einen verwendet, um die hohe Temperatur im Cracker zu halten, und zum anderen als Abwärme entkoppelt. Dann kann sie beispielsweise für eine Gebäudeheizung eingesetzt werden«, erklärt Nousch.

Hoher Wirkungsgrad bei 60 Prozent
Bei der Konzeption der Anlage kam den Forschenden aus dem Fraunhofer IKTS die jahrzehntelange Expertise bei keramischen Brennstoffzellen-Stacks zugute. Damit konnte das Team einen Brennstoffzellen-Demonstrator bauen, der das Zerlegen von Ammoniak in Wasserstoff und dessen anschließende Verstromung praktisch in einem Gerät erledigt. Der Wirkungsgrad liegt dabei ebenso wie bei Erdgas-basierten Verfahren bei 60 Prozent, nur dass Ammoniak-SOFC-Systeme vergleichsweise einfach und robust aufgebaut sind.
Das System ist ideal für kleinere Industrieunternehmen, die Strom ohne CO2-Emissionen erzeugen wollen und nicht am zukünftigen Wasserstoffkernnetz anliegen. Oder für Kommunen und Stadtwerke, die ihre Kunden mit grüner Wärme versorgen wollen. Auch große Schiffe lassen sich auf diese Weise mit umweltfreundlichen Antrieben auf Ammoniak-Wasserstoffbasis ausstatten.

Maßgeschneiderte Brennstoffzellen-Systeme
Je höher die Temperatur im Cracker, desto vollständiger wird Ammoniak in Wasserstoff zerlegt. Umgekehrt gilt, dass bei niedrigeren Temperaturen, also bei etwas über 400 Grad Celsius ein beträchtlicher Teil des Ammoniaks zurückbleibt. »Unsere Tests haben jedoch gezeigt, dass die Ammoniakmoleküle auch vollständig in der Hochtemperatur-Brennstoffzelle zu Wasserstoff zerfallen. Damit kann sogar eine Steigerung der Gesamtleistung der Anlage erreicht werden«, sagt Fraunhofer-Forscherin Laura Nousch. Das eröffnet mehrere Optionen im Rahmen des thermischen Managements der Anlage. »Durch die gezielte Auslegung und ein intelligentes thermisches Management sowie anderen Modifikationen, etwa an Leistung und Größe der Brennstoffzellen-Stacks, sind wir in der Lage, gerade auch für kleine und mittlere Unternehmen maßgeschneiderte Lösungen zur klimafreundlichen Strom- und Wärmeerzeugung zu entwickeln«, erklärt Nousch.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2024/november-2024/klima…

(nach oben)


Neue Bildungsoffensive für die deutsche Chipindustrie

Fachkräfte für die Chipindustrie sichern – mit diesem Ziel startet am 01.11.2024 das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte bundesweite Leitprojekt „Fachkräfte für die Mikroelektronik: skills4chips“. Ein zentraler Bestandteil ist der Aufbau einer nationalen Bildungsakademie für die Mikroelektronik und Mikrosystemtechnik. Die „Microtec Academy“ reagiert mit innovativen Qualifizierungen auf den wachsenden Fachkräftebedarf und wird vom Berliner Ferdinand-Braun-Institut (FBH) koordiniert.

Mehr Chips „made in Europe“: Die Europäische Union strebt an, den Anteil der in Europa produzierten Halbleiter bis 2030 von zehn auf 20 Prozent zu erhöhen und die regionale Halbleiterproduktion durch das Europäische Chip-Gesetz intensiver zu fördern. Um diese Fertigungskapazitäten auszubauen, werden qualifizierte Fachkräfte benötigt. Hier setzt skills4chips in Deutschland an: Das Projekt baut mit der „Microtec Academy“ eine nationale Bildungsakademie für Mikroelektronik und Mikrosystemtechnik auf. Das BMBF stellt hierfür ein Fördervolumen von 12 Millionen Euro über vier Jahre bereit.

Das Verbundteam von skills4chips, unter der Leitung des Berliner Ferdinand-Braun-Instituts, Leibniz-Institut für Höchstfrequenztechnik, kann auf langjährige Erfahrungen bei der Aus- und Weiterbildung im Hochtechnologiebereich zurückgreifen. Es fließen die Ergebnisse aus den vom BMBF geförderten Vorläuferprojekten „BM = x³“ und „Mikroelektronik-Akademie“ ein. Viele bewährte Initiativen aus regionalen Clustern können so weitergeführt und mit neuen Angeboten angereichert werden, etwa mit Teilqualifizierungen oder spezifischen Angeboten für Quereinsteiger*innen.

Stärkung der Fachkräfteausbildung durch passgenaue Angebote
„Unser Ziel ist es, den Mikroelektronik-Standort Deutschland nachhaltig zu stärken“, erklärt Prof. Dr.-Ing. Patrick Scheele, Wissenschaftlicher Geschäftsführer des FBH. „Die ‚Microtec Academy‘ schafft ein einzigartiges Netzwerk, das alle relevanten Player zusammenbringt: Bildungsträger, Berufs- und Hochschulen, Forschung und Industrie. Dadurch können wir passgenaue, zum Teil überregionale Angebote an allen Stellen der Bildungskette bündeln und zugleich neue Qualifizierungswege erschließen. So gewinnen wir die dringend benötigten Fachkräfte mit einem bundesweit abgestimmten Vorgehen, zum Nutzen der Menschen und der Branche.“

Langfristig soll die „Microtec Academy“ die Qualität und Quantität der gesamten Aus-, Fort- und Weiterbildung im Bereich Mikroelektronik steigern – von der Berufsorientierung über Ausbildung und Studium bis zum Re- und Upskilling. Besondere Aufmerksamkeit liegt dabei auf der Ansprache neuer Zielgruppen, der bedarfsgerechten Gestaltung der Bildungsangebote und der Qualifizierung von Ausbildungsverantwortlichen und Lehrkräften. Neue digitale Lösungen wie ein virtuelles Technologielabor ermöglichen innovative Qualifizierungsmaßnahmen. Damit fördert die Akademie orts- und zeitunabhängiges Lernen und bietet ein breites Spektrum an Formaten, von Online-Kursen über hybride Modelle bis hin zu reinen Präsenzkursen, die Theorie und Praxis verbinden.

Eine Gemeinschaftsaufgabe im überregionalen Netzwerk
Das Projektkonsortium besteht neben dem FBH aus sechs weiteren Verbundpartnern, die unterschiedliche Expertise einbringen: dem regionalen Berufsbildungszentrum des Kreises Steinburg, dem Institut für Mikrotechnik der Technischen Universität Braunschweig, dem Fachbereich Informatik und Mikrosystemtechnik der Hochschule Kaiserslautern, der Otto-von-Guericke-Universität Magdeburg, microTEC Südwest e. V. sowie dem IVAM Microtechnology Network. Weitere Kooperations- und Netzwerkpartner aus ganz Deutschland wie die Forschungsfabrik Mikroelektronik Deutschland (FMD) und Silicon Saxony unterstützen das Leitprojekt, um die Fachkräftesicherung in der Mikroelektronik und Mikrosystemtechnik voranzutreiben.

Veranstaltungshinweis des BMBF: Konferenz „Fachkräfte für die Mikroelektronik“
Das Bundesministerium für Bildung und Forschung (BMBF) lädt die Mikroelektronik-Fachcommunity aus Forschung, Industrie und Politik sowie Vertreterinnen und Vertreter von Bildungsträgern, Clustern, Auszubildenden- und Studierendenvereinigungen zur Konferenz „Fachkräfte für die Mikroelektronik (#skills4chips) – Wie der Innovationsstandort Deutschland durch das Zusammenspiel von Forschung und Bildung punkten kann“ am 19. März 2025 in Berlin ein. Das Projektkonsortium wird das Leitprojekt im Rahmen der Konferenz vorstellen und die Veranstaltung nutzen, um wertvolle Impulse für die Projektumsetzung zu gewinnen.

Weiterführende Informationen werden zeitnah unter elektronikforschung.de veröffentlicht.

Wissenschaftliche Ansprechpartner:
Dr. Anja Quednau
Tel. +49 30 63922802
anja.quednau@fbh-berlin.de

(nach oben)


Fraunhofer IEE und Partner testen Kugelspeicher auf dem Meeresgrund vor der kalifornischen Küste

Das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE hat einen Unterwasser-Energiespeicher entwickelt, der das Prinzip der Pumpspeicher-Kraftwerke auf den Meeresgrund überträgt. Nach erfolgreichem Feldtest mit einem kleineren Modell im Bodensee bereiten die Forschenden nun mit Partnern einen Testlauf vor der kalifornischen Küste vor: Sie werden dort im Projekt „StEnSea“ in 500 bis 600 Metern Tiefe eine hohle, 400 Tonnen schwere Betonkugel mit neun Metern Durchmesser verankern. Durch Leerpumpen wird der Speicher geladen. Strömt Wasser hinein, wird Strom erzeugt – er wird entladen. Die Leistung dieses Prototypen beträgt 0,5 Megawatt, die Kapazität 0,4 Megawattstunden.
„Für das Speichern von Strom über mehrere Stunden bis einige Tage hinweg eignen sich Pumpspeicher-Kraftwerke besonders gut. Allerdings ist deren Ausbaupotenzial weltweit stark begrenzt. Daher übertragen wir ihr Funktionsprinzip auf den Meeresgrund – die naturräumlichen und ökologischen Restriktionen sind dort weit geringer. Zudem dürfte die Akzeptanz der Bürgerinnen und Bürger deutlich höher sein“, erklärt Dr. Bernhard Ernst, Senior Projekt Manager beim Fraunhofer IEE.
Das Fraunhofer IEE arbeitet bei diesem Projekt zum einen mit dem US-amerikanischen Start-up Sperra zusammen, das sich auf den 3D-Betondruck für Anwendungen im Bereich der erneuerbaren Energien spezialisiert hat. Zweiter Partner ist Pleuger Industries. Das deutschstämmige Unternehmen mit Hauptsitz in Miami gehört zu den weltweit führenden Herstellern von Unterwasser-Motorpumpen, einer Schlüsselkomponente der StEnSea-Kugelspeicher.
Als Standort des Speichers haben die Partner ein küstennahes Gebiet vor Long Beach bei Los Angeles ausgewählt. Sie wollen ihn spätestens Ende 2026 in Betrieb nehmen. Das deutsche Bundesministerium für Wirtschaft und Klimaschutz fördert das Vorhaben mit knapp 3,4 Millionen Euro, das US-amerikanische Department of Energy mit rund vier Millionen US-Dollar.

Erfolgreicher Feldtest im Bodensee
Sperra wird die Betonkugel in Long Beach im 3D-Druckverfahren, womöglich in Kombination mit dem klassischen Betonbau, herstellen. Sie bekommt oben eine Öffnung, in den eine Unterwasser-Motorpumpe, auch Pumpturbine genannt, in einem Rohr eingelassen wird.
Wird ein Ventil geöffnet, strömt Wasser durch das Rohr in die Kugel hinein. Die integrierte Pumpe läuft dabei rückwärts und arbeitet als Turbine. Das Wasser treibt den Motor an, so dass Strom erzeugt wird. Damit wird der Speicher entladen. Die Technik basiert auf einer Arbeit von Prof. Dr. Horst Schmidt-Böcking and Dr. Gerhard Luther aus dem Jahr 2011. Ein Unterwasserkabel schafft dabei die Verbindung zum Stromnetz an Land oder zu einer schwimmenden Transformator-Station eines Offshore-Windparks. Soll Energie gespeichert werden, pumpt die Motorpumpe das Wasser gegen den Druck des umgebenden Wassers wieder aus der Kugel. Anschließend kann der Zyklus erneut beginnen.
In einem Feldversuch mit einer Drei-Meter-Kugel im Bodensee haben Forschende des Fraunhofer IEE zusammen mit Partnern bereits nachgewiesen, dass dieses Konzept gut funktioniert.

Wassertiefen von 600 bis 800 Metern sind ideal
Kapazität und Leistung der Kugelspeicher hängen vor allem von zwei Faktoren ab: vom Volumen der Kugeln sowie von der Wassersäule, die auf ihnen lastet. Die Fachleute des Fraunhofer IEE haben errechnet, dass Wassertiefen von 600 bis 800 Metern aus wirtschaftlicher Perspektive ideale Standorte sind. Denn dort stehen Parameter wie der Druck, das nötige Kugelgewicht und die erforderliche Wandstärke in optimalem Verhältnis zueinander. Zudem kann man in dieser Tiefe noch konventionelle Unterwasser-Motorpumpen einsetzen. Auch ist es hier nicht nötig, hochfesten Spezialbeton zu verwenden.
Mögliche Standorte für StEnSea-Kugelspeicher in dieser Wassertiefe gibt es mehr als genug, wie eine GIS-Analyse der küstennahen Meeresgebiete zeigt. Dabei haben die Fachleute des Fraunhofer IEE Parameter wie die Bodenneigung, Strömung, Sedimentverschiebung oder die Entfernung zum Land berücksichtigt. Vor Norwegen zum Beispiel, Portugal, der US-amerikanischen West- und Ostküste, Brasilien oder Japan könnten die Kugelspeicher in großer Zahl installiert werden. Ebenso eignet sich die Technologie für tiefe natürliche oder künstliche Seen, beispielsweise für geflutete Tagebaue.

Riesiges weltweites Potenzial
Das globale Speicherpotenzial dieser Technologie liegt nach Berechnungen der Fraunhofer-Forschenden bei insgesamt 817.000 Gigawattstunden. An den zehn besten europäischen Standorten sind es immer noch 166.000 Gigawattstunden. Zum Vergleich: Die Kapazität der bestehenden deutschen Pumpspeicher-Kraftwerke an Land beträgt gerade einmal knapp 40 Gigawattstunden.
Die Speicherkosten setzen die Forschenden des Fraunhofer IEE mit rund 4,6 Cent pro Kilowattstunde an, die Investitionskosten mit 1.354 Euro pro Kilowatt Leistung und 158 Euro pro Kilowattstunde Kapazität. Die Lebensdauer der Betonkugel liegt bei 50 bis60 Jahren. Nach jeweils 20 Jahren müssten Pumpturbine und Generator getauscht werden. Die Effizienz liegt bezogen auf einen ganzen Speicherzyklus mit 75 bis 80 Prozent etwas niedriger als bei einem klassischen Pumpspeicher-Kraftwerk. Diese Rechnung basiert auf einem Speicherpark mit sechs Kugeln, einer Gesamtleistung von 30 Megawatt und einer Kapazität von 120 Megawattstunden sowie 520 Speicherzyklen pro Jahr.
Die StEnSea-Kugelspeicher eignen sich vor allem für zwei Geschäftsmodelle: zum einen für Arbitrage-Geschäfts, also den Kauf von Strom bei niedrigen und den Verkauf bei hohen Börsenpreisen – und zum anderen für die Bereitstellung von Regelreserve, mit der Netzbetreiber die Stromnetze stabilisieren.

„Testlauf ist großer Schritt zur Skalierung der Technologie“
Nach dem erfolgreichen Test im Bodensee wollen die Fachleute nun mit dem neuen Projekt den Einsatz in großer Wassertiefe unter Offshore-Bedingungen testen. Das Ziel es, alle Arbeitsschritte entlang der Herstellung, der Installation, dem Betrieb und der Wartung im Hinblick auf die angestrebte Größe der Kugel – ein Durchmesser von 30 Metern – zu untersuchen und zu bewerten. So wollen sie überprüfen, ob und wie sich die in diesem Projekt gefundenen Lösungen auf eine 30-Meter-Kugel übertragen lassen.
„Mit der globalen Energiewende wird der Speicherbedarf in den nächsten Jahren enorm zunehmen“, sagt Bernhard Ernst vom Fraunhofer IEE. „Mit dem StEnSea-Kugelspeicher haben wir eine kostengünstige Technologie entwickelt, die sich vor allem für das Speichern über kurze bis mittlere Zeiträume bestens eignet. Mit dem Testlauf vor der US-Küste machen wir einen großen Schritt zur Skalierung und Kommerzialisierung dieses Speicherkonzeptes.“

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2024/test-kugelsp…

(nach oben)


BfR-Verbrauchermonitor: Mehrheit der Deutschen kennt das „Schlafhormon“ Melatonin, aber viele sind skeptisch

Der BfR-Verbrauchermonitor ist ein zentrales Instrument des gesundheitlichen Verbraucherschutzes. Er liefert als repräsentative Bevölkerungsbefragung in halbjährlichem Abstand Antworten auf die Frage, wie die Öffentlichkeit zu Themen aus dem Bereich des gesundheitlichen Verbraucherschutzes steht. Die Substanz Melatonin war erstmals Thema im BfR-Verbrauchermonitor. Das körpereigene „Schlafhormon“ ist als verschreibungspflichtiges Arzneimittel sowie in frei verkäuflichen Nahrungsergänzungsmitteln erhältlich. Melatonin soll das Einschlafen fördern. Aber wie bekannt sind der Bevölkerung Nahrungsergänzungsmittel mit Melatonin? Die Befragung ergab, 56 Prozent haben bereits von ihnen gehört. „Unter den Personen, denen melatoninhaltige Nahrungsergänzungsmittel geläufig sind, ist die Meinung gespalten“, erläutert BfR-Präsident Professor Andreas Hensel. „Die eine Hälfte hat eher Bedenken, die andere nicht. Grundsätzlich sollte die Einnahme von melatoninhaltigen Nahrungsergänzungsmitteln als Einschlafhilfe mit Vorsicht betrachtet werden.“

Link zum Verbrauchermonitor:
https://www.bfr.bund.de/cm/350/bfr-verbrauchermonitor-08-2024-bf.pdf
Erstmals seit August 2022 wurde auch die Einschätzung zu UV-Filter in Sonnenschutzmitteln wieder abgefragt. Solche Mittel können durch UV-Filter die Haut schützen, indem sie entweder die ultraviolette (UV) Strahlung der Sonne in Wärme umwandeln oder die UV-Strahlung absorbieren, streuen und reflektieren. 81 Prozent haben von dem Thema bereits gehört, etwas weniger als vor zwei Jahren. Die Einschätzung der gefühlten Beunruhigung über UV-Filter unterscheidet sich hingegen kaum zum vorherigen Wert und ist weiterhin vergleichsweise gering.
„Was sind Ihrer Meinung nach die größten gesundheitlichen Risiken, wenn es um das alltägliche Leben geht, etwa um Lebensmittel, Körperpflegemittel, Kleidung oder Spielzeug?“ Bei dieser offen gestellten Frage ist die öffentliche Meinung beständig. Am häufigsten genannt werden in der Regel unerwünschte Stoffe (etwa „Chemie“ oder „Schadstoffe“, 33 Prozent der Nennungen). Dahinter platzieren sich Kunststoffe (17 Prozent), Zusatzstoffe in Lebensmitteln (12 Prozent) und bestimmte Nährstoffe wie Fett, Zucker oder Salz (11 Prozent).
„Wie sehr sind Sie persönlich über die folgenden gesundheitlichen Verbraucherthemen beunruhigt?“ Bei diesen vorgegebenen Antwortmöglichkeiten führt das Thema „Mikroplastik in Lebensmitteln“ (68 Prozent sehr beunruhigt, 16 Prozent mittel beunruhigt), gefolgt von „Antibiotikaresistenzen“ (62 Prozent und 14 Prozent) und „Reste von Pflanzenschutzmitteln in Lebensmitteln“ (52 Prozent und 18 Prozent). Auch hier sind die Ansichten der Befragten weitgehend unverändert.
32/2024, 31.10.2024

Originalpublikation:
https://www.bfr.bund.de/de/presseinformation/2024/32/bfr_verbrauchermonitor__meh…

(nach oben)


Klimawandel führt zu mehr alpinen Gefahren

Von Steinschlag bis Eislawine: So hat der Klimawandel die Naturgefahren in den Alpen verändert. Der Klimawandel intensiviert vielerorts Naturgefahren in den Bergen und stellt den Alpenraum damit vor besondere Herausforderungen. Das geht aus einer Studie hervor, die SLF-Permafrost-Experte Samuel Weber und Glaziologin Mylène Jacquemart von der WSL und ETH Zürich im Rahmen des WSL-Forschungsprogramms CCAMM gemeinsam koordiniert haben.

Der Klimawandel intensiviert vielerorts Naturgefahren in den Bergen und stellt den Alpenraum damit vor besondere Herausforderungen. Das geht aus einer Studie (https://doi.org/10.1016/j.earscirev.2024.104886) hervor, die SLF-Permafrost-Experte Samuel Weber und Glaziologin Mylène Jacquemart von der WSL und ETH Zürich im Rahmen des WSL-Forschungsprogramms CCAMM (https://ccamm.slf.ch/de/) gemeinsam koordiniert haben. «Unsere Beobachtungen unterstreichen deutlich die Auswirkungen des Klimawandels auf Massenbewegungen in den Bergen», sagt SLF-Wissenschafter Samuel Weber. Das internationale Team hat mehr als dreihundert wissenschaftliche Arbeiten aus den vergangenen drei Jahrzehnten ausgewertet. «Wir haben uns dabei auf die in den Alpen am häufigsten auftretenden Prozesse Steinschlag, Bergsturz, Murgang, Eis- und Schneelawine konzentriert,», erläutert Jacquemart die Vorgehensweise.

Die Ergebnisse:

  • Steinschlag: Die Aktivität hat in den vergangenen Jahrzehnten zugenommen, allerdings nur im hochalpinen Bereich. Dort taut der Permafrost (siehe Kasten), und die Gletscher gehen zurück. Das schwächt verbreitet das Gestein und begünstigt dadurch, dass sich Steine und Felsmassen lösen.
  • Bergsturz: Für diese grossen Ereignisse liegen vergleichsweise wenige Daten vor. «Auch wenn eine klare Aussage noch nicht möglich ist, deutet vieles darauf hin, dass Bergstürze heute häufiger vorkommen», sagt Weber.
  • Murgänge: Eindeutig hat die Zahl der Starkniederschläge zugenommen, die Muren auslösen können. «Aber nur die Hälfte der untersuchten Studien deutet auf eine Zunahme der Murgänge hin», sagt Jacquemart. Allerdings gebe es Anzeichen für mehr Aktivität oberhalb der Baumgrenze und in bislang nicht betroffenen Gebieten. Dort steht aufgrund des Rückgangs der Gletscher und vermehrten Steinschlägen mehr lockeres Material zur Verfügung, welches die Niederschläge in Bewegung setzen können.
  • Lawinen: «In niedrigen Höhenlagen geht die Aktivität zurück, weil dort die Schneemengen abnehmen. In hohen Lagen hat die Lawinenaktivität hingegen leicht zugenommen», erläutert Weber. Gleichzeitig verändert sich deren Art. Trockene Lawinen treten heutzutage im Mittel weniger oft auf, Nassschneelawinen häufiger.
  • Eislawinen: An vielen Orten verschwinden mit den Gletschern auch die Eislawinen. Allerdings deuten regionale Beobachtungen darauf hin, dass grössere Eislawinen seit der Jahrtausendwende häufiger auftreten. «Wo und wie sich Eislawinen genau verändern, muss noch weiter untersucht werden», räumt Jacquemart ein.

Unerwartet kommt das alles nicht. Jacquemart und Weber verweisen auf den ersten IPCC Sachstandsbericht aus dem Jahr 1990, der bereits eine Zunahme alpiner Gefahren durch den Klimawandel prognostiziert hatte. Bei weiter zunehmender Erwärmung werden Schnee- und Eislawinen bis Ende des 21. Jahrhunderts seltener, erwarten die Forschenden. Gleichzeitig erwärmt sich der Permafrost auch in hohen Lagen weiter. Daher gehen die Forschenden davon aus, dass Steinschläge, Murgänge und Bergstürze häufiger werden. «Dieser Wandel stellt die Gesellschaft im Alpenraum vor grosse Herausforderungen», betonen Jacquemart und Weber.

[[Box]] Was ist … Permafrost?
Permafrost ist Boden wie Fels, Schutt oder Moräne, der durchgehend Temperaturen unter 0°C aufweist und daher ständig gefroren ist. Rund fünf Prozent der Fläche der Schweiz besteht aus Permafrost, in der Regel in kalten und hochgelegenen Schutthalden und Felswänden oberhalb von 2500 Metern über dem Meeresspiegel.

Wissenschaftliche Ansprechpartner:
Dr. Samuel Weber, samuel.weber@slf.ch, Tel. +41 81 417 03 76
Dr. Mylène Jacquemart, jacquemart@vaw.baug.ethz.ch, Tel. +41 44 632 41 62

Originalpublikation:
Mylène Jacquemart, Samuel Weber, et al. (2024) Detecting the impact of climate change on alpine mass movements in observational records from the European Alps, Earth-Science Reviews, 104886, https://doi.org/10.1016/j.earscirev.2024.104886.

Weitere Informationen:
https://www.slf.ch/de/news/klimawandel-fuehrt-zu-mehr-alpinen-gefahren/ Online-News
https://www.slf.ch/de/naturgefahren/bergsturz-steinschlag-und-co-faq-und-dossier/ Bergsturz, Steinschlag und Co.: FAQ und Dossier
https://www.slf.ch/de/lawinen/lawinenkunde-und-praevention/lawinenarten/ Lawinenarten

(nach oben)


Tarifrunde 2025: Für etwa 7,5 Millionen Beschäftigte laufen Vergütungstarifverträge aus – Die Kündigungstermine

Zwischen Dezember 2024 und November 2025 laufen laut Berechnungen des Tarifarchivs des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung für etwa 7,5 Millionen Beschäftigte die von den DGB-Gewerkschaften ausgehandelten Vergütungstarifverträge aus – in den betreffenden Branchen werden somit nach aktuellem Stand im kommenden Jahr Tarifverhandlungen stattfinden. „Die Tarifrunde 2025 wird somit eher eine kleine Tarifrunde, die insgesamt deutlich weniger Beschäftigte als gewöhnlich umfasst“, sagt der Leiter des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten. Zum Vergleich: In der Tarifrunde 2024 ging es um Tarifverhandlungen für knapp 12 Millionen Beschäftigte, weil in nahezu allen großen Branchen verhandelt wurde oder wird. In wichtigen Bereichen wie dem Bauhauptgewerbe, der Chemischen Industrie und dem Einzelhandel konnten bereits im ersten Halbjahr Tarifabschlüsse erzielt werden, sodass dort aufgrund mehrjähriger Laufzeiten im Jahr 2025 keine Tarifverhandlungen anstehen. Noch offen sind u. a. die Tarifverträge in der Metall- und Elektroindustrie.

Bei der Mehrzahl der 2025 auslaufenden Tarifverträge handelt es sich um eher kleinere Tarifbranchen mit weniger als 50.000 Beschäftigten. Die große Ausnahme bildet der Öffentliche Dienst (Bund und Gemeinden, Nahverkehr u.a., siehe auch die Tabelle in der pdf-Version dieser PM; Link unten) mit knapp drei Millionen Tarifbeschäftigten, dessen aktuelle Vergütungstarifverträge zum Ende des Jahres 2024 auslaufen und der damit den Auftakt der Tarifrunde 2025 bildet. Zu den größeren Tarifbranchen, in denen im ersten Halbjahr 2025 Tarifverhandlungen anstehen, gehören das Gebäudereinigungshandwerk, die Deutsche Post AG, die Deutsche Bahn AG, das Kfz-Gewerbe und das Versicherungsgewerbe. In der zweiten Jahreshälfte folgen u.a. Verhandlungen im Öffentlichen Dienst (Länder, rund 1,1 Millionen Beschäftigte), in der Zeitarbeit sowie in der Holz und Kunststoff verarbeitenden Industrie.

Wann in welchem Bereich die gültigen Tarifverträge auslaufen, zeigt der tarifliche Kündigungsterminkalender, den das WSI-Tarifarchiv jetzt vorlegt. Einige ausgewählte Beispiele größerer Tarifbranchen (in Klammern: Beschäftigtenzahlen, gerundet auf volle Tausend):

September 2024:

  • Metall- und Elektroindustrie (3.728.000)
  • Maler- und Lackiererhandwerk (o. Saarland) (132.000)
  • Gastgewerbe Baden-Württemberg (103.000)
  • Dachdeckerhandwerk (72.000)

November 2024:

  • Privates Verkehrsgewerbe Bayern (131.000)
  • Volkswagen AG (99.000)

Dezember 2024:

  • Öffentlicher Dienst, Bund und Gemeinden, Nahverkehr u.a. (2.940.000)
  • Gebäudereinigungshandwerk (Arbeiter*innen) (491.000)
  • Deutsche Post AG (160.000)
  • Bewachungsgewerbe Hessen, Baden-Württemberg, Bayern (67.000)
  • Kunststoff verarbeitende Industrie Hessen, Ost (54.000)

Januar 2025:

  • Papier, Pappe und Kunststoff verarbeitende Industrie (72.000)

März 2025:

  • Kfz-Gewerbe (415.000)
  • Deutsche Bahn AG (180.000)
  • Versicherungsgewerbe (178.000)
  • Kunststoff verarbeitende Industrie Bayern (71.000)

Juni 2025:

  • Gastgewerbe Berlin (60.000)

September 2025:

  • Zeitarbeit (GVP) (700.000)
  • Eisen- und Stahlindustrie (o. Saarland) (85.000)
  • Privates Verkehrsgewerbe Niedersachsen (76.000)

Oktober 2025:

  • Öffentlicher Dienst Länder (o. Hessen) (1.067.000)
  • Holz und Kunststoff verarbeitende Industrie (150.000)
  • Wohnungs- und Immobilienwirtschaft (64.000)

Dezember 2025:

  • Ortskrankenkassen (AOK), Barmer, DAK (79.000)
  • Gastgewerbe Hessen, Brandenburg (79.000)
  • Bewachungsgewerbe (53.000)

„Tarifverhandlungen sind wichtige Orte gesellschaftlicher Aushandlungsprozesse“, sagt Prof. Dr. Bettina Kohlrausch, wissenschaftliche Direktorin des WSI. „Eine gelungene Tarifpartnerschaft stärkt den sozialen Frieden. Es ist daher im gesamtgesellschaftlichen Interesse, die Tarifbindung zu stärken.“

Ein ausführlicher Überblick über die Kündigungstermine in zahlreichen weiteren Branchen bis Ende des Jahres 2025 findet sich in der Tabelle im Anhang zu dieser Pressemitteilung.

Weitere Informationen:
https://www.boeckler.de/pdf/pm_wsi_2024_10_30.pdf – Die Pressemitteilung mit Tabelle (pdf)

(nach oben)


Auf dem Weg zur Klimaneutralität: Berlin Declaration von Leopoldina und Chinesischer Akademie der Wissenschaften

Kohlenstoffemissionen spielen eine Schlüsselrolle bei der vom Menschen verursachten globalen Erwärmung. Um die Vereinbarungen des Pariser Klimaabkommens einzuhalten, haben sich China und Deutschland zum Ziel gesetzt, ihre Kohlenstoffemissionen in erheblichem Umfang zu reduzieren. Der Präsident der Nationalen Akademie der Wissenschaften Leopoldina, Prof. (ETHZ) Dr. Gerald Haug, und der Präsident der Chinesischen Akademie der Wissenschaften, Prof. Dr. Jianguo Hou, haben heute im Rahmen der Eröffnung der Science for Future-Konferenz die gemeinsame Erklärung „Berlin Declaration: On the Path to Carbon Neutrality“ unterzeichnet.
Darin betonen die Akademien die Bedeutung von Grundlagenforschung sowie internationaler Zusammenarbeit für das Erreichen der Kohlenstoffneutralität und formulieren konkrete Maßnahmen zur CO2-Reduzierung.
Beide Akademien treten für die Entwicklung wirksamer Maßnahmen zur CO2-Reduzierung in allen relevanten Sektoren ein, einschließlich Energie, Industrie, Verkehr und Gebäude sowie Land- und Forstwirtschaft. Sie identifizieren dabei entscheidende Faktoren wie angemessene politische und sozioökonomische Rahmenbedingungen auf nationaler und globaler Ebene. Leopoldina und CAS sprechen sich u. a. für die Entwicklung von Mess- und Überwachungstechniken für Kohlenstoff sowie für einen globalen CO2-Bepreisungsmechanismus und einen globalen Kohlenstoffmarkt aus. Um die Dekarbonisierung aller Sektoren zu beschleunigen, sollen Technologien zur Nutzung erneuerbarer Energien sowie zum Kohlenstoffkreislaufmanagement wie Carbon Capture and Storage (CCS) und Carbon Capture and Utilization (CCU) gefördert und ausgebaut werden. Die Berlin Declaration unterstreicht zudem, dass die Zusammenarbeit von Grundlagen- und angewandter Forschung verstärkt werden sollte. Mit der gemeinsamen Erklärung bekräftigen Leopoldina und CAS außerdem erneut ihre Absicht, auch weiterhin vertrauensvoll zusammenzuarbeiten und ihre Kräfte zu bündeln, um Brücken zwischen Wissenschaft und Gesellschaft zu bauen und den wissenschaftlichen Nachwuchs sowie die internationale Zusammenarbeit in der Wissenschaft zwischen China und Deutschland zu fördern.
Die „Berlin Declaration: On the Path to Carbon Neutrality“ ist in englischer Sprache erschienen und auch in einer deutschsprachigen Arbeitsübersetzung unter folgendem Link abrufbar: https://www.leopoldina.org/berliner-erklaerung
Die „Berlin Declaration: On the Path to Carbon Neutrality“ wurde von den beiden Akademie-Präsidenten Prof. (ETHZ) Dr. Gerald Haug und Prof. Dr. Jianguo Hou im Rahmen der Eröffnung der zweiten Science for Future-Konferenz unterzeichnet, die heute und morgen in Berlin-Adlershof stattfindet. Namhafte Wissenschaftlerinnen und Wissenschaftler aus Deutschland und China diskutieren dabei Strategien zum Erreichen der CO2-Neutralität, wie die Grundlagenforschung als Innovationsgeber, neue Technologien, aber auch Marktbedingungen und politische Steuerungsinstrumente. Weitere Informationen: https://www.leopoldina.org/veranstaltungen/veranstaltung/event/3169/
Im Jahr 2018 haben die Nationale Akademie der Wissenschaften Leopoldina und die Chinesische Akademie der Wissenschaften die Initiative „Science for Future“ mit dem Ziel ins Leben gerufen, die wichtige Rolle der Grundlagenforschung für die Gesellschaft hervorzuheben. Die Konferenz mit dem Titel „On the Path to Carbon Neutrality“ ist die zweite Konferenz der Reihe. Zum Auftakt 2018 unterzeichneten beide Akademien bereits die „Beijing Declaration on Basic Science“: https://www.leopoldina.org/publikationen/detailansicht/publication/beijing-decla…
Die Leopoldina unterhält enge Kontakte zur Chinesischen Akademie der Wissenschaften. Die Förderung des Austauschs zwischen den wissenschaftlichen Communities beider Länder ist Ziel der Kooperation, beispielsweise im Rahmen gemeinsamer Fachsymposien. Außerdem engagiert sich die Leopoldina gemeinsam mit chinesischen Partnern in der internationalen Politikberatung, beispielsweise im Rahmen der Erarbeitung von Stellungnahmen für die G20-Gipfel.
Die Leopoldina auf X: https://www.twitter.com/leopoldina
Die Leopoldina auf YouTube: https://www.youtube.com/@nationalakademieleopoldina

Über die Nationale Akademie der Wissenschaften Leopoldina:
Als Nationale Akademie der Wissenschaften leistet die Leopoldina unabhängige wissenschaftsbasierte Politikberatung zu gesellschaftlich relevanten Fragen. Dazu erarbeitet die Akademie interdisziplinäre Stellungnahmen auf der Grundlage wissenschaftlicher Erkenntnisse. In diesen Veröffentlichungen werden Handlungsoptionen aufgezeigt, zu entscheiden ist Aufgabe der demokratisch legitimierten Politik. Die Expertinnen und Experten, die Stellungnahmen verfassen, arbeiten ehrenamtlich und ergebnisoffen. Die Leopoldina vertritt die deutsche Wissenschaft in internationalen Gremien, unter anderem bei der wissenschaftsbasierten Beratung der jährlichen G7- und G20-Gipfel. Sie hat rund 1.700 Mitglieder aus mehr als 30 Ländern und vereinigt Expertise aus nahezu allen Forschungsbereichen. Sie wurde 1652 gegründet und 2008 zur Nationalen Akademie der Wissenschaften Deutschlands ernannt. Die Leopoldina ist als unabhängige Wissenschaftsakademie dem Gemeinwohl verpflichtet.

Medienkontakt:
Julia Klabuhn
Kommissarische Leiterin der Abteilung Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)345 472 39-800
E-Mail: presse@leopoldina.org

Weitere Informationen:
https://www.leopoldina.org/leopoldina-home/

(nach oben)


Hitze in Flüssen: Klimawandel erwärmt Berggewässer

Studie des SLF zeigt: Die Wassertemperaturen in europäischen Berggewässern steigen seit Jahrzehnten. Der Klimawandel gefährdet damit Wasserqualität, Fische, Industrie- und Stromproduktion – und hält der Trend an, werden ökologische Kippunkte erreicht. Aktuelle Prognosemodelle ignorieren bislang wichtige Ursachen des Temperaturanstiegs.
Das Wasser in den Gebirgsflüssen und -bächen wird immer wärmer, mit negativen Folgen für Trinkwasser, Industrie, Forellen und viele mehr. Wie warm und woran das liegt, hat SLF-Hydrologin Amber van Hamel für fast 180 Gewässer in verschiedenen Bergregionen Europas untersucht, sowohl für den langfristigen, durchschnittlichen Trend als auch für einzelne Extremsituationen.
Klar ist: Die in Zeiten des Klimawandels immer wärmer werdende Luft erwärmt auch Fliessgewässer. Aber das ist nicht der einzige, wichtige Effekt. Bei extremen Wassertemperaturen spielen Bodenfeuchtigkeit, Grund- und Schmelzwasser ebenfalls eine Rolle. Aktuelle Computermodelle prognostizieren solche Ereignisse allerdings nur auf Basis der Lufttemperatur, erklärt van Hamel: «Sie eignen sich daher eigentlich nicht für die Vorhersage extremer Wassertemperaturen.»
Dabei wären zuverlässige Vorhersagen wichtig. «Solche extremen Wassertemperaturen können ökologische Kipppunkte auslösen», betont die Forscherin. So steigt die Sterblichkeit der Forellen bei Temperaturen von mehr als 23 Grad Celsius. Aber nicht nur die bei Anglern beliebten Fische, die gesamte Biodiversität der Ökosysteme in den Gewässern ist bedroht. Auch können die hohen Temperaturen die Qualität des Wassers reduzieren, was für die Versorgung der Bevölkerung mit sauberem Trinkwasser in manchen Regionen zum Problem werden kann. Zudem können Industrie- und Versorgungsunternehmen ihre Produktionsbetriebe und Kraftwerke nicht mehr ausreichend kühlen, so dass sie gezwungen sind, den Betrieb zu drosseln oder gar einzustellen.
Für ihre Untersuchung hat sie Zeitreihen aus 177 Gewässern und deren Einzugsgebieten in den Alpen, den Pyrenäen, dem französischen Zentralmassiv und den Bergen Skandinaviens untersucht, darunter 35 aus der Schweiz wie Emme, Rhone und den Dischmabach bei Davos. «Die mittlere Wassertemperatur hat in den vergangenen dreissig Jahren pro Jahrzehnt um 0,38 Grad Celsius zugenommen, was zu mehr extremen Wassertemperaturen in hohen Lagen im Frühjahr und Sommer führt», hat van Hamel dabei herausgefunden. Das sind immerhin rund 1,1 Grad mehr im Vergleich zu 1994.
Die höchsten Temperaturen werden in den Pyrenäen, im Zentralmassiv und in den Alpen im Sommer gemessen. Einige Einzugsgebiete erreichen bereits regelmässig 23 Grad Celsius und mehr. «Die höchste beobachtete Wassertemperatur in einem einzelnen Einzugsgebiet war 28 Grad Celsius im Schwarzbach in Österreich», sagt van Hamel. Die Gewässer im Zentralmassiv sind alle vergleichsweise warm. In den Pyrenäen und den Alpen hingegen sind die Unterschiede gross. Grund sind die grösseren Höhenunterschiede in den Einzugsgebieten.
In den Alpen hat van Hamel für alle vier Jahreszeiten einen Trend nach oben beobachtet, mit einem besonders starken Plus im Sommer. «Wenn wegen des Klimawandels im Winter weniger Schnee fällt, gelangt im Frühling und Sommer weniger kühles Schmelzwasser in die Flüsse», erläutert sie das Phänomen. Hinzu kämen verstärkt Dürren. Dadurch nimmt die Feuchte des Bodens ab. Weniger kaltes Grundwasser gelangt in die Flusssysteme.
Anders sieht es bei den Extremen aus. Hier haben die Wassertemperaturen in der Spitze kaum zugelegt. «Aber die Zahl dieser Ereignisse ist deutlich gestiegen», hat van Hamel beobachtet – um sieben Tage pro Jahrzehnt, über alle Jahreszeiten hinweg. Das ist ein Plus von 38 Prozent pro Jahrzehnt.
«Die beobachteten Trends deuten darauf hin, dass die Wahrscheinlichkeit der Beobachtung von extremen Wassertemperaturen in Zukunft höchstwahrscheinlich zunehmen wird», ist sich van Hamel sicher. Der Bedarf an korrekten Prognosen steigt. Sie empfiehlt daher, die bestehenden Modelle zu verbessern und ausser der Lufttemperatur auch andere Faktoren zu berücksichtigen.
Text: Jochen Bettzieche

Wissenschaftliche Ansprechpartner:
Amber van Hamel (Auskünfte auf Englisch), amber.vanhamel@slf.ch, Tel. +41 81 4170 381

Originalpublikation:
https://doi.org/10.1029/2024WR037518

(nach oben)


Mutmacher für den Schutz der Erde

Osnabrück. Derzeit wird in Cali, Kolumbien, auf dem Weltnaturgipfel und bald in Baku, Aserbaidschan, auf der Weltklimakonferenz über Wege zum besseren Schutz der Erde debattiert. Zwei Menschen zeigen heute in Mainz, wie praktische Lösungen aussehen können: Moorforscherin Dr. Franziska Tanneberger und Elektrotechnik-Ingenieur Thomas Speidel werden deshalb in der Rheingoldhalle mit dem Deutschen Umweltpreis der Deutschen Bundesstiftung Umwelt (DBU) ausgezeichnet. Beide teilen sich den Preis in Höhe von insgesamt 500.000 Euro, der zu den höchstdotierten Umwelt-Auszeichnungen Europas zählt. Überreicht wird der Preis von Bundespräsident Frank-Walter Steinmeier.

Trotz Kriegen und Krisen Zeichen für Zuversicht setzen
DBU-Generalsekretär Alexander Bonde nennt beide Ausgezeichnete „echte Praxis-Pioniere“. Tanneberger beweise „auch in Gummistiefeln bei Terminen mit Bäuerinnen und Bauern, dass Moorschutz und Moornutzung kein Widerspruch sind und eine zukunftsfähige Nutzung nasser Moore möglich ist“. Speidel habe „mit seiner Innovationskraft sowie seiner strategischen Weitsicht und seinem wirtschaftlichen Wagemut“ überzeugt. DBU-Kuratoriumsvorsitzender Prof. Dr. Kai Niebert: „Wir dürfen nicht vor den akuten Problemen kapitulieren. Das machen uns Franziska Tanneberger und Thomas Speidel eindrucksvoll klar. Es geht darum, Möglichkeiten des Wandels zu erkennen und zu nutzen.“ Die DBU will laut Niebert mit der diesjährigen Verleihung des Deutschen Umweltpreises auch ein Zeichen für Zuversicht setzen. „Denn sowohl im natürlichen Klimaschutz als auch in der Elektromobilität haben wir die Technologien, die Fähigkeiten und das Wissen, um den ökologischen Wechsel zu beflügeln“, so Niebert. Nach Bondes Worten sind Tanneberger und Speidel Menschen, „die neue Wege wagen und dadurch anderen Mut machen. Trotz der vielen Kriege und Krisen dürfen wir nicht verzweifeln, sondern müssen weitermachen für den Erhalt des Planeten.“

Bonde und Niebert: Klima und Biodiversität sind zwei Seiten einer Medaille
Warum die Bewahrung von Biodiversität und der Erhalt von Ökosystemen unverzichtbar für die Existenz der Menschen sind, wird derzeit jenseits des Atlantik in Cali deutlich: Auf der 16. Konferenz der Vereinten Nationen (United Nations, UN) zur biologischen Vielfalt (COP16) ringen fast 200 Staaten um Antworten auf die Fragen, wie der Raubbau an Natur und Umwelt gestoppt und vor allem, wie der Beschluss der COP15 in Montreal vor zwei Jahren umgesetzt werden kann: mindestens 30 Prozent der weltweiten Land- und Meeresflächen unter Schutz zu stellen. Während die COP16 ein Schlaglicht auf die fragile biologische Vielfalt wirft, beginnt bald in Baku die UN-Klimakonferenz mit dem Blick auf die besorgniserregende Erderwärmung. Wie in Kolumbien geht es in Aserbaidschan um die praktische Umsetzung vereinbarter Ziele. Denn auf der Pariser Weltklimakonferenz 2015 hatten sich die beteiligten ebenfalls fast 200 Staaten geeinigt, das Aufheizen des Planeten auf 1,5 Grad im Vergleich zum vorindustriellen Zeitalter zu begrenzen. Bonde und Niebert: „Klima und Biodiversität sind zwei Seiten einer Medaille. Die Menschen müssen beides schützen – zum Erhalt der Erde und der eigenen Existenz.“ Tanneberger und Speidel seien auch deshalb für den Deutschen Umweltpreis ausgewählt worden, „weil sie mit Tatkraft zeigen, wie man was für mehr Umwelt- und Biodiversitätsschutz tun kann“.

Wiedervernässung von Mooren unentbehrlich zum Speichern von klimaschädlichem Kohlendioxid
Die DBU zeichnet die international renommierte Moorforscherin Tanneberger, die unter anderem maßgeblich am ersten globalen Moor-Zustandsbericht mitgewirkt hat, mit dem Deutschen Umweltpreis aus, weil sie nach Bondes Worten „als treibende Kraft die Revitalisierung von Mooren vorangebracht und es zugleich geschafft hat, Brücken zwischen Wissenschaft, Politik und Landwirtschaft zu bauen“. Die Wiedervernässung trockengelegter Moore sei „unentbehrlich, um klimaschädliches Kohlendioxid zu speichern“. Die Aufgabe ist riesig: Weltweit sind die künstlich trockengelegten Moorflächen jährlich Ursache für rund zwei Milliarden Tonnen Kohlendioxid-Äquivalente – etwa vier Prozent der durch Menschen global verursachten Treibhausgasemissionen. Bonde zufolge sind Moore überdies nicht nur Kohlenstoffsenken, „sondern auch Wasserspeicher und ein Garant für Lebensvielfalt“. Tanneberger sei es gelungen, „für besseren Schutz von Klima und Biodiversität Bäuerinnen und Bauern ins Boot zu holen, weil man Moore nämlich auch nass nutzen kann“. Als Beispiele nannte der DBU-Generalsekretär innovative Materialien zum Bauen und Dämmen, die Streunutzung etwa in Bayern sowie Rohrdächer auf Häusern in Norddeutschland.

Multi-Tools wie ein Schweizer Taschenmesser der Energiewende
Elektrotechnik-Ingenieur Thomas Speidel wiederum erhält laut Niebert den Deutschen Umweltpreis, „weil er ein Wegbereiter der Energiewende ist“. Als Geschäftsführer des mittlerweile an der Börse gelisteten Unternehmens ads-tec Energy in Nürtingen bei Stuttgart sei er „quasi gelebte Transformation“. Niebert: „Er hat seinen Betrieb von einer Firma für Verbrennertechnik in ein Unternehmen umgewandelt, das die batteriegepufferten Schnellladesysteme ChargeBox und ChargePost entwickelt hat und so für mehr Tempo in der Elektromobilität sorgt.“ Der Clou: Stromtanken ist minutenschnell statt stundenlang möglich. Die beiden Systeme ziehen langsam Strom aus dem Netz, speichern ihn, um bei Bedarf ein E-Fahrzeug in einem Schwall aufzuladen – ähnlich wie bei einem WC-Spülkasten, der sich langsam auffüllt und sich blitzschnell entleert. Speidel spricht von „Multi-Tools, wie wie ein Schweizer Taschenmesser der Energiewende“ funktionieren: schnelles Stromtanken, Stabilisierung des Netzes, Überbrücken der fehlenden Ladeinfrastruktur und sogar digitale Litfaß-Säule. Denn der ChargePost bietet zudem die Option großer Werbedisplays. Bonde und Niebert: „Umweltfreundliche E-Mobilität bietet die Chance, den Ausstoß von klimaschädlichem Kohlendioxid erheblich zu verringern. Das müssen wir nutzen. Weltweit ist der Wandel der Autoindustrie zur E-Mobilität in vollem Gang.“

Daten, Zahlen, Fakten auch im DBU-Umweltpreis-Blog: https://www.dbu.de/umweltpreis/umweltpreis-blog/

Hintergrund:
Mit dem 2024 zum 32. Mal verliehenen Deutschen Umweltpreis der DBU werden Leistungen von Menschen ausgezeichnet, die vorbildlich zum Schutz und Erhalt der Umwelt beitragen. Kandidatinnen und Kandidaten werden der DBU vorgeschlagen. Berechtigt dazu sind etwa Arbeitgeberverbände und Gewerkschaften, Kirchen, Umwelt- und Naturschutzverbände, wissenschaftliche Vereinigungen und Forschungsgemeinschaften, Medien, das Handwerk und Wirtschaftsverbände. Selbstvorschläge sind nicht möglich. Eine vom DBU-Kuratorium ernannte Jury unabhängiger Fachleute aus Wirtschaft, Wissenschaft, Technik und gesellschaftlichen Gruppen empfiehlt dem DBU-Kuratorium Preisträgerinnen und Preisträger für das jeweilige Jahr. Das DBU-Kuratorium fällt die endgültige Entscheidung. Infos zum Deutschen Umweltpreis und Ausgezeichneten: https://www.dbu.de/umweltpreis.

Weitere Informationen:
https://www.dbu.de/news/mutmacher-fuer-den-schutz-der-erde/ Online-Pressemitteilung

(nach oben)


Mit Künstlicher Intelligenz gegen Fluten

Wenn Deiche brechen, sind meist schwere Überschwemmungen und Schäden die Folge. Um Risse und morsche Stellen in Deichen, Staudämmen oder Brücken frühzeitig erkennen zu können, setzt ein zwölfköpfiges Team der Hochschule Magdeburg-Stendal auf den Einsatz von Drohnen. Das Besondere ist die Kombination mit Künstlicher Intelligenz. In der Forschungsgruppe Wasserbau und Wasserbauliches Versuchswesen soll im Rahmen des vierjährigen Projektes eine solche KI-Drohne entwickelt werden.

Professor Dr.-Ing. Bernd Ettmer ist seit 2008 als Professor für Wasserbau und Wasserbauliches Versuchswesen an der Hochschule tätig. Die Fachrichtung beinhalte alles, was mit dem Bau zu tun hat: Stauanlagen, Dämme, Wasserkraftanlagen, Schleusen, Uferbefestigungen, aber auch Hochwasserschutz, Flussumgestaltung und Renaturierung. Seit 2017 arbeiten das Team mit Drohnen und setzt diese vor allem für Fotos von Oberflächen ein. Mithilfe dieser Aufnahmen und Daten von Messbooten, können sie Geländemodelle anfertigen, die Aufschlüsse über die Begebenheiten der Gebiete geben sollen. „Die Drohne ist für uns erstmal ein reines Messinstrument. Man gibt ihr eine Route vor, sie fliegt autonom und wir haben ein komplettes Computermodell des abgeflogenen Gebietes“, erklärt Ettmer. Mit dem Projekt sollen Risse und Schäden an Bauwerken erkannt werden, auch unter Wasser. Damit die von der Drohne produzierten Fotos nicht aufwendig von einem Mitarbeiter auf Schäden untersucht werden müssen, werden KI-Technologien eingesetzt. 



Dafür muss die KI mit entsprechenden Bildern eines Risses oder Schadens angelernt werden. Ausgeschnittene Papierstücke dienen zuerst als symbolischer Riss und sollen mit fortschreitendem Training in Form und Farbe an die Natur angenähert werden. In den Laborhallen der Hochschule haben Ettmer und sein Team einen Versuchsdeich, an dem diese integriert werden können. Die Drohne fliegt über den Versuchsdeich, macht Aufnahmen und die KI-Technologie soll diese als Schaden identifizieren können. Da das Projekt erst Anfang diesen Jahres startete, werden derzeit erst die Grundlagen geschaffen. Dr.-Ing. Daniel Hesse ist Oberingenieur für Wasserbau und bei dem Projekt vorrangig für die Drohnen zuständig. „Aktuell betreiben wir die Drohnen mit einer Standard-RGB-Kamera. Die nächste Aufgabe ist es zu schauen, welche Sensoren wir für die adäquate Umsetzung des Projektes brauchen. Das können Spektralkameras, Laserscannung oder Thermalkameras sein“, führt Hesse aus. 



Nach den Tests in den Laborhallen, soll die Drohne auf dem Gelände der Hochschule üben, bevor sie an Deichen eingesetzt wird. Ettmer beschreibt, was sie mit dem Projekt erreichen wollen: „Im Idealfall wertet die KI die von der Drohne aufgenommen Bilder während des Fluges aus. So können potenzielle Schadstellen zeitgleich direkt erkannt und gemeldet werden.“ Dadurch kann nicht nur eine schnellere Einordnung der kritischen Stellen stattfinden, sondern menschliche Ressourcen können gezielt eingesetzt werden, um Schäden zu eliminieren. Bis zum Projektende 2027 wollen die Forscher mit der Kombination aus Drohne und KI ein zusätzliches Mittel zur Prävention von Hochwasser und Überschwemmungen zur Verfügung stellen.



Über dieses und weitere KI-Projekte informiert der Science Day der Hochschule am 20. November in Magdeburg.

Im Überblick 

Laufzeit des Projektes: 1.1.2024 bis 31.12.2027

Höhe der Finanzierung: 1.212.214,78 € 

Finanziert durch: Bundesministerium für Wirtschaft und Klimaschutz, 
Europäischer Fonds für regionale Entwicklung (EFRE)

Weitere Informationen:
http://h2.de/scienceday Programm und Anmeldung Science Day

(nach oben)


Asthma und Feinstaub

Fast ein Drittel der Asthmafälle sind auf eine langfristige Feinstaubbelastung (PM2,5) zurückzuführen, so eine globale Metastudie
Eine langfristige Belastung mit Feinstaub (PM2,5) erhöht das Asthmarisiko sowohl bei Kindern als auch bei Erwachsenen signifikant. Das hat ein internationales Forschungsteam unter der Leitung des Max-Planck-Instituts für Chemie in einer globalen Studie mit Daten von etwa 25 Millionen Menschen weltweit nachgewiesen. Die Forschenden stellen fest, dass etwa 30 Prozent aller neuen Asthma-Fälle mit Feinstaub (PM2,5) in Verbindung stehen, was die dramatische Bedrohung der öffentlichen Gesundheit durch Luftverschmutzung verdeutlicht.
Asthma ist bisher eine unheilbare Krankheit, die die Lebensqualität stark beeinträchtigt und mit Symptomen wie Keuchen, Husten und Kurzatmigkeit einhergeht. Derzeit leiden etwa vier Prozent der Weltbevölkerung an der Atemwegserkrankung, wobei jährlich mehr als 30 Millionen neue Fälle hinzukommen. Die langfristige Belastung durch Feinstaub (PM 2,5) gilt als wichtiger Risikofaktor für die Entstehung von Asthma. Frühere epidemiologische Studien zeigen jedoch widersprüchliche Ergebnisse: Einige weisen auf ein erhöhtes Risikohin, während andere keinen Zusammenhang finden.
Um diese Kontroverse zu klären, haben Dr. Ruijing Ni und Forschende vom Max-Planck-Institut für Chemie eine umfassende globale Metaanalyse mit Kolleginnen und Kollegen aus China, den USA und Australien durchgeführt. Das Team ermittelte die Daten aus 68 epidemiologischen Studien des Jahres 2019, die in 22 Ländern durchgeführt wurden, darunter Nordamerika, Westeuropa, Ostasien, Südasien und Afrika. In der heute im Forschungsmagazin One Earth erschienenen Studie schlussfolgern die Forschenden, dass es nun ausreichend zuverlässige Beweise für einen Zusammenhang zwischen langfristiger Feinstaub2,5-Exposition und Asthma gibt.

Feinstaub ist in Deutschland die Ursache für 11 Prozent neuer Asthmafälle
„Wir schätzen, dass 2019 weltweit fast ein Drittel der Asthmaerkrankungen auf die langfristige Exposition gegenüber PM2,5 zurückzuführen ist. Dies entspricht 63,5 Millionen bestehender Fälle und 11,4 Millionen neuer Fälle. In Deutschland war die Belastung Ursache für 11 Prozent der neuen Asthmaerkrankungen. Das sind 28.000 Menschen. Wir stellen zudem fest, dass das mit PM2,5 verbundene Asthmarisiko bei Kindern viel höher ist als bei Erwachsenen, was die Anfälligkeit in jüngeren Jahren widerspiegelt“, sagt Ni, Erstautorin der neuen Studie.
Normalerweise ist die Entwicklung der Lungen- und Immunfunktion erst im frühen Erwachsenenalter abgeschlossen. Daher sind Kinder möglicherweise anfälliger gegenüber Luftverschmutzung, die in den Atemwegen zu oxidativem Stress, Entzündungen und Überempfindlichkeit führen kann. Zudem kann es zu Veränderungen der Immunreaktionen und einer Sensibilisierung der Atemwege gegenüber Allergenen kommen. All diese Faktoren spielen bei der Entwicklung von Asthma eine Rolle.
Für die Metanalyse erstellte das Forschungsteam so genannte Expositions-Wirkungs-Kurven für Asthma bei Kindern und Erwachsenen. Solche Kurven werden häufig zur quantitativen Bewertung von Gesundheitsrisiken eingesetzt. Sie veranschaulichen die Beziehung zwischen dem Grad der Exposition gegenüber einer bestimmten Substanz, zum Beispiel Feinstaub PM2,5, und dem Ausmaß der dadurch verursachten Wirkung, zum Beispiel dem Asthmarisiko.

Länder mit unterschiedlichen Einkommensniveaus und Feinstaubbelastungen berücksichtigt
Die Expositions-Wirkungs-Kurven der Studie entstanden unter Berücksichtigung von Daten aus Ländern und Regionen mit verschiedenen Einkommensniveaus. Sie decken auch die globalen Unterschiede bei der PM2,5-Exposition ab. „Die ist wichtig, um die gesundheitlichen Auswirkungen von Luftverschmutzung global zu quantifizieren“, kommentiert Prof. Yuming Guo, Epidemiologe von der Monash-Universität in Melbourne, Australien.
Die Bevölkerung in Ländern mit niedrigem und mittlerem Einkommen ist in der Regel mehr Luftschadstoffen ausgesetzt und mehr durch Feinstaub belastet. Bisher wurden die meisten Forschungsarbeiten zu den gesundheitlichen Auswirkungen von PM2,5 jedoch in Nordamerika und Westeuropa durchgeführt.
„Unsere Ergebnisse unterstreichen die dringende Notwendigkeit für politische Entscheidungsträger, strenge Gesetze zur kontinuierlichen Bekämpfung der Luftverschmutzung durchzusetzen. Zudem können persönliche Schutzmaßnahmen, wie das Tragen von Masken, ebenfalls helfen, die individuelle Feinstaubbelastung zu verringern und das Asthmarisiko zu mindern“, betont Yafang Cheng, Direktorin am Max-Planck-Institut für Chemie.
Die Studie wurde von Forschenden des Max-Planck-Instituts für Chemie (Deutschland), des Instituts für Physik der Atmosphäre der Chinesischen Akademie der Wissenschaften (China), der University of Washington (USA) durchgeführt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Yafang Cheng
Max-Planck-Institut für Chemie
Hahn-Meitner-Weg 1
55128 Mainz
Telefon: +4961313057200
E-Mail: yafang.cheng@mpic.de
Dr. Ruijing Ni
Max-Planck-Institut für Chemie
Hahn-Meitner-Weg 1
55128 Mainz
Telefon: +4961313057204
E-Mail: ruijing.ni@mpic.de

Originalpublikation:
Ruijing Ni, Hang Su, Richard T. Burnett, Yuming Guo, Yafang Cheng
Long-term exposure to PM2.5 has significant adverse effects on childhood and adult asthma: a global meta-analysis and health impact assessment
One Earth, October 2024
https://doi.org/10.1016/j.oneear.2024.09.022

Weitere Informationen:
https://www.mpic.de/5612496/asthma-and-fine-particulate-matter

(nach oben)


Renteneintritt der Babyboomer: Neue Potenziale für Kommunen?

Umfrage der Körber-Stiftung zeigt hohe Bereitschaft für ehrenamtliches Engagement in der Nacherwerbsphase. Was Kommunen beachten müssen.

Die Mehrheit der 55- bis 65-Jährigen ist bereit, sich im Ruhestand ehrenamtlich zu engagieren – vorausgesetzt, die Rahmenbedingungen stimmen. Das ist das Ergebnis einer repräsentativen Umfrage, die das Sozialforschungsinstitut aproxima im Auftrag der Körber-Stiftung durchgeführt hat. Die Erkenntnisse und abgeleiteten Handlungsempfehlungen für die Kommunen werden am 24. Oktober im Rahmen des 15. Körber Demografie Symposiums präsentiert und diskutiert.

Starkes Interesse am Engagement für Umweltschutz
Die fortschreitende Alterung der Gesellschaft stellt Kommunen vor große Herausforderungen. Das ehrenamtliche Engagement spielt bei der Bewältigung eine entscheidende Rolle und trägt zur Aufrechterhaltung kommunaler Versorgungsstrukturen bei. Die Umfrage zeigt: Mit dem bevorstehenden Renteneintritt der Babyboomer eröffnen sich für die Kommunen neue Potenziale, denn 60 Prozent von ihnen könnten sich ein Engagement im Ruhestand vorstellen. Bevorzugte Einsatzbereiche für eine ehrenamtliche Tätigkeit sind der Umwelt- und Naturschutz (43 Prozent) sowie die Stadtteil- und Nachbarschaftshilfe (41 Prozent). Im ländlichen Raum ist die Bereitschaft besonders groß – hier plant jede dritte Person ein Engagement fest ein.

Dass zivilgesellschaftliches Engagement für den eigenen Wohnort wichtig ist, steht für die meisten Befragten außer Frage. Knapp ein Drittel der Babyboomer (30 Prozent) engagiert sich bereits heute, vorrangig in der Stadtteil- und Nachbarschaftshilfe. 84 Prozent der bereits Engagierten wollen ihr Ehrenamt auch im Ruhestand fortsetzen.

Flexibilität und persönliche Ansprache entscheidend
Die Umfrage verdeutlicht, dass Flexibilität im Ehrenamt ein zentrales Anliegen der Generation der Babyboomer ist: Zwei Drittel der Befragten bevorzugen Engagements ohne regelmäßige Verpflichtungen (66 Prozent). Kommunen sind somit gefordert, flexible Modelle für ehrenamtliches Engagement zu entwickeln, die den Bedürfnissen der älteren Generation gerecht werden.

Auch die Ansprache ist entscheidend: Die Babyboomer wünschen sich mehrheitlich einen direkten, persönlichen Kontakt und informieren sich bevorzugt über klassische Kanäle wie Gemeindeblätter (49 Prozent) und Lokalzeitungen (46 Prozent).

Angebot für Medienschaffende:
-Interview mit Jana Lunz oder David Menn aus dem Bereich Demografische Zukunftschancen der Körber-Stiftung (Anfragen über den Pressekontakt)
-Broschüre Engagiert euch, Boomer! Das Potenzial der Älteren für unsere Kommunen mit Umfrageergebnissen und Handlungsempfehlungen

Presseanfragen richten Sie bitte an den Pressekontakt:
Amira Naumann, Pressereferentin Körber-Stiftung
E-Mail: naumann@koerber-stiftung.de
Telefon: 040/ 80 81 92 248

Wissenschaftliche Ansprechpartner:
David Menn
Programm-Manager Demografische Zukunftschancen bei der Körber Stiftung
E-Mail: menn@koerber-stiftung.de
Telefon: 040/ 72 57 02 37

Weitere Informationen:
https://koerber-stiftung.de/projekte/koerber-demografie-symposium/spotlight-demo…

Anhang
Engagiert euch, Boomer! Das Potenzial der Älteren für unsere Kommunen

(nach oben)


Mit Mikroalgen gegen das nächste Virus

Auf der Suche nach neuen antiviralen Wirkstoffen setzen Forschende der Hochschule Anhalt auf Mikroalgen. Sie vermuten, dass diese Organismen einen eigenen Immunschutz gegen Viren entwickelt haben.

Wie schützen wir uns besser vor Infektionen? Algen gelten seit langem als potenzielle Wirkstoff-Lieferanten. Seit Millionen Jahren sichern sie ihre Abwehr und ihre biochemische Vielfalt selbst. Ob und welche Mikroalgen sich dafür eignen, ist wissenschaftlich bislang kaum belegt. Das wollen Forschende der Algenbiotechnologie und Wirkstoffbiochemie der Hochschule Anhalt mit dem Projekt AvirAL ändern. Für ihre Suche folgen sie der Spur der Makroalge Griffithsia.

Antivirale Proteine in Algen
Denn ihre antivirale Wirkung wurde in klinischen Studien bereits nachgewiesen. Fähig ist sie dazu durch ein bestimmtes Protein aus der Klasse der Lektine: Griffithsin. Es heftet sich an die Hülle von Viren und setzt diese damit außer Gefecht – wie sowohl an HIV- als auch Sars-Cov-2-Viren gezeigt werden konnte. „Wir haben bereits durch Genomanalysen in Mikroalgen viele Proteine entdeckt, die dem Griffithsin sehr ähnlich sind“, erklärt Prof. Dr. Stephan Schilling von der Hochschule Anhalt, der hier zu naturnahen Therapeutika in enger Kooperation mit der Algenbiotechnologie forscht. „Wenn wir nachweisen können, dass dahinter tatsächlich Lektine mit Schutzfunktionen stecken, lassen sich daraus ganz neue Wirkstoffe entwickeln.“

Mit Griffithsin zu neuen Lektinen
Dazu nutzt das Forschungsteam den genetischen Fingerabdruck von Griffithsin. Wie eine Art Navigator soll er sie in Datenbanken zu den Mikroalgen führen, deren Genom ähnliche Lektine aufweist. Gleichzeitig werden vielversprechende Mikroalgen in den Laboren der Hochschule gezielt gezüchtet. „Aus unserer langjährigen Forschung wissen wir bereits, dass dafür Rotalgen, aber auch Kieselalgen in Frage kommen“, sagt Prof. Dr. Carola Griehl, Gründerin und Leiterin der Algenbiotechnologie in Köthen.

Vom Wirkstoff zum Nasenspray
Sind die Lektin-bildenden Mikroalgen gefunden, folgen die typischen Schritte der Wirkstoffforschung: Isolierung und Charakterisierung der vielversprechenden Lektine, erste Tests zur Wirksamkeit gegen ausgewählte Viren. Dafür hat das AvirAL-Forschungsteam drei Jahre Zeit, gefördert von der Europäischen Union und dem Land Sachsen-Anhalt. Bestenfalls führt ihr Weg dazu, dass auf Basis der Mikroalgen neue pharmazeutische Produkte entwickelt werden können – zum Beispiel in Form von Nasensprays.

Breiter Schutz für die nächste Infektionswelle
Professor Stephan Schilling und Professorin Carola Griehl sehen ihren Ansatz als wichtige Ergänzung zu schon entwickelten Wirkstoffen wie Griffithsin. Oder auch bereits erhältlichen Algen-Nasensprays, die nicht auf der Basis von Proteinen, sondern Polysacchariden wirken. Um neue Algenwirkstoffe entwickeln zu können, gründeten beide 2021 das Zentrum für Naturstoff-basierte Therapeutika (ZNT) der Hochschule. Die Pandemie habe gezeigt, wie wichtig vielfältige Möglichkeiten zum Schutz und zur Therapie bei Viruserkrankungen sind. Dass sie derzeit als einzige Forschungsgruppe so intensiv daran arbeiten, antivirale Proteine von Mikroalgen zu verwerten, hat verschiedene Gründe.

Schützen sich Mikroalgen mit Proteinen doch gegen Viren?
So ist die Algenbiotechnologie in Köthen seit mehr als 20 Jahren auf Mikroalgen spezialisiert. „Außerdem ist man in der Forschung lange davon ausgegangen, dass Mikroalgen keinen Immunschutz brauchen, vereinfacht gesagt: Wird es gefährlich, schwimmen sie einfach weg“, sagt Prof. Dr. Stephan Schilling, der in seiner langjährigen Forschung auf dem Gebiet der Wirkstoffbiochemie zu einem anderen Schluss gekommen ist: „Wir gehen davon aus, dass sie sich mit Hilfe von Lektinen vor Viren schützen und diese Teil eines Immunsystems sind.“ Mit dem Projekt AvirAL könne diese Frage geklärt werden, so seine Hoffnung.

Diskussion zum Mitteldeutschen Algenstammtisch und Kontakt
Ihre Erkenntnisse und Forschungsvorhaben stellen Prof. Dr. Carola Griehl und Prof. Dr. Stephan Schilling anlässlich des 3. Mitteldeutschen Algenstammtischs vor. Die Fachtagung findet am 24. Oktober (Link: https://youtube.com/live/QV3l2ugPOOY) und 25. Oktober (Link: https://youtube.com/live/aQRiDB3XCts) in Köthen statt und kann auch live verfolgt werden.

Mehr zur Forschung der Algenbiotechnologie und des Zentrums für Naturstoff-basierte Therapeutika (ZNT) an der Hochschule sind auf den jeweiligen Websites zu finden. Prof. Dr. Carola Griehl kann direkt kontaktiert werden per E-Mail: carola.griehl@hs-anhalt.de und Tel.: +49 (0) 3496 67 2526. Prof. Dr. Stephan Schilling ist in seiner Funktion als Professor für Wirkstoffbiochemie erreichbar über die E-Mail stephan.schilling@hs-anhalt.de und Tel.: +49 (0) 3496 67 2534. Mehr zu der von ihm geleiteten Außenstelle Molekulare Wirkstoffbiochemie und Therapieentwicklung steht auf der Seite des Fraunhofer-Instituts für Zelltherapie und Immunologie.

Wissenschaftliche Ansprechpartner:
carola.griehl@hs-anhalt.de
Telefon.: +49 (0) 3496 67 2526

stephan.schilling@hs-anhalt.de
Telefon: +49 (0) 3496 67 2534

(nach oben)


Neue Studie liefert Zahlen zu Stand und Zukunft der Energiewende in Nordhessen

Das „Barometer der Energiewende für Nordhessen“ untersucht den aktuellen Stand des Ausbaus Erneuerbarer Energien in der Region. Es beleuchtet die Entwicklung seit dem Jahr 2000 und prognostiziert den notwendigen regionalen Zubau bis 2045. Neben der Stromerzeugung wird auch der Stromverbrauch auf Kreisebene analysiert. Eine begleitende Web-App, erreichbar unter www.energiewende-nordhessen.de, ermöglicht es den Nutzerinnen und Nutzern, die Ergebnisse individuell für einzelne Landkreise zu betrachten und zu vergleichen.
Mit dem Barometer der Energiewende betrachtet das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE im Auftrag der cdw Stiftung, inwiefern in Nordhessen die selbstgesteckten Klimaziele und das erforderliche Ausbautempo bei den Erneuerbaren Energien im Einklang stehen. Ergänzt wird die Studie durch eine Bewertung der regionalen Wertschöpfung von der Universität Kassel.

Nordhessen hat das Zeug zur Pionierregion
Hintergrund des Energiewende-Barometers ist das Ziel der Bundesregierung, dass die Energie in Deutschland bis 2045 nahezu vollständig aus Erneuerbaren Energien stammt. „Damit wir das schaffen, stehen deutschlandweit alle Regionen in der Pflicht, ihren Beitrag zu leisten“, sagt Thomas Flügge, Geschäftsführer der cdw Stiftung. Nordhessen will bereits bis 2040 die Bereiche Mobilität, Strom und Wärme zu 100 Prozent aus klimaneutralen Quellen wie Wind und Sonne, Biomasse und Wasser versorgen. „Unsere Region hat das große Potenzial, bei der Energiewende eine Vorreiterrolle einzunehmen. Zum einen können ländlich geprägte Gegenden wie Nordhessen aufgrund ihrer Flächenverfügbarkeit bei der Windkraft und der Photovoltaik grundsätzlich einen deutlich höheren Beitrag leisten als städtische Gebiete. Zum anderen verfügen wir hier über besonderes Know-how gerade in den Bereichen dezentrale Energietechnik und Energieeffizienz.“
Die aktuellen Zahlen, die die Autorinnen und Autoren des Fraunhofer IEE und der Universität Kassel für die grundlegende Studie „Barometer der Energiewende für Nordhessen“ zusammengetragen haben, zeigen allerdings: Das Potenzial ist zwar da, wird aber aktuell noch nicht ausgeschöpft. „Auch wenn wir heute schon mehr als die Hälfte unseres Verbrauchs aus regional erzeugten Erneuerbaren decken, hinken wir doch unseren eigenen Ansprüchen hinterher. Wir haben noch einen langen Weg zu gehen, um die fossilen Energieträger vollständig zu ersetzen und langfristig für saubere und günstige Energie zu sorgen“, betont Sarah Link, Geschäftsführerin der cdw Stiftung. „Aus unserer Sicht bietet das Barometer der Energiewende eine unverzichtbare Orientierung auf dem Weg zur Klimaneutralität. Und es sollte dabei Antrieb für Politik, Wirtschaft und Gesellschaft sein“, erklärt Link.
Dabei könnte Nordhessen laut der Studie schon 2029 ausreichend Strom aus Wind, Sonne und Co. produzieren, um den eigenen Strombedarf zu 100 Prozent zu decken.

Dazu sind allerdings noch ambitionierte Schritte nötig, wie sie die Studie nennt.
Ergänzt werden die Szenarien des Fraunhofer IEE mit Berechnungen der Universität Kassel zur regionalen Wertschöpfung: Seit 2000 belaufen sich die Investitionen und laufenden Betriebskosten für die regenerative Stromerzeugung in Nordhessen auf insgesamt 6,3 Milliarden Euro, von denen etwa 3,1 Milliarden Euro in der Region geblieben sind. Seit 2018 erzielen die Erneuerbaren Energien in Nordhessen jährlich mindestens 200 Millionen Euro an regionaler Wertschöpfung. „Der Ausbau Erneuerbarer Energien ist für Nordhessen nicht nur eine Frage des Klimaschutzes, sondern auch ein entscheidender Wirtschaftsfaktor,“ erklärt Prof. Heike Wetzel, Fachgebietsleiterin des Fachgebiets Mikroökonomik und empirische Energieökonomik (MEE) an der Universität Kassel. „Die Investitionen und Betriebskosten für Erneuerbare Energien reduzieren nicht nur die Stromimporte, sondern stärken nachhaltig die wirtschaftliche Entwicklung der Region. Ein konsequenter Ausbau Erneuerbarer Energien bringt Nordhessen sowohl ökonomische Vorteile als auch Versorgungssicherheit.“

Gemeinsames regionales Handeln
Das Besondere des Barometers der Energiewende für Nordhessen: Es liefert detaillierte Betrachtungen für ganz Nordhessen sowie für die fünf Landkreise und die Stadt Kassel im Einzelnen. „Die regionalisierten Szenarien sind wegweisend. Denn die Ergebnisse zeigen, wie wichtig abgestimmtes regionales Handeln ist, um die Klimaziele zu erreichen“, erläutert Maximilian Kleebauer, Projektleiter des Fraunhofer IEE. Als Beispiel nennt er die begrenzten Flächen der Stadt Kassel, die den Bau von Windenergieanlagen verhindern. Dennoch bietet die Stadt großes Potenzial, insbesondere durch den weiteren Ausbau von Photovoltaikanlagen auf Dächern. Landkreise wie Waldeck-Frankenberg und Hersfeld-Rotenburg hingegen könnten aus Windkraft Strom über ihren eigenen Bedarf hinaus erzeugen.
„Das cdw-Barometer zeigt: Der Weg in Richtung nordhessischer Energiesouveränität ist nicht nur möglich, sondern auch lohnend“, fasst Kassels Oberbürgermeister Dr. Sven Schoeller die Ergebnisse der Studie aus Sicht der Kommunalpolitik zusammen. „Mit 3,1 Mrd. Euro in den vergangenen zwei Jahrzehnten sorgen erneuerbare Energien für Wertschöpfung und Arbeitsplätze in Nordhessen. Wichtig für mich zudem: Die Energiewende muss regional gedacht und gemacht werden. Als Stadt ist unsere wichtigste Aufgabe dabei der konsequente Ausbau der Solarenergie. Die Ausbauraten in Kassel sind 2024 bereits vor Ende des Jahres so hoch, wie nie zuvor! Das gibt Zuversicht für die Wegstecke, die noch vor uns liegt.“
„Das Zusammenspiel von Stadt und ländlichem Raum ist entscheidend für den Erfolg der Energiewende in Nordhessen,“ zieht Kai Georg Bachmann, Geschäftsführer der Regionalmanagement Nordhessen GmbH, die Quintessenz. „Nur durch eine enge regionale Zusammenarbeit können wir unsere Klimaziele erreichen und Nordhessen zu einer zukunftsfähigen und energiesouveränen Region entwickeln. Die Motivation für die nordhessische Wirtschaft, sich hier zu engagieren besteht auch in der Aussicht auf eine doppelte Dividende: Klimawandel bremsen und Schöpfung bewahren auf der einen Seite, neue und nachhaltige Geschäftsmodelle, die in die dekarbonisierte Zukunft weisen, auf der anderen.“
Die Präsidentin der Universität Kassel, Prof. Dr. Ute Clement, ergänzt: „In Nordhessen haben wir ein starkes Netzwerk, um die Energiewende beispielhaft voranzutreiben. Dazu zählt eine Universität, die sich erfolgreich in Forschung und Lehre zur Nachhaltigkeit profiliert. Die Region gemeinsam mit Politik, Wissenschaft und Wirtschaft nachhaltiger zu gestalten und hier die Energiewende voranzutreiben, ist eine riesige Chance für Nordhessen“
Wie engagiert die Region Nordhessen ihren Weg der eigenen klimaneutralen Energiezukunft beschreitet, wird das Barometer der Energiewende für Nordhessen auch in Zukunft jährlich ausweisen, mit jeweils aktualisierten Daten.

Wissenschaftliche Ansprechpartner:
Maximilian Kleebauer, Fraunhofer IEE

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2024/studie-stand…

(nach oben)


Neue schnelle und nachhaltige Methode für Wasserstoffproduktion

Unter Leitung von Prof. Dr. Francesco Ciucci von der Universität Bayreuth hat ein deutsch-chinesisches Forschungsteam eine neue Methode zur elektrochemischen Spaltung von Wasser entwickelt. Damit wird die Produktion von Wasserstoff für Technik und Industrie nicht nur beschleunigt, sondern auch nachhaltiger. Darüber berichten die Forschenden in Nature Nanotechnology.

What for?
Wasserstoff ist aufgrund seiner einzigartigen Eigenschaften von entscheidender Bedeutung für Technologie und Industrie: Es ist das leichteste chemische Element, hat eine enorm hohe Energiedichte und ist ein emissionsfreier Brennstoff, da als Nebenprodukt beim Verbrennen nur Wasser entsteht. Dadurch ist Wasserstoff als saubere Energiequelle äußerst attraktiv. Aber die Herstellung ist bisher noch extrem Energieaufwändig: Wasserstoff kann über die elektrochemische Spaltung von Wasser produziert werden, bei der Elektroden im Wasser unter Strom gesetzt werden. Eine energiesparende und effiziente Herstellung von Wasserstoff durch elektrochemische Wasserspaltung mit erneuerbarem Strom kann die Nachhaltigkeit dieser Energiequelle maßgeblich verbessern.

Eine der größten Herausforderungen bei der elektrochemischen Wasserspaltung ist die sogenannte Sauerstoffentwicklungsreaktion (OER), eine träge Reaktion, bei der die Wassermoleküle in ihre einzelnen Bestandteile – Sauerstoff und Wasserstoff – zerlegt werden. Die OER kann durch den Einsatz von bestimmten Edelmetallen beschleunigt werden, jedoch sind die Metalle selten und dadurch teuer, und die Beschleunigung der Reaktion kostet zusätzliche Energie (sog. Überspannung).

Dieser Problematik hat sich ein Forschungsteam, bestehend aus Mitgliedern diverser chinesischer Forschungseinrichtungen und unter Federführung von Prof. Dr. Francesco Ciucci vom Lehrstuhl für Elektrodendesign für elektrochemische Energiesysteme an der Universität Bayreuth, angenommen. Es entwickelte eine innovative Methode der elektrochemischen Wasserspaltung, in der einzelne Atome des Edelmetalls Iridium als Reaktionsbeschleuniger mit Dimethylimidazol und Kobalteisenhydroxid gekoppelt sind. Die wesentliche Innovation liegt in der geometrischen Anordnung der Komponenten: Die aneinander gekoppelten Bestandteile dieser Iridium-Verbindung befinden sich nicht auf derselben Ebene, sondern sind geometrisch verteilt, um die Leistung und Effizienz zu optimieren.

Dieser innovative Ansatz erhöht die OER-Aktivität erheblich und weist darüber hinaus eine enorm geringe Überspannung auf. Zudem reduziert er den Edelmetallverbrauch, weil nur einzelne Iridiumatome verwendet werden, und wirkt sich positiv auf die Stabilität der Beschleunigungsreaktion aus.

„Unsere Studie ist ein bedeutender Fortschritt in der Entwicklung effizienter, kostengünstiger OER-Beschleunigung für eine nachhaltige Wasserstoffproduktion. Durch die Überwindung des Schlüsselproblems der derzeitigen Technologie hat unser Ergebnis das Potenzial, den globalen Übergang zu sauberen Energielösungen voranzutreiben“, sagt Ciucci, der Letztautor der Studie ist.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Francesco Ciucci
Lehrstuhl für Elektrodendesign für elektrochemische Energiesysteme
Universität Bayreuth
Tel.: +49 (0)921 / 55-4941
E-Mail: francesco.ciucci@uni-bayreuth.de

Originalpublikation:
Out-of-plane coordination of iridium single atoms with organic molecules and cobalt-iron hydroxides to boost oxygen evolution reaction. Nature Nanotechnology (2024)

DOI: https://doi.org/10.1038/s41565-024-01807-x

(nach oben)


Stromnetz der Zukunft: BayWISS-Preis für Coburger Forscherin

Einmal im Jahr vergibt das Bayerische Wissenschaftsforum (BayWISS) einen Preis für herausragende oder zukunftsweisende Forschungsleistungen. Der zweite Platz ging 2024 an Ann-Catrin Uhr-Müller, die an der Hochschule Coburg in ihrer Doktorarbeit eine wichtige Frage zum Zustand unserer Stromnetze erforscht.

Wo Energie aus Wind und Sonne eingefangen wird, gibt es in der Erzeugung Leistungsspitzen und tiefe Täler. Solche Schwankungen im Stromnetz gehören zu den Faktoren, die Stromkabel schneller altern lassen. Damit beschäftigt sich Ann-Catrin Uhr-Müller in ihrer Promotion zum Thema „Entwicklung und Applikation eines Systems zur künstlich-beschleunigten Alterung und diagnostischen Analyse von Mittelspannungskabeln“. Betreut wird sie dabei an der Fakultät Elektrotechnik und Informatik der Hochschule Coburg von Prof. Dr. Christian Weindl, außerdem von Prof. Dr. Reinhard German von der FAU Erlangen-Nürnberg.

Erneuerbare Energien als Herausforderung für das Stromnetz
In dem Forschungsprojekt wird untersucht, wie Papier-Masse-Kabel (Paper Insulated Lead Covered, kurz PILC-Kabel) während des Betriebs altern und wie das von der Last im Netz abhängt. Diese Frage ist entscheidend, um das Bestandsnetz in Deutschland für die Herausforderungen der Energiewende vorzubereiten. „Der Ausbau der Erneuerbaren Energien und die damit verbundene Dezentralisierung des Energienetzes nehmen einen enormen Einfluss gerade auf das Mittelspannungsnetz“, erklärt Uhr-Müller. Mit dem steigenden Anteil an E-Mobilität und dem zunehmenden Betrieb von Wärmepumpen verändert sich die Nutzung des Stromnetzes. Die Belastungen steigen. Das Netz altert deutlich schneller. Kritisch sind dabei die PILC-Kabel mit einer erwarteten Lebensdauer von 40 bis 80 Jahren. Bei vielen ist die Lebensdauer bereits erreicht – oder sogar schon überschritten. „Es gibt aber auch Lösungen beispielsweise für die Diagnose, in welcher ich durch meine Arbeit deutliche Erkenntnisse hinsichtlich Frequenz- und vor allem der Temperaturabhängigkeit der Verlustfaktormessung erarbeitet habe“, sagt die Wissenschaftlerin. Derzeit ist es üblich, unter 20 Grad Celsius und der langsamen VLF-Frequenz zu messen. Dadurch entstehen Uhr-Müller zufolge aber zum Teil sehr unscharfe Aussagen. Aus Ihrer Arbeit resultieren hier bessere Handlungsempfehlungen. Außerdem konnte sie Theorien, die bisher nur durch Kleinstversuche und Reinmaterialien aufgestellt wurden, in einem großen Umfang und mit realen Kabeln mit unterschiedlichen, degenerationsabhängigen Ausprägungen nachweisen.

Kabel von 1946 im Versuchsfeld
Dafür wurden in einem Versuchsfeld zur Alterung neben acht fabrikneuen auch 24 Kabel verbaut, die aus dem Bestandsnetz entnommen worden sind. Sie waren im Betrieb unterschiedlichen Belastungen ausgesetzt und stammen aus Baujahren von 1946 bis 1990. Dadurch können Rückschlüsse auf die verschiedenen alters- und lastabhängigen Degenerationszustände gezogen werden. „Es hat sich gezeigt, dass auch alte Prüflinge noch in teilweise guten Zustand sind. Das ist erstmal beruhigend.“
Durch sehr hohe Temperaturen von bis zu 65 Grad und Spannungen bis zu 22 kV wurde die Alterung der Kabel im Versuch beschleunigt. Die gesamte Anlage ist vollautomatisiert und läuft rund um die Uhr an 365 Tagen im Jahr. Durch tägliche diagnostische Messungen bei verschiedenen Spannungen und regelmäßige Parameterstudien verfügt Uhr-Müller nun über eine umfangreiche Datenbasis. Ein Hauptziel der intensiven, mehrjährigen empirischen Untersuchungen ist die Ableitung und Bewertung von diagnostischen Methoden. So soll später ermöglicht werden, auf zerstörungsfreie Weise bei spezifischen Stromtrassen den aktuellen Zustand herauszufinden und die Restlebensdauer zu prognostizieren. Durch den empirischen Versuchsaufbau des Forschungsprojekts können die Ergebnisse auf das gesamte Mittelspannungsnetz angewendet werden.

Die Netze der Zukunft: effizient, sicher und ressourcenschonend
„Meine Alterungsmodelle können zukünftig verwendet werden, um die Netze möglichst effizient aber gleichzeitig auch sicher zu betreiben.“ Uhr-Müller ergänzt: „Ich denke da gerade auch an Smart Grids, bei denen dann direkt ein Alterungsmodell hinterlegt werden kann, welches selbstständig die Leistung runterregelt, um das Kabel zu schonen.“
Die Doktorandin freut sich sehr über die Würdigung Ihrer Arbeit mit dem zweiten Platz des BayWISS-Preises 2024.

(nach oben)


TA im Dialog: Zukunftsfähiges Wassermanagement in der Landwirtschaft

Am 27. November 2024 von 15:00 bis 17:00 Uhr stellen wir im Deutschen Bundestag (Paul-Löbe-Haus) die Zwischenergebnisse unseres ResilienzCheck2024 vor und freuen uns auf den Austausch mit Expertinnen und Experten aus Wissenschaft, Politik und Gesellschaft.

Wir laden Sie herzlich zur öffentlichen Veranstaltung „TA im Dialog – Zukunftsfähiges Wassermanagement in der Landwirtschaft“ ein.

  1. November 2024 | 15:00 bis 17:00 Uhr

Deutscher Bundestag, Platz der Republik 1, 11011 Berlin, Paul-Löbe-Haus, Sitzungssaal E 400

In einer Zeit zahlreicher Krisen und Unsicherheiten gewinnt die Radar- und Orientierungsfunktion der parlamentarischen Technikfolgenabschätzung zunehmend an Bedeutung. Aus diesem Grund hat das TAB seine Foresight-Aktivitäten erweitert: Neben dem bereits etablierten Horizon-Scanning wurde ein Resilienz-Radar eingeführt, das zusammen mit einem vertiefenden Resilienz-Check die Widerstandsfähigkeit ausgewählter Infrastruktursysteme bewertet.

In diesem Jahr liegt der Schwerpunkt des Resilienz-Checks auf dem Wassermanagement in der Landwirtschaft. Angesichts des Klimawandels, zunehmender Dürren und ungleich verteilter Niederschläge in Deutschland muss die Landwirtschaft neue Wege finden, um mit den veränderten Bedingungen umzugehen. Effiziente Bewässerungstechniken, neue Bewirtschaftungsformen und geschlossene Produktionssysteme bieten vielversprechende Ansätze, um Wasserressourcen besser zu nutzen und die Landwirtschaft resilienter zu machen.

Im Rahmen der öffentlichen Diskussionsveranstaltung „TA im Dialog“ werden die Zwischenergebnisse des diesjährigen Resilienz-Checks vorgestellt und gemeinsam mit Expertinnen und Experten aus der Wissenschaft, Mitgliedern des Deutschen Bundestages und weiteren gesellschaftlichen Akteuren erörtert.

Folgende Fragen werden die Diskussion leiten:

· Wie wirkt sich der Klimawandel auf die Wasserversorgung in der Landwirtschaft aus, und welche spezifischen Risiken entstehen dadurch?

· Inwieweit können neue Bewirtschaftungsformen, geschlossene Produktionssysteme und innovative Bewässerungstechniken die Resilienz der Landwirtschaft erhöhen, und welche langfristigen Potenziale bieten sie?

· Welche politischen und rechtlichen Rahmenbedingungen sind erforderlich, um eine zukunftsfähige Wasserversorgung in der Landw
irtschaft zu gewährleisten, und welche Governance-Strukturen sind dafür notwendig?

Wir freuen uns auf Ihre Teilnahme!
Veranstalter ist das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag und der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung. Das IZT – Institut für Zukunftsstudien und Technologiebewertung leitet als Konsortialpartner des TAB den Resilienz-Check.

Weitere Informationen:
http://www.tab-beim-bundestag.de/ta-im-dialog/wassermanagement

Ergänzung vom 18.10.2024
Die Veranstaltung ist öffentlich und wird live auf www.bundestag.de übertragen. Für die Teilnahme vor Ort ist eine Anmeldung bis 21. November erforderlich.

(nach oben)


Lernen ohne Anleitung

Selbstverstärkendes Lernen kann helfen, neue Dinge zu verstehen, aber auch falsche Überzeugungen zu festigen
Stellen Sie sich ein Kind vor, das zum ersten Mal auf einem Bauernhof Schafe und Ziegen sieht. Ein Elternteil erklärt ihm, welches Tier was ist, und nach ein paar Hinweisen lernt es, beide auseinanderzuhalten. Aber was passiert, wenn das Kind nach einigen Wochen den Bauernhof erneut besucht und diese Unterstützung nicht bekommt? Wird es immer noch in der Lage sein, sich an die Merkmale zu erinnern, die Ziegen von Schafen unterscheiden lassen? Die Neurowissenschaftlerin Franziska Bröker hat genau das untersucht: Wie sowohl Menschen als auch Maschinen ohne Anleitung lernen – vergleichbar mit einem Kind, das auf sich allein gestellt ist und die Welt um sich herum entdeckt. Ihr Ergebnis: Lernen ohne Hilfestellung kann uns manchmal durchaus helfen, aber unter bestimmten Umständen auch ziemlich dumm aussehen lassen.
Beim maschinellen Lernen gelingt es Algorithmen, große Datenmengen zu durchforsten und präzise Muster zu erkennen, ohne dass sie direktes Feedback von außen erhalten. Menschen hingegen haben oft Schwierigkeiten, ohne Rückmeldung zu lernen, da sie dazu neigen können, fehlerhafte Annahmen innerlich zu verfestigen, wenn niemand ihre Fehler korrigiert.
Die neurowissenschaftliche Forschung hat gezeigt, dass unüberwachtes Lernen, d.h. Lernen ohne Feedback von außen, besonders erfolgreich ist, wenn die selbstgemachten Annahmen bereits relativ gut einer Lösung entsprechen. Bei komplexeren Aufgaben, wie dem Erlernen von Sprachen oder einem Musikinstrument, ist hingegen Feedback unerlässlich, um Fehler zu vermeiden. Es geht also weniger darum, ob Lernen ohne Rückmeldung grundsätzlich funktioniert, sondern vielmehr, in welchen Situationen es sinnvoll ist. Entscheidend ist also, die Rahmenbedingungen zu verstehen, unter denen selbständiges Lernen effektiv ist, um bessere Lehrmethoden und Algorithmen zu entwickeln.

Feedback als Schlüssel zum Expertenwissen
Laborstudien weisen nach, dass unüberwachtes Lernen in der Theorie mal funktioniert und mal nicht. Doch wie sieht es in der Praxis aus, insbesondere wenn es um den Erwerb von fachlicher Expertise geht? Nehmen wir Radiologen als Beispiel: In den ersten Jahren ihrer Ausbildung erhalten sie viel Feedback, doch irgendwann sind sie auf sich allein gestellt. Forschungsergebnisse deuten darauf hin, dass Erfahrung allein oft nicht ausreicht, um verlässliche Expertise zu entwickeln. Vielmehr verweist sie oft nur auf eine gewisse Seniorität als auf tatsächliches Können. Kognitive Verzerrungen, wie der Bestätigungsfehler, können den weiteren Lernerfolg behindern, da wir dazu neigen, uns auf Informationen zu stützen, die unsere bestehenden Überzeugungen untermauern statt nochmal zu reflektieren. Regelmäßiges Feedback ist daher entscheidend, um sicherzustellen, dass Lernende auf dem richtigen Weg bleiben und ihre Fähigkeiten weiterentwickeln.
Wie im Beispiel mit den Radiologen beschrieben, wird unüberwachtes Lernen häufig von Selbstverstärkungsmechanismen angetrieben, bei denen Lernende sich auf ihre eigenen Vorhersagen verlassen, anstatt Unterstützung von außen in Anspruch zu nehmen. Besonders bei der Entwicklung von Fachwissen wird dieses Problem deutlich. Ohne Korrekturschleifen von außen bleiben fehlerhafte Annahmen bestehen und verstärken sich sogar weiter – ganz gleich, ob sie richtig sind oder nicht. Diese Lernfallen entstehen vorzugsweise dann, wenn wir aufhören, motiviert nach alternativen Lösungswegen oder Informationen hierfür zu suchen, und uns stattdessen auf unsere eigenen, häufig fehlerhaften und festgefahrenen Vermutungen verlassen.

Auf das richtige Gleichgewicht kommt es an
Die Forschung an dem Thema zeigt, dass Selbstverstärkung im Zusammenhang des selbständigen Lernens ohne Hilfestellung sowohl von Vorteil als auch von Nachteil sein kann. Das Prinzip des selbstverstärkenden Lernens kann uns helfen, neue Dinge zu verstehen, aber auch dazu führen, dass wir uns in falschen Überzeugungen verwickeln. Unüberwachtes Lernen hat viel Potenzial, ist jedoch kein Wundermittel – es hängt stark davon ab, wie gut unsere Kenntnisse, unsere inneren Motivationsimpulse, die eigene Lernfähigkeit und die Aufgabenstruktur harmonieren.
Zukünftige Studien sollten daher untersuchen, wie Selbstverstärkung durch eigenes Erforschen und Entdecken und auf der anderen Seite Lernen durch externes Feedback miteinander gut zusammenwirken können, insbesondere in echten Lernsituationen. Es geht dabei nicht nur um das Lernen von Maschinen, sondern vor allem um den Lernprozess beim Menschen. So können neue Lehrmethoden entwickelt werden, die das lebenslange Lernen fördern und helfen, falsch erlernte Annahmen zu vermeiden.

Wissenschaftliche Ansprechpartner:
Dr. Franziska Bröker
Postdoktorandin
Carnegie Mellon University
Telefon: +1 878 256-9144
E-Mail: fbroker@andrew.cmu.edu

Originalpublikation:
Bröker, Franziska et al. (2024): Demystifying unsupervised learning: how it helps and hurts.
Trends in Cognitive Sciences, doi:10.1016/j.tics.2024.09.005

Weitere Informationen:
https://www.kyb.tuebingen.mpg.de/794392/news_publication_23575937_transferred

(nach oben)


Wirkung von Chemikalienmischungen: Neurotoxische Effekte addieren sich

Chemikalien sind heute allgegenwärtig: Durch Nahrung, Luft oder über die Haut gelangen sie in unseren Körper. Doch wie wirken sich diese komplexen Chemikalienmischungen auf unsere Gesundheit aus? Ein UFZ-Forschungsteam belegte nun, dass Chemikalien in komplexen Mischungen und in Konzentrationsverhältnissen, wie sie im Menschen gefunden werden, zusammenwirken. Selbst wenn die Konzentrationen der Einzelsubstanzen jeweils unterhalb der Wirkschwelle lagen, zeigten die Chemikalien in Mischung eine sich aufsummierende neurotoxische Wirkung. Für ihre Untersuchungen nutzten die Wissenschaftler:innen Blutproben von Schwangeren aus der am UFZ seit 2006 laufenden Mutter-Kind-Studie LiNA.
„In unserem Alltag sind wir verschiedensten Chemikalien ausgesetzt, die sich in unserem Körper verteilen und anreichern. Es sind hochkomplexe Mischungen, die sich auf Körperfunktionen und unsere Gesundheit auswirken können“, sagt Prof. Beate Escher, Leiterin des UFZ-Departments Zelltoxikologie und Professorin an der Universität Tübingen. „Aus Umwelt- und Gewässerstudien ist bekannt, dass sich Effekte von Chemikalien addieren, wenn sie in niedrigen Konzentrationen in komplexen Mischungen vorkommen. Ob das auch im menschlichen Körper der Fall ist, war bislang noch nicht hinreichend untersucht – genau hier setzt unsere Studie an.“
Grundlage für die umfangreiche Forschungsarbeit bildeten über 600 Blutproben von Schwangeren aus der Leipziger Mutter-Kind-Kohorte LiNA, die vom UFZ seit 2006 koordiniert wird. Zunächst analysierten die Forschenden die in den Proben vorkommenden individuellen Chemikalienmischungen. „Wir wollten herausfinden, welche Chemikalien in welchen Konzentrationen im Blutplasma enthalten waren. Wir haben ein zweistufiges Extraktionsverfahren verwendet, um so unterschiedliche chemische Mischungen zu isolieren“, sagt Georg Braun, Postdoktorand in der Arbeitsgruppe von Beate Escher und Erstautor der Studie. „Mithilfe massenspektrometrischer Untersuchungen haben wir nach 1.000 verschiedenen Chemikalien gesucht, von denen wir wussten, dass sie in der Umwelt vorkommen können, potenziell vom Menschen aufgenommen werden und relevant für die menschliche Gesundheit sein könnten. Davon konnten wir rund 300 Chemikalien in mehreren Plasmaproben quantifizieren.“ So erhielten die Forschenden Informationen über die Zusammensetzung und die Konzentrationsverhältnisse der in den 600 individuellen Plasmaproben vorhandenen Chemikalienmischungen.
Mit einem Vorhersagemodell berechneten die Wissenschaftler:innen die neurotoxischen Wirkungen der Chemikalienmischungen. Um die Vorhersagen der Mischungseffekte experimentell zu prüfen, nutzten sie ein etabliertes zellbasiertes Testsystem aus menschlichen Zellen, das neurotoxische Wirkungen anzeigt. „Wir haben Einzelchemikalien sowie rund 80 verschiedene, selbst hergestellte Chemikalienmischungen in realistischen Konzentrationsverhältnissen untersucht. Auch die Extrakte der Plasmaproben wurden getestet“, sagt Georg Braun. Die Ergebnisse waren eindeutig. „Die Laborexperimente bestätigten die Vorhersagen aus dem Modell: Die Effekte der Chemikalien addieren sich in komplexen Mischungen“, sagt die Umwelttoxikologin Beate Escher. „Selbst wenn die Einzelkonzentrationen neurotoxisch wirkender Chemikalien so gering sind, dass sie jeweils unterhalb der Wirkschwelle liegen, zeigt sich in komplexen Mischungen mit vielen anderen Chemikalien ein Effekt auf nervenähnliche Zellen.“
Doch was genau bedeuten diese Ergebnisse? „Mit unserer Studie konnten wir erstmals beweisen, dass das, was in Bezug auf die Effekte von Chemikalienmischungen in der Umwelt bekannt ist, auch für den Menschen gilt“, sagt Escher. „In der Risikobewertung müssen wir daher unbedingt umdenken. Indikatorsubstanzen allein sind bei weitem nicht ausreichend. Wir müssen künftig in Mischungen denken lernen.“ Die UFZ-Umweltimmunologin und Leiterin der LiNA-Studie Dr. Gunda Herberth ergänzt: „Es wird immer deutlicher, dass viele Erkrankungen wie zum Beispiel Allergien, Störungen des Immunsystems, Fettleibigkeit oder die Entwicklung des Nervensystems mit der Chemikalienexposition im Mutterleib oder in der frühen Kindheit im Zusammenhang stehen.“
Das in dieser Studie vorgestellte Testverfahren – die Extraktion von Chemikalienmischungen aus menschlichen Proben und ihre Charakterisierung mit chemischer Analytik kombiniert mit zellbasierten Biotestsystemen – eröffnet neue Möglichkeiten, die Wirkungen von komplexen Chemikalienmischungen auf die menschliche Gesundheit zu erforschen. In zukünftigen Forschungsprojekten wollen die Wissenschaftlerinnen und Wissenschaftler ihre Testmethode verfeinern und die Wirkungen von Chemikalienmischungen auf weitere gesundheitlich relevante Endpunkte wie etwa Immuntoxizität erforschen. Darüber hinaus möchten sie mögliche Zusammenhänge zwischen der Chemikalienexposition und der Ausbildung von Entwicklungsstörungen bei Kindern aufdecken. Als Mitglieder des Deutschen Zentrums für Kinder- und Jugendgesundheit, einem deutschlandweiten Forschungsverbund von Universitätskliniken, Universitäten und außeruniversitären Forschungseinrichtungen, werden die UFZ-Forschenden in Zukunft mit zahlreichen Expertinnen und Experten aus den Bereichen Medizin und Epidemiologie zusammenarbeiten, um diese Methoden des effektbasierten humanen Biomonitorings in der Praxis anzuwenden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Beate Escher
Leiterin UFZ-Department Zelltoxikologie
beate.escher@ufz.de
Georg Braun
UFZ-Department Zelltoxikologie
georg.braun@ufz.de

Originalpublikation:
Georg Braun, Gunda Herberth, Martin Krauss, Maria König, Niklas Wojtysiak, Ana C. Zenclussen, Beate I. Escher: Neurotoxic mixture effects of chemicals extracted from blood of pregnant women; Science (2024) DOI: 10.1126/science.adq0336

Weitere Informationen:
https://www.ufz.de/index.php?de=47861

(nach oben)


Mit Kreislaufwirtschaft gegen Ressourcenknappheit: 7,8 Mio. Euro für nachhaltige Forschungsprojekte

Abfälle zu vermeiden oder wiederzuverwerten sind wichtige Schritte hin zu neuen Produktionstechnologien, die effizienter und umweltverträglicher sind. Um die bestehende Technologielücke zu schließen, fördert die VolkswagenStiftung sechs neue Forschungsprojekte mit rund 7,8 Mio. Euro. Sie befassen sich bspw. mit dem Recycling von Abfällen aus der Geflügelproduktion und umweltfreundlichen Pflanzenschutzmitteln aus Reststoffen der Papierproduktion.

Durch die Ausbeutung seiner Primärrohstoffe kommt das „System Erde“ an seine Belastungsgrenze. Und auch Treibhausgasemissionen, Biodiversitätsverlust und Wasserverbrauch legen weiter zu. Die Kreislaufwirtschaft oder „Zirkularität“ kann einen Weg aus dieser Defizit-Spirale weisen. Ihr Prinzip beruht darauf, Produkte nach ihrer Nutzung als Rohstoffe für Neues einzusetzen. Dadurch kann die Industrie etwa mit Erdöl hergestellte Materialien durch biobasierte, kreislauffähige ersetzen sowie weitere wertvolle Stoffe retten, aufarbeiten und umfunktionieren. Abfälle als Rohstoffquellen wiederzuverwenden, schafft eine nachhaltige Ressourcenbalance nach dem Motto „Reduce, Reuse, Recycle, Recover“.

Mit ihrer Förderinitiative „Zirkularität mit recycelten und biogenen Rohstoffen“ (https://www.volkswagenstiftung.de/de/foerderung/foerderangebot/zirkularitaet-mit…) spricht die Stiftung Forschende aus den Natur- und Technikwissenschaften, auch in Kooperation mit den Sozialwissenschaften, an. Gefördert werden praxisrelevante Forschungsansätze, die geschlossene Rohstoff-Produkt-Kreisläufe anstreben. Zum Stichtag am 01. März 2024 sind 83 Förderanträge bei der Stiftung eingegangen. Nach einer ersten Begutachtungsrunde wurde über 29 Anträge entschieden (die übrigen 54 werden in einem zweiten Schritt begutachtet). Sechs Projekte wurden bewilligt, von denen wir drei hier exemplarisch vorstellen:

ReProFilm: Repurposing Protein-Rich Waste Streams for Developing Sustainable Functionalized Protein-Based Films for Agricultural Applications (Prof. Dr.-Ing. Kerstin Kuchta, Technische Universität Hamburg-Harburg, 808.600 Euro; Prof. Dr. Nadav Amdursky, University of Sheffield (Großbritannien), 593.000 Euro)

Abfälle aus der Geflügelproduktion, aber auch Gärreste aus Biogasanlagen oder Raps-Rückstände sind in großen Mengen vorhanden und reich an Proteinen, werden jedoch kaum weiterverwertet. Die Forschenden möchten aus diesen Abfällen zwei Produkte erzeugen: Zum einen eine Sprühbeschichtung, um Obst und Gemüse länger haltbar zu machen. Zum anderen eine funktionalisierte Mulchfolie, die in der Landwirtschaft zum Einsatz kommen soll. Mulchfolien sorgen dafür, dass sich der Boden schneller erwärmt, feucht bleibt und Setzlinge schneller wachsen. Gleichzeitig hemmen sie das Wachstum von Unkraut. Konventionelle Plastikfolien müssen nach dem Gebrauch entsorgt werden, was Kosten verursacht und die Umwelt belastet. Biobasierte Mulchfolien hingegen können mit Dünger bestückt werden und zerfallen mit der Zeit von selbst.

BioLoop: Micro-biologically enhanced material cycle for closing PE and PE-PET multilayer plastic foil Loops (Prof. Dr. David Laner, Prof. Dr.-Ing. Hans-Peter Heim, Universität Kassel, 814.700 Euro; Prof. Dr. Wolfgang Streit, Universität Hamburg, 390.500 Euro)

Verpackungsfolien, eines der Hauptanwendungsgebiete für Kunststoffe, werden derzeit nur in geringen Mengen und für minderwertige Anwendungen recycelt. In ihrem Projekt wollen die Forschenden ein umweltoptimales Recyclingschema für Kunststofffolien entwickeln, indem sie Polyethylen(PE)-Polymere aus den Folien mithilfe von Enzymen in kleinere Teile zerlegen und im Anschluss in hochwertige Produkte umwandeln. PE ist deutlich schwerer abbaubar als PET (Polyethylenterephthalat, bekannt von Getränkeflaschen) – es existiert bis heute keine einfache Lösung für PE-Recycling. Durch die mikrobielle Zersetzung von PE-Folienabfällen ließen sich im Erfolgsfall die Recyclingquoten für Kunststofffolien deutlich erhöhen und somit Treibhausgasemissionen senken sowie die Plastikverschmutzung in der Umwelt reduzieren.

LignoCide: Functional Lignin-based Spray Coat to prevent Plant Diseases (Dr. Sanjam Chandna, Prof. Dr. Stephan Block, Prof. Dr. Rainer Haag, Freie Universität Berlin, rd. 1,4 Mio. Euro)

Während der Papier- und Biokraftstoffproduktion fallen größere Mengen des Biopolymers Lignin an – und werden zumeist als Abfallstoff entsorgt. Die Forschenden wollen die Lignin-Abfälle nutzen und mittels einer Funktionalisierung mit Schwefelverbindungen und Zuckermolekülen daraus Pflanzenschutzmittel entwickeln, die im Gegensatz zu herkömmlichen chemischen Pestiziden keine schädliche Auswirkungen auf die Umwelt und die menschliche Gesundheit haben. Sie streben an, eine Sprühbeschichtungslösung für Pflanzen auf Basis des umweltfreundlichen Biopestizids aus Lignin zu entwickeln, die Feldfrüchte vor schädlichen Bakterien, Viren und Pilzen schützt.

Folgende drei weiteren Projekte wurden ebenfalls bewilligt:
Sustainable Solutions for PFAS Removal: Exploring Biogenic and Circular Approaches in Lignin-based Adsorber Materials (Prof. Dr. Rainer Haag, Freie Universität Berlin, 668.800 Euro; Dr. Franziska Emmerling, Bundesanstalt für Materialforschung und -prüfung (BAM), Berlin, 347.000 Euro; Prof. Dr. Alexander Böker, Fraunhofer-Institut für Angewandte Polymerforschung (IAP), Potsdam, 374.000 Euro)

A new bio-based circular production route for molecularly tailored polyethylene pom-pom contributing to closed and defossilized material cycles in polyolefin industry (Prof. Dr. Michael Fischlschweiger, Prof. Dr. Sabine Beuermann, Prof. Dr. Valerian Hirschberg, Technische Universität Clausthal; rd. 1,2 Mio. Euro)

D3MAT – A design approach to advance circularity at a multidimensional product level (Prof. Dr.-Ing. Frank Döpper, Prof. Dr. Franz Konstantin Fuß, Universität Bayreuth, 842.900 Euro; Dr. Clara Usma-Mansfield, Deakin University (Australien), 376.100 Euro)

INFORMATIONEN ZUR VOLKSWAGENSTIFTUNG
Die VolkswagenStiftung ist eine eigenständige, gemeinnützige Stiftung privaten Rechts mit Sitz in Hannover. Mit einem Fördervolumen von insgesamt etwa 150 Mio. Euro pro Jahr ist sie die größte private deutsche wissenschaftsfördernde Stiftung und eine der größten Stiftungen hierzulande überhaupt. Ihre Mittel vergibt sie ausschließlich an wissenschaftliche Einrichtungen. In den mehr als 60 Jahren ihres Bestehens hat die VolkswagenStiftung rund 33.000 Projekte mit insgesamt mehr als 5,5 Mrd. Euro gefördert. Auch gemessen daran zählt sie zu den größten gemeinnützigen Stiftungen privaten Rechts in Deutschland.

Weitere Informationen über die VolkswagenStiftung finden Sie unter https://www.volkswagenstiftung.de/stiftung/wer-wir-sind.

NEWSLETTER DER VOLKSWAGENSTIFTUNG ERHALTEN
Der Newsletter der VolkswagenStiftung informiert regelmäßig (etwa einmal pro Monat) über aktuelle Förderangebote, Stichtage, Veranstaltungen und Nachrichten rund um die Stiftung und um geförderte Projekte. Haben Sie Interesse an unserem Newsletter? Dann folgen Sie diesem Link: https://www.volkswagenstiftung.de/newsletter-anmeldung

Wissenschaftliche Ansprechpartner:
Dr. Ulrike Bischler
+49 511 8381-350
bischler@volkswagenstiftung.de

Weitere Informationen:
https://www.volkswagenstiftung.de/de/foerderung/foerderangebot/zirkularitaet-mit… Weitere Informationen zur Förderinitiative „Zirkularität mit recycelten und biogenen Rohstoffen“.
https://www.volkswagenstiftung.de/stiftung/wer-wir-sind Weitere Informationen über die VolkswagenStiftung.

(nach oben)


Plastikverschmutzung schädigt Bienen

Übersichtsstudie in Nature Communications zeigt erstmals systematisch die Auswirkungen von Nano- und Mikroplastik auf Bienen.
Bienen und andere Nutzinsekten nehmen Nano- und Mikroplastik über Nahrung und Luft auf. Das kann zu organischen Schäden und Verhaltensänderungen führen und ihre Funktionen als Bestäuber und Schädlingsbekämpfer beeinträchtigen.
Die Ablagerung von Plastikpartikeln auf Böden birgt – vor allem in Wechselwirkung mit anderen Umweltbelastungen – Risiken für die Funktion von Agrarlandschaften und die globale Ernährungssicherheit
Nano- und Mikroplastikpartikel (NMP) belasten zunehmend urbane und ländliche Landschaften, wo Bienen und andere Nutzinsekten mit ihnen in Kontakt kommen. Nehmen die Insekten Plastikpartikel über die Nahrung oder die Luft auf, kann das ihre Organe schädigen und Verhaltensveränderungen verursachen, sodass sie wichtige ökologische Funktionen wie die Bestäubung und Schädlingsbekämpfung nicht länger gut erfüllen können. Die Plastikverschmutzung birgt daher erhebliche Risiken für die Artenvielfalt, die landwirtschaftliche Produktion und die globale Ernährungssicherheit. Das sind die zentralen Erkenntnisse einer neuen Übersichtsstudie im Journal Nature Communications, die von einem internationalen Team unter Beteiligung der Universität Freiburg erstellt wurde.

Plastik gelangt aus Folien, Düngemitteln, Wasser und Luft auf Ackerböden
Mikroplastikpartikel sind zwischen einem Mikrometer und fünf Millimeter groß, noch kleinere Partikel werden als Nanoplastik bezeichnet. Während die schädlichen Effekte von NMP in Gewässern und für einzelne Arten gut dokumentiert sind, fehlte es bislang an systematischen Übersichtsarbeiten, wie sich die Partikel auf Agrarökosysteme auswirken. Um diese Lücke zu schließen, fassten die Autor*innen der Übersichtsstudie nun erstmals 21 bereits veröffentlichte Einzeluntersuchungen zusammen. Ihr Interesse galt dabei besonders der Frage, wie Bestäuberinsekten und andere Nützlinge mit NMP in Kontakt kommen und welche Folgen die Aufnahme der Partikel für die Insekten, aber auch für die von ihnen abhängigen Ökosysteme und die landwirtschaftliche Produktion hat.
So konnten die Forschenden zunächst verschiedene Quellen identifizieren, aus denen NMP auf landwirtschaftlich genutzte Flächen gelangen, darunter Plastikfolien, Düngemittel, verschmutztes Wasser und atmosphärische Ablagerungen. Die Plastikpartikel reichern sich in Böden an und werden von Bestäubern und von Nutzinsekten, die für die Schädlingsbekämpfung wichtig sind, über die Luft und die Nahrung aufgenommen oder im Nestbau verwendet.

Schädigung der Bienen könnte zu sinkender landwirtschaftlicher Produktion führen
Durch die Aufnahme von NMP könne es bei Bienen beispielsweise zu Schäden am Verdauungssystem, zur Schwächung des Immunsystems und zu Verhaltensänderungen kommen, stellen die Studienautor*innen fest. Dadurch würden die Bienen beispielsweise anfälliger für Krankheiten und könnten Pflanzen möglicherweise weniger effektiv bestäuben. „Wir finden Mikroplastik im Darm von Bienen und sehen, wie Wildbienen Plastik zum Nestbau nutzen. Wir müssen daher dringend erforschen, welche Wechselwirkung dies mit anderen Stressoren, wie dem Klimawandel, für die Bienen und ihre Bestäubungsleistungen hat“, sagt Prof. Dr. Alexandra-Maria Klein, Ko-Autorin der Studie und Professorin für Naturschutz und Landschaftsökologie an der Universität Freiburg. Eine sinkende Bestäubungsleistung wirkt sich nachteilig auf den Ertrag von Nutzpflanzen aus. Die Plastikverschmutzung könne so bestehende Unsicherheiten bei der globalen Nahrungsmittelversorgung weiter verschärfen, warnen die Forschenden.

Wechselwirkungen mit anderen Umweltstressoren verstärken das Problem
Darüber hinaus verstärken NMP auch die Gefahren, die von anderen Umweltstressoren wie Pestiziden, chemischer Verschmutzung, Pilzen und Krankheitserregern ausgehen. In einigen Gebieten bildeten sich beispielsweise „Hotspots“ der Wechselwirkung zwischen Plastikpartikeln und schädlichen Viren. Solche Interaktionen könnten zu besonders gravierenderen Effekten von NMP auf Bestäuber und damit auf die Stabilität des Nahrungsmittelsystems führen.
Die Forschenden betonen jedoch auch die Beschränkungen ihrer Übersichtsarbeit. So gäbe es kaum Daten zu wichtigen Bestäubern und Nützlingen wie Hummeln und Marienkäfern. Auch sei es bei der derzeitigen Datenlage nicht möglich, die Wirkungen verschiedener NMP-Größen und -Mengen differenziert zu beschreiben. Um das wachsende Problem der Plastikverschmutzung besser zu verstehen und Lösungen dafür finden zu können, brauche es dringend weitere Forschungsarbeiten. „Schon jetzt ist aber klar: Die Plastikverschmutzung muss dringend politisch gesteuert werden“, sagt Klein.
An der Studie waren Forschende der Westlake University (Hangzhou/China), der Zhejiang University, (Hangzhou/China), der Fudan University (Shanghai/China) sowie der Universitäten Freiburg und Tübingen beteiligt.

Faktenübersicht:
Originalpublikation: Dong Sheng, Siyuan Jing, Xueqing He, Alexandra-Maria Klein, Heinz-R. Köhler & Thomas C. Wanger (2024). Plastic pollution in agricultural landscapes: an overlooked threat to pollination, biocontrol and food security. In: Nature Communications 15, 8413. DOI: 10.1038/s41467-024-52734-3
Zur Originalpublikation: https://doi.org/10.1038/s41467-024-52734-3
Alexandra-Maria Klein ist seit 2013 Professorin für Naturschutz und Landschaftsökologie an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Im Zentrum ihrer Forschung stehen Fragen nach dem Zusammenspiel von Ökosystemen und Biodiversität, wie zum Beispiel nach der Rolle von Bienenvielfalt für die Bestäubung in sich verändernden Ökosystemen.

Kontakt:
Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de

Originalpublikation:
https://doi.org/10.1038/s41467-024-52734-3

Weitere Informationen:
https://uni-freiburg.de/plastikverschmutzung-schaedigt-bienen/

(nach oben)


Herbstzeit ist Impfzeit: Uniklinikum plädiert für Pieks gegen die Influenza

Betriebsärztliche Dienst des Universitätsklinikums hat mit Impfangebot für die Belegschaft begonnen. | Klinikpersonal übernimmt Verantwortung, um Versorgung auch im Winter zu sichern.| Impfung vor allem für ältere Menschen, Schwangere und Mitarbeitende im medizinischen Bereich empfohlen.

Kleiner Pieks – klare Haltung. Vor allem in der jetzt beginnenden kalten Jahreszeit ist ein wirksamer Schutz gegen die Influenza für viele Menschen unabdingbar. Eine hohe Impfbereitschaft ist nicht nur für die Gesundheit der Menschen im direkten und indirekten Umfeld sinnvoll, sondern vor allem auch für einen reibungslosen Klinikbetrieb und ausreichende personelle Besetzung notwendig. Der Medizinische Vorstand am Universitätsklinikum Dresden, die Pflegedirektorin sowie die Dekanin der Medizinischen Fakultät an der TU Dresden werben deshalb für eine zeitnahe Grippeschutzimpfung. Für die Belegschaft der Hochschulmedizin hat der Betriebsärztliche Dienst bereits mit dem Impfen begonnen. Zusätzlich kommt es darauf an, dass möglichst viele Menschen außerhalb des Klinikbetriebs ihren Grippeschutz ebenfalls auffrischen. Die Impfung wird vor allem für ältere Menschen, Schwangere und Mitarbeitende im medizinischen Bereich empfohlen. An diesem Montag (14. Oktober) haben sich Prof. Michael Albrecht, Medizinischer Vorstand am Uniklinikum, sowie die Pflegedirektorin Jana Luntz und Prof. Esther Troost, Dekanin der Medizinischen Fakultät, öffentlichkeitswirksam gegen die Influenza impfen lassen.

„Die Impfung gegen die Grippe ist in jedem Fall empfehlenswert – besonders wenn Sie aus einer der vulnerablen Gruppen kommen. Ohne eine hohe Zahl an immunisierten Personen besteht die Gefahr einer massiven Grippewelle. Folgen wären einerseits ein hoher Personalausfall in den Kliniken – der die Krankenversorgung einschränken könnte – und andererseits viele schwere Krankheitsverläufe mit einer überdurchschnittlichen Zahl an Klinikeinweisungen“, sagt der Medizinische Vorstand Prof. Michael Albrecht.
„Wir sind uns unserer Verantwortung an dieser Stelle bewusst und bieten unseren Mitarbeitenden bereits seit einigen Tagen die Impfung gegen die Influenza an. Wir sorgen so für die Gesundheit unseres Personals sowie die Sicherheit der zu betreuenden Patientinnen und Patienten. Als Arbeitgeber sehen wir uns hier in der Pflicht. Dies ist unser Beitrag in der Bekämpfung möglicher Wellen im Herbst und Winter“, sagt Jana Luntz, Pflegedirektorin am Uniklinikum.

„Der Grippeschutz sollte nicht unterschätzt werden. Die echte Grippe – Influenza – ist keine einfache Erkältung, sondern eine ernstzunehmende Erkrankung. Sie ist häufig mit hohem Fieber verbunden und kann den Körper so sehr schwächen, dass Erkrankte mitunter länger arbeitsunfähig sind“, ergänzt Prof. Esther Troost, Dekanin der Medizinischen Fakultät Dresden.

Die Impfung dient dem persönlichen Schutz der Mitarbeitenden, die häufiger als andere Berufsgruppen mit Influenzaerkrankten in Kontakt kommen. Ferner folgt die Impfung des medizinischen Personals dem ethischen Gebot, Patientinnen und Patienten nicht zu schaden. Denn viele dieser Menschen sind wegen bestehender Grunderkrankungen einem erhöhten Risiko ausgesetzt, eine schwere, eventuell tödliche Verlaufsform der Influenza zu entwickeln. Auch wenn die Immunisierung keinen hundertprozentigen Schutz gewährleisten kann, so sorgt sie doch für zusätzliche Sicherheit – vor allem unter den älteren Patientinnen und Patienten. In der letzten Wintersaison mussten rund 15 Prozent der Influenza-Fälle im Krankenhaus behandelt werden. Mehr als 90 Prozent der an Influenza Verstorbenen waren 60 Jahre alt, oder älter. Infektionen mit Influenza zeigten sich in der Saison 2023/24 vor allem zu Beginn 2024. Experten gehen deshalb davon aus, dass für die kommende Saison in diesem Winter eine späte Influenzaimpfung Anfang/Mitte November ausreichend zu sein scheint.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Annechristin Bonß, Pressestelle
Tel.: +49 351 458 4162
E-Mail: pressestelle@ukdd.de

(nach oben)


So erkennen wir die Gefühle anderer Personen

Der Gesichtsausdruck einer Person liefert eine Kerninformation für das Erkennen von Emotionen. Aber zu diesem Prozess gehört noch viel mehr. So lautet das Fazit der Arbeit von Dr. Leda Berio und Prof. Dr. Albert Newen vom Institut für Philosophie II der Ruhr-Universität Bochum. Das Team beschreibt die Emotionserkennung nicht als abgegrenzte Teilfähigkeit, sondern als Teil eines umfassenden Prozesses, mit dem Menschen sich einen Gesamteindruck einer Person machen. Dazu gehören auch physische oder kulturelle Merkmale sowie Hintergrundinformationen. Die Arbeit ist am 24. September 2024 in der Zeitschrift „Philosophy and Phenomenological Research” erschienen.

In den 1970er-Jahren wurde die Theorie entwickelt, dass das Gesicht das Fenster zu unseren Gefühlen darstellt. Der Forscher Paul Ekman beschrieb Basisemotionen wie Angst, Ärger, Ekel, Freude und Traurigkeit über typische Gesichtsausdrücke, die über alle Kulturen hinweg als gleichartig entdeckt wurden. „Allerdings wurde in den vergangenen Jahren zunehmend deutlich, dass in vielen Lebenssituationen ein typischer Gesichtsausdruck nicht die zentrale Information sein muss, die unsere Einschätzung von Gefühlen anderer leitet“, sagt Newen und gibt ein Beispiel: „Menschen schätzen einen typischen Gesichtsausdruck von Angst fast durchgängig als Ärger ein, wenn sie das Hintergrundwissen haben, dass die Person gerade von einem Kellner abgewiesen wurde, obwohl sie nachweislich einen Tisch reserviert hatte.“ In einer solchen Situation erwarten Menschen, dass die Person sich ärgert, und diese Erwartung bestimmt die Wahrnehmung der Emotion, auch wenn der Gesichtsausdruck typischerweise einer anderen Emotion zugeschrieben wird.

„Wir können Emotionen manchmal auch erkennen, ohne überhaupt das Gesicht zu sehen. Zum Beispiel die Angst einer Person, die von einem bissigen Hund attackiert wird und die wir nur in einer Haltung von Erstarrung und Erschrecken von hinten sehen“, veranschaulicht Berio.

Eine Emotion erkennen ist ein Teil des Gesamteindrucks von einer Person
Berio und Newen entwickeln die These, dass Emotionen erkennen ein Teilprozess der Fähigkeit ist, einen Gesamteindruck einer Person zu formen. Dafür stützen Menschen sich zum einen auf Merkmale des Gegenübers, zum Beispiel Merkmale des physischen Erscheinens wie Hautfarbe, Alter oder Geschlecht, kulturelle Merkmale wie Kleidung oder Attraktivität sowie situationale Merkmale wie Gesichtsausdruck, Gestik oder Körperhaltung.

Aufgrund solcher Merkmale können Menschen andere rasch einschätzen und verbinden unmittelbar einen sozialen Status oder sogar Persönlichkeitsmerkmale mit ihnen. Die Wahrnehmung der Gefühle wird von diesen Assoziationen stark bestimmt. „Wenn wir eine Person als Frau wahrnehmen und sie eine negative Emotion zeigt, schätzen wir die Emotion eher als Angst ein, bei einem Mann eher als Ärger“, gibt Berio ein Beispiel.

Hintergrundinformationen fließen in Einschätzung mit ein
Zusätzlich verfügen Menschen neben der Wahrnehmung von Merkmalen und ersten Assoziationen über reiche Personenbilder, die für einzelne Personen – Familienmitglieder, Freunde und Kolleg*innen – als Hintergrundinformation angelegt sind. „Wenn ein Familienmitglied unter Parkinson leidet, lernen wir den üblichen Gesichtsausdruck dieser Person, der eher ärgerlich aussieht, als neutralen Ausdruck einzuschätzen, weil wir wissen, dass der starre Gesichtsausdruck Teil der Erkrankung ist“, so Berio.

Zu den Hintergrundinformationen gehören auch Personenmodelle von typischen Berufsgruppen. „Wir haben stereotypische Annahmen von Ärzten, Studierenden, Handwerkern zu ihren sozialen Rollen und Aufgaben“, sagt Newen. „Wir nehmen Ärzte etwa allgemein als weniger emotional wahr, und daher ist die Gefühlseinschätzung verändert.“

Menschen machen also, um die Emotion einer anderen Person einzuschätzen, von dem großen Reichtum der Merkmale und des Hintergrundwissens Gebrauch. Nur in seltenen Fällen lesen sie die Emotion alleine vom Gesichtsausdruck einer Person ab. „Das hat auch Konsequenzen für das Emotionserkennen mit künstlicher Intelligenz (KI), die erst dann zuverlässig möglich sein wird, wenn sich die KI nicht nur auf den Gesichtsausdruck stützt, wie es die meisten Systeme gegenwärtig tun“, so Newen.

Förderung
Die Arbeiten fanden im Rahmen der vom Land NRW geförderten Profillinie „Interact! New forms of social interaction with intelligent systems“ statt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Albert Newen
Institut für Philosophie II
Fakultät für Philosophie und Erziehungswissenschaft
Ruhr-Universität Bochum
Tel.: +49 234 32 22139
E-Mail: albert.newen@ruhr-uni-bochum.de

Dr. Leda Berio
Institut für Philosophie II
Fakultät für Philosophie und Erziehungswissenschaft
Ruhr-Universität Bochum
E-Mail: leda.berio@ruhr-uni-bochum.de

Originalpublikation:
Leda Berio, Albert Newen: I Expect You to Be Happy, So I See You Smile: A Multidimensional Account of Emotion Attribution, in: Philosophy and Phenomenological Research, 2024, DOI: 10.1111/phpr.13113

(nach oben)


Raus aus der Internetsucht: OMPRIS geht in die Regelversorgung

Grünes Licht vom GBA: LWL bereitet Verstetigung des niedrigschwelligen Online-Motivationsprogramms vor

Als die Klinik für Psychosomatische Medizin und Psychotherapie des LWL-Universitätsklinikums Bochum im Landschaftsverband Westfalen-Lippe (LWL) vor fünf Jahren mit ihrem Forschungsprojekt OMPRIS – Onlinebasiertes Motivationsprogramm zur Förderung der Veränderungsmotivation bei Menschen mit Computerspielabhängigkeit und Internetsucht startete, war primäres Ziel, Menschen mit einer Internetsucht ein schnell zugängliches und damit niedrigschwelliges Therapieangebot zu machen – digital vor dem Bildschirm. Spezialisiert auf telemedizinische Online-Beratungsprogramme konnte die LWL-Klinik in den Folgejahren unter Forschungsleitung von Dr. Jan Dieris-Hirche, Oberarzt und Leiter der LWL-Medienambulanz, ein neues webcambasiertes Angebot entwickeln und erfolgreich erproben.

Der Gemeinsame Bundesausschuss (GBA) hat jetzt die Empfehlung ausgesprochen, dieses Bochumer Angebot für die Regelversorgung vorzubereiten. Der Ausschuss ist ein Organ der Selbstverwaltung im Gesundheitswesen mit Mitgliedern u.a. aus Ärzteschaft, Krankenkassen und Krankenhäusern. Eine Aufgabe des GBA ist es zu entscheiden, welche Leistungen von der Gesetzlichen Krankenversicherung gezahlt werden.

Geplant ist, OMPRIS künftig als LWL-Interventionsangebot umzusetzen und zu verstetigen. Ende 2025 soll es an den Start gehen. Über die Fortsetzung von OMPRIS und eine Umsetzung beim LWL zeigt sich vor allem Jan Dieris-Hirche erfreut: „Wir wollen damit künftig sicherstellen, dass Menschen mit einem problematischen Internetgebrauch schnell und wohnortnah eine geeignete Therapie erhalten, damit sie nicht noch weiter in die Anonymität und Isolation des Internets verschwinden.“ Gerade in den zurückliegenden Jahren hat die Internet- und Computerspielsucht vor allem bei jungen Menschen stark zugenommen. Seit 2018 ist sie seitens der WHO auch international als Krankheit („Online Gaming Disorder“), die mit psychischen Begleiterkrankungen und psychosozialen Belastungen einhergeht, anerkannt. Mit OMPRIS soll einer chronischen Suchtentwicklung entgegengewirkt werden. Neben der Behandlung hat OMPRIS vor allem das Potenzial der Früherkennung und Prävention. „Hilfe durch Selbsthilfe“, so Dieris-Hirche. „Mit dem Programm können wir die Betroffenen durch Beraterinnen und Berater frühzeitig motivieren, ihr Verhalten zu verändern, und Suchtsymptome reduzieren.“

Am Forschungsprojekt waren sieben deutsche Projektpartner beteiligt gewesen, die ein Beratungsprogramm mit verschiedenen psychologischen und medienpädagogischen Elementen konzipiert, angewendet und evaluiert hatten. Finanziert wurde das Projekt durch Mittel des Innovationsfonds Deutschland.

Die Ergebnisse von OMPRIS sind online abrufbar: https://innovationsfonds.g-ba.de/beschluesse/ompris-onlinebasiertes-motivationsp… https://innovationsfonds.g-ba.de/beschluesse/ompris-onlinebasiertes-motivationsp…

Konsortialpartner: Psychosomatische Klinik Kloster Dießen, Technische Universität München, Klinikum rechts der Isar, Universitätsmedizin der Johannes Gutenberg-Universität Mainz, Ambulanz für Spielsucht/Kompetenzzentrum, Universität Duisburg-Essen, Medizinmanagement, ZTG Zentrum für Telematik und Telemedizin GmbH

Wissenschaftliche Ansprechpartner:
Dr. med. Jan Dieris-Hirche,
LWL-Universitätsklinikum der Ruhr-Universität Bochum
Klinik für Psychosomatische Medizin und Psychotherapie
Alexandrinenstraße 1–3
44791 Bochum
+49 234 50773135
jan.dieris-hirche@rub.de

(nach oben)


Wasser in einer aufgeheizten Welt: Nur durch klimaresilientes Wassermanagement beherrschbar

Berlin, den 11. Oktober 2024. Die nationale und internationale Wasserpolitik muss sich auf fortschreitende und beschleunigte Veränderungen im globalen Wasserkreislauf einstellen und hierauf schnell und umfassend reagieren.
So lautet die Kernaussage des WBGU-Gutachtens „Wasser in einer aufgeheizten Welt“, das der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) heute an Bundesumweltministerin Steffi Lemke und den Parlamentarischen Staatssekretär bei der Bundesministerin für Bildung und Forschung, Mario Brandenburg, übergibt.

Wassernotlagen nehmen weltweit zu
Die Auswirkungen des Klimawandels, die Übernutzung der Wasserressourcen, die ungleiche Verteilung von Wasser, der Verlust von Ökosystemleistungen sowie damit verbundene Gesundheitsrisiken führen zunehmend zu regionalen Wassernotlagen. Aktuelle Beispiele sind die Ausrufung des Wassernotstands in Katalonien im Frühjahr 2024 aufgrund von Wassermangel, großräumige katastrophale Überflutungen wie vor wenigen Wochen in Osteuropa oder die zunehmende Verschmutzung von Wasserressourcen in vielen Teilen Afrikas. „Wir erwarten, dass solche regionalen Wassernotlagen immer häufiger auftreten, so dass man mittlerweile von einem globalen Muster sprechen kann. Wir sehen darin eine Bedrohungslage mit globaler Dimension“ warnt WBGU-Mitglied Jörg Drewes. Im Extremfall ergeben sich Situationen, in denen Grenzen der Beherrschbarkeit überschritten werden. Sie können in einer Destabilisierung politischer, gesellschaftlicher und ökologischer Systeme münden. Klimaschutz, der Schutz der Ökosysteme sowie ein klimaresilientes, sozial ausgewogenes Wassermanagement sind die wichtigsten Maßnahmen, um Wassernotlagen zu verhindern.

Wasser höher auf die internationale politische Agenda setzen
„Um Krisenpotenziale frühzeitig zu erkennen und regionale Wassernotlagen mit planetarer Dimension abzuwenden, braucht es eine internationale Water Mapping Initiative“, betont Sabine Schlacke, WBGU Co-Vorsitzende. Diese Initiative soll dazu dienen, krisenhafte Entwicklungen frühzeitig zu erkennen, wirkungsvolle Lösungsansätze auszutauschen und den Transfer wissenschaftlicher Erkenntnisse zum Umgang mit Wassernot- und Bedrohungslagen an die Politik zu verbessern.
Die anstehenden UN-Wasserkonferenzen 2026 und 2028 bieten ein Möglichkeitsfenster, um eine Internationale Wasserstrategie auszuhandeln, die den Schutz der Ressource Wasser als gemeinsames Anliegen der Menschheit anerkennt und vorhandene Prozesse und Konventionen stärkt und verzahnt. Neben dem „blauen“ Wasser (z. B. Bäche, Flüsse, Seen, Talsperren, Grundwasser) sollte auch „grünes“ Wasser (d. h. Bodenfeuchte, die das Pflanzenwachstum ermöglicht) in der Strategie verstärkt Beachtung finden und weltweit bei der Umsetzung eines klimaresilienten Wassermanagements berücksichtigt werden. Die internationale Strategie sollte in zwischenstaatliche Wirtschafts- und Handelsbeziehungen einfließen, auch um Synergien zwischen dem Schutz der Wasserressourcen sowie einer Stärkung von klimaneutraler Entwicklung und Ernährungssicherheit zu nutzen. Die Umsetzung der Ziele der drei Rio-Konventionen zu Klima, Biodiversität und Landdegradation ist hierfür essenziell. Insgesamt sollte das Thema Wasser höher auf die internationale Agenda gesetzt werden.

Klimaresilientes Wassermanagement etablieren
Lokal und regional ist es von zentraler Bedeutung, ein klimaresilientes, sozial ausgewogenes Wassermanagement zu etablieren, bei dem sich Infrastrukturen und Vorgehensweisen den zunehmenden Veränderungen der Wasserhaushalte anpassen. Hierzu sollten gut funktionierende selbstorganisierte Strukturen, z. B. Wassernutzervereinigungen, gestärkt und unterstützt werden. Der Schutz der Wasserqualität erfordert eine konsequente Umsetzung des Zero-Pollution-Ansatzes und eine effiziente Kreislaufwasserwirtschaft, unter Einbeziehung von Ökosystemen und einer aktiven Bewirtschaftung des im Boden gebundenen grünen Wassers. „Ohne eine langfristig glaubwürdig gesicherte Finanzierung der notwendigen Maßnahmen durch öffentliche ebenso wie private Mittel wird dies allerdings nicht gelingen“, stellt Karen Pittel, WBGU-Co-Vorsitzende, fest.

Wissenschaft für klimaresilientes Wassermanagement stärken
Dem Wissenschaftssystem kommt beim Umgang mit Verschärfungen im Wasserbereich eine zentrale Rolle zu. Der Klimawandel verändert zunehmend die Niederschlagsmuster, die Abflussmengen sowie Ausmaß und Häufigkeit von Hochwasserereignissen und ausgedehnten Trockenperioden mit extremen Hitzewellen. Dadurch schwindet die Zuverlässigkeit von Prognosen über die Wasserverfügbarkeit als Grundlage von Planungsprozessen. Benötigt werden genauere Daten zu Wasserdargebot und Wasserbedarfen, die diese Veränderungen besser berücksichtigen. Dies wird nur durch eine Digitalisierungsoffensive für die Bereitstellung von Echtzeitdaten sowie Szenarien über künftige, langfristig erwartete Entwicklungen lokaler Wasserhaushalte gelingen. Hier ist die Wissenschaft für die kontinuierliche Erhebung und Bewertung von Daten und die Bereitstellung von planungsrelevantem und lösungsorientiertem Wissen gefordert.

Der WBGU: Wissenschaft für nachhaltige Zukunftsgestaltung
Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) wurde 1992 im Vorfeld der Konferenz der Vereinten Nationen über Umwelt und Entwicklung („Erdgipfel von Rio“) von der Bundesregierung als unabhängiges wissenschaftliches Beratergremium eingerichtet. Der WBGU hat die Aufgabe, globale Umwelt- und Entwicklungsprobleme zu analysieren und zur Lösung dieser Probleme Handlungs- und Forschungsempfehlungen zu erarbeiten. Karen Pittel und Sabine Schlacke sind aktuell die beiden Vorsitzenden des WBGU.
Das German Institute of Development and Sustainability (IDOS) mit Sitz in der UN-Stadt Bonn zählt weltweit zu den führenden Forschungsinstituten und Think-Tanks zu Fragen globaler nachhaltiger Entwicklung. Das interdisziplinär ausgerichtete Institut vereint Forschung, Beratung und Ausbildung. Das IDOS bildet eine Schnittstelle zwischen Theorie und Praxis.

Wissenschaftliche Ansprechpartner:
Für Rückfragen: wbgu@wbgu.de; Tel.: 030/263948-12

Originalpublikation:
https://www.idos-research.de/presse/pressemitteilungen/wasser-in-einer-aufgeheiz…

Weitere Informationen:
https://www.idos-research.de/wasser-governance

(nach oben)


Ammoniak: Energievektor für die dezentrale Versorgung mit Wasserstoff

In der Wasserstoffwirtschaft spielt Ammoniak eine wichtige Rolle als Transport- und Speichermedium. Vielversprechende Lösungen für dessen Einsatz als Energievektor werden aktuell im Fraunhofer-Leitprojekt AmmonVektor entwickelt. Doch wie groß sind die Potenziale? Und wo liegen die Grenzen? Der Workshop »Ammoniak – DIE Lieferkette für die Wasserstoffwirtschaft?!«, am 30. Oktober in Oberhausen, gibt einen Überblick über die neuesten Technologien und Entwicklungen und liefert Impulse für die Energiewende.

Der industrielle Bedarf an Strom und Prozesswärme in Deutschland ist immens und wird ohne Importe nachhaltig erzeugter Energieträger nicht gedeckt werden können. Ein solcher Energieträger der Zukunft ist Wasserstoff. Auf dem Weg zu einer Wasserstoffwirtschaft gibt es jedoch noch viele offene Fragen. Eine davon ist, wie die Versorgung mit grünem Wasserstoff in der Fläche aussehen kann. Lösungen für die logistischen Herausforderungen werden im Rahmen von AmmonVektor entwickelt. Das Fraunhofer-Leitprojekt setzt auf Ammoniak als sogenannten Energievektor, der sich in seiner flüssigen Form technisch einfach und ohne großen Energieaufwand transportieren lässt. Ein weiterer Vorteil ist, dass Ammoniak durch die Düngemittelproduktion bereits über eine weltweite Transportinfrastruktur verfügt.

Forschende aus den acht Fraunhofer-Instituten ICT, IGB, IKTS, IML, IMM, IMW, ITWM und UMSICHT betrachten über einen Zeitraum von drei Jahren die gesamte Wertschöpfungskette: »Es entstehen Reaktoren und Katalysatoren für eine flexible, energieeffiziente Ammoniak-Synthese. Zudem entwickeln wir Technologien für die Spaltung von Ammoniak und dessen Nutzung zur Erzeugung von Strom, Wärme und Bewegung«, erklärt Dr.-Ing. Andreas Menne von Fraunhofer UMSICHT, das die Projektleitung innehat. Ebenfalls werden Speicher- und Logistikkonzepte erstellt und Geschäftsmodelle entworfen. Alles unter der Zielsetzung, in Zukunft Wasserstoff dezentral verfügbar zu machen.

Die gesamte Wertschöpfungskette
AmmonVektor umfasst insgesamt fünf Teilprojekte. Das erste Teilprojekt beschäftigt sich mit der Entwicklung von Prozessen, die den Betrieb von dezentralen Anlagen für die lastflexible und bedarfsorientierte Ammoniaksynthese ermöglichen. Im zweiten Teilprojekt werden sichere Logistikalternativen und Szenarien für den Transport und die Speicherung von Ammoniak untersucht. An der dezentralen Wasserstoffrückgewinnung – dem Ammoniakcracken – forschen die Beteiligten in Teilprojekt drei. Sie optimieren Crackkatalysatoren hinsichtlich ihrer Aktivität und Stabilität für den Betrieb in verschiedenen Reaktoren. Den Blick auf die direkte Ammoniaknutzung richtet Teilprojekt Nummer vier. Es werden zwei grundlegende Wege zur Strom- und Wärmebereitstellung betrachtet: die Umsetzung von Ammoniak in Festoxidbrennstoffzellen-Systemen und die motorische Verbrennung. Last but not least Teilprojekt fünf, in dem die zuvor entlang der Ammoniak-Wertschöpfungskette optimierten Technologien hinsichtlich ihrer Resilienz sowie ökonomischen und ökologischen Nachhaltigkeit analysiert werden. Andreas Menne: »Auf dieser Basis wollen wir aussagekräftige Informationen über die Potenziale einer langfristig erfolgreichen Umsetzung der Technologien im industriellen Maßstab liefern.«

Workshop: neueste Technologien und Entwicklungen im Themenfeld Ammoniak
Doch wie genau kann diese Umsetzung in der Praxis aussehen? Am 30. Oktober widmet sich der Workshop »Ammoniak – DIE Lieferkette für die Wasserstoffwirtschaft?!« bei Fraunhofer UMSICHT in Oberhausen dem Themenfeld Ammoniak. Expertinnen und Experten aus Wissenschaft und Wirtschaft informieren aus verschiedenen Blickwinkeln über dezentrale Nutzungskonzepte. Es geht um konkrete Anwendungsfälle von Ammoniak als Wasserstoffspeicher und das Fraunhofer-Leitprojekt AmmonVektor, aber auch um die Hürden einer Wasserstoffwirtschaft und die Regulatorik. Der Workshop richtet sich u. a. an Interessierte aus Industrie und Wissenschaft, Energieversorger, dezentrale Anwender von Wasserstofftechnologien, Transport- und Logistikunternehmen. Teilnehmende können sich direkt einbringen und sind eingeladen, gemeinsam mit den Referentinnen und Referenten zu diskutieren. Am Ende der Veranstaltung besteht die Möglichkeit, im Rahmen einer Institutsführung einen Blick hinter die Kulissen von Fraunhofer UMSICHT zu werfen.

Weitere Informationen:
https://www.ammonvektor.fraunhofer.de/ Homepage AmmonVektor
https://www.umsicht.fraunhofer.de/de/messen-veranstaltungen/2024/ammoniak-wasser… Workshop: Information und Anmeldung

(nach oben)


Neue Einblicke in die Ammoniakspaltung

Ein internationales Forschungsteam hat neue Erkenntnisse in die Funktionsweise eines Eisenkatalysators gewonnen, mit dem sich Ammoniak in Stickstoff und Wasserstoff spalten lässt. Wasserstoff wird zu Ammoniak umgewandelt, um den Energieträger leichter transportierbar zu machen. Folglich braucht es auch Katalysatoren, die Ammoniak wieder in die Ausgangsstoffe zerlegen können.

Wie der Eisenkatalysator diese Reaktion im Detail bewerkstelligt, beschreibt ein Team der Ruhr-Universität Bochum, des Max-Planck-Instituts (MPI CEC) für Chemische Energiekonversion in Mülheim an der Ruhr, der Technischen Universität Berlin und des Italian Institute of Technology in Genua in der Zeitschrift ACS Catalysis vom 6. September 2024.

Wasserstoff transportierbar machen
Grüner Wasserstoff gilt als vielversprechender Energieträger. Er kann mithilfe von Wind- oder Solarenergie durch die Spaltung von Wasser gewonnen werden. Oft sind die Bedingungen für diese Wasserelektrolyse jedoch nicht an genau den Standorten günstig, an denen Wasserstoff benötigt wird. Für den Transport muss Wasserstoff verflüssigt werden, was nur bei extrem tiefen Temperaturen gelingt. Wasserstoff in Ammoniak umzuwandeln, der sich bei deutlich höheren Temperaturen verflüssigen lässt, gilt daher als Alternative. „Hinzu kommt, dass es in der chemischen Industrie bereits eine etablierte Infrastruktur für das Ammoniak-Handling gibt“, sagt Prof. Dr. Martin Muhler, Leiter des Lehrstuhls für Technische Chemie in Bochum und Max Planck Fellow am MPI CEC.

Um Ammoniak (NH3) wieder in seine Ausgangsstoffe Stickstoff (N2) und Wasserstoff (H2) zu zerlegen, braucht es effiziente Katalysatoren. Das Problem: Herkömmliche Eisen-Katalysatoren begünstigen in der Regel eine unerwünschte Reaktion zu Eisennitrid anstatt zu Stickstoff. Wie genau es zu dieser Nebenreaktion kommt, haben die Forschenden in der vorliegenden Arbeit gezeigt. Sie testeten die Ammoniak-Spaltung mithilfe eines Katalysators der neusten Generation, den die Firma Clariant zur Verfügung stellte.

Das Team um Dr. Maximilian Purcel, Astrid Müller und Prof. Dr. Martin Muhler von der Ruhr-Universität Bochum und vom MPI CEC in Mülheim führte die dazu erforderlichen Experimente durch. Verfeinert wurden die Erkenntnisse mithilfe von aufwendigen Molekulardynamik-Simulationen, unterstützt durch maschinelles Lernen, der italienischen Partner. Dem Team der Technischen Universität Berlin gelang es, die gebildeten Eisennitride unter Reaktionsbedingungen mittels Röntgenbeugung zu identifizieren und deren Umwandlungen mitzuverfolgen.

Künftig effizientere Katalysatoren
„Unsere Ergebnisse können dazu beitragen, künftig effizientere Katalysatoren für die Spaltung von Ammoniak zu entwickeln“, folgert Martin Muhler. „Die Ammoniaksynthese und -spaltung hat eine lange Geschichte“, ergänzt er. „Wir zitieren wissenschaftliche Publikationen der vergangenen 100 Jahre.“ Darunter sind auch die Arbeiten von Martin Muhlers Doktorvater Gerhard Ertl, der 2007 für seine Forschung dazu den Nobelpreis erhielt.

Förderung
Die Arbeiten fanden im Rahmen des Projekts „AmmoRef” statt, das Teil des Wasserstoff-Leitprojekts „TransHyDE“ ist, welches vom Bundesministerium für Bildung und Forschung gefördert wird (03HY203A, 03HY203C.)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Muhler
Lehrstuhl für Technische Chemie
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 28754
E-Mail: martin.muhler@ruhr-uni-bochum.de

Originalpublikation:
Maximilian Purcel, Stefan Berendts, Luigi Bonati, Simone Perego, Astrid Müller, Martin Lerch, Michele Parrinello, Martin Muhler: Iron Nitride Formation and Decomposition during Ammonia Decomposition over a Wustite-Based Bulk Iron Catalyst, in: ACS Catalysis, 2024, DOI: 10.1021/acscatal.4c04415, https://pubs.acs.org/doi/10.1021/acscatal.4c04415?ref=PDF

(nach oben)


WMO-Bericht zu Weltwasserressourcen: 2023 war entweder zu trocken oder zu nass

Dritter Bericht über Zustand der globalen Wasserressourcen veröffentlicht / Rekordverdächtig niedrige Wasserstände im Mississippi- und im Amazonasbecken

Das Jahr 2023 war nicht nur von einer beispiellosen Hitze geprägt, sondern auch von großer Trockenheit in vielen Teilen der Erde, während es andernorts zu Überschwemmungen kam. Die Weltorganisation für Meteorologie (WMO) hat zum dritten Mal ihren Bericht über den Zustand der globalen Wasserressourcen vorgelegt. Den Angaben zufolge war 2023 das trockenste Jahr der vergangenen 33 Jahre, gefolgt von den Jahren 2021 und 2015. „2023 war sehr viel trockener, als wir erwartet hatten“, so Prof. Dr. Robert Reinecke von der Johannes Gutenberg-Universität Mainz (JGU). Reinecke leitet am Geographischen Institut der JGU den Arbeitsbereich Erdsystemmodellierung und hat zur Erstellung des Berichts beigetragen.

Der dritte Bericht über die Weltwasserressourcen nimmt den globalen Wasserkreislauf noch umfassender in den Blick als die beiden ersten Reports. Insbesondere wurden diesmal Speicherkapazitäten von Seen und Wasserspeichern sowie die Kryosphäre, also Schnee und Gletscher, detaillierter erfasst. Mehr Daten und mehr Modelle zur Analyse der Daten bieten somit ein noch genaueres Bild der aktuellen Lage. Die Ergebnisse zeigen für 2023 weiterhin eine deutliche Abweichung gegenüber dem historischen Normalwert der Referenzperiode 1991 bis 2020. „Mehr als 50 Prozent der Einzugsgebiete weisen Abweichungen von diesem Referenzzeitraum auf“, so Reinecke. Die Abflussmengen der Flüsse – ein maßgeblicher Indikator für die Wasserressourcen – lagen vorwiegend unter den Normalwerten. Im Mississippi- und im Amazonasbecken wurden dem WMO-Bericht zufolge rekordverdächtig niedrige Wasserstände verzeichnet. Extrem niedrige Schneespeicher haben ferner dazu geführt, dass im Frühjahr weniger Wasser zur Verfügung stand und demzufolge weniger Wasser abfließen konnte, was vor allem für europäische Flüsse von Bedeutung war. „Der weltweite Verlust an Gletschermasse, den der aktuelle WMO-Bericht mit 600 Gigatonnen Wasser beziffert, ist besorgniserregend“, so der Erdsystemwissenschaftler. „Das ist der größte Verlust der vergangenen fünf Dekaden.“

2023 in globaler Hinsicht entweder zu trocken oder zu feucht

Eine Erholung war teilweise beim Grundwasser zu verzeichnen, so etwa in Südafrika. Allerdings hat die Verfügbarkeit von Grundwasser in Nordamerika und Europa als Folge längerer Trockenheit spürbar abgenommen. „Wir können jedoch davon ausgehen, dass sich die Situation 2024 in Zentraleuropa etwas besser darstellen wird“, erwartet Reinecke. Hinsichtlich der Bodenfeuchte herrschte in Nord- und Südamerika große Trockenheit, während unter anderem in Neuseeland und Russland zum Teil weit über dem Normalwert liegende Feuchtigkeitslevel gemessen wurden.

Zusammenfassend ist die Kernaussage des Berichts nach den Worten von Reinecke, dass global betrachtet weiterhin deutliche Abweichungen von den Normalwerten zu verzeichnen sind: „Entweder zu trocken oder zu feucht, beides ist nicht gut. Leider ist zu erwarten, dass wir beide Extreme mit weltweit steigenden Temperaturen noch häufiger erleben werden.“ Das Jahr 2023 war so heiß wie noch nie und lag um 1,45 Grad Celsius über dem vorindustriellen Niveau.

Reinecke war in Kooperation mit Dr. Hannes Müller Schmied, Forscher an der Goethe-Universität Frankfurt sowie am Senckenberg Biodiversität und Klima Forschungszentrum Frankfurt (SBiK-F), und dem Global Runoff Database Centre (GRDC) in Koblenz maßgeblich an der Erstellung des WMO-Berichts beteiligt. Gemeinsam trugen sie Modellergebnisse und Methodik bei. Die Gruppe Erdsystemmodellierung von Prof. Dr. Robert Reinecke hat speziell auch an der Methodik zur Analyse der Grundwasserdaten an dem Report mitgewirkt. Um die Veränderungen beim Grundwasserstand im Klimawandel besser zu verstehen, baut Reineckes Team derzeit ein weltweites Datenset auf.

Forschungen im Rahmen der Rhein-Main-Universitäten

Die Forschungen erfolgen im Rahmen der Allianz der Rhein-Main-Universitäten (RMU), die die Goethe-Universität Frankfurt, die Johannes Gutenberg-Universität Mainz und die Technische Universität Darmstadt als renommierte Forschungsuniversitäten bilden. Mit einer Rahmenvereinbarung im Dezember 2015 wurde diese bereits langjährig bestehende Partnerschaft zur strategischen Allianz ausgebaut, um die wissenschaftliche Leistungsfähigkeit der Universitäten zu stärken, gemeinsam Studienangebote zu verbessern und Wissenstransfer und Vernetzung mit der Gesellschaft zu gestalten.

Bildmaterial:
https://download.uni-mainz.de/presse/09_geograph_erdsystemmodellierung_wmo2023.j…
Das Dead Vlei in der Namib-Wüste in Namibia, aufgenommen 2014: Trotz der tiefen Wurzeln kommen die Bäume durch die Kalkablagerungen nicht mehr an Wasser und sind schon lange abgestorben.

Video:
https://download.uni-mainz.de/presse/09_geo_weltwasserbericht_2023_reinecke.mp4
Statement von Prof. Dr. Robert Reinecke zu aktuellen Ergebnissen des WMO-Berichts 2023

Weiterführende Links:

Lesen Sie mehr:

Juniorprof. Dr. Robert Reinecke
Erdsystemmodellierung
Geographisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel.: +49 6131 39-27875
E-Mail: reinecke@uni-mainz.de
https://erdsysmod.uni-mainz.de/robert-reinecke/

Originalpublikation:
https://wmo.int/publication-series/state-of-global-water-resources-2023 – Bericht „State of Global Water Resources 2023“ der Weltorganisation für Meteorologie (WMO)

(nach oben)


Wasserstoff-Hochlauf: Elektrolyseure im Megawatt-Maßstab

Gigahub für Elektrolyseure eröffnet – Pläne stammen aus H₂Giga
Das Unternehmen Quest One (ehemals H-TEC Systems) startet in Hamburg die Serienfertigung von PEM-Elektrolyse-Stacks. Die Konzepte für die Umsetzung wurden im Rahmen des Wasserstoff-Leitprojekts H₂Giga des Bundesministeriums für Bildung und Forschung (BMBF) erarbeitet. Die Fabrikeröffnung ist ein Meilenstein für Deutschlands Wasserstoff-Hochlauf.
Bundeskanzler Olaf Scholz hat gemeinsam mit Vertreterinnen und Vertretern aus Politik und Wirtschaft in Hamburg eine Fabrik des Wasserstoff-Spezialisten Quest One eröffnet. Das BMBF wurde unter anderem durch Till Mansmann, den Innovationsbeauftragten Grüner Wasserstoff, repräsentiert. Im Vollausbau können vor Ort jährlich PEM-Stacks mit einer Leistung von voraussichtlich mehr als fünf Gigawatt gefertigt werden.
Bisher werden Elektrolyseure noch größtenteils per Hand hergestellt. Die neue, automatisierte Fertigung reduziert die Produktionszeit um etwa 75 Prozent und steigert damit die Wirtschaftlichkeit und Fertigungsqualität erheblich. Die Umstellung der Elektrolyseur-Produktion in die Serienfertigung ist übergreifendes Ziel des Wasserstoff-Leitprojekts H₂Giga. Das H₂Giga-Projekt PEP.IN hat daher Möglichkeiten der Automatisierung des gesamten Produktionsprozesses analysiert und an realen Anlagen erforscht. Die Projektbeteiligten haben weiterhin eine Produktionsstrategie entwickelt und deren Umsetzung anhand einer detaillierten Fabrikplanung analysiert.

H₂Giga-Projekt PEP.IN forscht am Stack der Zukunft
PEP.IN arbeitet zudem an einem optimierten Stack-Design für die automatische Produktion und forscht am Stack der Zukunft. Dabei integrieren die Forschenden beispielsweise intelligente Überwachungssysteme in den Herstellungsprozess. Diese ermöglichen einen optimalen Betrieb der Elektrolyseure über die gesamte Lebensdauer. Zuletzt entwickelt PEP.IN Logistikkonzepte, um eine qualifizierte und massenfertigungsgerechte Lieferkette sicherzustellen.
Die im neuen Werk hergestellten Stacks basieren auf der PEM-Technologie (englisch: Proton Exchange Membrane). PEM-Elektrolyseure erzeugen Wasserstoff durch die Spaltung von Wasser ohne Zusatz von Chemikalien. Sie sind für die Kopplung mit schwankenden Stromquellen besser geeignet als alkalische Elektrolyseure. Das Bundesforschungsministerium fördert PEP.IN mit insgesamt 27 Millionen Euro, davon bis zu 13,6 Millionen Euro für Quest One.

Am H₂Giga-Projekt PEP.IN beteiligte Projektpartner:
MAN Energy Solutions SE, Quest One GmbH (ehemals H-TEC Systems GmbH), AUDI AG, VAF GmbH, Fraunhofer-Institut für Solare Energiesysteme ISE, Fraunhofer UMSICHT, Zentrum für BrennstoffzellenTechnik GmbH, Forschungszentrum Jülich GmbH

Über H₂Giga
H₂Giga ist eines von drei Wasserstoff-Leitprojekten des Bundesministeriums für Bildung und Forschung. Die Leitprojekte sollen Hürden beseitigen, die einer deutschen Wasserstoff-Wirtschaft noch im Weg stehen. Dabei kümmert sich H₂Giga um die Hochskalierung und Serienfertigung der Wasserstoff-Produktion: Um Deutschlands Bedarf an Grünem Wasserstoff decken zu können, braucht es große Kapazitäten an leistungsfähigen, kostengünstigen Elektrolyseuren. Zwar sind bereits heute leistungsfähige Elektrolyseure am Markt – allerdings erfolgt ihre Herstellung noch immer größtenteils in Handarbeit.

Wissenschaftliche Ansprechpartner:
Ulrike Möllmert
Kommunikation H₂Giga
DECHEMA e. V.
Telefon: +49 (0) 697564542
E-Mail: ulrike.moellmert@dechema.de
Dr. Isabel Kundler
Koordination H₂Giga
DECHEMA e. V.
E-Mail: isabel.kundler@dechema.de

Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/leitprojekte/h2giga

(nach oben)


Extremwetter und Klimawandel: Wie der Mensch die Erdoberfläche verändert

Stürme, Überschwemmungen, Waldbrände und steigende Temperaturen verändern zunehmend die Erdoberfläche. Die Folgen: auftauende Permafrostböden, ausgetrocknete Seen, Hangrutsche. Eine wichtige Frage dabei ist: Welche Rolle spielt der Mensch in diesen Prozessen und wie werden sich diese Veränderungen in der Zukunft entwickeln? Mit genau dieser Frage befassen sich etwa 120 Expert:innen vom 9. bis 12. Oktober 2024 auf der Jahrestagung der Deutschen Gesellschaft für Geomorphologie, die zum 50. Mal von der Universität Leipzig ausgerichtet wird. Prof. Dr. Christoph Zielhofer, erläutert im Interview, wie Prozesse, die die Erdoberfläche verändern, in Häufigkeit und Ausmaß zunehmen.

Was erforscht die Geomorphologie?

Die Geomorphologie ist ein wichtiges Teilgebiet der Physischen Geographie und untersucht die Formen und formbildenden Prozesse der Erdoberfläche. Hierbei werden Zusammenhänge und gegenseitige Beeinflussungen von Gestein, Boden, Relief, Klima, Wasserhaushalt, Vegetation und Mensch erforscht. Geomorphologische Prozesse sind stark von den jeweiligen klimatischen Rahmenbedingungen abhängig und verändern sich stark unter dem Klimawandel. Das betrifft beispielsweise das aktuelle Auftauen des Permafrostes. Dieser Prozess geht mit verstärkter Hangrutschgefahr in den Hochgebirgen einher und trägt zu erhöhter Naturgefahr auch in Mitteleuropa bei. Geomorphologische Prozesse können aber auch direkt vom Menschen verursacht werden. Ein Beispiel ist hier die Torfsackung in entwässerten Mooren. Ein sich selbst verstärkender Prozess, welcher mit erheblichen volkswirtschaftlichen Folgekosten verbunden ist und letztlich auch Debatten zur nachhaltigen Nutzung von Mooren notwendig macht. Ebenso die Subsidenz, oder Absenkung, die durch übermäßige Entnahme von Grundwasser oder Veränderung der Fließdynamik entsteht.

Was sind die wichtigsten Themen der Jahrestagung und welche Gäste werden erwartet?

Es werden circa 120 Geomorphologinnen und Geomorphologen aus Deutschland und dem mitteleuropäischen Raum erwartet. Zu den wichtigsten Themen der Tagung in Leipzig zählen die sich verändernden geomorphologischen Prozesse in der heutigen anthropogenen Welt. Hierbei stehen sich verändere Magnituden und Frequenzen im Vordergrund, wie wir sie bei Hochflutereignissen, Sturmfluten oder auch bei der Bodenerosion beobachten können. In diesem Jahr werden viele Beiträge zur Entwicklung und Dynamik von Auenlandschaften erwartet. Ein aktueller Forschungsschwerpunkt der Physischen Geographie in Leipzig. Die Jahrestagung ist zudem eine wichtige Plattform für den Austausch und die Weiterentwicklung von Forschungsmethoden. Hierzu zählen Methoden der oberflächennahen Geophysik, Fernerkundungstechniken kombiniert mit KI, bodenkundliche und sedimentologische Analyseverfahren, Datierungstechniken und vor allem auch interdisziplinäre Forschungsansätze zur Geophysik, zur Geologie, zu den Lebenswissenschaften und zu den Geisteswissenschaften wie Umweltgeschichte und Archäologie.

Warum sind das Mansfelder Land sowie die Aue der Weißen Elster interessante Exkursionsorte?

Beide Exkursionsräume sind von Leipzig gut zu erreichen und geben einen attraktiven Einblick in die laufende geomorphologische Feldforschung am Standort Leipzig. An der Weißen Elster stehen Fragen der Auenentwicklung und Bodenerosion unter Berücksichtigung von Klimaveränderungen und menschlicher Besiedlung im Vordergrund. Im Mansfelder Land werden durch Salzauslaugung entstandene Erdfälle und der Zusammenhang zum ehemaligen Bergbau untersucht und das Potential von Sedimentarchiven für die Rekonstruktion des Landschaftswandels in der jetzigen Warmzeit.

Das Interview führte Esther Benning.
(Zusatzinformation: Im Jahr 2024 jährt sich die Tagung vom 50. Mal. Aufgrund dieses besonderen Anlasses wird die Ferdinand-von-Richthofen-Medaille verliehen für hervorragende Verdienste auf dem Gebiet der geomorphologischen Forschung. Ferdinand von Richthofen gilt als Begründer der modernen Geomorphologie und hatte von 1883 bis 1886 einen Lehrstuhl an der Universität Leipzig.)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Zielhofer
Professor für Physische Geographie

Telefon: +49 341 97 – 32965
E-Mail: zielhofer@uni-leipzig.de
Webseite: https://www.uni-leipzig.de/personenprofil/mitarbeiter/prof-dr-christoph-zielhofe…

Weitere Informationen:
https://www.physes.uni-leipzig.de/institut-fuer-geographie/dggm-2024 Webseite zur „50. Jahrestagung der Deutschen Gesellschaft für Geomorphologie (DGGM) 2024“
https://www.physes.uni-leipzig.de/fluviale-anthroposphaere Webseite zum Schwerpunktprogramm der DFG „Auf dem Weg zur fluvialen Anthroposphäre“

(nach oben)


Nachhaltiges Wassermanagement in der Industrie: Forschungsverbund BayWater startet

Eine kosteneffiziente und nachhaltige Wasserversorgung wird zunehmend zum Standortfaktor für die Industrie. Um dieser Entwicklung gerecht zu werden und die Herausforderung der nachhaltigen Wasserversorgung anzugehen, fördert die Bayerische Forschungsstiftung den neuen Forschungsverbund BayWater mit zwei Millionen Euro. Ziel des Verbundes ist es, durch den Einsatz moderner Membrantechnologien und Aufbereitungsverfahren den Wasserbedarf sowie die Kosten und den Energieverbrauch in industriellen Produktionsprozessen zu reduzieren. BayWater wird von der Technischen Universität München (TUM) gemeinsam mit zwei technischen Hochschulen und 25 Industriepartnern durchgeführt.

Wasser ist für eine Vielzahl von Industrieprozessen unerlässlich, vom Maschinenbau über die Lebensmittelherstellung bis hin zur Pharmaindustrie. Allerdings sind Wiederaufbereitung und Reinigung von Wasser energie- und kostenintensiv. Zudem entstehen durch das Zusammenführen verschiedener Wasserströme komplexe Mischungen mit vielfältigen Verunreinigungen, die oftmals aufwendig entsorgt werden müssen.

Der von der Bayerischen Forschungsstiftung geförderte Forschungsverbund BayWater stellt sich diesen Herausforderungen. In den nächsten drei Jahren wird ein Konsortium aus Forschenden der TUM, der Ostbayerischen Technischen Hochschule Regensburg und der Technischen Hochschule Nürnberg Georg Simon Ohm (Ohm) zusammen mit 25 Industriepartnern innovative Aufbereitungsmethoden entwickeln. Diese umfassen moderne Membrantechnologien, fortschrittliche Oxidationstechnologien, präzise Sensorik und neue Ansätze zur Prozesssteuerung, um eine effiziente und nachhaltige Kreislaufführung von Wasser in verschiedenen Industrien zu ermöglichen.

Staatsminister Dr. Florian Herrmann und Prof. Arndt Bode, Präsident der Bayerischen Forschungsstiftung, überreichten den Förderbescheid am 1. Oktober an das BayWater-Konsortium.

Effiziente Wassernutzung als Zukunftsfaktor

In ihren Ansprachen betonten sie die Bedeutung des Projekts für eine nachhaltige Industrieproduktion und die Schonung von Wasserressourcen. Staatsminister Dr. Florian Herrmann sagt: „Wasser ist unser wichtigster Rohstoff. Der Schutz unseres Grundwassers und die Bewahrung der sehr hohen Trinkwasserqualität ist eine Gemeinschaftsaufgabe, die uns alle angeht. Mit der Gesamtstrategie ,Wasserzukunft Bayern 2050‘ legen wir die Grundlage, um die Wassersicherheit in Bayern dauerhaft zu gewährleisten. Der Forschungsverbund BayWater leistet einen immens wertvollen Beitrag, indem er nach innovativen Lösungen für eine ressourcenschonende Wassernutzung sucht – davon profitieren wir alle!“

Prof. Gerhard Kramer, Geschäftsführender Vizepräsident für Forschung und Innovation der TUM, betont: „Mit BayWater schaffen wir eine Grundlage für nachhaltiges Wassermanagement, indem wir den Wasserverbrauch und die Umweltbelastung durch moderne Technologien reduzieren. Durch eine enge Zusammenarbeit von Industrie und Wissenschaft, vertreten durch die TUM, die Ostbayerische Technische Hochschule Regensburg und die Technische Hochschule Nürnberg, entstehen Lösungen, die nachhaltig sind sowie den Energie- und Kostenaufwand für Unternehmen deutlich senken.“

Prof. Arndt Bode, Präsident der Bayerischen Forschungsstiftung, ergänzt: „Das Vorhaben hat in der Begutachtung und in den Gremien der Forschungsstiftung voll überzeugt. Es ist eines von vielen Förderprojekten der Stiftung, bei denen das Thema ,Nachhaltigkeit‘ ganz oben auf der Agenda steht. Besondere Stärke des Verbundes ist der gelebte Technologietransfer durch die Realisierung einer Reihe von Demonstrationsanlagen in enger Zusammenarbeit mit einer Vielzahl von Industriepartnern.“

Forschungsverbund unter Leitung der TUM

BayWater wird von Prof. Stephen Schrettl an der TUM School of Life Sciences geleitet. „Wir haben uns das Ziel gesetzt, die Wasserkreisläufe der Industrie zu schließen und Ansätze für einen effizienten und verantwortungsvollen Umgang mit der Ressource Wasser zu entwickeln. Das Potential erheblicher finanzieller Entlastungen für Unternehmen spiegelt sich auch im großen Interesse unserer Industriepartner wider“, erklärt Prof. Schrettl. Prof. Rainer Engelbrecht von der Ohm, stellvertretender Sprecher des Projekts, betont die Wichtigkeit der interdisziplinären Zusammenarbeit: „Die Partnerschaft zwischen Wissenschaft und Wirtschaft ist essentiell, um fortschrittliche und nachhaltige Strategien zum industriellen Wassermanagement zu entwickeln, die sowohl ökonomisch als auch ökologisch vorteilhaft sind.“

Breite industrielle Anwendung und Nachhaltigkeit

Mit der Beteiligung von 25 Industriepartnern aus diversen Branchen sichert BayWater die breite Anwendbarkeit und Implementierung der Forschungsergebnisse. Georg Friedrichowitz, Industriesprecher des Projekts und Vertreter der MKR-Metzger GmbH, hebt hervor: „Die Ergebnisse sollen nicht nur wissenschaftlich richtungsweisend sein, sondern auch konkrete Lösungen zur Steigerung der Nachhaltigkeit in der Industrie entwickeln“.

Akademische Beteiligung

  • Professur für Funktionsmaterialien für Lebensmittelverpackungen (Technische Universität München)
  • Sensorik Applikations Zentrum (SappZ, Ostbayerische Technische Hochschule Regensburg)
  • Polymer Optical Fiber Application Center (POF-AC, Technische Hochschule Nürnberg Georg Simon Ohm)
  • Lehrstuhl für Analytische Chemie und Wasserchemie (Technische Universität München)
  • Lehrstuhl für Systemverfahrenstechnik (Technische Universität München)
  • Forschungszentrum Weihenstephan für Brau- und Lebensmittelqualität (Technische Universität München)

Weitere Informationen:

  • Das Projekt wird gefördert aus Mitteln der Bayerischen Forschungsstiftung.
  • Seit ihrer Gründung im Jahr 1990 hat die Forschungsstiftung für 1.071 Projekte rund 651 Millionen Euro bewilligt. Gemeinsam mit den Co-Finanzierungsanteilen der bayerischen Wirtschaft wurde damit ein Gesamtprojektvolumen von 1,424 Milliarden Euro angestoßen. Zusätzlich vergibt die Forschungsstiftung Stipendien für die internationale Zusammenarbeit von Forscherinnen und Forschern sowie (Post-)Doktorandinnen und Doktoranden.

    Wissenschaftliche Ansprechpartner:
    Prof. Dr. Stephen Schrettl
  • Technische Universität München
  • Professur für Funktionsmaterialien für Lebensmittelverpackungen
  • Tel.: +49 8161-71 3785
  • stephen.schrettl@tum.de
  • https://www.lse.ls.tum.de/fmp/home/

Kontakt im TUM Corporate Communications Center:
Anja Lapac
Pressereferentin
Tel.: +49 8161 71-5403
presse@tum.de
www.tum.de

Weitere Informationen:
https://mediatum.ub.tum.de/1755551, Fotos zum Download:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/bayerisch…, Diese Meldung auf tum.de

(nach oben)


Grüne Netzwerke für ein CO2-emissionsfreies Internet

Informatiker und Ingenieure aus 11 Ländern und 3 Kontinenten haben sich diese Woche im Schloss Dagstuhl versammelt, um den CO2-Fußabdruck des Internets der Zukunft zu reduzieren.

Während der durch CO2-Emissionen verursachte Klimawandel dramatische Auswirkungen auf unsere Umwelt und unseren Alltag hat, hat sich das Internet als fruchtbarer Boden für Lösungsansätze erwiesen, wie z. B. die Ermöglichung von Telearbeit oder Telekonferenzen zur Reduzierung von verkehrsbedingten Emissionen. Es trägt aber auch selbst erheblich zu den Treibhausgasemissionen bei, z. B. durch seinen eigenen hohen Stromverbrauch. Daher ist es sehr wichtig, die Computer-Netzwerke selbst „grüner“ zu machen und weniger CO2-intensive technische Lösungen zu entwickeln, während gleichzeitig die steigenden Anforderungen an den Netzwerkverkehr und das Dienstleistungsniveau erfüllt werden.
Informatiker und Ingenieure von weltweit führenden Universitäten und internationalen Unternehmen wie Ericsson, NEC, Netflix, Red Hat und Telefonica kamen vom 29. September bis 2. Oktober 2024 zu einem Dagstuhl-Seminar zum Thema „Greening Networking: Toward a Net Zero Internet“ auf Schloss Dagstuhl im Leibniz-Zentrum für Informatik im nördlichen Saarland in Deutschland zusammen.
Organisiert von führenden Internetforschern der Hong Kong University of Science and Technology (Guangzhou), der Universität Oxford, der Universität Oslo und der Universität von Kalifornien, Santa Cruz, trafen sie sich, um die wirkungsvollsten Netzwerkverbesserungen zur Reduzierung der Kohlenstoffemissionen zu ermitteln und zu priorisieren, Handlungsschwerpunkte für eine kohlenstoffbewusste Netzwerkforschungsagenda zu definieren und die Forschungszusammenarbeit zu fördern und zu erleichtern, um die Kohlenstoffemissionen zu reduzieren und den Klimawandel positiv zu beeinflussen.
Neben reinen Netzwerkthemen analysierten die Forscher auch die Auswirkungen größerer Systeme, die mit Internettechnologien wie KI, Multimedia-Streaming und mobilen Kommunikationsnetzen aufgebaut sind. So wurde beispielsweise im Seminar Energieproportionalität in vernetzten Systemen diskutiert, damit Systeme ihren Energieverbrauch an tatsächliche Nutzungsänderungen anpassen können, sodass in Leerlaufzeiten Einsparungen erzielt werden können. Ein solches Verhalten würde eine bessere Anpassungsfähigkeit von Anwendungen und Netzwerkprotokollen an Kosteninformationen wie den erwarteten CO2-Fußabdruck erfordern. Darüber hinaus können vernetzte Systeme auf unterschiedliche Weise mit dem Stromnetz interagieren, beispielsweise durch Anpassung des Energieverbrauchs an die aktuelle Verfügbarkeit und die Kosten erneuerbarer Energien. Dies kann für die gemeinsame Planung des Stromnetzes zusammen mit dem Netzwerk, den vernetzten Systemen und der Cloud hilfreich sein, um maximale Effizienz und Einsparungen zu erzielen.
Die Seminarteilnehmer arbeiten mit internationalen Forschungs- und Normungsorganisationen wie der Internet Engineering Task Force (IETF) und dem Europäischen Institut für Telekommunikationsnormen (ETSI) zusammen. Daher wird erwartet, dass das Seminar einen Beitrag zu künftigen Forschungs- und Normungsagenden in solchen Organisationen leisten wird, um das Internet auf Netto-Null-CO2-Emissionen zu bringen.
Seit 1990 veranstaltet Schloss Dagstuhl sogenannte Dagstuhl-Seminare für Informatikforscher. Beim Seminar „Greening Networking: Toward a Net Zero Internet“ im Schloss Dagstuhl – Leibniz-Zentrum für Informatik kamen 26 Experten aus 11 Ländern auf 3 Kontinenten für eine halbe Woche zusammen, um gemeinsam an der Reduzierung des CO2-Fußabdrucks von Computernetzwerken zu arbeiten.

Dieses Dagstuhl-Seminar wurde organisiert von:

  • Alexander Clemm (Los Gatos, US)
  • Dirk Kutscher (HKUST – Guangzhou, CN)
  • Michael Welzl (University of Oslo, NO)
  • Cedric Westphal (Futurewei – Santa Clara, US)
  • Noa Zilberman (University of Oxford, GB)
    Weitere Informationen über das Seminar 24402 – “ Greening Networking: Toward a Net Zero Internet “ finden Sie (auf Englisch) unter https://www.dagstuhl.de/24402

Hintergrund:
Schloss Dagstuhl lädt das ganze Jahr über Wissenschaftler aus aller Welt ins nördliche Saarland ein um über neueste Forschungsergebnisse in der Informatik zu diskutieren. Mehr als 3.500 Informatiker von Hochschulen, Forschungseinrichtungen und aus der Industrie nehmen jährlich an den wissenschaftlichen Veranstaltungen in Dagstuhl teil. Seit 2005 gehört Schloss Dagstuhl zur Leibniz-Gemeinschaft, in der zurzeit 96 führende außeruniversitäre Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen in Deutschland vertreten sind. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam.

Für Interviews, Reportagen und Filmaufnahmen wenden Sie sich bitte an
Dr.-Ing. Michael Gerke
Tel.: +49 6871 905 203
E-Mail: presse@dagstuhl.de

Weitere Informationen:
https://www.dagstuhl.de/24402 Website des Dagstuhl Seminars
https://www.dagstuhl.de/de/institute/news/2024/gruene-netzwerke-fuer-ein-co2-emi… Pressemitteilung

Anhang
PDF der Pressemitteilung

(nach oben)


Fachkräfte durch starke Partnerschaft sichern

Hessen Mobil ist neuer Kooperationspartner der dualen, praxisintegrierten Variante des Studiengangs „Infrastruktur und Umwelt“ an der Frankfurt UAS

Die duale, praxisintegrierte Variante des Bachelor-Studiengangs „Infrastruktur und Umwelt“ der Frankfurt University of Applied Sciences (Frankfurt UAS) startet zum Wintersemester 2024/25 mit einem neuen, starken Partner: Hessen Mobil, die moderne und innovative Verwaltung des Landes Hessen mit vielfältigen Aufgaben im gesamten Straßen- und Verkehrswesen, ist ab sofort offizieller Kooperationspartner. Die Vertragsunterzeichnung erfolgte am Dienstag, 1. Oktober 2024, in der neuen Hessen Mobil-Zentrale in Wiesbaden. Gemeinsam mit Hessen Mobil und weiteren Praxispartnern bietet die Frankfurt UAS Studierenden eine Kombination aus theoretischem Wissen und praktischer Erfahrung in den Bereichen Wasser- und Verkehrsinfrastruktur sowie in der Gestaltung und dem Management von baulichen und technischen Projekten und wirkt somit aktiv dem Fachkräftemangel in diesem dynamischen Berufsfeld entgegen.

„Mit der Kooperation legen wir den Grundstein dafür, dass zukünftige Ingenieurinnen und Ingenieure nicht nur bestens ausgebildet, sondern auch mit einem tiefen Verständnis für die realen Herausforderungen und Chancen einer nachhaltigen Infrastrukturplanung in ihre berufliche Zukunft starten können“, so Prof. Dr. Kai-Oliver Schocke, Präsident der Frankfurt UAS. „Die Kooperation mit Hessen Mobil ist ein wegweisender Schritt, um den Brückenschlag zwischen Wissenschaft und Praxis zu festigen und eine neue Generation von Fachkräften auszubilden, die mit ihrem Wissen und ihrer Erfahrung aktiv zur Gestaltung einer lebenswerten, klimaschonenden Umwelt beitragen werden.“

„Wir haben die Möglichkeit, dual mit Hessen Mobil zu studieren, in den vergangenen Jahren intensiv ausgebaut und dabei sehr positive Erfahrungen gemacht. Junge Nachwuchskräfte können bei uns von Beginn des Studiums an viel Praxiserfahrung sammeln und die komplette Wertschöpfungskette des Straßenbaus kennenlernen. Umso mehr freuen wir uns, nun mit der Frankfurt UAS einen weiteren starken Partner gewonnen zu haben“, sagte Kathrin Brückner, Vizepräsidentin von Hessen Mobil. „Der Studiengang ‚Infrastruktur und Umwelt‘ erweitert nicht nur unser Portfolio an Studiengängen, sondern liefert auch viele Inhalte, die zukünftig für unsere Aufgaben von enormer Bedeutung sein werden.“

„Wir freuen uns sehr, mit Hessen Mobil einen renommierten Partner aus dem öffentlichen Sektor gewonnen zu haben, der die praxisnahe Ausbildung unserer Studierenden weiter stärkt“, so Studiengangsleiter Prof. Dr. Josef Becker, Professor für Schienenverkehrswesen und öffentlicher Verkehr. „Durch die Kooperation ermöglichen wir unseren Studierenden frühzeitig tiefe Einblicke in das Straßen- und Verkehrswesen und leisten damit einen wichtigen Beitrag zur Fachkräftesicherung in einem Bereich, der für die nachhaltige Entwicklung unserer Infrastruktur von zentraler Bedeutung ist. Wir laden auch andere Unternehmen und Organisationen ein, sich uns anzuschließen, um von den Vorteilen einer solchen Kooperation zu profitieren und aktiv zur Sicherung der Fachkräfte in diesem zentralen Bereich beizutragen.“

Zukunftsorientierte Ausbildung mit Praxisbezug
Die duale, praxisintegrierte Variante des Bachelor-Studiengangs „Infrastruktur und Umwelt“ wurde konzipiert, um den steigenden Bedarf an Fachkräften in der baulichen Infrastruktur zu decken und die Fachkräfte für die immer wichtiger werdenden Fragestellungen im Bereich von Umwelt und Nachhaltigkeit zu qualifizieren. Durch die Studienvariante erwerben die Studierenden nicht nur theoretisches Wissen, sondern sammeln während des Studiums wertvolle Berufserfahrung in realen Projekten. Die Kooperation mit Hessen Mobil erweitert das Angebot an praxisnahen Ausbildungsplätzen und fördert die enge Verzahnung von Theorie und Praxis.

Mit dieser Partnerschaft baut die Frankfurt UAS ihr Netzwerk an Kooperationspartnern weiter aus und setzt ein starkes Zeichen für die praxisnahe Ausbildung im Bereich Infrastruktur und Umwelt.

Weitere Informationen zur dualen, praxisintegrierten Variante des Studiengangs Infrastruktur und Umwelt unter http://www.frankfurt-university.de/infrastrukturdual; mehr zum Fachbereich Architektur, Bauingenieurwesen, Geomatik der Frankfurt UAS unter http://www.frankfurt-university.de/fb1.

Für das neue duale Studium bei Hessen Mobil können sich Interessierte bis zum 27. Oktober 2024 über die E-Mail-Adresse studieren@mobil.hessen.de bewerben. Unter folgendem Link gibt es weitere Informationen: https://mobil.hessen.de/karriere/stellenangebote. Start der Arbeit bei Hessen Mobil ist dann am 1. August 2025.

Kontakt
Frankfurt University of Applied Sciences
Fachbereich 1: Architektur • Bauingenieurwesen • Geomatik
Prof. Dr. Josef Becker, Studiengangsleiter
Telefon: +49 69 1533-3629
E-Mail: josef.becker@fb1.fra-uas.de

Claudia Roth
Koordinatorin für duale Studiengänge am Fachbereich 1
Telefon: +49 69 1533-3399
E-Mail: duale-studiengaenge-fb1@fb1.fra-uas.de

Hessen Mobil
Pressestelle
Stellvertretender Pressesprecher
Jonas Tresbach
Telefon: 0611-3663368
E-Mail: presse@mobil.hessen.de

(nach oben)


Wasserstoffproduktion auf Offshore-Inseln kann mehr als 4 Milliarden Euro pro Jahr für Deutschland einsparen

Eine neue Studie des Fraunhofer-Instituts für Energiewirtschaft und Energiesystemtechnik IEE kommt zu dem Schluss, dass die Offshore-Erzeugung von Wasserstoff effizienter ist als die Onshore-Erzeugung. Die Wasserstoffproduktion in unmittelbarer Nähe von Offshore-Windkraftanlagen reduziert die Energieverluste und Investitionen in lange Transportwege für den Strom.
Die Studie betrachtet die Ausweitung des deutschen 70-GW-Ausbauziels für Offshore-Windenergie und untersucht die wirtschaftlichen Auswirkungen der Wasserstoffproduktion auf zwei Offshore-Energieinseln, die mit jeweils 10 GW Offshore-Windenergie verbunden sind. Im Vergleich dazu wird ein zweites Szenario betrachtet, bei dem der gesamte Strom aus Offshore-Windparks über HGÜ-Kabel an Land geleitet wird und ohne weitere Einschränkungen im deutschen Energiemarkt genutzt werden kann.
Die Studie zeigt, dass durch den Aufbau einer Offshore-Wasserstoffproduktion auf den beiden Energieinseln jährlich bis zu 4,3 Milliarden Euro für das deutsche Energiesystem eingespart werden können. Die Einsparungen ergeben sich vor allem durch geringere Kosten für den Netzausbau, insbesondere für die Leitungen von der Küste in die Mitte Deutschlands, sowie durch eine höhere Auslastung der HGÜ-Leitungen.
Die beiden Energieinseln haben einen begrenzten Anschluss an das Stromnetz und liegen etwa 150 Kilometer von der Küste entfernt. Die begrenzte Netzanbindung erfolgt über Offshore-Konverterplattformen anderer Windparks, was bedeutet, dass der von den Windparks erzeugte Strom nur dann ins Netz eingespeist werden kann, wenn freie Kapazitäten im Netz vorhanden sind. Die Energieinseln können Strom auf dem europäischen Markt kaufen, um die Wasserstoffproduktion zu optimieren.

Hintergrundinformationen zur Fallstudie
In der Studie wurden zwei Szenarien für den 70-GW-Ausbau der Offshore-Windenergie in Deutschland untersucht: ein Szenario nur mit einer Wasserstoff-Pipeline-Verbindung zu den Inseln ohne Netzanschluss und ein zweites Szenario mit einer Wasserstoff-Pipeline-Verbindung und einer begrenzten Netzanbindung. Das Szenario mit begrenzter Netzanbindung enthält eine zusätzliche AC-Verbindung zwischen den Inseln und den Offshore-Konverterplattformen, die eine Verbindung zu anderen Windparks herstellt.
Die Anbindung der Offshore-Wasserstoffproduktion an das Netz hat erhebliche positive Auswirkungen. Ermöglicht wird eine flexible Nutzung der von den Windparks erzeugten Energie, die entweder für die Produktion von grünem Wasserstoff auf See genutzt oder über HGÜ-Kabel zum Festland transportiert werden kann, was zu erheblichen Effizienzgewinnen für das Energiesystem führt. In Zeiten niedriger Preise und eines hohen Angebots an erneuerbarem Strom wird der Strom aus der Offshore-Windenergie in Wasserstoff umgewandelt, während in Zeiten eines geringen Angebots an erneuerbarer Energie und tendenziell höherer Preise der Offshore-Strom zur Deckung des Strombedarfs genutzt und damit direkt in das deutsche Stromnetz eingespeist wird. Dies erhöht die Flexibilität des gesamten Energiesystems und führt zu positiven Systemeffekten.
Die Studie im Auftrag der Copenhagen Energy Islands ApS kommt zu dem Schluss, dass die Offshore-Erzeugung von Wasserstoff effizienter ist als die Onshore-Erzeugung, da die Wasserstoffproduktion in unmittelbarer Nähe der erneuerbaren Energiequelle erfolgt, was Energieverluste und Investitionen in lange Transportwege für den Strom reduziert.
Die Studie kann hier eingesehen werden: https://doi.org/10.24406/publica-3645

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2024/wasserstoffp…

(nach oben)


Verschmutzung von Boden und Wasser erhöht Risiko für Herz-Kreislauf-Erkrankungen

Ein internationales Forschungsteam warnt in der Zeitschrift Nature Reviews Cardiology vor starken Zusammenhängen zwischen Boden- und Wasserverschmutzung und Herz-Kreislauf-Erkrankungen. Pestizide, Schwermetalle, Mikro- und Nanoplastik im Boden sowie umweltschädliche Chemikalien können sich negativ auf das Herz-Kreislauf-System auswirken.

Forscherinnen und Forscher unter der Leitung von Prof. Dr. Thomas Münzel von der Universitätsmedizin Mainz fassen in der umfassenden Literaturübersicht aktuelle Forschungsergebnisse zusammen, die zeigen, dass chemische Schadstoffe in der Umwelt ein erhebliches Risiko für die menschliche Gesundheit darstellen. Besonders alarmierend ist die hohe Zahl der Todesfälle in bestimmten Regionen der Welt.

Herz-Kreislauf-Erkrankungen durch Umweltverschmutzung
Der Übersichtsartikel hebt hervor, dass weltweit jährlich etwa 9 Millionen Menschen vorzeitig an den Folgen der Umweltverschmutzung sterben, davon etwa 5,5 Millionen an Herz-Kreislauf-Erkrankungen. Besonders besorgniserregend sind die Zahlen in Ländern mit hoher Schadstoffbelastung. So sterben in Indien jährlich mehr als 2,3 Millionen Menschen an den Folgen chemischer Schadstoffe, in China sind es fast 1,9 Millionen. Weitere Länder mit hoher Sterblichkeit sind Nigeria (279.000 Todesfälle pro Jahr) und Indonesien (233.000 Todesfälle).

Schadstoffe wie Schwermetalle, Pestizide, Dioxine sowie Mikro- und Nanoplastik gelangen über Industrie, Landwirtschaft und Siedlungsabfälle in Böden und Gewässer. Diese Verunreinigungen führen nicht nur zu Gesundheitsproblemen, sondern beeinträchtigen auch die Nahrungsmittelproduktion und gefährden die Trinkwasserversorgung.

Schwermetalle und Mikroplastik als versteckte Gefahr
Ein besonders bedrohlicher Schadstoff ist Blei, das fast 50 % aller durch chemische Schadstoffe verursachten Gesundheitsprobleme ausmacht. Allein die Belastung durch Blei führte 2019 zu 21,7 Millionen verlorenen Lebensjahren durch Behinderung und Tod. Cadmium und Quecksilber sind ebenfalls stark gesundheitsschädigend. Sie verursachen oxidative Schäden in Zellen, die zu Bluthochdruck, Arteriosklerose und Herzinfarkten führen.

Mikro- und Nanoplastik, die vermehrt in Meeren, Flüssen und Böden zu finden sind, gelangen über die Nahrungskette in den menschlichen Körper. Diese Partikel verursachen Zellschäden, Entzündungen und Herzrhythmusstörungen und erhöhen das Risiko für Herz-Kreislauf-Erkrankungen. Besonders betroffen sind Menschen in Küstenregionen und in Ländern mit hoher Abhängigkeit von Fischerei.

Zunehmend an Bedeutung gewinnt auch das Gefährdungspotenzial durch kontaminierten Luftstaub – hinreichend bekannt z.B. als Sahara- oder Wüstenstaub. Etwa 770.000 Herz-Kreislauf-Todesfälle pro Jahr können auf die Staubbelastung zurückgeführt werden. Die globale Erwärmung wird diese Situation weiter verschärfen.

Ein globales Problem – Besonders stark betroffen sind Entwicklungsländer
Die Studie zeigt, dass die gesundheitlichen Auswirkungen der Umweltverschmutzung weltweit zu spüren sind, jedoch vor allem in Entwicklungsländern zu hohen Sterblichkeitsraten führen. Über 90 % der durch Umweltverschmutzung bedingten Todesfälle ereignen sich in Entwicklungs- und Schwellenländern. Dies betrifft vor allem Regionen mit intensiver industrieller Aktivität, unkontrollierter landwirtschaftlicher Nutzung von Pestiziden und unsachgemäßer Abfallentsorgung. Diese Länder leiden besonders unter den Folgen der Verschmutzung, da dort oft keine ausreichenden Maßnahmen zur Schadstoffkontrolle umgesetzt werden.

Forderung nach raschem Handeln
Die Forscherinnen und Forscher fordern dringend globale Maßnahmen, um die chemische Belastung der Umwelt zu reduzieren. „Unsere Gesundheit hängt direkt mit der Gesundheit unserer Umwelt zusammen“, betont Prof. Münzel. „Die Bekämpfung der Boden- und Wasserverschmutzung ist entscheidend, um die steigende Zahl von Herz-Kreislauf-Erkrankungen einzudämmen. Ein wichtiges Ziel dieses Übersichtsartikels war es daher, Kardiologinnen und Kardiologen zu ermutigen, Umweltfaktoren zu berücksichtigen, die das Risiko ihrer Patientinnen und Patienten beeinflussen können“, so Münzel weiter. Die Studie zeigt, dass nachhaltige Umweltstrategien notwendig sind, um dieser globalen Gesundheitskrise zu begegnen.

Über die Studie
Die Übersichtsarbeit wurde von einem internationalen Team von Forschern erstellt, darunter Expertinnen und Experten aus den Bereichen Kardiologie, Umweltchemie und Epidemiologie. Die Arbeit fasst die neuesten Erkenntnisse zu den Auswirkungen der Umweltverschmutzung auf die öffentliche Gesundheit zusammen und zeigt auf, dass Umweltverschmutzung nicht nur ökologische, sondern auch erhebliche gesundheitliche Bedrohungen mit sich bringt.

Das internationale Forschungsteam umfasst Autorinnen und Autoren aus folgenden Einrichtungen: Zentrum für Kardiologie der Universitätsmedizin Mainz (Thomas Münzel, Omar Hahad und Andreas Daiber), Max-Planck-Institut für Chemie, Mainz (Jos Lelieveld), Abteilung für Molekulare Pharmakologie, Albert Einstein College of Medicine, Bronx, NY, USA (Michael Aschner), Center for Research in Environmental Epidemiology (CREAL), Barcelona, Spanien (Mark Nieuwenhuijsen) und Global Observatory on Planetary Health, Boston College, Boston, MA, USA (Philip Landrigan).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Münzel; Universitätsmedizin Mainz; E-Mail: tmuenzel@uni-mainz.de; Telefon: +49 1742189542

Originalpublikation:
Soil and water pollution and cardiovascular disease. Münzel et al., Nature Reviews Cardiology 2024 https://doi.org/10.1038/s41569-024-01068-0

(nach oben)


Wie sich Städte gegen Hitze wappnen

BBSR startet Modellvorhaben „Urban Heat Labs“
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) hat im Auftrag des Bundesministeriums für Wohnen, Stadtentwicklung und Bauwesen (BMWSB) das Forschungsfeld „Urban Heat Labs“ gestartet. Neun kommunale Modellvorhaben erproben bis 2027 ganzheitliche Konzepte für die Hitzevorsorge in dicht bebauten Wohnquartieren und gemischt genutzten Stadtquartieren. Im Fokus stehen sowohl bauliche und städtebauliche Lösungen als auch naturbasierte Maßnahmen der Hitzevorsorge. Eine Fach-Jury hatte am 30. August 2024 die Vorhaben ausgewählt, die sich auf einen Aufruf des BBSR hin beworben hatten. Pro Modellvorhaben stehen 120.000 Euro zur Verfügung.

Die Konzepte beziehen sich sowohl auf Gebäude und Grundstücke als auch die öffentlichen Räume. Die Erkenntnisse aus den Modellvorhaben sollen die Kommunen in Deutschland dabei unterstützen, ihre Quartiere an den Klimawandel anzupassen. Kriterien für die Auswahl waren neben dem ganzheitlichen Ansatz – Gebäude, Grundstücke, Quartier – der Innovationsgehalt der Vorhaben, die ämterübergreifende Zusammenarbeit in den Kommunen und die Kooperation mit anderen Akteuren wie Wohnungswirtschaft und den Eigentümerinnen und Eigentümern.

Der Berliner Bezirk Lichtenberg setzt auf Künstliche Intelligenz (KI), um Hitze-Hotspots zu identifizieren und daraus Ad-hoc-Maßnahmen der Hitzevorsorge abzuleiten. In Berlin Neukölln wird die denkmalgeschützte High-Deck-Siedlung der 1970er Jahre gemeinsam mit den Bewohnerinnen und Bewohnern zu einem Reallabor der Hitzevorsorge. Der Berliner Bezirk Pankow will „Cooling Points“ im Mauerpark realisieren, bei denen Verdunstungskühlung eingesetzt wird, um die Hitzebelastung lokal zu mildern. Die Stadt Essen stellt unter dem Motto „Hitzefrei im Pott“ ein großes Wohnbausanierungsvorhaben in den Fokus. Hagen will sein hoch verdichtetes und stark frequentiertes Bahnhofsviertel hitzeresistent machen. Das Projekt „Drahtseilakt“ in Halle (Saale) zielt darauf ab, die Hitzebelastung in der Innenstadt zu reduzieren. Die rheinland-pfälzische Landeshauptstadt Mainz plant die Entwicklung und Einführung eines digitalen Tools zum Monitoring von Schlüsselmaßnahmen der Klimaanpassung. Potsdam nimmt mit dem Kietz Schlaatz ein Quartier in den Blick, in dem viele sozial benachteiligte Menschen leben. Die Stadt Rheine macht ein Wohnquartier in zentraler Lage zu einem Projekt mit Vorbildwirkung für die Klimapassung.

Das BBSR forscht zu den Ansätzen der Modellvorhaben und unterstützt die Kommunen fachlich. Es wird hierbei durch das Büro agl | Hartz • Saad • Wendl – Landschafts-, Stadt- und Raumplanung aus Saarbrücken unterstützt. Im Rahmen des Projekts werden öffentliche Fachgespräche und Kongresse zum Thema Hitzevorsorge stattfinden.

Alle Informationen zum Forschungsfeld Urban Heat Labs und eine ausführliche Darstellung der Modellvorhaben finden Sie hier:

http://www.bbsr.bund.de/BBSR/DE/forschung/programme/exwost/jahr/2024/urban-heat-labs/01-start.html

Kontakt:
Christian Schlag
Referent Presse- und Öffentlichkeitsarbeit
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99 401-1484
pressestelle.bbsr@bbr.bund.de

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

(nach oben)


Wasserstoff-Labor HyTechLab4NRW eröffnet – Forschung made in NRW

Am 26. September 2024 eröffnete Staatssekretärin Silke Krebs vom NRW-Wirtschaftsministerium vor mehr als 100 Gästen aus Wirtschaft und Wissenschaft das HyTechLab4NRW bei einer „JRF vor Ort“-Veranstaltung am ZBT – Zentrum für BrennstoffzellenTechnik, einem An-Institut der Universität Duisburg-Essen. Damit stärkt das Mitglied der Johannes-Rau-Forschungsgemeinschaft seine Expertise im Bereich Wasserstoff-, Brennstoffzellen- und Elektrolyseforschung.

Bei der heutigen Eröffnung wurde deutlich: Das HyTechLab4NRW stärkt die Potenziale Nordrhein-Westfalens. Staatssekretärin Krebs gratuliert zur Eröffnung und betont: „Wasserstoff ist ein Wachstumsmarkt und für NRW mit seinem Maschinen- und Anlagenbau sehr wichtig. Es gibt noch viele Themen, für die wir neue Technologien brauchen, für die wir Prozesse erforschen müssen. Die Liste an Erwartungen ist lang, aber die Unterstützung ist auch groß. Wir freuen uns auf viele tolle Innovationen.“

Dafür wurde im Zuge des Umbaus zum HyTechLab4NRW die Infrastruktur inklusive Medienversorgung im Hauptlabor des ZBT auf dem Campus der Universität Duisburg-Essen (UDE) umfänglich modernisiert und auf den neuesten Stand der Technik gebracht.
„Hier können wir zukünftig Brennstoffzellen, Anlagenkomponenten und sogar systemnahe Anlagen in größeren Leistungsbereichen, zum Beispiel für Mobilitäts- oder Energieversorgungsanwendungen, entwickeln und testen“, freut sich ZBT-Geschäftsführer Dr. Peter Beckhaus auf die neuen Möglichkeiten.

Die Prorektorin Forschung der Universität Duisburg-Essen, Prof. Dr. Astrid Westendorf, betont die Bedeutung für die Hochschullandschaft: „Wir feiern heute einen echten Gewinn für die Forschungsinfrastruktur an einem An-Institut unserer Universität – ein großes, gut ausgestattetes High-end-Labor.“

Prof. Dr. Dieter Bathen von der UDE unterstreicht als Vorstandsmitglied der Johannes-Rau-Forschungsgemeinschaft die Bedeutung des Projekts: „Diese Art der Forschungsinfrastruktur ist ein großer Mehrwert für unsere gesamte Forschungsgemeinschaft und bietet eine wunderbare Grundlage für die weitere wissenschaftliche Zusammenarbeit unserer Mitgliedsinstitute.“

Das HyTechLab4NRW wird innerhalb der Initiative Forschungsinfrastrukturen NRW zur Förderung des Forschungs- und Innovationspotentials sowie aus Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) gefördert.

Zur Johannes-Rau-Forschungsgemeinschaft:
Die Johannes-Rau-Forschungsgemeinschaft ist die Forschungsgemeinschaft des Landes NRW. Aktuell zählt sie 16 wissenschaftliche Institute mit mehr als 1.600 MitarbeiterInnen in NRW und einem Jahresumsatz von über 124 Millionen Euro. Gegründet hat sich der gemeinnützige Verein 2014 als Dachorganisation für landesgeförderte, rechtlich selbstständige, außeruniversitäre und gemeinnützige Forschungsinstitute. Unter dem Leitbild „Forschung ‚Made in NRW‘ für Gesellschaft, Wirtschaft, Politik“ arbeiten die JRF-Institute fachübergreifend zusammen, betreiben eine gemeinsame Öffentlichkeitsarbeit, fördern wissenschaftlichen Nachwuchs und werden von externen GutachterInnen evaluiert. Neben den wissenschaftlichen Mitgliedern ist das Land NRW ein Gründungsmitglied, vertreten durch das Ministerium für Kultur und Wissenschaft. Weitere Informationen unter: www.jrf.nrw

Zum ZBT – Zentrum für BrennstoffzellenTechnik
Das ZBT ist ein Mitgliedsinstitut der Johannes-Rau-Forschungsgemeinschaft im Bereich der Energietechnik. Es arbeitet in den Leitthemen „Elektrolysetechnologie“, „Wasserstoffinfrastruktur“, „Brennstoffzellentechnik“ und bildet die Brücke zwischen Grundlagenforschung und industrieller Anwendung. Ziele der Forschung sind sowohl die Gewinnung von neuen wissenschaftlichen Erkenntnissen und Methoden als auch der Transfer der Erkenntnisse in die Praxis. Die ca. 180 MitarbeiterInnen arbeiten hauptsächlich an anwendungsorientierten Forschungs- und Entwicklungsprojekten mit Industriepartnern. Zur Unterstützung der anwendungsnahen Forschung werden zudem grundlagenorientierte Projekte mit Universitäten und anderen Forschungseinrichtungen durchgeführt. Weitere Informationen unter: www.zbt.de

Weitere Informationen:
https://jrf.nrw/veranstaltung/hytechlab4nrw/ Veranstaltungsseite

Anhang

(nach oben)


Stickstoffbedarf steigt mit Erderwärmung – Neue Weizensorten können zu Ernährungssicherheit beitragen

Weizen ist weltweit das wichtigste Getreide – und verursacht hohe Umweltkosten. Grund hierfür ist die erforderliche Düngung mit Stickstoff. Forschende der Technischen Universität München (TUM) und des französischen Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (INRAE) haben nun berechnet, dass neue Weizensorten bei gleichbleibender Düngung bessere Ernten liefern.

Das richtige Maß in der Weizendüngung zu finden ist nicht immer leicht. Düngt man den Weizen mit wenig Stickstoff, braucht er diesen auf, bringt aber nicht die volle Ernteleistung. Düngt man ihn mit viel Stickstoff, ist die Ernte zwar gut, aber das Getreide verbraucht nicht den gesamten Dünger. Der überschüssige Stickstoff gelangt in die Umwelt, belastet Ökosysteme und das Klima. Zugleich ist Weizen unverzichtbar, um den wachsenden Welthunger zu stillen.

Um diese Herausforderungen zu bewältigen, haben Senthold Asseng, Professor für Digital Agriculture an der TUM, Pierre Martre (INRAE) und weitere Forschende neue, noch im Versuchsstadium befindliche Weizensorten untersucht. Ihre Ergebnisse wurden in „Nature Plants“ veröffentlicht. Das Team hat hierfür Daten von fünf Versuchsfeldern genutzt, die repräsentativ für globale Anbauregionen mit besonders hohen Erträgen sind. Diese wurden in ein Simulationsmodell eingespeist und gemäß verschiedenen Klimaszenarien berechnet. Hierfür haben die Forschenden aktuelle klimatische Bedingungen, eine Erderwärmung um ein Grad und um 4,8 Grad gewählt. Die Ergebnisse zeigen, welchen Ernteertrag die getesteten Sorten bei unterschiedlich hohen Mengen zugeführten Stickstoffs leisten können.

Höhere Ernten, aber Stickstoff bleibt ein Problem
Die Forschenden konnten so herausfinden, dass die neuen Weizensorten unter aktuellen klimatischen Bedingungen 16 Prozent mehr Ernteertrag erreichen als bisher eingesetzte Weizensorten, wenn sie in gleicher Menge gedüngt werden. Dass sie den ausgebrachten Stickstoff besser nutzen, also eine verbesserte Stickstoffeffizienz aufweisen, verringert ihren ökologischen Fußabdruck. Zugleich konnte das Team zeigen, dass der Stickstoffbedarf im Zuge der Erderwärmung generell steigen wird, wenn man das Erntepotenzial der Pflanzen voll ausschöpfen möchte – doch auch dann nutzen die neuen Sorten den Stickstoff effizienter als die bisher eingesetzten.

Neue Weizensorten sind den aktuellen also in wichtigen Aspekten überlegen und können ein Baustein zur Ernährungssicherheit sein. Dennoch wird das Ringen um einen verantwortungsvollen Umgang mit Stickstoff ein Thema bleiben, und zwar nicht nur im Sinne des Klima- und Umweltschutzes. Die Forschenden weisen darauf hin, dass Stickstoff eine mitunter kostenintensive Ressource ist. Eine verstärkte Düngung mag somit für die Ernte das Beste sein, ist aber global nicht allen Produzentinnen und Produzenten möglich und schlägt sich auf die Geldbeutel der landwirtschaftlichen Betriebe sowie der Kundinnen und Kunden nieder.

Ernährungssicherheit systemisch denken
Die Wissenschaftlerinnen und Wissenschaftler empfehlen dennoch, die im Modell getesteten Weizensorten nun in Zuchtprogrammen weiter zu nutzen: „Mit verbesserter Züchtung können wir es schaffen, für die nächsten 20 bis 30 Jahre die Lücke an Nahrungsmitteln zu schließen. Allein mit neuen Sorten wird uns der Spagat aus weltweiter Ernährungssicherheit, Umweltschutz und Wirtschaftlichkeit aber nicht gelingen,“ sagt Senthold Asseng. „Was wir brauchen, ist ein systemischer Ansatz, der neben agrarwissenschaftlichen Methoden wie moderner Züchtung auch Umweltaspekte, sozio-ökonomische Faktoren und die Rolle der Politik betrachtet.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Senthold Asseng
Technische Universität München
Lehrstuhl für Digital Agriculture
senthold.asseng@tum.de

Kontakt im Corporate Communications Center
Anja Lapac
presse@tum.de
Tel: +49 8161 71-5403

Originalpublikation:
Martre, P., Dueri, S., Guarin, J. R. et al.: „Global needs for nitrogen fertilizer to improve wheat yield under climate change“. Nat. Plants (2024). DOI: doi.org/10.1038/s41477-024-01739-3

(nach oben)


Was ist ökologisch besser: Rohrleitungen aus Beton oder Kunststoff?

Fraunhofer UMSICHT erstellte im Auftrag des FBS (Bundesfachverband Betonkanalsysteme) eine Ökobilanzierung über die Umweltwirkungen von Abwasserrohrleitungen aus (Stahl-)Beton. Diese fungiert gleichzeitig als Verbands-Umweltproduktdeklaration (EPD-Environmental Product Declaration) und ist öffentlich über die ÖKOBAUDAT Datenbank zugänglich. Zusätzlich verglich Fraunhofer UMSICHT die Umweltwirkungen von der Rohstoffgewinnung bis zum Recycling von Entwässerungssystemen aus (Stahl-)Beton mit Rohrleitungen aus Kunststoffen.

In der vergleichenden Ökobilanzierung ermittelten die Forschenden von Fraunhofer UMSICHT den Carbon Footprint von Abwasserrohren aus (Stahl-)Beton und vier Kunststoffarten (GFK, PVC, PE, PP)1 über alle verfügbaren Durchmessergrößen. Für den Werkstoffvergleich wurden für einen definierten Durchmesser kommerzielle und öffentlich einsehbare Umweltdaten verschiedener Materialien verwendet und auf eine Lebensdauer von 100 Jahren bezogen.

Bei der Ökobilanzierung berücksichtigten die Forschenden den Energie- und Ressourcenverbrauch für die Herstellungs-, Errichtungs- und Nutzungsphase einschließlich des Recyclings von Abwasserkanalrohren. Die Datengrundlage für Beton- und Stahlbetonrohre wurde durch Fraunhofer UMSICHT als neutrale Institution von den Verbandsmitgliedern des Bundesfachverbandes Betonkanalsysteme erhoben. Weitere Hintergrunddaten stammen aus der »LCA for Experts«-Datenbank und beziehen sich auf Produktionsmengen aus dem Jahr 2021.

Carbon Footprint von Betonrohren vorteilhafter
Die Ergebnisse der Ökobilanzierung für ein Cradle-to-Gate-Szenario (von der Rohstoffgewinnung bis zum Werktor) zeigen: Während der Unterschied zwischen den Werkstoffen im kleinen Nennweitenbereich von 300 mm Innendurchmesser nur gering ist, sind Betonrohre ab einer Nennweite² von 400 mm Innendurchmesser vorteilhafter als Kunststoffalternativen. Betonrohre zeigen auch Vorteile im Carbon Footprint gegenüber Stahlbetonrohren auf, wobei allerdings keine Unterschiede in der Lebensdauer beider Materialien berücksichtigt worden sind. Wird zudem die Entsorgung der Rohre mit einbezogen, zeigen Beton- und Stahlbetonrohre klare Vorteile gegenüber den Kunststoffrohren. »Dies liegt daran, dass Kunststoffrohre vermutlich nur thermisch verwertet – also verbrannt werden – können. Betonrohre könnten teilweise für die Herstellung neuer Betonfertigteile genutzt sowie als gebrochenes Material, beispielsweise im Straßenbau, weiterverwendet werden«, erklärt Dr. Daniel Maga, Abteilung Nachhaltigkeit und Partizipation von Fraunhofer UMSICHT. Nach der Weiterverwendung des Betons findet eine Karbonatisierung von Beton statt, so dass zusätzlich CO2 gebunden wird. Dieser Effekt wurde allerdings aufgrund der Unsicherheit der Daten nicht berücksichtigt.

Die Umweltproduktdeklaration durchlief eine externe Prüfung durch das Institut zur Prüfung und Zertifizierung von Bauprodukten, Sicherheitstechnik und Schutzausrüstung ift in Rosenheim.

1 Glasfaserverstärkter Kunststoff, Polyvinylchlorid, Polyethylen, Polypropylen
2 ungefährer innerer Durchmesser eines Rohrs

Weitere Informationen:
https://oekobaudat.de/OEKOBAU.DAT/datasetdetail/process.xhtml?uuid=b66eed7c-c924… (Daten in Ökobaudat)
https://www.umsicht.fraunhofer.de/de/ueber-fraunhofer-umsicht/abteilungen/nachha… (Abteilung Nachhaltigkeit und Partizipation)
https://www.umsicht.fraunhofer.de/de/circulareconomy/oekobilanzierung-life-cycle… (Ökobilanzierung)

(nach oben)


Wie verändert die Zugabe von Gesteinsmehl das Leben im Meer?

Heute werden in der Kieler Förde erneut zwölf schwimmende Versuchstanks, so genannte Mesokosmen, zu Wasser gelassen, um die ökologische Wirkung der Alkalinitätserhöhung zu untersuchen. Das Experiment ist Teil des internationalen Projekts Ocean Alk-Align und zielt darauf ab, zu verstehen, wie der Ozean durch die Zugabe von Mineralien mehr Kohlendioxid (CO2) aus der Atmosphäre aufnehmen kann.

Da die drastische Reduzierung der Treibhausgas-Emissionen allein nicht ausreichen wird, nationale und internationale Klimaschutzziele zu erreichen, suchen Forschende intensiv nach Möglichkeiten, der Atmosphäre aktiv Kohlendioxid (CO2) zu entziehen. Ein Ansatz besteht darin, die Alkalinität des Ozeans zu erhöhen, so dass er mehr CO2 aufnehmen kann.

Wie funktioniert die Alkalinitätserhöhung?
Die Alkalinitätserhöhung im Ozean ahmt den natürlichen Prozess der Gesteinsverwitterung nach, der in den vergangenen Jahrmilliarden geholfen hat, das Erdklima zu stabilisieren. Nun ist aber der durch den Menschen verursachte Kohlendioxid-Eintrag etwa hundertmal zu schnell, um durch natürliche Verwitterung ausgeglichen zu werden. Die direkte Zugabe von alkalischen Mineralien ins Meer hat denselben Effekt: Der pH-Wert steigt, und dadurch sinkt die CO2-Konzentration im Oberflächenozean. Da Ozean und Atmosphäre um Ausgleich bemüht sind, wird dadurch mehr CO₂ aus der Atmosphäre in den Ozean transportiert.

Das Herbst-Experiment
Um die Auswirkungen einer Alkalinitätserhöhung auf die Meeresökologie zu untersuchen, wurden am Mittwoch, 25. September 2024, erneut zwölf in sich abgeschlossene Versuchstanks, so genannte Mesokosmen, an der Pier vor dem Kieler Aquarium eingesetzt und am Folgetag befüllt. Sie isolieren jeweils 8.000 Liter Fördewasser mitsamt dem darin enthaltenen pflanzlichen und tierischen Plankton. Die Umweltbedingungen in den Mesokosmen sind damit dieselben wie im Meer – ein Wasseraustausch findet jedoch nicht statt. Vier Wochen lang wird dann nach der Zugabe von Mineralien in unterschiedlichen Konzentrationen genauestens überwacht, wie das Ökosystem auf die Alkalintätserhöhung reagiert. Es ist der letzte von drei mehrwöchigen Mesokosmen-Einsätzen in diesem Jahr.

Erste Ergebnisse und neue Erkenntnisse
Die beiden Experimentreihen im Frühling und Sommer haben bereits erste Ergebnisse erbracht. So hat sich beispielsweise die Befürchtung, dass Verunreinigungen in den Mineralien potenziell toxische Spurenelemente ins Meer freisetzen könnten, als unbegründet erwiesen.

Beobachtet werden konnte ein deutlicher Effekt auf Mikroalgen: Mit zunehmender Alkalinität wurde im Frühjahr und Sommer ein Rückgang des Wachstums von Kieselalgen (Diatomeen) festgestellt. Eine mögliche Erklärung ist, dass sich Mineralpartikel in den Diatomeenketten verfangen, als Ballast wirken und sie zum Absinken bringen. Auch ein chemischer Effekt, bei dem der hohe pH-Wert in der Nähe der sich auflösenden Mineralien die Kieselpanzer der Algen schädigt, könnte eine Rolle spielen. Diese Hypothesen werden jetzt im Herbstexperiment weiter untersucht.

Ein dritter Befund betrifft das Ausfällen von Kalziumkarbonat: In früheren Laborstudien wurde beobachtet, dass bei einer zu starken Alkalinitätserhöhung Kalziumkarbonat (CaCO3) ausfällt, was die Alkalinität wiederum reduziert und zu Ineffizienzen führt. Dieser Prozess war zuweilen so schnell und intensiv, dass am Ende mehr Alkalinität verloren ging, als durch Mineralien zugegeben wurde. In den Mesokosmen-Experimenten trat dieser Effekt zwar auch auf, führte aber nicht zu überschießender Karbonatausfällung. Das liegt wahrscheinlich daran, dass die Kalziumkarbonatpartikel in den Mesokosmen nach ihrer Entstehung relativ schnell zu Boden sanken. Dadurch wurden sie aus der Wassersäule entfernt, bevor sie die Ausfällung weiter antreiben konnten. Das Experiment zeigt also, dass unter realen Bedingungen im Meer dieser „Runaway“-Effekt weniger wahrscheinlich ist als bisher gedacht.

Zukunft der Forschung
„Noch sind nicht alle Daten ausgewertet, aber schon diese drei Erkenntnisse sind Highlights, die ohne unseren Versuchsaufbau mit den Mesokosmen nicht hätten gewonnen werden können“, erklärt Dr. Ulf Riebesell, Professor für Biologische Ozeanographie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. Die Ergebnisse hätten so schon einige Annahmen revidieren können, die auf weniger realistischen Versuchsaufbauten beruhten.

Hintergrund: Ocean Alk-Align
Ocean Alk-Align ist ein internationales Forschungsprojekt, das die Effizienz und Beständigkeit, die Umweltsicherheit und Anforderungen an die Überwachung, Berichterstattung und Verifizierung (Monitoring, Reporting, and Verification, MRV) der marinen Alkalinitätserhöhung untersucht. Ziel ist es, eine fundierte Wissensbasis zu schaffen, um die mögliche Anwendung dieser Technologie zu bewerten. Ocean Alk-Align wird von der Universität Dalhousie, Kanada koordiniert. Beteiligt sind das GEOMAR sowie die Universität Hamburg und die Universitäten Southern Cross und Tasmanien, Australien. Das Projekt wird von der US-amerikanischen „Carbon to Sea“-Initiative gefördert.

Kontakt:
Ilka Thomsen (GEOMAR, Kommunikation & Medien), Tel.: 0431 600-2802, media@geomar.de

Weitere Informationen:
https://www.geomar.de/der-ozean-als-klimaschuetzer/kohlenstoffaufnahme-im-ozean/… Alkalinitätserhöhung im Ozean
https://alkalign.ocean.dal.ca/ Projektwebseite Ocean Alk-Align (auf Englisch)
http://www.geomar.de/n9600 Bildmaterial zum Download

(nach oben)


Sichere Wasserstoffspeicher aus Feststoffen

Grüner Wasserstoff soll ein Schlüssel zur Energiewende sein. Ihn sicher zu speichern ist Ziel des Projekts „GreenH2Metals: Nachhaltige und kreislauffähige Metalllegierungen zur effizienten und sicheren Speicherung von Wasserstoff für stationäre Anwendungen“, an dem die Ruhr-Universität Bochum mit zwei Teilprojekten beteiligt ist. Die Bochumer Arbeitsgruppe untersucht die Mikro- und Nanostruktur von Metalllegierungen, die Wasserstoff aufnehmen und wieder abgeben können. Die Rohstoffe dafür sollen aus sekundären Quellen kommen, also recycelt sein und auch werden können.

Das Projekt wird mit rund 3,3 Millionen Euro vom Bundesministerium für Bildung und Forschung gefördert, gut 750.000 Euro davon gehen an die Ruhr-Universität.

Nachteile der Gas- und Flüssigspeicherung
Wenn eines Tages grüner Wasserstoff in großem Umfang beispielsweise durch Windkraft oder Sonnenergie hergestellt werden kann, wird er auch gespeichert werden müssen. Nur so kann man ihn dann nutzen, wenn man ihn auch braucht. „Die bisher übliche Speicherung in Gas- oder Flüssigtanks hat verschiedene Nachteile“, erklärt Prof. Dr. Christian Liebscher vom Research Center Future Energy Materials and Systems. „Der Wasserstoff muss dazu entweder stark komprimiert oder extrem heruntergekühlt werden, was mit hohem Energieaufwand verbunden ist. Zudem ist bei der Flüssigspeicherung die Wärmeisolation ein Problem, sodass es zu Verlusten kommt. Des Weiteren besteht die Gefahr, dass durch Leckagen Wasserstoff sehr schnell austreten kann, was mit der Gefahr einer Explosion verbunden ist.“

Sicher und verlustfrei speichern
Beide Nachteile hat die Art der Speicherung, die das Projektteam untersucht, nicht: Pulverpartikel oder aus Pulver gepresste Pellets aus einer Legierung aus Titan und Eisen sind in der Lage, Wasserstoff unter moderaten Drücken von unter 40 bar aufzunehmen. An der Oberfläche der Partikel werden die Wasserstoffmoleküle zunächst gespalten. Die Atome diffundieren dann in das Metallgitter hinein. Das Metall wird dadurch zu einem sogenannten Hydrid. Senkt man den Druck um die Partikel oder Pellets wieder ab, tritt der Wasserstoff wieder aus. Das Ganze funktioniert bei Raumtemperatur und ist nahezu verlustfrei. Sollte ein Tank bersten, würde der Wasserstoff nur sehr langsam austreten, sodass die Explosionsgefahr sehr stark reduziert wird.

Die Arbeitsgruppe an der Ruhr-Universität widmet sich in zwei Teilprojekten der Mikro- und Nanostrukturanalyse des Speichermaterials in Zusammenarbeit mit dem Max-Planck-Institut für Nachhaltige Materialien in Düsseldorf. „Wir wollen zum Beispiel wissen, wie sich die Materialstruktur ausprägt, wenn wir Rohstoffe aus sekundären Quellen, also aus dem Recycling, einsetzen“, erklärt Christian Liebscher. „Darin könnten sich Verunreinigungen befinden, die sich aber teils sogar positiv auf die Speichereigenschaften auswirken könnten.“ Mittels Transmissionsemissionsmikroskopie und Atomsondentomografie wollen die Forschenden im Experiment ganz genau untersuchen, wie sich die Legierung beim Be- und Entladen verhält, und ob es zum Beispiel Abnutzungseffekte gibt. „Idealerweise wollen wir die Speichereigenschaften so auch optimieren“, so Christian Liebscher.

Kooperationspartner
Koordiniert wird das Projekt vom Helmholtz-Zentrum hereon GmbH. Beteiligt sind neben der Ruhr-Universität Bochum die Rheinisch-Westfälische Technische Hochschule Aachen und die Bundesanstalt für Materialforschung und -prüfung.

Förderung
Das Projekt wird gefördert durch das Bundesministerium für Bildung und Forschung.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Liebscher
Advanced Transmission Electron Microscopy
Research Center Future Energy Materials and Systems
und
Fakultät für Physik und Astronomie
Ruhr-Universität Bochum
Tel.: +49 234 32 15665
E-Mail: christian.liebscher@ruhr-uni-bochum.de

Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/grundlagenforschung/greenh2metals – mehr Infos zum Projekt

(nach oben)


Von Klimawandel bis Umweltverschmutzung:

Je unterschiedlicher die menschlichen Umwelteinflüsse, desto gravierender sind die Auswirkungen auf den Boden

Neue „Nature Communications“-Studie von Forschenden der Freien Universität Berlin zeigt Folgen von zahlreichen, gleichzeitig wirkenden Umwelt-Faktoren

Ein Forschungsteam der Freien Universität Berlin hat herausgefunden, dass die Vielfalt und Unterschiedlichkeit menschlich verursachter Umweltfaktoren erheblich zur Verschlechterung von Bodeneigenschaften beiträgt. Dies geht aus einer neuen Studie hervor, die gerade in der Fachzeitschrift „Nature Communications“ veröffentlicht wurde. Link zur Studie: https://www.nature.com/articles/s41467-024-52511-2

Der menschenverursachte globale Umweltwandel (‚global change‘), zu dem nicht nur der Klimawandel, sondern auch Umweltverschmutzung, zum Beispiel durch Schwermetalle und andere Schadstoffe gehören, wirkt sich in Form von komplexen „Gemischen“ von Faktoren auf terrestrische Ökosysteme aus. Die neue Studie „Number and dissimilarity of global change factors influences soil properties and functions“, geleitet von den Doktorandinnen Mohan Bi und Huiying Li, zeigt nun, dass nicht nur die Anzahl dieser Faktoren, sondern insbesondere ihre Unterschiedlichkeit entscheidend für die schädigenden Auswirkungen auf den Boden ist.

„Unsere Ergebnisse belegen, dass die Effekte umso gravierender sind, je unterschiedlicher die Gruppe der Faktoren ist“, erklärt Prof. Dr. Matthias Rillig, Leiter der Ökologie-Arbeitsgruppe an der Freien Universität Berlin. „Dies liegt daran, dass bei unähnlichen Faktoren die Häufigkeit der gegenseitigen Verstärkungen der Faktoren zunimmt.“

Die Studie wurde gemeinsam von zwei Doktorandinnen der Arbeitsgruppe. Mohan Bi und Huiying Li geleitet, unter Mitwirkung zweier weiterer Promovierenden im Labor, und in Zusammenarbeit mit Prof. Masahiro Ryo der Universität Cottbus.

Die umfangreichen experimentellen Arbeiten im Labor wurden von allen vier Promovierenden gemeinsam durchgeführt, wofür ein Pool von 12 Faktoren des globalen Wandels verwendet wurde. Dazu gehörten verschiedene synthetische organische Chemikalien, sowie Stickstoffeintrag, Schwermetalle, Salzstress, sowie Trockenstress. Diese Faktoren wurden dann kombiniert in Gruppen von 2, 5 oder 8 Faktoren, die gleichzeitig appliziert wurden. Jede dieser Gruppen hatte 50 verschiedene Kombinationen, durch Zufall bestimmt aus dem Pool der 12 Faktoren. Auf diese Weise konnten Zusammensetzungen von Faktoren erzielt werden, die sich in ihrer Divergenz unterschieden: manche der experimentellen Einheiten erhielten also Faktoren-Kombinationen, deren individuellen Effekte sich ähnlicher waren, und andere solche Kombinationen von Faktoren die eher verschiedener waren in ihren individuellen Auswirkungen. Damit konnte die Hypothese getestet werden, ob es für den Boden schlechter ist, wenn er von eher einer Vielzahl von Faktoren mit unterschiedlichen Wirkmechanismen betroffen ist, oder ob es schlimmere Auswirkungen hat, wenn die Faktoren sich eher ähneln, also eher in die gleiche Bresche schlagen.

Diese Arbeiten ermöglichen neue Einblicke in die Mechanismen der Effekte, wenn Systeme von einer Vielzahl von Einflüssen betroffen sind. „Möglicherweise kann diese Einsicht auch helfen, bereits geschädigte Ökosysteme wieder herzustellen“, so Matthias Rillig. Anstelle auf die Einzelfaktoren zu schauen, müsse die Gesamtheit der Faktoren in den Blick genommen werden. So könnte man sich darauf fokussieren, die Faktoren, die am unähnlichsten sind, als erstes auszuschalten. Die Studie stellt einen neuen Ansatz in der ökologischen Forschung dar, der sich auf das Zusammenspiel von Umweltfaktoren konzentriert, anstatt isoliert auf einzelne Stressoren zu schauen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias C. Rillig, Freie Universität Berlin, Institut für Biologie, Ökologie der Pflanzen, Altensteinstraße 6, 14195 Berlin; E-Mail: rillig@zedat.fu-berlin.de
Webseite des Labors: https://rilliglab.org

Originalpublikation:
Zur Studie: Bi M, Li H, Meidl P, Zhu Y, Ryo M, Rillig MC. 2024. Number and dissimilarity of global change factors influences soil properties and functions. Nature Communications; https://www.nature.com/articles/s41467-024-52511-2

(nach oben)


Wissenschaft im Gespräch: Warum manche Hepatitis-Virus-Infektionen ausheilen und andere chronisch werden

Was sind die Ursachen dafür, dass manche Hepatitis-Virus-Infektionen ausheilen, während andere einen chronischen Verlauf nehmen? Mit dieser Frage befasst sich der Journalist Wolfgang Heim in einer Gesprächsrunde mit Prof. Dr. Ralf Bartenschlager und Dr. Claudia Beisel. Prof. Bartenschlager ist Sprecher des SFB/Transregio „Determinanten und Dynamik der Elimination versus Persistenz bei Hepatitis-Virus-Infektionen“. Die von der DFG geförderten Verbünde an der Universität Heidelberg zu grundlegenden Fragestellungen der Lebenswissenschaften präsentieren sich in der Reihe „Überlebensstrategien“. Beitrag drei zur Hepatitis-Virus-Forschung ist als Video abrufbar auf heiONLINE.

Wissenschaft im Gespräch: Warum manche Hepatitis-Virus-Infektionen ausheilen und andere chronisch werden
Reihe „Überlebensstrategien“: Wissenschaftler des SFB/TRR 179 stellen ihre Arbeit im Austausch mit Journalist Wolfgang Heim vor – Neuer Filmbeitrag abrufbar
Wissenschaft im Gespräch: Was sind die Ursachen dafür, dass manche Hepatitis-Virus-Infektionen ausheilen, während andere einen chronischen Verlauf nehmen? Mit dieser Frage befasst sich der Journalist Wolfgang Heim in einer Gesprächsrunde mit Prof. Dr. Ralf Bartenschlager und Dr. Claudia Beisel. Prof. Bartenschlager ist Sprecher des SFB/Transregio „Determinanten und Dynamik der Elimination versus Persistenz bei Hepatitis-Virus-Infektionen“ (SFB/TRR 179) – einer von mehreren Sonderforschungsbereichen an der Universität Heidelberg, in denen zu grundlegenden Fragestellungen der Lebenswissenschaften geforscht wird. Diese von der Deutschen Forschungsgemeinschaft geförderten Verbünde präsentieren sich in der Reihe „Überlebensstrategien“, die die Universität gemeinsam mit dem Rhein-Neckar-Fernsehen durchführt: Welche Erkenntnisse die Forscherinnen und Forscher aus ihrer Arbeit ziehen und welche Perspektiven sie damit verbinden, erläutern sie in aufgezeichneten Gesprächen mit Moderator Wolfgang Heim. Beitrag drei zur Hepatitis-Virus-Forschung ist als Video abrufbar auf heiONLINE, dem zentralen Portal der Ruperto Carola mit Vorträgen, Diskussionsrunden und Veranstaltungen in digitalen Formaten.
Infektionen mit Hepatitis-Viren, von denen fünf verschiedene bekannt sind, stellen aufgrund ihrer globalen Verbreitung, der hohen Anzahl an Neuinfektionen und – im Fall von chronischen Infektionen – dem hohen Risiko für schwere Leberschäden bis hin zu Leberkrebs ein gravierendes Gesundheitsproblem dar. Eine besondere Herausforderung für Wissenschaft und Medizin ist dabei die hohe Fähigkeit zur Persistenz, was bei drei der fünf Hepatitis-Viren der Fall ist: Über einen langen Zeitraum, oft lebenslang, können diese Viren im Körper der infizierten Person überdauern. Und auch wenn die Infektion zunächst nicht bemerkt wird, führt sie im Laufe von Jahren und Jahrzehnten zu einer Leberschädigung, im Endstadium zu einer Leberzirrhose oder gar zu Leberkrebs. Im SFB/TRR 179 gehen die beteiligten Forscherinnen und Forscher der Frage nach, welche Faktoren den Ausschlag dafür geben, dass manche Hepatitis-Virus-Infektionen ausheilen, das Virus also aus dem Körper beseitigt wird, während andere chronisch werden.
Der Verlauf der Infektion ist – so Prof. Bartenschlager – ein komplexer Prozess, bei dem die Dynamik des Wechselspiels zwischen viralen Faktoren und zellulärer Abwehrreaktion von entscheidender Bedeutung ist. Diese Dynamik zu entschlüsseln ist das zentrale Ziel des Forschungsverbundes. Untersucht werden dazu die Eigenschaften der jeweiligen Hepatitis-Viren, ihr Einfluss auf die Leber, die Art der beteiligten Immunantwort und die Geschwindigkeit, mit der diese ausgelöst wird. So sollen die Faktoren entschlüsselt werden, die über Ausheilung oder Chronifizierung entscheiden, um damit Strategien für die Behandlung bislang nicht heilbarer chronischer Virusinfektionen der Leber zu finden. „Obwohl sich unser Verbund auf Hepatitis-Viren fokussiert, sind die fundamentalen Prinzipien mit großer Wahrscheinlichkeit auch auf andere Virus-Infektionen übertragbar. Unsere Arbeiten haben daher ein Innovationspotenzial, das weit über die Virus-Hepatitis hinausgeht“, betont Prof. Bartenschlager.
Der SFB/Transregio „Determinanten und Dynamik der Elimination versus Persistenz bei Hepatitis-Virus-Infektionen“ wurde im Mai dieses Jahres für eine dritte vierjährige Förderperiode verlängert. Während Sonderforschungsbereiche in der Regel an einer Universität angesiedelt sind, verteilen sich die transregionalen Verbünde auf zwei oder drei Standorte. Der SFB/TRR 179 wird gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Universität Freiburg und der Technischen Universität München getragen; Partner im Verbund ist das Deutsche Krebsforschungszentrum (DKFZ). Prof. Bartenschlager – der Sprecher dieses SFB/Transregio – ist Wissenschaftler an der Medizinischen Fakultät Heidelberg der Universität Heidelberg, Direktor der Abteilung Molekulare Virologie am Zentrum für Infektiologie des Universitätsklinikums Heidelberg und Leiter der Abteilung „Virus-Assoziierte Karzinogenese“ am DKFZ. Dr. Beisel ist Fachärztin für Innere Medizin und Infektiologie in der Klinik für Gastroenterologie, Infektionen und Vergiftungen am Universitätsklinikum Heidelberg und forscht zur zell-intrinsischen Immunantwort der Leber auf eine Hepatitis-Virus-Infektion.
In der Reihe „Überlebensstrategien“ wird jeden Monat ein weiteres Wissenschaftsgespräch mit Wolfgang Heim hinzukommen. Darin präsentieren sich die lebenswissenschaftlichen Sonderforschungsbereiche der Universität Heidelberg, in denen ein breites Spektrum biologischer und medizinisch relevanter Themen bearbeitet wird. Es reicht von Gehirntumoren, Herz- und Hauterkrankungen, chronischem Schmerz und Infektionen bis zu sehr grundlagenwissenschaftlichen Fragestellungen der Signalübertragung und der Funktion von zellulären Membranen. Die gemeinsam mit dem Rhein-Neckar-Fernsehen produzierten Filmbeiträge, die sich an eine breite Öffentlichkeit wenden, werden auch im RNF-Programm zu sehen sein.

Kontakt:
Kommunikation und Marketing
Pressestelle
Tel. +49 6221 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
https://www.uni-heidelberg.de/de/heionline

(nach oben)


Extremes Hochwasser: Soziologische Perspektive auf Wetterkatastrophen

Enorme Regenmassen, Schneehöhen und reißende Fluten haben in den vergangenen Tagen im südöstlichen Mitteleuropa für teils chaotische Verhältnisse gesorgt. Der Umgang mit solchen Extremereignissen führt auch zu Kontroversen über Prävention und Prognostik sowie die Folgen des Klimawandels. Ein historisch-soziologischer Blick auf Wetterkatastrophen.

Desaströse Wetterverhältnisse treffen uns scheinbar wie aus heiterem Himmel. Doch brisante Entwicklungen in den meteorologischen Berechnungen deuten sich oft schon Tage zuvor an. Sich darauf vorzubereiten, ist alles andere als trivial: Wie massiv und wie verbreitet werden mögliche Schäden eintreten? Was kann getan werden, um das Schlimmste zu verhindern? Welche Rettungsmaßnahmen sind möglich? Diese Fragen stellen sich aktuell im Hinblick auf das extreme Hochwasser in Mitteleuropa.

„Es liegt auf der Hand, dass man ein derart akutes Wetterereignis nicht mit alltäglichem Erwartungsmanagement regeln kann“, sagt Prof. Dr. Marcel Schütz. Der Soziologe und Organisationsforscher an der Hamburger Northern Business School widmet sich dem gesellschaftlichen Umgang mit Katastrophen: „Das Wort Katastrophe aus dem Griechischen bedeutet so viel wie Wendung oder Wendepunkt. In der natürlichen Umwelt erfahren wir für unser Leben ernsthafte Wendungen als recht plötzliche, rasante, teils brachiale Umbrüche. Bei Stürmen, Sturzfluten, Waldbränden oder Erdbeben geraten Menschen von jetzt auf gleich in ausweglose Lagen, sind auf sich allein gestellt oder werden aus dem Leben gerissen.“

Kommunizieren vorläufiger Wahrscheinlichkeiten
Schütz beschäftigt sich unter anderem damit, wie wir katastrophalen Extremereignissen mit unseren Sicherheitsvorstellungen und prognostischen Mitteln begegnen – und welche Rolle dabei auch Vagheit und Enttäuschungen spielen. Der Forscher verweist auf die Anbahnung und Ankündigung brisanter Wetterlagen: „Meteorologen wollen nicht voreilig Halbgares von sich geben und keinen Alarmismus schüren. Allerdings ist Wetter heute auch Infotainment und folgt den Spielregeln der Aufmerksamkeitsökonomie. Warnt man nicht rechtzeitig und deutlich genug und kommt es dann zu schlimmeren Schäden, gibt es schwere Vorwürfe.“

„Die Vorausschau auf eine katastrophale Witterung ist immer ein Kommunizieren vorläufiger Wahrscheinlichkeiten“, gibt Schütz zu bedenken. Die Wettermodelle der Hochleistungscomputer rechnen Szenarien mit dem Abstand einiger Tage in verschiedenen Varianten. Oft ändert sich die geografische Eingrenzung und die Intensität des absehbaren Extremwetters entsprechend der vielen Parameter. „Die Details kriegt man in der Wettervorhersage der Abendnachrichten nicht mit. Da sieht man eine Momentaufnahme.“

Manchmal verschwinden Extremszenarien wieder aus den Modellen, ein anderes Mal endet es tatsächlich gravierend. „Das verursacht Anspannung und Fiebern: Kommt der Orkan, kriegen wir einen halben Meter Schnee, wird unser Tal überschwemmt? Bei all der Hightech müssen sich die Wetterkundigen an die Konstellation herantasten.“ Während dynamischer Extremlagen wie Großgewittern, Sturzfluten oder massiven Luftmassengrenzen lassen sich die Ausmaße mitunter erst „live“ abschätzen. „Und dann muss man sich entscheiden, ob Bergwanderung, Badesee oder die lange Autofahrt noch angemessen sind. Für den öffentlichen Schutz gilt: lieber eine Warnung mehr als eine zu wenig“, sagt Schütz. Vorfälle wie im Ahrtal vor drei Jahren bieten bedauerliche Gegenbeispiele.

Blick in die Geschichte
Aber erzeugt nicht erst maßgeblich der Klimawandel unsere heutige Unsicherheit im Umgang mit dem Wetter und seinen extremen Kapriolen? Aus Sicht des Soziologen Schütz greift man zu kurz, sieht man Extremwetter nur als das Resultat des anthropogenen Klimawandels. Tatsächlich ist die Häufung von Extremwetter laut der einschlägigen Forschung mit dem Klimawandel offenkundig assoziiert. Wo, wann und wie intensiv das jedes Mal der Fall ist, lässt sich aber nicht generell sagen.

Aufschlussreich ist der Blick in die Geschichte. In den vergangenen Jahrhunderten gab es in Europa viele exorbitante Wetter- und Klimaentwicklungen: Extreme Hitzesommer wie 1540 mit monatelanger Dürre führten dazu, dass der Rhein auszutrocknen begann und Menschen Wein tranken, weil man das knappe, teurere Wasser nicht bezahlen konnte. Ein anderes Beispiel ist der eisige Winter 1708/1709, als unzählige Menschen nichts mehr zu heizen hatten, sie Gliedmaßen, Ohren und Nasen verloren und erfroren.

Schütz hat sich für eine historische Arbeit Dokumente über die Magdalenenflut von 1342 angesehen, das vermutlich schwerste Hochwasser des letzten Jahrtausends im Binnenland Mitteleuropas. Diese Katastrophe steht in Verbindung mit einer Wetterlage – man spricht vom gefürchteten „Vb-Tief“ –, die Meteorologen jener am vergangenen Wochenende für ähnlich halten; wenngleich die damaligen Ausmaße viel drastischer waren. „Solche Extremereignisse im Mittelalter und in der Frühen Neuzeit geben uns einen Eindruck, wie schlimm es um Leib und Leben in großer Zahl stand. Vieh und Mensch ertranken tausendfach. Es gab keine Warn- und Rettungssysteme, wie wir sie heute kennen. Dramatische Ernteausfälle, Hungersnöte und Pest kamen gleich hinterher. Wetterdesaster erzeugten soziale Katastrophen.“

In manchen Regionen sind die Folgen der extremen Wassermassen von 1342 bis heute sichtbar. Durch die Fluten entstanden tiefe Einkerbungen in Waldböden und regional gab es gewaltige Erosionen, wodurch die Landwirtschaft bis heute erschwert wird (siehe Abb.). Das, wie es genannt wird, „Jahrtausendhochwasser“ ereignete sich inmitten eines natürlichen Klimawandels, im Übergang von einer wärmeren Phase zur sogenannten Kleinen Eiszeit.

Soziale Zurechnung von Verantwortung und Schuld
„Trotz dieser Kenntnisse können wir mit Wetterkatastrophen nicht wirklich gut rechnen“, sagt Schütz. Die vielen Videos und Postings von den Fluten am vergangenen Wochenende auf den Social-Media-Plattformen zeigen, wie Menschen staunend und erschrocken danebenstehen. Dabei wird oft vergessen, dass die Domestizierung unserer Naturräume – das Begradigen und Beschleunigen einst ausgedehnter Flussläufe, das Versiegeln, Entwalden und Bebauen von Flächen – die Folgen von Extremwetterereignissen noch verstärkt. Soziale Infrastrukturen sind vulnerabel, weil sie natürlichen geologischen und hydrologischen Gegebenheiten in die Quere kommen. „Die vollen Kräfte der Natur werden in dem Maße erfahrbar, wie man sie zu beschränken sucht. Wir lernen durch diese Unglücke auf die harte Tour, dass wir Gewässer, Böden, Wiesen und Gehölze nicht hemmungslos zerstören dürfen.“

Eine noch so hoch entwickelte Gesellschaft wird mit Naturkatastrophen letztlich auskommen müssen. Doch durch modernes Wissen, Methodik und Technik lässt sich die Gefährdung von Leben weiter reduzieren. Waren Wetter- und Klimakatastrophen in mittelalterlicher Zeit noch Ausdruck göttlichen Gerichts, sorgen sie heute eher für politischen Zündstoff. Schütz: „Wir kennen das eigentlich nicht mehr, dass die Naturgewalt einfach für sich steht. Durch den Klimawandel wird alles, was das Wetter an Extremen bereithält, als Klimakrise problematisiert. Es gibt unmittelbare Zurechnungen, wer schuld ist und zu wenig Klimaschutz betreibt: die Politik, die Wirtschaft, die Gesellschaft mit ihrem Konsum im Ganzen.“

Und wie hält es der Forscher persönlich mit dem Wetter? „Mich fasziniert der Wechsel der Jahreszeiten, die stetige Überraschung, die Schönheit und der Schrecken. Was man sich vom Wetter erhofft und was man am Ende kriegt. Wenn auch der Klimawandel uns leider mehr und mehr den Schnee raubt, den ich selbst sehr mag. Die Menschen vor Jahrtausenden sahen die Wolken und spürten die Winde genau wie wir. In einer durchmodernisierten Welt ist das Wetter die unberechenbare Konstante und bleibt ein Stück weit Geheimnis – natürlich.“

Wissenschaftliche Ansprechpartner:
Für Presseanfragen steht Ihnen Prof. Dr. Marcel Schütz als Ansprechpartner zur Verfügung.
E-Mail: schuetz@nbs.de

(nach oben)


Wasserstoff, der Energieträger der Zukunft

Expert*innen aus ganz Schleswig-Holstein trafen sich bei einem Wasserstoff-Forschungssymposium Mitte September 2024 an der TH Lübeck, um über aktuelle Projekte und mögliche neue Themenfelder zu sprechen.

Am 12. September 2024 hat das Landeskompetenzzentrum Wasserstoffforschung Schleswig-Holstein (HY.SH) gemeinsam mit dem Wissenschaftszentrum für Elektromobilität, Leistungselektronik und dezentrale Energieversorgung (EMLE) das dritte HY.SH-Forschungssymposium an der Technischen Hochschule Lübeck ausgerichtet. Ziel war es, aktuelle Forschungsthemen und -ergebnisse aus Schleswig-Holstein zu präsentieren sowie eine Austausch- und Diskussionsplattform für Wasserstoffforschende anzubieten, um die Wasserstoff-Forschungscommunity in Schleswig-Holstein weiter auf- und auszubauen.

„Unsere Forschungssymposien veranstalten wir in erster Linie, um einen Austausch zu organisieren. Schleswig-Holstein ist als Bundesland und in seiner Forschungslandschaft einfach zu klein, als dass man sich nicht kennt, und deshalb wollen wir Synergien nutzen, zusammenarbeiten, kooperieren und die Wasserstoffforschung möglichst effizient voranbringen“, so Sebastian Wirth vom HY.SH.

Prof. Oliver Opel, Projektkoordinator des HY.SH, betonte, dass sie ihr Ziel, die Wasserstoffforschungs-Community in Schleswig-Holstein deutlich zu vergrößern, erfolgreich realisiert hätten. Dazu habe insbesondere das niedrigschwellige Förderprogramm „h2Fonds“ mit einem Gesamtvolumen von 920.000 Euro beigetragen.
Opel wünscht sich für die Zukunft, dass das Thema Wasserstoff nicht nur in den technischen Wissenschaften, sondern verstärkt auch in den Wirtschafts- und Sozialwissenschaften verankert wird. Trotz der erreichten Umsetzungsphase besteht weiterhin Forschungsbedarf, da die Phase der Massenproduktion und die damit verbundenen Kostensenkungen, wie zum Beispiel bei der Batterieproduktion, noch nicht erreicht wurden.

Mobilitäts- und Energiewende: Zwei Seiten der gleichen Medaille
Für den stellvertretenden Leiter und Sprecher des Wissenschaftszentrums EMLE der TH Lübeck, Clemens Kerssen, sind die Mobilitäts- und Energiewende zwei Seiten der gleichen Medaille. In einem Blick hinter die Kulissen ermöglichte er den anwesenden Wissenschaftler*innen einen Einblick in die Lernkurve des EMLE-Teams seit der Gründung des Wissenschaftszentrums im Jahr 2012 durch Roland Tiedemann.

Das EMLE-Team arbeitet zurzeit an der Entwicklung und Einbindung eines Wasserstoff-Hybridspeichersystems aus Komponenten, die über den h2Fonds beschafft wurden. Dadurch kann das Maschinen- und Elektromobilitätslabor zeitweise energieautark betrieben werden und Studierende haben die Möglichkeit, an einem konkreten Anwendungsfall das Wasserstoffsystem kennenzulernen.

Wasserstoff ist keine Luftnummer
In ihrer Keynote betonte Prof. Aylin Bicakci von der FH Kiel die zentrale Rolle der Leistungselektronik für die Energiewende. Sie erklärte, dass die Leistungselektronik für die Umwandlung von elektrischer Energie, von Solar- oder Windkraftanlagen bis hin zum Endverbraucher im Niederspannungsnetz, unerlässlich sei.

Prof. Maximilian Schüler (THL) hob die Potenziale der Landwirtschaft in Bezug auf erneuerbare Energien hervor. Schüler erläuterte, dass die Landwirtschaft von fossilen Ressourcen abhängig und damit nicht nachhaltig sei. Gleichzeitig sei sie prädestiniert dafür, erneuerbare Energien auf Basis existierender Technologien einzusetzen. So wird in der Erntezeit, die auf einem Hof wenige Tage, über das Land gesehen etwa einen Monat dauert, viel Energie benötigt, die im restlichen Jahr aus Sonne und Wind gesammelt und in Wasserstoffspeichern gespeichert werden könnte.

Ein weiteres Forschungsfeld stellte Prof. Hinrich Uellendahl von der Hochschule Flensburg vor: Uellendahl stellte das biologische und chemische Verfahren zur Methanisierung von Wasserstoff über Katalysatoren vor und berichtete von innovativen Anlagen aus Dänemark, die diese Technik bereits einsetzen.

Auch auf maritimer Ebene spielt Wasserstoff eine bedeutende Rolle. Prof. Julian Jepsen vom Helmholtz-Zentrum Hereon gab einen Überblick über aktuelle Wasserstoff-Forschungsprojekte und stellte ein Forschungsschiff vor, das derzeit noch gebaut wird. Es soll zukünftig mit Wasserstoff betrieben werden. Florian Schieker vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) berichtete detailliert über das Schiff.

Moritz Jens von der FH Kiel präsentierte in seinem Beitrag den Einsatz von künstlicher Intelligenz zur Optimierung der maschinellen Schweißung von Wasserstoff-Druckgasspeichern. Diese Technologie könne die Produktionseffizienz erheblich steigern und die Sicherheit der Speicher verbessern.

Frank Meisel von der CAU Kiel und dem CAPTN Energy Projekt stellte die Ergebnisse von Interviews mit Industrievertretern zur Nutzung erneuerbarer Energien in der maritimen Wirtschaft vor. Während einige Unternehmen klare Regulierungen forderten, um mehr Investitionssicherheit zu erhalten, befürchteten andere Einschränkungen durch zusätzliche Auflagen.

Prof. Christian Buchmüller von der FH Westküste ging auf die rechtlichen Herausforderungen beim Import von nachhaltig erzeugtem Wasserstoff und dessen Derivaten ein. In seinen Gesprächen mit australischen Regierungsvertretern wurde deutlich, dass die EU-Vorgaben zur Sicherstellung der Nachhaltigkeit in vielen Ländern nur schwer umsetzbar sind. In Australien konzentriere man sich nun verstärkt auf den Export von grünem Stahl, was möglicherweise eine direkte Folge dieser Problematik sei.

Die rechtlichen und wirtschaftlichen Rahmenbedingungen standen auch bei Sina Freitag und Lena Thiessen von der FH Westküste im Fokus. Während Freitag die zentralen Punkte des Wasserstoffbeschleunigungsgesetzes erläuterte, analysierte Thiessen die Kompetenzen, die für die Wasserstoffwirtschaft erforderlich sind, und untersuchte, wie diese zur Lösung des Fachkräftemangels genutzt werden könnten.

Zum Abschluss des Symposiums erhoben Dr. Frank Schiller und Volker Köhne in einem Workshop ein Meinungsbild der Teilnehmer zu den Stärken, Schwächen, Chancen und Risiken der Wasserstoffforschung in Schleswig-Holstein.

HY.SH Das Landeskompetenzzentrum Wasserstoffforschung Schleswig-Holstein
Das Landeskompetenzzentrum Wasserstoffforschung Schleswig-Holstein (HY.SH) hat seine Arbeit am 01. Oktober 2021 unter dem Dach der Gesellschaft für Energie und Klimaschutz Schleswig-Holstein GmbH (EKSH) aufgenommen. Finanziert wird diese neu gegründete, zentrale Anlaufstelle für Wasserstoffforscher*innen in Schleswig-Holstein vom Ministerium für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur Schleswig-Holstein (MBWFK).

Die Veranstaltung wurde durch die EKSH mit Mitteln aus dem „H2Fonds – Zeit für Wasserstoff“ finanziert, die den Hochschulen des Landes vom MBWFK zur Verfügung gestellt werden.

(nach oben)


Ohne Mücke kein Kakao – wie die Biodiversität zu retten ist

Biodiversität ist viel mehr als die Vielfalt an Arten. Sie umfasst auch die Vielfalt an Ökosystemen und die genetische Vielfalt der Organismen. Also sind wir, die Menschen, natürlich ebenfalls Teil der Biodiversität der Erde. Allerdings verschlechtert sich der Zustand der Biodiversität zunehmend.

Über den Zustand der Biodiversität, Gründe des Artenschwundes und Ansätze für Lösungen, diese zu bewahren, spricht Judith Reise, Expertin für Biodiversität, im neuen Podcast „Wenden bitte!“ des Öko-Instituts.

Zum Podcast „Ist die Biodiversität noch zu retten?“ des Öko-Instituts [https://www.oeko.de/podcast/ist-die-biodiversitaet-noch-zu-retten]

Zahlreiche Abhängigkeiten im Ökosystem
Die Abhängigkeiten im Ökosystem sind zahlreich und mitunter auch unbekannt. „Wie wichtig der Beitrag einzelner Arten für das Ökosystem ist, zeigt sich am Beispiel der von vielen gehassten Mücke“, so Reise im Podcast, „denn ohne die Gallmücke hat es der Kakaobaum schwer. Mit ihrer geringen Größe ist sie fast die einzige Mückenart, welche die Schokoladenblüte bestäuben kann. Somit gäbe es ohne Mücke vielleicht keine Schokolade mehr.“

Die häufigsten Ursachen für den Rückgang der Biodiversität wie Landnutzungsänderungen, Verschmutzung oder Klimawandel sind menschengemacht. Hier unterscheidet die Wissenschaft direkte und indirekte Faktoren, die den Zustand der Biodiversität bedrohen.

Direkte Auswirkungen auf unsere Ökosysteme haben vor allem intensive Land-, Fisch- und Forstwirtschaft. Zum einen werden dort Stoffe wie Pestizide, Insektizide oder auch Dünger eingebracht. Daneben werden beispielsweise Wälder zugunsten von Ackerflächen gerodet und die Infrastruktur von Straßen und Siedlungen breitet sich zunehmend aus, wodurch Wälder und andere Ökosysteme verschwinden. Auch die Bejagung und Überfischung können teilweise zur Ausrottung von Tierarten führen.
Zudem belastet das Einbringen neuer, teilweise invasiver Arten bestehende Ökosysteme. Mit dem Klimawandel gehen höhere Temperaturen, steigende Wasserstände oder Wassermangel einher. Das führt dazu, dass bestimmte Arten ihren Lebensraum verlieren, ausweichen oder sich anpassen müssen oder ihre Lebensgrundlage sogar gänzlich verlieren.

Daneben gibt es indirekte Treiber wie Konsum, Politik und Wirtschaft. Wir haben in Deutschland zum Beispiel eine höhere Besteuerung von pflanzlichen im Vergleich zu tierischen Produkten. Bio-Produkte sind preisintensiv, Flugreisen in Anbetracht der verursachten Emissionen sehr günstig.

Ökosysteme aktiv schützen: Weniger ist mehr (Vielfalt)
Umso wichtiger sind geeignete Maßnahmen, um Biodiversität zu fördern und zu schützen. Landwirtschaft sollte so angepasst sein, dass sie Naturräume nicht über ihre ökologischen Grenzen hinaus beansprucht. So sollten etwa Fruchtfolgen entsprechend angepasst sein, der Fokus auf Bio-Landwirtschaft liegen, die Intensität der Tierhaltung überdacht und das Einbringen von Stoffen auf ein Minimum reduziert werden. Kleinräumige Strukturen wie Hecken sowie Blühstreifen, Brachen und Gewässer sind als Lebensräume schützens- und wünschenswert. Verbraucher*innen können in ihrer Ernährung verstärkt auf pflanzliche statt auf tierische Produkte setzen. Eine gute Orientierung beim Lebensmitteleinkauf bieten regionale Produkte und die Biosiegel-Kennzeichnung, da beim Bioanbau auf Pestizide verzichtet wird. In der Forstwirtschaft bedarf es eines aktiven Waldumbaus. Strukturen wie Baumhöhlen und Totholz sind empfehlenswert. Hier ist eine langfristig angelegte Planung im Waldmanagement notwendig, da Änderungen im Wald viel Zeit benötigen.

Politische Rahmenbedingungen für den Biodiversitätsschutz
„Wir brauchen aktiveren Arten-, Land- sowie Meeresschutz, der seitens der Politik gefördert werden und beteiligte Gruppen wie Landwirt*innen mitnehmen muss“, fordert Judith Reise, Senior Researcher im Bereich Energie & Klimaschutz am Öko-Institut. „Hier braucht es unter anderem mehr zielgerichtete Förderung und Personal, um entsprechende Maßnahmen auf- und umzusetzen.“

Ein konkretes Beispiel auf EU-Ebene ist das sogenannte Nature Restoration Law, welches diesen Sommer verabschiedet wurde. Damit verpflichten sich die Mitgliedstaaten bis 2030 zur Renaturierung von 20 Prozent der aktuell geschädigten Ökosysteme; bis 2050 sollen alle betroffenen Land- und Meeresökosysteme mit entsprechenden Maßnahmen versehen sein, die zu ihrer Erholung führen. Zu den Maßnahmen gehören unter anderem die Wiedervernässung von Mooren, das Wiederherstellen von Flussauen, der Umbau von monotonen und strukturarmen Wäldern hin zu vielfältigeren Mischwäldern.

Wissen statt Alltagsberatung
Der Podcast „Wenden bitte!“ des Öko-Instituts richtet sich an alle mit politischem und ökologischem Interesse aus Politik, Wissenschaft, Medien, NGOs und Öffentlichkeit. Den Podcast moderieren Mandy Schoßig, Leiterin Öffentlichkeit & Kommunikation, und Hannah Oldenburg, Referentin für digitale Kommunikation & Social Media am Öko-Institut. Rund eine Stunde lang sprechen sie mit einem Experten beziehungsweise einer Expertin aus dem Öko-Institut über anstehende Nachhaltigkeitstransformationen – genug Zeit für die „Langstrecke der Umweltpodcasts“. Die Spezial-Folgen greifen tagesaktuelle politische und gesellschaftliche Themen auf.

Alle Staffeln und Episoden des Podcasts auf www.oeko.de/podcast

Wissenschaftliche Ansprechpartner:
Ansprechpartnerin am Öko-Institut
Judith Reise
Wissenschaftliche Mitarbeiterin im Institutsbereich
Energie & Klimaschutz
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-310
E-Mail: j.reise@oeko.de

Weitere Informationen:
https://www.oeko.de/podcast/ist-die-biodiversitaet-noch-zu-retten
Podcast-Episode 6 „Ist die Biodiversität noch zu retten?“ mit Judith Reise

(nach oben)


Vom Wert des Mülls

Der Exzellenzcluster ROOTS veröffentlicht Booklet über die „Wurzeln der Kreislaufwirtschaft“.

Wachsende Abfallberge, schwindende Ressourcen und globale Umweltverschmutzung stellen uns heute vor Herausforderungen ungekannten Ausmaßes. Vor diesem Hintergrund steigt das Interesse an nachhaltigen und ressourcenschonenden Konzepten. Oft werden dabei (vermeintlich) tradierte Herangehensweisen aus vergangenen Zeiten als Lösung gepriesen. Doch was wissen wir wirklich über die Wurzeln der Kreislaufwirtschaft? Bei den Forschungen des Exzellenzclusters ROOTS an der Christian-Albrechts-Universität zu Kiel über Verknüpfungen von Gesellschaft, Umwelt und Natur in vergangenen Welten spielt Abfall in seinen verschiedensten Formen immer wieder eine große Rolle. Jetzt hat das Forschungsnetzwerk diesem Thema ein eigenes Booklet gewidmet. „Wertvolle Abfallgeschichten – Wurzeln der Kreislaufwirtschaft“ richtet sich an alle interessierten Menschen und ist auf Deutsch und Englisch sowohl als gedruckte Broschüre als auch als Online-Open-Access-Veröffentlichung verfügbar.

Müll aus vielen Blickwinkeln
Insgesamt 24 Autorinnen und Autoren aus verschiedenen geistes- und naturwissenschaftlichen Disziplinen haben zu diesem Booklet beigetragen. Sie beschäftigen sich in 14 Beiträgen mit Fragen wie: Was ist eigentlich Abfall? Was macht aus Alltagsgegenständen in einigen Fällen wertlosen Müll, in anderen Fällen heiß begehrte Objekte? Wie hat sich die Entsorgung von Abfall über die Jahrtausende gewandelt? Was können wir aus dem Umgang mit Abfall in der Vergangenheit lernen? Der zeitliche Rahmen erstreckt sich dabei von der Bronzezeit über die Antike und das Mittelalter bis in die Gegenwart.

In den einzelnen Beiträgen gewähren die Forschenden außerdem Einblicke in das breite Spektrum der Methoden, das der Forschung zur Vergangenheit heute zur Verfügung steht – und bei dem Müll als Informationsquelle oft eine wichtige Rolle spielt.

Die ausgewählten Geschichten orientieren sich lose an Forschungsprojekten der Autorinnen und Autoren. Sie führen aber auch die verschiedenen Sichtweisen der beteiligten Fächer zusammen.

Unterhaltsame, überraschende und lehrreiche Einsichten
„Bemerkenswert ist auch, dass alle akademischen Ebenen – von der Masterstudentin bis zur Professorin – vertreten sind. Das Ergebnis dieser teilweise sehr unterschiedlichen Perspektiven auf scheinbar Alltägliches führt zu unterhaltsamen, manchmal überraschenden und oft lehrreichen Einsichten, die durchaus gewollt zum Nachdenken über unsere heutige Welt anregen“, sagt der Archäologe Dr. Jens Schneeweiß vom Leibniz-Zentrum für Archäologie am Standort Schleswig (LEIZA-ZBSA). Er ist Mitglied im Exzellenzcluster ROOTS und Herausgeber des Booklets.

„Wertvolle Abfallgeschichten“ ist mittlerweile das vierte Booklet des Exzellenzclusters ROOTS, das wissenschaftliche Erkenntnisse der archäologischen und historischen Forschung für aktuelle Diskussionen nutzbar macht. Die ersten drei Bände beschäftigen sich mit Pandemien gestern und heute, mit Wegen und Mobilität sowie mit Urbanem Design.

„Nur wer Vergangenes versteht, wird die Gegenwart nachhaltig gestalten und dauerhafte zukünftige Perspektiven entwickeln können. Als Exzellenzcluster möchten wir zu diesem Verständnis mit aktuellen Forschungsergebnissen beitragen“, erklärt ROOTS-Sprecher Professor Dr. Johannes Müller von der CAU Kiel das Konzept hinter der Publikationsreihe.

Das Booklet „Wertvolle Abfallgeschichten – Wurzeln der Kreislaufwirtschaft“ ist ab sofort beim Wissenschaftsverlag Sidestone Press unter https://www.sidestone.com/books/wertvolle-abfallgeschichten kostenlos herunterladbar. Gedruckte Exemplare sind – so lange der Vorrat reicht – ebenfalls kostenlos direkt beim Exzellenzcluster ROOTS an der Uni Kiel unter office@roots.uni-kiel.de zu beziehen.

Wissenschaftliche Ansprechpartner:
PD Dr. Jens Schneeweiß
Leibniz-Zentrum für Archäologie am Standort Schleswig/Exzellenzcluster ROOTS
Tel: +49 4621 813 483
jschneeweiss@roots.uni-kiel.de

Originalpublikation:
Wertvolle Abfallgeschichten – Wurzeln der Kreislaufwirtschaft, hg. von Jens Schneeweiß.
Sidestone Press, Leiden (2024).
Paperback ISBN: 9789464262995
Digital: https://doi.org/10.59641/c1f7z8a9b0

Weitere Informationen:
http://www.cluster-roots.org/de Der Exzellenzcluster ROOTS

(nach oben)


Wasserstoff als der Energieträger der Zukunft? Experten diskutieren beim Energiesymposium der Hochschule Weserbergland

Die Hochschule Weserbergland (HSW) hatte am 12. September 2024 zu einem hochkarätig besetzten Energiesymposium in den Kaisersaal des zedita.digitalhub im Bahnhof Hameln eingeladen. Unter dem Motto „Was kommt nach dem Hype? Status und regionale Nutzungspotenziale der Wasserstoffwelt“ diskutierten hochkarätige Expertinnen und Experten aus Technologieunternehmen, Forschungseinrichtungen und Kommunen über aktuelle Entwicklungen und Potenziale der Wasserstoffwirtschaft. Die Veranstaltung wurde von Prof. Dr. Anke Weber moderiert.

In seiner Eröffnungsrede betonte der aus der Energiewirtschaft kommende Hochschulpräsident Prof. Dr. Peter Britz die wichtige Rolle des Wasserstoffs als zentralen Baustein für das Gelingen der Energiewende und das Erreichen einer klimaneutralen Wirtschaft. „Unser Ziel ist es, einen Blick hinter den Hype zu werfen und zu analysieren, welche Fortschritte wir bereits gemacht haben und welche Schritte nun notwendig sind, um die Potenziale des Wasserstoffs effizient und nachhaltig zu nutzen“, so Britz. Der HSW-Präsident wies zudem darauf hin, dass der Landkreis Hameln-Pyrmont und die umliegenden Regionen ein enormes Potenzial bieten, um erneuerbare Energien vor Ort zu nutzen und von der Wasserstoffwirtschaft zu profitieren. „Unsere Region könnte ein Modellfall für die erfolgreiche Umsetzung von Wasserstofflösungen werden“, so Britz, der gemeinsam mit den beiden Energiewirtschaftsprofessoren Prof. Dr. Tim Schröder, Dekan des Fachbereichs Wirtschaft, und Prof. Dr. Jörg-Rafael Heim, Leiter des Interdisziplinären Energieinstituts an der HSW, zu der Veranstaltung eingeladen hatte.

Es folgten Vorträge von hochkarätigen Referentinnen und Referenten. Die Keynote der Veranstaltung hielt Frank Stührenberg, CEO von Phoenix Contact und seit vielen Jahren eine prägende Persönlichkeit in der Welt der nachhaltigen Technologien. In seinem Vortrag zeigte Stührenberg auf, welche Technologien bereits heute den Grundstein für die Welt von morgen legen und wie Wasserstoff in dieses Zukunftsbild passt. Als beispielhaftes Projekt stellte Stührenberg das Konzept der „All Electric Society“ vor, in der eine Welt angestrebt wird, deren gesamter Energiebedarf aus regenerativen Quellen gedeckt werden kann.

Im Anschluss gab Prof. Dr. Dr. Tanja Kneiske von der TU Berlin und dem Fraunhofer-Institut für Integrierte Energieinfrastruktur IEG einen Überblick über bestehende und zukünftige Wasserstoffinfrastrukturen und sprach Empfehlungen für regionale Akteure aus, wie sie sich auf den Wandel hin zu einer Wasserstoffwirtschaft vorbereiten können. Thomas Bexten von der Trianel GmbH stellte das Wasserstoffzentrum Hamm als Grundstein für eine nachhaltige Wasserstoffwirtschaft in Westfalen vor, während Anke Unverzagt von der Klimaschutzstelle der Stadt Hannover den Wärmeplan der Stadt präsentierte und die Rolle von Wasserstoff in der urbanen Energiewende thematisierte.

In weiteren Vorträgen referierte Rechtsanwalt Dr. Christoph Sieberg über die rechtlichen Rahmenbedingungen und Florian Scheffler vom Fraunhofer Institut für Schicht- und Oberflächentechnik über techno-ökonomische Bewertungen und Importszenarien von grünem Wasserstoff.

Den Abschluss der gelungenen Veranstaltung bildete schließlich eine Podiumsdiskussion mit allen Vortragenden. In dieser diskutierten diese unter anderem über Anwendungsfelder für Wasserstoff in Niedersachsen, insbesondere im Weserbergland, und gingen explizit auf zu klärende Fragen und notwendige Stellschrauben ein, um die Potenziale von grünem Wasserstoff in Zukunft effektiv nutzen zu können.

„Ihre wertvollen Beiträge haben uns nicht nur einen tieferen Einblick in aktuelle Themen und Herausforderungen der Energiewirtschaft gegeben, sondern auch neue Perspektiven aufgezeigt, die uns sicherlich inspirieren werden“, so Britz zum Abschluss des erfolgreichen Symposiums.

Weitere Informationen:
http://www.hsw-hameln.de

(nach oben)


Medizinische KI-Forschung: Die meisten Publikationen kommen aus Asien – aber qualitativ überzeugen andere Regionen mehr

Künstliche Intelligenz verändert die Medizin, doch die Fortschritte in der biomedizinischen KI-Forschung sind global ungleich verteilt, zeigt eine neue Studie. Diese Ungleichheit könnte den gerechten Zugang zu Gesundheit in bestimmten Regionen der Welt behindern.

Während bei der Gesamtzahl der Publikationen in der biomedizinischen KI-Forschung Asien führt, gehen 70 Prozent der hochqualitativen Publikationen auf das Konto nordamerikanischer und europäischer Forschender. Als hochqualitativ gelten Manuskripte, die in renommierten biomedizinischen Fachzeitschriften erscheinen und besonders häufig zitiert werden. Zu diesen Ergebnissen kommen die Ökonomen Prof. Dr. Marc Lerchenmüller und Dr. Leo Schmallenbach von der Universität Mannheim in ihrer neuesten Studie. Diese wurde in der renommierten Fachzeitschrift Nature Communications diese Woche veröffentlicht. Co-Autor der Studie ist Prof. Dr. Dr. Till Bärnighausen von der Universität Heidelberg.

Für ihre Studie untersuchten die Forscher knapp 400.000 biomedizinische Publikationen aus den Jahren 2000 bis 2022. Ein Teil davon betrifft klinische Studien, die direkt an Patient*innen durchgeführt werden mit dem Ziel, neue Medikamente zu entwickeln. Andere fokussieren sich auf diagnostische KI-Anwendungen, die beispielsweise automatisiertes Auslesen von MRT-Bildern ermöglichen oder das Auswerten von HIV-Tests mit Hilfe eines Tablets möglich machen – was unter anderem im ländlichen Südafrika von hoher Bedeutung ist.

Ihre Analyse zeigt, dass mit 45 Prozent fast die Hälfte aller Veröffentlichungen aus den USA und aus China stammen, wobei im Jahr 2020 China die USA überholte. Der größte Anteil an hochqualitativer Forschung im untersuchten Zeitraum stammt aus den USA, Australien und einigen europäischen Ländern. Auf Lateinamerika und Afrika entfallen hingegen weniger als zwei Prozent der Veröffentlichungen in diesen hochrangigen Publikationen.

„Künstliche Intelligenz hat das Potential, die Gesundheitsversorgung weltweit zu verändern und den Zugang zu Gesundheit zu demokratisieren“, sagt Erstautor Schmallenbach. „Unsere Daten weisen allerdings auf eine Polarisierung der KI-Forschung hin, die dazu führen könnte, dass diese Demokratisierung gar nicht oder nur sehr verzögert eintritt“, so Schmallenbach weiter.

„Wir sehen auch, dass der Anteil an Qualitätsbeiträgen aus Europa über die Zeit etwas abnimmt“, erläutert Co-Autor Lerchenmüller, Juniorprofessor für Technologische Innovation und Management-Wissenschaften. „Das zeigt, dass wir uns in einem sehr intensiven Wettbewerb befinden“.

Forschung über die Grenzen hinweg
Die Studie zeigt ferner, dass internationale Kooperationen wirkungsvollere Forschungsergebnisse erzielen als national ausgerichtete Forschung und eher zu Projekten führen, die klinische Anwendungen finden oder Folgestudien beeinflussen. Auch hier zeigen sich regionale Unterschiede: Während in Asien und in Nordamerika die Forschenden vorzugsweise mit Kolleg*innen aus dem gleichen Land zusammenarbeiten, ist Europa offener für internationale Kollaborationen und beteiligt sich aktiver daran. Afrika und Lateinamerika nehmen insgesamt nur im geringen Ausmaß an Forschungsvorhaben in der biomedizinischen KI-Forschung teil, und könnten insbesondere von Kollaborationen, die über die Grenzen hinweg stattfinden, profitieren. In den vergangenen vier Jahren stagniert die internationale Zusammenarbeit jedoch in allen Regionen der Welt und nimmt tendenziell sogar ab.

„Gerade in diesem wichtigen und zukunftsträchtigen Bereich der Lebenswissenschaften ist die zunehmend national ausgerichtete Forschung eine bedenkliche Entwicklung“, sagt Lerchenmüller. Die Studienautoren sind überzeugt, dass die KI ihr Potential in der medizinischen Versorgung mit Hilfe von geographischer Integration und internationaler Zusammenarbeit besser ausschöpfen könne.

Ein YouTube-Kurzvideo von Research Square zu dieser Veröffentlichung finden Sie (in englischer Sprache) hier: https://www.youtube.com/watch?v=zQkx5HSNvbc

Wissenschaftliche Ansprechpartner:
Dr. Leo Schmallenbach
Habilitand am Lehrstuhl für Organisation und Innovation
Universität Mannheim
Tel. +49-621-181-1600
E-Mail: schmallenbach@uni-mannheim.de

Originalpublikation:
Schmallenbach, L., Bärnighausen, T., Lerchenmüller M.J. (2024). The global geography of Artificial Intelligence in life science research. Nature Communications: https://www.nature.com/articles/s41467-024-51714-x

Anhang
graphical abstract

(nach oben)


Erschwingliches Bioprinting: Gewebe auf Knopfdruck

Mit einem 3D-Drucker aus dem Elektromarkt ein lebendiges Gewebekonstrukt drucken? Bisher war dies unmöglich. Bioprinting erforderte teure Spezialgeräte. Forschenden ist es jetzt gelungen, einen einfachen 3D-Drucker so zu modifizieren, dass er biologische Strukturen auf Knopfdruck erstellen kann. Das ist eine Chance für kleine Labore, auch in diesem Bereich zu forschen.

München, den 13. September 2024 – „Tissue Engineering ist eine Zukunftstechnologie“, davon ist Benedikt Kaufmann überzeugt. Künstlich hergestelltes, funktionsfähiges Gewebe – beispielsweise Knorpel, Knochen oder Muskelgewebe – bietet potentiell eine Fülle von Anwendungsmöglichkeiten: beispielsweise in der Pharmakologie, wo Nutzen und Nebenwirkungen von Medikamenten untersucht werden müssen; oder in der Medizin zur Versorgung von Patienten mit Gewebeschäden. Doch die Herstellung von komplexem Gewebe, das dieselben Eigenschaften hat wie natürliches, ist schwierig.

Seit einigen Jahrzehnten nutzen Forschende verschiedenste 3D-Druck-Techniken, um organische Strukturen aus Biomaterialien und Zellen herzustellen, die dann durch gezieltes Training für ihre spätere Funktion vorbereitet werden sollen. „Doch trotz aller Erfolge sind wir noch weit von unserem Ziel entfernt, maßgeschneidertes Gewebe im größeren Maßstab herzustellen. Um das Tissue Engineering weiterzuentwickeln, müssten Forschende auf der ganzen Welt kooperieren, Wissen generieren und teilen“, betont der Bioingenieur am Centrum für Angewandtes Tissue Engineering und Regenerative Medizin (CANTER) der Hochschule München.

Von der Idee zum fertigen Produkt
Bisher scheitert die Forschung mitunter schon – bevor sie begonnen hat – am Budget: Bioprinter, mit denen sich dreidimensionale Zellstrukturen herstellen lassen, kosten mehrere zehntausend Euro. Für kleine Labore oder Institute sind sie oft unerschwinglich. Im Rahmen seiner Promotion hat Kaufmann jetzt eine kostengünstige Alternative entwickelt: Zusammen mit einem interdisziplinären Team am CANTER in Kooperation mit der Technischen Universität München hat er einen wenige hundert Euro teuren 3D‑Drucker aus dem Elektromarkt, mit dem normalerweise Prototypen und Modelle aus Kunststoff hergestellt werden, so modifiziert, dass sich mit ihm lebendes Gewebe drucken lässt. Die Open-Source-Bauanleitung steht jetzt jedermann kostenlos zur Verfügung.

Entscheidende Faktoren: Wärme und Feuchtigkeit
„Die größte Herausforderung lag in der Schaffung geeigneter Umgebungsbedingungen,“ erinnert sich Kaufmann: Für die Verarbeitung von Proteinen und Zellen benötigt man neben hoher Luftfeuchtigkeit auch gleichmäßige 37 Grad Celsius. Nach ausgiebigen Tests entschieden sich die Forschenden für eine effiziente und kostengünstige Lösung: Heizfolien, an das Alugehäuse des Druckers geklebt und gesteuert durch einen Mikrocontroller, heizen den Innenraum auf die gewünschte Temperatur auf. Dabei erzeugt wassergetränkter Zellstoff eine Luftfeuchtigkeit von über 90 Prozent. Außerdem ersetzten die Forschenden die Druckplattform des Druckers, auf der schichtweise Strukturen aufgebaut werden: Bei handelsüblichen Druckern, die Kunststoff verarbeiten, ist diese Platte aus Metall. Der modifizierte 3D-Printer verfügt über eine Aufhängung, an der sich ein Glasplättchen befestigt lässt. Auf dieses lichtdurchlässige Plättchen können Biomaterialien und Zellen direkt aufgedruckt und anschließend hochauflösend unter dem Mikroskop untersucht werden.

Der sehr kleine Drucker arbeitet mit maskierter Stereolithographie, einem besonders zellschonenden Verfahren, bei dem Licht aus LEDs nach einem vorprogrammierten Muster durch ein Flüssigkristall-Display – ähnlich dem eines Handys oder Computer-Monitors – auf das mit einem gelatineartigen Hydrogel benetzte Glasplättchen projiziert wird. Hierbei werden gezielt einzelne Pixel des Displays aktiviert und sorgen so dafür, dass sich die im Hydrogel befindlichen Proteine exakt an den gewünschten Stellen vernetzen und aushärten – Schicht für Schicht entsteht so ein dreidimensionales Gebilde.

Maßgeschneiderte Strukturen
Neben den professionellen Laborgeräten im CANTER-Labor der Hochschule München wirkt der umgerüstete 3D-Drucker fast zwergenhaft. Doch die Ergebnisse, die er liefert, stehen denen der Großgeräte nicht nach: „Unsere Versuche haben gezeigt, dass sich mit dem modifizierten 3D-Drucker organische Strukturgerüste mit unterschiedlicher Steifigkeit herstellen lassen – das ist wichtig, weil beispielsweise für Knochensubstanz eine höhere Härte erforderlich ist als für Muskelgewebe“, so Kaufmann. Mittlerweile sei es auch gelungen, Stammzellen während des Druckvorgangs direkt in die Strukturen zu integrieren.

Für Teams von Forschenden, die bisher keine Möglichkeit hatten, selbst Gewebekonstrukte herzustellen, sind das gute Nachrichten: Sie können jetzt dank der im Netz verfügbaren Bauanleitung einen einfachen kommerziell erhältlichen 3D-Drucker zum Bioprinter umbauen. „Ingenieurstechnisches Know-how ist dafür nicht erforderlich,“ betont Kaufmann. Damit sei der Weg auch für kleine Labore frei, Erfahrung mit der Herstellung, Charakterisierung und Optimierung von künstlichem Gewebe zu sammeln, Wissen zu generieren und zu teilen, um das Tissue Engineering weiterzuentwickeln. Selbst in Schulen können mit dem modifizierten Drucker erste Erfahrungen im 3D-Druck von Biomaterialien gesammelt werden.

Projekt
Das Projekt führte Benedikt Kaufmann im Team mit Matthias Rudolph, Markus Pechtl, Geronimo Wildenburg, Hauke Clausen-Schaumann und Stefanie Sudhop vom Centrum für Angewandtes Tissue Engineering und Regenerative Medizin – CANTER, Hochschule München durch. Unterstützt von Oliver Hayden vom Heinz Nixdorf Lehrstuhl für Biomedizinische Elektronik, Technische Universität München.

Benedikt Kaufmann
Benedikt Kaufmann ist seit 2018 wissenschaftlicher Mitarbeiter an der Hochschule München und promoviert kooperativ mit der Technischen Universität München. Er erwarb seinen Bachelor in Bioingenieurswesen und seinen Master in Mikro- und Nanotechnik an der HM. Seine Forschungsinteressen umfassen die Weiterentwicklung und Optimierung von lichtbasierten Bioprinting-Technologien und die Entwicklung von druckbaren Biomaterialien mit dem Fokus auf deren Zellverträglichkeit.

Wissenschaftliche Ansprechpartner:
Gerne vermitteln wir einen Interviewtermin mit Benedikt Kaufmann.
Kontakt: Christiane Taddigs-Hirsch unter 089 1265-1911 oder per Mail unter presse@hm.edu

Originalpublikation:
Benedikt K. Kaufmann, Matthias Rudolph, Markus Pechtl, Geronimo Wildenburg, Oliver Hayden, Hauke Clausen-Schaumann, Stefanie Sudhop, mSLAb – An open-source masked stereolithography (mSLA) bioprinter, HardwareX, Volume 19, 2024, e00543, ISSN 2468-0672. https://doi.org/10.1016/j.ohx.2024.e00543

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S2468067224000373?via%3Dihub, Plan für den Umbau handelsüblicher Geräte zu Bioprintern
https://data.mendeley.com/datasets/kxt5sks9zs/1/files/8a2b5d6e-694a-470b-8751-3d… Videoanleitung
https://data.mendeley.com/datasets/kxt5sks9zs/1 Data Repository

(nach oben)


Neue Methode im Kampf gegen ewige Chemikalien

Forschende der ETH Zürich haben eine neue Methode entwickelt, um eine gefährliche Untergruppe von PFAS, sogenannte PFOS, abzubauen. Mit Hilfe von Nanopartikeln und Ultraschall könnte die Piezokatalyse zukünftig eine effektive Alternative zu bestehenden Verfahren bieten.
Feuerlöschschäume, Antihaft-Kochgeschirr, wasserabweisende Textilien und Pestizide haben eines gemeinsam: Sie alle enthalten sogenannte PFAS (per- und polyfluorierte Alkylsubstanzen) – von Menschen geschaffene Chemikalien, die nicht von selbst auf natürliche Weise abgebaut werden. Kein Wunder also, dass PFAS mittlerweile Böden und Gewässer verunreinigen und auch im Körper von Mensch und Tier nachweisbar sind. Die Gefahren sind bekannt: Die ewigen Chemikalien können unter anderem die Leber schädigen, Hormonstörungen auslösen und Krebs verursachen.
Forschende aus der Gruppe von Salvador Pané i Vidal, Professor am Institut für Robotik und Intelligente Systeme, haben eine neue Methode entwickelt, um eine Untergruppe der PFAS, die PFOS (Perfluoroctansulfonate), abzubauen. PFOS sind aufgrund ihrer Toxizität mittlerweile stark eingeschränkt oder sogar verboten. «Das Hauptproblem besteht darin, dass die Moleküle aus langen Kohlenstoffketten bestehen, die von Fluoratomen umgeben sind. Diese Kohlenstoff-Fluor-Bindung ist so stark, dass man sehr viel Energie braucht, um sie aufzubrechen», sagt Andrea Veciana, Doktorandin bei Pané i Vidal.

Moleküle mit Ultraschall und Nanopartikeln abbauen
Um die PFOS-Moleküle aufzubrechen und damit im Wasser abzubauen, setzten die Forschenden erstmals die Piezokatalyse ein. Piezo bezieht sich auf die Piezoelektrizität, auf eine elektrische Spannung, die bei mechanischer Verformung entsteht. Katalyse meint die Beschleunigung einer chemischen Reaktion durch geeignete Substanzen. «Wir haben Nanomaterialien entwickelt, die piezoelektrisch sind. Mit blossem Auge sieht dieses Material ein bisschen wie Sand aus», sagt Veciana. Im Ultraschallbad laden sich diese Partikel elektrisch auf und wirken als Katalysator. Pané i Vidal ergänzt: «Es ist diese elektrische Ladung, die die ganze Kette von Reaktionen in Gang setzt und die PFOS-Moleküle Stück für Stück abbaut. Deshalb nennt man die Nanopartikel piezoelektrisch.»
Um die PFOS-Konzentration in ihren Proben messen zu können, arbeiteten die Forschenden mit Samy Boulos, einem Analysespezialisten des Labors für Lebensmittelbiochemie, zusammen. Die Forschenden konnten mit einem Massenspektrometer nachweisen, dass 90.5 Prozent der PFOS-Moleküle abgebaut wurden. «Man muss allerdings hinzufügen, dass wir mit einer sehr hohen Konzentration von vier Milligramm pro Liter gearbeitet haben», sagt Veciana. «In der Natur, zum Beispiel in Seen und Flüssen liegt die PFOS-Konzentration bei weniger als einem Mikrogramm pro Liter. Je geringer die Konzentration, desto länger dauert es, bis die PFOS abgebaut sind.» Einige Technologien, die derzeit entwickelt werden, konzentrieren das Wasser zuerst und zerstören die PFOS erst anschliessend. Dies wäre auch bei der Piezokatalyse ein wichtiger Schritt, den man in einem konkreten Anwendungsfall wie dem Abwasser der chemischen Industrie umsetzen müsste.

Besser als bisherige Methoden
Das Potenzial der neuen Methode wird deutlich, wenn man die bisherigen Möglichkeiten zum Abbau von PFAS betrachtet. «Eine Methode ist die thermische Zersetzung, die mit über 1000 Grad Celsius sehr energieintensiv ist», sagt Veciana. PFAS können auch durch Photokatalyse abgebaut werden. Das ist ein ähnlicher Prozess wie die Piezokatalyse, aber statt mechanischer Energie wird Licht zur Aktivierung des Katalysators verwendet. Das Hauptproblem dieser Methode: In der Praxis geht es darum, Abwasser zu behandeln. Dieses ist trüb und nur wenig Licht kann es durchdringen. Veciana nennt eine dritte Methode: «Man kann auch die Absorption nutzen. Dabei nimmt man eine Art Schwamm, der die Schadstoffe aus dem Wasser aufnimmt. Aber damit verschiebt man das Problem von einem Ort zum anderen. Denn nun muss eine Lösung für den mit PFAS-durchsetzten Schwamm gefunden werden.»
Die Nachteile der bestehenden Methoden waren mit ein Grund für die ETH-Forschenden, nach einem neuen Weg zu suchen, um PFAS abzubauen. Die Piezokatalyse hat den Vorteil, dass sie mit verschiedenen mechanischen Energiequellen funktioniert. «Wenn Wasser in Kläranlagen gereinigt werden muss, und ohnehin schon Turbulenzen im Wasser vorhanden sind, könnte man diese Energie vielleicht nutzen, um PFAS im Wasser abzubauen», sagt Veciana.

Gemeinsam gegen PFAS
Was den Forschenden im Labor mit Wasserproben von 50 Millilitern gelungen ist, lässt sich leider noch nicht in die Praxis übertragen. «Die Skalierbarkeit unserer Methode ist eine der grössten Herausforderungen», sagt Pané i Vidal. «Es ist uns aber gelungen zu zeigen, dass die Piezokatalyse als Methode zum Abbau von PFOS funktioniert und Vorteile gegenüber bisherigen Methoden hat.» Die Methode könne zudem nicht nur auf PFOS, sondern auf alle PFAS sowie andere Mikroschadstoffe angewendet werden.
Generell sollten Methoden zum Abbau von PFAS eingesetzt werden, bevor die Chemikalien in die Umwelt gelangen, also in den Kläranlagen der Industriebetriebe oder in gesammeltem Wasser aus der Landwirtschaft, das wiederverwendet werden soll. «Unternehmen sollten alle möglichen Massnahmen zu ergreifen, um sicherzustellen, dass das Wasser, das sie in die Umwelt ableiten, so sauber wie möglich ist», sagt Pané i Vidal. Veciana fügt hinzu: «PFAS sind ein globales Problem, das in erster Linie durch politische Veränderungen und mehr Transparenz angegangen werden sollte.» In den Medien wird bereits viel über ein PFAS-Verbot und strengere Vorschriften berichtet, die die Industrie zu mehr Transparenz bei der Verwendung von PFAS zwingen sollen. Veciana betont: «Dennoch ist es auch wichtig, Innovationen durch Forschung voranzutreiben, um die bereits vorhandene Belastung durch PFAS so weit wie möglich zu reduzieren und zu beheben.»

Wissenschaftliche Ansprechpartner:
Prof. Salvador Pané i Vidal, Email: vidalp@ethz.ch

Originalpublikation:
Veciana A, Steiner S, Tang Q, Pustovalov V, Llacer-Wintle J, Wu J, Chen X, Manyiwa T, Ultra Jr. V, Garcia-Cirera B, Puigmartí-Luis J, Franco C, Janssen D, Nyström L, Boulos S, Pané S: Breaking the Perfluorooctane Sulfonate Chain: Piezocatalytic Decomposition of PFOS Using BaTiO3 Nanoparticles. Small Science 2400337. doi: 10.1002/smsc.202400337

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2024/09/neue-methoden-…

(nach oben)


Teilzeit verliert, Zeitsouveränität gewinnt: Beschäftigte wollen flexible Arbeitszeiten

Reine Teilzeitstellen mit starren Arbeitszeiten sind weder bei Frauen noch bei Männern beliebt. Gefragt sind dagegen Stellen, die hohe Flexibilität bieten, sowohl was den Umfang als auch die Lage der täglichen Arbeitszeit angeht. Familienfreundlichkeit ist ein weiterer Aspekt, der insbesondere für Frauen einen hohen Stellenwert hat.

Mit einer Erwerbstätigenquote von knapp 78 Prozent sind Frauen auf den ersten Blick gut in den deutschen Arbeitsmarkt integriert. Anders sieht es aus, wenn es um den Umfang der Arbeitszeit geht. Denn fast die Hälfte der Frauen (48 Prozent) arbeitet in Teilzeit. Reine Teilzeitstellen mit starren Arbeitszeiten finden sie aber nicht attraktiv, wie eine repräsentative Befragung von gut 2.500 Männern und Frauen im Auftrag der Bertelsmann Stiftung zeigt. Rund 50 Prozent der Frauen – egal ob mit oder ohne Kind im Haushalt – favorisieren demnach Arbeitsplätze, die ihnen Flexibilität bei der Stundenzahl bieten. Auch flexible Arbeitszeiten mit variabler Lage der täglichen Arbeitszeit werden präferiert. Dazu passt, dass weniger als 30 Prozent aller Befragten eine Stelle mit festen Arbeitszeiten bevorzugen.

Die klassische Vollzeitstelle ist nicht erste Wahl – mehr Flexibilität gewünscht
Die befragten Frauen und Männer sollten anhand von Muster-Stellenanzeigen deren Attraktivität unter anderem in Bezug auf die Vereinbarkeit von Familie und Beruf beurteilen. 48,9 Prozent der Frauen und 47,6 Prozent der Männer bevorzugen Stellen, die sie wahlweise in Vollzeit oder in Teilzeit ausüben können. Demgegenüber präferieren insgesamt deutlich weniger Beschäftigte reine Vollzeitstellen. Sind jüngere Kinder im Haushalt, wählen lediglich 21,3 Prozent der Frauen Stellen in Vollzeit – und auch nur 38,1 Prozent der Männer. „Hier deutet sich an: Paare wollen heutzutage Erwerbs- und Sorgearbeit anders aufteilen. Dazu müssen sie Arbeitszeiten flexibler an ihre Bedürfnisse anpassen können“, betont Michaela Hermann, Arbeitsmarktexpertin der Bertelsmann Stiftung.

Von der Teilzeitfalle zur Zeitsouveränität
Doch auch klassische Teilzeitstellen sind für viele Frauen keine Alternative. Frauen mit jüngeren Kindern befürworten lediglich zu 38,3 Prozent Teilzeit. Bei kinderlosen Frauen und bei Müttern mit älteren Kindern sind es sogar nur 29,9 Prozent. „Reine Teilzeit ist ganz offensichtlich keine Präferenz, auch nicht bei Müttern“, erklärt Luisa Kunze, Arbeitsmarktexpertin der Bertelsmann Stiftung. „Mütter können aufgrund stereotyper Aufgabenverteilung in der Partnerschaft nach dem Wiedereinstieg ins Berufsleben oft nur Teilzeit arbeiten. Wenn sie ihre Arbeitszeit nicht flexibler aufstocken können, stecken sie in der Teilzeitfalle fest. Viele bleiben bei einem geringen Stundenumfang, berufliche Karrieren brechen ab und Potenziale gehen verloren.“

Flexible Lage der täglichen Arbeitszeit gewünscht
Auch vollständig flexible Arbeitszeiten ohne feste Kernzeiten stehen hoch im Kurs. 45 Prozent aller befragten Frauen und Männer zeigen viel Sympathie für ein solches Arbeitszeitmodell. Die Zustimmung zu starren Arbeitszeiten fällt dagegen deutlich kleiner aus. Sie liegt bei den befragten Frauen bei knapp einem Viertel (24,8 Prozent). Auch nur 29,2 Prozent der Männer würden eine Arbeitsstelle mit starren Arbeitszeiten wählen. „Flexible Arbeitszeiten bieten die Chance, Berufliches und Privates besser miteinander zu vereinbaren“, erläutert Michaela Hermann. „Diese Flexibilität schafft mehr Räume, auf dem Arbeitsmarkt aktiv zu sein. Mitarbeiterorientierte flexible Arbeitszeitmodelle nützen so auch den Arbeitgebern.“

Familienfreundlichkeit macht Stellenangebote attraktiver
Mit dem Thema Familienfreundlichkeit können Arbeitgeber in Zeiten des Fachkräftemangels besonders gut punkten. Für 44,3 Prozent der Frauen mit jungen Kindern im Haushalt ist der Hinweis auf die Familienfreundlichkeit wichtig. Viel Gegenliebe bei Männern und Frauen (35,6 bis 42,4 Prozent) findet die finanzielle Unterstützung des Arbeitgebers bei Kinderbetreuung und Betreuungsmöglichkeiten in der Nähe der Arbeitsstelle.

Im Schichtdienst zählt Verlässlichkeit – bei Kinderbetreuung und geregelten Arbeitszeiten
Aufgaben in Familie und Beruf miteinander zu vereinbaren, ist insbesondere für Beschäftigte im Schichtdienst eine Herausforderung. Knapp ein Viertel der Befragten gibt an, im Schichtdienst zu arbeiten. Einen Kinderbetreuungsplatz in Arbeitsplatznähe finden 47,8 Prozent aller Schichtarbeitenden wichtig – und damit deutlich mehr als die nicht im Schichtdienst Arbeitenden (38,1 Prozent). Mit 46,7 Prozent legen deutlich mehr Beschäftigte im Schichtdienst größten Wert auf geregelte Arbeitszeiten, der Wunsch nach flexiblen Arbeitszeiten spielt hier nur eine geringe Rolle.

Zusatzinformationen:
Die Studie ist der erste Teil einer Veröffentlichungsreihe des Projekts „Spannungsfeld Vereinbarkeit: Onlinebefragung zur Aufteilung von Erwerbs- und Sorgearbeit im Paarkontext“, das das Institut Arbeit und Qualifikation der Universität Duisburg-Essen im Auftrag der Bertelsmann Stiftung durchgeführt hat. Die Datengrundlage bildet eine Onlinebefragung von 2.523 Frauen und Männern im erwerbsfähigen Alter (18-65 Jahre). Die Befragung wurde zwischen dem 19.12.2023 und dem 19.1.2024 vom Umfragezentrum Bonn und einem Online-Access-Panel mit Incentivierung von bilendi durchgeführt. Sie wurde im Rahmen der ESOMAR-Richtlinie durchgeführt, das für die Erhebung genutzte Panel ist nach ISO 20252:2019 zertifiziert.

Ansprechpartnerinnen:
Michaela Hermann, Telefon: 0 52 41 81 81-295
E-Mail: michaela.hermann@bertelsmann-stiftung.de

Luisa Kunze, Telefon: 0 30 27 57 88-175 
E-Mail: luisa.kunze@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

(nach oben)


Was das jüngst in Kraft getretene KI-Gesetz in der Praxis bedeutet

Am 1. August trat das EU-Gesetz zur Künstlichen Intelligenz in Kraft. Damit wird in der Europäischen Union künftig geregelt, was Künstliche Intelligenz darf und was nicht. Wie sich das Gesetz auf die praktische Arbeit von Programmiererinnen und Programmierern auswirkt, hat nun ein Team um den Informatikprofessor Holger Hermanns von der Universität des Saarlandes und die Juraprofessorin Anne Lauber-Rönsberg von der Technischen Universität Dresden untersucht und in einem Paper veröffentlicht, das im Herbst publiziert wird.

„Der AI Act zeigt, dass die Politik verstanden hat, dass KI auch eine Gefahr sein kann, insbesondere, wenn sie in sensible oder gesundheitlich relevante Bereiche eingreift“, sagt Holger Hermanns, Informatikprofessor an der Universität des Saarlandes. Aber wie wirkt sich der AI Act tatsächlich auf die Arbeit derjenigen aus, die sie erschaffen? „Was muss ich überhaupt lesen von dem Ding?“, fasst Hermanns die Frage zahlloser Programmiererinnen und Programmierer zusammen. Denn nicht jeder Programmierer wird sich die (im Deutschen) 144 Seiten starke Verordnung von Anfang bis Ende durchlesen wollen – und können.

Gemeinsam mit seiner Doktorandin Sarah Sterz, der Postdoktorandin Hanwei Zhang sowie Anne Lauber-Rönsberg, Juraprofessorin an der TU Dresden, und ihrem wissenschaftlichen Mitarbeiter Philip Meinel hat Holger Hermanns ein Paper mit dem Titel „AI Act for the Working Programmer“ geschrieben, in dem diese Frage im Grundsatz beantwortet wird. Der Kern ihrer Erkenntnis: „Entwickler und Nutzer werden unterm Strich nicht wirklich viel Veränderung spüren“, fasst Sarah Sterz zusammen. „Hauptsächlich bei der Entwicklung sogenannter Hochrisiko-Systeme werden die Vorschriften des AI Act relevant“, so die Informatikerin.

Das liegt daran, dass das europäische KI-Gesetz insbesondere darauf abzielt, die späteren Nutzer eines Systems davor zu schützen, dass eine KI für sie schädlich bzw. ungerecht sein könnte. Greift eine KI nicht in sensible Bereiche ein, fällt sie auch nicht unter die umfangreichen Vorschriften für Hochrisiko-Systemen. Holger Hermanns unterstreicht das anhand eines konkreten Beispiels: „Die Entwickler einer KI-Software, die Bewerbungen sichtet und Bewerber möglicherweise schon aussortiert, bevor überhaupt ein Mensch aus der Personalabteilung darauf geschaut hat, unterliegt den Vorschriften des AI Acts, sobald das Programm auf den Markt kommt oder in Betrieb genommen wird. Die KI hingegen, die in einem Computerspiel die Reaktionen von Gegnern in Autorennspielen simuliert, kann nach wie vor entwickelt und vermarktet werden, ohne dass sich deren Entwickler über den AI Act Gedanken machen müssen.“

Die Regeln für solche Hochrisiko-Systeme, zu der neben der Bewerbungssoftware zum Beispiel auch Kreditscoring-Systeme, Software für medizinische Bereiche oder auch Programme, die den Zugang zu Bildungseinrichtungen wie Universitäten managen, gehören, sind im nun in Kraft tretenden KI-Gesetz streng. „Zum einen muss sichergestellt werden, dass die Trainingsdaten so sind, dass die daraus trainierte KI tatsächlich auch ihre Aufgabe ordentlich erfüllen kann“, so Holger Hermanns. Hier dürfe es zum Beispiel nicht dazu kommen, dass eine Gruppe von Bewerbern diskriminiert wird, weil sie in den Trainingsdaten kaum vorkommen. „Außerdem muss das System aufzeichnen, was genau zu welchem Zeitpunkt passiert, ähnlich wie eine Black Box im Flugzeug“, ergänzt Sarah Sterz. Die Funktionsweise des Systems muss darüber hinaus dokumentiert sein wie in einem klassischen Benutzerhandbuch. Und der Provider, also der Anbieter einer Software, muss dem späteren Betreiber alle Informationen zur Verfügung stellen, damit dieser das System während seiner Benutzung auch ordnungsgemäß beaufsichtigen kann, um Fehler zu erkennen und zu berichtigen. Über diese so genannte „Human Oversight“ haben sich Wissenschaftlerinnen und Wissenschaftler jüngst in einem anderen Paper Gedanken gemacht (siehe Link unten).

„Der AI Act schränkt einige Dinge schon sehr maßgeblich ein. Die meisten Anwendungen jedoch werden nur sehr bedingt betroffen sein“, fasst Holger Hermanns zusammen. Was heute schon verboten ist, zum Beispiel Gesichtserkennung zur Interpretation von Emotionen, wird weiterhin verboten bleiben. Unproblematische KI-Systeme wie zum Beispiel in Videospielen oder für Spam-Filter sind kaum vom AI Act betroffen. Und die erwähnten Hochrisiko-Systeme fallen erst dann unter die Regulierung durch das Gesetz, wenn sie in die „freie Wildbahn“ gelangen, wie Sarah Sterz es formuliert, das heißt wenn sie auf den Markt kommen oder in Betrieb genommen werden. In Forschung und Entwicklung, ob staatlich oder privat, wird es nach wie vor keine Beschränkungen geben.

„Ich sehe wenig Risiko, dass Europa durch das KI-Gesetz von der internationalen Entwicklung abgehängt wird“, so das Fazit von Holger Hermanns. Im Gegenteil, er und seine Kolleginnen und Kollegen kommen zu einem wohlwollenden Urteil über das weltweit erste Gesetz, das Künstlicher Intelligenz auf einem ganzen Kontinent einen rechtlichen Rahmen gibt: „Der AI Act ist ein Versuch, KI auf vernünftige Weise zu regulieren, und das ist nach unserem Dafürhalten gut gelungen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Hermanns
Tel.: 0681 302-5630
E-Mail: hermanns@cs.uni-saarland.de

Sarah Sterz
Tel.: 0681 302-5589
E-Mail: sterz@depend.uni-saarland.de

Originalpublikation:
Preprint, das Papier erscheint in AISoLA 2024, Springer LNCS:
Hermanns, H., Lauber-Rönsberg, A., Meinel, P., Sterz, S., Zhang, H. (2024). AI Act for the Working Programmer: https://doi.org/10.48550/arXiv.2408.01449

Weitere Informationen:
https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=OJ:L_202401689
https://www.uni-saarland.de/aktuell/ki-grundregeln-menschliche-aufsicht-32580.ht…

(nach oben)


„Umweltwirkungen von KI sollten sichtbarer werden“

Spätestens seit der Veröffentlichung der ersten Version von ChatGPT Ende 2022 ist Künstliche Intelligenz (KI) in aller Munde. Dabei sind intelligente Software-Anwendungen schon seit vielen Jahren im Einsatz: Lieblings-Playlist zusammenstellen, Spam-Mails aussortieren, die beste Route suchen, Textübersetzung oder Produktempfehlungen auf Basis vorheriger Online-Käufe. Doch wie sieht es mit der Klimabilanz von KI aus?

Jens Gröger, Senior Researcher im Bereich Produkte & Stoffströme, erläutert im aktuellen Podcast „Wenden bitte!“ des Öko-Instituts die Vor- und Nachteile von KI, wenn es um den Umweltnutzen geht. Zum Podcast „Wie nachhaltig ist Künstliche Intelligenz?“ des Öko-Instituts [https://www.oeko.de/podcast/wie-nachhaltig-ist-kuenstliche-intelligenz/]

Effizientere Prozesse versus erhöhter Energiebedarf
In Abgrenzung zum klassischen Computing basiert das Machine Learning auf sehr großen Datenmengen und parallelen Rechenprozessen. Damit geht eine erhöhte Rechenleistung einher. Aktuell werden ungefähr 1,5 Prozent des deutschen Strombedarfs allein für Rechenzentren genutzt. Dieser Bedarf wird in Zukunft weiter steigen. Denn Computer-Anwendungen werden derzeit mit immer mehr KI-Funktionen ausgestattet. So verbraucht beispielsweise eine Anfrage via ChatGPT dreimal so viel Strom wie eine klassische Suchanfrage. Wenn KI-Funktionen auch in normale Office-Anwendungen, wie Text- und Bildbearbeitungsprogramme, Einzug halten, steigt deren Strombedarf erheblich an. Die Umweltwirkungen treten sowohl beim Training als auch im Betrieb von KI-Systemen auf. Allein das Trainieren von ChatGPT in der Version 3 hat schätzungsweise 500 Tonnen CO2 verursacht, eine einzelne Anfrage fällt mit rund 4,5 Gramm CO2 ins Gewicht.

Demgegenüber steht das Potenzial von KI, technische Prozesse – wie bei Herstellung, Wartung, Nutzung und schließlich Müllsortierung sowie Wiederverwendung von Produkten – zu optimieren, zur Energie- und Ressourceneinsparung beizutragen und die Kreislaufwirtschaft zu fördern. Auch im Bereich der Energiewirtschaft kann KI bei der optimierten Nutzung von Wind- und Sonnenenergie helfen. Doch wiegen die positiven Effekte die Nachteile auf? Diese Fragen sind laut dem Wissenschaftler vielfach noch offen und bedürfen weiterer Forschung einerseits und gesetzlicher Regulierung andererseits.

Umweltauswirkungen von KI messen
Um die Klimabilanz von KI zu bemessen, unterscheiden die Wissenschaftler*innen drei Ebenen:

  1. Direkte Effekte, die der Digitaltechnik direkt zugeordnet werden können. Darunter fallen die Herstellung sowie Nutzung der Endgeräte, Datenleitungen und Rechenzentren.
  2. Indirekte Effekte, die mit der Nutzung von digitalen Anwendungen oder KI zusammenhängen: Beim Online-Einkauf sind dies beispielsweise die Verpackung und Anlieferung, bei der Optimierung von Produktionsprozessen ist es der reduzierte Energiebedarf.
  3. Systemische Effekte, die die Gesellschaft als Ganzes betreffen, wie das veränderte Mobilitätsverhalten durch Car-Sharing-Angebote oder der Wandel der Arbeitswelt. Dazu zählen auch Rebound-Effekte, also Einsparungen an einer Stelle, die mit einem erhöhten Verbrauch an anderer Stelle einhergehen.

Die Umweltwirkungen der direkten Effekte lassen sich am besten berechnen. Indirekte Effekte können anhand von Anwendungsfällen abgeschätzt werden. Systemische Effekte sind jedoch bislang nur schwer quantifizierbar.
Jens Gröger spricht sich für einen ökobilanziellen Ansatz bei der Betrachtung aus: „Bei der Ökobilanz untersuchen wir den gesamten Lebenszyklus eines Produktes, von der Rohstoffgewinnung und Produktion über den Transport und Nutzung bis hin zur Entsorgung. Diese Methodik ist auch auf digitale Anwendungen, wie Software und KI übertragbar.“

Transparenz als Basis
Mit dem Wissen um die Umweltwirkung von digitalen Anwendungen lassen sich dann im zweiten Schritt Reduktionen hinsichtlich des Energieverbrauchs vornehmen. „Bei der Digitaltechnik und der KI können wir die technische Entwicklung nicht einfach laufen lassen“, so Jens Gröger. „Das kann vehement in die falsche Richtung gehen. Eine Technikfolgenabschätzung und darauf basierende Regulation sind unabdingbar. Fehlentwicklungen sollten frühzeitig erkannt werden, bevor sie unkontrollierbar werden.“
Der Wissenschaftler plädiert dafür, zusammen mit jeder digitalen Dienstleistung eine umweltbezogene Produktinformation auszuliefern, exemplarisch in Form eines kleinen Datenpakets mit Angaben zum Energie- und Ressourcenverbrauch sowie den Treibhausgasemissionen. Dann können Nutzende und vor allem auch berichtspflichtige Unternehmen ihren CO2-Fußbdruck und andere Umweltwirkungen tracken, bewerten und entsprechende Maßnahmen zur Verbesserung der Bilanz aufsetzen.

Wissen statt Alltagsberatung
Der Podcast „Wenden bitte!“ des Öko-Instituts richtet sich an alle mit politischem und ökologischem Interesse aus Politik, Wissenschaft, Medien, NGOs und Öffentlichkeit. Den Podcast moderieren Mandy Schoßig, Leiterin Öffentlichkeit & Kommunikation, und Hannah Oldenburg, Referentin für digitale Kommunikation & Social Media am Öko-Institut. Rund eine Stunde lang sprechen sie mit einem Experten beziehungsweise einer Expertin aus dem Öko-Institut über anstehende Nachhaltigkeitstransformationen – genug Zeit für die „Langstrecke der Umweltpodcasts“. Die Spezial-Folgen greifen tagesaktuelle politische und gesellschaftliche Themen auf.

Wissenschaftliche Ansprechpartner:
Jens Gröger
Senior Researcher im Bereich
Produkte & Stoffströme
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-378
E-Mail: j.groeger@oeko.de

Weitere Informationen:
https://www.oeko.de/podcast/wie-nachhaltig-ist-kuenstliche-intelligenz/ Episode 5 „Wie nachhaltig ist Künstliche Intelligenz?“ mit Jens Gröger, erschienen am 8. August 2024

Anhang
PM Podcast Klima & KI vom Öko-Institut

(nach oben)


Professor Fath durchschwimmt die Elbe

Forscher der Hochschule Furtwangen startet neues Extremsport-Projekt für Gewässerschutz

Prof. Dr. Andreas Fath ist als der “schwimmende Professor“ der Hochschule Furtwangen international bekannt. Um auf die Belastung von Gewässern durch Mikroplastik aufmerksam zu machen, durchschwamm der Wissenschaftler bereits den Rhein, den Tennessee River und die gesamte Donau. Nun steht das nächste Extremsport-Projekt im Namen des Gewässerschutzes an: Am 16. August wird Fath in Smirice im tschechischen Riesengebirge in die Elbe springen, um nur 25 Tage später die Elbmündung in Cuxhaven zu erreichen. Unterwegs werden nicht nur tägliche Wasserproben entnommen, Fath und sein Team betreiben mit einer großangelegten Aufmerksamkeitskampagne Aufklärungsarbeit in Sachen Gewässerschutz.
Tausende Flusskilometer hat er bereits durchkrault, und jedes Mal kündigte der Chemiker, der als Professor der Hochschule Furtwangen am Standort Schwenningen lehrt, an, dass dies nun das letzte Projekt gewesen sei. Doch sein Lebensthema Wasser lässt ihn nicht los. Fath schwimmt seit seiner Kindheit, zwischenzeitig sogar in der deutschen Bundesliga. Während seiner Extrem-Projekte verbringt er acht Stunden pro Tag im Wasser. „Ich kann das eben gut“, sagt er achselzuckend.
Mit der Mischung aus Wissenschaft und Extremsport setzt sich Andreas Fath für sauberes Wasser ein, wie und wo auch immer. Ob er in Flüssen schwimmt, Vorträge hält, Filme zu seinen Projekten präsentiert oder Schulklassen die verschiedenen Module seiner „Wissenswerkstatt“ ausprobieren lässt: Immer geht es darum, für den Schutz des Wassers zu sensibilisieren.
Bei seinem Projekt „PureElbe“ arbeitet Faths gemeinnützige Firma H2Org mit dem Bündnis plastikfreie Natur zusammen. Als Sponsoren unterstützen den Wissenschaftler neben der Hochschule Furtwangen auch die Unternehmen hansgrohe und Arburg.
Auf die 1083 Kilometer der Elbe (geschwommen wird ab Kilometer 11) freut sich Andreas Fath riesig: „Jeder Fluss ist anders. Ich bin sehr neugierig darauf, wie sich die Elbe anfühlen wird“. Auf seiner Reise wird er auch Städte wie Dresden, Magdeburg oder Hamburg durchqueren. Mit Workshops, Seminaren und Presseevents wird der Wissenschaftler mit seinem Team Aufmerksamkeit für Gewässerschutz schaffen. Nebenbei wird sein wissenschaftliches Team – zwei Studierende der Hochschule Furtwangen begleiten die Reise – ständig Wasserproben entnehmen und auswerten. Eine am Neoprenanzug von Andreas Fath befestigte Filtermembran imitiert Fischhaut und liefert so zusätzliche Erkenntnisse.
Die ganze Reise durch die Elbe lässt sich auf der Projektwebseite www.pureelbe.org mitverfolgen – unter anderem auf einer Karte, die genau die Stationen und die durchschwommenen Kilometer dokumentiert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Fath

(nach oben)


Wie der Klimawandel das Wattenmeer verändert

Die Auswirkungen des Klimawandels auf flache Sedimentküsten sind vielseitig. Die Wissenschaftlerinnen und Wissenschaftler der Wattenmeerstation Sylt haben jetzt einen multidisziplinären Überblick veröffentlicht, der die weitreichenden klimabedingten Veränderungen des Weltnaturerbes Wattenmeer zusammenfasst. Das Review-Paper anlässlich des einhundertjährigen Bestehens der Station erscheint in der Fachzeitschrift Marine Biodiversity. Es umfasst die Küstenmorphologie mitsamt Sedimentdynamiken sowie die Biologie von genetischen Effekten über Arteninteraktionen bis zur ökosystemaren Ebene.

„Der Klimawandel wirkt auf alle Ebenen des Wattenmeeres ein: Temperaturerhöhung und Meeresspiegelanstieg verändern die Morphologie der Küste und die Sedimentdynamik, welche das Wattenmeer seit gut 8000 Jahren prägt“, erläutert Dr. Christian Buschbaum, Meeresökologe an der Wattenmeerstation Sylt des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Im Vergleich zum globalen Ozean hat sich die Nordsee in den letzten 60 Jahren im Mittel fast doppelt so stark erwärmt. Dabei haben vor allem milde Winter und sehr warme Sommertemperaturen einen großen Einfluss auf das Ökosystem. Insbesondere Hitzewellen mit Temperaturen von drei bis fünf Grad über dem Durchschnitt werden häufiger und dauern länger an. Diese physikalischen Änderungen beeinflussen die räumliche Ausdehnung von einzelnen ökologisch wichtigen Lebensräumen, wie Seegraswiesen und Muschelbänken, sowie das Vorkommen einzelner Arten im Wasser und am Meeresboden. Dabei sind manche Arten besonders betroffen, die neben der Erwärmung auch unter Übernutzung leiden, wie beispielsweise der Kabeljau. „Wir beobachten außerdem einen deutlichen Anstieg an eingeschleppten, wärmeliebenden Arten. Diese bedrohen zwar bisher keine heimischen Organismen, führen aber zu einer völligen Veränderung des Lebensraumes. Riesige Riffe pazifischer Austern und hektargroße Unterwasserwälder, gebildet von Algen aus Fernost, sind unmittelbar von jedem Wattwanderer zu erkennen“, sagt der Co-Erstautor der Studie weiter.

Das Wattenmeer ist für viele Fisch- und Vogelarten, wie Hering, Austernfischer und Knutt von großer ökologischer Bedeutung, die dieses Gebiet für mindestens eine Phase ihres Lebenszyklus nutzen: Es dient als Kinderstube und Futterplatz und bietet beispielsweise jungen Fischen Schutz vor Räubern. Die Klimaerwärmung verschiebt das zeitliche Auftreten der Arten; Fische wandern polwärts ab oder bodenbewohnende Arten ziehen sich in tieferes, kälteres Wasser zurück. Wer seine Verbreitungsgebiete nicht verlagern kann, muss sich an die sich rasch erwärmenden Bedingungen im Wattenmeer anpassen.

„Zu den Anpassungsreaktionen gehören genetische Anpassungen, aber auch die phänotypische Plastizität“, sagt Co-Erstautorin Dr. Lisa Shama. Organismen mit sehr kurzer Generationsdauer können sich schnell genetisch anpassen wie beispielsweise pathogene Vibrio-Bakterien, die in eingeschleppten Pazifischen Austern leben. „Bei der Plastizität passen die Individuen ihre Eigenschaften und ihr Erscheinungsbild als Reaktion auf direkte Umweltreize an, ohne dass genetische Veränderungen vorliegen. Die Plastizität ist somit ein schneller Reaktionsmechanismus, um mit sich ändernden Klimabedingungen fertig zu werden. Sie kann innerhalb einer Generation dazu führen, dass Arten zu veränderten Zeiten auftreten, zum Beispiel früheren Phytoplanktonblüte im Frühjahr, oder zu temperaturabhängigen Änderungen der Wachstumsrate führen“, erklärt AWI-Evolutionsbiologin Lisa Shama. Auch ihre Fortpflanzungsstrategien können Organismen anpassen, etwa durch eine erhöhte Fortpflanzungsleistung – also zum Beispiel mehr Eier bilden – zum Ausgleich potenzieller Verluste des Nachwuchses durch Hitzestress.

Neben diesen beispielhaften wissenschaftlichen Schlaglichtern hat die Synthese aus 100 Jahren Forschung an der Wattenmeerstation Sylt vor allem gezeigt, wie vielschichtig und umfassend die Auswirkungen des Klimawandels auf flache Sedimentküsten wie das Wattenmeer sind. „Unser Bestreben war es, einen multidisziplinären Überblick zu geben. Dazu haben mehr als 30 Wissenschaftlerinnen und Wissenschaftler der AWI-Sektion Ökologie der Küsten verschiedener Fachrichtungen zusammengearbeitet und ihre Ergebnisse zu den Effekten des Klimawandels beschrieben“, fassen Lisa Shama und Christian Buschbaum zusammen. „Mit diesem übergreifenden Ansatz der Studie ist deutlich geworden, dass der Klimawandel im Wattenmeer auf allen Ebenen wirkt und damit einen Lebensraum in seiner Gänze in bisher nicht dagewesener Geschwindigkeit verändert. Damit werden auch Konsequenzen für die an der Küste lebenden Menschen unausweichlich, da beispielsweise Küstenschutzmaßnahmen und Tourismuskonzepte nachhaltig angepasst werden müssen. Somit ist ein interdisziplinärer Ansatz von Natur- und Sozialwissenschaften bei zukünftiger Klimawandelforschung im Wattenmeer unerlässlich, um Strategien im Umgang einer sich rasant verändernden Küste zu entwickeln.“

Wissenschaftliche Ansprechpartner:
Dr. Christian Buschbaum
+49 (0)4651 956-4228
christian.buschbaum@awi.de

Dr. Lisa Shama
+49(0)4651 956-4201
lisa.shama@awi.de

Originalpublikation:
Buschbaum C, Shama LNS, Amorim FLL, Brand S, Broquard CMA, Camillini N, Cornelius A, Dolch T, Dummermuth A, Feldner J, Guignard MS, Habedank J, Hoffmann JJL, Horn S, Konyssova G, Koop-Jakobsen K, Lauerburg R, Mehler K, Odongo V, Petri M, Reents S, Rick JJ, Rubinetti S, Salahi M, Sander L, Sidorenko V, Spence-Jones HC, van Beusekom JEE, Waser AM, Wegner KM, Wiltshire KH: Climate change impacts on a sedimentary coast – a regional synthesis from genes to ecosystems; Marine Biodiversity (2024). DOI: https://doi.org/10.1007/s12526-024-01453-5.

Weitere Informationen:
https://www.awi.de/ueber-uns/service/presse.html
https://www.awi.de/ueber-uns/standorte/sylt/100-jahre-wattenmeerstation-sylt/was…
https://www.awi.de/im-fokus/nordsee/infografik-artenwandel-im-wattenmeer.html
https://www.awi.de/ueber-uns/service/presse/presse-detailansicht/stichlingsweibc…

(nach oben)


Grundwasservorräte in Südwesteuropa insgesamt stabiler als angenommen / Differenzierte Betrachtung jedoch notwendig

Grundwasser ist eine wichtige Ressource für Natur und Menschen. Der zunehmende Klimawandel und anthropogene Einflüsse können jedoch die Verfügbarkeit gefährden, vor allem in Südwesteuropa. Diese Gefährdung hat ein vom UFZ koordiniertes Forschungsteam genauer untersucht und die Daten von mehr als 12.000 Grundwasserbrunnen in Portugal, Spanien, Frankreich und Italien ausgewertet. Die überraschende Erkenntnis: Der Grundwasserspiegel sinkt nicht wie allgemein angenommen überall, sondern vielmehr vor allem in semi-ariden Regionen mit intensiver Landwirtschaft und häufigen Dürreperioden sowie in gemäßigten Regionen mit großen Städten.

„Die Meinung ist weit verbreitet, dass der Grundwasserspiegel überall in Südwesteuropa kontinuierlich sinkt. Eine genauere Untersuchung der Daten zeigt jedoch, dass die Situation komplexer ist“, sagt UFZ-Hydrologe Dr. Seifeddine Jomaa, korrespondierender Autor der Studie. So ergab die Auswertung der Hydrologen für die Jahre 1960 bis 2020, dass 68 Prozent der untersuchten Brunnen in den vergangenen drei Jahrzehnten stabile Werte aufwiesen. 20 Prozent der Brunnen zeigten steigende Pegelwerte in dem Zeitraum, bei lediglich 12 Prozent sanken sie. „Um Verallgemeinerungen zu vermeiden, bedarf es einer differenzierten und detaillierten Betrachtung der lokalen Grundwassersysteme“, sagt er.

Der genaue Blick auf das Datenmaterial zeigt nun, dass sich Brunnen mit stabilen Grundwasserpegeln vor allem in Regionen mit gemäßigtem Klima und ganzjährig hohen Niederschlägen wie zum Beispiel in Nordfrankreich befinden. „In diesen Regionen halten hohe Neubildungsraten den Grundwasserspiegel nahezu stabil“, sagt Rafael Chávez García Silva, Erstautor und ebenfalls Hydrologe am UFZ. In anderen Regionen wie etwa dem unteren Po-Einzugsgebiet bei Ravenna steigt der Grundwasserspiegel unter anderem infolge einer natürlichen Bodensenkung sogar an, sodass Oberflächenwasser abgeleitet und Grundwasser abgepumpt werden muss, um Überschwemmungen zu verhindern.

In semi-ariden Regionen wie zum Beispiel in Tarbes (Frankreich) und Medina del Campo (Spanien) finden sich dagegen vielerorts Grundwassermessstände, deren Pegel seit Jahrzehnten sinken. Dies ist zum einen auf die durch den Klimawandel bedingten geringeren Niederschläge und höheren Temperaturen zurückzuführen. Mitentscheidend ist zum anderen aber auch die intensive Landwirtschaft. „Diese vier Mittelmeerländer sind für einen großen Teil der Obst-, Gemüse- und Getreideproduktion in der EU verantwortlich“, sagt Seifeddine Jomaa. Das Grundwasser liefere zwischen 30 und 50 Prozent des Wassers, das für die Bewässerung in der Landwirtschaft eingesetzt wird. Doch auch in Regionen mit gemäßigtem Klima fanden die Forscher Brunnen mit rückläufigen Grundwasserständen. Die Ursache dafür: Die Nähe zu Städten und Industriebetrieben. Rückläufig sind seit den 1960er Jahren zum Beispiel die Grundwasserpegel im Großraum von Städten wie Lyon, Nizza, Modena oder Bordeaux. In der neuntgrößten Stadt Frankreichs Bordeaux lässt sich die hohe Grundwassernutzung auf den zunehmenden Wasserverbrauch der Haushalte zurückführen. In der beliebten französischen Touristenstadt Béziers ist der Grundwasserspiegel aufgrund der verstärkten Entnahme von Trinkwasser für die Sommertouristen erheblich gesunken.

Während sich der Rückgang des Grundwassers in urbanen und industriell geprägten Regionen nicht so leicht stoppen lässt, fanden die Forscher in semi-ariden, landwirtschaftlich geprägten Regionen effektive Managementansätze. Deswegen konnten sich dort die Grundwasserstände erholen – wie etwa in La Mancha Oriental in Spanien. Bis in die 1990er Jahre sank der Grundwasserspiegel aufgrund der übermäßigen Bewässerung. „Infolgedessen trocknete beispielsweise der Fluss Júcar 1994 an einigen Abschnitten erstmals aus – ein dramatisches Ereignis, das Landwirte dazu bewog, eine lokale Wassernutzervereinigung zu gründen, die mit einer Kombination aus Monitoring, der Fernerkundung und individuellen Wassernutzungsplänen den Rückgang des Grundwasserstands stoppen wollte. Diese Maßnahmen waren effektiv und haben die Entwicklung des Grundwasserspiegels umgekehrt“, sagt J. Jaime Gómez-Hernández, Professor für Hydrogeologie an der Universitat Politècnica de València und Co-Autor der Studie.

Aus den Erfahrungen Südwesteuropas lassen sich auch Rückschlüsse für das Grundwassermanagement in Deutschland und anderen Regionen weltweit ziehen, denn auch da steigt der Grundwasserbedarf, und die Grundwasserneubildung leidet vielerorts aufgrund des Klimawandels. „Deutschland könnte von den Erfahrungen in Südwesteuropa profitieren, zum Beispiel wie Grundwasser optimal genutzt werden kann, welche Bewässerungsmethoden in der Landwirtschaft wirksam sind, wie sich Stakeholder stärker engagieren lassen und welche Fehler in Zukunft vermieden werden können“, sagt Seifeddine Jomaa. Denn eines sei in jedem Fall klar: Deutschland braucht einen vorausschauenden Ansatz für eine nachhaltige Grundwassernutzung.

Diese Forschungsarbeit wurde von den Projekten InTheMED und OurMED unterstützt, die Teil des PRIMA-Programms (Partnership for Research and Innovation in the Mediterranean Area) sind. PRIMA wird durch das EU-Forschungs- und Innovationsprogramm Horizont 2020 finanziert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Rode
UFZ-Department Aquatische Ökosystemanalyse
michael.rode@ufz.de

Originalpublikation:
Rafael Chávez García Silva, Robert Reinecke, Nadim K. Copty, David A. Barry, Essam Heggy, David Labat, Pier Paolo Roggero, Dietrich Borchardt, Michael Rode, J. Jaime Gómez-Hernández, Seifeddine Jomaa: Multi-decadal groundwater observations reveal surprisingly stable levels in southwestern Europe, Communications Earth & Environment, https://doi.org/10.1038/s43247-024-01554-w

(nach oben)


Arbeitgeber beugen vor: 78 Prozent bieten laut ifaa-Studie ihren Beschäftigten Impfungen an

Immer mehr Unternehmen der M+E-Industrie Deutschlands bieten ihren Beschäftigten eine Vielzahl an Gesundheitsleistungen und Seminaren an, darunter auch Impfungen. „Laut unserer aktuellen Studie belegt das Angebot von Impfungen im Betrieb den ersten Platz unter den freiwilligen Zusatzleistungen im Bereich der Gesundheitsförderung und Beratung,“ so Andreas Heßler, wissenschaftlicher Mitarbeiter des ifaa – Institut für angewandte Arbeitswissenschaft. Mehr Infos zur Studie unter: www.arbeitswissenschaft.net/verguetungsstudie-2023

Während im Jahr 2017 noch 65 Prozent der befragten Unternehmen angaben, ihren Beschäftigten Impfungen anzubieten, stieg dieser Anteil im Jahr 2023 auf 78 Prozent. Diese positive Entwicklung wurde vermutlich durch die Corona-Pandemie zusätzlich verstärkt, da viele Unternehmen in den letzten Jahren auch Corona-Impfungen angeboten haben.

Was kann der Arbeitgeber tun?
Arbeitgeber haben ein Interesse daran, dass ihre Beschäftigten gesund und leistungsfähig bleiben. Impfungen können zwar empfohlen, aber nicht vorgeschrieben werden. Unternehmen können ihre Beschäftigte jedoch unterstützen, indem sie Freistellungen für Impfungen gewähren oder Impfungen durch einen Betriebsarzt organisieren.

Mehr Leistung für Gesundheit
Über das Impfangebot hinaus bieten Arbeitgeber weitere betriebliche Zusatzleistungen an. Besonders gefragt sind neben Vorsorgeuntersuchungen, die 2023 von 67 Prozent der Unternehmen angeboten wurden, auch Erste-Hilfe-Kurse. Laut der aktuellen Erhebung bieten 50 Prozent der befragten Unternehmen allen und 25 Prozent zumindest Teilen der Beschäftigten diesen Benefit an.

„Neben dem Erhalt der Arbeits- und Leistungsfähigkeit ihrer Mitarbeitenden profitieren Unternehmen von einer gesteigerten Arbeitgeberattraktivität. Sie erleichtern es ihnen, sich zu schützen und erweitern gleichzeitig ihr Angebot an Gesundheitsleistungen“, so Andreas Heßler, wissenschaftlicher Mitarbeiter am ifaa.

Wissenschaftliche Ansprechpartner:
Andreas Heßler
a.hessler@ifaa-mail.de
0211 54226312

(nach oben)


EnAqua-Dialog: Wasser für die Energiewende – Lösungskonzepte im Dialog mit den Akteuren

Die Energiewende wird als gesamtgesellschaftliche Aufgabe von dem überwiegenden Teil der Bevölkerung positiv wahrgenommen. Gleichzeitig bestehen Herausforderungen und Konfliktpotenziale innerhalb dieses Transformationsprozesses. Manche Konflikte sind direkt sichtbar, andere sind eher latent, aber für das Gelingen der Energiewende nicht minder von Bedeutung. Bei der Planung von Wasserstoff-Hubs etwa sind die Nutzungskonflikte um die Ressource Wasser bisher nicht als systemische Herausforderung erkannt worden – und damit auch nicht adäquat thematisiert.

Die Wechselwirkungen der Wasserstoff- mit der Wasserwirtschaft stechen als eines von vielen Beispielen für Nutzungskonflikte im Rahmen der Energiewende heraus. Vor dem Hintergrund einer zum Teil äußerst angespannten Wasser-Konkurrenzsituation – lange Dürreperioden und Wassermangel infolge des Klimawandels – müssen gerade für diese Konfliktsituationen schnellstmöglich effiziente Lösungsansätze gefunden werden.

Ein Konsortium aus Geistes- und Naturwissenschaftlerinnen und -wissenschaftlern entwickelt aktuell gemeinsam mit Wasser- und Energieversorgern aus zwei Wasserstoff-Modellregionen (Metropolregion NordWest und Metropole Ruhr) einen Dialogprozess mit dem Namen »EnAqua«.

Wissenslücken schließen und Zielkonflikte aufzeigen
Die Projektpartnerinnen und -partner wählen jeweils einen Wasserstoff-Pilotraum in den Modellregionen aus und analysieren die räumliche-infrastrukturelle Situation: Wie ist die hydrogeologische und klimatische Situation vor Ort? Welche vorhandene Wasserstoff- und Wasserinfrastruktur gibt es? Sie untersuchen zudem die ökologische Situation und die Akteursstruktur. Auf dieser Datengrundlage werden Wechselwirkungen zwischen den Faktoren und Konkurrenzsituationen im Pilotraum analysiert. Beispielsweise verstärkt der Ausbau der Produktionskapazitäten von Wasserstoff (Faktor: räumliche Entwicklung) bei wachsendem Trockenstress (Faktor: Klima) den Wettbewerb um Wasser.

Der EnAqua-Dialog setzt auf die Teilnahme aller betroffenen Akteurinnen und Akteure und bezieht sowohl die Interessen von Bürgerinnen und Bürger als auch die der Industrie, Landwirtschaft, Versorger und Kommunen mit ein. »Wir entwickeln den Dialog als szenarienbasierten Prozess mittels WebGIS-Anwendungen und strukturierter Kommunikations-, Abstimmungs- und Meinungsbildungsprozesse«, erklärt Projektleiterin Dr. Ilka Gehrke vom Fraunhofer UMSICHT.

Transfer für andere Regionen
Der Dialogansatz soll später zügig auf andere Regionen übertragbar sein, wo er noch während der Markthochlaufphase Lösungen für weitere Nutzungskonflikte in der Energiewende ermöglicht. Ilka Gehrke fügt abschließend hinzu: »Perspektivisch lässt sich so eine Beschleunigungswirkung erzielen, da mögliche Konflikte pro-aktiv im Dialog adressiert werden.«

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/projekte/why.html WHy: Wasser für die grüne Wasserstoffwirtschaft

(nach oben)


Anpassung an den Klimawandel: Erstes Reallabor für neuartigen landwirtschaftlichen Anbau mit aufbereitetem Wasser

Regionale Nutzungskonflikte um die Ressource Wasser sind keine Seltenheit und werden sich durch den Klimawandel und die zunehmende Beanspruchung der natürlichen Wasserressourcen weiter verschärfen. Insbesondere die wasserintensive Landwirtschaft ist auf effiziente Lösungen angewiesen. Im Forschungsprojekt HypoWave+ setzt ein Landwirtschaftsbetrieb in Niedersachsen derzeit ein besonders wasserschonendes Verfahren für den hydroponischen Anbau von Gemüse mit hochwertig recyceltem Abwasser um. Medien sind eingeladen, die großtechnische Umsetzung in diesem wissenschaftlich begleiteten Reallabor am 20. August 2024 zu besichtigen.
In Zeiten des Klimawandels und lokaler Wasserknappheiten geht ein Landwirtschaftsbetrieb im niedersächsischen Landkreis Gifhorn mit einem Großversuch neue Wege für einen wasserschonenden Gemüseanbau: In einem hydroponischen Anbausystem werden Pflanzen in Gefäßen ohne Erde über eine Nährlösung versorgt – unter Hinzunahme von aufbereitetem Abwasser. „Hydroponische Systeme sind an sich schon effizient, da sie mit wenig Wasser auskommen“, sagt HypoWave+-Projektleiter Thomas Dockhorn von der Technischen Universität Braunschweig. „Die Besonderheit im HypoWave-System ist, dass wir aus kommunalem Abwasser ein qualitativ hochwertig aufbereitetes Bewässerungswasser gewinnen, das Frischwasser vollständig ersetzt. Im Vergleich zur konventionellen landwirtschaftlichen Bewässerung können Wasserressourcen damit deutlich effizienter eingesetzt werden.“

Effizienteres Anbauverfahren für die Landwirtschaft
Das innovative HypoWave-System bietet nicht nur eine Alternative zur Bewässerung mit Trink- und Grundwasser, sondern auch eine optimierte Nährstoffversorgung. „Den Pflanzen werden wichtige Stoffe wie Stickstoff und Phosphor direkt aus dem aufbereiteten Wasser zugeführt. Die Wasserqualität ist besonders hochwertig, da sie nährstoffreich und frei von Schadstoffen und pathogenen Keimen ist“, erklärt Dockhorn. Entwickelt und wissenschaftlich erprobt wurde dieses Verfahren von 2016 bis 2019 im HypoWave-Pilotprojekt auf dem Gelände der Kläranlage Wolfsburg-Hattorf. Der vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projektverbund untersuchte zudem vorab die Übertragbarkeit des Verfahrens auf unterschiedliche Einsatzmöglichkeiten, Prozessketten zur Wasseraufbereitung und verschiedene Pflanzensorten. Die erste großtechnische Umsetzung des hydroponischen Bewässerungssystems erfolgt nun in einem Teilbereich des 1 600 Quadratmeter großen Gewächshauses der IseBauern GmbH & Co. KG. Als Praxispartner im Forschungsprojekt übernimmt der landwirtschaftliche Betrieb aus Wahrenholz im Landkreis Gifhorn die Verantwortung für den Anbau in unmittelbarer Nähe zu einem Klärteich des Wasserverbands Gifhorn. Die Umsetzung wird seit 2021 im Nachfolgeprojekt HypoWave+ wissenschaftlich begleitet.

Größtes Reallabor dieser Art
„Die Inbetriebnahme des bislang größten Reallabors dieser Art durch die IseBauern und die Kooperation mit dem kommunalen Wasserverband Giforn ist für die Forschung eine außerordentliche Chance“, sagt Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung. „Wir können die Entwicklung des HypoWave-Systems mit all seinen wissenschaftlich-technischen wie auch sozialen Innovationen vom Pilotprojekt bis zur Marktreife wissenschaftlich begleiten und uns intensiv mit Fragen des Qualitätsmanagements, der Vermarktung sowie der Kooperation der beteiligten Akteure beschäftigen.“ Wichtig für Wissenschaft und Landwirtschaft gleichermaßen sei es jetzt, dass sich das HypoWave-System an diesem Standort als tragfähig erweist, so dass Best-Practice-Empfehlungen für andere Standorte erarbeitet werden können. „Es wird für den Erfolg des Reallabors ausschlaggebend sein, dass die beteiligten Akteure aus den Bereichen Wasseraufbereitung, Pflanzenbau, Logistik und Handel gut miteinander vernetzt sind und die Vermarktung der Produkte über regionale Vertriebsstrukturen gelingt.“

Trotz Wasserknappheit: Regionale Lebensmittelerzeugung in Zeiten des Klimawandels
Die gesamte Gewächshausfläche der IseBauern kann perspektivisch mit dem HypoWave-Wasser versorgt werden. Der jährliche Ertrag beläuft sich dann bei Tomaten auf bis zu 11 000 Kilogramm Von den insgesamt 15 Anbaulinien sind im ersten Erntejahr zwei Linien für die Tomatenproduktion mit aufbereitetem Wasser vorgesehen. Ihren Weg in den Handel finden die Produkte über die Direktvermarktung des Landwirtschaftsbetriebs, Hofläden und regionale Supermärkte des Projektpartners Edeka-Ankermann. Das Anbauverfahren mit zertifizierter Produktqualität wird für Kunden über einen QR-Code auf der Pappverpackung der Tomaten nachvollziehbar. „Wir verstehen den Anbauversuch als Investition in die Zukunft und als Anpassungsmaßnahme an den Klimawandel“, sagt Stefan Pieper von der IseBauern GmbH. „Wir können uns durch das HypoWave-System von saisonaler Wasserknappheit unabhängig machen und die Ernten vor Wetterextremen sichern. Deshalb kann diese Anbauform eine echte Alternative für die Landwirtschaft sein, auch weil sie wasserschonend ist, Nährstoffe wiederverwendet und eine regionale Gemüseproduktion ermöglicht. Dafür wollen wir mit dem Reallabor die Weichen stellen.“

Vorteile für Betreiber kommunaler Kläranlagen
Der Anbau mit HypoWave-Wasser erweist sich auch für kommunale Betreiber von Anlagen zur Abwasserbehandlung, die ihre Klärteiche für die Wasserwiederverwendung zur Verfügung stellen wollen, als zukunftsfähig. „Wir entnehmen das Wasser aus den Klärteichen, das wir für den Gemüseanbau benötigen. Es wird in einem mehrstufigen Verfahren mit Mikrosieb, neuartigem Aktivkohlebiofilter, Sandfilter und einem UV-Reaktor qualitativ hochwertig aufbereitet. Das überschüssige Wasser fließt entsprechend hochgereinigt in die Klärteiche zurück“, erklärt Thomas Dockhorn. Durch diesen zusätzlichen Reinigungsvorgang können sich die Betreiber den kostspieligen Bau von Pumpwerken und Leitungen zu den nächstgelegenen Kläranlagen ersparen, der andernfalls in einigen Jahren anstünde. „Die Anbauweise in einem Gewächshaus mit gereinigtem Abwasser in Nachbarschaft zu unseren Teichen ist völlig neu für uns, erweist sich aber schon jetzt als Win-Win-Situation für Landwirtschaft und kommunale Wasserunternehmen“, sagt Christian Lampe, Geschäftsführer des Wasserverbandes Gifhorn. „Wir erhoffen uns auch Impulse für die verstärkte Nutzung in der konventionellen Beregnung.“

Das Forschungsprojekt HypoWave+
Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „HypoWave+ – Implementierung eines hydroponischen Systems als nachhaltige Innovation zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung“ im Rahmen der Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ innerhalb des Bundesprogramms „Wasser: N“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit“ (FONA). Die Fördersumme beträgt 2,8 Millionen Euro. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), der Wasserverband Gifhorn (WVGF), IseBauern GmbH & Co. KG, Xylem Water Solutions Deutschland GmbH, Ankermann GmbH & Co. KG, Huber SE und INTEGAR – Institut für Technologien im Gartenbau GmbH.

Wissenschaftliche Ansprechpartner:
Projektleitung
Prof. Dr.-Ing. Thomas Dockhorn
Technische Universität Braunschweig, Institut für Siedlungswasserwirtschaft
Pockelsstr. 2a
38106 Braunschweig
Tel. +49 531 391-7937
t.dockhorn@tu-braunschweig.de
www.tu-braunschweig.de/isww
Projektkoordination
Dr. Martina Winker
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-53
martina.winker@isoe.de
www.isoe.de

Weitere Informationen:
https://www.hypowave.de

(nach oben)


Unternehmen halten am Homeoffice fest

Zuletzt gab es immer wieder Berichte, dass namhafte Unternehmen ihre Homeoffice-Regelungen einschränken wollen. Die angekündigten „Return-to-Office“-Strategien reichen dabei von neuen Obergrenzen für die Anzahl der Homeoffice-Tage bis zur Wiedereinführung der täglichen Präsenzpflicht. Trotz der medialen Aufmerksamkeit für eine mögliche Abkehr vom Homeoffice belegt eine ZEW-Befragung, dass hybride Arbeitsmodelle in deutschen Unternehmen ungebrochen weit verbreitet sind. Darüber hinaus erwarten Unternehmen für die kommenden zwei Jahre einen weiteren Anstieg der Homeoffice-Nutzung. Das zeigt eine repräsentative Umfrage des ZEW Mannheim unter rund 1.200 Unternehmen im Juni 2024.
„Laut unserer Befragung arbeiten Beschäftigte in 82 Prozent der Unternehmen in der Informationswirtschaft mindestens einmal wöchentlich im Homeoffice. Im stärker ortsgebundenen Verarbeitenden Gewerbe sind es 48 Prozent. Der Anteil der Unternehmen, die ihren Beschäftigten mindestens einen Homeoffice-Tag pro Woche ermöglichen, verharrt damit seit der Corona-Pandemie auf einem konstant hohen Niveau. Demnach sehen wir aktuell keine Anzeichen für eine Abkehr der Unternehmen von Homeoffice-Angeboten, die mindestens einen Tag pro Woche umfassen“, kommentiert Studienleiter Dr. Daniel Erdsiek aus dem ZEW-Forschungsbereich „Digitale Ökonomie“ die Ergebnisse.

Kein Rückgang der Homeoffice-Angebote erwartet
Ein Vergleich der aktuellen Homeoffice-Nutzung mit der Situation vor der Pandemie macht deutlich, wie stark sich das mobile Arbeiten in deutschen Unternehmen etabliert hat. Im Verarbeitenden Gewerbe hat sich der Anteil der Unternehmen mit Homeoffice-Angeboten von 24 Prozent vor der Pandemie auf nun 48 Prozent verdoppelt. In der Informationswirtschaft ist der Anteil mit einem Sprung von 48 Prozent auf 82 Prozent ebenfalls stark angestiegen.
„Mit Blick auf die nächsten zwei Jahre rechnen die Unternehmen auch nicht damit, Angebote mit mindestens einem Homeoffice-Tag pro Woche zurückzufahren. Im Gegenteil: Der Anteil an Unternehmen mit Homeoffice-Angeboten wird laut Erwartungen nochmals ansteigen – auf 88 Prozent in der Informationswirtschaft und 57 Prozent im Verarbeitenden Gewerbe“, so Erdsiek.
Darüber hinaus rechnen die befragten Unternehmen auch mit einem steigenden Anteil der Beschäftigten, die solche Angebote künftig nutzen werden. Beispielsweise erwarten etwa zwei Drittel der Unternehmen in der Informationswirtschaft, dass im Juni 2026 mehr als 20 Prozent ihrer Beschäftigten mindestens einmal wöchentlich im Homeoffice arbeiten werden.

Verbreitung mehrtägiger Homeoffice-Modelle verdoppelt sich
Hybride Arbeitsmodelle können vielfältig ausgestaltet und an die betrieblichen Bedarfe angepasst werden. Ein grundlegender und universeller Bestandteil ist jedoch die vereinbarte Homeoffice-Frequenz. Im Wesentlichen lassen sich fünf Homeoffice-Modelle unterscheiden, die von wöchentlich einem bis zu fünf Tagen Homeoffice reichen.
„Aktuell erlauben 42 Prozent der Unternehmen in der Informationswirtschaft einem Teil ihrer Beschäftigten, an mindestens drei Tagen pro Woche von zuhause zu arbeiten. Vor der Corona-Pandemie war Homeoffice in diesem zeitlichen Umfang hingegen nur in 21 Prozent der Unternehmen möglich“, so Erdsiek. „Auch für die restlichen Homeoffice-Modelle liegt die aktuelle Verbreitung weit über dem Niveau vor der Pandemie – in den meisten Fällen etwa doppelt so hoch. Das gilt sowohl für die Informationswirtschaft als auch fürs Verarbeitende Gewerbe.“

Größere Unternehmen bieten häufiger Modelle mit mehreren Homeoffice-Tagen
In welchem zeitlichen Umfang im Homeoffice gearbeitet werden darf, variiert jedoch stark nach Unternehmensgröße. Dabei gilt: Je größer ein Unternehmen, umso wahrscheinlicher ist es, dass ein Teil der Beschäftigten Angebote mit hoher Homeoffice-Frequenz nutzen kann. Beispielsweise kommen Modelle mit mindestens drei Homeoffice-Tagen in etwa drei Viertel der großen Unternehmen in der Informationswirtschaft (mindestens 100 Beschäftigte) zum Einsatz. Dieser Unternehmensanteil sinkt auf 61 Prozent für mittlere Unternehmen (20 bis 99 Beschäftigte) und beträgt nur 35 Prozent für kleine Unternehmen (fünf bis 19 Beschäftigte).
„Hybride Arbeitsmodelle mit mindestens zwei Homeoffice-Tagen pro Woche werden derzeit von 91 Prozent der großen, 80 Prozent der mittleren und 55 Prozent der kleinen Unternehmen in der Informationswirtschaft genutzt. Im Verarbeitenden Gewerbe liegen diese Unternehmensanteile zwischen 76 Prozent für große und 15 Prozent für kleine Unternehmen.“

Datengrundlage
Die Ergebnisse sind Teil des „ZEW-Branchenreports Informationswirtschaft“ vom Sommer 2024. An der seit 2011 quartalsweise durchgeführten Konjunkturumfrage beteiligten sich im Juni rund 1.200 deutsche Unternehmen des Verarbeitenden Gewerbes und der Informationswirtschaft, die sich aus IKT-Branche, Mediendienstleistern und wissensintensiven Dienstleistern zusammensetzt. In jeder Welle der Befragung werden zudem Daten zu aktuellen Schwerpunktthemen im Forschungsfeld Digitale Ökonomik erhoben. Dazu zählen aktuelle IKT-Trends, Investitionen in IKT oder die Diffusion von neuen IKT-Anwendungen. In der aktuellen Ausgabe war das Schwerpunktthema Homeoffice.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Erdsiek
Wissenschaftler im ZEW-Forschungsbereich „Digitale Ökonomie“
Tel.: +49 (0)621 1235-356
E-Mail daniel.erdsiek@zew.de

Originalpublikation:
https://ftp.zew.de/pub/zew-docs/brepikt/202402BrepIKT.pdf

(nach oben)


Chemie: Wasser entscheidend für Fluoreszenz von Biosensoren

Warum Kohlenstoff-Nanoröhren fluoreszieren, wenn sie an bestimmte Moleküle binden, haben Forschende aus Bochum und Texas herausgefunden. Die Nanoröhren gelten als vielversprechende Biosensoren, die für Blutzucker-Monitoring oder Covid-19-Tests nützlich sein könnten. Binden sie an bestimmte Moleküle, verändert sich ihre Fluoreszenz. Was die Licht-Emission erzeugt, haben Forschende der Ruhr-Universität gemeinsam mit einem Team der University of Texas mithilfe der Terahertz-Spektroskopie analysiert. Sie zeigten, dass die Wasserhülle der Biosensoren eine entscheidende Rolle beim Entstehen der Fluoreszenz spielt. Die Ergebnisse sind online am 8. August 2024 in „Nature Communications“ erschienen.

An der Ruhr-Universität Bochum kooperierten die Gruppen von Prof. Dr. Martina Havenith und Prof. Dr. Sebastian Kruß für die Arbeiten, die im Rahmen des Exzellenzclusters „Ruhr Explores Solvation, kurz RESOLV, stattfanden. Maßgeblich beteiligt waren die Doktorandin Sanjana Nalige und der Doktorand Phillip Galonska.

Kohlenstoff-Nanoröhren als Biosensoren
Nanoröhren bestehen aus einer einzigen Kohlenstofflage und sind daher als Bausteine für Biosensoren besonders gut geeignet, wie frühere Studien zeigten. Sie strahlen Licht im nahinfraroten Bereich aus, welches tief ins Gewebe eindringen kann, und sich beim Binden von Molekülen verändert. Ihre Oberfläche lässt sich mit Biopolymeren oder DNA-Fragmenten bestücken, wodurch sie spezifisch mit einem Zielmolekül interagieren. Auf diese Weise lässt sich beispielsweise das Vorhandensein von bestimmten Neurotransmittern detektieren, also Botenstoffen im Gehirn. Obwohl solche Sensoren bereits im Einsatz sind, ist ihr genaues Funktionsprinzip unklar gewesen.

Wasserhülle für Fluoreszenzänderungen entscheidend
Weil die meisten relevanten biologischen Prozesse in wässriger Lösung stattfinden, untersuchten die Wissenschaftlerinnen und Wissenschaftler die Kohlenstoff-Nanoröhren in solchen Umgebungen. Mithilfe der Terahertz-Spektroskopie konnten sie detektieren, wie Energie zwischen den Nanoröhren und der wässrigen Lösung fließt. Entscheidend dafür ist die Hydrathülle der Biosensoren, also die Wassermoleküle in unmittelbarer Umgebung der Nanoröhren. Regt man die Kohlenstoff-Nanoröhren mit Licht an, werden die Nanoröhren zunächst intern angeregt, und anschließend wird ein Teil der Energie als Fluoreszenz abgebeben. Das Forschungsteam zeigte, dass die Energie alternativ an die Hydrathülle abgegeben werden kann. Dabei kommt es zu einem Energiefluss: Nanoröhren, die heller leuchten, transferieren weniger Energie ins Wasser. Nanoröhren, die schwächer fluoreszieren, geben mehr Energie ins Wasser ab.

„Mit der Terahertz-Spektroskopie konnten wir direkt messen, was wir schon lange vermutet hatten“, sagt Sebastian Kruß. „Dieses Wissen kann helfen, Biosensoren für ihren Einsatz in der Forschung oder der Medizin zu optimieren, indem wir die Hydrathüllen der Nanoröhren mit in Betracht ziehen.“ Martina Havenith, Sprecherin des Exzellenzclusters RESOLV, ergänzt: „In dieser interdisziplinären Arbeit haben wir den Fokus nicht auf die Kohlenstoff-Nanoröhren selbst gelegt, sondern auf das Lösungsmittel Wasser. So konnten wir einen bislang unbekannten Zusammenhang zwischen den Veränderungen im Wasser in der Umgebung der Nanoröhren und ihrer Funktion als Biosensor nachweisen. Das ist genau die Art von Forschung, für die unser Exzellenzcluster RESOLV steht.“

Förderung
Die Arbeiten wurden unterstützt von der Deutschen Forschungsgemeinschaft (EXC 2033 – 390677874, GRK2376-331085229), der VolkswagenStiftung sowie der National Science Foundation (CBET-2106587).

Wissenschaftliche Ansprechpartner:
Für Fragen zur Terahertz-Spektroskopie:
Prof. Dr. Martina Havenith
Physikalische Chemie II
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 28249
E-Mail: pc2office@ruhr-uni-bochum.de
Webseite des Lehrstuhls: https://www.ruhr-uni-bochum.de/pc2/index.html.de

Für Fragen zu Kohlenstoff-Nanoröhren:
Prof. Dr. Sebastian Kruß
Funktionale Grenzflächen und Biosysteme
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 29946
E-Mail: sebastian.kruss@ruhr-uni-bochum.de
Webseite der Arbeitsgruppe: https://www.ruhr-uni-bochum.de/pc2/kruss/

Originalpublikation:
Sanjana S. Nalige, Phillip Galonska, Payam Kelich, Linda Sistemich, Christian Herrmann, Lela Vukovic, Sebastian Kruss, Martina Havenith: THz Coupling in Carbon Nanotube Sensors Modulates Their Fluorescence, in: Nature Communications, 2024, DOI: 10.1038/s41467-024-50968-9

(nach oben)


Klima und Altern: Wie Risiken für ältere Menschen vermindert werden

Die Folgen von Klimawandel und Umweltverschmutzung betreffen ältere Menschen aufgrund ihrer erhöhten Vulnerabilität in besonderem Maße. Auf dramatische Weise zeigen dies extreme Hitzeereignisse wie 2021 im kanadischen British Columbia: Dort war die durchschnittliche Zahl der täglichen Zugänge in Notaufnahmen wegen hitzebedingter Erkrankungen 69 Mal höher als im gleichen Zeitraum zwei Jahre zuvor – besonders häufig versorgt werden mussten Personen über 75 Jahre. Auch in Deutschland sind solche Szenarien denkbar und die Expertise von Geriaterinnen und Geriatern ist gefragt.

In den Fokus rückt dieses bisher noch zu wenig beachtete Thema Professor Jürgen M. Bauer, Ärztlicher Direktor des Geriatrischen Zentrums am Universitätsklinikum Heidelberg sowie Direktor des Netzwerkes Altersforschung der Universität Heidelberg, mit seiner Keynote „Klima und Altern“ am 12. September beim Gerontologie- und Geriatrie-Kongress in Kassel. Dabei beleuchtet er wichtige Fragen nach neuesten wissenschaftlichen Erkenntnissen: Welches sind die spezifischen Risiken für ältere Menschen und wie vermindert man diese – zum Beispiel im Kontext der Pharmakotherapie? Wie verhalten sich Umweltbelastungen und das Konzept des Healthy Aging zueinander? Welche Ansätze des Umweltschutzes bedürfen einer Anpassung in Hinblick auf die ältere Bevölkerung?

In seiner Keynote wird Jürgen M. Bauer die Kongress-Teilnehmer für verschiedene Herausforderungen im Kontext des Klimawandels und der Umweltverschmutzung sensibilisieren. Ein mit hoher Wahrscheinlichkeit erwartbares Szenario basiert auf der Annahme, die Anzahl von Hitzeepisoden nehme ebenso zu wie deren Intensität und Dauer. „Besonders gefährlich für ältere Menschen sind die sogenannten tropischen Nächte, bei denen keine ausreichende Abkühlung stattfindet. Vor allem diejenigen, die zu Hause pflegebedürftig sind oder in Pflegeheimen versorgt werden, sind hier besonders bedroht. Wissenschaftlich fundierte Handlungsanweisungen für Pflegende und Angehörige sollten rechtzeitig kommuniziert werden“, erklärt der Experte. Darüber hinaus ist mit regionalen Extremhitzeereignissen um 40 Grad Celsius, sogenannten „Heat Domes“, zu rechnen. Diese können schnell zu einer Überlastung der Notaufnahme-Strukturen führen. Hier wäre eine Anpassung der Katastrophenschutzpläne an sich erforderlich.

Umgebungstemperatur und Medikation im Blick haben
Präventionsmaßnahmen, um mit diesen Herausforderungen erfolgreich umzugehen, können an vielen verschiedenen Stellen ansetzen. Dazu gehört im konkreten Umfeld zum Beispiel die Sicherstellung einer verträglichen Zimmertemperatur, sachkundige Informationen über die empfohlene Lüftung von Räumen, eine ausreichende Hydratation sowie Anpassungen der medikamentösen Therapie. Neben Diuretika und Antihypertensiva sollten bei transdermalen Systemen sowie bei subkutan verabreichten Medikamenten eine Dosisanpassung erwogen werden.

Umweltfreundliche Ernährung muss altersgerecht sein
Auch sind bestimmte Klima- und Umweltschutzmaßnahmen auf ihre Anwendbarkeit für ältere Menschen zu überprüfen. Das gilt zum Beispiel für die sogenannte „Planetary Health Diet“, die die EAT-Lancet Kommission entwickelt hat, um die Gesundheit der Menschen und des Planeten gleichermaßen zu schützen. Empfohlen wird dabei eine vorwiegend pflanzenbasierte Ernährung, die einen geringen Anteil an Fleisch- und Milchprodukten beinhaltet. Mehrere aktuelle Studien, die Professor Jürgen M. Bauer vorstellen wird, nahmen unlängst die älteren Menschen in den Blick. „Dabei zeigt sich, dass diese Zielgruppe durch die vorgeschlagene Diät einem erhöhten Risiko für eine Unterversorgung mit bestimmten Nährstoffen ausgesetzt wird. Bei Einhaltung der Empfehlung wird unter Umständen zu wenig Calcium, Vitamin B12 und hochwertiges Protein zugeführt. Das heißt, wir müssen auch hier bei unseren Patientinnen und Patienten genau hinschauen und gegebenenfalls diese Empfehlung modifizieren“, so Bauer.

Einbindung geriatrischer Expertise in Aktionspläne nötig
Auf nationaler Ebene sei es zudem wichtig, Geriaterinnen und Geriater stärker in den Umweltschutz einzubinden – zum Beispiel bei der Erstellung von lokalen Hitzeaktionsplänen. „In größeren Städten sind zudem die verschiedenen Stadtviertel in der Regel sehr unterschiedlich von Hitze, Feinstaub- und Ozonbelastung betroffen. Das heißt, man kann auch in der Praxis und im Krankenhaus aufgrund eines unterschiedlichen Einzugsbereichs mit sehr unterschiedlichen Szenarien konfrontiert sein“, erklärt Bauer. Dies betrifft auch die Gefährdung der älteren Menschen durch eine erhöhte Feinstaubbelastung, welche sowohl das Risiko für kardiovaskuläre Erkrankungen als auch für einen beschleunigten funktionellen Abbau erhöht. Um zukünftig mit diesen großen Herausforderungen besser umgehen zu können, seien ein gemeinschaftliches Vorgehen und eine entsprechende politische Willensbildung nötig – und zwar mit Unterstützung durch geriatrische Expertise.

Zur Person:
Professor Jürgen M. Bauer ist Ärztlicher Direktor des Geriatrischen Zentrums am Universitätsklinikum Heidelberg, Agaplesion Bethanien Krankenhauses Heidelberg, sowie Direktor des Netzwerkes Altersforschung der Universität Heidelberg. Von 2016 bis 2018 war er Präsident der Deutschen Gesellschaft für Geriatrie und im Jahr 2018 Präsident des Europäischen Geriatrie-Kongresses. 2020 bis 2024 durfte er als Fachkollegiat die Geriatrie bei der Deutschen Forschungsgemeinschaft (DFG) vertreten. Seit 2022 ist er ordentliches Mitglied der Akademie der Wissenschaften des Landes Baden-Württemberg und seit kurzem versieht er das Amt des Incoming President der Deutschen Gesellschaft für Ernährungsmedizin.

Jetzt Termin vormerken:
Professor Jürgen M. Bauer
Keynote-Vortrag: „Klima und Altern“
Gerontologie- und Geriatrie-Kongress
Hörsaal 1 im Campus Center auf dem Campus Holländischer Platz der Universität Kassel
Donnerstag, 12. September, 14.15 bis 15 Uhr

Interviewmöglichkeit und Kongress-Akkreditierung:
Sie wünschen ein Gespräch oder Interview mit Professor Jürgen M. Bauer zum Thema Klima und Altern? Gerne helfen wir bei der Terminkoordination. Akkreditieren Sie sich zudem jetzt für den Gerontologie- und Geriatrie-Kongress in Kassel. Einfach mit Kopie Ihres Presseausweises oder einer Redaktionsbestätigung per E-Mail an: presse@dggeriatrie.de

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen/2298-pm-klima-und-altern-wie-r…
https://www.gerontologie-geriatrie-kongress.org/

(nach oben)


Risikobewertung von Schadstoffen: Vom Hörsaal in die Praxis

Gießener Hochschulen richten mit dem Forschungszentrum Neu-Ulrichstein und zwei Fachgesellschaften der Umweltchemie und Ökotoxikologie die Tagung „Umwelt 2024“ aus

Die Risikobewertung von Schadstoffen steht im Mittelpunkt der Tagung „Umwelt 2024“ in Gießen und Homberg (Ohm). Dabei werden grundlagenorientierte und angewandte Forschung verknüpft und Einblicke in aktuelle umweltchemische, ökotoxikologische und regulatorische Themen gewährt. Die Justus-Liebig-Universität Gießen (JLU), die Technische Hochschule Mittelhessen (THM) und das Forschungszentrum Neu-Ulrichstein (FNU) in Homberg (Ohm) kooperieren seit vielen Jahren in Ausbildung und Forschung im Bereich der Umweltchemie und Ökotoxikologie und richten in diesem Jahr gemeinsam mit der Fachgesellschaft SETAC (Society of Environmental Toxicology and Chemistry) GLB (German Language Branch) und der GDCh-Fachgruppe Umweltchemie und Ökotoxikologie die gemeinsame Jahrestagung „Umwelt 2024“ der beiden Fachgesellschaften aus.

Erwartet werden rund 250 Teilnehmende aus dem deutschsprachigen Raum und einige internationale Gäste aus Wissenschaft und Industrie. Sie diskutieren vom 8. bis 11. September 2024 die Erkenntnisse nicht nur im Hörsaal, sondern auch direkt am Objekt im Freiland. An der THM, die dieses Jahr die Infrastruktur bereitstellt, werden aktuelle Themen vom theoretischen Modell über den Laborversuch bis hin zu komplexen Ökosystemstudien und computerbasierten Modellierungen präsentiert. Eine Besonderheit der Tagung ist der Feldtag mit rund 25 praktischen Freilanddemonstrationen am Forschungszentrum Neu-Ulrichstein in Homberg (Ohm). Er bietet Einblicke in die praktische Umsetzung komplexer ökotoxikologischer Prüfungen. Nach der Tagung werden die Aufbauten noch einige Zeit für Schülerinnen und Schüler von weiterführenden Schulen der Region zur Verfügung stehen und bei der Orientierung hinsichtlich Ausbildung und Studium unterstützen.

„Die Menge an Kunststoffen, die früher oder später in die Umwelt gelangen und dort potenziell unerwünschte Nebeneffekte verursachen, übersteigt die Biomasse aller Säugetiere mittlerweile bei Weitem“, sagt Prof. Dr. Rolf-Alexander Düring vom Institut für Bodenkunde und Bodenerhaltung der JLU. „Ein verantwortungsvoller Umgang mit diesen Chemikalien – bei Plastik zahlreiche unterschiedliche Polymere – ist ein hochaktuelles Thema der Tagung.“
Das Umweltprogramm der Vereinten Nationen (UNEP) hat im Jahr 2021 die Verschmutzung mit menschengemachten Chemikalien als eine der planetaren Krisen bestätigt. „Damit ist diese Chemikalienbelastung in der Relevanz mit dem Klimawandel und dem Rückgang der biologischen Vielfalt vergleichbar“, so Prof. Düring. „Um die dabei von den Grundlagenwissenschaften erkannten Probleme in praktische Umweltschutzmaßnahmen umzusetzen, ist die Zusammenarbeit mit der anwendungsorientierten Forschung und Entwicklung ein zentraler Erfolgsfaktor“, ergänzt Prof. Dr. Harald Platen vom THM-Kompetenzzentrum für nachhaltige Entwicklung und EnergieSysteme (ZEuUS).

Die beiden Fachgesellschaften der Umweltchemie und Ökotoxikologie – SETAC GLB und GDCh U&Ö – führen grundlagenorientierte und angewandte Forschung im Hinblick auf die Risikobewertung von chemischen Substanzen zusammen. Integriert in die Tagung ist das „Junge Umweltforum der GDCh-Fachgruppe U & Ö, wo Nachwuchswissenschaftlerinnen und -wissenschaftler ihre Forschungsergebnisse präsentieren können.

In den umweltwissenschaftlich ausgerichteten Bachelor- und Masterstudiengängen an der JLU und der THM werden umweltchemische, umweltanalytische und ökotoxikologische Angebote von den Studierenden stark nachgefragt. Die Tagung „Umwelt 2024“ und auch die sonstige Kooperation der Beteiligten bietet den Studierenden über die Grundlagenorientierung an den Hochschulen hinaus Einblicke zum aktuellen Stand der Technik in der Anwendung am Forschungszentrums Neu-Ulrichstein sowie in die Herausforderungen in Forschung und Praxis.

Mit der Tagung bieten die Ausrichter dem wissenschaftlichen Nachwuchs zudem einen attraktiven Einstieg in das Netzwerk aus Wissenschaft, Industrie und Behörden und ermutigen, eigene Forschungsvorhaben vorzustellen. Den besten Arbeiten winken verschiedene Preise, darunter hochdotierte Nachwuchs-Förderpreise der SETAC GLB und der GDCh U&Ö.

Termin
Tagung „Umwelt 2024“: 8.-11. September 2024
Feldtag am Forschungszentrum Neu-Ulrichstein: 10. September 2024

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rolf-Alexander Düring (JLU)
E-Mail: rolf-alexander.duering@umwelt.uni-giessen.de

Prof. Dr. Harald Platen (THM)
E-Mail: harald.platen@lse.thm.de

Prof. Dr. Klaus Peter Ebke (FNU/JLU)
E-Mail: klaus.ebke@umwelt.uni-giessen.de

Weitere Informationen:
https://www.setac-glb.de/tagung-2024 (Programm und Registrierung)

(nach oben)


Biodiversitätsverlust: Viele Studierende im Umweltbereich kennen Ursachen nicht so genau

Umweltstudenten weltweit haben Wahrnehmungslücken, was die Ursachen des globalen Biodiversitätsverlusts betrifft. So das Ergebnis einer Umfrage der Goethe-Universität Frankfurt, bei der mehr als 4000 Studierende aus 37 Ländern befragt wurden. Die Lücken sind von Land zu Land verschieden: In manchen Ländern wird eher der Klimawandel als Ursache unterschätzt, in anderen der Faktor invasive Arten, in dritten die Verschmutzung. Die Umfrage zeigt auch, dass länderspezifische Indikatoren die Wahrnehmung stark beeinflussen.

FRANKFURT. Von den geschätzt 10 Millionen, größtenteils noch unentdeckten Tier- und Pflanzenarten auf der Erde könnten in den nächsten Jahrzehnten eine Million aussterben. Dieser Biodiversitätsverlust hätte dramatische Folgen, denn Tiere und Pflanzen sind Multidienstleister: Sie erhalten Ökosysteme, sorgen für ein ausgeglicheneres Klima auf dem Planeten und liefern uns Nahrung sowie Wirkstoffe für Medizin. Kurz: Ohne Artenvielfalt überleben wir Menschen nicht.

Es braucht also dringend konsequente politische Maßnahmen gegen das „sechste Massenaussterben“ der Erdgeschichte. Eine Personengruppe, auf die es besonders ankommt, sind die heutigen Studierenden im Umweltbereich. Viele von ihnen werden in Zukunft voraussichtlich einflussreiche Posten in Umweltpolitik und Wirtschaft besetzen – und mit darüber entscheiden, ob der globale Rückgang der Artenvielfalt effizient bekämpft wird.

Aber wie gut sind die Entscheiderinnen und Entscheider von morgen überhaupt informiert? Können sie die Hauptursachen für den Biodiversitätsverlust als solche identifizieren – und zudem von Faktoren abgrenzen, die gar keinen Einfluss auf die Artenvielfalt haben? „Wir sind die ersten, die diese Fragen in unserer Studie global wissenschaftlich untersucht haben“, so Dr. Matthias Kleespies von der Abteilung Didaktik der Biowissenschaften der Goethe-Universität Frankfurt.

Zusammen mit anderen Frankfurter Forschern hat Kleespies eine Online-Umfrage bei rund 4400 Studenten der Umweltwissenschaften in 37 Ländern durchgeführt. Diese bekamen eine Online-Fragebogen, der acht Ursachen für den globalen Biodiversitätsverlust auflistet. Darunter die fünf tatsächlichen Hauptgründe: Klimawandel (vermehrte Dürren und andere Folgen der Erwärmung), Übernutzung (etwa Überfischung), Lebensraumverlust (etwa durch Rodungen), Verdrängung durch invasive Arten und schließlich Verschmutzung (Luftverschmutzung, Plastikmüll, Erdölverschmutzung). Zusätzlich waren drei Faktoren aufgeführt, die keinen oder kaum Einfluss auf die Artenvielfalt haben: Elektrosmog, Fabrik- und Fahrzeuglärm sowie das Internet. Die Umweltstudierenden sollten angeben, in welchem Maß die acht Faktoren ihrer Meinung nach für den Rückgang der Biodiversität verantwortlich sind. Die Skala reichte von 1 (geringer Einfluss) bis 5 (sehr starker Einfluss).

Die ausgefüllten Fragebögen wurden mittels einer speziellen Methode analysiert, die Muster in Daten erkennt. Am Ende bildeten sich so insgesamt acht unterschiedliche Cluster mit Anhäufungen bestimmter, gut voneinander unterscheidbarer Antworttypen heraus. Kleespies erläutert: „Bei Antworttyp 1 zum Beispiel werden alle Hauptursachen erkannt, mit Ausnahme des Klimawandels. Dessen Einfluss auf den Rückgang der biologischen Vielfalt unterschätzen die Studenten.“ Bei Typ 2 wiederum spielt die Verschmutzung eine untergeordnete Rolle, bei Typ 7 der Faktor invasive Arten. Eine Sonderform stellt Typ 3 dar, bei der alle Hauptursachen unterschätzt und diese zudem von den irrelevanten Faktoren wie Lärm gar nicht unterschieden werden. „Zum Glück gab es von diesem Antworttypen vergleichsweise wenige“, sagt Kleespies. Insgesamt kommen die acht Antworttypen in den befragten Ländern in unterschiedlicher Häufigkeit vor.

Im nächsten Auswertungsschritt ging es um die Hintergründe der Antworten: Was bedingt die unterschiedlichen Antworttypen? Dafür bezogen die Forschenden länderspezifische Indikatoren ein: den CO2-Ausstoß des Landes sowie Indikatoren für Wohlstand, Umwelt und Biodiversität. Kleespies: „Wir stellten fest, dass diese Indikatoren die Wahrnehmung der Studenten im jeweiligen Land erheblich beeinflussen.“

Beim Antworttyp 1 zum Beispiel, der den Klimawandel als Treiber unterschätzt. In Ländern mit sehr hohem CO2-Ausstoß – etwa Russland, China, Saudi-Arabien – kommt Typ 1 deutlich häufiger vor. „Warum das so ist, lässt sich mit unseren Daten zwar nicht erklären. Aber wir vermuten, dass die Umweltstudenten in diesen Ländern nicht so sensibilisiert sind. Es fehlt im Studium an Aufklärung darüber, dass auch der Klimawandel den Verlust der Artenvielfalt verstärkt.“ Zudem gehe es ja um den Anteil des eigenen Landes am Klimawandel. Dass der groß sei, werde eventuell nicht so gerne zugegeben.

Bei Antworttyp 2 – Verschmutzung als unterschätzter Faktor – ist ebenso ein Zusammenhang zwischen Bewertung und ländertypischen Indikatoren erkennbar, aber in anderer Form. In wohlhabenden Ländern mit gesünderen Ökosystemen – zum Beispiel Australien, Schweden und Deutschland – unterschätzen die Studierenden den Faktor Verschmutzung häufiger. Vermutlich werde Verschmutzung in diesen Ländern allgemein nicht als Problem wahrgenommen, meint Kleespies, und somit auch nicht als eine der Hauptursachen für den globalen Biodiversitätsverlust. Antworttyp 7 wiederum, der invasiven Arten stark unterschätzt, ist in Länder wie Nigeria und Kenia, in denen invasive Arten weniger häufig sind, eher verbreitet. In Australien und Spanien kommt Typ 7 dagegen nur selten vor – gerade dort stellen invasive Arten ein großes Problem dar.

Welche Schlüsse Kleespies aus der Studie zieht? „Sie zeigt erstmals die großen Wahrnehmungslücken, die die nächste Generation der Entscheidungsträger im Umweltbereich beim Thema Artenvielfaltverlust und seinen Ursachen hat. Diese Lücken müssen geschlossen werden.“ Und da sind die heutigen Entscheidungsträger an den Universitäten und in der Politik gefragt. Sie müssen die Rahmenbedingungen dafür schaffen, dass im Umweltstudium des jeweiligen Landes alle Ursachen des komplexen Problems behandelt werden. „Der Biodiversitätsverlust betrifft uns alle, es ist ein globales Problem. Deshalb braucht es bei Studierenden im Umweltbereich, unabhängig vom Herkunftsland, auch eine globale Sichtweise.“ Die Studie sei ein Appell in diese Richtung.

Wissenschaftliche Ansprechpartner:
Abteilung Didaktik der Biowissenschaften und Zootierbiologie
Goethe-Universität Frankfurt
Dr. Matthias Kleespies
Tel: +49 (0)69 798-42276
kleespies@em.uni-frankfurt.de

Prof. Dr. Paul W. Dierkes
Tel: +49 (0)69 798-42273
dierkes@bio.uni-frankfurt.de

Homepage: https://www.zoobiology-frankfurt.de/de/forschungsgebiete/umweltbildungsforschung

Originalpublikation:
Matthias Winfried Kleespies, Max Hahn-Klimroth, Paul Wilhelm Dierkes: Perceptions of biodiversity loss among future decision-makers in 37 countries. npj Biodiversity (2024) https://doi.org/10.1038/s44185-024-00057-3

(nach oben)


Einführung von Umweltzonen hat mentale Gesundheit gestärkt

Verringert sich die Luftverschmutzung, verbessert sich die mentale Gesundheit. Nachdem Umweltzonen als kommunale Maßnahmen eingerichtet wurden, ist die verkehrsbedingte Luftverschmutzung gesunken – und infolgedessen die Wahrscheinlichkeit für psychische Erkrankungen, zeigt eine neue Studie des RWI – Leibniz-Institut für Wirtschaftsforschung und des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin).

Das Wichtigste in Kürze:
Psychische Erkrankungen verursachen erhebliches Leiden und führen zu einer Beeinträchtigung der Lebensqualität. Zudem verursachen sie erhebliche direkte Behandlungskosten im Gesundheitssystem sowie indirekte Kosten, beispielsweise durch sinkende ökonomische Produktivität. Die Weltgesundheitsorganisation (WHO) schätzt die weltweiten Kosten, die durch Depressionen entstehen, auf etwa eine Billion US-Dollar.
Die medizinische Fachliteratur zeigt einen plausiblen Zusammenhang zwischen Luftverschmutzung und psychischen Erkrankungen. Eine neue Studie des RWI Essen und des DIW Berlin untersucht den kausalen Effekt im Kontext deutscher Großstädte (über 100.000 Einwohner) anhand administrativer Krankenkassendaten. Aus Datenschutzgründen werden die Individualdaten vor der Analyse auf Postleitzahlebene aggregiert.
Seit 2008 wurden in Deutschland Umweltzonen eingeführt, um EU-Luftqualitätsgrenzen einzuhalten. In diesen Gebieten ist das Befahren mit stark luftverschmutzenden Fahrzeugen verboten. Die vorliegende Studie zeigt, dass sich die Luftqualität durch die Maßnahme deutlich verbessert hat. In den betroffenen Gebieten ist die Belastung durch Feinstaub (PM10) und Stickstoffdioxid (NO2) deutlich gesunken. Nach Einführung der Umweltzonen sind in den betroffenen Gebieten die Feinstaubkonzentrationen um rund 10 Prozent (Reduktion von 2,5 µg/m³) und die Stickstoffdioxid-Werte um etwa 15 Prozent (Reduktion von 4,8 µg/m³) zurückgegangen.
Durch die kombinierte Verringerung von Feinstaub und Stickstoffdioxid verbessert sich die mentale Gesundheit erheblich. Die bessere Luftqualität senkt das Risiko einer diagnostizierten Depression um 3,5 Prozent. In den erfassten Gebieten bedeutet dies, dass die Inzidenz von 6,7 auf 6,5 Prozent sinkt. Ebenso reduziert sich das Risiko einer diagnostizierten Angststörung um 4 Prozent, somit sinkt die Inzidenz in den Gebieten von 6,2 auf 6 Prozent. Darüber hinaus sinkt die Wahrscheinlichkeit, Antidepressiva verschrieben zu bekommen, um etwa 4 Prozent (Reduktion der Inzidenz von 7,3 auf 7 Prozent). Das Risiko, Spezialisten wie Psychotherapeuten oder Psychiater aufsuchen zu müssen, reduziert sich um 5,7 Prozent, was in den Gebieten einer Verringerung der Inzidenz von 6,2 auf 5,9 Prozent entspricht.
Ein Blick auf die betroffenen Personengruppen zeigt: Insbesondere für jüngere Personen (15- bis 29-Jährige) sinkt das Risiko einer psychischen Erkrankung, wenn die Luftqualität steigt. Eine mögliche Erklärung hierfür ist, dass die Feinstaubbelastung aufgrund der andauernden Entwicklung des Gehirns bei jüngeren Personen erhebliche Schäden verursachen kann. Außerdem sind letztere aufgrund ihres Lebensstils häufiger hoher Luftverschmutzung in Innenstädten ausgesetzt.
Die Studienergebnisse deuten darauf hin, dass Umweltzonen in Deutschland pro Jahr etwa 23.000 Fälle diagnostizierter Depressionen verhindert haben, was zu jährlichen Einsparungen bei den öffentlichen Gesundheitsausgaben in Höhe von 150 bis 200 Millionen Euro geführt hat.
Aus der medizinischen Forschung der vergangenen Jahre ist bekannt, dass durch Luftverschmutzung hervorgerufene Entzündungen und oxidativer Stress im menschlichen Körper Herz-Kreislauf- und Atemwegserkrankungen verursachen können. Ähnliche Entzündungsprozesse spielen auch bei der Entwicklung von mentalen Erkrankungen eine Rolle. Insgesamt deuten die Studienergebnisse darauf hin, dass die verkehrsbedingte Luftverschmutzung erhebliche Auswirkungen auf die mentale Gesundheit hat – und zwar in ähnlicher Größenordnung wie auf die kardiovaskuläre Gesundheit.
Die Studie basiert auf administrativen Gesundheitsdaten einer deutschen Krankenversicherung, geografischen Daten des Umweltbundesamtes (UBA) und kleinräumigen Daten des RWI-GEO-GRID Datensatzes, welche durch das Forschungsdatenzentrum Ruhr am RWI (FDZ Ruhr) bereitgestellt werden. Der Untersuchungszeitraum reicht von 2005 bis 2019.
„Unsere Studie untersucht die Beziehung zwei drängender Probleme mit hoher gesellschaftlicher Relevanz. Wir stellen fest, dass eine bessere Luftqualität in Großstädten auch die mentale Gesundheit erheblich verbessern kann“, sagt RWI-Wissenschaftler Johannes Brehm. „Umweltzonen schützen somit Betroffene, insbesondere junge Menschen. Das ist besonders wichtig, denn die psychische Gesundheit dieser Altersgruppe hat sich in den vergangenen Jahren verschlechtert.“

Wissenschaftliche Ansprechpartner:
Johannes Brehm, johannes.brehm@rwi-essen.de, Tel.: (0)30 / 2021 598-24

Originalpublikation:
https://www.rwi-essen.de/fileadmin/user_upload/RWI/Publikationen/Ruhr_Economic_P…

(nach oben)


Eisen als günstiger Wasserstoffspeicher

ETH-Forschende verwenden Eisen, um Wasserstoff sicher und langfristig zu speichern. Die Technologie könnte in Zukunft für die saisonale Energiespeicherung eingesetzt werden.
Bis 2050 soll Photovoltaik über 40 Prozent des Schweizer Strombedarfs decken. Doch Solarstrom fliesst nicht immer dann, wenn man ihn braucht: Im Sommer gibt es zu viel davon und im Winter, wenn die Sonne seltener scheint und Wärmepumpen auf Hochtouren laufen, zu wenig. Gemäss der Energiestrategie des Bundes will die Schweiz die Winterstromlücke mit einer Kombination aus Importen, Wind- und Wasserkraft sowie durch alpine Solaranlagen und Gaskraftwerke schliessen.
Eine Möglichkeit, den Anteil der Importe und von Gaskraftwerken im Winter möglichst klein zu halten, ist die Produktion von Wasserstoff aus günstigem Solarstrom im Sommer, der dann im Winter versromt werden könnte. Doch Wasserstoff ist hochentzündlich, extrem flüchtig und macht viele Materialien spröde. Um das Gas vom Sommer bis in den Winter zu speichern, sind spezielle Druckbehälter und Kühltechniken erforderlich. Diese benötigen viel Energie und der Bau der Speicheranlagen ist aufgrund der vielen Sicherheitsvorkehrungen sehr teuer. Zudem sind Wasserstofftanks nie ganz dicht, was die Umwelt belastet und zusätzliche Kosten verursacht.
ETH-Forschende um Wendelin Stark, Professor für funktionale Materialien am Departement Chemie und Angewandte Biowissenschaften, haben nun eine neue Speichertechnik entwickelt, um Wasserstoff saisonal zu speichern. Diese Art der Speicherung ist viel sicherer und günstiger als bestehende Lösungen. Dazu nutzen die Forschenden eine bekannte Technologie und das vierthäufigste Element der Erde: Eisen.

Chemische Speicherung
Um Wasserstoff besser speichern zu können, stützen sich Stark und sein Team auf das Eisen-Dampf-Verfahren, das bereits seit dem 19. Jahrhundert bekannt ist. Wenn in den Sommermonaten zu viel Solarstrom vorhanden ist, kann damit Wasser aufgespalten werden, um Wasserstoff zu erzeugen. Dieser Wasserstoff wird dann in einen 400 Grad Celsius heissen Edelstahlkessel geleitet, der mit natürlichem Eisenerz gefüllt ist. Dort entzieht der Wasserstoff dem Eisenerz – das chemisch nichts anderes ist als Eisenoxid – den Sauerstoff, wodurch elementares Eisen und Wasser entstehen.
«Dieser chemische Prozess gleicht dem Aufladen einer Batterie. So kann die Energie des Wasserstoffs fast verlustfrei über lange Zeit als Eisen und Wasser gespeichert werden», erklärt Stark. Wird die Energie im Winter wieder benötigt, drehen die Forscher den Prozess um: Sie leiten heissen Wasserdampf in den Kessel, wodurch aus dem Eisen und Wasser wieder Eisenoxid und Wasserstoff entstehen. Der Wasserstoff kann dann in einer Gasturbine oder Brennstoffzelle in Strom oder Wärme umgewandelt werden. Um für den Entladevorgang möglichst wenig Energie zu brauchen, wird die Abwärme der Entladereaktion genutzt, um den Wasserdampf zu erzeugen.

Billiges Eisenerz trifft teuren Wasserstoff
«Der grosse Vorteil der Technologie ist, dass das Ausgangsmaterial Eisenerz einfach und in grossen Mengen zu beschaffen ist. Zudem müssen wir es nicht einmal aufbereiten, bevor wir es in den Kessel geben», sagt Stark. Die Forschenden gehen zudem davon aus, dass man weltweit grosse Eisenerz-Speicher bauen könnte, ohne den Weltmarktpreis von Eisen substanziell zu beeinflussen.
Auch der Kessel, in dem die Reaktion stattfindet, muss keine besonderen Sicherheitsauflagen erfüllen. Er besteht aus nur sechs Millimeter dicken Edelstahlwänden. Die Reaktion läuft unter normalem Druck ab und die Speicherkapazität steigt mit jedem Zyklus. Der Kessel mit Eisenoxid kann für beliebig viele Speicherzyklen wiederverwendet werden, ohne dass man das Eisenoxid austauschen muss. Ein weiterer Vorteil der Technologie ist, dass die Forschenden die Speicherkapazität leicht vergrössern können. Man muss nur grössere Kessel bauen und mehr Eisenerz einfüllen. Alle diese Vorteile machen die Speichertechnologie schätzungsweise rund zehn Mal günstiger als bestehende Verfahren.
Die Verwendung von Wasserstoff hat jedoch auch einen Nachteil: Seine Herstellung und Umwandlung sind im Vergleich zu anderen Energieträgern ineffizient, da dabei bis zu 60 Prozent der Energie verloren geht. Wasserstoff ist daher als Speichermedium vor allem dann interessant, wenn genügend Wind- oder Solarstrom vorhanden ist und andere Optionen nicht in Frage kommen. Dies ist vor allem bei industriellen Verfahren der Fall, die nicht elektrifiziert werden können.

Pilotanlage am Campus Hönggerberg
Die technische Machbarkeit der Speichertechnologie haben die Forschenden anhand einer Pilotanlage am Campus Hönggerberg demonstriert. Diese besteht aus drei 1,4 Kubikmeter grossen Edelstahlkesseln, die die Forschenden mit jeweils zwei bis drei Tonnen am Markt erhältlichen, unbehandeltem Eisenerz gefüllt haben.
«Die Pilotanlage kann langfristig rund zehn Megawattstunden Wasserstoff speichern. Je nachdem wie man den Wasserstoff in Strom umwandelt, werden daraus vier bis sechs Megawattstunden Strom», erklärt Samuel Heiniger, Doktorand in der Forschungsgruppe von Wendelin Stark. Dies entspricht dem Strombedarf von drei bis fünf Schweizer Einfamilienhäusern in den Wintermonaten. Die Anlage läuft aktuell noch mit Strom aus dem Netz und nicht mit dem auf dem Campus Hönggerberg gewonnenen Solarstrom.
Das soll sich bald ändern: Bis 2026 wollen die Forschenden die Anlage ausbauen und ein Fünftel des Strombedarfs des ETH Campus Hönggerberg im Winter mit eigenem Solarstrom aus dem Sommer decken. Dafür wären Kessel mit einem Volumen von 2’000 Kubikmeter nötig, die rund vier Gigawattstunden grünen Wasserstoff speichern können. Nach seiner Umwandlung in Strom würde der gespeicherte Wasserstoff rund zwei Gigawattstunden Strom liefern. «Diese Anlage könnte als saisonaler Energiespeicher einen kleinen alpinen Stausee ersetzen. Zum Vergleich: Dies wäre etwa ein Zentel der Kapazität des Pumpspeicherkraftwerkes Nate de Drance», sagt ETH-Professor Stark. Zudem würden bei der Entladung zwei Gigawattstunden Wärme anfallen, die die Forschenden in das Heizungssystem des Campus’ integrieren wollen.

Gut skalierbar
Doch würde die Technologie auch für die saisonale Energiespeicherung der gesamten Schweiz funktionieren? Die Forschenden haben dazu erste Berechnungen angestellt: Würde die Schweiz in Zukunft jedes Jahr rund zehn Terrawattstunden Strom aus saisonalen Wasserstoffspeichern beziehen – was zugegebenermassen sehr viel wäre – wären dafür etwa 15 bis 20 TWh grüner Wasserstoff und etwa 10’000’000 Kubikmeter Eisenerz notwendig. «Diese Menge an Eisen entspricht etwa zwei Prozent dessen, was Australien, der grösste Produzent von Eisenerz, jedes Jahr abbaut», erklärt ETH-Professor Stark. Zum Vergleich: Das Bundesamt für Energie rechnet in seinen Energieperspektiven 2050 mit einem Gesamtstromverbrauch von rund 84 TWh im Jahr 2050.
Würde man Tanks bauen, die je etwa eine Gigawattstunde Strom speichern können, hätten diese ein Volumen von rund 1000 Kubikmetern. Dafür wird Bauland von etwa 100 Quadratmetern benötigt. Von diesen Speichertanks müsste die Schweiz rund 10’000 bauen, um im Winter zehn Terrawattstunden (TWh) Strom zu beziehen, was etwa einer Fläche von einem Quadratmeter pro Einwohner entspricht.

Originalpublikation:
Heiniger, SP; Fan Z; Lustenberger UB, Stark WJ: Safe seasonal energy and hydrogen storage in a 1 : 10 single-household-sized pilot reactor based on the steam-iron process. Sustainable Energy & Fuels 2024, 8 (1), 125-132. DOI: 10.1039/D3SE01228J

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2024/08/eisen-als-guen…

(nach oben)


Resiliente Wissenschaft für eine Welt im Wandel

Neue Strategie der Alexander von Humboldt-Stiftung verabschiedet

Die Alexander von Humboldt-Stiftung definiert ihre Schwerpunkte bis Ende 2028 in einer neuen Strategie, die nun vom Stiftungsrat verabschiedet wurde. Damit setzt die Stiftung den Weg fort, ihre individuelle, länder- und disziplinenübergreifende Förderung herausragender Wissenschaftler*innen weiter auszubauen und an global veränderte Rahmenbedingungen anzupassen.

Die neue Strategie ist ein Ergebnis des ersten Amtsjahres von Humboldt-Stiftungspräsident Robert Schlögl und wurde maßgeblich von ihm mitgestaltet. „Die Stiftung sieht den Kern ihres Handelns in der Förderung der Wissenschaften mit einem uneingeschränkten Qualitätsanspruch an ihre Forschenden. Darin und in der Verlässlichkeit über die Zeiten liegt unser Wert, beides schafft Nutzen für unser Land. Dieser Nutzen, den wir als Kulturleistung verstehen und ohne Zweckbindung generieren, wird mit der neuen Strategie um die Dimension einer offenen Wissenschaftsdiplomatie erweitert“, so Robert Schlögl. „Gerade in einer sich wandelnden Welt bringen wir den Schatz unseres Netzwerkwissens für unterschiedliche Zielgruppen in die deutschen Diskurse aktiv ein.“

Vier Wirkungsziele
Als Wirkungsziele der neuen Strategie werden die folgenden vier Bereiche gestärkt: der Wissenschaftsstandort Deutschland, die Wissenschaftsfreiheit und der Schutz gefährdeter Forschender, die Kooperation mit dem Globalen Süden sowie die Gesellschafts- und Politikberatung.

  1. Stärkung des Wissenschaftsstandorts Deutschland
    Die Humboldt-Stiftung gewinnt herausragende internationale Forschende für dauerhafte Kooperationen mit Deutschland. Zur Förderung des Wissenschaftsstandortes will die Stiftung beispielsweise Innovations- und Translationsstipendien auf den Weg bringen und als Matchmaker an der Schnittstelle von Wirtschaft und Wissenschaft hoch spezialisierte Fachkräfte für Deutschland gewinnen. In Auswahl und Förderung sollen strukturelle Benachteiligungen beseitigt und Prozesse möglichst noch chancengerechter gestaltet werden.
  2. Stärkung der Wissenschaftsfreiheit
    Wissenschaftsfreiheit ist für die Humboldt-Stiftung Basis wissenschaftlicher Qualität, Kreativität und Innovation. Aus der konsequenten Verteidigung freiheitlich-demokratischer Werte folgt, dass die Philipp Schwartz-Initiative für gefährdete Wissenschaftler*innen ein unverzichtbares Kerninstrument bleibt. Die Stiftung setzt sich aber auch für mehr Handlungssicherheit bei internationalen Kooperationen ein.
  3. Globale Herausforderungen mit lokaler Expertise angehen
    In Kooperationen mit dem Globalen Süden lernt die Stiftung von ihrem Netzwerk vor Ort. Überzeugt, dass weltweite Herausforderungen nur global und unter Rückgriff auf lokale Expertise adressiert werden können, wird Forschung mit Entwicklungsrelevanz gefördert. Der Fokus liegt auf dem systemischen Nutzen, der aus der Forschungstätigkeit der Geförderten für ihre Heimatregion entsteht.
  4. Gesellschafts- und Politikberatung ausbauen
    Politik und Gesellschaft profitieren von der Expertise der Humboldtianer*innen. Mit dem Format des „Humboldt-Kosmos“ schafft die Stiftung ein Dach für faktenbasierte Beratung. Science Diplomacy als Zwei-Wege Kommunikation: Wissen des Humboldt-Netzwerkes soll in die Welt getragen und Wissen aus der Welt nach Deutschland gebracht werden.

Jährlich ermöglicht die Alexander von Humboldt-Stiftung über 2.000 Forscherinnen aus aller Welt einen wissenschaftlichen Aufenthalt in Deutschland. In weltweit über 140 Ländern pflegt die Stiftung ein fächerübergreifendes Netzwerk von mehr als 30.000 Humboldtianerinnen – unter ihnen 61 mit Nobelpreis.

Weitere Informationen:
https://www.humboldt-foundation.de/entdecken/newsroom/pressemitteilungen/strategie-2024-2028 Original Pressemitteilung
http://www.humboldt-foundation.de/entdecken/ueber-die-humboldt-stiftung/strategie-der-alexander-von-humboldt-stiftung Weitere Infos und PDF der Strategie 2024-2028

(nach oben)


4. Hofer Wasser-Symposium: Wie die Menschheit ihre Wasserressourcen sichern kann – jetzt anmelden!

Am 15. und 16. Oktober 2024 veranstaltet das Institut für nachhaltige Wassersysteme (inwa) in Kooperation mit dem Kompetenznetzwerk Wasser und Energie e.V. das 4. Hofer Wasser-Symposium. In den Räumlichkeiten des Instituts für Informationssysteme (iisys) stehen dabei an der Hochschule Hof die Sicherung der globalen, aber auch der regionalen Wasservorräte im Mittelpunkt. Als Redner wird unter anderem Sänger und Wasseraktivist Rolf Stahlhofen („Söhne Mannheims“) erwartet.

Unter dem Leitthema „Sicherung von Wasserressourcen in Dürrezeiten“ erwartet die Teilnehmenden ein interaktives und vernetzendes Programm.

Offen für Fachleute und Öffentlichkeit
Im Rahmen der Ausstellung präsentieren sich neben dem inwa und dem Kooperationspartner Kompetenznetzwerk Wasser und Energie e.V. viele weitere Unternehmen aus der Wasserwirtschaft. „Das Hofer Wasser-Symposium ist eine Fachveranstaltung mit integrierter Ausstellung, die sich an Spezialistinnen und Spezialisten aus dem Bereich der Wasserwirtschaft richtet. Dies können Verantwortliche der Trinkwasserversorgung oder der Abwasserentsorgung sein, aber auch Unternehmen, die z.B. durch ihre Technik oder durch Software die Wasserwirtschaft gestalten“, so Institutsleiter Prof. Günter Müller-Czygan. Auch Behördenvertreterinnen und -vertreter sowie die interessierte Öffentlichkeit sind zum Wasser-Symposium herzlich willkommen.

Rolf Stahlhofen: Musiker und engagierter Wasseraktivist
Als Keynote-Speaker beschäftigt sich Dr. Andreas Marx vom Helmholtz-Zentrum für Umweltforschung in Leipzig mit dem „Langjährigen Wasserhaushalt und Dürre unter dem Einfluss des Klimawandels“. Rolf Stahlhofen, Gründer der Water is Right Foundation (Water Is Right Foundation), Sänger und Wasseraktivist, spricht als weiterer Hauptredner zum Thema “Gute Wasserqualität: ein Menschenrecht in Zeiten des Klimawandels“. Der Musiker, der einen Teil seiner Gage stets in seine Stiftung investiert, hat ein klares Ziel: „Wir möchten in den nächsten zehn Jahren 100 Millionen Menschen ausreichend Trinkwasser und sanitäre Einrichtungen zur Verfügung zu stellen“, so Stahlhofen. Seine Vision sei es, bis 2050 das weltweite Wasserproblem weitestgehend zu lösen.

Trotz zuletzt vielem Regens: Thema weiter brandaktuell
Dass das Thema des Symposiums – trotz vielem Niederschlags in Deutschland im ersten Halbjahr 2024 – weiter brandaktuell ist, betont Organisator und Institutsleiter Prof. Günter Müller-Czygan: „Regional hat sich die kritische Situation der Grundwasserpegel sowie der Bodenfeuchte in den oberen Schichten erkennbar verbessert. Aber die Gefahr mangelnder Wasser-Verfügbarkeit in Dürrezeiten bleibt für viele Regionen natürlich unvermindert bestehen. Immer sichtbarer werden die Folgen einer jahreszeitlichen Verschiebung von Niederschlägen. Sommerliche Trockenperioden verlängern sich, die Grundwasserneubildung im Sommer geht weiter zurück, was durch die verringerte Versickerung von Starkregen durch ausgetrocknete Böden verstärkt wird, insbesondere nach längeren Trockenperioden.“ Die Stellvertretende Institutsleiterin Prof. Dr. Manuela Wimmer ergänzt: „Auf der anderen Seite brauchen wir mehr Grün in den Städten, und Land- sowie Fortwirtschaft müssen zukünftig verstärkt bewässert werden, wodurch der zunehmende Wasserbedarf einen weiteren Stressfaktor darstellt. Nicht zuletzt erhöhen Niedrigwasserstände in unseren Gewässern den Druck auf die Wasserwirtschaft, alle wasserrelevanten Bedarfe in ausreichender Menge und Qualität dauerhaft sicherzustellen.“

Innovationstransfer für lokale Entscheidungsträger
Zahlreiche Initiativen der Länder, des Bundes und auch auf EU-Ebene befassen sich derzeit aus unterschiedlicher Perspektive mit einer zukunftsfähigen Wasserressourcensicherung vor dem Hintergrund der zunehmenden Auswirkungen des Klimawandels. Zudem gibt es viele neue technische und organisatorische Impulse aus Wirtschaft und Wissenschaft mit Wasser effizienter umzugehen, eine Mehrfachnutzung zu erhöhen oder alternative Wasserressourcen zu erschließen. „Obwohl viele Lösungen vorhanden sind, ist der Weg in die Praxis aber noch steinig und bedarf einer schnelleren Umsetzung angesichts der zunehmenden Risiken. Dabei stehen die Städte und Kommunen als Gestalter der öffentlichen Wasserver- und Abwasserentsorgung an vorderster Front und benötigen einen wirksamen Innovationstransfer auf die jeweilige lokale Situation“, so Prof. Dr. Manuela Wimmer. Gleichzeitig müssten in Frage kommende Lösungen und Maßnahmen zur Wasserressourcensicherung insbesondere in Dürrezeiten als passender Baustein in die stetig steigende kommunale Aufgabenvielfalt integriert werden.

Innovative Diskussionsformate
Klassische Vortragsformate mit anschließender Diskussion werden beim 4. Hofer Wassersymposium ergänzt durch neuartige, innovative Formate wie einer „Fishbowl-Diskussion“, welche die Möglichkeit bietet, mit den Keynote-Speakern und Vertretern aus Wissenschaft und Unternehmen in den Dialog zu treten. Ein Platz in der „Fishbowl“ ist dabei stets frei, um aktiv teilnehmen zu können, Fragen zu stellen oder Meinungen austauschen zu können.

Anmeldung und Anmeldegebühr
Eine Anmeldung ist bis 16. September 2024 möglich.
Das detaillierte Programm und die Möglichkeit zur Anmeldung finden Sie unter: 4. Hofer Wasser-Symposium – inwa (hof-university.de)

Bild: Rolf Stahlhofen (Quelle: Water is Right Foundation);

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de

Anhang
Wie die Menschheit ihre Wasserressourcen sichern kann

(nach oben)


Weniger Dünger für mehr Umweltschutz

DBU fördert innovatives Saatgutprojekt mit 432.000 Euro
Osnabrück. Der ressourcen- und umweltschonende Umgang mit Düngemitteln ist seit Jahren Zankapfel nicht nur innerhalb der Europäischen Union (EU), sondern auch in Deutschland. Erst im Juli lehnte der Bundesrat die vom Bundeskabinett beschlossenen Änderungen am Düngegesetz ab. Linderung für Landwirtschaft und Umwelt verspricht nun ein Verfahren, das die Deutsche Bundesstiftung Umwelt (DBU) mit rund 432.000 Euro fördert und vom Osnabrücker Biotech-Betrieb SeedForward entwickelt wurde: eine biobasierte Saatgutbehandlung in Kombination mit Mikroorganismen für weniger Düngereinsatz und mehr Umweltschutz.

„Ungeahnte Potentiale nicht nur in Deutschland“
„Das Projekt hat uns sehr überzeugt“, sagt DBU-Generalsekretär Alexander Bonde. „Es ist hoch innovativ und äußerst praxisrelevant. Denn es bündelt die Ziele aller Beteiligten: Gleichbleibende Erträge bei reduziertem Düngemitteleinsatz, ohne die Ernährungssicherheit zu gefährden. Die Methode schont Wasser und Boden – aber eben auch die Geldbeutel von Bäuerinnen und Bauern, weil sie weniger düngen müssen.“ Bonde weiter: „Die derzeitigen Feldversuche sind vielversprechend und können ein wichtiger Schritt zu einer nachhaltigen und regenerativen Agrarwirtschaft sein – mit völlig ungeahnten Potentialen nicht nur in Deutschland.“ Die zuständige Referentin Dr. Susanne Wiese-Willmaring sieht ebenfalls „großes Zukunftspotential“ in dem SeedForward-Projekt, das Anfang dieses Jahres gestartet ist und noch bis Ende 2026 mit Feldversuchen an verschiedenen Standorten im Bundesgebiet läuft. „Die biobasierte Saatgutbehandlung verbessert die Wurzelentwicklung und erhöht damit zugleich die Nährstoffnutzung der Pflanzen“, so Wiese-Willmaring. In der Folge werde die Widerstandsfähigkeit gegen Krankheitserreger und Mangelerscheinungen gesteigert.

Negative Folgen für das Ökosystem minimieren
SeedForward-Gründer Jan Ritter, der gemeinsam mit Jacob P. Rohn die Geschicke des seit 2017 bestehenden Unternehmens mit mittlerweile rund zwei Dutzend Mitarbeitenden leitet, ist jedenfalls optimistisch: „Mit unseren Produkten und Wirkstoffen können wir die Mengen der eingesetzten Stickstoff- und Phosphatdüngemittel substanziell vermindern.“ Und das sei „dringend notwendig, um die negativen Folgen fürs Ökosystem zu minimieren. Denn ein Übermaß an Nährstoffen hat nicht nur für den Boden gravierende Folgen, sondern auch im Wasser: Es kommt zu einem Entzug von Sauerstoff, vermehrtem Algenwachstum – und dem Verlust an Biodiversität.“ Gewässer wie der Dümmer in Niedersachsen „könnten kippen“.

„Hochkomplexer Cocktail aus biobasierten Wirksubstanzen“
Die SeedForward-Entwicklung besteht nach Ritters Worten darin, „dass wir Biostimulanzien auf das Saatgut aufbringen und so das Wurzelwachstum anregen. Durch eine größere Wurzeloberfläche können die Pflanzen mehr Nährstoffe aufnehmen, brauchen also nicht so viel gedüngt zu werden“. Bei den aktuellen Feldversuchen dreht sich alles um Brotweizen, Mais und Raps. Künftig kommen dafür auch Zuckerrüben, Leguminosen und Gemüse in Frage. Die biobasierte Ummantelung von Pflanzensamen sei eine Alternative zur bisherigen Praxis der Beizung mit chemisch-synthetischen Wirkstoffen mit oftmals natur- und umweltschädigenden Folgen, etwa für Insekten. Zum Einsatz kommt beim SeedForward-Verfahren laut Ritter „ein hochkomplexer Cocktail aus biobasierten Wirksubstanzen“.

Einsatz frei lebender, stickstoff-fixierender Organismen
Das ist aber noch nicht alles. Der SeedForward-Gründer: „Wir applizieren zudem Bakterien, die sich positiv auf die Phosphatmobilisierung auswirken.“ Das sei wichtig, da Phosphat im Boden meistens festgebunden sei und für Pflanzen nicht im gewünschten Maß als Nährstoff zur Verfügung stehe. Hinzu kommt: „Wir setzen zudem frei lebende, stickstoff-fixierende Organismen über Blatt und Boden ein“, so Ritter. Auch das diene dem Ziel, die Pflanzen mit zusätzlichen Nährstoffen zu versorgen – und so Düngemittel zu minimieren. Ritter: „Bei Brotweizen, Mais und Raps werden bundesweit im Durchschnitt pro Hektar derzeit rund 200 Kilogramm Stickstoff ausgebracht. Wir wollen eine Ersparnis von 10 bis 20 Prozent erzielen.“

Überdüngung Gefahr für Menschen, Tiere und Umwelt
Neben Phosphat zählen Stickstoff und Kalium zu den Hauptnährstoffen von Pflanzen, sorgen für deren Wachstum und entscheiden letztlich über den Ernte-Ertrag. Das Problem: Seit Jahren kommt es nicht nur in Deutschland, sondern auch in anderen EU-Ländern zu einer Überdüngung. Brüssel hat deshalb in den vergangenen Jahren mehrfach Vertragsverletzungsverfahren unter anderem gegen Berlin in Gang gebracht. Werden Böden überdüngt, hat das negative Folgen für Menschen, Tiere und Umwelt: Die überschüssigen Nährstoffe können von den Pflanzen nicht mehr aufgenommen werden und gelangen durch Auswaschung nicht nur ins Grundwasser, sondern über Oberflächenabfluss in Flüsse und Meere. Eine erhebliche Rolle im Zusammenhang mit der Stickstoffdüngung spielt Nitrat, das oft als mineralischer Dünger zugeführt wird. Nimmt der Mensch zu viel Nitrat über Nahrung und Trinkwasser auf, besteht die Gefahr der Umwandlung in das krebserregende Nitrit.

Weitere Informationen:
https://www.dbu.de/news/weniger-duenger-fuer-mehr-umweltschutz/ Online-Pressemitteilung

(nach oben)


Neue Antibiotika braucht die Welt!

Journalistenseminar „Auf der Suche nach neuen Antibiotika und Wirkstoffen aus Bakterien“ des Leibniz-Instituts DSMZ in Braunschweig am 14. November 2024

Eine zunehmende und besorgniserregende Antibiotika-Krise bedroht Menschen weltweit. Global kommt es immer häufiger zu Antibiotika-Resistenzen und Millionen Menschen versterben daran. Arbeitsgruppen von Wissenschaftlern sind weltweit auf der Suche nach neuen Antibiotika. In diesem Bereich forschen auch die Mitarbeitenden der Abteilung Bioressourcen für die Bioökonomie und Gesundheitsforschung unter der Leitung von Prof. Dr. Yvonne Mast am Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH in Braunschweig.

Nicht nur die WHO sieht die Antibiotika-Resistenzen als eine globale Bedrohung für die Gesundheit von Menschen an. Mindestens 1,3 Millionen Menschen sterben jährlich weltweit, weil Antibiotika bei ihrer Infektion nicht (mehr) wirken. Die Wissenschaft stellt sich einer der größten Herausforderungen für die Gesundheitsforschung: der Entstehung und Verbreitung multiresistenter Erreger (MRE) entgegenzuwirken, neue Wirkstoffe (insbesondere Antibiotika) zu entwickeln und die Bakteriophagen-Forschung voranzutreiben. Das Leibniz-Institut DSMZ ist die umfangreichste Bioressourcen-Sammlung weltweit und unterstützt global Forschende der Lebenswissenschaften – nicht nur in der Antibiotika- und Bakteriophagen-Forschung.

Der Themenbereich Antibiotika, Resistenzen und Infektionen ist höchst komplex und daher bieten die Wissenschaftler des Leibniz-Instituts DSMZ Journalisten die Möglichkeit, am 14. November 2024 an einem Journalistenseminar in Braunschweig teilzunehmen und wichtige Einblicke in die moderne Wirkstoffforschung zu erhalten. Ablauf des Journalisten-Seminars „Auf der Suche nach neuen Antibiotika und Wirkstoffen aus Bakterien: „Neue Antibiotika braucht die Welt!“ am 14. November 2024, 10.00 bis 17.00 Uhr, Leibniz-Institut DSMZ, Science Campus Braunschweig-Süd, Gebäude B2:

Vorstellung der vielfältigsten Bioressourcen-Sammlung der Welt und ihrer Forschungsschwerpunkte

Neues aus der Wirkstoffforschung – die Suche nach neuen Antibiotika aus Actinomyceten etc., Prof. Dr. Yvonne Mast

Genetik und Biologie von Streptomyceten als Antibiotika-Produzenten, Dr. Juan-Pablo Gomez Escribano

Die Vielfalt der Actinomyceten und ihre Bedeutung, Dr. Imen Nouioui

Führung durch das Actinomyceten-Labor, Möglichkeit für Fotos und Diskussion mit den beteiligten Forschenden

Aktivierung stiller Antibiotikasynthese-Gencluster zur Findung neuer Wirkstoffe,
Dr. Roman Makitrynskyy

Screening nach neuen Phosphonat-Antibiotika aus Actinomyceten der DSMZ, Alina Zimmermann

Antibiotikaproduzenten aus der Antarktis, Ulrike Tarazona

Phagen und deren Wirksamkeit gegen pathogene Actinomyceten, Dr. Clara Rolland/Dr. Johannes Wittmann

Führung durch das Hauptgebäude des Leibniz-Instituts DSMZ (Abteilungen für Pflanzenviren, Menschliche und Tierische Zellkulturen sowie Mikroorganismen)

Die Teilnahme, inklusive Mittagessen, Getränke und Imbiss, ist kostenlos. Reisekosten können nicht übernommen werden. Anmeldung bis zum 7. November 2024, 10.00 Uhr.

DSMZ-Pressekontakt:
PhDr. Sven-David Müller, Pressesprecher des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, Tel.: 0531/2616-300, E-Mail: press@dsmz.de

Über das Leibniz-Institut DSMZ
Das Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH ist die weltweit vielfältigste Sammlung für biologische Ressourcen (Bakterien, Archaeen, Protisten, Hefen, Pilze, Bakteriophagen, Pflanzenviren, genomische bakterielle DNA sowie menschliche und tierische Zellkulturen). An der DSMZ werden Mikroorganismen sowie Zellkulturen gesammelt, erforscht und archiviert. Als Einrichtung der Leibniz-Gemeinschaft ist die DSMZ mit ihren umfangreichen wissenschaftlichen Services und biologischen Ressourcen seit 1969 globaler Partner für Forschung, Wissenschaft und Industrie. Die DSMZ ist als gemeinnützig anerkannt, die erste registrierte Sammlung Europas (Verordnung (EU) Nr. 511/2014) und nach Qualitätsstandard ISO 9001:2015 zertifiziert. Als Patenthinterlegungsstelle bietet sie die bundesweit einzige Möglichkeit, biologisches Material nach den Anforderungen des Budapester Vertrags zu hinterlegen. Neben dem wissenschaftlichen Service bildet die Forschung das zweite Standbein der DSMZ. Das Institut mit Sitz auf dem Science Campus Braunschweig-Süd beherbergt mehr als 88.000 Bioressourcen und hat fast 230 Beschäftigte. www.dsmz.de

Über die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 96 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 2 Milliarden Euro. www.leibniz-gemeinschaft.de

(nach oben)


Forschung hat Fischbestände zu optimistisch eingeschätzt: GEOMAR-Experte fordert realistischere Bestandsbewertungen

Es steht schlecht um die Fischbestände weltweit. Bislang galt als Hauptursache der Überfischung, dass die Fischereipolitik Fangmengen stets höher festlegte, als von der Wissenschaft empfohlen. Eine neue Studie zeigt nun, dass auch die Empfehlungen der Wissenschaft oft bereits zu hoch waren. Dr. Rainer Froese vom GEOMAR und Dr. Daniel Pauly von der University of British Columbia ordnen die Ergebnisse ein. In ihrem Perspective Paper, das heute in der Fachzeitschrift Science zusammen mit der neuen Studie erscheint, fordern die beiden Fischerei-Experten einfachere aber genauere Modelle und im Zweifelsfall eine konservativere Bestandsbewertung.

Weltweit sind viele Fischbestände durch Überfischung bedroht oder bereits zusammengebrochen. Ein Grund für diese fatale Entwicklung ist, dass sich die Politik oftmals über die von Wissenschaftler:innen errechneten Höchstfangmengen hinweggesetzt hat. Diese Mengen waren als Grenzwerte gedacht, die es unbedingt einzuhalten galt, um die Bestände nicht zu gefährden. Doch nun zeigt sich, dass auch die Empfehlungen der Wissenschaft bereits deutlich zu hoch waren.

In der Europäischen Union (EU) zum Beispiel wird die Fischerei hauptsächlich durch zulässige Höchstfangmengen, die so genannten Fangquoten, gemanagt. Diese werden vom Europäischen Ministerrat, also den Landwirtschaftsminister:innen der Mitgliedsstaaten, basierend auf wissenschaftlicher Beratung und den Empfehlungen der EU-Kommission beschlossen. Eine neue Studie australischer Wissenschaftler:innen (Edgar et al.) zeigt nun, dass bereits diese wissenschaftliche Beratung oft zu hohe Fangmengen empfiehlt.

Das Fachmagazin Science, in dem die Studie heute veröffentlicht wird, hat zwei der weltweit meistzitierten Fischerei-Experten, Dr. Rainer Froese vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Dr. Daniel Pauly von der University of British Columbia, gebeten, die Ergebnisse einzuordnen. In ihrem Perspective Paper plädieren sie für einfachere, aber realistischere Modelle, die auf ökologischen Grundlagen basieren und für eine im Zweifelsfall konservativere Bestandsbewertung und -bewirtschaftung.

Für die Studie analysierten Edgar et al. Daten von 230 Fischbeständen weltweit und stellten fest, dass Bestandsabschätzungen oft viel zu optimistisch waren. Sie überschätzten, wie viele Fische einer Art es noch gibt und wie schnell sich Fischbestände erholen können. Besonders betroffen sind durch Überfischung geschrumpfte Bestände. Die Überbewertungen führten bei ihnen zu so genannten Phantom-Erholungen: Sie wurden als erholt eingestuft, obwohl sie in Wirklichkeit weiter schrumpften. „Das führte dazu, dass Fangmengen nicht ausreichend reduziert wurden, obwohl es dringend notwendig gewesen wäre“, erklärt Dr. Rainer Froese, „leider ist dies kein Problem der Vergangenheit. Die bekannten Überschätzungen der Bestandsgrößen aus den letzten Jahren werden auch jetzt nicht zur Korrektur der aktuellen Bestandsgrößen herangezogen.“

Die Untersuchungen von Edgar et al. zeigen außerdem, dass fast ein Drittel der Bestände, die von der Welternährungsorganisation (Food and Agriculture Organization, FAO) als „maximal nachhaltig befischt“ eingestuft werden, die Schwelle zur Überfischung bereits überschritten haben. Zudem sind weit mehr Bestände zusammengebrochen als bisher angenommen: Innerhalb der Kategorie „überfischt“ schätzen die Autoren der Studie, dass die Zahl der kollabierten Bestände (das sind Bestände, die weniger als zehn Prozent ihrer früheren maximalen Biomasse aufweisen) wahrscheinlich um 85 Prozent höher liegt ist als bisher angenommen.

Aber woher kommt die beobachtete Verzerrung in den Bestandsbewertungen? Die Standard-Bestandsabschätzungen verwenden Modelle, die mehr als 40 verschiedene Parameter enthalten können, zum Beispiel zur Lebensgeschichte der Fische, zu Fangdetails, und zum Fischereiaufwand. Diese Vielzahl von Variablen mache die Abschätzungen unnötig komplex, schreiben Froese und Pauly. Die Ergebnisse könnten nur von wenigen Experten reproduziert werden, die Zugang zu den Originalmodellen und -daten haben. Darüber hinaus seien mehrere der erforderlichen Eingabeparameter unbekannt oder schwer zu schätzen, so dass die Modellierer stattdessen auf weniger belastbare Werte zurückgreifen, die in der Vergangenheit funktioniert haben. Froese: „Solche Praktiken können die Ergebnisse stark auf die Erwartungen der Modellierer beschränken.“

Die Autoren fordern daher eine Überarbeitung der aktuellen Bestandsbewertungsmodelle. Sie plädieren für einfachere, realistischere Modelle, die auf ökologischen Grundlagen basieren. Zudem sollte das Vorsorgeprinzip stärker angewandt werden: Bei Unsicherheiten sollten eher konservative Schätzungen verwendet werden, um die Bestände zu schützen. „Eigentlich ist nachhaltige Fischerei ganz einfach“, sagt Dr. Rainer Froese: „Es darf immer nur weniger Fisch entnommen werden als nachwächst.“ Die Fische müssen sich vermehren können, bevor sie gefangen werden, außerdem braucht es umweltschonende Fanggeräte und die Einrichtung von Schutzzonen. Funktionelle Nahrungsketten müssen erhalten werden, indem weniger Futterfische wie Sardellen, Sardinen Heringe oder auch Krill gefangen werden – das sind die Prinzipien der ökosystembasierten nachhaltigen Fischerei. Froese: „Vier dieser fünf Prinzipien lassen sich auch ohne Kenntnis der Bestandsgröße umsetzen.“

Originalpublikation:
Froese, R., Pauly, D. (2024): Taking stock of global fisheries. Current stock assessment models overestimate productivity and recovery trajectory. Science
DOI: 10.1126/science.adr5487
https://doi.org/10.1126/science.adr5487

Weitere Informationen:
http://www.geomar.de/n9563 Bildmaterial zum Download (nach Ablauf des Embargos)
https://www.geomar.de/entdecken/fischereiforschung Fischereiforschung am GEOMAR
https://www.fishbase.de/ Globale Fischdatenbank von Rainer Froese und Daniel Pauly
http://www.science.org/doi/10.1126/science.adl6282 Studie von Edgar et al.

(nach oben)


Alkohol als Speichermedium: Power-to-Methanol könnte zu einem Standbein der Energiewende werden

Effiziente Speichertechnologien sind eine tragende Säule eines regenerativen Energiesystems, um überschüssigen Strom zwischenzuspeichern. Methanol könnte in diesem Zusammenhang eine wichtige Rolle zukommen. Die große Frage dabei ist, wie sich solche Power-to-Methanol-Systeme in eine künftige Infrastruktur der Erneuerbaren integrieren und wirtschaftlich betreiben lassen. Eine Antwort darauf hat Dr. Stefan Fogel vom Helmholtz-Zentrum Dresden-Rossendorf (HZDR) durch aufwendige Modellierung und umfangreiche Simulationen während seiner Dissertation gefunden.

Die unstete Verfügbarkeit von Sonne und Wind stellt ein zukünftiges Energiesystem, das auf erneuerbaren Quellen beruht, vor große Herausforderungen. Herrschen beste Wetterbedingungen, wird mitunter mehr Strom generiert, als das Netz abnehmen kann. Damit die Anlagen dann nicht gedrosselt werden müssen, sind kluge Speicherlösungen gefragt. Eine davon könnte Power-to-Methanol sein. Mit dieser wird Überschussstrom aus Solaranlagen oder Windparks zuerst in Wasserstoff und dann zusammen mit Kohlendioxid-Emissionen aus Industrieprozessen in den einfachsten Vertreter der Alkohole umgewandelt.

„Methanol ist ein sehr guter Energiespeicher und hat auf das Volumen bezogen im Vergleich zu Wasserstoff eine viel höhere Energiedichte“, sagt Dr. Stefan Fogel vom HZDR-Institut für Fluiddynamik. „Als Flüssigkeit lässt es sich auch wesentlich einfacher transportieren und speichern.“ Das macht den Alkohol einerseits zu einem idealen Speichermedium. Andererseits ist er aber auch ein wichtiger Grundstoff in der Chemieindustrie. Wie sich der Herstellungsprozess aber in ein regeneratives Energiesystem integrieren lässt, ist noch nicht umfassend erforscht.

„Arbeiten zur stationären und dynamischen Modellierung und Simulation von Power-to-Methanol-Prozessen auf Basis von Hochtemperatur-Elektrolyseuren sind in der wissenschaftlichen Literatur bisher stark unterrepräsentiert“, erklärt der Chemieingenieur. „Gleiches gilt für deren wirtschaftliche Bewertung.“ Deshalb hat sich Fogel für seine Arbeit auf eben jene Elektrolyse-Systeme fokussiert, die bei Betriebstemperaturen über 600 Grad Celsius reinen Wasserstoff erzeugen. Dieser wird ohne weiteren Separationsaufwand direkt in der Synthesestufe genutzt. Das ist effizienter als die heute etablierten Technologien wie zum Beispiel die alkalische Elektrolyse.

Digitaler Zwilling zeigt Potentiale auf
Den digitalen Zwilling, den er dabei vom Power-to-Methanol-System modelliert hat, nutzte er für umfassende Simulationen. „Ich habe mir angeschaut, was passiert, wenn man das System dynamisch betreibt“, geht er ins Detail. Die Frage ist besonders im Hinblick auf regenerative Energien essentiell. Denn heutige Elektrolyseure werden üblicherweise für einen Betrieb rund um die Uhr ausgelegt. Doch dezentral an einem Windpark oder einer Photovoltaik-Anlage angeschlossen, würden die Systeme nur in Zeiten von Energieüberschuss arbeiten. Das bringt einerseits technische Herausforderungen mit sich, beeinflusst aber andererseits auch wesentlich die Kosten für das produzierte Methanol. „Dabei hat sich gezeigt, dass man einen solchen Prozess durchaus flexibilisieren kann“, erläutert Fogel. „Es wäre in Zukunft also möglich, eine Power-to-Methanol-Anlage mit einer Photovoltaik- oder Windkraft-Anlage zu koppeln, im Teillastbetrieb zu fahren und trotzdem kompetitive Produktionskosten zu erzielen.“

Dass man von diesem Punkt heute allerdings noch weit entfernt ist, zeigt seine techno-ökonomische Bewertung der aus den Simulationen gewonnenen Daten. Denn die ergab, dass die Kosten für das Methanol unabhängig von den Prozessverschachtelungen und den eingesetzten Technologien aktuell nicht konkurrenzfähig sind. Das liegt in erster Linie daran, dass fossile Rohstoffe durch die über Jahrzehnte aufgebaute Infrastruktur heute noch konkurrenzlos billig sind. „Durch die Elektrolyse-Technologie entstehen massive Kapitalkosten für die Investitionen in diese Anlagen“, weiß Fogel. „Bis zu 70 Prozent der Kosten entfallen auf die Investition. Die eigentlichen Produktionskosten sind am Ende gar nicht so hoch.“

Das sieht der Forscher allerdings nur als vorübergehende Phase an, die jede neue Technologie durchlaufen müsse. Denn sollte der Markt für Power-to-Methanol in den kommenden Jahren hochlaufen, würden Skaleneffekte die Kosten reduzieren. „Ich habe in meiner Arbeit auch untersucht, wie sich das Thema in den kommenden 20 Jahren entwickeln könnte“, betont der Chemieingenieur. Dazu führte er eine umfangreiche Literaturrecherche durch und projizierte die Kosten in die Zukunft. Das Ergebnis: Es wird eine drastische Kostenreduktion geben. „Im Jahr 2050 könnten wir mit dem Power-to-Methanol-Prozess den Punkt erreicht haben, an dem wir mit den fossilen Energieträgern gleichauf liegen.“

Für seine Dissertation erhielt Dr. Stefan Fogel den Franz Stolze-Preis 2024. Mit dieser Auszeichnung würdigt die TU Dresden herausragende wissenschaftliche Abschlussarbeiten von Studierenden und jungen Wissenschaftler*innen auf dem Gebiet der Energietechnik.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Fogel, Institut für Fluiddynamik am HZDR
Tel.: +49 351 260-2254 | E-Mail: s.fogel@hzdr.de

Originalpublikation:
S. Fogel, S. Unger, U. Hampel: Operating windows and techno-economics of a power-to-methanol process utilizing proton-conducting high temperature electrolyzers, in Journal of CO2 Utilization, 2024 (DOI: 10.1016/j.jcou.2024.102758)
S. Fogel, S. Unger, U. Hampel: Dynamic system modeling and simulation of a power-to-methanol process based on proton-conducting tubular solid oxide cells, in Energy Conversion and Management, 2024 (DOI: 10.1016/j.enconman.2023.1179702023)
S. Fogel, H. Kryk, U. Hampel: Simulation of the transient behavior of tubular solid oxide electrolyzer cells under fast load variations, in International Journal of Hydrogen Energy, 2019 (DOI: 10.1016/j.ijhydene.2019.02.063)

Weitere Informationen:
https://www.hzdr.de/presse/methanol Link zur Pressemeldung
https://www.sciencedirect.com/science/article/pii/S2212982024000933 Link zu Publikation 2024
https://www.sciencedirect.com/science/article/pii/S019689042301316X Link zu Publikation 2023
https://www.sciencedirect.com/science/article/pii/S0360319919306470 Link zu Publikation 2019

(nach oben)


Planeten enthalten mehr Wasser als gedacht

Das meiste Wasser eines Planeten befindet sich im Allgemeinen nicht auf der Oberfläche, sondern ist tief im Innern versteckt. Dies wirkt sich auf die mögliche Bewohnbarkeit von fernen Welten aus, wie Modellrechnungen von Forschenden der ETH Zürich und der Princeton University zeigen.

Von der Erde weiss man, dass sie einen Kern aus Eisen, darüber einen Mantel aus Silikatgestein und an der Oberfläche zusammenhängende Wassermassen (Ozeane) hat. Dieses einfache Planetenmodell wurde in der Wissenschaft bisher auch verwendet, wenn es um die Erforschung von sogenannten Exoplaneten ging, die ausserhalb unseres Sonnensystems um einen anderen Stern kreisen. «Erst in den letzten Jahren hat man angefangen zu berücksichtigen, dass Planeten komplexer sind», sagt Caroline Dorn, Professorin für Exoplaneten an der ETH Zürich.

Die meisten der Exoplaneten, die man heute kennt, befinden sich nahe bei ihrem Stern. Es sind deshalb vor allem heisse Welten, die noch keinen ausgekühlten Mantel aus Silikatgestein haben wie die Erde, sondern Ozeane aus geschmolzenem Magma. Wasser löst sich sehr gut in diesen Magma-Ozeanen – im Gegensatz beispielsweise zu Kohlendioxid, das schnell ausgast und in die Atmosphäre aufsteigt.

Unter dem geschmolzenen Silikatmantel befindet sich der Eisenkern. Wie steht es nun mit der Verteilung des Wassers zwischen den Silikaten und dem Eisen? Genau dies untersuchte Dorn zusammen mit Haiyang Luo und Jie Deng von der amerikanischen Princeton University mit Hilfe von Modellrechnungen auf der Basis der grundlegenden physikalischen Gesetze. Ihre Ergebnisse präsentieren die Forschenden in der Zeitschrift Nature Astronomy.

Magmasuppe mit Wasser und Eisen
Um die Resultate zu erklären, muss Studienautorin Dorn etwas ausholen: «Der Eisenkern bildet sich erst mit der Zeit. Anfänglich ist noch ein grosser Anteil Eisen in Form von Tröpfchen in der heissen Magmasuppe vorhanden.» Das in der Magmasuppe gelöste Wasser verbindet sich gerne mit diesen Eisen-Tröpfchen und sinkt mit ihnen zum Kern. «Die Eisen-Tröpfchen verhalten sich wie ein Fahrstuhl, der das Wasser nach unten bringt», erklärt Dorn.

Bisher kannte man dieses Verhalten nur für gemässigte Drücke, wie sie auch in der Erde herrschen. Für grössere Planeten mit höheren Drücken im Innern wusste man nicht, was geschieht. «Dies ist eines der wichtigsten Resultate unserer Studie», sagt Dorn: «Je grösser der Planet und je mehr Masse damit vorhanden ist, umso mehr ist das Wasser geneigt, mit den Eisen-Tröpfchen zum Kern zu sinken.» Eisen kann unter bestimmten Bedingungen bis zu 70-mal mehr Wasser aufnehmen als die Silikate. Das Wasser kommt unter dem enormen Druck im Kern dann aber nicht mehr in Form von Wassermolekülen vor, sondern als Wasserstoff und Sauerstoff.

Grosse Wassermengen auch im Erdinnern
Auslöser für diese Studie waren Untersuchungen zum Wassergehalt der Erde, die vor vier Jahren zu einem überraschenden Resultat kamen: Die Ozeane an der Erdoberfläche enthalten nur einen kleinen Teil der gesamten Wassermenge unseres Planeten. Der Inhalt von mehr als 80 Erdozeanen könnte im Erdinnern versteckt sein. Dies zeigen Simulationen, die berechneten, wie sich das Wasser bei Bedingungen verhält, die auf der jungen Erde geherrscht hatten. Experimente und seismologische Messungen sind damit vereinbar.

Die neuen Erkenntnisse über die Wasserverteilung in Planeten haben drastische Auswirkung auf die Interpretation astronomischer Beobachtungsdaten. Mit ihren Teleskopen im All und auf der Erde können die Astronominnen und Astronomen unter bestimmten Umständen messen, wie schwer und wie gross ein Exoplanet ist. Daraus erstellen sie sogenannte Masse-Radien-Diagramme, aus denen sich Rückschlüsse auf die Zusammensetzung des Planeten ziehen lassen. Ignoriert man dabei wie bisher die Löslichkeit und Verteilung des Wassers, so unterschätzt man die Wassermenge drastisch, bis zum Zehnfachen. «Planeten sind viel wasserreicher als bisher gedacht», sagt Dorn.

Entwicklungsgeschichte verstehen
Die Wasserverteilung ist auch wichtig, wenn man verstehen will, wie Planeten entstehen und sich entwickeln. Das Wasser, das in den Kern gesunken ist, bleibt für immer dort eingeschlossen. Das im Magma-Ozean des Mantels gelöste Wasser hingegen kann während der Abkühlung des Erdmantels ausgasen und an die Oberfläche gelangen. «Wenn man also Wasser in der Atmosphäre eines Planeten findet, dann gibt es wahrscheinlich sehr viel mehr davon im Innern», erklärt Dorn.

Danach sucht das James-Webb-Weltraumteleskop, das seit zwei Jahren Daten aus dem All zur Erde sendet. Es kann Moleküle in der Atmosphäre von Exoplaneten aufspüren. «Nur die Zusammensetzung der oberen Atmosphäre von Exoplaneten kann man direkt messen», erklärt die Forscherin: «Wir wollen in unserer Gruppe die Verbindung von der Atmosphäre zum tiefen Inneren der Himmelskörper machen.»

Besonders interessant sind neue Daten des Exoplaneten namens TOI-270d. «Dort hat man Hinweise gesammelt, dass es solche Interaktionen zwischen dem Magma-Ozean im Innern und der Atmosphäre tatsächlich gibt», sagt Dorn, die an der entsprechenden Publikation zu TOI-270d beteiligt war. Auf ihrer Liste von spannenden Objekten, die sie näher untersuchen will, befindet sich auch der Planet K2-18b, der Schlagzeilen machte, weil es darauf vielleicht Leben geben könnte.

Wasserwelten doch lebensfreundlich?
Wasser gilt als eine der Voraussetzungen, dass sich Leben entwickeln kann. Lange wurde über eine mögliche Bewohnbarkeit von wasserreichen Supererden spekuliert, also von Planeten von der Grösse einiger Erdmassen, deren Oberfläche von einem tiefen, globalen Ozean bedeckt ist. Dann legten Berechnungen nahe, dass zu viel Wasser lebensfeindlich sein könnte. Denn auf diesen Wasserwelten würde am Übergang zwischen Ozean und Planetenmantel eine Schicht von exotischem Hochdruckeis den Austausch lebenswichtiger Stoffe verhindern, so die Argumentation.

Die neue Studie kommt nun zu einem anderen Schluss: Welten mit tiefen Wasserschichten kommen wahrscheinlich nicht häufig vor, da sich der Grossteil des Wassers auf Supererden nicht wie bisher angenommen auf der Oberfläche befindet, sondern im Kern eingeschlossen ist. Daher könnten sogar Planeten mit einem relativ hohen Wasseranteil das Potenzial haben, erdähnliche, lebensfreundliche Bedingungen zu entwickeln, vermuten die Forschenden. Ihre Studie werfe damit ein neues Licht auf die mögliche Existenz von wasserreichen Welten, die Leben beherbergen könnten, so das Fazit von Dorn und ihren Kollegen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Caroline Dorn, ETH Zürich, dornc@ethz.ch

Originalpublikation:
Luo H, Dorn C, Deng J. The interior as the dominant water reservoir in super-Earths and sub-Neptunes. Nature Astronomy, 20. August 2024, doi: 10.1038/s41550-024-02347-z

(nach oben)


Fortbildung: Stadtentwicklung in Zeiten des Klimawandels

Wie lassen sich die Herausforderungen des Klimawandels in städtischen Gebieten angehen? Wie effektive Lösungen entwickeln und umsetzen? Dies lernen Stadtplanende und Mitarbeitende von Kommunen in der Fortbildung » Klimawandelgerechte Stadtgestaltung « des Fraunhofer-Instituts für Bauphysik IBP.

Hitzeinseln in den Städten, großflächige Überschwemmungen, kräftige Stürme – der Klimawandel wirkt sich zunehmend auf das tägliche Leben aus. Zwar ist generell bekannt, wie sich Hitze, Starkregen und andere Wetterextreme abfedern lassen: Begrünte Hausfassaden, Bäume und offene Wasserflächen etwa können die Temperatur um einige Grad senken. Dennoch tun sich Städte und Kommunen schwer, solche Ansätze zu realisieren. Wie lassen sich Städte klimaresilient gestalten? Welche Lösungen sind am effektivsten? Und wie lassen sich diese umsetzen – trotz begrenzter Ressourcen und mitunter unterschiedlicher Interessen von Betroffenen und Beteiligten?

Fortbildung » Klimawandelgerechte Stadtgestaltung «
In der Fortbildung »Klimawandelgerechte Stadtgestaltung« können sich Stadtplanerinnen, Stadtplaner und Kommunenmitarbeitende in Maßnahmen rund um den Klimawandel schulen lassen. Die Fortbildung wird vom Fraunhofer IBP angeboten und umfasst sowohl Live-Online-Sessions und selbstgesteuerte Lerneinheiten als auch ein zweitägiges Präsenztreffen am Institutsstandort in Stuttgart. Die Besonderheit: Das kompakte Format ist inhaltlich und didaktisch maßgeschneidert. »Wir vermitteln den Teilnehmenden den aktuellen Stand des Wissens zu den tatsächlichen Wirkungen der Maßnahmen«, erläutert Sabine Giglmeier, Gruppenleiterin am Fraunhofer IBP. »Zudem haben wir Tester*innen in die Entwicklung der Fortbildung mit einbezogen und ihr Feedback in die Gestaltung der Inhalte einfließen lassen.«

Die Teilnehmenden werden für die Herausforderungen des Klimawandels sensibilisiert und praxisnah befähigt, Städte klimaresilient zu gestalten und Anpassungsmaßnahmen zielgerichtet in kommunale Planungsprozesse zu integrieren. Sie erfahren nicht nur, wie sich der Klimawandel in Städten auswirkt, sondern auch, welche potenzielle Anpassungsmaßnahmen was bewirken können. So lernen sie beispielsweise mit dem Stadtklimasimulationsmodell PALM-4U vorab zu berechnen, wie sich bestimmte Maßnahmen in ihrer Stadt oder Kommune konkret auswirken würden. Damit die Software möglichst praxisnah ist, haben die Forschenden des Fraunhofer IBP sie gemeinsam mit Kommunen entwickelt und speziell auf ihre Bedürfnisse zugeschnitten.

Auch die Themen Biodiversität, Stadtgrün, praktische Planung und Umsetzung sowie kommunale Prozesse und Kommunikation stehen auf der Agenda. Geleitet wird die Fortbildung von erfahrenen Expertinnen und Experten aus dem Bereich der Bauphysik und Stadtplanung.

Teilnahme und Anmeldung

Die Fortbildung wird drei- bis viermal jährlich stattfinden.
Fragen rund um die Fortbildung beantworten die Expertinnen und Experten auf einer Info-Session am 12. September 2024.
Informationen und Anmeldung zur Info-Session: https://www.ibp.fraunhofer.de/de/veranstaltungen-messen/info-session-fortbildung…

Ausführliche Informationen zur Fortbildung und Anmeldung: https://www.ibp.fraunhofer.de/de/veranstaltungen-messen/fortbildung-klimawandelg…

Die Anmeldefrist für den ersten Durchgang endet am 20. September, die Teilnehmerzahl ist auf 15 bis 20 Personen begrenzt.

Wissenschaftliche Ansprechpartner:
Sabine Giglmeier
Fraunhofer-Institut für Bauphysik IBP
sabine.giglmeier@ibp.fraunhofer.de

Johanna Henning
Fraunhofer-Institut für Bauphysik IBP
johanna.henning@ibp.fraunhofer.de

Weitere Informationen:
https://www.ibp.fraunhofer.de/de/geschaeftsfelder-produkte/klimawandelangepasste… Klimawandelangepasste Stadtgestaltung

Anhang
Presseinformation als PDF

(nach oben)


Deutsche Seen im Klimawandel

Forscherinnen und Forscher unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) zeigen anhand von Langzeitdaten aus 46 deutschen Seen, dass die Oberflächentemperatur des Wassers in den letzten 30 Jahren stärker gestiegen ist als die Lufttemperatur. Die Sauerstoffkonzentration im Tiefenwasser hat abgenommen. Modellrechnungen weisen darauf hin, dass sich dieser Trend fortsetzt. Die gute Nachricht: Der Sauerstoffmangel im Tiefenwasser könnte abgemildert werden, wenn weniger Nährstoffe aus Siedlungen, Industrie und Landwirtschaft in die Gewässer gelangen. Die Studie wurde in der Fachzeitschrift Ambio veröffentlicht.

Wenn sich Seen erwärmen, sinkt in der Regel ihr Sauerstoffgehalt. Dies hängt zum einen mit der Bindungsfähigkeit des Wassers zusammen, das bei höheren Temperaturen weniger Sauerstoff speichern kann. Zum anderen bildet sich bei wärmeren Temperaturen in einem See eine natürliche Schichtung mit einer wärmeren Oberflächenwasserschicht und einer kälteren Tiefenwasserschicht. Hält diese Schichtung im Sommer über längere Zeit an, kann es passieren, dass der Sauerstoff von den Organismen am Gewässergrund verbraucht wird und mangels Durchmischung kein neuer Sauerstoff in die Tiefenzone gelangt. Dieser Sauerstoffmangel kann für die dort lebenden Organismen problematisch werden.

Wie sich die Wassertemperatur, die Seenschichtung und die Sauerstoffkonzentration in der Tiefenschicht von 46 deutschen Seen unter dem Einfluss des Klimawandels verändern, hat das Forschungsteam nun mit Hilfe von Langzeitmessdaten, die jeweils mindestens 30 Jahre umfassen, und hydrodynamischen Modellen untersucht.

Langzeitdaten: Oberflächentemperatur der Seen in den letzten 30 Jahren mit 0,5 Grad Celsius pro Jahrzehnt stärker gestiegen als die Lufttemperatur

Die Auswertung der Langzeitmessdaten zeigt, dass die Oberflächentemperatur zwischen 1990 und 2020 im Jahresmittel über alle Seen um 0,5 Grad Celsius pro Dekade (°C/Dekade) angestiegen ist. Damit haben sich die Seen in Deutschland im gleichen Zeitraum stärker erwärmt, als die Luft mit einem Anstieg von 0,43 °C/Dekade. Die Wassertemperatur in der Tiefe blieb nahezu konstant.

Die Sauerstoffkonzentrationen lagen zwischen 1990 und 2020 bei 51 Prozent der Sommermessungen und sogar bei 62 Prozent der Herbstmessungen unter 2 Milligramm pro Liter (mg/L), eine Konzentration, die als kritischer Schwellenwert für das Überleben vieler sauerstoffbedürftiger Organismen in Seen gilt. „Das Auftreten von sauerstoffarmen Bedingungen hat parallel zu den wärmeren Temperaturen zugenommen, insbesondere im Herbst, weil aufgrund der wärmeren Oberflächentemperaturen die Temperaturschichtung länger stabil bleibt“, ordnet IGB-Forscher Robert Schwefel, Erstautor der Studie, die Ergebnisse ein.

Unter dem Einfluss des Klimawandels ist nicht die höhere Temperatur in der Tiefenschicht das Problem für den Sauerstoffgehalt, sondern die längere Schichtung

Mittels mathematischer Seenmodelle haben die Forscherinnen und Forscher zukünftige Temperatur- und Sauerstoffentwicklungen bis ins Jahr 2099 basierend auf verschiedenen Emissionsszenarien des Weltklimarates (The Intergovernmental Panel on Climate Change, IPCC) simuliert, um die mögliche Entwicklung der Seen vorherzusagen. Hierzu wurden 12 Seen verwendet, von denen besonders gute und hochaufgelöste Messdaten zur Kalibrierung der Modelle zur Verfügung standen.

Unter dem pessimistischen Emissionsszenario RCP 8.5, das einen kontinuierlichen Anstieg der Treibhausgase bis zum Ende des Jahrhunderts annimmt, würde die Oberflächentemperatur der Seen bis 2099 um 0,3 °C/Dekade weiter ansteigen. Im mittleren Szenario RCP 4.5 beträgt der Anstieg lediglich 0,18 °C/Dekade. Für das optimistischen Szenario RCP 2.6, in dem der Anstieg der Lufttemperatur auf ca. 2°C im Vergleich zum vorindustriellen Zeitraum begrenzt bliebe, wird nur ein minimaler Anstieg um 0,04 °C/Dekade vorhergesagt. Übereinstimmend mit den Beobachtungsdaten der letzten 30 Jahre würde die Temperatur in der Tiefe deutlich weniger stark ansteigen. „Die daraus resultierende zunehmende Temperaturdifferenz zwischen Wasseroberfläche und Tiefenschicht verstärkt die Temperaturschichtung“, erklärt IGB-Forscher Michael Hupfer, der das von der Länderarbeitsgemeinschaft Wasser (LAWA) finanzierte Projekt leitet. So zeigen die Modellrechnungen, dass sich unter dem pessimistischen Emissionsszenario die sommerliche Schichtung bis zum Ende des Jahrhunderts um bis zu 38 Tage verlängern würde, im Vergleich zum Zeitraum von 2006 bis 2016 (für RCP 4.5 um 22 Tage und für RCP 2.6 um 13 Tage).

Dies würde auch das Risiko von Sauerstoffmangel in der Tiefenschicht erhöhen: Mit einem Sauerstoffmodell zeigte das Team nämlich, dass die Sauerstoffkonzentrationen in der Tiefenschicht als Reaktion auf die verlängerte Schichtungsperiode um 0,7 bis 1,9 mg/L abnehmen würden (RCP 4,5 um 0,6 mg/L oder RCP 2,6 um 0,2 mg/L). „Das bedeutet, dass vor allem im Herbst größere Bereiche des Tiefenwassers sauerstofffrei blieben. Dies hätte große Auswirkungen z. B. auf die Lebensräume von Fischen und die chemischen Verhältnisse in den Seesedimenten“, sagt IGB-Forscher Robert Schwefel.

Geringere Nährstoffeinträge könnten negative Auswirkungen auf den Sauerstoffgehalt abmildern
Um die Auswirkungen des Klimawandels abzumildern, können sonstige Stressfaktoren reduziert werden, zum Beispiel die Belastung durch Nährstoffeinträge wie Nitrat und Phosphat aus urbanen Einleitungen oder der Landwirtschaft. Denn diese wirken im Gewässer wie Dünger – sie kurbeln biologische Prozesse wie das Algenwachstum an und erhöhen so den Sauerstoffverbrauch, weil durch anschließende Abbauprozesse mehr Sauerstoff veratmet wird.

In ihrer Studie hat das Team in Modellrechnungen untersucht, wie sich eine Verringerung der Nährstoffeinträge auf den Sauerstoffhaushalt auswirken würde. Die gute Nachricht: Selbst im pessimistischsten Emissionsszenario führt eine Nährstoffreduktion um eine Trophiestufe zu höheren Sauerstoffkonzentrationen, die die Effekte der Erwärmung ausgleichen würden. Selbst im pessimistischsten Klimaszenario RCP 8.5 stiegen die Sauerstoffkonzentrationen im Tiefenwasser an, wenn ein geringerer Sauerstoffverbrauch im Tiefenwasser, wie er typischerweise bei Reduktion der Nährstoffkonzentrationen eintritt, angenommen wurde. „Unsere Ergebnisse deuten darauf hin, dass die negativen Auswirkungen des Klimawandels auf den Sauerstoffhaushalt von Seen durch noch mehr Anstrengungen zur Reduzierung der Nährstoffeinträge abgemildert werden können“, sagt Michael Hupfer.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Hupfer, IGB: https://www.igb-berlin.de/profile/michael-hupfer
Dr. Robert Schwefel, IGB: https://www.igb-berlin.de/profile/robert-schwefel

Originalpublikation:
Schwefel, R., Nkwalale, L.G.T., Jordan, S. et al. Temperatures and hypolimnetic oxygen in German lakes: Observations, future trends and adaptation potential. Ambio (2024). https://doi.org/10.1007/s13280-024-02046-z

Weitere Informationen:
http://Außerdem lesenswert zum Thema das IGB Dossier „Seen im Klimawandel“ https://www.igb-berlin.de/sites/default/files/media-files/download-files/IGB_Dos…

(nach oben)


Wo soll Wasserstoff in Zukunft produziert werden?

Forschende des Paul Scherrer Instituts PSI haben analysiert, in welchen Regionen der Welt Wasserstoff am kostengünstigsten herzustellen wäre, um eine Ökonomie aufzubauen, die auf diesem alternativen Energieträger statt auf fossilen Quellen basiert. Ein Ergebnis: Der Ersatz fossiler Energien durch Strom und Wasserstoff bedeutet keineswegs, dass keine Treibhausgasemissionen mehr auftreten. Die Studie erscheint heute in der Fachzeitschrift Nature Communications.

Die Schweiz soll bis 2050 klimaneutral werden. Das heisst, dass der Atmosphäre, um den Klimawandel zu bremsen, ab dann netto keine zusätzlichen Treibhausgase mehr hinzugefügt werden. Als ein wesentlicher Baustein, um dieses Ziel zu erreichen, gilt die Elektrifizierung von Verkehr, Industrie und Haushalten bei gleichzeitiger Umstellung auf erneuerbare Stromquellen wie Wasser, Wind und Sonne. Allerdings kann Strom nicht überall als Energielieferant dienen – für bestimmte Anwendungen ist seine Energiedichte nicht ausreichend. Wo höhere Anforderungen gestellt werden, soll Wasserstoff einspringen. Die Luftfahrt, die Landwirtschaft und die Stahlindustrie sind Beispiele für Anwendungen, bei denen durch den Einsatz von Wasserstoff – der teilweise für die Herstellung von Düngemitteln oder synthetischen Kohlenwasserstoffen verwendet wird – die Klimabelastung deutlich reduziert werden kann.

Die Forschenden um Erstautor Tom Terlouw und Projektleiter Christian Bauer vom Labor für Energiesystemanalysen des PSI haben geografische und ökonomische Daten und Prognosen zusammengestellt, um den Aufbau einer Wasserstoffökonomie in vier Szenarien zu beschreiben: Demnach wird der Wasserstoffbedarf 2050 zwischen 111 und 614 Megatonnen pro Jahr betragen – je nach Szenario: Im ersten Szenario macht die Welt weiter wie bisher und verlässt sich auf fossile Energieträger. Im vierten und optimistischsten Szenario betreibt sie konsequenten Klimaschutz und erreicht das 1,5-Grad-Ziel. Aktuell werden weltweit rund 90 Megatonnen Wasserstoff pro Jahr produziert.

Wo ist genug Platz für Elektrolyse?
Zur Herstellung von Wasserstoff existieren verschiedene Verfahren. Aktuell dominiert noch die sogenannte Methan-Dampfreformierung, bei der das Element unter Druck und Hitze aus Erdgas, Erdöl oder Kohle – also fossilen Energieträgern – gewonnen wird. Die optimistischeren Szenarien gehen davon aus, dass stattdessen zunehmend PEM-Elektrolyseure zum Einsatz kommen, also Apparate, die mit Strom und einer Polymer-Elektrolyt-Membran Wasser in Wasserstoff und Sauerstoff aufspalten. Wenn dafür nur grüner Strom aus erneuerbaren Quellen verwendet wird, läuft das Verfahren ohne fossile Energieträger. Es verursacht bis zu 90 Prozent weniger Treibhausgase als die Methan-Dampfreformierung.

Die zentrale Frage aber war, wo auf der Erde der Wasserstoff auf diese Weise hergestellt werden sollte. «Wir haben dazu vor allem ökonomische Kriterien angelegt», sagt Tom Terlouw. «Sprich, wo ist die Produktion am günstigsten?» Und dabei stellten sich zwei Faktoren als entscheidend heraus: Wo lässt sich der enorme Bedarf an Ökostrom für die Elektrolyse am effizientesten decken, weil alternative Energieträger wie Wind und Sonne reichlich vorhanden sind? Und wo gibt es genügend geeignetes Land, um die zur Produktion notwendigen Anlagen aufzustellen?

Kanada ist ideal, die Schweiz eher nicht
Als eine der besten Regionen für die künftige Wasserstoffproduktion stellten sich zum Beispiel grosse Teile Kanadas heraus: «Dort existieren viele freie Flächen, die sehr windig und daher ideal zum Aufstellen von Windturbinen sind», sagt Terlouw. «Noch dazu gibt es viel Wasser und stabile politische Verhältnisse – zwei Kriterien, die wir jedoch in dieser Studie noch nicht näher betrachtet haben. Aber natürlich spielt auch die Verfügbarkeit von Wasser für die Elektrolyse eine Rolle und ob es sich um ein Land handelt, aus dem man zuverlässig Wasserstoff importieren kann.»

Wenn man diese Kriterien aussen vor lässt, bieten auch die zentralen USA gute Bedingungen sowie Teile Australiens, der Sahara, Nordchinas und Nordwesteuropas. Entweder weil es dort viel Sonne zur Produktion von Solarstrom gibt oder viel Wind und freie Fläche zum Aufstellen von Windenergieanlagen – und der Wasserstofffabriken. Weniger gut zur Produktion eignen sich mitteleuropäische Industrieländer wie die Schweiz oder Deutschland, weil dort kaum verfügbare Flächen für Windräder vorhanden sind und die Sonneneinstrahlung relativ gering ist. Auch andere dicht besiedelte Regionen und Länder wie Japan oder weite Küstenabschnitte der USA und Chinas könnten nur zu vergleichsweise hohen Kosten produzieren. «Wir haben da also eine gewisse Diskrepanz festgestellt zwischen Regionen mit hohem Bedarf an Wasserstoff und Regionen mit grossen, effizienten Produktionskapazitäten», resümiert Terlouw. Diese müssten eine Wasserstoffökonomie durch weltweiten Handel bewältigen, was allerdings weiteren Energieaufwand bedeutet – und politische Kooperation erfordert. Nicht zuletzt besteht der Aufwand darin, dass Wasserstoff in der Regel in gebundener Form – etwa als Ammoniak oder Methanol – transportiert wird. Denn als reines Gas nimmt er zu viel Volumen ein, und für seine deutlich kompaktere, flüssige Form muss er stark gekühlt werden.

Die ökologischen Kehrseiten grünen Wasserstoffs
Die Studie betrachtet auch weitere ökologische Nebeneffekte einer möglichen Wasserstoffökonomie, die in der Öffentlichkeit oft ausser Acht gelassen werden: «Zum einen ist es wichtig zu betonen, dass auch eine funktionierende Wasserstoffökonomie noch Restemissionen an Treibhausgasen produzieren wird», sagt Terlouw. Die Studie beziffert diese Restemissionen auf fast eine Gigatonne CO2-Äquivalenten pro Jahr. Aktuell bewegen sich die Gesamtemissionen um die 40 Gigatonnen. «Die Klimawirkung ganz auf null zu reduzieren, wird nicht möglich sein», bestätigt Christian Bauer.

Das liege vor allem daran, dass auch die Produktion und Verteilung von Wasserstoff mit Emissionen einhergeht. Zum einen geraten geschätzte 2,5 Prozent des Wasserstoffs durch Lecks und Undichtigkeiten in die Atmosphäre, wo der Wasserstoff indirekt selbst als Treibhausgas wirkt. Denn er fördert die Bildung effektiver Treibhausgase wie Methan und Ozon. Zum anderen weisen Elektrolysesysteme sogenannte graue Emissionen auf, welche bei der Herstellung und dem Transport der benötigten Materialien anfallen, selbst wenn die fertigen Anlagen letztlich mit Ökostrom betrieben werden.: «Viele Anlagen und Maschinen, die in der Wasserstoffökonomie zum Einsatz kommen, werden in Ländern hergestellt, deren Produktion auch in absehbarer Zeit noch grossenteils auf fossilen Energieträgern basiert», berichtet Terlouw. «Die meisten Solarmodule etwa stammen heutzutage aus China, wo der Strom noch überwiegend aus Kohlekraftwerken kommt.»
Wer das Ziel der Klimaneutralität ernst meint, muss solche Restemissionen ausgleichen, indem entsprechende Mengen Kohlendioxid aus der Atmosphäre gefiltert werden. Dafür böten sich Technologien wie Direct Air Capture an, bei der spezielle Apparate CO2 aus der Luft einfangen. Oder Aufforstung: Die zusätzlich wachsenden Bäume binden gewisse Mengen an Kohlenstoff aus der Luft.

Kritische Materialien
Auch weitere Umwelteffekte einer Wasserstoffökonomie jenseits des Klimas sollten laut Terlouw und Bauer Beachtung finden: In den Maschinen und Anlagen finden diverse Materialien Verwendung, die entweder selbst umweltschädlich sind oder deren Produktion die Umwelt belastet. In Windturbinen sind das etwa Dauermagnete, die auf Seltenen Erden basieren, also Metallen, deren Gewinnung in China nicht den europäischen Umweltstandards genügt. Bei der PEM-Elektrolyse kommt als Katalysator das Metall Iridium zum Einsatz, das allein schon wegen seiner Seltenheit als kritisch gilt. Und die grossen Mengen an Land und Wasser, die für die Herstellung von Wasserstoff benötigt werden, können ebenfalls einen negativen Umweltfaktor darstellen.

«Nicht zuletzt stellt sich da die grosse Frage der sozialen Akzeptanz», gibt Tom Terlouw zu bedenken. «Werden die Menschen akzeptieren, dass Küstenlandschaften zum Beispiel von grossen Wasserstoffproduktionsanlagen eingenommen werden?» In wasserarmen Gebieten müsste das Meerwasser vor der Elektrolyse zunächst entsalzt werden, was zusätzliche Energie und Land erfordert. «Solche Faktoren haben wir in dieser Arbeit noch nicht berücksichtigt», räumt Christian Bauer ein. «Dazu sollen weitere Studien folgen. Wir wollen mögliche Wege der Energiewende aufzeigen. Ob und wie konsequent wir sie dann beschreiten, ist am Ende eine gesellschaftlich-politische Frage.»
Text: Jan Berndorff

Wissenschaftliche Ansprechpartner:
Christian Bauer
Labor für Energiesystemanalysen, Technology Assessment Group
PSI Center for Energy and Climate
Paul Scherrer Institut PSI

+41 56 310 23 91
christian.bauer@psi.ch
[Deutsch, Englisch]

Tom Mike Terlouw
Labor für Energiesystemanalysen, Technology Assessment Group
PSI Center for Energy and Climate
Paul Scherrer Institut PSI

+41 56 310 58 37
tom.terlouw@psi.ch
[Englisch, Holländisch, Deutsch]

Originalpublikation:
Future hydrogen economies imply environmental trade-offs and a supply-demand mismatch
Tom Terlouw, Lorenzo Rosa, Christian Bauer and Russell McKenna,
Nature Communications, 15.08.2024
DOI: 10.1038/s41467-024-51251-7

(nach oben)


Das Gehirn speichert eine Erinnerung in drei Kopien

Das Gedächtnis speichert von einem Ereignis gleich mehrere „Kopien“ im Gehirn, berichten Forschende der Universität Basel im Fachjournal Science. Die Kopien bleiben unterschiedlich lange im Gehirn erhalten, verändern sich bis zu einem gewissen Grad und werden manchmal im Laufe der Zeit wieder gelöscht.

Dank der Fähigkeit Erfahrungen als Erinnerungen zu speichern können wir aus der Vergangenheit lernen und so auf neue Situationen angemessen reagieren. Da sich die Welt um uns herum stetig ändert, dürfen Erinnerungen nicht einfach ein Archiv der guten alten Zeit sein. Vielmehr müssen sie dynamisch sein, sich im Laufe der Zeit verändern und an neue Umstände anpassen. Nur so helfen sie uns, die Zukunft besser einzuschätzen und uns adäquat zu verhalten. Wie Erinnerungen gespeichert und trotzdem dynamisch bleiben, ist bis heute nahezu unbekannt.

Im Mausmodell erforscht das Team von Prof. Dr. Flavio Donato am Biozentrum der Universität Basel, wie Erinnerungen in unserem Gehirn angelegt werden und wie sie sich im Laufe des Lebens verändern. Die Forschenden haben nun herausgefunden, dass im Hippocampus, einer Hirnregion, die für das Lernen verantwortlich ist, ein einziges Ereignis parallel in mindestens drei verschiedenen Gruppen von Neuronen gespeichert wird. Diese Neuronen entstehen zu unterschiedlichen Zeitpunkten während der Embryonalentwicklung.

Erinnerungskopien verändern sich mit der Zeit
Neuronen, die früh in der Entwicklung entstehen, speichern ein Ereignis langfristig. Ihre Gedächtniskopie ist anfangs so schwach, dass sie nicht vom Gehirn abgerufen werden kann. Im Laufe der Zeit wird die gespeicherte Erinnerung jedoch immer stärker. Auch beim Menschen würde das Gehirn erst nach einiger Zeit auf diese Kopie zugreifen können.

Im Gegensatz dazu ist die Gedächtniskopie desselben Ereignisses, die von den spät entwickelten Neuronen erstellt wird, anfangs sehr stark, verblasst aber mit der Zeit, so dass das Gehirn auf diese Kopie nach längerer Zeit nicht mehr zugreifen kann. Bei einer dritten Gruppe von Neuronen, die zeitlich zwischen den frühen und späten Neuronen gebildet werden, ist die angelegte Kopie fast gleichbleibend stabil.

Die drei unterschiedlichen Erinnerungskopien unterscheiden sich vor allem darin, wie leicht sie sich verändern lassen bzw. an neue Erfahrungen der Umwelt angepasst werden können. Erinnerungen, die von den späten Neuronen nur kurz gespeichert werden, sind sehr formbar und können umgeschrieben werden. Das bedeutet also, wenn wir kurz nach einem Erlebnis wieder daran denken, werden die späten Neuronen aktiv und integrieren neue Informationen in die ursprüngliche Erinnerung. Erinnern wir uns hingegen erst nach langer Zeit an dieses Ereignis, rufen die frühen Neuronen ihre Erinnerungskopie hervor, die jedoch kaum mehr veränderbar ist. «Wie dynamisch Erinnerungen im Gehirn gespeichert werden, ist einmal mehr ein Beweis für die Plastizität des Gehirns und seine enorme Gedächtniskapazität», sagt Erstautorin Vilde Kveim.

Flexible Erinnerungen ermöglichen angemessenes Verhalten
Das Forschungsteam von Flavio Donato hat gezeigt, dass das Abrufen bestimmter Gedächtniskopien und das Timing erhebliche Auswirkungen darauf haben können, wie wir uns an Ereignisse erinnern, die Erinnerungen verändern und nutzen. «Sich zu erinnern, ist für das Gehirn eine enorme Herausforderung und eine beeindruckende Leistung. Einerseits muss es sich an vergangene Ereignisse erinnern, damit wir uns in der Welt, in der wir leben, zurechtfinden können. Andererseits muss es die Erinnerungen an die Veränderungen um uns herum anpassen, damit wir richtige Entscheidungen treffen können», sagt Donato.

Beständigkeit durch Dynamik – für das Gehirn ist dies ein heikler Balanceakt, den die Forschenden jetzt etwas besser verstehen. Das Verständnis darüber, wie Erinnerungen gespeichert und verändert werden, könnte eines Tages auch dazu beitragen, ungewünschte Erinnerungen, die unser Leben beeinträchtigen, abzuschwächen oder verloren geglaubte Erinnerungen wieder hervorzuholen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Flavio Donato, Universität Basel, Biozentrum, E-Mail: flavio.donato@unibas.ch

Originalpublikation:
Vilde A. Kveim, Laurenz Salm, Talia Ulmer, Maria Lahr, Steffen Kandler, Fabia Imhof,
and Flavio Donato: Divergent Recruitment of Developmentally Defined Neuronal Ensembles
Supports Memory Dynamics. Science, doi: 10.1126/science.adk0997

(nach oben)


Neu entdeckte Fähigkeit von Comammox-Bakterien könnte helfen die Lachgasemissionen in der Landwirtschaft zu reduzieren

Forschungsteam findet unkonventionelle Energiequelle für kürzlich entdeckte „grüne“ nitrifizierende Bakterien

Ein internationales Forschungsteam unter der Leitung des Zentrums für Mikrobiologie und Umweltsystemwissenschaft (CeMESS) der Universität Wien hat herausgefunden, dass die 2015 von ihnen entdeckten Comammox-Bakterien mit der stickstoffreichen organischen Verbindung Guanidin als einziger Energie- und Stickstoffquelle wachsen können. Diese bislang einzigartige Fähigkeit eröffnet neue Möglichkeiten für die gezielte Anzucht dieser geheimnisvollen Mikroben und könnte auch einen Schlüssel für die Reduktion landwirtschaftlicher Lachgas-Emissionen liefern. Die Forschungsergebnisse wurden kürzlich als Artikel in der renommierten Fachzeitschrift Nature veröffentlicht.

Die Nitrifikation, die Umwandlung von Ammoniak über Nitrit zu Nitrat, wird von speziellen Mikroorganismen durchgeführt, die Nitrifikanten genannt werden. Dieser Prozess ist äußerst wichtig für den globalen biogeochemischen Stickstoffkreislauf in praktisch allen Ökosystemen, spielt im globalen Wandel jedoch eine ambivalente Rolle. Einerseits trägt die Nitrifikation zur Emission des starken Treibhausgases und ozonabbauenden Stoffes Lachgas bei und führt zu massiven Düngemittelverlusten in der Landwirtschaft und damit zur Überdüngung der Gewässer. Andererseits ist die Nitrifikation als biologischer Reinigungsschritt für die Nährstoffentfernung in Kläranlagen unverzichtbar und schützt so die Gewässer vor Überdüngung durch übermäßigen Stickstoffeintrag aus Abwasser. Die Studienautor*innen haben nun eine Möglichkeit gefunden, wie möglicherweise Nitrifikanten in der Umwelt gefördert werden könnten, die weniger Lachgas ausscheiden.

„Grüne“ Nitrifikanten
Comammox-Bakterien gelten als „grüne“ Nitrifikanten, da sie im Gegensatz zu vielen anderen Nitrifikanten nur geringe Mengen von Lachgas als Nebenprodukt ihres Stoffwechsels produzieren und Abwasser in Kläranlagen besonders effizient von Stickstoffverbindungen befreien. Seit der Entdeckung der Nitrifikanten im 19. Jahrhundert ging man davon aus, dass diese Mikroorganismen nur Ammoniak und Harnstoff veratmen können. Im Jahr 2015 konnten die Forschungsgruppen um Michael Wagner und Holger Daims dann zeigen, dass einige Nitrifikanten auch das chemisch instabile Cyanat für ihren Energiestoffwechsel nutzen können. „In der jetzt erschienenen Publikation konnte unser Team nun nachweisen, dass Comammox-Bakterien auch mit dem unkonventionellen Substrat Guanidin wachsen können“, erklärt Marton Palatinszky, der Erstautor der Studie: „Die Comammox-Bakterien verwenden dazu einen Transporter und ein von uns strukturell und funktionell detailliert charakterisiertes Enzym, das es ihnen ermöglicht in der Zelle äußert energieeffizient Ammonium aus Guanidin herzustellen“.

Guanidin ist ein Stoffwechsel-Produkt von Mikroorganismen und Pflanzen. Über seine Rolle im menschlichen und tierischen Stoffwechsel ist nur wenig bekannt. Es entsteht in Böden beim Abbau synthetischer Düngemittel-Zusätze sowie im Abwasser während des Abbaus des häufig eingesetzten Medikaments Metformin. Bislang weiß man jedoch nur wenig über die Verbreitung und die weitere Umsetzung von Guanidin in der Umwelt. Das internationale Forschungsteam, an dem neben Forscherinnen der Universität Wien auch Mikrobiologinnen des Helmholtz-Zentrums für Umweltforschung in Leipzig (Deutschland) und der Universität Aalborg in Dänemark beteiligt sind, konnte nachweisen, dass Guanidin nicht nur im menschlichen Urin, sondern auch in den Exkrementen von Nutztieren vorkommt und dass Comammox-Bakterien Guanidin in Kläranlagen nutzen. Darüber hinaus konnten sie zeigen, dass Guanidin auch in landwirtschaftlich genutzten Böden von Nitrifikanten verstoffwechselt wird.

Neue Möglichkeiten für Anzucht und Lachgasreduktion
Die Wiener Mikrobiolog*innen versuchen nun, die weitverbreiteten Comammox-Bakterien, von denen bisher weltweit nur ein Stamm im Labor als Reinkultur verfügbar ist, mit Guanidin aus Umweltproben anzureichern und zu isolieren. „Dies erscheint besonders vielversprechend, da keiner der von uns getesteten anderen Nitrifikantenstämme auf Guanidin als alleiniger Energie- und Stickstoffquelle wachsen konnte“, erläutert Katharina Kitzinger, die als Senior Scientist am CeMESS arbeitet. Darüber hinaus will das Team untersuchen, ob die Zugabe von Guanidin zu landwirtschaftlichen Düngern die Häufigkeit von Comammox-Bakterien in Ackerböden steigert und somit landwirtschaftliche Lachgasemissionen verringert werden können.

„Diese Arbeit wäre ohne die enge Zusammenarbeit vieler Forscher*innen, die am im Jahr 2023 gestarteten Exzellenzcluster „Microbiomes drive planetary health“ mitarbeiten nicht möglich gewesen. Wir bedanken uns ganz herzlich beim Österreichischen Wissenschaftsfond FWF für diese besondere Unterstützung“, sagt Studienleiter Michael Wagner.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Mag. Dr. Michael Wagner
Department für Mikrobiologie und Ökosystemforschung, Universität Wien
1030 Wien, Djerassiplatz 1
T +43-1-4277-91200
michael.wagner@univie.ac.at
www.univie.ac.at

Originalpublikation:
Palatinszky M , Herbold CW, Sedlacek CJ, Pühringer D, Kitzinger K, Giguere AT, Wasmund K, Nielsen PH, Dueholm MKD, Jehmlich N, Gruseck R, Legin A, Kostan J, Krasnici N, Schreiner C, Palmetzhofer J, Hofmann T, Zumstein M, Djinovic-Carugo K, Daims H, Wagner M. Growth of complete ammonia oxidizers on guanidine. Nature.
DOI: 10.1038/s41586-024-07832-z
https://www.nature.com/articles/s41586-024-07832-z

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/
https://rudolphina.univie.ac.at/cluster-of-excellence-wie-mikrobiome-die-gesundh…

(nach oben)


Sämtliche allgemein anerkannten Regeln der Technik zur Trinkwasserhygiene müssen angewendet werden

VDI-Stellungnahme zur Verbändeinformation von BTGA, DVGW, figawa, gefma und ZVSHK
(Düsseldorf, 12.08.2024) Mit einer aktuellen „Verbändeinformation“ vom 1. August 2024 möchten BTGA, DVGW, figawa, gefma und ZVSHK den Fachleuten im Bereich der Trinkwasserinstallation eine Hilfestellung hinsichtlich der anzuwendenden Regelwerke leisten. Der VDI begrüßt diesen Ansatz. Jedoch ist die veröffentlichte Liste von Regelwerken aus Sicht des VDI unvollständig. So fehlen entscheidende Regelwerke, z.B. die Richtlinienreihe VDI 6023. Neben VDI 6023, die durch das Umweltbundesamt (UBA) in seiner zentralen Empfehlung zur Durchführung einer Gefährdungsanalyse als „Dreh- und Angelpunkt“ des sorgfältigen Handelns benannt ist, wurden in der Auflistung der Verbände beispielsweise auch die verpflichtend einzuhaltenden UBA-Bewertungsgrundlagen übersehen.
In Planung und Errichtung sind alle allgemein anerkannten Regeln der Technik verpflichtend anzuwenden. Auftragnehmer haben ihre Auftraggeber hinsichtlich der Anwendung zu beraten bzw. diese auf die Risiken etwaiger Nichtbeachtung hinzuweisen. Fachleute und Fachunternehmen, die Trinkwasserinstallationen planen, errichten und betreiben, sollten mindestens die relevanten in VDI 6023 aufgelisteten und in den Schulungen nach VDI 6023 vermittelten Regelwerke anwenden.

Begriff der „allgemein anerkannten Regeln der Technik“
Das Bundesministerium der Justiz legt im „Handbuch der Rechtsförmlichkeit“ fest, was mit dem Begriff der „allgemein anerkannten Regeln der Technik“ gemeint ist, wenn dieser in Rechtstexten verwendet wird:
„Allgemein anerkannte Regeln der Technik sind schriftlich fixierte oder mündlich überlieferte technische Festlegungen für Verfahren, Einrichtungen und Betriebsweisen, die nach herrschender Auffassung der beteiligten Kreise (Fachleute, Anwender, Verbraucherinnen und Verbraucher und öffentliche Hand) geeignet sind, dass gesetzlich vorgegebene Ziel zu erreichen und die sich in der Praxis allgemein bewährt haben oder deren Bewährung nach herrschender Auffassung in überschaubarer Zeit bevorsteht.“
Einem Regelwerk, das von einem anerkannten Regelsetzer, wie dem DIN, aber ebenso dem VDI, nach dessen festgelegtem Verfahren entwickelt wird, ist bis zur Feststellung des Gegenteils durch einen Gerichtsentscheid zu unterstellen, dass es sich um eine allgemein anerkannte Regel der Technik handelt.
Allgemein anerkannte Regeln der Technik gelten als generelle Vertragsbestandteile bei Verträgen über technische Leistungen. Ihre Erfüllung ist grundsätzlich auch dann geschuldet, wenn sie nicht gesondert vertraglich vereinbart wird. Dies leitet sich insbesondere aus §633 (2) BGB ab. Die dort grundsätzlich geschuldete „Beschaffenheit (…), die bei Werken der gleichen Art üblich ist und die der Besteller nach der Art des Werkes erwarten kann“ wird just durch die allgemein anerkannten Regeln der Technik konkretisiert.
Hartmut Hardt, Rechtsanwalt, Mitglied im Vorstand der VDI-Gesellschaft Bauen und Gebäudetechnik, erklärt: „Die Anwendung der allgemein anerkannten Regeln der Technik ist grundsätzlich freiwillig. Ihre Anwendung gibt Anlass zu der Vermutung, dass das Werk üblichen, per se geschuldeten Standards entspricht. Werden sie nicht angewendet, kehrt sich die Beweislast um, und der Ersteller des Werks muss die Einhaltung der jeweiligen Schutzziele seinerseits nachweisen können.“
Für Trinkwasser gelten besonders strenge Maßstäbe. Eine Gefährdung der menschlichen Gesundheit ist vorsorgend so weit wie möglich auszuschließen. Daher gilt die Nichteinhaltung von allgemein anerkannten Regeln der Technik in Planung, Errichtung oder Betrieb von Trinkwasserinstallation sofort als Mangel.
Ein Fachunternehmen schuldet nach dem Grundsatz von Treu und Glauben Kunden durch die Inanspruchnahme des Status „Fachunternehmen“ die Kenntnis der einschlägigen allgemein anerkannten Regeln der Technik und die entsprechende Beratung auf deren Grundlage.
Bauingenieur Frank Jansen, Geschäftsführer der VDI-Gesellschaft Bauen und Gebäudetechnik, stellt daher die Frage „Wer haftet eigentlich, wenn ein Handwerksbetrieb aus Unkenntnis oder durch Fehlinformation beispielsweise die VDI 6023 oder die VDI 2050 Blatt 2 nicht anwendet und dies als Mangel gerügt wird?“
Die Verbändeinformation möchte eine Bewertung liefern, welche technischen Regeln als allgemein anerkannt zu betrachten sind. Diese Kategorisierung obliegt tatsächlich jedoch nicht Interessengruppen, sondern ergibt sich durch die tatsächliche Akzeptanz in den Verkehrskreisen, die dann letztlich in der im oben zitierten §633 BGB erwähnten „üblichen Beschaffenheit“ Niederschlag findet. In gerichtsanhängigen Streitfällen greifen Gerichte zur Klärung regelmäßig auf die Dienste von neutralen, sachverständigen Gutachtern zurück.
Arnd Bürschgens, öffentlich bestellter und vereidigter Sachverständiger für das Fachgebiet Trinkwasserhygiene im Installateur- und Heizungsbauerhandwerk, stellt dazu fest: „Es ist bedauerlich, dass in der genannten Verbändeinformation die VDI 6023, ein zweifelsfrei in der Praxis etabliertes und anerkanntes Regelwerk, übersehen wurde. Dies umso mehr, als sie in einer der als allgemein anerkannte Regel der Technik aufgelisteten Normen, DIN 1988-200 und DVGW W 551 (A), als maßgeblich für die Hygiene in der Trinkwasserinstallation genannt ist.“

Fazit
Die Richtlinienreihe VDI 6023 und weitere VDI-Richtlinien, wie die Reihe VDI 3810, ist also ebenso relevant wie die seitens DIN oder DVGW ausgefertigten Regelwerke. Eine hilfreiche Einordnung der aufgelisteten Veröffentlichungen in ein Gesamtbild der Trinkwasserhygiene liefert die Verbändeinformation aus Sicht des VDI nicht. Dieses Gesamtbild wird seit ca. 25 Jahren allein durch die Richtlinienreihe VDI 6023 gezeichnet, deren erster Weißdruck im Dezember 1999 als ein vom Umweltbundesamt initiiertes Projekt mit genau diesem Ziel erschien. Inzwischen haben sich in vom VDI qualitätsüberwachten Partnerschulungen mehr als 45.000 Fachleute für die hygienebewusste Planung, Errichtung und den Betrieb von Trinkwasserinstallationen qualifiziert. Die qualitätsgesicherten VDI-Partnerschulungen vermitteln, abgestimmt auf die Tätigkeit der teilnehmenden Person, das umfassende Bild der Trinkwasserhygiene und ermöglichen den Teilnehmenden, in der direkten Interaktion mit praxiserfahrenen, vom VDI geprüften Vortragenden ihr Wissen zu vertiefen und mit diesem Wissen technisch richtig zu handeln.

Fachlicher Ansprechpartner:
Dipl.-Phys. Thomas Wollstein
Technisch-Wissenschaftlicher Mitarbeiter VDI e.V.
Telefon: +49 211 6214-500
E-Mail: wollstein@vdi.de

VDI als Gestalter der Zukunft
Seit mehr als 165 Jahren gibt der VDI wichtige Impulse für den technischen Fortschritt. Mit seiner einzigartigen Community und seiner enormen Vielfalt ist er Gestalter, Wissensmultiplikator, drittgrößter technischer Regelsetzer und Vermittler zwischen Technik und Wissenschaft, Wirtschaft und Politik. Er motiviert Menschen, die Grenzen des Möglichen zu verschieben, setzt Standards für nachhaltige Innovationen und leistet einen wichtigen Beitrag, um Fortschritt und Wohlstand in Deutschland zu sichern. Der VDI gestaltet die Welt von morgen – als Schnittstelle zwischen Ingenieur*innen, Wissenschaft, Wirtschaft, Politik und Gesellschaft. In seinem einzigartigen multidisziplinären Netzwerk mit rund 130.000 Mitgliedern bündelt er das Wissen und die Kompetenzen, die nötig sind, um den Weg in die Zukunft zu gestalten.

Weitere Informationen:
https://www.vdi.de/richtlinien/unsere-richtlinien-highlights/vdi-6023

(nach oben)


Chemikaliencocktail aus Kunststoffen

Großprojekt untersucht Freisetzung von Additiven im Wasser
Die Plastikabfälle in den Flüssen und Ozeanen geben permanent Chemikalien ins Wasser ab. Bislang war unbekannt, wie groß diese Mengen sind und welche Substanzen besonders stark freigesetzt werden. Im Großprojekt P-LEACH haben Fachleute von vier Forschungsinstituten der Helmholtz-Gemeinschaft die Zusammensetzung und Konzentrationen vieler verschiedener Substanzen jetzt genau analysiert. Im Fokus stand dabei vor allem die Frage, wie die UV-Strahlung der Sonne die Freisetzung der Chemikalien verstärkt.
In den Flüssen und Ozeanen treiben hunderttausende Tonnen von Plastikmüll. Der Wellenschlag, die UV-Strahlung der Sonne und das salzige Meerwasser führen dazu, dass die Kunststoffe nach und nach in immer kleinere Bruchstücke zerfallen und schließlich als winzige Mikroplastikpartikel in den Meeren treiben. In zahlreichen Studien haben Forschende inzwischen untersucht, inwieweit Meerestiere diese Partikel aufnehmen und ob sie davon krank werden. Weit weniger gut erforscht ist bisher, wie sich die Inhaltsstoffe der verschiedenen Kunststoffe auf das Leben im Meer auswirken – darunter Additive wie Schwermetalle, Flammschutzmittel, Weichmacher, Farbstoffe und viele andere Ingredienzien, die dem Plastik seine vielseitigen Eigenschaften verleihen.
Deshalb haben sich vor gut zwei Jahren mehr als 30 Wissenschaftlerinnen und Wissenschaftler in einem Großprojekt der Helmholtz-Gemeinschaft zusammengetan, um im Detail zu untersuchen, wie schnell und wie stark Plastik seine Inhaltsstoffe an das Wasser abgibt – und wie sehr diese Substanzen eventuell Meereslebewesen schädigen. Die ersten Projektergebnisse der Experten vom Helmholtz-Zentrum Hereon in Geesthacht, dem GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, dem Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung in Bremerhaven und dem Helmholtz-Zentrum für Umweltforschung (UFZ) in Leipzig sind jetzt im „Journal of Hazardous Materials“ erschienen. Der Schwerpunkt dieses ersten Fachartikels aus dem P-LEACH-Konsortium liegt auf der chemischen Analyse der Plastik-Inhaltsstoffe – und der Frage, wie die UV-Strahlung der Sonne dazu beiträgt, die chemischen Substanzen aus den Kunststoffen freizusetzen.

Häufige Kunststofftypen im Fokus
Für ihre Experimente hatten die Wissenschaftler zunächst acht typische Massenartikel aus häufig verwendeten Kunststoffen gekauft und diese in wenige Millimeter große Stücke zerkleinert – darunter Gewächshausfolie aus Polyethylen (PE), Schläuche aus Polyvinylchlorid (PVC) und Stecker aus PET. Diese Bruchstücke legten sie anschließend in ein Wasserbad und bestrahlten diese mit einer speziellen UV-Lampe, die das Sonnenlicht über Mitteleuropa für mehrere Monate nachahmt. Zum Vergleich lagerten sie einen Teil des Kunststoffs in Wasserbehältern, die nicht bestrahlt wurden.
Nach dem Experiment wurden die Plastikpartikel entfernt und das Wasser anschließend gründlich auf eine mögliche Freisetzung von Kunststoffadditiven hin untersucht – vor allem auf Metallverbindungen und bestimmte, organische Stoffe sowie auf die Freisetzung kleiner Kunststoffpartikel. Von Interesse waren dabei insbesondere jene Chemikalien, die im Verdacht stehen, gesundheits- und umweltschädlich zu sein, aber nach wie vor nicht verboten oder reguliert sind. Die Ergebnisse lassen aufhorchen: So fanden sich im Wasser der UV-bestrahlten Proben, deutlich höhere Konzentrationen an Metall-Ionen als in den nicht bestrahlten Proben. Bei den organischen Substanzen war das Bild differenzierter: Einige Substanzen lagen in den UV-bestrahlten Proben ebenfalls in deutlich höheren Konzentrationen vor. Für andere organische Moleküle hingegen war die Konzentration erstaunlich gering. „Eine Entwarnung ist das aber nicht“, sagt der Umweltchemiker Dr. Frank Menger, Erstautor des Fachartikels und am Hereon Experte für organische Chemie. „Wir nehmen an, dass auch diese Substanzen aus dem Kunststoff ins Wasser gelangen, dort aber durch das UV-Licht in kleinere organische Verbindungen umgewandelt werden, sodass die Ausgangsverbindungen nicht mehr direkt nachweisbar sind.“

Fahndung nach bekannten und unbekannten Chemikalien
Bei der Analyse der organischen Inhaltsstoffe haben die Forschenden zwei Dinge genau unter die Lupe genommen. Zum einen wurden die Wasserproben auf 71 bekannte Substanzen untersucht, die bekanntermaßen in vielen Kunststoffen enthalten sind – unter anderem das UV-Schutzmolekül UV-328, das vor einem Jahr in die Liste der Stockholm-Konvention aufgenommen wurde – eine Liste besonders gefährlicher Chemikalien, deren Einsatz weltweit beschränkt oder teils ganz verboten ist. Zum anderen haben die Wissenschaftlerinnen und Wissenschaftler in den Wasserproben nach unbekannten Substanzen und Abbauprodukten gefahndet. Dafür kamen spezielle Massenspektrometer zum Einsatz, die in der Lage sind, bestimmte Molekülstrukturen oder Molekülfragmente zu erkennen und daraus auf die Ausgangssubstanz zu schließen. Damit lassen sich auch solche Chemikalien erkennen, die noch recht neu im Markt und relativ unbekannt sind – zum Beispiel neue Klassen von Weichmachern. Bedenkt man, dass weltweit in der Plastikproduktion rund 16.000 verschiedene Inhaltsstoffe zum Einsatz kommen, wird deutlich, wie anspruchsvoll die Analyse trotz der modernen Massenspektrometrie ist.
Dr. Frank Menger ist begeistert vom Umfang der Studie und des ganzen Projekts. „Wir haben die Analysetechnik und die entsprechende Expertise von vier Instituten zusammengeholt.“ Nur dadurch sei es möglich gewesen, die Wasserproben so umfassend zu analysieren. Dr. Lars Hildebrandt, einer der Wissenschaftler vom Hereon, der sich im Rahmen der Studie mit der komplexen Analyse von Mikroplastikpartikeln und Schwermetallen beschäftigt hat, ergänzt: „Mir sind bislang kaum vergleichbare Studien bekannt, bei denen die Freisetzung von Metallverbindungen wie auch bekannten und unbekannten organischen Verbindungen und zusätzlich kleiner Plastikpartikel aus Kunststoffen unter besonderer Berücksichtigung der Verwitterung durch UV-Strahlung so umfangreich untersucht wurde.“ Allerdings sei bei allem zu bedenken, dass die UV-Strahlung nur ein Faktor ist, der auf das Plastik in der Umwelt einwirkt. Hinzu kommen der Salzgehalt oder der Abbau durch Mikroorganismen. Auch das Alter, die Größe, die Form und die Porosität des Kunststoffs beeinflussen, wie stark Inhalts- und Zusatzstoffe ins Wasser gelangen. Insofern brauche es künftig weitere Studien, die diese Parameter berücksichtigen und deren vielfältige Auswirkungen untersuchen.
„Das P-LEACH Projekt gibt uns die einmalige Gelegenheit, die Abgabe von organischen und anorganischen Chemikalien sowie Mikroplastikpartikeln von verwitternden Kunststoffgegenständen und mögliche Auswirkungen umfassend zu untersuchen, unter Einbeziehung verschiedener Disziplinen wie Umweltchemie, Ökotoxikologie und Humantoxikologie“, so Prof. Dr. Annika Jahnke vom UFZ, die das Projekt koordiniert. In den kommenden Monaten sollen weitere Fachartikel des P-LEACH-Teams erscheinen. Unter anderem Ergebnisse dazu, wie sich die Substanzen auf Bakterien, Algen, Meerestiere und letztlich den Menschen auswirken. So wurde in dem Projekt unter anderem auch untersucht, wie das mit den Plastik-Inhaltsstoffen verschmutzte Wasser den Stoffwechsel von Algen, Schnecken oder lebenden Zellen beeinflusst, darunter Zellen aus dem Körper des Menschen.

Wissenschaftliche Ansprechpartner:
Dr. Frank Menger I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes | Abteilung Organische Umweltchemie
T: +49 (0) 4152 87-2211 I frank.menger@hereon.de | www.hereon.de
Dr. Lars Hildebrandt I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes | Abteilung Anorganische Umweltchemie
T: +49 (0) 4152 87-1813 I lars.hildebrandt@hereon.de | www.hereon.de
Prof. Dr. Annika Jahnke I Helmholtz-Zentrum für Umweltforschung (UFZ)
T: +49 (0) 341 6025-1527 I annika.jahnke@ufz.de | www.ufz.de

Originalpublikation:
https://doi.org/10.1016/j.jhazmat.2024.135256

(nach oben)


Professor Fath durchschwimmt die Elbe

Forscher der Hochschule Furtwangen startet neues Extremsport-Projekt für Gewässerschutz

Prof. Dr. Andreas Fath ist als der “schwimmende Professor“ der Hochschule Furtwangen international bekannt. Um auf die Belastung von Gewässern durch Mikroplastik aufmerksam zu machen, durchschwamm der Wissenschaftler bereits den Rhein, den Tennessee River und die gesamte Donau. Nun steht das nächste Extremsport-Projekt im Namen des Gewässerschutzes an: Am 16. August wird Fath in Smirice im tschechischen Riesengebirge in die Elbe springen, um nur 25 Tage später die Elbmündung in Cuxhaven zu erreichen. Unterwegs werden nicht nur tägliche Wasserproben entnommen, Fath und sein Team betreiben mit einer großangelegten Aufmerksamkeitskampagne Aufklärungsarbeit in Sachen Gewässerschutz.
Tausende Flusskilometer hat er bereits durchkrault, und jedes Mal kündigte der Chemiker, der als Professor der Hochschule Furtwangen am Standort Schwenningen lehrt, an, dass dies nun das letzte Projekt gewesen sei. Doch sein Lebensthema Wasser lässt ihn nicht los. Fath schwimmt seit seiner Kindheit, zwischenzeitig sogar in der deutschen Bundesliga. Während seiner Extrem-Projekte verbringt er acht Stunden pro Tag im Wasser. „Ich kann das eben gut“, sagt er achselzuckend.
Mit der Mischung aus Wissenschaft und Extremsport setzt sich Andreas Fath für sauberes Wasser ein, wie und wo auch immer. Ob er in Flüssen schwimmt, Vorträge hält, Filme zu seinen Projekten präsentiert oder Schulklassen die verschiedenen Module seiner „Wissenswerkstatt“ ausprobieren lässt: Immer geht es darum, für den Schutz des Wassers zu sensibilisieren.
Bei seinem Projekt „PureElbe“ arbeitet Faths gemeinnützige Firma H2Org mit dem Bündnis plastikfreie Natur zusammen. Als Sponsoren unterstützen den Wissenschaftler neben der Hochschule Furtwangen auch die Unternehmen hansgrohe und Arburg.
Auf die 1083 Kilometer der Elbe (geschwommen wird ab Kilometer 11) freut sich Andreas Fath riesig: „Jeder Fluss ist anders. Ich bin sehr neugierig darauf, wie sich die Elbe anfühlen wird“. Auf seiner Reise wird er auch Städte wie Dresden, Magdeburg oder Hamburg durchqueren. Mit Workshops, Seminaren und Presseevents wird der Wissenschaftler mit seinem Team Aufmerksamkeit für Gewässerschutz schaffen. Nebenbei wird sein wissenschaftliches Team – zwei Studierende der Hochschule Furtwangen begleiten die Reise – ständig Wasserproben entnehmen und auswerten. Eine am Neoprenanzug von Andreas Fath befestigte Filtermembran imitiert Fischhaut und liefert so zusätzliche Erkenntnisse.
Die ganze Reise durch die Elbe lässt sich auf der Projektwebseite www.pureelbe.org mitverfolgen – unter anderem auf einer Karte, die genau die Stationen und die durchschwommenen Kilometer dokumentiert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Fath

(nach oben)


Infektionsdaten effizient melden – Datenstrategie zur Erfassung und Bereitstellung meldepflichtiger Infektionsdaten

Wie die Qualität meldepflichtiger Infektionsdaten verbessert werden kann, zeigt die aktuell veröffentlichte Studie
Die Covid-19-Pandemie hat verdeutlicht, wie wichtig schnelle und qualitative Daten sind, um fundierte gesundheitspolitische Entscheidungen zu treffen. Die Pandemie stellte das deutsche Gesundheitssystem jedoch vor vielfältige Herausforderungen. Schwachstellen gab es vor allem bei der Erfassung und Übermittlung meldepflichtiger Infektionsdaten durch Fax- oder E-Mail-Nachrichten, die weder zeitnah noch im erforderlichen Umfang zur Verfügung standen und ein valides Infektionsgeschehen abbildeten.
Wissenschaftler:innen der Hochschule Pforzheim zeigen in ihrer aktuellen Studie “Infektionsdaten effizient melden – Datenstrategie zur Erfassung und Bereitstellung meldepflichtiger Infektionsdaten”, wie eine effizientere Erfassung und Bereitstellung von Gesundheitsdaten aussehen kann und entwickeln Lösungsansätze für eine zukünftige Datenstrategie. “Die Ausgestaltung einer Datenstrategie ist für Politik, Verwaltung und Wirtschaft eine wichtige Aufgabe”, so die Wissenschaftler:innen. Neben der Konzeption einer Datenstrategie, fokussieren sich die Autor:innen der Studie auf die Themen Datenqualität in Kombination mit Datenbereitstellung und Datenverfügbarkeit. Ausgangslage für die Ist-Analyse sind die Meldedaten der Covid-19-Inzidenz-Zahlen.
Zentrale Erkenntnisse und Handlungsempfehlungen der Studie:
Anwendung der FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable), um die Auffindbarkeit, Zugänglichkeit, Interoperabilität und Wiederverwendbarkeit digitaler Daten zu verbessern
Implementierung und Optimierung von IT-Systemen für eine effiziente Datenverarbeitung- und übermittlung
Erhöhung des Automatisierungsgrades und Parallelität der Verarbeitung durch Informationssysteme (DEMIS und ePA)
Standardisierung und Vereinheitlichung der Meldeprozesse kann die Datenerhebung und -bereitstellung deutlich verbessern und Medienbrüche verhindern (Meldungen per Fax oder E-Mail)
Implementierung von Push-Verfahren
Schulung und Sensibilisierung der Mitarbeiter:innen im Umgang mit neuen Prozessen und – – IT-Systemen
Regelmäßiges Feedback und Überwachung der Prozessleistung, um Agilität zu ermöglichen
“Nach der Pandemie ist vor der Pandemie (z. B. Influenza)” (Prof. Dr. Ute C. Marx)
Die Studie verdeutlicht, dass eine nationale Datenstrategie den Informationsaustausch zwischen Behörden, Ärzten und Bürgern unterstützt. Zudem erweist sich die Nutzung von FAIR als Standard für den Datenaustausch und die Umsetzung der elektronischen Meldung als gute Grundlage, um künftig eine schnellere, wirkungsvollere Bekämpfung einer Pandemie zu ermöglichen. Das RKI hat bereits Ende 2022 begonnen, Daten nach den FAIR-Prinzipien umzusetzen. Abschließend empfehlen die Autor:innen, das gesamte Meldesystem unter Beachtung eines ganzheitlichen und prozessübergreifenden einheitlichen Ansatzes umzusetzen, um wichtige Gesundheitsdaten für weitere Forschungszwecke zu nutzen.
Die Studie wurde vom NEGZ gefördert.

Über das NEGZ:
Das Nationale E-Government Kompetenzzentrum (NEGZ) ist Fachnetzwerk und Denkfabrik
zur Digitalen Verwaltung. Es bündelt die Expertise von Unternehmen, Forschungseinrichtungen, öffentlichen Körperschaften und Verbänden, um die Digitalisierung der deutschen Verwaltung zu unterstützen und voranzutreiben. Das NEGZ veröffentlicht Studien und Impulse, veranstaltet Austauschformate, vermittelt Kompetenzen und bringt diese in die Fachdiskussion ein.

Pressekontakt
Julia Mirach · julia.mitrach@negz.org
Nationales E-Government Kompetenzzentrum e.V.
Tel. 0156 78818008
www.negz.org

Originalpublikation:
https://negz.org/publikation/infektionsdaten-effizient-melden/

Weitere Informationen:
https://negz.org/neue-negz-kurzstudie-erschienen-infektionsdaten-effizient-melde…

(nach oben)


Energetische Holznutzung weiter gestiegen

Die Bayerische Landesanstalt für Wald und Forstwirtschat (LWF) hat zusammen mit C.A.R.M.E.N. e. V. den neuen „Energieholzmarktbericht 2022“ für Bayern veröffentlicht. Der Bericht stellt das Aufkommen und den Verbrauch von Energieholz in Bayern für das Bezugsjahr 2022 gegenüber. Insbesondere der Ukrainekrieg hat sich deutlich auf den Energieholzmarkt ausgewirkt. Auf Grund der Sorge, dass Erdgas und Heizöl nicht für die Wärmeversorgung ausreichen würden, besannen sich viele auf den heimischen Energieträger Holz. In der Folge stiegen die Preise für Holzpellets in bis dahin unerreichte Höhen und auch Brennholz erreichte historische Preisniveaus.
Die milden Wintertemperaturen hätten in den Privathaushalten eigentlich zu einer Abnahme des Holzverbrauchs führen müssen. Allerdings ist die Anzahl der Holzfeuerungsanlagen, insbesondere der Pelletsheizungen, in den vergangenen Jahren deutlich gestiegen: Insgesamt heizten 2022 knapp 37 % der bayerischen Haushalte mit Holz. Das wichtigste Energieholzsortiment im Privathaushalt ist nach wie vor das Scheitholz, gefolgt von einem stark wachsenden Anteil Pellets.
Vermutlich haben auch viele Haushalte, die überwiegend mit anderen Brennstoffen heizen, aufgrund der hohen Energiepreise vermehrt Holzbrennstoffe verwendet. Auch bei den Biomasseheizwerken gab es in den letzten Jahren einen deutlichen Zuwachs bei der Zahl der Anlagen, sodass auch hier der Verbrauch anstieg.
Der Energieholzmarktbericht Bayern erscheint seit 2010 im zweijährigen Turnus. Dabei werden anhand umfangreicher Befragungen von Privathaushalten, Sägewerken, Hackerunternehmen, Heizwerksbetreibern und Altholzaufbereitern die Holzströme in Bayern erfasst und anhand öffentlicher Daten ergänzt. Der Bericht stellt auch die stoffliche Holzverwendung in Bayern dar und kann somit als ein Rohstoffmonitoring für Holz in Bayern betrachtet werden.
Die Holzbilanz 2022 zeigt, dass 54 % des Holzverbrauchs auf die energetische Verwendung entfallen. Darunter ist ein Großteil Holzreste, die bei der Verarbeitung von Holz zu Produkten wie Bauholz oder Möbeln anfallen sowie bereits gebrauchtes Holz z. B. aus dem Gebäudeabriss oder der Entsorgung von Möbeln. Von dem in den Wäldern eingeschlagenen Frischholz wurden 37 % direkt zu Energieholz (Scheitholz und Holzhackschnitzel) aufbereitet. Gegenüber 2020 stieg der Energieholzverbrauch um 3 %, der gesamte Holzverbrauch für energetische und stoffliche Verwendung stieg um 0,6 %.
Mit den Umfragen haben die teilnehmenden Betriebe auch die Möglichkeit, sich zu aktuellen Herausforderungen in Ihrer Branche zu äußern und Wünsche sowie Forderungen an die Politik zu stellen. Am häufigsten wurde dabei Unzufriedenheit über politische Entscheidungen zum Energieholz, Kritik an weiter zunehmenden bürokratischen Hürden und Sorge über den hohen wirtschaftlichen Druck bei kleinen und mittelgroßen Betrieben geäußert. Der Bericht zeigt allerdings auch, dass Holz als ein verlässlicher und nachhaltiger Rohstoff für unsere Energieversorgung und für die stoffliche Nutzung gesehen wird.

Wissenschaftliche Ansprechpartner:
Johannes Metsch; Tel.: 08161 4591 409; Johannes.Metsch@lwf.bayern.de

Originalpublikation:
https://s.bayern.de/energieholzmarktbericht_2022

(nach oben)


Beruflich Qualifizierte: Mit der Eignungsprüfung direkt zum Masterstudium

In Rheinland-Pfalz ist die Einschreibung auch ohne Bachelorabschluss möglich – Wissenschaftlicher Artikel beschreibt Erfahrungswerte mit einem Informatik-Fernstudiengang an der Hochschule Trier

Im Zuge der Kultusministerkonferenz zur Öffnung des Hochschulzugangs für beruflich Qualifizierte 2009 haben die Bundesländer ihre Hochschulgesetze angepasst. Während sich Interessierte ohne schulische Studienberechtigung auf dieser Basis in der Regel für Bachelorstudiengänge einschreiben können, besteht in Rheinland-Pfalz die Möglichkeit, durch eine Eignungsprüfung und der Ausübung einer mehrjährigen beruflichen Tätigkeit, direkt ein Masterstudium aufzunehmen.

Die Hochschule Trier bietet dieses Zulassungsverfahren für ihren weiterbildenden, nicht-konsekutiven Master-Fernstudiengang Informatik an. Die Bildungsbiografien der Studierenden sind dabei vielfältig: Viele von ihnen haben zuvor schon ein informatikfernes Studium mit einem Bachelor, Master, Diplom, einer Promotion oder einem Staatsexamen erfolgreich abgeschlossen, andere haben kein Abitur und sich bereits beruflich qualifiziert. Ohne Erststudium erfolgt der Zugang über die Eignungsprüfung.

Prof. Dr. Konstantin Knorr, Romy Thomm und Andrea Fischer befassen sich in einem wissenschaftlichen Artikel mit den Erfahrungen im Fernstudium Informatik an der Hochschule Trier in den vergangenen 20 Jahren. Sie analysieren die Abschlussnoten von mehr als 300 Studierenden mit und ohne Eignungsprüfung und gehen auf Basis einer webbasierten Umfrage aus dem Mai 2023 auf die Rückmeldungen von Studierenden mit Eignungsprüfung ein.

Für den Notenvergleich wurde der Zeitraum von Januar 2002 bis Januar 2023 berücksichtigt, in dem 313 Personen einen Master- oder Diplomabschluss erreicht haben. Rund 30 Prozent dieser Absolventinnen und Absolventen erhielten über die Eignungsprüfung Zugang und schnitten leicht besser ab, als Studierende, die bereits zuvor einen Bachelorabschluss erworben haben.
An der Umfrage nahmen knapp 43% der angeschriebenen Personen teil, als Ziel für die Auswahl des Fernstudiums nannten sie am häufigsten die folgenden drei Gründe: spezielles Fachwissen erwerben, die Übernahme von Führungspositionen und eine berufliche Neuorientierung. Zudem war keine der befragten Personen arbeitssuchend gemeldet, dieser Aspekt zeigt die guten beruflichen Perspektiven für die Absolventen.

Prof. Dr. Konstantin Knorr, Studiengangsleiter für den Fachbereich Informatik an der Hochschule Trier, zieht folgendes Fazit: „Wir können anhand unserer Erfahrungen und Studien bestätigen, dass die Öffnung von weiterbildenden Masterstudiengängen für beruflich Qualifizierte für mehr Bildungsgerechtigkeit beim Hochschulzugang und beim -studium sorgt.“

Auf Basis ihrer Analyse befürworten Prof. Dr. Konstantin Knorr, Romy Thomm und Andrea Fischer den Zugang für beruflich Qualifizierte über die Eignungsprüfung in den Fernstudiengang Informatik an der Hochschule Trier. Sie sprechen sich dafür aus, die Übertragbarkeit ihrer Ergebnisse auch mit Blick auf konsekutive Masterstudiengänge zu untersuchen.

Weiterführende Informationen zum Master-Fernstudiengang Informatik M.C.Sc. und zur Eignungsprüfung finden Sie unter:
https://www.zfh.de/studium/hochschule-trier/informatik-aufbaustudium-mcsc-119/
https://www.hochschuletrier.de/informatik/fernstudium/studium/masterfernstudium/…

Der komplette wissenschaftliche Artikel ist in Ausgabe 2024/1 der Zeitschrift „Lehre. Lernen. Digital!“ erschienen.
Quellenangabe: K. Knorr, R. Thomm, A. Fischer: „Erfahrungen mit der Eignungsprüfung als Zugang für beruflich Qualifizierte zum Masterstudium“, Lehre. Lernen. Digital, Jg. 5, Ausgabe 1, 2024, Seiten 2-8
Für ergänzende Informationen über den wissenschaftlichen Artikel steht Ihnen Romy Thomm zur Verfügung: r.thomm@inf-hochschule-trier.de

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh fördert und unterstützt die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit über 6.000 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ann-Christin Komes
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-35, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de
Internet: http://www.zfh.de

(nach oben)


Eine Bioraffinerie für die Kreislaufwirtschaft von industriellen Reststoffströmen

Am Samstag, den 3. August 2024, eröffnete Umweltstaatssekretär Dr. Andre Baumann die Demonstrationsanlage SmartBioH2-BW in Rheinfelden (Baden). Die Bioraffinerie wurde im Rahmen des vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB koordinierten Projekts am Industriestandort von Evonik aufgebaut. Sie nutzt in der Produktion anfallende Spülwässer und Reststoffe, um daraus mithilfe zweier gekoppelter biotechnologischer Verfahren »grünen« Wasserstoff und organische Grundstoffe herzustellen. Nun startet der Testbetrieb unter realen Bedingungen.
Abfall und Abwasser sind weltweit eine bisher nur wenig genutzte Ressource. Mit dem Förderprogramm »Bioökonomie – Bioraffinerien zur Gewinnung von Rohstoffen aus Abfall und Abwasser – Bio-Ab-Cycling« will Baden-Württemberg dies ändern. Seit Oktober 2021 fördert das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg mit Landesmitteln und Mitteln aus dem Europäischen Fonds für Regionale Entwicklung (EFRE) den Aufbau modularer Bioraffinerien, um zu erproben, wie mittels nachhaltiger Bioökonomie hochwertige Rohstoffe aus Abfall und Abwasser zurückgewonnen werden können.
Eine der geförderten Demonstrationsanlagen ist die Bioraffinerie des Projekts SmartBioH2-BW, die am 3. August 2024 von Dr. Andre Baumann, Staatssekretär im Umweltministerium, im Rahmen seiner Sommertour eingeweiht wurde. Auch zahlreiche Politiker aus Rheinfelden, dem Landkreis Lörrach sowie einige Abgeordnete im Landtag nahmen die Gelegenheit zur Besichtigung der Anlage wahr.
»Wir brauchen dringend einen gesellschaftlichen Wandel – weg vom Einsatz fossiler oder knapper Ressourcen hin zur Nutzung biobasierter oder im Kreislauf geführter Stoffe. Das Projekt SmartBioH2-BW zeigt vorbildlich, wie ein solch zukunftsweisender Weg aussehen kann«, so Staatssekretär Dr. Baumann. »Hier werden Verfahren, die im kleinen Maßstab einzeln bereits funktionieren, in Demonstrations- und Pilotanlagen kombiniert und erprobt. Dies ist eine wichtige Zwischenstufe, damit die Verfahren im nächsten Schritt in den Kommunen oder in der Industrie zum Einsatz kommen können. Durch den Einsatz dieser Bioraffinerien schützen wir am Ende nicht nur das Klima und unsere Ressourcen, sondern stärken auch die Resilienz des Wirtschaftsstandorts Baden-Württemberg in Krisensituationen.«
Seit ein paar Wochen steht die Anlage auf dem Gelände von Evonik in Rheinfelden, die als assoziierter Partner im Projekt beteiligt ist. Die Evonik Industries AG ist eines der weltweit größten Hersteller von Spezialchemikalien. An ihrem Standort in Südbaden produziert Evonik unter anderem Wasserstoffperoxid, das als Desinfektionsmittel – etwa für Joghurtbecher – eingesetzt wird. Hierfür wird, ebenso wie für andere Produktionsprozesse im Werk, Wasserstoff benötigt, den das Unternehmen seit Jahrzehnten direkt vor Ort aus Erdgas produziert.
»Der Standort von Evonik in Rheinfelden hat sich auf die Fahne geschrieben, die grüne Transformation unserer Branche voranzutreiben«, so Hermann Becker, Standortleiter von Evonik. »Mit dem gemeinsamen Forschungsprojekt und der zukunftsweisenden Pilotanlage wollen wir zeigen, wie das im Sinne der Kreislaufwirtschaft gehen kann – sauberer Wasserstoff gewonnen aus Spülwasser und Reststoffen ist eine Win-win-win-Situation für die Umwelt, die Chemieindustrie und die Wissenschaft.«

Intelligent gekoppelte Biotechnologie für die Bioraffinerie
Die Bioraffinerie wurde vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart konzipiert, geplant und aufgebaut. Sie besteht aus zwei gekoppelten Verfahrensmodulen zur biotechnologischen Produktion von Wasserstoff: der fermentativen Dunkelphotosynthese durch Purpurbakterien und einem zweistufigen Prozess mit Mikroalgen.
»Durch die intelligente Kopplung dieser beiden Verfahren zu einem kombinierten Bioraffinerie-Konzept wird es möglich, industrielle feste und flüssige Reststoffströme, die in der Produktion am Standort anfallen und bisher teuer als Abfall und Abwasser entsorgt werden mussten, effizient und ohne Emissionen als Rohstoffe zu nutzen, um daraus den Zukunftsenergieträger Wasserstoff und weitere wertschöpfende biobasierte Produkte herzustellen«, erläutert Dr.-Ing. Ursula Schließmann, stellvertretende Institutsleiterin des Fraunhofer IGB und Koordinatorin des Projekts.
Zunächst galt es hierfür zu untersuchen, wie sich die Reststoffströme des Standorts genau zusammensetzen und ob die Organismen tatsächlich mit ihnen zurechtkommen. Als flüssige Reststoffströme fallen in Rheinfelden Spülwässer an, mit denen die Produktionsanlagen gereinigt werden. Sie enthalten viel Ethanol, einen Alkohol. »Es ist ja denkbar, dass Spülwässer weitere Substanzen enthalten, die toxisch oder hemmend auf die Bakterien und Mikroalgen wirken«, erklärt Schließmann. Die Verfahren wurden daher erst am Fraunhofer IGB separat unter Laborbedingungen mit den Abfallströmen der Evonik getestet und dann in einen größeren Maßstab skaliert.
»Unsere Analysen haben gezeigt, dass das Spülwasser neben Ethanol auch weitere Alkohole sowie Reste der synthetisierten Produkte enthält. Diese beeinträchtigen aber weder das Wachstum der Purpurbakterien noch das der Mikroalgen«, so Schließmann.
Im Juli 2024 wurden die beiden Bioverfahrensmodule zum Werk nach Rheinfelden transportiert und in Betrieb genommen. Nachdem die Verfahrenseinheiten nun miteinander gekoppelt sind, kann der Demonstrationsbetrieb unter realen Bedingungen starten.

Wasserstoffproduktion mit Dunkelfermentation von Purpurbakterien
In der ersten Stufe der Bioraffinerie kommt das Purpurbakterium Rhodospirillum rubrum zum Einsatz, das mittels der Dunkelphotosynthese, einer neuen Art der Fermentation, auch ohne Licht aus verschiedenen Kohlenstoffsubstraten Wasserstoff erzeugen kann. In Rheinfelden dient den Purpurbakterien Ethanol aus dem Spülwasser als Kohlenstoffsubstrat und Energiequelle.
Für ein ausreichendes Wachstum und die Synthese von Wasserstoff musste die Zusammensetzung des Fermentationsmediums angepasst werden, wie sich bereits im Labor in Stuttgart gezeigt hatte. Dann produziert das Bakterium nicht nur den begehrten Wasserstoff, sondern auch weitere nutzbare Produkte wie Carotinoide, fettlösliche Pigmente beispielsweise für die Kosmetik, oder den Biokunststoff Polyhydroxyalkanoat (PHA) – sowie Kohlenstoffdioxid (CO2) als Nebenprodukt. »Da die wasserstoffproduzierenden Enzyme der Purpurbakterien sehr sauerstoffempfindlich sind, ist die präzise Kontrolle des Sauerstoffgehalts bei der Fermentation eine Herausforderung im Betrieb«, ergänzt Dr.-Ing. Susanne Zibek, Leiterin der Bioprozessentwicklung am Fraunhofer IGB.

Mikroalgen binden Nebenprodukt CO2
Um die Emission von CO2 in die Atmosphäre zu vermeiden, wird CO2 in einem weiteren Schritt der zu diesem Zweck angekoppelten Mikroalgenanlage zugeführt. Denn die photosynthetisch wachsenden Mikroalgen benötigen für den Aufbau von Biomasse oder Speicherprodukten – genau wie grüne Pflanzen – CO2 und dazu nur Licht und Nährstoffe.
In der SmartBioH2-Demonstrationsanlage werden Mikroalgen der Art Chlorella sorokiniana in einem mittels LED beleuchteten kompakten Photobioreaktor kultiviert. Der Reaktor zeichnet sich durch einen hohen Automatisierungsgrad aus und bietet viel Volumen auf nur wenig Fläche. Das Verfahren wird so betrieben, dass die Mikroalgen aus dem anfallenden CO2 Stärke als nutzbares Produkt herstellen. Die benötigten Nährstoffe stammen dabei aus einem zweiten in Rheinfelden, diesmal in fester Form anfallenden Reststoffstrom: Ammoniumchlorid.
Auch Mikroalgen sind unter bestimmten Bedingungen in der Lage, Wasserstoff zu bilden. Sie spalten hierzu Wasser mithilfe von Lichtenergie in Wasserstoff und Sauerstoff. »Um den Prozess technisch nutzen zu können, muss der entstehende Sauerstoff auch hier kontinuierlich aus dem System entfernt werden, da er die Wasserstoffproduktion der Algenzellen hemmt«, erläutert Dr. Ulrike Schmid-Staiger, Leiterin der Algenbiotechnologie am IGB. »Ein gänzlich neuer Photobioreaktortyp, der hierzu entwickelt wurde, wird in wenigen Wochen in die Bioraffinerie integriert, um die Gesamtausbeute an Biowasserstoff weiter zu erhöhen«, so die Expertin.

Prozessmodell zur Bewertung
Das Fraunhofer-Institut für Produktionstechnik und Automatisierung beteiligt sich an dem Projekt mit der Erstellung eines Prozessmodells, das die wichtigsten Inputs und Outputs des gesamten Bioraffineriekonzepts vorhersagen kann. Das Modell bildet auch die Grundlage für die ökologische und ökonomische Bewertung der Bioraffinerie. »So können Verbesserungspotenziale identifiziert und die Entwicklung der eingesetzten Technologien gesteuert werden«, sagt Edgar Gamero Fajardo vom Fraunhofer IPA.
»Auf Basis der praktischen Erfahrungen können wir anschließend ermitteln, ob sich eine Anlage im industriellen Maßstab auch wirtschaftlich rentieren würde. Wichtig ist dabei, dass wir einen hohen Grad an Automatisierung vorgesehen haben, um die Ausbeute der Anlage zu verbessern«, so Schließmann. Aber auch die eingesparten Entsorgungs- und Transportkosten tragen zur Gesamtbilanz bei.

Förderung des Projekts
Das Projekt »SmartBioH2-BW – Biowasserstoff aus industriellen Abwasser- und Reststoffströmen als Plattform für vielseitige Biosynthesewege« wird von Oktober 2021 bis Oktober 2024 durch das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg im Rahmen des EFRE-Programms »Bioökonomie – Bioraffinerien zur Gewinnung von Rohstoffen aus Abfall und Abwasser – Bio-Ab-Cycling« gefördert.

Kooperationspartner
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB (Koordination)
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Universität Stuttgart, Institut für Biomaterialien und biomolekulare Systeme IBBS
Universität Stuttgart, Institut für Energieeffizienz in der Produktion EEP
Evonik (assoziierter Partner)

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2024/eroeffnu…

(nach oben)


Kühle Wohnung auch an heißen Tagen

Serie: DBU-Initiative „Zukunft Zuhause“ gibt Tipps für den Sommer
Osnabrück. Im Sommer ist die Hitze in manchen Häusern kaum zum Aushalten. Linderung bringt Kühlung an heißen Tagen – umso mehr, wenn sich auf diese Weise energieintensive Klimaanlagen erübrigen. Welche Lösungen es gibt, stellt die Deutsche Bundesstiftung Umwelt (DBU) heute im nächsten Teil einer Serie vor – im Zusammenhang mit ihrer nationalen Informationskampagne „Zukunft Zuhause – Nachhaltig sanieren“. Sie soll einen kompakten und unabhängigen Überblick zum Thema Sanierung vermitteln. Adressaten sind Hausbesitzerinnen und Hausbesitzer, die ihre Ein- oder Zweifamilienhäuser energetisch fit für die Zukunft machen wollen – von Dämmung bis Photovoltaik.

Gut gedämmtes Haus: im Winter warm, im Sommer kühl
An heißen Sommertagen können Außenwände von Gebäuden extrem heiß werden – mit Temperaturen von bis zu 70 Grad Celsius und auf dem Dach sogar über 80 Grad Celsius. Eine kluge Dämmung kann schon viel bewirken. Denn sind Gebäude nicht gedämmt, kommt vor allem die Hitze vom Dach schnell im Inneren an. Der Aufenthalt im Inneren wird dann nicht nur unangenehm, sondern kann zu einer ernsthaften gesundheitlichen Belastung werden. Wegen der Klimakrise werden Hitzewellen voraussichtlich zunehmen – ein effektiver Wärmeschutz für das eigene Zuhause wird deshalb immer wichtiger. Denn ein gut gedämmtes Haus bietet nicht nur im Winter Vorteile, sondern hält auch im Sommer die Innenräume kühl. „Besonders wichtig ist dabei die Dämmung von Dach und Fassade, da sie ansonsten am meisten Sonnenwärme aufnehmen und ins Innere leiten“, sagt DBU-Referent Andreas Skrypietz.

Naturdämmstoffe von Hanfwolle bis Holzfaser und Markisen mit Sensoren
Für die Dämmung des Dachs nutzt man nach seinen Worten am besten flexible, weiche Materialien wie Mineralwolle oder Naturdämmstoffe wie Zellulose, Hanfwolle und Holzfaser. Diese können zwischen oder unter die Sparren platziert werden. Auch eine Dämmung der Fassade lohnt sich. Dafür werden Dämmplatten an der Außenseite der Fassade angebracht und mit einem Putz oder einer Verkleidung versehen. Als Materialien bieten sich etwa Styropor-, Mineraldämm- und Holzweichfaserplatten an. Diese kommen auch zum Einsatz, wenn das Dach neu eingedeckt wird und eine Aufsparrendämmung den Wärmeschutz des bestehenden Dachstuhles verbessert. Viel Hitze gelangt zudem durch Fenster und Glastüren in die Wohnräume. Damit weniger Sonnenstrahlen eindringen, kann man zum Beispiel überhängende Balkone oder Dachvorsprünge bauen, die Schatten spenden. „Auch Rollläden, Markisen und Raffstores bieten guten Schutz vor intensiver Sonneneinstrahlung“, sagt Skrypietz. An Dachfenstern können Rollläden, Außenrollos oder Dachfenstermarkisen angebracht werden. Verfügbar sind mittlerweile auch Markisen, die über Sensoren erkennen, wie viel Licht in den Raum fällt. So lässt sich der Hitzeschutz automatisch anpassen.

Reflektierende Sonnenschutzfolien innen und außen auf Fenster anbringen
Sind keine baulichen Veränderungen möglich, ist ein Sonnenschutz von innen sinnvoll. Ein Manko: Innen angebrachte Rollos, Plissees, Lamellen oder Faltstores reflektieren im Vergleich zum äußeren Sonnenschutz lediglich einen Teil der Wärme. „Ein äußerer Sonnenschutz ist effektiver“, sagt Skrypietz. Preisgünstige Option seien reflektierende Sonnenschutzfolien, die von innen oder außen auf Fenster aufgebracht werden und UV-Strahlen sowie Wärme blockieren. Kühlung von Gebäuden ermöglichen auch Bäume oder Kletterpflanzen, die an Außenwänden und vor Fenstern wachsen und Schatten spenden. Skrypietz: „Auch eine Dach- und Fassadenbegrünung lohnt sich. Sie bietet Isolation gegen Hitze und verbessert das Mikroklima um das Gebäude.“

Auf die Wahl der Baustoffe kommt es an
Bereits bei der Wahl des Baustoffs sollte man laut Skrypietz den Schutz gegen Wärme oder gar Hitze berücksichtigen und auf Materialien wie Kalksandstein, Holz, Ziegel und Stein setzen. Denn natürliche Materialien verbessern nicht nur das Raumklima, sondern regulieren auch die Luftfeuchtigkeit und speichern Wärme. Steinmaterial auf dem Fußboden helfe, den Raum kühl zu halten. Ventilatoren seien zudem eine relativ nachhaltige Option zur Kühlung, „da sie deutlich weniger Energie als Klimaanlagen verbrauchen und die gefühlte Temperatur durch Luftzirkulation senken“. Hochwertige Ventilatoren haben laut Skrypietz eine lange Lebensdauer und verursachen weniger Treibhausgasemissionen. Eine Rolle spielt dabei natürlich auch der Strommix des jeweiligen Haushaltes.

Wärmepumpen auch zum Kühlen
Einige Wärmepumpen sind nicht nur zum Heizen da, sondern auch zum Kühlen. Im Winter zieht die Wärmepumpe Wärme aus externen Quellen wie Luft, Wasser und Boden und gibt sie zum Heizen in den Innenraum ab. Im Sommer funktioniert dieser Prozess umgekehrt: Die Wärmepumpe entzieht dem Innenraum Wärme und leitet sie nach außen. Auch das richtige Lüften ist wichtig für die Raumkühlung. Am besten öffnet man die Fenster in den kühlen Morgenstunden und während der Nacht. Auf diese Weise gelangt die warme Luft mit der gespeicherten Wärme in Wänden, Böden und Decken nach draußen. Die Folge: Die Raumtemperaturen sinken, und es entsteht ein Wärmepuffer, der die Hitze des kommenden Tages abmildert. Wärmeschutz spart also Energie, weil man dank Sonnenschutzvorrichtungen und Gebäudedämmung auf energieintensive Klimaanlagen verzichten kann. Dämmung verlängert zudem die Lebensdauer von Gebäuden, indem sie vor Temperaturschwankungen, Feuchtigkeit und anderen Umwelteinflüssen schützt.

Gesetzliche Vorgaben und Fördermöglichkeiten
Neubauten müssen die Vorgaben zum Schutz gegen Wärme im Gebäudeenergiegesetz (GEG) erfüllen. Diese gelten auch für Anbauten an Bestandsgebäuden, wenn diese 50 Quadratmeter überschreiten. Zuschüsse für energieeffiziente Bauweise erteilt das Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA). Die Unterstützung beträgt dabei 15 Prozent der förderfähigen Kosten. Mit einem gültigen individuellen Sanierungsfahrplan, dem sogenannten iSFP, erhöht sich dieser Zuschuss auf 20 Prozent. Nur in Kombination mit der BAFA-Zuschusszusage für den sommerlichen Wärmeschutz kann ein KfW-Ergänzungskredit beantragt werden. Eigentümerinnen und Eigentümer können zudem maximal 150.000 Euro Kredit für eine Effizienzhaus-Sanierung inklusive Wärmeschutz bekommen. Skrypietz: „Wärmeschutz lohnt sich mehrfach: Er spart Energie, Geld und steigert das Wohlbefinden in den eigenen vier Wänden.“

Weitere Informationen:
https://www.dbu.de/news/kuehle-wohnung-auch-an-heissen-tagen/ Online-Pressemitteilung

(nach oben)


Zement statt Deponie – Recycling von Müllverbrennungsasche

Ein Abbau von Kupfererz wird heute ab einem Mindestgehalt von 0,3 Prozent als wirtschaftlich angesehen. Bei der Müllverbrennung entsteht Asche, deren Feinfraktion durchschnittlich 0,3 bis 0,5 Prozent Kupfer enthält. Dessen Gewinnung lohnt aber nur, wenn auch die verbleibende mineralische Fraktion weiterverwertet werden kann. Die Universität Duisburg-Essen und Partner aus den Branchen Müllverbrennung und Aufbereitung sowie aus der Zementindustrie haben im Projekt EMSARZEM einen entsprechenden Prozess entwickelt. Ein Praxistest im Industrieformat verlief im vergangenen Juli erfolgreich.

Im Jahr 2022 wurden in Deutschland etwa 25 Millionen Tonnen Abfall in Verbrennungsanlagen „thermisch behandelt“. Aus den Resten werden mit konventionellen Methoden wie Sieben, Magnet- und Wirbelstromabscheidern rund 600.000 Tonnen Metalle zurückgewonnen. Die verbleibende Müllverbrennungs-Asche (MV-Asche) wird zum Großteil auf Deponien für Basisabdichtungen, Funktionsschichten und weitere Baumaßnahmen verwertet – obwohl noch wertvolle Metalle enthalten sind. „Theoretisch kann die MV-Asche im Straßen- und Erdbau als Ersatzbaustoff eingesetzt werden, was aber 2020 nur zu ca. 17 Prozent geschehen ist. Der größte Teil endet noch immer im Deponiebau“, erklärt Prof. Dr. Rüdiger Deike von der Universität Duisburg-Essen (UDE).

Unter der Leitung der GKS-Gemeinschaftskraftwerk Schweinfurt GmbH haben die insgesamt neun Partner des Projekts EMSARZEM – Einsatz von Müllverbrennungsschlacke als Rohstoff für die Zementherstellung ein wirtschaftliches, industriell umsetzbares Verfahren im Sinne des Urban Minings entwickelt. Dafür wird die Asche, die eine Körnung von 0 bis10 mm hat, in verschiedenen Stufen gemahlen; unterschiedliche Wertstoffe werden mit verschiedenen Trennverfahren extrahiert. Dabei werden die Metalle weitestgehend von der mineralischen Fraktion abgetrennt und wieder in die Metallproduktion übernommen. Der deutlich größere Rest – das Mineralgut – wird abhängig von seiner Korngröße gesäubert, als Rohstoff der Zement- und Betonproduktion zugeführt oder als Ersatz für natürliche Gesteinskörnungen in Betonanwendungen genutzt.

„Mit diesem Prozess können aus einer ursprünglich wertlosen Menge – wertlos deshalb, da sie im Abfall extrem fein verteilt ist –, theoretisch 8.000 Tonnen pro Jahr eines Kupferkonzentrates separiert werden. Darin wären ca. 2.800 Tonnen Kupfer, 20 Tonnen Silber und 100 Kilogramm Gold enthalten. Die Gewinnung wäre aber nur dann wirtschaftlich möglich, wenn die mineralische Fraktion auch verwertet werden kann“, erklärt Prof. Deike.

Deikes Arbeitsgruppe Metallurgie und Umformtechnik konzentriert sich im Projekt auf die detaillierte Untersuchung der separierten Metallfraktionen. Das Team von Prof. Dr. Jutta Geldermann (Produktionsmanagement/UDE) führt Wirtschaftlichkeitsberechnungen durch und erstellt die Ökobilanz dieses Prozesses. „Das Projekt EMSARZEM trägt mit dazu bei, durch die thermische Abfallverwertung zukünftig Rohstoffe zu gewinnen, die sonst unwiederbringlich verloren wären“, erklärt Dr. Ragnar Warnecke der Geschäftsführer der GKS-Gemeinschaftskraftwerk Schweinfurt GmbH.

EMSARZEM wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF). Hier stellt das BMBF das Projekt in einem Kurzfilm vor: https://video.tu-clausthal.de/film/1398.html

Redaktion: Birte Vierjahn, Tel. 0203/37 9-2427, birte.vierjahn@uni-due.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rüdiger Deike, Metallurgie und Umformtechnik, Tel. 0203/37 9-3455, ruediger.deike@uni-due.de

(nach oben)


Lernen aus der COVID-Pandemie: Über die Wirksamkeit von nicht-pharmazeutischen Interventionen

In den Jahren der COVID-19-Pandemie wurde die Wirksamkeit der staatlich angeordneten Maßnahmen zur Eindämmung der Pandemie, wie regelmäßige Tests und das Tragen medizinischer Atemschutzmasken, immer wieder angezweifelt. Eine Arbeitsgruppe um DZIF-Forscherin Prof. Alice McHardy am Helmholtz-Zentrum für Infektionsforschung (HZI) hat nun durch eine groß angelegte Analyse von Virusgenomdaten herausgefunden, dass im zeitlichen Zusammenhang mit der Einführung bestimmter Maßnahmen wie dem Tragen von medizinischen Masken und dem freien Zugang zu Antigen-Schnelltests deutlich weniger neue Varianten des SARS-CoV-2 Coronavirus nach Deutschland gelangten.

Das neuartige SARS-CoV-2-genannte Coronavirus trat erstmals Ende 2019 in der chinesischen Stadt Wuhan auf und verbreitete sich rasch weltweit. Der erste Fall in Deutschland wurde im Januar 2020 nachgewiesen. Anfang 2020 wurde SARS-CoV-2 als Auslöser der Infektionskrankheit COVID-19 identifiziert und ab Frühjahr 2020 von der Weltgesundheitsorganisation als Pandemie eingestuft.

In der Frühphase der Pandemie, als weder Impfstoffe noch gezielt wirkende Arzneimittel gegen die Infektion und Erkrankung zur Verfügung standen, wurden sogenannte nicht-pharmazeutische Interventionen (NPI) eingesetzt, um die Ausbreitung von SARS-CoV-2 einzudämmen. Dazu gehörten die Reduzierung von Kontakten mit Personen außerhalb des eigenen Haushalts, das Tragen von medizinischen Atemschutzmasken und, sobald verfügbar, die breite Verwendung von Antigen-Schnelltests. Im Verlauf der Pandemie wurde die Wirksamkeit einiger dieser Maßnahmen zunehmend in Frage gestellt.

𝗘𝗿𝗳𝗼𝗹𝗴𝘀𝗮𝗻𝗮𝗹𝘆𝘀𝗲 𝘃𝗼𝗻 𝗖𝗢𝗩𝗜𝗗-𝟭𝟵-𝗠𝗮ß𝗻𝗮𝗵𝗺𝗲𝗻 𝗶𝗻 𝗗𝗲𝘂𝘁𝘀𝗰𝗵𝗹𝗮𝗻𝗱
Die Wissenschaftler:innen Sama Goliaei und Mohammad-Hadi Foroughmand-Araabi aus der Forschungsgruppe von Prof. Alice McHardy vom HZI haben zusammen mit der Gruppe von Prof. Denise Kühnert vom Robert Koch-Institut (RKI) und dem Max-Planck Institut für Geoanthropologie den Erfolg der in Deutschland eingesetzten Interventionen untersucht. Dazu analysierten die Wissenschaftler:innen fast zwei Millionen SARS-CoV-2-Genome, die über die Jahre der Pandemie in der Bevölkerung Deutschlands aufgetreten sind und in einer Datenbank gesammelt wurden. Das Auftreten neuer Virusvarianten in Deutschland im Verlauf der Pandemie – als Maßstab für den Eintrag neuer Varianten aus anderen Teilen der Welt – verglichen sie dann mit der zeitlichen Einführung bestimmter Maßnahmen.

Die Ergebnisse zeigen, dass im zeitlichen Zusammenhang mit dem Inkrafttreten bestimmter Maßnahmen deutlich weniger neue Virusvarianten nach Deutschland gelangten. Die stärksten Rückgänge verzeichneten die Forschenden nach der Einführung von kostenlosen Antigen-Schnelltests, der Verschärfung der Vorschriften zum Tragen von medizinischen Masken im öffentlichen Nahverkehr und im Einzelhandel sowie des persönlichen Bewegungsradius und Zusammenkünften.

𝗡𝘂𝘁𝘇𝘂𝗻𝗴 𝘃𝗼𝗻 𝗚𝗲𝗻𝗼𝗺𝘀𝗲𝗾𝘂𝗲𝗻𝘇𝗲𝗻 𝘇𝘂𝗿 𝗩𝗲𝗿𝗳𝗼𝗹𝗴𝘂𝗻𝗴 𝘃𝗼𝗻 𝗦𝗔𝗥𝗦-𝗖𝗼𝗩-𝟮-𝗩𝗮𝗿𝗶𝗮𝗻𝘁𝗲𝗻
Während der Corona-Pandemie überwachten viele Länder Veränderungen in den Genomen der vorherrschenden SARS-CoV-2 Varianten, um die Ausbreitung sowie das Auftreten neuer Varianten zu verfolgen. Erstautorin Sama Goliaei erläutert: „Aus dieser Überwachung resultierte eine noch nie dagewesene Menge an Genomsequenzen, anhand derer die räumliche Ausbreitung und die Entwicklung der Virusstämme rekonstruiert werden konnte. Wir haben aus diesem Pool 1,8 Millionen SARS-CoV-2-Genomdaten verwendet, die zwischen dem Ende des Jahres 2020 und Anfang 2021 – also im Verlauf der dritten Pandemiewelle in Deutschland – gesammelt wurden.”

Um herauszufinden, wie die Einführung von Maßnahmen zur Eindämmung der Pandemie die Ausbreitung von SARS-CoV-2-Virusvarianten beeinflusste, nutzen die Forschenden einen neuen Ansatz, der als „phylogeographische Bayes-Analyse“ bezeichnet wird.

Die Bayes’sche Phylogeographie ist ein Forschungsgebiet innerhalb der Evolutionsbiologie und Biogeographie, das spezielle statistische Methoden verwendet, um räumliche und zeitliche Muster der Bewegung und Entwicklung von Arten zu identifizieren. Bei diesem Ansatz werden Informationen aus genetischen Daten wie DNA-Sequenzen mit geographischen Daten kombiniert, um die Ausbreitung und Divergenz von Populationen zu rekonstruieren.

𝗘𝗶𝗻𝗳𝗹𝘂𝘀𝘀 𝘃𝗼𝗻 𝗻𝗶𝗰𝗵𝘁-𝗽𝗵𝗮𝗿𝗺𝗮𝘇𝗲𝘂𝘁𝗶𝘀𝗰𝗵𝗲𝗻 𝗜𝗻𝘁𝗲𝗿𝘃𝗲𝗻𝘁𝗶𝗼𝗻𝗲𝗻 (𝗡𝗣𝗜) 𝗮𝘂𝗳 𝗱𝗶𝗲 𝗩𝗲𝗿𝗯𝗿𝗲𝗶𝘁𝘂𝗻𝗴 𝘃𝗼𝗻 𝗦𝗔𝗥𝗦-𝗖𝗼𝗩-𝟮 𝗶𝗻 𝗗𝗲𝘂𝘁𝘀𝗰𝗵𝗹𝗮𝗻𝗱
Anhand von drei Stichprobenstrategien ermittelten die Forschenden aus dem oben genannten Datensatz die nach Deutschland eingeschleppten SARS-CoV-2-Linien und den jeweiligen Zeitpunkt der Einschleppung. Um den Einfluss der Interventionen auf Einschleppung und Verbreitung dieser Linien herauszufinden, fasste die Gruppe Informationen aus veröffentlichten Quellen zu über 4.000 in Deutschland umgesetzten Interventionen zusammen und klassifizierte diese dann in insgesamt zwölf übergeordnete NPI.

Die Einführungs- und Anwendungszeiträume dieser kategorisierten und klassifizierten NPI wurden dann mit dem geographischen und zeitlichen Vorkommen der Viruslinien in Relation gesetzt, um den Einfluss der Interventionen auf die Einschleppung des Virus und dessen Verteilung innerhalb von Deutschland zu bestimmen.

„Besonders nach der Bereitstellung kostenloser Antigen-Schnelltests und dem Verschärfen der Vorschriften zum Tragen von medizinischen Atemschutzmasken erfolgte ein starker Rückgang bei der Einschleppung neuer SARS-CoV-2-Varianten nach Deutschland“, erklärt Mohammad-Hadi Foroughmand-Araabi. Diese Maßnahmen schränken den Alltag nicht so stark ein wie beispielsweise Kontaktverbote und könnten daher bei zukünftigen Pandemien schnell und umfassend ergriffen werden, um der Virusausbreitung zu begegnen.

„Die Ergebnisse der Analysen haben nicht nur Erkenntnisse zum Virusverhalten während einer Pandemie gebracht“, resümiert Gruppenleiterin Prof. Alice McHardy. „Ganz wesentlich ist auch, dass die in der Studie angewandte Methodik dazu beitragen kann, bei möglichen zukünftigen Pandemien schon in der Frühphase Zusammenhänge zwischen Umweltfaktoren und Verbreitung des Erregers auszumachen. Auf diese Weise könnten schneller Hinweise auf die Effektivität von bestimmten NPI erhalten werden.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Alice McHardy
Helmholtz-Zentrum für Infektionsforschung
Alice.McHardy@helmholtz-hzi.de

Originalpublikation:
Goliaei, S., Foroughmand-Araabi, MH., Roddy, A. et al. Importations of SARS-CoV-2 lineages decline after nonpharmaceutical interventions in phylogeographic analyses. Nat Commun 15, 5267 (2024). https://doi.org/10.1038/s41467-024-48641-2

Weitere Informationen:
https://www.dzif.de/en/learning-covid-pandemic-effectiveness-non-pharmaceutical-… Englische Übersetzug

(nach oben)


Virale Artenvielfalt im Abwasser

Umfassende Metagenom-Sequenzierungen des Berliner Abwassers über 17 Monate zeigen, dass man so die Ausbreitung von Krankheitserregern überwachen und Ausbrüche vorhersagen kann. Wie das Team um Markus Landthaler in „Environmental International“ schreibt, haben sie zudem Tausende neuer Viren entdeckt.

Dass Gesundheitsbehörden das städtische Abwasser überwachen, um bestimmte Mikroben wie Polioviren oder SARS-CoV-2 aufzuspüren, ist nicht neu. Eine umfassende Surveillance, die zusätzlich auf bislang unentdeckte und somit unbekannte Viren abzielt, ist dagegen in den meisten Orten der Welt nicht die Norm.

Das könnte sich in der Zukunft ändern. Denn Abwasser ist eine wahre Fundgrube für Daten zu Viren in unserer unmittelbaren Umgebung, zeigt eine Studie der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“ von Professor Markus Landthaler am Max Delbrück Center. Die Wissenschaftler*innen analysierten Proben aus einer Berliner Kläranlage mithilfe der Shotgun-Metagenom-Sequenzierung. Dank dieser Technologie konnten sie alle Viren im Wasser umfassend untersuchen: von der Bestimmung von Virusvarianten bis hin zur Nachverfolgung einzelner Buchstabenänderungen im Erbgut.

Die Verbreitung der Virusvarianten nachvollziehen
Sie fanden dabei zuverlässig alltägliche Viren wie RSV oder Grippe und konnten die saisonale Ausbreitung der Virusvarianten nachvollziehen. Je nach Jahreszeit wiesen sie außerdem typische Besucher im Abwasser nach: Viren, die Spargel infizieren, tauchten im Frühjahr auf, Weintrauben-Viren im Herbst und solche, die es auf Wassermelonen oder die Berliner Mücken abgesehen haben, im Sommer.

Die weit verbreiteten Astroviren, die beim Menschen den Magen-Darm-Trakt befallen, schauten sich die Wissenschaftler*innen genauer an. Sie verglichen, welche Mutationen im viralen Genom im Berliner Abwasser vorkamen und welche anderswo gefunden worden waren. So konnten sie die weltweite Ausbreitung einzelner Stämme nachverfolgen. In angereicherten Proben detektierten und sequenzierten sie außerdem etwa 70 menschliche Pathogene, die seltener zu finden sind. Sie entdeckten Tausende neuartiger Viren und erweiterten so unser Wissen um die virale Artenvielfalt. Doch ihre Analyse machte nicht bei den Viren halt. Die Daten brachten Hunderte Enzyme namens TnpB-Endonukleasen ans Licht, die potenziell in der Biotechnologie nützlich sein können. Das Team veröffentlichte die Studie in „Environment International“.

„Die Überwachung des Abwassers hat meines Erachtens ungeheures Potenzial. Denn Sequenzierungen werden billiger“, sagt Landthaler. „Und mit den Maschinen werden sich auch die Bioinformatik-Werkzeuge verbessern, die wir für die Analyse dieser Daten brauchen.“

Nach bislang unbekannten Viren suchen
Die Forschung an den Abwasserproben hatte während der Coronapandemie begonnen. Dank einer Kooperation mit den Berliner Wasserbetrieben hatte die Arbeitsgruppe von Markus Landthaler Proben aus einer Berliner Kläranlage bekommen. So konnten das Team die Verbreitung und die Wellen der SARS-CoV-2-Varianten verfolgen. Als die Pandemie allmählich abebbte, beschlossen die Wissenschaftler*innen die zwischen März 2021 bis Juli 2022 gesammelten Proben erneut zu untersuchen. „Wir waren neugierig, was da noch zu finden ist“, sagt Dr. Emanuel Wyler, Postdoktorand in der Arbeitsgruppe von Landthaler und Erstautor der Studie. „Wir hatten hier ja ein sehr umfassendes Set an Daten, das in seiner Tiefe und Zeitspanne einzigartig ist.“

Die Forscher*innen extrahierten RNA aus den Proben und generierten 116 Bibliotheken komplementärer DNA. Sie speisten die Bibliotheken in einen Sequenzierer ein – und das Ergebnis waren Millionen Messwerte. „Diese Daten zu analysieren, ist eine Herausforderung“, sagt Dr. Chris Lauber, ein auf Bioinformatik spezialisierter Virologe von TWINCORE, dem Zentrum für Experimentelle und Klinische Infektionsforschung der Medizinischen Hochschule Hannover (MHH) und dem Helmholtz-Zentrum für Infektionsforschung (HZI). „Genomische Daten in die großen Virenfamilien einzusortieren, ist vergleichsweise einfach. Aber eine tiefgehende Analyse, die nach Varianten oder ganz neuen Viren sucht, kann sehr anspruchsvoll sein.“

Dies alles zeige, welches Potenzial die Überwachung des Abwassers hat – um die Evolution pathogener Viren zu untersuchen und im Hinblick auf Public Health und damit für die Gesundheit der Bevölkerung, sagt Landthaler. „Die Analyse des Metagenoms von Abwasser an möglichst vielen Standorten weltweit sollte Priorität haben“, sagt er.

Max Delbrück Center
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (Max Delbrück Center) gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den Standorten in Berlin-Buch und Mitte analysieren Forscherinnen aus rund 70 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organ-übergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patientinnen zugutekommen. Das Max Delbrück Center fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am Max Delbrück Center arbeiten 1800 Menschen. Finanziert wird das 1992 gegründete Max Delbrück Center zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Landthaler
Leiter der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“
Berliner Institut für Medizinische Systembiologie des Max Delbrück Center
+49 30 9406-3026
markus.landthaler@mdc-berlin.de

Dr. Emanuel Wyler
Wissenschaftler in der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“
Berliner Institut für Medizinische Systembiologie des Max Delbrück Center
+49 30 9406-3009
emanuel.wyler@mdc-berlin.de

Originalpublikation:
Emanuel Wyler et al. (2024): „Pathogen dynamics and discovery of novel viruses and enzymes by deep nucleic acid sequencing of wastewater“. Environment International, DOI: 10.1016/j.envint.2024.108875

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S0160412024004616?via%3Dihub – Paper
https://www.mdc-berlin.de/de/landthaler – AG Landthaler
https://www.mdc-berlin.de/de/news/press/virenfahndung-der-kanalisation – Virenfahndung in der Kanalisation

Anhang
Der Virenstammbaum zeigt die Verwandtschaftsverhältnisse der bekannten Virengruppen in verschiedenen Farben; die neu im Abwasser entdeckten Viren sind leuchtend hellblau dargestellt.

(nach oben)


Endlich den Turbo für die digitale Transformation zünden: Weiterbildung für den Öffentlichen Dienst

Wie können Behörden, Stadtverwaltungen, Landkreise, staatliche Hochschulen und andere öffentliche Einrichtungen erfolgreich die Digitalisierung planen und gestalten? Welche strategischen und praktischen Aspekte gilt es dabei zu beachten? Das erfahren Führungs- und Fachkräfte des Öffentlichen Dienstes in einer mehrteiligen, insgesamt zehntägigen Weiterbildung der Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg), die am 15. Oktober 2024 startet: “Digitale Transformation der öffentlichen Verwaltung”.

Moderne Verwaltung braucht konsequente Digitalisierung – sowohl um alltägliche Bürgerservices wie An- und Ummeldungen, Anträge bei Sozial- und Bauämtern oder Kfz-Angelegenheiten nutzerfreundlich zu ermöglichen, als auch um die internen Prozesse in Behörden und Ämtern effizienter zu gestalten. Doch Deutschland hinkt bei der digitalen Transformation immer noch gewaltig hinterher.

In einer repräsentativen Umfrage des Verbands der Internetwirtschaft vom August 2023 sieht die Mehrheit der 2.500 Befragten ab 18 Jahren (70 %) keine erkennbaren Fortschritte in der digitalen Transformation Deutschlands. Besonders kritisch bewertet wird der Stand der Digitalisierung von Behörden und Verwaltung (63 %), der Ausbau der digitalen Infrastruktur (53 %) und der Cybersicherheit (33 %). Die deutliche Mehrheit der Befragten (86 %) ist der Meinung, dass die aktuelle Digitalpolitik nicht mit den im Koalitionsvertrag formulierten Zielen zur Gestaltung Deutschlands als Vorreiter in der Digitalisierung übereinstimmt.

Europaweiter Vergleich: Deutschland weit abgehängt bei der Digitalisierung
Mit dem Onlinezugangsgesetz (OZG) von 2017 setzte sich der Bund das Ziel einer weitgehenden Digitalisierung der öffentlichen Verwaltung. Konkret sollten 575 Verwaltungsdienstleistungen bis Ende 2022 von den Bürgern in Anspruch genommen werden können. Gemäß einer Studie des Instituts der deutschen Wirtschaft konnten lediglich 105 Vorhaben fristgerecht umgesetzt werden (Stand März 2023). Damit befindet sich Deutschland in Bezug auf den Stand des E-Government laut Digital Economy and Society Index (DESI) im europäischen Vergleich auf Platz 18 der 27 Mitgliedsstaaten.

„Als Gründe für das Scheitern der im OZG festgesetzten Ziele können dabei insbesondere institutionelle Herausforderungen ausgemacht werden“, erklärt Prof. Dr. Heike Papenheim-Tockhorn, Leiterin des Departments Public Management an der HAW Hamburg. Gemeinsam mit Kolleg*innen der HAW Hamburg und externen Fachleuten hat sie eine Weiterbildung für Führungs- und Fachkräfte konzipiert, in der die Erfolgspotenziale und Probleme der Digitalisierung für die Öffentliche Verwaltung analysiert werden und im Dialog mit den Teilnehmenden strategische und lösungsorientiere Ansätze für digitale Transformationsprozesse entwickelt werden. „Digitale Transformation der öffentlichen Verwaltung“ heißt die insgesamt zehntägige Qualifizierung in drei Modulen, die am 15. Oktober 2024 am Campus Weiterbildung der HAW Hamburg startet. Mit einer freiwilligen Fallstudie als Abschlussarbeit haben die Teilnehmenden sogar die Möglichkeit, ein europaweit anerkanntes Hochschulzertifikat mit 6 Credits Points zu erwerben. „Die Weiterbildung hat sehr viele Aspekte der digitalen Transformation erkenntnisreich ausgeleuchtet. Gerade die Mischung unterschiedlicher Lehrender und externer Impulse war besonders gut“, resümierte René Menken, Kämmerer des Landkreises Verden, seine Teilnahme am letztjährigen Durchgang.

Neben strategischen, rechtlichen und technischen Rahmenbedingungen leuchtet die Weiterbildung auch ganz praktische Aspekte der Digitalisierung aus. Aus Hamburg, hinter München auf Platz zwei im Smart City Index 2023 des Digitalbranchenverbandes Bitkom, berichten Vertreter:innen der Senatskanzlei sowie der Sozial-, Finanz- und der Innenbehörde über ihre Projekterfahrungen. „Hamburg liefert sehr gute Beispiele, wie digitale und persönliche Vernetzung funktioniert. Es war eindrucksvoll, das zu erleben“, berichtet Raphael Klinkert von der Bundenetzagentur in Mainz. Er hat gerade seine Abschlussarbeit für diese Weiterbildung erfolgreich präsentiert und damit ein Hochschulzertifikat mit 6 Credit Points erworben.

Start der Weiterbildung am 15. Oktober 2024 – Frühbucherpreis bis 15. August
Die Weiterbildung “Digitale Transformation der öffentlichen Verwaltung” umfasst an zehn Tagen 54 Stunden in Präsenz am Campus Weiterbildung der HAW Hamburg sowie im Live-Online-Format via Zoom. Sie startet am 15. Oktober 2024 mit vier Präsenztagen. Block zwei erfolgt online vom 11. bis 13. November, der Abschluss findet vom 9. bis 11. Dezember wieder in Präsenz in Hamburg statt. Teilnehmen können Fach- und Führungskräfte der öffentlichen Verwaltung mit mindestens drei Jahren Berufserfahrung, die sich und ihre Organisationen für die Herausforderungen der Digitalisierung fit machen wollen und digitale Transformationsprozesse aktiv gestalten möchten. Die Teilnahme kostet 2.580 Euro (bis 15. August gilt ein Frühbucherrabatt für 2.290 Euro).

Alle Teilnehmenden erhalten im Anschluss an den vollständigen Besuch der Weiterbildung einen umfangreichen Weiterbildungsnachweis der HAW Hamburg. Teilnehmende haben zusätzlich die Möglichkeit, ein europaweit anerkanntes Hochschulzertifikat mit 6 Credit Points zu erwerben. Dafür sind zusätzlich eine Fallstudie und Präsentation anzufertigen (Aufwand: 96 Stunden).

Weitere Informationen:
https://www.haw-hamburg.de/weiterbildung/berufsbegleitend/oeffentlicher-dienst-v… Weitere Informationen und Anmeldung

(nach oben)


Dem Was­ser im Wel­tall auf der Spur

Für die Frage nach außerirdischem Leben spielen mögliche Wasservorkommen im Weltall eine zentrale Rolle. Neue Daten der Universität Innsbruck helfen dabei, die Spuren von Wasser in astronomischen Beobachtungsdaten zu finden. Eine Forschungsgruppe um Christina M. Tonauer und Thomas Lörting hat Nahinfrarot-Spektren verschiedener Eisformen veröffentlicht. Mit diesen lassen sich insbesondere die Daten des James-Webb-Weltraumtelekops gut einordnen.

Die Forschungsgruppe von Thomas Lörting am Institut für Physikalische Chemie der Universität Innsbruck beschäftigt sich mit den vielfältigen und besonderen Eigenschaften von Eis und Wasser. So haben die Wissenschaftler:innen im Labor neue Eisformen entdeckt und konnten in der Vergangenheit zeigen, dass Wasser aus zwei unterschiedlichen Flüssigkeiten besteht. Die Arbeitsgruppe ist in der Lage, im Labor auch Eisformen herzustellen, die nicht natürlich auf der Erde vorkommen, in den Weiten des Weltalls aber sehr wohl. „Für die Herstellung dieser Eisformen benötigt es sehr tiefe Temperaturen und/oder einen sehr hohen Druck“, erklärt die Chemikerin Christina M. Tonauer aus dem Team von Thomas Lörting. Die Erkenntnisse zu den Eisformen finden in verschiedenen Bereichen Anwendung. Für die Weltraumforschung sind sie wichtig, weil so die Bedingungen ergründet werden können, unter denen dort Eis entsteht, und wo es zu finden ist.

Zwanzig verschiedene Eisformen sind bisher bekannt. Und während auf der Erdoberfläche nur sogenanntes hexagonales Eis beobachtet wird, vermutet die Wissenschaft im Inneren der Eisgiganten Uranus und Neptun oder auf den von kilometerdicken Eisschichten überzogen Eismonden von Jupiter und Saturn eine Vielzahl unterschiedlicher Eisstrukturen. Zum ersten Mal liefern die Innsbrucker Chemiker:innen nun Spektren dieser Eisformen im Nahinfrarotbereich, einem Frequenzbereich, in dem auch das neue James-Webb-Weltraumteleskop misst. Die im Weltall gemessenen Daten können mit den im Labor in Innsbruck ermittelten Spektren verglichen werden und so Aussagen über Art und Struktur des Eises im All gewonnen werden.

Neue Messmethode entwickelt
Gelungen ist Christina M. Tonauer die Erstellung der Nahinfrarotspektren in Kooperation mit der Forschungsgruppe um Christian Huck am Institut für Analytische Chemie und Radiochemie der Universität Innsbruck, einem Spezialisten der Nahinfrarot-Spektroskopie. „Die große Schwierigkeit war, das Eis für die Dauer der Messung auf minus 196 Grad Celsius zu halten, damit es sich nicht umformt“, erzählt Christina M. Tonauer. „Wir mussten eine Methode entwickeln, um die Proben unter Zuhilfenahme von flüssigem Stickstoff in einem für Raumtemperaturen konzipierten Spektrometer messen zu können.“

Die Wissenschaftler:innen waren erfolgreich und fanden in den Spektren im Wellenlängenbereich von 1 bis 2,5 Mikrometer zahlreiche charakteristische Merkmale, anhand derer etwa die Dichte und Porosität des Eises bestimmt werden können. „In diesem Wellenlängenbereich misst auch einer der Spektrografen am James-Webb-Weltraumteleskop“, erklärt Thomas Lörting. „Unsere Labordaten können als Referenzwerte für die Interpretation von Messungen im All herangezogen werden. So lernen wir vielleicht bald mehr über das Eis und Wasser im All.“

Die Forschung fand im Rahmen der Forschungsplattform Material- und Nanowissenschaften an der Universität Innsbruck statt, die Anfang des Jahres zum Forschungsschwerpunkt Funktionelle Materialwissenschaften (FunMAT) aufgewertet wurde.

Wissenschaftliche Ansprechpartner:
Christina M. Tonauer
Institut für Physikalische Chemie
Universität Innsbruck
+43-512-507-58029
christina.Tonauer@uibk.ac.at
https://www.uibk.ac.at/de/physchem/forschung/supercooled/

Thomas Lörting
Institut für Physikalische Chemie
Universität Innsbruck
+43 512 507-58019
thomas.loerting@uibk.ac.at
https://www.uibk.ac.at/de/physchem/forschung/supercooled/

Originalpublikation:
Near-infrared Spectroscopy for Remote Sensing of Porosity, Density and Cubicity of Crystalline and Amorphous H2O Ices in Astrophysical Environment. Christina Tonauer et al. The Astrophysical Journal 2024 DOI: https://doi.org/10.3847/1538-4357/ad4f82

(nach oben)


Bevölkerungsweites Gesundheitsscreening: ein Tropfen Blut, viele Diagnosen

Mithilfe von Infrarotlicht und maschinellem Lernen haben Forschende des attoworld-Teams eine Methode entwickelt, den Gesundheitszustand einer Population zu untersuchen.

Stellen Sie sich ein Szenario vor, in dem ein einziger Blutstropfen innerhalb von Minuten umfassende Gesundheitsinformationen liefert. Einem solchen Ziel sind Forschende um Dr. Mihaela Žigman von der Ludwig-Maximilians-Universität München (LMU) und dem Max-Planck-Institut für Quantenoptik (MPQ) ein Stück nähergekommen. In Zusammenarbeit mit dem Helmholtz Zentrum München haben sie ein Gesundheitsscreening-Tool entwickelt, das mithilfe von Infrarotlicht und maschinellem Lernen mehrere Gesundheitszustände mit nur einer Messung erkennen kann.

Die Infrarotspektroskopie ist eine Technik, bei der Infrarotlicht zur Analyse der molekularen Zusammensetzung von Substanzen eingesetzt wird. Es ist, als würde man Molekülen einen Fingerabdruck abnehmen. Bei der Anwendung auf komplexe Bioflüssigkeiten wie Blutplasma kann die Technologie detaillierte Informationen über molekulare Signale liefern. Obwohl die Infrarotspektroskopie seit Langem in der Chemie und der Industrie eingesetzt wird, hat sie sich in der medizinischen Diagnostik noch nicht durchgesetzt.

Dieser Aufgabe hat sich nun ein Team von Forschenden der Broadband Infrared Diagnostics Forschungsgruppe (BIRD) im attoworld-Team unter der Leitung von Dr. Mihaela Žigman angenommen. Nachdem die BIRD-Gruppe bereits die Methode zum molekularen Fingerabdruck von menschlichem Plasma entwickelt hat, arbeiteten die Forschenden nun mit dem Team von Professorin Dr. Annette Peters vom Helmholtz Zentrum München zusammen, das eine groß angelegte Bevölkerungsstudie durchgeführt hat. Gemeinsam haben sie das sogenannte Infrarot-molekulare Fingerprinting auf eine diverse Bevölkerung zum ersten Mal angewendet. Dazu wurde das Blutplasma von Tausenden von Teilnehmern im Rahmen der KORA-Studie, einem umfassenden repräsentativen Gesundheitsforschungsprojekt im Raum Augsburg, gemessen.

Weitreichende Anwendungsmöglichkeiten
Mehr als 5.000 Blutplasmaproben wurden so mittels Fourier-Transformations-Infrarot-Spektroskopie (FTIR) untersucht. Tarek Eissa und Cristina Leonardo vom BIRD-Team der LMU analysierten die Blutproben mit Infrarotlicht, um molekulare Fingerabdrücke zu vermessen. Das Team wandte maschinelles Lernen an, um die Korrelation zwischen den gemessenen molekularen Fingerabdrücken und den medizinischen Daten zu analysieren. Sie entdeckten, dass diese Fingerabdrücke wertvolle Informationen enthalten, die ein schnelles Gesundheitsscreening ermöglichen. Ein mehrstufiger Computeralgorithmus ist nun in der Lage, zwischen verschiedenen Gesundheitszuständen zu unterscheiden, darunter anormale Blutfettwerte, verschiedene Blutdruckveränderungen und Typ-2-Diabetes, aber überraschenderweise auch Prädiabetes, einer Vorstufe des Diabetes, die oft übersehen wird.

Der Algorithmus konnte den Forschenden zufolge sogar Personen herausfiltern, die gesund waren und über den Untersuchungszeitraum von mehreren Jahren gesund blieben. Das ist aus zwei Gründen von Bedeutung: Erstens erleben die meisten Menschen in jeder beliebigen Population anormale gesundheitliche Veränderungen. Da wir alle unterschiedlich sind und uns im Laufe der Zeit verändern, ist es daher alles andere als trivial, völlig gesunde Personen zu identifizieren. Zweitens leiden sehr viele Menschen an mehreren Krankheiten in verschiedenen Kombinationen. Traditionell würden Ärzte für jede Krankheit einen neuen Test benötigen.

Mit dem neuen Ansatz lässt sich jetzt nicht nur eine Krankheit feststellen, sondern eine ganze Reihe von Gesundheitsproblemen und komplexen -zuständen mit mehreren Krankheiten gleichzeitig. Darüber hinaus kann es die Entwicklung des metabolischen Syndroms Jahre vor dem Auftreten von Symptomen vorhersagen und so ein Zeitfenster für Interventionen schaffen.

Die neue Studie legt den Grundstein dafür, dass der molekulare Infrarot-Fingerabdruck in Zukunft zu einem Routinebestandteil von Gesundheitsuntersuchungen werden könnte. Er soll Ärzten ermöglichen, Krankheiten effizienter zu erkennen und zu behandeln. Das ist wichtig bei Stoffwechselstörungen, wie erhöhtes Cholesterin und Diabetes, bei denen frühzeitig getroffene Maßnahmen die Gesundheit erheblich verbessern können.

Die Anwendungsmöglichkeiten dieser Methode könnten noch weiter reichen: In dem Maße, wie die Forscher die Methodik verfeinern und ihre Fähigkeiten durch Technologieentwicklung ausbauen, könnten noch mehr Gesundheitszustände nach klinischer Erprobung in das Diagnoserepertoire aufgenommen werden. Das könnte zu einem personalisierten Gesundheitsscreening führen, bei der der Einzelne regelmäßig seinen Gesundheitszustand überprüfen lässt und potenzielle Probleme erkennt, lange bevor sie ernst werden.

Die Infrarotspektroskopie in Kombination mit dem maschinellen Lernen hat nach Ansicht der Autoren das Potenzial, die Gesundheitsdiagnostik zu verändern. Mit einem einzigen Tropfen Blut und Infrarotlicht, so die Forschenden, stehe ein leistungsfähiges Werkzeug zur Verfügung, die Gesundheit im Auge zu behalten, Probleme effizienter zu erkennen und die Gesundheitsversorgung weltweit zu verbessern.

Wissenschaftliche Ansprechpartner:
Dr. Mihaela Žigman
Ludwig-Maximilians-Universität, Max-Planck-Institut für Quantenoptik
Tel.: 49.89.289-54062
mihaela.zigman@mpq.mpg.de
https://www.attoworld.de
https://attoworld.de/bird.html

Originalpublikation:
Tarek Eissa, Cristina Leonardo, Kosmas V. Kepesidis, Frank Fleischmann, Birgit Linkohr, Daniel Meyer, Viola Zoka, Marinus Huber, Liudmila Voronina, Lothar Richter, Annette Peters, Mihaela Žigman: Plasma infrared fingerprinting with machine learning enables single-measurement multi phenotype health screening. Cell Reports Medicine 2024
https://doi.org/10.1016/j.xcrm.2024.101625

(nach oben)


Gut geschützt auf Reisen Reiseimpfungen: Was Rheuma-Betroffene beachten sollten

Dank neuer Therapien in der Rheumatologie können immer mehr Menschen mit entzündlich-rheumatischen Erkrankungen ohne Einschränkungen Fernreisen unternehmen und müssen nicht auf bestimmte Urlaubsziele verzichten. Wichtig ist, neben einem gut geplanten Aufenthalt am Zielort, jedoch eine umfassende fachliche Reiseberatung zu erforderlichen Schutzimpfungen. Experten der Deutschen Gesellschaft für Rheumatologie und Klinische Immunologie e. V. (DGRh) erklären, worauf geachtet werden sollte.

Nach dem Deutschen Rheuma-Forschungszentrum Berlin (DRFZ) sind rund 1,5 bis 2,1 Millionen Erwachsene in Deutschland von entzündlich-rheumatischen Erkrankungen betroffen. Sie zählen aus infektiologischer Sicht zu einer Risikogruppe. Bereits das Autoimmungeschehen, das der Erkrankung zugrunde liegt, macht sie anfälliger für Infektionskrankheiten, hinzu kommt die immunmodulierende Medikation. „Manche Rheuma-Medikamente hindern das Immunsystem auch daran, effektiv und dauerhaft auf eine Impfung zu reagieren“, erklärt Dr. med. Ioana Andreica, Rheumatologin am Rheumazentrum Ruhrgebiet in Herne. „Diese begrenzte Wirksamkeit, auch bei Erstimpfungen, sollte mit den Patient:innen besprochen werden.“ Wann und mit welchem Erfolg geimpft werden kann, hängt von der Art und Dosierung der Medikation ab, sowie von der Aktivität der entzündlich-rheumatischen Erkrankung . Generell gilt:

  • Es sollte nicht in einen Krankheitsschub „hineingeimpft“ werden.
  • Totimpfstoffe sind grundsätzlich sicher. Allerdings kann der Impfschutz schwächer ausfallen.
  • Unter Immunsuppression sollten Lebendimpfstoffe möglichst vermieden werden.
  • Als nicht immunsuppressiv gelten zum Beispiel Hydroxychloroquin, Sulfasalazin und Apremilast.
  • Als immunsuppressiv gelten einige Biologika wie beispielsweise TNF-Blocker, Abatacept oder Rituximab. Auch hochdosierte Glukokortikoide, Azathioprin und hochdosiertes Methotrexat, sowie Kombinationstherapien dämpfen die Immunantwort.
  • Impfungen sollten idealerweise vor einem Therapiestart mit immunsuppressiven Medikamenten erfolgen.

Empfohlene Reiseimpfungen – Überprüfung von Standard- und Indikationsimpfungen nicht vergessen
Für Personen mit eingeschränkter Immunfunktion gelten prinzipiell dieselben Impfempfehlungen wie für andere Reisende auch. Je nach Reiseziel sollte ein Impfschutz gegen Cholera, Dengue, Frühsommer-Meningoenzephalitis (FSME), Gelbfieber, Japanische Enzephalitis, Meningokokken-Infektionen, Tollwut und Typhus angestrebt werden. Einige Impfungen werden im internationalen Reiseverkehr vorgeschrieben wie beispielsweise die Impfungen gegen Gelbfieber, Meningokokken-Impfung, PoliomyelitisImpfung oder die Masern-Impfung.
Die Ständige Impfkommission (STIKO) des Robert Koch-Institut empfiehlt auch im Rahmen einer reisemedizinischen Impfberatung einmal die Standard- und Indikationsimpfungen zu überprüfen und, wenn notwendig, diese zu vervollständigen. Diese sind: Tetanus, Diphtherie, HPV, Herpes zoster, Pertussis, Masern, Meningokokken-Infektionen (ACWY), Pneumokokken, Influenza, Hepatitis A und B, Poliomyelitis und COVID-19. Seit diesem Jahr sind die Standardimpfungen um die Meningokokken B Impfung ergänzt.
„Für die meisten dieser Impfungen gibt es Totimpfstoffe, die auch bei Immungeschwächten sicher sind. Die Impfungen bzw. Impfserien sollten spätestens zwei Wochen vor Reisebeginn abgeschlossen sein, um eine ausreichende schützende Immunität und das Abklingen oder eine Behandlung etwaiger unerwünschter Arzneimittelwirkungen vor Reise-antritt zu gewährleisten,“ sagt Andreica. Unter Umständen werde aber nur ein eingeschränkter Impfschutz aufgebaut. Im Falle der Hepatitis A-Impfung wird deshalb seit kurzem eine zusätzliche Impfdosis empfohlen.

Gelbfieberimpfung und Impfung gegen Dengue
Der wichtigste Lebendimpfstoff unter den Reiseimpfungen ist die Gelbfieberimpfung, die etliche tropische Länder verpflichtend vorschreiben. „Bei Personen mit geschwächtem Immunsystem besteht die Gefahr, dass der Lebendimpfstoff die Gelbfiebererkrankung auslöst, gegen die er schützen soll. Denn das geschwächte Immunsystem kann die abgeschwächten Viren im Lebendimpfstoff nicht wirksam abwehren“, sagt Andreica. Um solche Impfkomplikationen zu vermeiden, wäre theoretisch eine Immunsuppressionspause von ca. 3 Monaten oder länger, je nach Immunsuppression, vor und 4 Wochen nach der Lebendimpfung erforderlich. Dies ist in der Regel und wegen der Gefahr eines Schubes der rheumatischen Erkrankung für die Patient:innen nicht möglich. Neue Daten zeigen, dass unter Umständen die Gabe einer Gelbfieber-Impfung unter einer leichten Immun-suppression möglich ist. Laut der im Dezember 2020 aktualisierten Fachinformation für Stamaril (Gelbfieberimpfstoff) ist eine Impfung unter niedrig dosierter Cortisoneinnahme möglich. Auch die erst kürzlich zugelassene Dengueimpfung ist ein Lebendimpfstoff, der bei Immunsupprimierten nicht verabreicht werden darf. Weil Erfahrungswerte noch fehlen, gilt dies selbst unter geringer Immunsuppression als kontraindiziert.

„Eine enge Zusammenarbeit beim Thema der Reiseimpfungen zwischen Patient:innen, Reisemediziner:innen, Hausärzt:innen und Rheumatolog:innen ist unerlässlich und die beste Voraussetzung für einen komplikationslosen und erholsamen Aufenthalt im Reise-land“, betont auch DGRh-Präsident Prof. Dr. med. Christof Specker aus Essen. „Neben den Impfungen sollten dann auch weitere Themen in der Beratung zur Sprache kommen, die für Rheuma-Betroffene wichtig sind, wie beispielweise Sonnenschutz oder Wechselwirkungen zwischen Immunsuppressiva und einer notwendigen Malariaprophylaxe.“

Quellen:
Reisen und Rheuma, Dr. med. Ioana Andreica, Rheumazentrum Ruhrgebiet Herne, Vortrag auf der Jahrestagung der Deutschen Fachgesellschaft Reisemedizin e.V. (DFR) 2023

Empfehlungen der Ständigen Impfkommission (STIKO) und der Deutschen Gesellschaft für Tropenmedizin, Reisemedizin und Globale Gesundheit e. V. (DTG) zu Reiseimpfun-gen, Robert-Koch-Institut, Epidemiologisches Bulletin 14 | 2024 ,4. April 2024, https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2024/Ausgaben/14_24.pdf?__b…

Albrecht, K., Binder, S., Minden, K. et al. Systematisches Review zur Schätzung der Prä-valenz entzündlich rheumatischer Erkrankungen in Deutschland. Z Rheumatol 82, 727–738 (2023). https://doi.org/10.1007/s00393-022-01305-2

Angelin M, Sjölin J, Kahn F, Ljunghill Hedberg A, Rosdahl A, Skorup P, Werner S, Woxe-nius S, Askling HH. Qdenga® – A promising dengue fever vaccine; can it be recom-mended to non-immune travelers? Travel Med Infect Dis. 2023 Jul-Aug;54:102598. doi: 10.1016/j.tmaid.2023.102598. Epub 2023 Jun 2. PMID: 37271201

Letícia Wigg de Araújo Lagos, Ariane de Jesus Lopes de Abreu, Rosângela Caetano, José Ueleres Braga, Yellow fever vaccine safety in immunocompromised individuals: a sys-tematic review and meta-analysis, Journal of Travel Medicine, Volume 30, Issue 2, March 2023, taac095, https://doi.org/10.1093/jtm/taac095

Wagner N, Assmus F, Arendt G, Baum E, Baumann U, Bogdan C, Burchard G, Föll D, Garbe E, Hecht J, Müller-Ladner U, Niehues T, Überla K, Vygen-Bonnet S, Weinke T, Wiese-Posselt M, Wojcinski M, Zepp F. Impfen bei Immundefizienz : Anwendungshinwei-se zu den von der Ständigen Impfkommission empfohlenen Impfungen. (IV) Impfen bei Autoimmunkrankheiten, bei anderen chronisch-entzündlichen Erkrankungen und unter immunmodulatorischer Therapie. Bundesgesundheitsblatt Gesundheitsforschung Ge-sundheitsschutz. 2019 Apr;62(4):494-515. German. doi: 10.1007/s00103-019-02905-1. PMID: 30899964.

(nach oben)


Verlust von Sauerstoff in Gewässern als neuer Kipp-Punkt identifiziert

Der Sauerstoffgehalt in den Gewässern auf unserer Erde nimmt rapide und dramatisch ab – vom Teich bis zum Ozean. Der fortschreitende Sauerstoffverlust bedroht nicht nur Ökosysteme, sondern auch die Lebensgrundlage großer Bereiche der Gesellschaft und den gesamten Planeten, urteilen die Autor:innen einer internationalen Studie mit Beteiligung des GEOMAR, die heute in der Fachzeitschrift Nature Ecology and Evolution veröffentlicht wurde. Sie fordern, den Sauerstoffverlust der Gewässer als planetare Belastbarkeitsgrenze anzuerkennen, um globale Überwachung, Forschung und politische Maßnahmen zu fokussieren.

Sauerstoff ist eine grundlegende Voraussetzung für das Leben auf dem Planeten Erde. Der Verlust von Sauerstoff im Wasser, auch als aquatische Desoxygenierung bezeichnet, stellt eine unmittelbare Bedrohung für das Leben im Wasser dar. In einer heute in der Fachzeitschrift Nature Ecology and Evolution veröffentlichten Studie beschreibt ein internationales Forschungsteam, welche Gefahren der fortschreitende Sauerstoffverlust auch für die Lebensgrundlage weiter Bereiche der Gesellschaft und für die Stabilität des Lebens auf unserem Planeten darstellt.

Frühere Forschungen haben eine Reihe globaler Prozesse identifiziert, die als planetare Belastbarkeitsgrenzen bezeichnet werden. Werden diese Belastbarkeitsgrenzen überschritten, erhöht sich das Risiko großräumiger, abrupter oder irreversibler Umweltveränderungen („Kipp-Punkte“), und die Widerstandsfähigkeit unseres Planeten, seine Stabilität, wird gefährdet. Zu den derzeit neun planetaren Grenzen gehören unter anderem der Klimawandel, die Veränderung der Landnutzung und der Verlust der biologischen Vielfalt. Die Autor:innen der neuen Studie argumentieren, dass der Sauerstoffverlust der Gewässer sowohl auf andere planetare Grenzprozesse reagiert als auch diese reguliert und deswegen als weitere planetare Grenze definiert werden sollte.

„Es ist wichtig, dass die Sauerstoffabnahme in der Hydrosphäre auf die Liste der planetaren Grenzen gesetzt wird“, sagt Erstautor Dr. Kevin Rose, Professor am Rensselaer Polytechnic Institute in Troy, New York. „Dies wird helfen, globale Überwachungs-, Forschungs- und Politikbemühungen zu unterstützen und zu fokussieren, um unsere aquatischen Ökosysteme und damit auch die Gesellschaft insgesamt zu schützen.“

In allen aquatischen Ökosystemen, von Bächen und Flüssen über Teiche, Seen und Stauseen bis hin zu Küsten und dem offenen Ozean, ist die Sauerstoffsättigung in den vergangenen Jahrzehnten rapide und erheblich gesunken. Seen und Stauseen haben seit 1980 Sauerstoffverluste von 5,5 beziehungsweise 18,6 Prozent erlitten. Der Ozean hat seit 1960 im globalen Durchschnitt mehr als zwei Prozent seines Sauerstoffs verloren. Prozentual klingt dies nach wenig, absolut bedeutet es aber aufgrund des riesigen Volumens des Weltozeans eine ungeheure Menge an Sauerstoff – und die Geschwindigkeit der Abnahme nimmt weiter zu. Die Wassermenge mit extremer Sauerstoffarmut (hypoxisch) beziehungsweise ohne jeglichen Sauerstoff (anoxisch) ist bei allen Gewässertypen dramatisch gestiegen, mit immer sichtbarer werdenden Konsequenzen für die betroffenen Ökosysteme.

„Ursachen des aquatischen Sauerstoffverlusts sind die globale Erwärmung durch Emissionen von Treibhausgasen und der Eintrag von Nährstoffen als Folge der Landnutzung“, sagt Ko-Autor Dr. Andreas Oschlies, Professor für Marine Biogeochemische Modellierung am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel: „Steigen die Wassertemperaturen, nimmt die Löslichkeit von Sauerstoff im Wasser ab. Dazu kommt eine ausgeprägtere Schichtung der Wassersäule, weil sich wärmeres, salzärmeres Wasser mit geringer Dichte auf das darunter geschichtete kältere, salzigere Tiefenwasser legt. Das behindert den Austausch der sauerstoffarmen Tiefenschichten mit dem sauerstoffreicheren Oberflächenwasser. Nährstoffeinträge von Land fördern zusätzlich Algenblüten, die dazu führen, dass mehr Sauerstoff verbraucht wird, wenn mehr organisches Material absinkt und in der Tiefe von Mikroben zersetzt wird.“

Bereiche im Meer, in denen so wenig Sauerstoff vorhanden ist, dass Fische, Muscheln oder Krebse nicht mehr überleben können, bedrohen nicht nur die Organismen selbst, sondern auch Ökosystemdienstleistungen wie Fischerei, Aquakultur, Tourismus und kulturelle Praktiken. Mikrobiotische Prozesse in sauerstoffarmen Regionen erzeugen darüber hinaus verstärkt Treibhausgase wie Lachgas und Methan, was zu einer weiteren Verstärkung der Erderwärmung und damit einer wesentlichen Ursache der Sauerstoffabnahme führen kann.

Die Autoren warnen: Wir nähern uns kritischen Schwellenwerten des Sauerstoffverlusts in den Gewässern, die mehrere andere planetare Grenzen beeinflussen werden. Professor Dr. Rose: „Gelöster Sauerstoff reguliert die Rolle von Meeres- und Süßwasser bei der Steuerung des Erdklimas. Die Verbesserung der Sauerstoffsättigung in Gewässern hängt von der Bekämpfung der zugrunde liegenden Ursachen ab, einschließlich der Klimaerwärmung und der Abwässer aus bewirtschafteten Landschaften. Wird der Sauerstoffmangel in den Gewässern nicht adressiert, wird dies letztlich nicht nur die Ökosysteme, sondern auch die Wirtschaft und die Gesellschaft auf globaler Ebene beeinträchtigen.“

Die Trends bei der Sauerstoffverarmung der Gewässer sind ein deutliches Warnsignal und ein Aufruf zum Handeln, das verhindern muss, diese planetare Grenze zu überschreiten. Die Studie von Professor Rose und seinen Kolleg:innen wird den Weg für weitere Forschung ebnen und die Tür für neue Regulierungsmaßnahmen öffnen. Sie entstand im Umfeld des Netzwerks Global Ocean Oxygen Network (GO2NE) der Zwischenstaatlichen Ozeanographischen Kommission (Intergovernmental Oceanographic Commission, IOC) der Organisation der Vereinten Nationen für Bildung, Wissenschaft, Kultur und Kommunikation (United Nations Educational, Scientific and Cultural Organization, UNESCO), das ebenso wie das Programm Global Ocean Oxygen Decade (GOOD) der Dekade der Meeresforschung für Nachhaltige Entwicklung der Vereinten Nationen von Professor Oschlies geleitet wird.

Originalpublikation:
Rose, K.C., Ferrer, E.M., Carpenter, S.R. et al. (2024): Aquatic deoxygenation as a planetary boundary and key regulator of Earth system stability. Nature Ecology and Evolution, doi https://doi.org/10.1038/s41559-024-02448-y

Weitere Informationen:
http://www.geomar.de/n9519 Bildmaterial zum Download
https://www.ioc.unesco.org/en/go2ne Global Ocean Oxygen Network (GO2NE)
https://oceandecade.org/actions/global-ocean-oxygen-decade Global Ocean Oxygen Decade (GOOD)

(nach oben)


Blutfettprofile bestätigen: Hochwertige pflanzliche Öle sind besser für die Gesundheit als Butter

Die Umstellung von einer Ernährung mit einem hohen Gehalt an gesättigten tierischen Fetten zu einer Ernährung, die reich an pflanzlichen ungesättigten Fetten ist, beeinflusst die Fettzusammensetzung im Blut. Das wiederum beeinflusst das langfristige Krankheitsrisiko. Eine kürzlich in Nature Medicine veröffentlichte Studie, die von einem Forscherteam des DIfE, der Chalmers University of Technology in Schweden sowie mehrerer anderer Universitäten durchgeführt wurde, zeigt, dass es möglich ist, diätetisch bedingte Fettveränderungen im Blut genau zu messen. Diese können dann direkt mit dem Entstehungsrisiko für Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes in Verbindung gebracht werden.

Eine Pressemitteilung der Chalmers University of Technology Schweden
„Unsere Studie bestätigt mit noch größerer Gewissheit als bisher die gesundheitlichen Vorteile einer Ernährung mit einem hohen Anteil an ungesättigten pflanzlichen Fetten, wie sie beispielsweise in der mediterranen Diät vorkommen. Das könnte dabei helfen, gezielte Ernährungsempfehlungen für diejenigen zu formulieren, die am meisten von einer Änderung ihrer Essgewohnheiten profitieren würden“, sagt Dr. Clemens Wittenbecher, Forschungsleiter an der Chalmers University of Technology und Hauptautor der Studie.

Die Weltgesundheitsorganisation (WHO) hebt die Bedeutung einer gesunden Ernährung zur Vorbeugung chronischer Krankheiten hervor und empfiehlt, gesättigte tierische Fette, die zum Beispiel in Butter enthalten sind, durch pflanzliche ungesättigte Fette, wie sie beispielsweise aus Olivenöl bekannt sind, zu ersetzen, um das kardiometabolische Risiko zu reduzieren. Allerdings ist die Sicherheit dieser Richtlinien aufgrund von Einschränkungen in bestehenden Studien bisher moderat.

Die hier beschriebene Studie hebt diese Einschränkungen auf, indem sie die Fette im Blut, auch bekannt als Lipide, mit einer Methode namens Lipidomik genau analysiert. Diese sehr detaillierten Lipidmessungen ermöglichten es den Forschenden, Ernährung und Krankheit in einer innovativen Kombination verschiedener Studientypen zu verknüpfen. Dieser neuartige Ansatz verbindet Ernährungsinterventionsstudien – die stark kontrollierte Diäten verwenden – und bereits durchgeführte Kohortenstudien mit langfristiger Gesundheitsüberwachung.

Überwachung der Blutfette bei Änderungen im Lebensmittelkonsum
Ein Teil dieser Forschung wurde in einer diätetischen Interventionsstudie von der University of Reading in Großbritannien durchgeführt, an der 113 Männer und Frauen teilnahmen. Über 16 Wochen konsumierte eine Studiengruppe eine Ernährung mit einem hohen Gehalt an gesättigten tierischen Fetten, während die andere einer Ernährung folgte, die reich an ungesättigten pflanzlichen Fetten war. Die Blutproben wurden mittels Lipidomik analysiert, um spezifische Lipidmoleküle zu identifizieren, welche die unterschiedlichen Ernährungsweisen der Proband*innen widerspiegelten.

„Wir haben die Auswirkungen auf die Blutfette mit einem Multi-Lipid-Score (MLS) zusammengefasst. Ein hoher MLS zeigt ein gesundes Blutfettprofil an. Eine hohe Aufnahme von ungesättigten pflanzlichen Fetten sowie eine geringe Aufnahme von gesättigten tierischen Fetten können dazu beitragen, solche positiven MLS-Werte zu erreichen“, sagt Erstautor Dr. Fabian Eichelmann vom DIfE und Wissenschaftler des Deutschen Zentrums für Diabetesforschung (DZD).

Die MLS-Ergebnisse aus der Ernährungsinterventionsstudie hat das Forscherteam statistisch mit dem Auftreten von Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes in großen, zuvor durchgeführten Beobachtungsstudien in Verbindung gebracht. Die gemeinsame Datenanalyse von beiden Studientypen zeigte, dass Teilnehmende mit einem höheren MLS, was auf eine vorteilhafte Zusammensetzung der Nahrungsfette hinweist, ein deutlich reduziertes Risiko hatten, kardiometabolische Erkrankungen zu entwickeln.

Ernährungsumstellung zeigt Wirkung
Zusätzlich untersuchte die aktuelle Studie, ob Personen mit niedrigen MLS-Werten, die auf eine hohe Aufnahme gesättigter Fette hinweisen, speziell von einer gesünderen Ernährung profitieren. Die mediterrane Ernährung, die sich auf die Bereitstellung von mehr ungesättigten pflanzlichen Fetten konzentriert, wurde in der großen Ernährungsinterventionsstudie PREDIMED angewandt. Mithilfe dieser Studie fanden die Forschenden heraus, dass die Prävention von Typ-2-Diabetes tatsächlich bei den Personen am ausgeprägtesten war, die zu Studienbeginn niedrige MLS-Werte aufwiesen.

„Die Ernährung ist so komplex, dass es oft schwierig ist, aus einer einzelnen Studie schlüssige Beweise zu ziehen. Unser Ansatz, Lipidomik zu verwenden, um Interventionsstudien mit streng kontrollierten Diäten mit prospektiven Kohortenstudien mit langfristiger Gesundheitsverfolgung zu kombinieren, kann die aktuellen Einschränkungen in der Ernährungsforschung überwinden,“ erklärt Wittenbecher.

Mehr Informationen zu anderen großen Kohorten- und Interventionsstudien:

Dr. Clemens Wittenbecher
Assistant Professor, Department of Life Sciences, Chalmers University of Technology, Schweden
Tel.: +46 31 772 80 50
E-Mail: clemens.wittenbecher@chalmers.se

Hinweis
Die Kontaktpersonen sprechen sowohl Englisch als auch Deutsch. Clemens Wittenbecher spricht außerdem Spanisch. Sie stehen für Live- und vorab aufgezeichnete Interviews zur Verfügung. Die Chalmers Universität verfügt über Podcast-Studios und Rundfunk-Filmausrüstung vor Ort und kann bei Anfragen für Fernseh-, Radio- oder Podcast-Interviews unterstützen.

Originalpublikation:
Eichelmann, F., Prada, M., Sellem, L., Jackson, K. G., Salas-Salvadó, J., Razquin-Burillo, C., Estruch, R., Friedén, M., Rosqvist, F., Risérus, U., Rexrode, K. M., Guasch-Ferré, M., Sun, Q., Willett, W. C., Martinez-Gonzalez, M. A., Lovegrove, J. A. Hu, F. B., Schulze, M. B., Wittenbecher, C.: Lipidome changes due to improved dietary fat quality inform cardiometabolic risk reduction and precision nutrition. Nature Medicine (2024) [Open Access]
[https://doi.org/10.1038/s41591-024-03124-1]

Weitere Informationen:
https://news.cision.com/chalmers/r/blood-fat-profiles-confirm-health-benefits-of… englische Originalmeldung der Chalmers University of Technology in Schweden

(nach oben)


Hochschulkooperation ausgebaut: Abwässer der indischen Pharmaindustrie werden gereinigt

Im Rahmen des Projekts pharmIn2 reisten Vertreter des Bayerisch-Indischen Zentrums für Wirtschaft und Hochschulen (BayIND) und des Instituts für nachhaltige Wassersysteme (inwa) der Hochschule Hof nach Indien. Das Projekt zielt darauf ab, die innovative Abwasserbehandlungstechnologie namens a3op® an den indischen Markt zu adaptieren, die vom bayerischen Unternehmen up2e! für die Behandlung von stark verschmutztem Industrieabwasser entwickelt wurde. Im Rahmen des Projekts soll die Technologie für die Reinigung pharmazeutischer Industrieabwässer in Indien eingesetzt werden.

Unter Verwendung von Abwasserproben eines großen südindischen Pharmaunternehmens wurde parallel dazu mit der Pilotierung der geplanten Anlage begonnen, die zu Beginn des Jahres von up2e! nach Indien exportiert worden war. Die neue Technologie könnte in Indien einen wichtigen Beitrag zur Erreichung der Nachhaltigkeitsziele der Vereinten Nationen in Bezug auf den Schutz von Wasserressourcen leisten.

Erfolgreiche Pilotprojekte
Technische Ingenieure aus Deutschland überwachten die Online-Pilotierung. Vertreterinnen des BayIND und des inwa der Hochschule Hof waren ebenfalls anwesend, um dem wichtigen Meilenstein beizuwohnen. Die Pilotierung wird genutzt, um anhand der Testergebnisse die Technologie an die Bedingungen des indischen Marktes anzupassen. Die nun in Hyderabad installierte Pilotanlage ist derzeit in einem 40 Fuß Container untergebracht. Sie wird als vorgeprüfte und betriebsbereite Einheit geliefert. Dies macht Nachrüstungen oder Neuinstallationen nicht nur einfach, sondern auch äußerst zeitsparend. Umgebungsdruck und -temperatur sorgen für einen sicheren, zuverlässigen und einfach zu steuernden Betrieb.

Innovative Technik
Die angestrebte Wasseraufbereitung wird bei dieser Technik durch die Kombination von idealer Ozonauflösung mit der gleichzeitigen Einbringung von Schallenergie erreicht. Die patentrechtlich geschützte und einzigartig konzipierte Gas-Masse-Transfervorrichtung – der Roturi – erreicht eine fein verteilte Ozonauflösung und einen Gastransfer in die wässrige Lösung. Für spezielle Anwendungen wird er mit der Einführung von Schallenergie kombiniert, wodurch ein akustisch aktivierter fortschrittlicher Oxidationsprozess (a3op®) mit erhöhter Reaktionskinetik entsteht.

Dazu Projektleiter Prof. Günter Müller-Czygan: „Mit dem a3op®-Verfahren steht eine Behandlungstechnologie zur Reduzierung von Spurenstoffen wie z.B. Medikamentenresten zur Verfügung, die am Ort des Abwasseranfalls effizient und flexibel einsetzbar ist und eine teure zentrale Behandlung in einer kommunalen Kläranlage weitestgehend vermeiden kann.“ Die ersten Laborergebnisse liegen demnach bereits vor. In Bezug auf die CSB-Reduzierung hat die Pilotierung sehr gute Ergebnisse geliefert. Da es sich jedoch um eine Pilotanlage handelt, müssen verschiedene Studien unter unterschiedlichen Bedingungen durchgeführt werden, um zu analysieren, welche die besten Ergebnisse in kürzester Zeit und zu einem ökologisch vertretbaren Preis liefern könnte. Dies wird noch etwa 1-2 Monate dauern.

Wichtige Kooperationen
Auch in Bezug auf den Ausbau bereits bestehender Beziehungen nach Indien sowie die Erweiterung der Netzwerke mit Vertretern von Industrie, öffentlichen Einrichtungen und Universitäten konnten auf der Reise bedeutende Fortschritte erzielt werden. Die Vertreterinnen des BayIND und des inwa der Hochschule Hof trafen sich mit Vertretern bedeutender Universitäten und akademischer Einrichtungen in Pune, Chennai und Hyderabad, um die Zusammenarbeit auszubauen. Gesprächspartner waren dabei in erster Linie Expertinnen und Experten aus den Bereichen Umweltverschmutzung, Biowissenschaften, Umweltschutz und Nachhaltigkeit. Diese schlugen Kontakte zu großen Pharmaunternehmen, gemeinsamen Kläranlagen und relevanten Verbände vor, für welche der Export der innovativen Technologie von Interesse sein könnte. Zudem wurden Strategien erörtert, wie das Projekt zu einem höheren Bekanntheitsgrad auf dem indischen Markt gelangen könnte.

Lernplattform gestartet
Die Gespräche konzentrierten sich auf innovative Technologien zur Bekämpfung der Umweltverschmutzung im Abwasserbereich und auf nachhaltige industrielle Verfahren. Außerdem konnten Studierende dieser Universitäten für die Teilnahme an einer im Rahmen des Projekts entwickelten Lernplattform gewonnen werden. Die Lernplattform dient als Drehscheibe für den Wissenstransfer und beleuchtet das Projekt, die Technologie, ihre Funktionsweise und ihre Vorteile. Die Gewinnung von Studierenden für die Lernplattform war ein wichtiger Meilenstein auf dem Weg des Projekts pharmIn2, da deren Feedback für die Optimierung der Lernplattform genutzt werden soll.

Förderung
Das Projekt pharmIn2 wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) im Programm Exportinitiative Umweltschutz (EXI) gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de

(nach oben)


Beseitigung von PFAS aus Wasser: Fraunhofer UMSICHT und Cornelsen optimieren PerfluorAd®-Verfahren

Per- und Polyfluoralkylsubstanzen (PFAS) bergen aufgrund ihrer hohen Stabilität und ihrer allgegenwärtigen Verbreitung Gefahren für Mensch und Umwelt. Mit der Aufbereitungstechnologie PerfluorAd® haben Fraunhofer UMSICHT und die Cornelsen Umwelttechnologie GmbH ein marktreifes Verfahren entwickelt, das PFAS kostengünstig und effektiv aus wässrigen Medien entfernt. Das aktuelle NRW-Vorhaben Perfluor.Dat verfolgt eine umfassende datenbasierte Prozessoptimierung, u. a. um das Verfahren an die Erfordernisse internationaler Märkte anpassen zu können.

PFAS sind in unzähligen Industrie- und Alltagsprodukten enthalten – ob in Medizintechnik, Feuerwehrlöschschäumen und Li-Ionen-Batterien oder in Textilien, Kosmetika und Verpackungen. Über die Luft und Abwässer gelangen sie in die Umwelt, wo sie Böden und Wasser kontaminieren. Von dort geht es in die Nahrungskette und letztendlich in den menschlichen Organismus. Die human- und ökotoxikologischen Wirkungen der über 10 000 verschiedene Chemikalien umfassenden Stoffgruppe sind eindeutig belegt. Aktuell fehlen für viele Anwendungen jedoch noch Alternativen.

Vorreiter in Deutschland
Bereits seit 2008 arbeiten Fraunhofer UMSICHT und Cornelsen gemeinsam an der Beseitigung von PFAS aus kontaminiertem Wasser und Abwasser – und sind damit Vorreiter in Deutschland. Die Kooperation führte zur Entwicklung des patentgeschützten PerfluorAd®-Verfahrens, um speziell Medien wie Löschwasser, die erhöhte PFAS-Konzentrationen und/oder hohe organische Hintergrundgehalte aufweisen, wirtschaftlich aufzureinigen. Aber auch viele weitere Wasseraufbereitungsprojekte und Dekontaminierungen von PFAS-belasteten Systemen wurden bereits durchgeführt. Dabei wird je nach Anwendungsfall der PFAS-spezifische Ausfällungsprozess des PerfluorAd®-Verfahrens mit etablierten Aufbereitungstechnologien wie Ionenaustausch, Membranverfahren oder Aktivkohleadsorption kombiniert. Das Ergebnis ist eine Minimierung der Gesamtmenge des zu entsorgenden PFAS-Abfalls.

Mit dem Start des neuen Vorhabens wird das PerfluorAd®-Verfahren nun weiterentwickelt. In den nächsten drei Jahren werden im Rahmen von Perfluor.Dat sowohl der PFAS-spezifische Ausfällungsprozess als auch der Abtrennungsschritt für den PFAS-haltigen Niederschlag intensiviert. Zum Einsatz kommen dabei einerseits funktionale Co-Additive, andererseits neue analytische Methoden zur Prozessüberwachung und -kontrolle. Des Weiteren werden auch die in den vergangenen Jahren angefallenen Prozessdaten aus unterschiedlichsten Anwendungsfällen über eine Mustererkennung analysiert. Bestenfalls resultiert hieraus ein Prozessmodell, das durch Untersuchungen in einem mobilen Versuchsreaktor verifiziert werden kann.

Internationalisierung im Blick
Beim Kick-off-Treffen von Perfluor.Dat hat das interdisziplinäre Team zu den Kernthemen chemische Prozessoptimierung, Analytik und Datenerhebung drei Fachgruppen gebildet. Dr. Stefano Bruzzano, der Projektkoordinator von Fraunhofer UMSICHT, betont die Bedeutung des Vorhabens: »Wir haben durch das neue F&E-Vorhaben die Weichen stellen können, um unser PerfluorAd®-Verfahren für die Zukunft noch leistungsfähiger und flexibler zu gestalten.« Dabei haben die Beteiligten längst nicht nur die nationalen Anwendungsfälle und den hiesigen Markt im Blick. Die Erkenntnisse aus Perfluor.Dat sollen auch die zunehmende Internationalisierung des PerfluorAd®-Verfahrens unterstützen, die zum Teil unter deutlich veränderten Rahmenbedingungen erfolgt.

Perfluor.Dat – Chemistry/Analytics/Numerics
Perfluor.Dat war Teil des Innovationswettbewerbs Green.Economy.IN.NRW und wird durch Land und EU gefördert.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/perfl…

(nach oben)


Komplettes Erbgut und Gift-Gene der Mikroalge der Oder-Katastrophe entschlüsselt

Im Sommer 2022 verendeten in der Oder rund 1.000 Tonnen Fische, Muscheln und Schnecken. Die Katastrophe war zwar vom Menschen verursacht, doch die unmittelbare Todesursache war das Gift einer Mikroalge mit dem wissenschaftlichen Sammelnamen Prymnesium parvum, oft auch ‚Goldalge‘ genannt. Seitdem haben sich diese Einzeller dauerhaft in der Oder angesiedelt. Forscherinnen und Forscher unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) jetzt das Erbgut der Mikroalge sequenziert. Dabei konnten sie die Gensequenzen ausmachen, die für die Giftbildung verantwortlich sind. Die Studie wurde in der Fachzeitschrift Current Biology veröffentlicht.
Prymnesium parvum s.l. (sensu lato), umgangssprachlich Goldalge genannt, steht für eine ganze Gruppe von Mikroalgen, die mit einer Größe von 5 bis 10 Mikrometern zwar winzig sind, aber verheerende Schäden anrichten können. Denn diese Algen können Zellgifte bilden, so genannte Prymnesine. Diese zerstören die Kiemen von Fischen und Filtrierern wie Muscheln und Schnecken im Wasser und greifen auch andere Körpergewebe an. Die Folge: Tod durch Sauerstoffmangel oder Kreislaufversagen.

Mikroalge ist nicht gleich Mikroalge:
Bisherige Untersuchungen zur Morphologie, Abstammung und Genetik haben gezeigt, dass Prymnesium parvum s.l. eine große Diversität aufweist: Mindestens 40 genetisch unterscheidbare Stämme mit unterschiedlichem Erbmaterial sind bekannt. Je nach Toxinproduktion werden drei Typen unterschieden: A, B und C. Bisher gab es nur ein Referenzgenom – eine vollständige „Abschrift“ des gesamten Erbguts – für den Typ A.
Nahe Verwandtschaft der Mikroalge ODER1 mit Brackwasserstämmen aus Dänemark und Norwegen:
Ein internationales Team um die IGB-Forscher Dr. Heiner Kuhl, Dr. Jürgen Strassert, Prof. Dr. Michael Monaghan und PD Dr. Matthias Stöck hat nun im Rahmen des vom Bundesamt für Naturschutz mit Mitteln des Bundesumweltministeriums geförderten Projekts ODER~SO das gesamte Erbgut (Genom) des Algenstamms aus der Oderkatastrophe sequenziert. Dabei identifizierten sie auch Gensequenzen, die für die chemische Struktur der Toxine und damit für deren Eigenschaften verantwortlich sind. Der sequenzierte Stamm erhielt die Bezeichnung ‚ODER1‘ und wurde dem Typ B zugeordnet.
Die Forschenden erstellten zudem einen genetischen Stammbaum verschiedener Prymnesium parvum-Stämme. Dieser zeigt, dass der ODER1-Stamm am engsten mit einem Typ B-Stamm, K-0081, der bereits 1985 aus Brackwasser im Nordwesten Dänemarks isoliert wurde, sowie mit weiteren Typ B-Stämmen aus Norwegen (RCC3426, KAC-39 und K-0374) verwandt ist. Diese Ähnlichkeit ist auf die geographische Nähe zurückzuführen, gibt aber keinen direkten Aufschluss darüber, wie die Alge in die Oder gelangte.

Referenzgenom für Überwachung von Algenblüten:
Nach der Entschlüsselung eines Typ-A-Referenzgenoms und nun des Typ-B-Referenzgenoms sind somit zwei sehr unterschiedliche Mikroalgen der Gruppe abgedeckt, die Entschlüsselung des Typ-C-Referenzgenoms steht noch aus. „Die Entschlüsselung des zweiten Referenzgenoms von Prymnesium parvum s.l. ermöglicht wichtige Einblicke in die genetische Basis und die strukturelle Variabilität der Toxine der verschiedenen Prymnesium-Typen. Kürzlich wurde gezeigt, dass der Gift-Typ die Toxizität beeinflusst. Nun können wir also die potenzielle Giftigkeit zukünftiger Algenblüten besser abschätzen“, sagt IGB-Forscher Dr. Jürgen Strassert, Koautor der Studie.
Nächster Forschungsschritt: Molekulare Methoden zur Toxinanalyse entwickeln und Einflussfaktoren untersuchen:
Derzeit kann die Toxinbildung nicht direkt überwacht werden. Das Toxin verdünnt sich im Wasser zu stark, außerdem gibt es bisher keine Standardmethoden, auch nicht für Typ A. „Einer der nächsten Forschungsschritte des IGB-Teams wird nun sein, über den Nachweis der Expression bestimmter Toxinsynthese-Gene eine Giftbildung auf molekularer Ebene analysieren zu können“, ergänzt IGB-Forscher Dr. Heiner Kuhl, Erstautor der Studie.
Die Umweltbedingungen spielen sowohl für die Vermehrung der Algen als auch für die Bildung von Toxinen und damit für das Auftreten von toxischen Algenblüten eine wichtige Rolle. „Die Entschlüsselung der Gene für die Toxinbildung ist daher entscheidend, um nun die Umweltbedingungen zu analysieren, unter denen die Algen zu diesen Blüten neigen und möglicherweise spezifische Toxine in unterschiedlichen Mengen produzieren“, sagt IGB-Forscher Matthias Stöck, der die Studie geleitet hat.

Außerdem lesenswert das IGB Fact Sheet > Oder-Katastrophe: Was wissen wir über die Goldalge Prymnesium parvum? https://www.igb-berlin.de/news/oder-katastrophe-was-wissen-wir-ueber-die-goldalg…

Die Studie wurde im Rahmen des Projekts ODER~SO durchgeführt. ODER~SO ist ein vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) koordiniertes Verbundprojekt mit drei weiteren Forschungseinrichtungen: dem Helmholtz-Zentrum für Umweltforschung (UFZ), der Brandenburgischen Technischen Universität Cottbus-Senftenberg (BTU) und der Universität Duisburg-Essen. Weiterer wissenschaftlicher Partner ist das Institut für Binnenfischerei e.V. Potsdam-Sacrow. ODER~SO wird vom Bundesamt für Naturschutz (BfN) mit Mitteln des Bundesministeriums für Umwelt, Naturschutz, Reaktorsicherheit und Verbraucherschutz (BMUV) gefördert. Zur Projektwebseite: https://www.oder-so.info/

Wissenschaftliche Ansprechpartner:
PD Dr. Matthias Stöck, IGB: https://www.igb-berlin.de/profile/matthias-stoeck
Dr. Heiner Kuhl, IGB: https://www.igb-berlin.de/profile/heiner-kuhl

Originalpublikation:
Heiner Kuhl, Jürgen F.H. Strassert, Dora Čertnerová, Elisabeth Varga, Eva Kreuz, Dunja K. Lamatsch, Sven Wuertz, Jan Köhler, Michael T. Monaghan, Matthias Stöck: The haplotype-resolved Prymnesium parvum (type B) microalga genome reveals the genetic basis of its fish-killing toxins, Current Biology, 2024, ISSN 0960-9822, https://doi.org/10.1016/j.cub.2024.06.033. (https://www.sciencedirect.com/science/article/pii/S0960982224008170)

Weitere Informationen:
https://www.igb-berlin.de/news/komplettes-erbgut-und-gift-gene-der-mikroalge-der…

(nach oben)


Die Wärmewende findet Stadt: Geothermie kann laut acatech Studie Fernwärme befeuern

Eine Grundvoraussetzung der Energiewende ist die Wärmewende. Die technologischen Entwicklungen der letzten Jahre weisen der Geothermie hierbei nun eine erweiterte Rolle zu: Um in der Wärmeversorgung fossile durch erneuerbare Energieträger zu ersetzen, könnte sie zu einer Schlüsseltechnologie werden. Zu diesem Schluss kommt die Studie „Geothermische Technologien in Ballungsräumen: ein Beitrag zur Wärmewende und zum Klimaschutz“ von acatech – Deutsche Akademie der Technikwissenschaften.

Mehr als die Hälfte des Energieverbrauchs in Deutschland fällt für die Wärmeversorgung an. Der Anteil an Erneuerbaren Energien deckt dabei aktuell nur rund ein Sechstel des Energiebedarfs ab. Das Potenzial für den Umstieg auf eine CO2-neutrale Wärmeversorgung auf preisstabiler Basis und ohne Importrisiken ist groß. Das gilt insbesondere für Ballungsräume. Denn von den jährlich im deutschen Fernwärmenetz transportierten 80.700 Gigawattstunden Wärme beanspruchen die 81 Großstädte und Metropolregionen mit ihren industriellen Kernen einen großen Anteil. Die acatech Studie setzt den Schwerpunkt daher auf urbane Räume: Sie vereinen große Bedarfe mit hoher Abnahmedichte. Zudem verfügen sie überwiegend über die benötigten Wärmeverteilnetze, die eine Einspeisung großer Energiemengen ermöglichen. Geothermische Anlagen benötigen wenig Platz und sind emissionsarm zu betreiben: Eigenschaften, die in dicht besiedelten Gebieten von Vorteil sind.

„Ballungsräume sind ein ideales Einsatzgebiet, insbesondere für mitteltiefe bis tiefe hydrothermale Geothermie. Damit kann auf kleiner Fläche ausreichend Wärme bereitgestellt werden“, erklärt Studienleiter und acatech Mitglied Rolf Emmermann. „Zudem eignet sich Geothermie dank ihrer Speicherkapazitäten zur klimaneutralen Kälteversorgung, was angesichts des voranschreitenden Klimawandels in urbanen Räumen von wachsender Bedeutung sein wird. Geothermie verbindet CO2-neutrale Wärme- und Kälteversorgung effektiv miteinander und trägt damit zur Sektorkopplung bei.“ Die Sektorkopplung umfasst die Energiesektoren Strom, Wärme und Verkehr und ist ein entscheidender Erfolgsfaktor der Energiewende.

Noch weitgehend ungenutzt: Potenziale für den Wärmemarkt
Von Deutschlands jährlichem Endenergieverbrauch für Wärme im Niedrigtemperaturbereich (rund 800 Terawattstunden) werden bisher nur etwa zehn Terawattstunden geothermisch bereitgestellt, größtenteils durch oberflächennahe Systeme. Dieser Wert lässt sich deutlich steigern: Werden nur zehn Prozent des natürlichen Potenzials wirtschaftlich nutzbar gemacht, dann kann die Geothermie einen Beitrag von 20 Prozent des gesamten deutschen Wärmemarkts leisten. „Damit könnten kleinere Kommunen und auch Großstädte zu einem signifikanten Anteil mit klimaneutraler Wärme versorgt werden, die unabhängig von Jahreszeiten oder Wetter zuverlässig zur Verfügung steht“, ergänzt Rolf Emmermann.

Großraum München als Blaupause für Umstieg auf geothermische Wärmeversorgung
Eine Stadt, der das bald gelingen könnte, ist München. Die Metropole verfügt über geothermische Nutzungen in unterschiedlichen Stockwerken zur Wärme- und auch Kälteversorgung. Bis 2040 soll hier die Fernwärme durch hydrothermale tiefe Geothermie vollständig CO2-neutral geliefert werden. Als erste bayerische Kommune hat München gemäß dem Wärmeplanungsgesetz im Mai 2024 einen Wärmeplan veröffentlicht, in dem der Ausbau und die Optimierung von Wärmenetzen (Fernwärme, Nahwärme) eine wichtige Rolle spielt.

Verbesserte Voraussetzungen für Ausbau der Geothermie
Bisher waren geothermische Maßnahmen aufgrund preisgünstiger fossiler Brennstoffe häufig nicht wirtschaftlich darstellbar. Dazu erschwerte ein mangelnder Informationsstand die öffentliche Akzeptanz von Eingriffen in den geologischen Untergrund. Die technologische Entwicklung der vergangenen zehn Jahre begünstigt die Voraussetzungen für einen wirtschaftlichen Ausbau und Betrieb der Geothermie deutlich – angefangen beim kostenintensivsten Faktor, dem Bohrprozess.
Neue, wirtschaftliche Bohrverfahren machen den Einsatz effizienter und sicherer. Seismische Risiken sind bei sachgemäßer Durchführung zu vernachlässigen. Zudem sind die verwendeten Werkstoffe beständiger gegen Korrosion und lassen sich dadurch länger verwenden. Auch die Leistungsfähigkeit der Wärmepumpen ist gestiegen und erlaubt es, Wärmequellen verschiedener Temperaturniveaus effizient in Wärmenetze zu integrieren. Hochtemperatur-Wärmepumpen können bis zu 200 Grad Celsius erreichen. Damit kann Geothermie zukünftig auch für Industriezweige zu einer wirtschaftlichen Alternative werden – beispielsweise für die Niedertemperaturbedarfe der Lebensmittel- oder auch die Chemiebranche. Nicht zuletzt machen verfügbare Daten, deren gestiegene Qualität und erweiterte Kenntnisse über den jeweiligen Untergrund Projekte planbarer und wirtschaftlicher umsetzbar.

Wärmeversorgung resilient und wertschöpfend gestalten
„Vom Ausbau der Geothermie kann der Technologie- und Wirtschaftsstandort Deutschland mehrfach profitieren. Die Versorgungssicherheit mit klimaneutral gewonnener Wärme aus heimischen Ressourcen wächst und erhöht die Resilienz auf dem Wärmemarkt. Zusätzlich lassen die technologischen Entwicklungen perspektivisch erwarten, dass Geothermie vielseitiger und für weitere Anwendungen einsetzbar sein wird. Damit erschließt sie neue Wertschöpfungspotenziale und kann einen Beitrag für die Souveränität leisten. Jetzt gilt es, Bund, Länder und Kommunen, aber auch Wissenschaft, Energie- und Wohnungswirtschaft sowie Umweltschutzorganisationen zu einem engen Schulterschluss zu bewegen. Nur so gelingt es, den Ausbau aufzugleisen und die Wärmewende erfolgreich umzusetzen“, so acatech Präsident Jan Wörner.

Handlungsempfehlungen für einen Geothermie-Hochlauf
Ergänzend zu den Impulsen aus dem „Eckpunktepapier für eine Erdwärmekampagne“ des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) weist die acatech Studie mit weiteren Handlungsempfehlungen den Weg zu einer nationalen Geothermie-Strategie. Dazu zählen öffentliche Programme, die Untergründe erkunden und daraus erschließbare lokale Potenziale ableiten. Anreize für private und kommunale Investoren können dazu beitragen, das Wärmenetz auszubauen und zu transformieren. Eine staatliche Risikoabsicherung kann dabei maßgeblich unterstützen. Auch eine strategische Planung der Wärmeversorgung, wie sie das Wärmeplanungsgesetz verpflichtend vorsieht, kann den Geothermie-Ausbau nachhaltig fördern. Weitere Maßnahmen wie die CO2-Bepreisung tragen zum Interesse an klimaneutraler Wärmeversorgung bei.

Nicht zuletzt gilt es, alle Geothermie-Akteure eng miteinander zu vernetzen und auch die Öffentlichkeit bereits in die Planungsphasen einzubeziehen, um Vorbehalten abzubauen, die Akzeptanz zu erhöhen und Projekte zu beschleunigen.

Weiterführende Informationen
acatech am Dienstag, 9. Juli 2024, 18.30 Uhr „Geothermische Technologien in Ballungsräumen“, Online-Veranstaltung via Zoom acatech am Dienstag: Geothermische Technologien in Ballungsräumen – acatech

Wissenschaftliche Ansprechpartner:
Clemens Wolf Pressesprecher
Referent Strategische Kommunikation
Medien & Politik acatech – Deutsche Akademie der Technikwissenschaften
T 089 52 03 09 875
M 0172 144 58 59
c.wolf@acatech.de
www.acatech.de

Weitere Informationen:
https://www.acatech.de/allgemein/geothermie-ballungsraeume/
Anhang: Pressemitteilung: Geothermie in Ballungsräumen

(nach oben)


Klima und Biodiversität schützen, Hochwasser vorbeugen: Stellungnahme zur Revitalisierung von Mooren und Auen

Naturnahe Moore und Auen schützen als Kohlenstoffspeicher das Klima. Durch ihren Wasserrückhalt puffern sie Hochwasser- und Trockenperioden ab. Nicht zuletzt sichern sie Lebensräume für gefährdete Arten. In Deutschland sind jedoch rund 94 Prozent der Moore trockengelegt sowie nahezu alle Überflutungsgebiete (Auen) von den Flüssen abgeschnitten. Die heute erschienene Stellungnahme „Klima – Wasserhaushalt – Biodiversität: Für eine integrierende Nutzung von Mooren und Auen“ der Nationalen Akademie der Wissenschaften Leopoldina betont die Notwendigkeit der Wiedervernässung von Mooren und der Renaturierung von Auen.
Die Stellungnahme zeigt Handlungsoptionen auf, um die nationalen und internationalen Verpflichtungen im Klima-, Gewässer- und Biodiversitätsschutz zu erreichen und diese Flächen trotzdem wirtschaftlich nutzen zu können. „Moore speichern etwa zehn Prozent des globalen Süßwassers. Auen erfüllen wichtige Funktionen des Wasserrückhalts bei Hochwasser bzw. des Wasserrückstroms in Trockenzeiten. Nirgendwo in Mitteleuropa ist die Artenvielfalt so hoch wie in diesen Feuchtgebieten“, sagt Leopoldina-Mitglied Prof. Dr. Klement Tockner, Generaldirektor der Senckenberg Gesellschaft für Naturforschung. Er ist einer der Sprecher der Arbeitsgruppe, die die Stellungnahme erarbeitet hat. „Für einen erfolgreichen Transformationsprozess hin zu naturnahen Moor- und Auenflächen brauchen wir einen systemischen Ansatz, der Klima- und Biodiversitätsschutz gemeinsam denkt und zugleich den Wasserhaushalt, verschiedene Nutzungsoptionen, aber auch rechtliche Aspekte berücksichtigt.” Prof. Dr. Bernd Hansjürgens vom Helmholtz-Zentrum für Umweltforschung, ebenfalls Sprecher der Arbeitsgruppe, ergänzt: „Die Bewältigung all dieser Aufgaben ist eine gesamtgesellschaftliche Herausforderung, zu der viele Institutionen und Akteure beitragen. Wie wichtig natürliche Überflutungsflächen sind, wurde bei den letzten Hochwasserkatastrophen in Bayern, im Saarland und in Nordrhein-Westfalen abermals deutlich.“
In der Stellungnahme beschreiben die Autorinnen und Autoren den aktuellen Zustand der Moore und Auen in Deutschland. Um die Klimaziele zur Begrenzung der Erderwärmung zu erreichen, müssten bis 2050 nahezu alle entwässerten Moorflächen Deutschlands wiedervernässt werden. Die am 17. Juni 2024 vom EU-Umweltrat verabschiedete Verordnung zur Wiederherstellung der Natur (Nature Restoration Law) legt Ziele zur Wiedervernässung von Mooren und Renaturierung von Auen für die Europäische Union fest. Auch die UN-Biodiversitätskonvention hat bis 2030 den Schutz und die Renaturierung von mindestens 30 Prozent der weltweiten Land-, Süßwasser- und Meeresflächen festgeschrieben. Dabei sollten jene Flächen Vorrang haben, die überproportional zum Klima- und Biodiversitätsschutz beitragen. Dazu zählen Moore und Auen.
Die Stellungnahme betont, dass der Schutz der noch intakten Moore und frei fließenden Gewässer die höchste Priorität haben sollte. Bei der Wiedervernässung trockengelegter Moore müssten Lösungen für die Flächenkonkurrenz gefunden werden. Alle Akteure aus Bund, Ländern und Kommunen, aus Verwaltung, Verbänden, die Landeigentümerinnen, -eigentümer sowie Landnutzende müssen in diesen Prozess eingebunden werden, so die Mitglieder der Arbeitsgruppe. Es sollten schnell realisierbare Maßnahmen anhand einheitlicher Kriterien identifiziert werden. Hierzu zählen insbesondere Wiedervernässungsmaßnahmen in Schutzgebieten sowie auf Flächen, deren Eigentümerinnen und Eigentümer eine hohe Bereitschaft zeigen, kurzfristig auf alternative Nutzungen überzugehen oder einem Flächentausch zuzustimmen. Bei der Renaturierung von Auen gelte es zu prüfen, bei welchen Flüssen der mit der Renaturierung verbundene Nutzen höher zu gewichten ist als die Nutzung der Auenflächen durch den Menschen.
Für trockengelegte Moorstandorte, die intensiv für die Landwirtschaft genutzt werden, empfiehlt die Stellungnahme, gemeinsam mit den Landwirtinnen und Landwirten neue Nutzungskonzepte zu entwickeln und finanziell zu fördern, beispielsweise die Umstellung auf sogenannte Paludikulturen zur Erzeugung von Biomasse (wie Rohrkolben, Schilf und Erlen), Beweidung auf Nassweiden oder die Nutzung als Standort für Photovoltaikanlagen. Die Fachleute sprechen sich außerdem dafür aus, Ökosystemleistungen zu honorieren. Wenn der Moorschutz in den CO2-Emissionshandel einbezogen wird, könnten Landbesitzende ökonomisch davon profitieren, dass ihre Flächen wiedervernässt werden. Im Gegenzug sollten klimaschädliche Subventionen, die noch immer die Entwässerung der Landschaft fördern, abgeschafft werden.
Die Stellungnahme wurde von der interdisziplinär besetzten Arbeitsgruppe „Klima, Biodiversität, Rohstoffe: Für eine integrierte Nutzung von Mooren und Auen“ erarbeitet. Beteiligt waren Wissenschaftlerinnen und Wissenschaftler aus den Fächern Ökologie, Biologie, Hydrologie, Soziologie, Agrartechnik und Umweltökonomie sowie den Rechtswissenschaften. Weitere Informationen zur Arbeitsgruppe: https://www.leopoldina.org/politikberatung/arbeitsgruppen/moore-und-auen/
Die Stellungnahme „Klima – Wasserhaushalt – Biodiversität: Für eine integrierende Nutzung von Mooren und Auen“ ist auf der Website der Leopoldina abrufbar: www.leopoldina.org/mooreundauen
Im Kontext der Stellungnahme ist heute ergänzend das digitale Dossier „Vom Wandel nasser Landschaften” erschienen: https://interaktiv.leopoldina.org/mooreundauen

Über die Nationale Akademie der Wissenschaften Leopoldina:
Als Nationale Akademie der Wissenschaften leistet die Leopoldina unabhängige wissenschaftsbasierte Politikberatung zu gesellschaftlich relevanten Fragen. Dazu erarbeitet die Akademie interdisziplinäre Stellungnahmen auf der Grundlage wissenschaftlicher Erkenntnisse. In diesen Veröffentlichungen werden Handlungsoptionen aufgezeigt, zu entscheiden ist Aufgabe der demokratisch legitimierten Politik. Die Expertinnen und Experten, die Stellungnahmen verfassen, arbeiten ehrenamtlich und ergebnisoffen. Die Leopoldina vertritt die deutsche Wissenschaft in internationalen Gremien, unter anderem bei der wissenschaftsbasierten Beratung der jährlichen G7- und G20-Gipfel. Sie hat rund 1.700 Mitglieder aus mehr als 30 Ländern und vereinigt Expertise aus nahezu allen Forschungsbereichen. Sie wurde 1652 gegründet und 2008 zur Nationalen Akademie der Wissenschaften Deutschlands ernannt. Die Leopoldina ist als unabhängige Wissenschaftsakademie dem Gemeinwohl verpflichtet.

Medienkontakt:
Julia Klabuhn
Kommissarische Leiterin der Abteilung Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)345 472 39-800
E-Mail: presse@leopoldina.org

Weitere Informationen:
http://www.leopoldina.org/mooreundauen
https://interaktiv.leopoldina.org/mooreundauen

(nach oben)


Klimagerechte Entwicklung von Stadt und Land

TU Braunschweig leitet zwei neue Climate Future Labs
Wie wirkt sich der Klimawandel auf die Stadt und ihre Menschen aus? Welche Anpassungen sind nötig? Und wie können Städte unter Beteiligung von Bürgerinnen klimagerecht entwickelt werden? Das untersuchen Wissenschaftlerinnen der Technischen Universität Braunschweig zukünftig in zwei neuen Zukunftslaboren am Zentrum Klimaforschung Niedersachsen. Die sogenannten „Climate Future Labs“ werden aus dem Programm zukunft.niedersachsen des Niedersächsischen Ministeriums für Wissenschaft und Kultur und der VolkswagenStiftung mit jeweils bis zu fünf Millionen Euro für sechs Jahre gefördert.

„Die Förderung der beiden Climate Future Labs zur klimagerechten Stadtentwicklung unterstreicht die herausragende Rolle unserer Universität in der Stadtforschung vor dem Hintergrund des Klimawandels“, betont die Präsidentin der TU Braunschweig, Angela Ittel. „Die beiden Zukunftslabore ermöglichen es, unseren Wissenschaftlerinnen im Verbund mit weiteren niedersächsischen Universitäten und außeruniversitären Partnerinnen, innovative Lösungen für die drängenden Herausforderungen des Klimawandels zu entwickeln und unser Engagement für eine nachhaltige Zukunft zu stärken.“

Urban Climate Future Lab für Niedersachsen und darüber hinaus
Hitze, Starkregen, Hochwasser, Dürre: Der Klimawandel hat weitreichende Auswirkungen auf Städte und die vielen Menschen, die dort leben. Ziel des Urban Climate Future Labs (UCFL) unter der Leitung von Professorin Vanessa Carlow des Institute for Sustainable Urbanism der TU Braunschweig ist es, das komplexe Zusammenspiel zwischen Klimawandel, Klimawandelanpassung und Urbanisierung zu erforschen. Daran werden Wissenschaftler*innen der TU Braunschweig, der Leibniz Universität Hannover, der Leuphana Universität Lüneburg sowie der Akademie für Raumentwicklung in der Leibniz-Gemeinschaft und dem Climate Service Center Germany zusammenarbeiten. Beteiligt sind Disziplinen wie Architektur, Städtebau und Stadtplanung, Landschaftsarchitektur, Ingenieurwesen, Psychologie, Governance, Umweltwissenschaften, Geografie, Physik und Klimawissenschaften. Um nicht nur in der Theorie, sondern auch in der Praxis zu forschen, plant das Urban Climate Future Lab strategische Partnerschaften mit Städten, Gemeinden, Industrie und Zivilgesellschaft.

In der ersten Phase wird das UCFL untersuchen, wie die unterschiedlichen Siedlungstypen in Niedersachsen zum Klimawandel beitragen und wie sie gleichzeitig davon betroffen sind. Denn noch ist unklar ist, wie genau die verschiedenen Siedlungstypen – zum Beispiel Groß-, Mittel- oder Kleinstädte, Dörfer, Industriegebiete oder Stadtviertel – zum Klimawandel beitragen, wie sie davon betroffen sind und welche Risiken oder Potenziale mit Blick auf Klimawandelanpassung bestehen. In der zweiten Projektphase stehen dann die Transformationsmöglichkeiten im Mittelpunkt: Wie kann das Siedlungssystem und wie können Orte in Niedersachsen so umgestaltet werden, dass die Auswirkungen des Klimawandels reduziert und die Resilienz und Nachhaltigkeit insgesamt erhöht werden? Auch wenn Niedersachsen im Fokus des Projekts steht, will das Forschungsteam Strategien und Modelle entwickeln, die für Stadtregionen weltweit anwendbar sind.

„Städte und Stadtregionen sind besonders stark von Klimawandel betroffen – auch in Niedersachsen. Als Sprecherin des multi-disziplinären Forschungsverbunds ‚Urban Climate Future Lab‘ freue ich mich, in den kommenden Jahren gemeinsam mit dem UCFL-Team und vielen weiteren Partnerinnen aus Städten und Gemeinden wissenschaftlich fundierte Entwicklungspfade für die nachhaltige Transformation Niedersachsens zu erarbeiten“, sagt Professorin Vanessa Carlow, Leiterin des Institute for Sustainable Urbanism und Sprecherin des neuen UCFL Zukunftslabors. „Für den Wandel hin zu einer nachhaltigen und widerstandsfähigen Zukunft in Stadt und Land wollen wir innovative Planungs-, Mobilitäts-, Produktions- und Energiesysteme gemeinsam entwickeln. Dies schließt auch neue Formate der Beteiligung von Bürgerinnen, neue Governance-Ansätze, ein neues Verständnis des Umgangs mit Klimarisiken, sowie neue physikalische Modelle ein, die auf den spezifischen Merkmalen des urbanen Systems mit seinen unterschiedlichen Siedlungs- und Landschaftstypen und der Lebenswirklichkeit der Menschen basieren.“

Klimawissen und Stadtgestaltung
Als weiteres Climate Future Lab zum Thema klimagerechter Stadtentwicklung startet das Projekt „Open Planning Cultures. Design Principles for Transformative Spaces (OPEN_CULTURES)“ unter der Leitung von Professorin Tatjana Schneider, Institut für Geschichte und Theorie der Architektur und Stadt der TU Braunschweig, an dem Wissenschaftler*innen der TU Braunschweig, des Julius Kühn-Instituts und der Universität Oldenburg beteiligt sind. OPEN_CULTURES knüpft an das gemeinsame Stadtentwicklungsprojekt der TU Braunschweig und der Stadt Braunschweig Co_Living Campus an. Ziel ist es, zu untersuchen, wie Klimawissen durch Gestaltungsprinzipien, die die Klimaanpassung in der Stadtentwicklung und Raumplanung direkt unterstützen, in nachhaltiges Leben übersetzt werden kann. Um diese „Übersetzungslücke“ zu schließen, will „OPEN_CULTURES“ das komplexe Verhältnis zwischen Klimawissen und der Praxis von Stadtgestaltung und nachhaltigem Leben in drei Sub-Labs entwirren.

So wollen die Wissenschaftler*innen die Rolle von Partizipation bei der Schaffung von klima-sensiblen Formen der Stadtgestaltung betrachten. Das zweite Sub-Lab beschäftigt sich mit der Frage, wie die Gestaltung von Gebäuden klima-sensible Formen des städtischen Lebens unterstützen kann. Das dritte Sub-Lab untersucht die Art und Weise, wie Vorstellungen über den Klimawandel Alltagspraktiken beeinflussen und darin reproduziert werden, und wie Klimawandel anders erzählt werden könnte, um zu einer nachhaltigen Lebenspraxis zu motivieren. Das interdisziplinäre Forschungskonsortium verfolgt dabei einen partizipativen und transdisziplinären Ansatz, der Gebäude und grüne Infrastrukturen zusammen mit sozialen und symbolischen Dimensionen untersucht und durch die Entwicklung von Gestaltungsprinzipien auf gerechte, gleichberechtigte und inklusive Formen der Klimaanpassung fokussiert.

„Das Zukunftslabor ist eine fantastische Möglichkeit, die für unsere Gesellschaft und Umwelt so wichtigen Fragestellungen der klimagerechten Gestaltung von Stadt interdisziplinär zu betrachten“, sagt Professorin Tatjana Schneider, Leiterin des Instituts für Geschichte und Theorie der Architektur und Stadt der TU Braunschweig und Sprecherin des Projekts. „Besonders an unserem Ansatz ist hierbei die Zusammenarbeit von Geistes- und Sozialwissenschaften mit gestalterischen und technischen Disziplinen. Das Projekt wird außerdem von einer breiten Allianz aus zivilgesellschaftlichen Organisationen, gemeinwohlorientierten Vereinen und anderen Organisationen unterstützt, die sich für zukunftsfähige Quartiere und Nachbarschaften einsetzen. Wir freuen uns sehr, dieses Vorhaben gemeinsam auf den Weg zu bringen.“

Resiliente Wälder
Neben der Projektleitung der beiden Zukunftslabore zu „Klimagerechter Stadtentwicklung und Raumplanung“ ist die TU Braunschweig außerdem an einem Labor zum Thema „Auswirkungen des Klimawandels auf das Ökosystem Wald“ beteiligt. „FoResLab“, geleitet von der Universität Göttingen, geht der Frage nach, wie Wälder resilient gegenüber Klimaveränderungen gestaltet werden können. Um das zu untersuchen, wollen die Wissenschaftler*innen inter- und transdisziplinäre Forschung mit Formaten der Wissenschaftskommunikation und des Wissenstransfers verbinden.

Projektdaten
Insgesamt wurden für die vier Climate Future Labs am Zentrum Klimaforschung Niedersachsen 14 Projekte eingereicht. Sie werden mit jeweils bis zu fünf Millionen Euro aus dem Programm zukunft.niedersachsen des Niedersächsischen Ministeriums für Wissenschaft und Kultur und der VolkswagenStiftung gefördert. Der Förderzeitraum beläuft sich, vorbehaltlich einer positiven Zwischenevaluation, auf sechs Jahre.

UCFL – Urban Climate Future Lab
Das UCFL ist ein multidisziplinäres Team aus Wissenschaftlerinnen der Technischen Universität Braunschweig, der Leibniz Universität Hannover, der Leuphana Universität Lüneburg, der Akademie für Raumentwicklung in der Leibniz-Gemeinschaft und dem Climate Service Center Germany. Ergänzt wird diese Expertise durch einen Beirat aus national und international renommierten Expertinnen, die zur weltweiten Resonanz der Ansätze und Methoden beitragen wollen. Sprecherin des Labs ist Professorin Vanessa Miriam Carlow, Leiterin des Institute for Sustainable Urbanism und Sprecherin des Forschungsschwerpunktes Stadt der Zukunft der TU Braunschweig. Ko-Sprecher*innen sind Professorin Astrid Kause, (Leuphana Universität) und Professor Martin Prominski (Leibniz Universität Hannover).

OPEN_CULTURES
Neben Wissenschaftlerinnen verschiedener Disziplinen der TU Braunschweig sind Forschende des Julius Kühn-Instituts und der Carl von Ossietzky Universität Oldenburg am Zukunftslabor „Open Planning Cultures. Design Principles for Transformative Spaces (OPEN_CULTURES)“ beteiligt. Sprecherin des Projekts ist Professorin Tatjana Schneider vom Institut für Geschichte und Theorie der Architektur und Stadt der TU Braunschweig. Ko-Sprecherinnen sind Professor Martin Butler von der Universität Oldenburg und Dr. Mona Quambusch vom Julius Kühn-Institut. OPEN_CULTURES wird Forschungsakteurinnen in Niedersachsen und darüber hinaus vernetzen. Dazu arbeitet das Projektteam mit einem internationalen inter- und transdisziplinären Netzwerk, das wissenschaftliche Einrichtungen, verschiedene Praxispartnerinnen und zivilgesellschaftliche Akteur*innen zusammenbringt.

Wissenschaftliche Ansprechpartner:
UCFL Urban Climate Future Lab
Technische Universität Braunschweig
SpACE Lab at ISU – Institute for Sustainable Urbanism
Mühlenpfordtstraße 23
38106 Braunschweig
Tel.: 0531 391-3537
E-Mail: contact@urbanclimatefuturelab.de
www.urbanclimatefuturelab.de

OPEN_CULTURES
Technische Universität Braunschweig
Institut für Geschichte und Theorie der Architektur und Stadt
Schleinitzstraße 19
38106 Braunschweig
Tel.: 0531 391-2347
E-Mail: gtas@tu-braunschweig.de
www.gtas-braunschweig.de

(nach oben)


Effiziente plastikfressende Pilze in Süßgewässern identifiziert

Das Vorkommen von Kunststoffen in unserer Umwelt stellt eine zunehmende Belastung für die Natur und für unsere Gesundheit dar. Wissenschaftlerinnen und Wissenschaftler des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der Universität Potsdam haben nun Pilze aus Süßgewässern identifiziert, die Kunststoffpolymere aus Polyurethan, Polyethylen und Reifengummi effizient abbauen können. Entgegen bisheriger Annahmen war dafür keine Vorbehandlung der Kunststoffe notwendig. Die Studie wurde in Science of the Total Environment veröffentlicht.
Kunststoffe aus Polymeren können jahrzehntelang in der Umwelt verbleiben, da sie von Bakterien im Boden oder Gewässer nicht oder nur sehr langsam abgebaut werden. Weltweit wird deshalb an praxistauglichen und nachhaltigen Methoden für den Umgang mit Kunststoff- und Gummiabfällen geforscht. Ein Forschungsteam des IGB und der Universität Potsdam hat 18 Pilzstämme aus Süßgewässern ausgewählt und ihre Fähigkeit untersucht, Polyurethan, Polyethylen und Reifengummi abzubauen. Diese gehören zu den am häufigsten in der Umwelt vorkommenden Kunststoffen. Die Ergebnisse zeigen, dass Stämme von Fusarium, Penicillium, Botryotinia, and Trichoderma ein hohes Potenzial zum Abbau von Kunststoffen besitzen.

Pilze gut an „Plastiksphäre“ angepasst:
In den letzten Jahren konnten Forscherinnen und Forscher bereits zeigen, dass es Mikropilze gibt, die auch komplexe Polymere zersetzen und damit für den biologischen Schadstoffabbau – Bioremediation – geeignet sind.
Doch warum sind die Pilze so gute Kunststoff-Recycler? „Pilze produzieren Enzyme, die selbst chemische Verbindungen aus vielen Makromolekülen wie Kunststoff aufspalten können. Außerdem sind sie mit ihren invasiven Wachstumsformen und ihrer Fähigkeit, Biofilme zu bilden und mit bereits bestehenden Biofilmen zu interagieren, gut an das Leben in der Plastiksphäre angepasst“, sagt IGB-Forscher Professor Hans-Peter Grossart, der die Studie leitete.
Analysen mit dem Rasterelektronenmikroskop zeigten dem Team, dass sich die Zellwände einiger Pilze verformen, wenn sie die Kunststoffe besiedeln. „Das sind wahrscheinlich strukturelle Anpassungen der Myzelien, die es ihnen ermöglichen, beispielsweise das wasserabweisende Polyurethan zu besiedeln“, sagt Sabreen Samuel Ibrahim Dawoud, Doktorandin am IGB und Erstautorin der Studie.
Die FT-IR-Spektroskopie zur Analyse von Veränderungen in der Feinstruktur der Pilze und die DOC-Analyse zur Bestimmung ihrer Stoffwechselaktivität lieferten Hinweise darauf, dass die anfängliche enzymatische Aktivität der Pilze zur Bildung von Zwischenprodukten führt, die den Pilzen als Kohlenstoff- und Energiequelle dienen, indem sie die Konzentration des für das Pilzwachstum verfügbaren löslichen organischen Kohlenstoffs erhöhen. „So schaffen sich die Pilze durch den Abbau immer wieder neue Nahrung“, sagt Sabreen Dawoud.

Keine Vorbehandlung durch UV-Licht, Ozonisierung oder andere chemische oder thermische Verfahren nötig:
Die Studie zeigte auch, dass Pilze Polymere ohne jegliche Vorbehandlung der Kunststoffe und ohne Zugabe von Zuckern als Energiequelle abbauen können.
Um den mikrobiellen Abbau von Kunststoffpolymeren zu initiieren, wurden in vielen Studien zunächst UV-Licht, Ozonierung, chemische Oxidationsmittel oder thermische Vorbehandlungen eingesetzt, um die Kunststoffpolymere effektiv zu oxidieren und reaktive funktionelle Gruppen zu erzeugen, bevor das Polymer mit Pilzen beimpft wurde. Diese Behandlungen wurden in dieser Studie nicht angewandt und scheinen für die Pilzaktivität nicht wesentlich zu sein. Es wurde jedoch noch nicht untersucht, ob solche Behandlungen die Geschwindigkeit des Abbauprozesses verändert hätten.

Und das sind die erfolgreichen Plastikfresser:
Unter den ausgewählten Stämmen zeigten Stämme von Fusarium, Penicillium, Botryotinia und Trichoderma ein besonders hohes Potenzial zum Abbau von Polyethylen, Polyurethan und Reifengummi. Einige der terrestrischen Vorkommen dieser Pilze sind beim Menschen bisher nur wenig beliebt: Fusarien sind zum Beispiel in der Landwirtschaft als Schadpilze für Getreide und Mais bekannt. Auch Botryotinia kann verschiedene Pflanzenkrankheiten auslösen. Trichoderma-Arten sind Fadenpilze, die weltweit verbreitet im Boden, in Pflanzen, in verrottenden Pflanzenresten oder auch in Holz leben. Sie sind wichtige Zersetzer und stehen in Wechselwirkung mit Pflanzen, anderen Mikroorganismen und dem Boden. Arten der Gattung Penicillium spielen hingegen eine wichtige Rolle bei der Herstellung von Penicillin und Lebensmitteln wie Schimmelkäse.
Die Forschenden testeten auch, ob bestimmte Pilzarten nur bestimmte Arten von Kunststoff oder Gummi abbauen können und welcher Kunststoff am besten von Pilzen zersetzt wird. Das Ergebnis: Polyurethan erwies sich von allen getesteten Kunststoffen als am besten abbaubar. „Die Kenntnis effizienterer Pilzstämme, insbesondere für den biologischen Abbau von Polyurethan, trägt dazu bei, großtechnische Recyclingkonzepte für Kunststoffabfälle zu entwickeln“, sagt Hans-Peter Grossart.

Methodik:
Die Studie beschreibt die Probenahme und Identifizierung von 18 Pilzstämmen aus den Seen Stechlin und Mirow in Nordostdeutschland und klassifiziert sie anhand der molekularen Daten ITS, SSU und LSU. Die Stämme wurden auf ihre cellulo-, lignino- und chitinolytische Aktivität und ihre Fähigkeit zum Abbau verschiedener Kunststoffe, darunter Polyethylen, Polyurethan, Reifenkautschuk und Polyethylen niedriger Dichte, untersucht. Die Abbauversuche wurden sowohl auf Agar- als auch auf Flüssigmedien durchgeführt, mit optischen Auswertungen zur Beobachtung des Kunststoffabbaus und Respirationsversuchen zur Messung des O2-Verbrauchs und der CO2-Produktion. Nach der Inkubation wurden das Frischgewicht und der gelöste organische Kohlenstoff (DOC) gemessen und die Pilzmyzelien mittels Rasterelektronenmikroskopie (REM) und Fourier-Transform-Infrarotspektroskopie (FT-IR) analysiert. Für die Datenanalyse wurde die Software R verwendet, wobei ANOVA, Dunn-Test und lineare Regression eingesetzt wurden, um die Ergebnisse zu vergleichen und Korrelationen zwischen ihnen zu bestimmen.
Kunststoff ist nicht gleich Kunststoff:
PU ist eines der am weitesten verbreiteten umweltschädlichen Polymere. Es wird in vielen Industriezweigen verwendet und eignet sich besonders für langfristige Anwendungen, bspw. für Schaumstoffe, Elastomere für Sportbekleidung oder medizinische Geräte, Beschichtungen und Dichtstoffe. PU ist daher für raue Umweltbedingungen ausgelegt.
PE macht etwa ein Drittel der gesamten Kunststoffnachfrage in Europa aus, was zum Teil auf seine umfangreiche Verwendung für Verpackungen zurückzuführen ist.
Mikroplastik aus Reifen trägt zu den größten Verschmutzungen durch Mikroplastik bei, darunter Reifenabriebpartikel, recycelte Reifenkrümel und Rückstände aus der Reifenreparatur.

Wissenschaftliche Ansprechpartner:
Sabreen Samuel Ibrahim Dawoud, Doktorandin am IGB: https://www.igb-berlin.de/profile/sabreen-samuel-ibrahim-dawoud
Prof. Hans-Peter Grossart, Forschungsgruppenleiter „Aquatische mikrobielle Ökologie“ am IGB und Professor für “ Aquatische mikrobielle Ökologie und funktionelle Biodiversität“ an der Universität Potsdam: https://www.igb-berlin.de/profile/hans-peter-grossart

Originalpublikation:
Sabreen S. Ibrahim, Danny Ionescu, Hans-Peter Grossart: Tapping into fungal potential: Biodegradation of plastic and rubber by potent Fungi.
Science of The Total Environment, Volume 934, 2024,173188, ISSN 0048-9697,
https://doi.org/10.1016/j.scitotenv.2024.173188.

Weitere Informationen:
https://www.igb-berlin.de/news/effiziente-plastikfressende-pilze-suessgewaessern…

(nach oben)


Forschende der TU Darmstadt weisen erstmals Mikroplastik in Weinbergen nach

Auch in den Böden von Weinbergen findet sich umweltschädliches Mikroplastik. Das geht aus einer Studie unter Leitung der TU Darmstadt hervor. Dabei weisen Weinbaugebiete sogar einen höheren Gehalt an Mikroplastik auf als andere landwirtschaftlich genutzte Böden. Ob die Flächen biologisch oder konventionell bewirtschaftet werden, hat indes offenbar keinen Einfluss auf die Schadstoffmenge. Allerdings ist die Vielfalt der gefundenen Kunststoffe (Polymere) unter biologischem Anbau deutlich geringer.

Die räumliche Verbreitung von Mikroplastik deutet darauf hin, dass die kleinen Kunststoffteilchen bei stärkerem Regen zur Erosion tendieren. Das berge ein Risiko, dass die Schadstoffe in Flüsse oder Seen weitertransportiert werden könnten, warnen die Forschenden in der nun im renommierten Journal „Science of The Total Environment“ veröffentlichten Studie der TU Darmstadt und der Universität Trier. In den Gewässern wiederum nehmen beispielsweise Fische das Mikroplastik auf. Außerdem kann dieses ins Trinkwasser gelangen.

Als Mikroplastik werden winzige Kunststoffreste bezeichnet, die schwer abbaubar und damit problematisch für die Umwelt sind. Im Weinbau kommt Plastik in vielerlei Formen zum Einsatz: Netze schützen Trauben vor Vögeln. Sie bestehen ebenso aus Plastik wie beispielsweise Klammern, die zum Befestigen der Rebstöcke genutzt werden. All das sind potenzielle Quellen von Mikroplastik in Weinbergsböden.

Bei der aktuellen Erhebung handelt es sich um die weltweit erste Untersuchung von Weinbergsböden auf Mikroplastik. Die Forschenden inspizierten dafür Böden in verschiedenen, sowohl konventionell als auch biologisch bewirtschafteten Weinbergen in den Anbaugebieten Mosel und Saar. Die Untersuchung gibt daher zunächst lediglich Aufschluss über die Verbreitung von Mikroplastik in typischen Weinbergsböden dieser Region. Es kann aber vermutet werden, dass auch in anderen Weinanbaugebieten die Belastung ähnlich hoch ist.

Die Wissenschaftlerinnen und Wissenschaftler entnahmen Bodenproben und bereiteten sie im Labor des Fachgebiets Bodenmineralogie und Bodenchemie am Institut für Angewandte Geowissenschaften (Fachbereich Material- und Geowissenschaften) der TU Darmstadt auf. Dabei wurden Mikroplastikpartikel mit einer Größe bis zu 20 Mikrometer aus dem Bodenmaterial extrahiert und gereinigt. Anschließend analysierten die Forschenden die Partikel mittels chemischer Bildgebungsverfahren und Bildauswertung mit einem Infrarot-Spektroskop.

„Mikroplastik im Boden kann sich negativ auf die Bodenfunktionen, wie den Nährstoffumsatz, auswirken“, sagt Koautor Dr. Collin J. Weber, Bodenchemiker an der TU Darmstadt. „Jedoch kann derzeit keine direkte Gefahr für den Weinanbau oder gar den Wein aufgezeigt werden.“ Dr. Manuel Seeger, Geograph an der Universität Trier, erklärt, Hauptquelle des Mikroplastiks in Weinbergen sei vermutlich die Alterung und der Zerfall von Plastikgegenständen, die im Weinanbau verwendet werden. „Chemische Pflanzenschutzmittel, die ebenfalls Mikroplastik beinhalten können, spielen vermutlich eher eine nachgeordnete Rolle“, sagt er.

Die gewonnenen Erkenntnisse könnten genutzt werden, um künftig Kunststoffeinträge in Böden durch den Weinbau zu vermindern. „Veränderte Managementstrategien der Weingüter sowie eine Nutzung anderer, kunststofffreier Materialien könnten die Umweltbelastung deutlich verringern“, erklärt Weber. „Das wäre ein wichtiger Schritt zum Erhalt und Schutz unserer Böden als Lebensgrundlage.“ Der Einsatz von Plastik im Weinbau ist bisher nicht gesetzlich geregelt.

Die TU Darmstadt übernahm bei dem Projekt die Konzeption, Planung, Methodenentwicklung, Analytik und Datenauswertung. Die Universität Trier stellte insbesondere den Kontakt zu den Weingütern her, unterstützte die Geländearbeiten und Probenahmen und trug Fachwissen zur Bodenerosion in Weinbergen bei.

Wissenschaftliche Ansprechpartner:
Dr. Collin J. Weber
TU Darmstadt
Bodenmineralogie und Bodenchemie
weber@geo.tu-darmstadt.de
06151/16-20468

Dr. Manuel Seeger
Universität Trier
Physische Geographie
seeger@uni-trier.de
ß651/201-4557

Originalpublikation:
Jenny Klaus, Manuel Seeger, Moritz Bigalke und Collin J. Weber: “Microplastics in vineyard soils: First insights from plastic-intensive viticulture systems”. In: “Science of
The Total Environment”, Nr. 947 (2024).
https://doi.org/10.1016/j.scitotenv.2024.174699

(nach oben)


Virale Artenvielfalt im Abwasser

Umfassende Metagenom-Sequenzierungen des Berliner Abwassers über 17 Monate zeigen, dass man so die Ausbreitung von Krankheitserregern überwachen und Ausbrüche vorhersagen kann. Wie das Team um Markus Landthaler in „Environmental International“ schreibt, haben sie zudem Tausende neuer Viren entdeckt.

Dass Gesundheitsbehörden das städtische Abwasser überwachen, um bestimmte Mikroben wie Polioviren oder SARS-CoV-2 aufzuspüren, ist nicht neu. Eine umfassende Surveillance, die zusätzlich auf bislang unentdeckte und somit unbekannte Viren abzielt, ist dagegen in den meisten Orten der Welt nicht die Norm.

Das könnte sich in der Zukunft ändern. Denn Abwasser ist eine wahre Fundgrube für Daten zu Viren in unserer unmittelbaren Umgebung, zeigt eine Studie der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“ von Professor Markus Landthaler am Max Delbrück Center. Die Wissenschaftler*innen analysierten Proben aus einer Berliner Kläranlage mithilfe der Shotgun-Metagenom-Sequenzierung. Dank dieser Technologie konnten sie alle Viren im Wasser umfassend untersuchen: von der Bestimmung von Virusvarianten bis hin zur Nachverfolgung einzelner Buchstabenänderungen im Erbgut.

Die Verbreitung der Virusvarianten nachvollziehen
Sie fanden dabei zuverlässig alltägliche Viren wie RSV oder Grippe und konnten die saisonale Ausbreitung der Virusvarianten nachvollziehen. Je nach Jahreszeit wiesen sie außerdem typische Besucher im Abwasser nach: Viren, die Spargel infizieren, tauchten im Frühjahr auf, Weintrauben-Viren im Herbst und solche, die es auf Wassermelonen oder die Berliner Mücken abgesehen haben, im Sommer.

Die weit verbreiteten Astroviren, die beim Menschen den Magen-Darm-Trakt befallen, schauten sich die Wissenschaftler*innen genauer an. Sie verglichen, welche Mutationen im viralen Genom im Berliner Abwasser vorkamen und welche anderswo gefunden worden waren. So konnten sie die weltweite Ausbreitung einzelner Stämme nachverfolgen. In angereicherten Proben detektierten und sequenzierten sie außerdem etwa 70 menschliche Pathogene, die seltener zu finden sind. Sie entdeckten Tausende neuartiger Viren und erweiterten so unser Wissen um die virale Artenvielfalt. Doch ihre Analyse machte nicht bei den Viren halt. Die Daten brachten Hunderte Enzyme namens TnpB-Endonukleasen ans Licht, die potenziell in der Biotechnologie nützlich sein können. Das Team veröffentlichte die Studie in „Environment International“.

„Die Überwachung des Abwassers hat meines Erachtens ungeheures Potenzial. Denn Sequenzierungen werden billiger“, sagt Landthaler. „Und mit den Maschinen werden sich auch die Bioinformatik-Werkzeuge verbessern, die wir für die Analyse dieser Daten brauchen.“

Nach bislang unbekannten Viren suchen
Die Forschung an den Abwasserproben hatte während der Coronapandemie begonnen. Dank einer Kooperation mit den Berliner Wasserbetrieben hatte die Arbeitsgruppe von Markus Landthaler Proben aus einer Berliner Kläranlage bekommen. So konnten das Team die Verbreitung und die Wellen der SARS-CoV-2-Varianten verfolgen. Als die Pandemie allmählich abebbte, beschlossen die Wissenschaftler*innen die zwischen März 2021 bis Juli 2022 gesammelten Proben erneut zu untersuchen. „Wir waren neugierig, was da noch zu finden ist“, sagt Dr. Emanuel Wyler, Postdoktorand in der Arbeitsgruppe von Landthaler und Erstautor der Studie. „Wir hatten hier ja ein sehr umfassendes Set an Daten, das in seiner Tiefe und Zeitspanne einzigartig ist.“

Die Forscher*innen extrahierten RNA aus den Proben und generierten 116 Bibliotheken komplementärer DNA. Sie speisten die Bibliotheken in einen Sequenzierer ein – und das Ergebnis waren Millionen Messwerte. „Diese Daten zu analysieren, ist eine Herausforderung“, sagt Dr. Chris Lauber, ein auf Bioinformatik spezialisierter Virologe von TWINCORE, dem Zentrum für Experimentelle und Klinische Infektionsforschung der Medizinischen Hochschule Hannover (MHH) und dem Helmholtz-Zentrum für Infektionsforschung (HZI). „Genomische Daten in die großen Virenfamilien einzusortieren, ist vergleichsweise einfach. Aber eine tiefgehende Analyse, die nach Varianten oder ganz neuen Viren sucht, kann sehr anspruchsvoll sein.“

Dies alles zeige, welches Potenzial die Überwachung des Abwassers hat – um die Evolution pathogener Viren zu untersuchen und im Hinblick auf Public Health und damit für die Gesundheit der Bevölkerung, sagt Landthaler. „Die Analyse des Metagenoms von Abwasser an möglichst vielen Standorten weltweit sollte Priorität haben“, sagt er.
Max Delbrück Center

Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (Max Delbrück Center) gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den Standorten in Berlin-Buch und Mitte analysieren Forscherinnen aus rund 70 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organ-übergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patientinnen zugutekommen. Das Max Delbrück Center fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am Max Delbrück Center arbeiten 1800 Menschen. Finanziert wird das 1992 gegründete Max Delbrück Center zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Landthaler
Leiter der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“
Berliner Institut für Medizinische Systembiologie des Max Delbrück Center
+49 30 9406-3026
markus.landthaler@mdc-berlin.de

Dr. Emanuel Wyler
Wissenschaftler in der Arbeitsgruppe „RNA-Biologie und posttranskriptionale Regulation“
Berliner Institut für Medizinische Systembiologie des Max Delbrück Center
+49 30 9406-3009
emanuel.wyler@mdc-berlin.de

Originalpublikation:
Emanuel Wyler et al. (2024): „Pathogen dynamics and discovery of novel viruses and enzymes by deep nucleic acid sequencing of wastewater“. Environment International, DOI: 10.1016/j.envint.2024.108875

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S0160412024004616?via%3Dihub – Paper
https://www.mdc-berlin.de/de/landthaler – AG Landthaler
https://www.mdc-berlin.de/de/news/press/virenfahndung-der-kanalisation – Virenfahndung in der Kanalisation

Anhang
Der Virenstammbaum zeigt die Verwandtschaftsverhältnisse der bekannten Virengruppen in verschiedenen Farben; die neu im Abwasser entdeckten Viren sind leuchtend hellblau dargestellt.

(nach oben)


Wege zu Klimaneutralität und Nachhaltigkeit

Halbzeit für das »Zentrum für Klimaneutrale Produktion und Ganzheitliche Bilanzierung ZKP«. Die erfolgreiche Bilanz: Seit der Eröffnung im Herbst 2022 wurden insgesamt 25 Projekte zur Klimaneutralität und Nachhaltigkeit in Unternehmen abgeschlossen. Im Frühling 2024 starteten weitere 37 Projekte – viele davon in kleineren und mittelständischen Unternehmen.

Die Anforderungen an Unternehmen steigen: Sie sollen klimaneutral und nachhaltig sein, ebenso ihre Produkte. Doch welche Maßnahmen passen zum Unternehmen und wie groß ist deren Einfluss? Für Betriebe aus Baden-Württemberg gilt: Sie können bei der Beantwortung solcher Fragen auf das »Zentrum für Klimaneutrale Produktion und Ganzheitliche Bilanzierung«, kurz ZKP, setzen. Es befindet sich auf dem Stuttgarter Technologie- und Innovationscampus S-TEC. Das Fraunhofer-Institut für Bauphysik IBP und das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA sowie zwei Institute der Universität Stuttgart sind an dem Zentrum beteiligt.

Treibhausgasreduktion und Aufbau eigener Kapazitäten
Das S-TEC ZKP bietet Unternehmen ein umfangreiches Angebot auf dem Weg zu Klimaneutralität und Nachhaltigkeit. »Das erste Themenfeld umfasst Maßnahmen zur Treibhausgasreduktion«, erläutert Dr. Daniel Wehner, Leiter des Zentrums. Doch wie viel Emissionen lassen sich mit einer konkreten Maßnahme einsparen? Die Firmen können zum einen eigene Ideen mitbringen, zum anderen bietet das Zentrum einen großen Pool an verschiedenen Maßnahmen sowie umfassendes Know-how dazu. Ein zweiter Themenschwerpunkt liegt darin, die Unternehmen selbst zu befähigen, Analysen durchzuführen – etwa Ökobilanzen und Carbon Footprints sowohl für einzelne Produkte als auch für das gesamte Unternehmen. Eine Analyse an sich reicht jedoch nicht aus, vielmehr müssen die Ergebnisse an die benötigten Stellen gebracht werden. Über digitale Lösungen integrieren die Forschenden die Nachhaltigkeit daher in verschiedene Prozesse und Unternehmensbereiche – vom Nachhaltigkeitsmanagement über die Produktentwicklung bis hin zum Einkauf. Auch unterstützen sie bei der prozessualen und organisatorischen Verankerung, wenn es um Material Compliance oder produktbezogene Umweltanforderungen geht.

Starkes Interesse auch bei kleineren und mittelständischen Unternehmen
Das Interesse der Unternehmen ist groß: Seit Eröffnung des Zentrums im Herbst 2022 wurden insgesamt 25 Projekte abgeschlossen, im Frühling 2024 gingen weitere 37 Projekte an den Start. »Der KMU-Anteil liegt bei über 50 Prozent, es profitieren also auch kleinere Unternehmen«, freut sich Wehner.

Besonders groß ist das Interesse an Quick Checks (QC), mit denen Unternehmen eine Ersteinschätzung zu bestimmten Fragestellungen erhalten – schnell und mit geringem Aufwand. Beim »Quick-Check Data Readiness Produktnachhaltigkeit« geht es um die Frage, wie gut ein Unternehmen auf bestimmte Anforderungen im Bereich der Produktnachhaltigkeit vorbereitet ist und wie die Ausgangslage verbessert werden kann. Wichtig ist das etwa im Kontext der Batterieverordnung, bei der der CO2-Fußabdruck nach spezifischen Anforderungen berechnet werden muss. Auch zeigt der Quick-Check wichtige Handlungsoptionen auf. »Je nach Stand des Unternehmens legen wir einen unterschiedlichen Schwerpunkt. Setzt ein Unternehmen bereits Ökobilanzen für andere Zwecke ein, überprüfen wir, ob und wie sich diese auf die neuen Anforderungen übertragen lassen. Bei Unternehmen ohne Ökobilanz-Erfahrung schauen wir grundsätzlicher: Sind beispielsweise die nötigen Daten in verschiedenen Unternehmenssystemen verfügbar?«, beschreibt Wehner.

Weitere Projekte fokussieren sich auf Maßnahmen zur Treibhausgasreduktion, sei es auf Produkt- oder Herstellungsebene. Denn für Unternehmer*innen ist es vielfach schwer einzuschätzen, welche der zahlreichen möglichen Maßnahmen zur Treibhausgasreduktion sich unter den Rahmenbedingungen des eigenen Unternehmens am besten eignen, um die Emissionen möglichst effizient zu senken. Schließlich erfordern solche Maßnahmen viel Entwicklungsarbeit ebenso wie die Einführung neuer Prozesse – es ist daher elementar, die möglichen Einsparungen verschiedener Maßnahmen im Vorfeld genau einschätzen zu können. Auch hier können Quick Checks schnelle Ersteinschätzungen liefern.

Bewerbungen bis Ende März 2025 möglich

Bewerbungen können jederzeit bis Ende März 2025 eingereicht werden. Die Projekte werden durch das Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg gefördert. Die nächste Projektfreigabe steht im Herbst 2024 an (Bewerbungsschluss 30.09.2024). Um den Aufwand möglichst gering zu halten, ist die Bewerbung bewusst kurz und einfach gestaltet. In einer aktuellen Webinar-Reihe können sich Unternehmen über bisherige Projektergebnisse und weitere Fördermöglichkeiten informieren.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Wehner
Leiter des S-TEC Zentrums
daniel.wehner@ibp.fraunhofer.de

Originalpublikation:
https://www.ibp.fraunhofer.de/de/presse-medien/presseinformationen/pi_2024-07-we…

Weitere Informationen:
https://s-tec.de/zentren/zentrum-fuer-klimaneutrale-produktion-und-ganzheitliche…

Anhang
Wege zu Klimaneutralität und Nachhaltigkeit

(nach oben)


Einsatz von PortBins im Stadthafen Rostock zur Sammlung von Plastikmüll aus der Warnow

Gemeinsame Pressemitteilung der Hanse- und Universitätsstadt Rostock und der Universität Rostock.

In einer gemeinsamen Initiative der Universität Rostock und des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), unterstützt durch das Hafen- und Seemannsamt der Hanse- und Universitätsstadt Rostock, wurden im Stadthafen Rostock Müllbehälter zur Sammlung von Plastikmüll aus der Warnow in Betrieb genommen. Mit dieser Maßnahme soll der Plastikmüll aufgefangen werden, bevor er in die Ostsee gelangt und zu Meeresmüll wird.

Im Rahmen des Projektes wird ein Jahr lang der in Müllbehältern, so genannten PortBins, gesammelte Abfall analysiert. Wissenschaftler der Universität Rostock und des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) untersuchen die Mengen und Arten des Mülls sowie die Herkunft der Abfälle. Diese Analysen sollen dazu beitragen, Strategien zur Müllvermeidung zu entwickeln.

„Mit den PortBins können wir nicht nur den aktuellen Müll aus der Warnow entfernen, sondern auch wertvolle Daten sammeln, die uns helfen, langfristige Lösungen zu finden“, sagt Mona-Maria Narra, Projektleiterin an der Universität Rostock.

Besondere Aufmerksamkeit gilt dem Einfluss von Ereignissen wie Feierlichkeiten der Hanse- und Universitätsstadt oder Starkregen auf das Müllaufkommen in der Warnow. Durch die gezielte Analyse dieser Ereignisse sollen weitere Maßnahmen erarbeitet werden, um den Eintrag von Kunststoffen in die Flüsse und letztlich in die Meere z