Sonntag, Mai 19, 2024
StartAktuellesTägliche Meldungen

Tägliche Meldungen

Meldungen 2012Meldungen 2013Meldungen 2014Meldungen 2015
Meldungen 2016Meldungen 2017Meldungen 2018Meldungen 2019
Meldungen 2020Meldungen 2021Meldungen 2022Meldungen 2023

Mai 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


April 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


März 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt
Gesundheit
Gesellschaft

Februar 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Januar 2024

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


Aufruf zur Reaktion auf die wachsende Bedrohung durch antimikrobielle Resistenzen

Antimikrobielle Resistenzen (AMR) gehören zu den größten globalen Bedrohungen für die öffentliche Gesundheit und die Entwicklung. Die Begrenzung des Auftretens und der Verbreitung resistenter Erreger ist entscheidend, um weltweit Krankheiten bei Menschen, Tieren und Pflanzen zu behandeln, die Risiken für die Lebensmittelsicherheit zu verringern und Fortschritte bei den nachhaltigen Entwicklungszielen der WHO zu erreichen. Die AMR Multi-Stakeholder Partnership Platform hat wichtige Handlungsempfehlungen zu AMR erarbeitet, die von den Mitgliedstaaten der Vereinten Nationen (UN) auf der Tagung der UN-Generalversammlung zu AMR am 26. September 2024 erörtert werden sollen.

Antimikrobielle Resistenzen (AMR) gehören zu den größten globalen Bedrohungen für die öffentliche Gesundheit und die Entwicklung. Nach Angaben der Weltgesundheitsorganisation (WHO) wurden im Jahr 2019 schätzungsweise 4,95 Millionen Todesfälle mit AMR in Verbindung gebracht, darunter 1,27 Millionen Todesfälle, die auf bakterielle AMR zurückzuführen sind. Die Begrenzung des Auftretens und der Verbreitung resistenter Erreger ist von entscheidender Bedeutung, um weltweit Krankheiten bei Menschen, Tieren und Pflanzen zu behandeln, die Risiken für die Lebensmittelsicherheit zu verringern und Fortschritte bei den nachhaltigen Entwicklungszielen der WHO zu erreichen. Die AMR Multi-Stakeholder Partnership Platform hat wichtige Handlungsempfehlungen zur Problematik antimikrobieller Resistenzen erarbeitet, die von den Mitgliedstaaten der Vereinten Nationen (UN) auf der hochrangigen Tagung der UN-Generalversammlung zu AMR, die am 26. September 2024 im UN-Hauptquartier in New York stattfinden wird, erörtert werden sollen. Als Mitglied der AMR Multi-Stakeholder Partnership Platform und aktiver Teilnehmer der Aktionsgruppe der Plattform hat das Deutsche Zentrum für Infektionsforschung (DZIF) an der Entwicklung der zentralen Empfehlungen mitgewirkt.

Die folgenden Empfehlungen basieren auf den Diskussionen, die von der Aktionsgruppe der AMR-Multi-Stakeholder-Partnerschaftsplattform auf dem hochrangigen UN-Treffen zu AMR geführt wurden. Die Interessengruppen der Plattform, die verschiedene Sektoren (Mensch, Tier, Landwirtschaft, Pflanzen, Umwelt), Disziplinen und Hintergründe vertreten, rufen die UN-Mitgliedstaaten dazu auf, sich auf umsetzbare und messbare Schritte zu einigen. Unter einem One-Health-Ansatz sollen diese Schritte dazu dienen, eine gesündere, nachhaltigere und widerstandsfähigere Gegenwart und Zukunft zu gewährleisten, in der antimikrobielle Wirkstoffe als wichtige lebensrettende Arzneimittel erhalten bleiben, die für alle und überall gleichermaßen zugänglich sind.

  1. Verbesserung der One-Health-Zusammenarbeit im Bereich AMR durch eine wirksame sektorübergreifende, transparente, inklusive, multilaterale, multidisziplinäre und von mehreren Interessengruppen getragene Koordinierung, Kommunikation und Weiterverfolgung.
  2. Beschleunigung der Umsetzung der Nationalen Aktionspläne zur Bekämpfung antimikrobieller Resistenzen (NAPs), aufbauend auf dem Kontext, den Kapazitäten und den Fähigkeiten der Länder.
  3. Stärkung der Kapazitäten für AMR-bezogene Aktivitäten durch die Mobilisierung nachhaltiger Finanzmittel für Forschung, Infrastruktur und die Umsetzung von Nationalen Aktionspläne zur Bekämpfung antimikrobieller Resistenzen.
  4. Stärkung der Gesundheitssysteme durch umfassende Strategien der Primär- und Sekundärprävention wie Infektionsprävention und -kontrolle (IPC), Stewardship-Programme, Wasser, Sanitärversorgung und Hygiene (WASH), Impfungen, Frühdiagnose und sofortige Behandlung sowie Umweltmanagement von Luft, Wasser, Boden, Lebensmitteln und Vektoren für eine bessere Gesundheit von Mensch, Tier und Umwelt.
  5. Bessere Nutzung von Präventivmaßnahmen wie Impfungen durch Erweiterung der Evidenzbasis bezüglich ihrer Wirkung gegen AMR, Entwicklung von Mechanismen zur Verbesserung des Zugangs zu und der Nutzung von bestehenden Impfstoffen, Verbesserung der Regulierungswege, Erleichterung der Marktzulassung und Verteilung von Produkten über Sektoren und Länder hinweg.
  6. Stärkung der sektorspezifischen Überwachung von AMR und der Verwendung antimikrobieller Präparate mit dem Ziel einer integrierten Überwachung für evidenzbasierte Maßnahmen zur Verringerung der Risiken und Auswirkungen von AMR.
  7. Umgestaltung der Agrarnahrungsmittelsysteme, um den Einsatz antimikrobieller Präparate deutlich zu reduzieren und gleichzeitig die Tiergesundheit und den Tierschutz zu optimieren.
  8. Gewährleistung eines allgemeinen, gerechten, erschwinglichen und nachhaltigen Zugangs zu qualitativ hochwertigen grundlegenden Arzneimitteln, Impfstoffen und Diagnostika für Mensch und Tier, auch in ländlichen Gebieten.
  9. Ermutigung der Länder mit hohem Einkommen und anderer Interessengruppen, sich zu einem durchgängigen Ansatz für eine nachhaltige antimikrobielle Forschung und Entwicklung (F&E) zu verpflichten, unter anderem durch eine Erhöhung der öffentlichen Investitionen in Push- und Pull-Anreize, um die globalen F&E-Anstrengungen zu katalysieren, die notwendig sind, um neue Behandlungen und Instrumente zu entwickeln, die auf die weltweit wichtigsten Krankheitserreger abzielen.
  10. Vorbeugung und Bekämpfung der treibenden Kräfte, Quellen und Herausforderungen der Umweltdimensionen von AMR.

Die AMR Multi-Stakeholder Partnership Platform wurde im November 2022 von den Quadripartite-Organisationen – der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO), dem Umweltprogramm der Vereinten Nationen (UNEP), der Weltgesundheitsorganisation (WHO) und der Weltorganisation für Tiergesundheit (WOAH) – als eine der von der „Inter-Agency Coordination Group on AMR“ der Vereinten Nationen empfohlenen globalen Verwaltungsstrukturen eingerichtet. Sie bringt relevante Interessengruppen aus den Sektoren Mensch, Tier, Pflanze und Umwelt zusammen, um die Erhaltung von antimikrobiellen Substanzen und ihre verantwortungsvolle Verwendung durch einen One-Health-Ansatz zu gewährleisten. Sie fördert eine gemeinsame globale Vision, hilft bei der Konsensbildung und ergreift Maßnahmen, um zur Umsetzung des Globalen Aktionsplans zu AMR (GAP) beizutragen. Seit ihrer Gründungsversammlung im November 2023 ist die Plattform auf mehr als 200 Mitglieder (Organisationen, Netzwerke und Verbände) angewachsen. Das Deutsche Zentrum für Infektionsforschung (DZIF) ist eines von ihnen.

Wissenschaftliche Ansprechpartner:
Dr. Timo Jäger
Deutsches Zentrum für Infektionsforschung
timo.jaeger@dzif.de

Weitere Informationen:
https://openknowledge.fao.org/items/522f87fd-caf6-4474-a60a-23cbd0dbfa54/full
http://vollständigen Empfehlungen
https://openknowledge.fao.org/items/522f87fd-caf6-4474-a60a-23cbd0dbfa54 Kurzfassung
öffentliche Bekanntgabe des Aufrufs

https://www.fao.org/antimicrobial-resistance/quadripartite/the-platform/en/ globale Bewegung der AMR Multi-Stakeholder Partnership Platform für Maßnahmen gegen AMR

(nach oben)


Transparenz in der Ökobilanz: Welche Umweltwirkungen haben recycelte Kunststoffe?

Es besteht eine wachsende Nachfrage nach Informationen über die Umweltauswirkungen der Verwendung von recyceltem Kunststoff. Veröffentlichungen und zuverlässige Daten sind jedoch rar. Jetzt ist es an der Zeit, dass Industrie, Wissenschaft und politische Entscheidungsträger Ideen austauschen und einen Konsens darüber erzielen, wie die Umweltauswirkungen von recy-celten Kunststoffen modelliert werden können. Genau hier setzt das Fraunhofer CCPE compact am 20. Juni 2024 zum Thema »Auswirkungen von recycelten Kunststoffen – Ein Stakeholder-Ansatz zur Ermittlung eines Konsenses in der Ökobilanz« an. Einen ersten Einblick geben uns Dr.-Ing. Anna Kerps und Tanja Fell im Interview.

Anna, du bist die Hauptautorin des im Januar 2024 erschienenen Positionspapiers »Challenges and requirements in comparative life cycle assessment of plastics recycling« von Fraunhofer CCPE. Was ist daraus die für dich wichtigste Botschaft?

Anna Kerps: Wir – und damit meine ich vor allem die Forschung und die Industrie – haben noch ein Stück Weg vor uns, bis wir belastbare Aussagen zu vergleichenden Umweltwirkungen von recycelten Kunststoffen durchführen können. Derzeit fehlt es bei LCA-Studien im Bereich des Kunststoffrecyclings an einheitlichen und harmonisierten Regeln, was zu irreführender Kommunikation und Entscheidungsfindung führen kann. Im Positionspapier haben wir zehn Herausforderungen und zehn Anforderungen formuliert, die die Vergleichbarkeit von unterschiedlichen Studien im Bereich des Kunststoffrecyclings betreffen. Gerade arbeiten wir daran, einige dieser Herausforderungen beispielhaft am lösemittelbasierten Recycling zu adressieren, was wir u.a. im CCPE-Cluster weiterentwickeln. Wir möchten die Unterschiede und Unvergleichbarkeiten durch Modellierungsentscheidungen am Beispiel des lösemittelbasierten Recyclings sichtbar machen. Gerade neue Recyclingtechnologien haben andere Anforderungen an die Systemgrenzen und Modellierungsentscheidungen. Um die umweltspezifischen Vorteile von recycelten Kunststoffen im Vergleich untereinander und zu Kunststoffneuwaren aufzeigen zu können, ist es nötig, einen einheitlichen Bemessungsrahmen für die Ökobilanz zu schaffen, damit die Rohstofftypen miteinander verglichen werden können.

Wie zahlt darauf bereits eure Recyclingtechnologie, das lösungsmittelbasierte Recycling, ein?

Tanja Fell: Wir halten Kunststoffressourcen aus solchen Abfällen im Kreislauf, die ansonsten als nicht recyclingfähig gelten, d.h. wir kommen z.B. aus einem stark verschmutzen post-consumer Folien-Verpackungsabfall und können unsere Rezyklate wieder in eine Folienanwendung für Verpackungen bringen.

Die dafür erforderliche hohe Rezyklatqualität erreichen wir zum einen durch die hohe Selektivität unseres Löseprozesseses und durch unsere effektiven Reinigungsverfahren. Das Verfahren benötigt weniger Energie als die Neuwareherstellung und das chemische Recycling, kurzum wir erreichen durch den Prozess hohe Qualitäten und eine positive Ökobilanz.

Das Verfahren sollte nicht als Konkurrenz zum thermo-mechanischen Recycling verstanden werden, sondern vielmehr als eine ergänzende physikalische Recyclingroute. Denn der lösungsmittelbasierte Prozess zielt vor allem auf heterogene Abfallstoffe, die bislang entweder nur thermisch verwertet werden oder nur zu sehr minderwertigen Rezyklaten verarbeitet werden können.

Ihr werdet im Anschluss an das Fraunhofer CCPE compact die Industrieunternehmen zu Interviews bitten. Um was soll es dabei gehen?

Anna Kerps: Genau! Wir möchten mit den Kunststoffrecyclern in einen Dialog treten, um die theoretischen Herausforderungen aus dem Positionspapier mit dem praxisnahen Nutzen und Aufwand beim Recycling abzugleichen. Ziel ist es, die Herausforderungen besser zu verstehen und gemeinsam in einem Stakeholder-Ansatz zu diskutieren. Modellierungsentscheidungen in der Ökobilanz sind in der Regel geprägt von unterschiedlicher Motivation, Zielsetzung, Aktualität und zugrundeliegender (wissenschaftlicher) Expertise sowie der potenziellen Anwendungsfelder der Kunststoffe. Zum einen möchten wir Wissen vermitteln und in einen Dialog treten, zum anderen ist es das Ziel, einen Konsens zu schaffen. Viele Einzelstudien zum Kunststoffrecycling zeigen unabhängig voneinander, dass der Einsatz von Rezyklat im Vergleich zu Neuware zu Umweltvorteilen führt. Bisher lassen sich diese Studien allerdings nicht untereinander vergleichen. Gemeinsam mit den Industrieunternehmen möchten wir den Einsatz von Rezyklaten durch vergleichbare Modellierungsentscheidungen stärken.

Was ist Euch wichtig, der Industrie in Bezug auf die Ökobilanz von recyceltem Kunststoff mit auf den Weg zu geben?

Anna Kerps: Es kann nicht sein, dass die Rezyklate große Teile der Belastungen der Emissionen aus der nachgelagerten Verbrennung von mitgesammelten Störstoffe tragen. Da das Recycling ein multi-funktionaler Prozess ist und gleichzeitig Abfall verwertet und neues Material erzeugt wird, sollten die Umweltwirkungen der Sammlung, Sortierung und dem Recycling entsprechend der Funktion der Abfallverwertung und der Ressourcenbereitstellung zugeordnet werden. Wir möchten dieses Multifunktionalitätsproblem gerne gemeinsam lösen. Startpunkt für den Austausch ist die kommende Online-Veranstaltung, wo wir die Herausforderungen nochmal aufarbeiten, um dann gemeinsam in den Dialog zu treten.

Wir wünschen uns, dass möglichst viele mitmachen, um eine große Tragkraft zu erzielen.

Sie können sich zur Online-Veranstaltung Fraunhofer CCPE compact »Auswirkungen von recycelten Kunststoffen – Ein Stakeholder-Ansatz zur Ermittlung eines Konsenses in der Ökobilanz« am 20. Juni 2024 von 14:00 Uhr bis 16:00 Uhr hier kostenfrei anmelden. Die Veranstaltung findet online auf Englisch statt.

Weitere Informationen:
https://www.ccpe.fraunhofer.de/de/aktuelles/veranstaltungen/2024/fraunhofer-ccpe… (Weitere Informationen zur Veranstaltung)

(nach oben)


MCC: CO₂-Bepreisung wirkt – große Metastudie zeigt so umfassend wie noch nie die Befunde

Zwischen 5 und 21 Prozent Emissionsrückgang: Das ist der empirisch gemessene Effekt in den ersten Jahren nach dem Start von Systemen zur CO₂-Bepreisung. Ein Forschungsteam zeigt diese Befunde jetzt für 17 Ausprägungen realer Klimapolitik rund um den Globus – und verdichtet damit so umfassend wie nie zuvor den Erkenntnisstand. Es ermittelt mit künstlicher Intelligenz die bisherigen Erhebungen und macht sie mit einem neuartigen Rechenkonzept vergleichbar. Die große Metastudie wurde geleitet vom Berliner Klimaforschungsinstitut MCC (Mercator Research Institute on Global Commons and Climate Change) und in der renommierten Fachzeitschrift Nature Communications publiziert.

„Diese Forschungsarbeit kann helfen, die ordnungspolitische Debatte über die prinzipielle Ausrichtung der Klimapolitik vom Kopf auf die Füße zu stellen“, sagt Ottmar Edenhofer, Direktor des MCC und ein Co-Autor der Untersuchung. „Von der Politik wird ja die Idee, den Treibhausgas-Ausstoß über den Preis zu drosseln, immer wieder in ihrer Wirksamkeit angezweifelt, und man fokussiert sich stattdessen oft übermäßig auf Verbote und Vorschriften. Sicherlich braucht es in der Regel einen Policy-Mix – doch der Glaubensstreit darüber, was das klimapolitische Leitinstrument sein sollte, lässt sich mit Fakten klären.“

Ausgangspunkt der Metastudie ist eine Frage wie in einem Laborexperiment: Wie veränderte sich nach dem Start von CO₂-Bepreisung der Ausstoß, relativ zu einem simulierten Business-as-usual-Szenario? Über eine Stichwortsuche in Literaturdatenbanken ermittelte das Forschungsteam fast 17.000 potenziell einschlägige Studien und suchte dann in aufwendiger Feinarbeit – und unterstützt von Methoden des maschinellen Lernens – 80 Studien heraus, die für diese Fragestellung wirklich relevant sind. Davon sind allein 35 zu Pilotsystemen in China, 13 zum EU-Emissionshandel, 7 und 5 zu den größeren Pilotsystemen in British Columbia in Kanada und „Regional Greenhouse Gas Initiative“ in den USA sowie Studien zu weiteren Systemen in Australien, Finnland, Großbritannien, Japan, Kanada, Schweden, der Schweiz, Südkorea und den USA. Die zuvor größte Metastudie umfasste nur knapp halb so viele Studien.

Aus den Erhebungen wurden dann im zweiten Schritt die Schlüsseldaten ausgelesen: etwa die statistischen Messzahlen zur Wirkung der jeweiligen CO₂-Preis-Einführung, die Art ihrer Umsetzung als Steuer oder Emissionshandel sowie Geltungsbereich und Zeitpunkt der Einführung, und auch der je nach Erhebung unterschiedlich lange Beobachtungszeitraum. In der Metastudie werden diese Messungen standardisiert und damit vergleichbar gemacht. Zudem werden die Ergebnisse mit Blick auf Schwachpunkte bei den Primärerhebungen korrigiert, etwa ein Design abweichend vom üblichen Setting eines Laborexperiments oder die Neigung, nur statistisch signifikante Effekte zu publizieren und Mini-Effekte unter den Tisch fallen zu lassen. Das Forschungsteam macht das dazu eigens entwickelte Rechenkonzept öffentlich zugänglich und betont: Es taugt als Gerüst auch für künftige Updates, so dass bei flächendeckenderer und höherer CO₂-Bepreisung die Wirkung auf die Emissionen laufend neu bilanziert werden kann.

Aus den bisherigen empirischen Daten ergibt sich unter anderem, dass die Einführung von CO₂-Bepreisung in einigen chinesischen Provinzen einen überdurchschnittlich starken Effekt auf die Emissionsbilanz hatte. Generell steigern insbesondere ein offensives Politik-Design („Ankündigungseffekt“) und ein günstiges Umfeld (niedrige CO₂-Vermeidungskosten) die Wirkung. Hingegen spielt die Frage, ob der CO₂-Preis über eine Steuer oder einen Emissionshandel realisiert wird, aus Sicht des Forschungsteams in den Befunden eine geringere Rolle als in der politischen Diskussion.

Die Metastudie beleuchtet auch die anhaltende Notwendigkeit, hier empirisch zu forschen. „Bei gut 50 weiteren Systemen von CO₂-Bepreisung wurde der Effekt auf die Emissionsbilanz noch gar nicht wissenschaftlich evaluiert“, berichtet Niklas Döbbeling-Hildebrandt, Doktorand in der MCC-Arbeitsgruppe Angewandte Nachhaltigkeitsforschung und Leitautor. „Auch die zuletzt deutlich gestiegenen CO₂-Preise sind noch nicht im Blick. Zudem zeigt unser systematischer Literatur-Review die Verbesserungspotenziale bei der Methodik, für präzise und verzerrungsfreie Erhebungen. Neue Standards und weitere Feldarbeit in diesem Bereich sind also wichtig. Es braucht umfassende und aussagekräftige Forschungssynthese, auch zur Wirksamkeit anderer Politikinstrumente, damit die Klimapolitik Bescheid weiß, was wirkt.“

Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/doebbeling-niklas.html

Originalpublikation:
Döbbeling-Hildebrandt, N., Miersch, K., Khanna, T., Bachelet, M., Bruns, S., Callaghan, M., Edenhofer, O., Flachsland, C., Forster, P., Kalkuhl, M., Koch, N., Lamb, W., Ohlendorf, N., Steckel, J., Minx, J., 2024, Systematic review and meta-analysis of ex-post evaluations on the effectiveness of carbon pricing, Nature Communications
https://doi.org/10.1038/s41467-024-48512-w

Weitere Informationen:
https://www.mcc-berlin.net

Anhang
MCC: CO₂-Bepreisung wirkt – große Metastudie zeigt so umfassend wie noch nie die Befunde
https://idw-online.de/de/attachment102978

(nach oben)


Allgegenwärtige Kunststoffe biologisch abbaubar machen

Polystyrol wird aus Styrol-Bausteinen hergestellt und ist der mengenmäßig am meisten verwendete Kunststoff, zum Beispiel für Verpackungen. Anders als PET, das inzwischen biotechnologisch hergestellt und auch recycelt werden kann, ist die Herstellung von Polystyrol bislang eine rein chemische Angelegenheit. Auch abgebaut werden kann der Kunststoff nicht biotechnologisch.

Das wollen Forschende ändern: Ein internationales Team unter Leitung von Dr. Xiaodan Li vom Paul Scherrer Institut, Schweiz, unter Beteiligung von Prof. Dr. Dirk Tischler, Leiter der Arbeitsgruppe Mikrobielle Biotechnologie der Ruhr-Universität Bochum, hat ein bakterielles Enzym entschlüsselt, das eine Schlüsselrolle im Styrolabbau einnimmt. Damit ist der Weg zur biotechnologischen Anwendung frei. Die Forschenden berichten in der Zeitschrift Nature Chemistry vom 14. Mai 2024.

Styrol in der Umwelt
„Jedes Jahr werden mehrere Millionen Tonnen Styrol produziert und transportiert“, so Dirk Tischler. „Dabei kommt es auch zur unbeabsichtigten Freisetzung in die Natur.“ Das ist aber nicht die einzige Quelle von Styrol in der Umwelt: Es kommt natürlicherweise in Stein- und Braunkohlenteer vor, kann in Spuren in essenziellen Ölen von einigen Pflanzen auftreten oder entsteht beim Abbau von Pflanzenmaterial. „Daher ist es gar nicht verwunderlich, dass Mikroorganismen gelernt haben, damit umzugehen oder es sogar zu verstoffwechseln“, so der Forscher.

Schnell, aber aufwändig: der mikrobielle Styrolabbau
Bakterien und Pilze sowie auch der menschliche Körper aktivieren Styrol unter Zuhilfenahme von Sauerstoff und bilden Styroloxid. Styrol selbst ist giftig, Styroloxid jedoch noch schädlicher. Daher ist die schnelle Verstoffwechselung entscheidend. „In manchen Mikroorganismen und auch im menschlichen Körper wird das so gebildete Epoxid in der Regel mittels Glutathion konjugiert und damit wasserlöslicher gemacht, wodurch ein Abbau, aber auch die Ausscheidung vereinfacht werden“, erklärt Dirk Tischler. „Dieser Weg ist sehr schnell, aber für die Zellen auch sehr teuer. Es muss quasi für jedes Molekül Styroloxid ein Glutathion-Molekül geopfert werden.“

Die Bildung des Glutathion-Konjugats und ob, beziehungsweise wie Glutathion zurückgewonnen werden kann, ist Teil der aktuellen Forschung in der von der Deutschen Forschungsgemeinschaft geförderten Graduiertenschule MiCon an der Ruhr-Universität. Einige Mikroorganismen haben eine günstigere Variante entwickelt. Sie nutzen zum Abbau des Epoxids ein kleines Membranprotein, die Styroloxid-Isomerase.

Styroloxid-Isomerasen sind effizienter
„Schon nach der ersten Anreicherung der Styroloxid-Isomerase aus dem Bodenbakterium Rhodococcus konnten wir dessen rötlich Farbe wahrnehmen und zeigen, dass dieses Enzym in der Membran gebunden ist“, berichtet Dirk Tischler. Über die Jahre hat er mit seinem Team verschiedenste Enzyme der Familie untersucht und vor allem in der Biokatalyse eingesetzt. All diese Styroloxid-Isomerasen sind katalytisch hoch effizient, sehr schnell und verbrauchen zudem keine anderen Stoffe (Co-Substrate). Damit erlauben sie eine schnelle Entgiftung des toxischen Styroloxids im Organismus und zudem eine potente biotechnologische Anwendung im Bereich der Feinchemikalien-Synthese.

„Um letztere optimieren zu können, ist aber ein Verständnis der Funktion nötig“, erklärt Dirk Tischler. „Das konnten wir in der internationalen Kooperation zwischen Forschenden aus der Schweiz, Singapur, den Niederlanden und Deutschland erheblich voranbringen.“ Das Team konnte zeigen, dass das Enzym als Trimer mit drei identischen Einheiten in der Natur vorliegt. Die Strukturuntersuchungen zeigten, dass zwischen jeder Untereinheit je ein Häm-Cofaktor sitzt und dieser mit einem Eisenion beladen ist. Das Häm bildet dabei einen essenziellen Teil der sogenannten aktiven Tasche und ist relevant für die Fixierung und Umsetzung des Substrates. Das Eisenion des Häm-Cofaktors koordiniert dabei das Sauerstoffatom des Styroloxids und aktiviert so das Substrat. „Damit konnte eine neue biologische Funktion von Häm in Proteinen umfassend beschrieben werden“, resümiert Dirk Tischler.

Förderung
Die Arbeiten werden zum Teil durch die Deutsche Forschungsgemeinschaft im Rahmen des Graduiertenkollegs MiCon unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dirk Tischler
Arbeitsgruppe Mikrobielle Biotechnologie
Fakultät für Biologie und Biotechnologie
Ruhr-Universität Bochum
Tel.: +49 234 32 22656
E-Mail: dirk.tischler@ruhr-uni-bochum.de

Originalpublikation:
Basavraj Khanppnavar et al.: Structural Basis of the Meinwald Rearrangement Catalyzed by Styrene Oxide Isomerase, in: Nature Chemistry, 2024, DOI: 10.1038/s41557-024-01523-y,
https://www.nature.com/articles/s41557-024-01523-y

(nach oben)


Neu entdeckte Symbiose aus Rhizobien und Kieselalgen löst großes Rätsel des Meeres

Forschende des Max-Planck-Instituts für Marine Mikrobiologie haben im Meer eine bisher unbekannte Partnerschaft zwischen einer Kieselalge und einem Bakterium gefunden, die für große Teile der Stickstofffixierung in weiten Ozeanregionen verantwortlich sein kann. Der neu beschriebene, bakterielle Symbiont ist eng verwandt mit stickstofffixierenden Rhizobien, die mit vielen Kulturpflanzen zusammenleben. Diese Entdeckung könnte neue Wege für die Entwicklung von stickstofffixierenden Pflanzen eröffnen.

Stickstoff ist ein unverzichtbarer Bestandteil des Lebens. Er steuert zudem das Wachstum von Nutzpflanzen an Land ebenso wie von mikroskopisch kleinen Meerespflanzen, die die Hälfte des Sauerstoffs auf unserem Planeten produzieren. Der größte Teil des weltweiten Stickstoffvorrats besteht aus atmosphärischem Stickstoff, den Pflanzen aber nicht direkt nutzen können. Stattdessen haben Nutzpflanzen, wie Soja, Erbsen und Alfalfa (zusammenfassend als Hülsenfrüchtler bezeichnet), Bakterien als Partner gewonnen, die sogenannten Rhizobien, die den atmosphärischen Stickstoff in Ammonium „fixieren“. Diese Partnerschaft macht Hülsenfrüchte zu einer der wichtigsten Eiweißquellen in der Lebensmittelerzeugung.

Forschende des Max-Planck-Instituts für Marine Mikrobiologie in Bremen berichten nun, dass Rhizobien mit winzigen Meerespflanzen, den Kieselalgen, ganz ähnliche Partnerschaften eingehen können. Diese Entdeckung löst ein seit langem bestehendes Rätsel der Meeresforschung und bietet möglicherweise weitreichende Anwendungen in der Landwirtschaft.

Ein rätselhafter mariner Stickstofffixierer, versteckt in einer Kieselalge
Viele Jahre lang ging man davon aus, dass der Großteil der Stickstofffixierung in den Ozeanen von photosynthetischen Lebewesen, den Cyanobakterien, durchgeführt wird. Allerdings gibt es in weiten Teilen des Ozeans gar nicht genug Cyanobakterien für die gemessene Stickstofffixierung. Wegen dieser Unstimmigkeit vermuteten viele Forschende, dass nicht-cyanobakterielle Mikroorganismen für die „überschüssige“ Stickstofffixierung verantwortlich sind. „Seit Jahren finden wir in Meerwasserproben Genfragmente des für die Stickstofffixierung verantwortlichen Enzyms Nitrogenase, die aber scheinbar nicht zu Cyanobakterien gehören“, sagt Marcel Kuypers, Hauptautor der Studie. „Aber wir konnten nicht genau feststellen, um welchen rätselhaften Organismus es sich handelte. So konnten wir auch nicht untersuchen, ob er wirklich wichtig für die Stickstofffixierung ist“.

Deswegen beteiligten sich die Bremer Forschenden im Jahr 2020 an einer Expedition mit zwei deutschen Forschungsschiffen in den tropischen Nordatlantik. In dieser Region, in der ein großer Teil der marinen Stickstofffixierung stattfindet, sammelten sie Hunderte Liter Seewasser in der Hoffnung, darin den mysteriösen Stickstofffixierer zu identifizieren und quantifizieren. Es dauerte drei Jahre, bis sie schließlich sein Genom entschlüsseln konnten. „Es war eine lange und mühsame Detektivarbeit”, sagt Bernhard Tschitschko, Erstautor der Studie und Bioinformatik-Experte, „aber letztendlich konnten wir anhand des Genoms viele Rätsel lösen.“ Das erste war die Identität des Organismus: „Obwohl wir wussten, dass das Nitrogenase-Gen von einem Verwandten der Vibrio-Bakterien kommt, zeigte sich erstaunlicherweise, dass der Organismus selbst eng mit den Rhizobien verwandt ist, die in Symbiose mit Hülsenfrüchtlern leben“, so Tschitschko. Und weil diese Rhizobie auch noch ein sehr kleines Genom hat, erschien es gut möglich, dass sie ein Symbiont ist.

Die erste bekannte Symbiose dieser Art
Angespornt von diesen Entdeckungen entwickelten die Forschenden daraufhin eine Gensonde, durch die sie die Rhizobien mit einem fluoreszierenden Farbstoff markieren konnten. Als sie diese Sonde an den Wasserproben aus dem Nordatlantik einsetzten, sahen sie ihre Vermutung klar bestätigt: Es handelt sich bei dem Rhizobium um einen Symbionten. „In den Kieselalgen fanden wir an immer der gleichen Stelle innerhalb der Alge jeweils Gruppen von vier Rhizobien“, berichtet Kuypers. „Es war wirklich aufregend, denn das war die erste jemals entdeckte Symbiose zwischen einer Kieselalge und einem nicht-cyanobakteriellen Stickstofffixierer.“

Die Bremer Forschenden nannten den neu entdeckten Symbionten Candidatus Tectiglobus diatomicola. Nachdem sie nun endlich geklärt hatten, wer der fehlende Stickstofffixierer war, konnten sie sich den Details der Symbiose zuwenden. Mithilfe einer Technologie namens nanoSIMS konnten sie zeigen, dass die Rhizobie der Kieselalge fixierten Stickstoff im Austausch gegen Kohlenstoff liefert. Dabei strengt sie sich richtig an: „Um die Kieselalge in ihrem Wachstum zu unterstützen, fixiert das Bakterium 100-mal mehr Stickstoff, als es für sich selbst benötigen würde“, erklärt Wiebke Mohr, eine der MitautorInnen.

Eine entscheidende Rolle für die Produktivität des Meeres
Als nächstes wandte sich das Forschungsteam wieder den Ozeanen zu: Wie wichtig ist die neu entdeckte Symbiose in der Umwelt? Es zeigte sich, dass diese Lebensgemeinschaft in den Weltmeeren weit verbreitet ist, insbesondere in jenen Regionen, in denen cyanobakterielle Stickstofffixierer selten sind. Diese winzigen Organismen spielen also wahrscheinlich eine Hauptrolle bei der weltweiten marinen Stickstofffixierung und sind daher entscheidend, um die Produktivität der Meere und die globale Aufnahme von Kohlendioxid durch den Ozean zu gewährleisten.

Ein spannender Kandidat für Entwicklungen in der Landwirtschaft
Neben ihrer Bedeutung für die marine Stickstofffixierung birgt die nun vorgestellte Entdeckung aber möglicherweise noch ganz andere Potenziale: Kuypers denkt dabei besonders daran, was die Entdeckung aus evolutionärer Sicht bedeutet. „Die evolutionären Anpassungen von Ca. T. diatomicola sind dem endosymbiotischen Cyanobakterium UCYN-A sehr ähnlich, das wie eine stickstofffixierende Organelle im Frühstadium ist. Man könnte also spekulieren, dass Ca. T. diatomicola und sein Wirt sich ebenfalls in einem frühen Stadium der Entwicklung zu einem einzigen Organismus befinden könnten.“

Auch Tschitschko findet die Identität des Symbionten besonders spannend. „Bislang wurden solche Organellen nur bei Cyanobakterien nachgewiesen. Wenn es sie aber auch bei Rhizobien gäbe, könnte das weitreichende Konsequenzen haben angesichts der gewaltigen Bedeutung dieser Bakterien für die Landwirtschaft.” Die Winzigkeit und die Ähnlichkeit zu einer Organelle bedeutet, dass sie eines Tages ein Schlüsselkandidat für die Entwicklung von stickstofffixierenden Pflanzen sein könnten.“

Die Forschenden werden nun die neu entdeckte Symbiose weiter untersuchen, um festzustellen, ob es in den Ozeanen noch weitere solche Partnerschaften gibt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcel Kuypers
Abteilung Biogeochemie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-6020
E-Mail: mkuypers@mpi-bremen.de

Dr. Wiebke Mohr
Abteilung Biogeochemie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-6300
E-Mail: wmohr@mpi-bremen.de

Originalpublikation:
Bernhard Tschitschko, Mertcan Esti, Miriam Philippi, Abiel T. Kidane, Sten Littmann, Katharina Kitzinger, Daan R. Speth, Shengjie Li, Alexandra Kraberg, Daniela Tienken, Hannah K. Marchant, Boran Kartal, Jana Milucka, Wiebke Mohr, Marcel M. M. Kuypers (2024): Rhizobia-diatom symbiosis fixes missing nitrogen in the ocean. Nature (2024)
DOI: XXXX

Weitere Informationen:
https://www.mpi-bremen.de/Page6225.html

(nach oben)


Auch Ingenieur*innen brauchen juristische Kenntnisse

Der engagierte Professor für Umwelt- und Klimaschutzrecht an der Technischen Hochschule Bingen mag die Herausforderungen seines Fachgebiets. Warum seine Themen heute gefragter denn je sind.

Bingen-Büdesheim – Mit Dr. iur. Alfred Stapelfeldt, seit Januar 2024 Professor für Umwelt- und Klimaschutzrecht, hat die Technische Hochschule Bingen einen engagierten Juristen gewonnen. Er möchte die Nachwuchsingenieur*innen ermutigen, keine Scheu vor unbekannten Themen oder Fragen zu haben. Ihn motiviert besonders, wenn er sieht, wie sich die jungen Menschen weiterentwickeln und das Erlernte umsetzen. „Ich möchte die Studierenden befähigen, kompetent mit juristischen Themen umzugehen. Mit dem, was Sie bei uns lernen, werden Sie auch schwierige Fragestellungen bewältigen können“, motiviert er seine Schützlinge.

Alfred Stapelfeldt wurde in Lübeck geboren und studierte Rechtswissenschaften in Osnabrück. Das Referendariat absolvierte er in Darmstadt und Frankfurt am Main. Nach seiner Dissertation zu einem umweltrechtlichen Thema war er zunächst 23 Jahre als Rechtsanwalt sowie Fachanwalt für Verwaltungsrecht tätig. Bevor er an die TH Bingen berufen wurde, hatte er bereits zwölf Jahre lang Umweltrecht an der Hochschule Mainz gelehrt. In Bingen betreut er schwerpunktmäßig die interdisziplinären Bachelor-Studiengänge Umweltschutz sowie Klimaschutz und Klimaanpassung.

Während seiner Studienzeit wurde dem Juristen klar, wie wichtig das Umweltrecht ist, wenn man Umwelt- und Klimaschutz wirksam umsetzen möchte. Beim Wandel hin zu mehr Klimaschutz und Nachhaltigkeit sowie im Alltag spielen die beiden Rechtsgebiete eine große Rolle. Als Beispiele nennt Stapelfeldt den Klimabeschluss des Bundesverfassungsgerichts aus dem Jahr 2021, die Gesetze zur Energiewende oder auch das kontrovers diskutierte Gebäudeenergiegesetz. Diese Rechtsbereiche sind sehr dynamisch und bieten immer neue Herausforderungen. Genau diese Abwechslung findet der Professor reizvoll.

Egal, wo die künftigen Ingenieur*innen einmal arbeiten: Überall werden sie mit juristischen Fragestellungen konfrontiert sein. Stapelfeldt freut sich darauf, ihnen nicht nur die Theorie, sondern auch Wissen und Erfahrungen aus der Praxis zu vermitteln. Stapelfeldts Credo: „Engagiert euch für die Dinge, die euch wichtig sind. Dann kommt der Spaß fast von allein.“

(nach oben)


Berufsbildungsbericht 2024 veröffentlicht

BIBB-Hauptausschuss verabschiedet Stellungnahme

Der BIBB-Hauptausschuss hat eine Stellungnahme zum vom Bundesministerium für Bildung und Forschung vorgelegten Berufsbildungsbericht 2024 verabschiedet. Der Ausschuss hat die gesetzliche Aufgabe, die Bundesregierung in grundsätzlichen Fragen der Berufsbildung zu beraten.

Der Berufsbildungsbericht 2024 ist am heutigen Mittwoch im Anschluss an die Befassung des Bundeskabinetts vom Bundesministerium für Bildung und Forschung (BMBF) veröffentlicht worden (http://www.bmbf.de/berufsbildungsbericht). Parallel mit dem Erscheinen des Berufsbildungsberichts veröffentlicht der Hauptausschuss des Bundesinstituts für Berufsbildung (BIBB) auch seine Stellungnahme. Diese hatte der BIBB-Hauptausschuss zuvor in seiner Sitzung am 22. März 2024 auf der Grundlage des vom BMBF vorgelegten Entwurfs des Berufsbildungsberichts verabschiedet.

In seiner gemeinsamen Stellungnahme würdigt der BIBB-Hauptausschuss, dass das System der beruflichen Bildung vielen jungen Menschen nach dem Schulabschluss einen Einstieg in das Erwerbsleben ermöglicht und den Betrieben qualifizierte Fachkräfte sichert. Auch wenn die jüngsten Trends in einigen Bereichen auf dem Ausbildungsmarkt – mehr Verträge, mehr Angebote, steigende Nachfrage – positiv bewertet werden können, steht die Berufsbildung weiterhin vor großen Herausforderungen. Diese verlangen von den Akteuren der beruflichen Bildung Aufmerksamkeit und Strategien zum Gegensteuern. Die berufliche Bildung muss noch größere Wertschätzung erfahren, und die Gleichwertigkeit zur hochschulischen Ausbildung sollte gefördert werden. Um alle jungen Menschen in Ausbildung zu bringen und den Fachkräftemangel zu bekämpfen, ist es notwendig, alle Potenziale für die Berufsausbildung zu heben.

Der BIBB-Hauptausschuss hat die gesetzliche Aufgabe, die Bundesregierung in grundsätzlichen Fragen der Berufsbildung zu beraten. Dazu gehört laut Berufsbildungsgesetz (BBiG) auch die Stellungnahme zum Entwurf des Berufsbildungsberichts. Der Hauptausschuss ist zu gleichen Teilen mit Vertreterinnen und Vertretern von Bund, Ländern sowie Arbeitgeber- und Arbeitnehmerorganisationen besetzt.

Die gemeinsame Stellungnahme des BIBB-Hauptausschusses sowie die ergänzenden Voten der Gruppen der Beauftragten der Arbeitgeber, der Arbeitnehmer und der Länder im Wortlaut:
http://www.bibb.de/dokumente/pdf/stellungnahmezumbbb2024.pdf

(nach oben)


Forschungsprojekt zeigt: Wärmepumpen können signifikanten Beitrag zur Flexibilisierung des Stromnetzes leisten

Wärmepumpen gelten als wichtiger Baustein für das Heizungssystem einer dekarbonisierten Zukunft, denn sie heizen und kühlen effizient mit Strom. Besonders sinnvoll sind sie in einem Energiesystem auf Basis erneuerbarer Energien, da ihr Verbrauch gut planbar und die Wärme speicherbar ist. Dadurch kann die Heizung flexibel auf die Energieerzeugung aus Sonne und Wind reagieren und somit das Stromnetz unterstützen. Das ist das Ergebnis eines länderübergreifenden Forschungsprojektes der Internationalen Energieagentur (IEA). Aus Deutschland waren die Fraunhofer-Institute IEE (Kassel) und ISE (Freiburg) beteiligt.

Im Rahmen des dreijährigen Forschungsprojekts wurde an 28 unterschiedlichen Standorten in Dänemark, Schweden, Österreich, den Niederlanden und Deutschland der flexible und stromnetzdienliche Betrieb von Wärmepumpen untersucht. Daraus lassen sich nun Best Practices für den technischen Betrieb und den regulatorischen Rahmen ableiten. Wie gut das Zusammenspiel in einem Gesamtsystem mit vielen dezentralen Wärmepumpen funktioniert und welchen Beitrag die Anlagen für das Stromnetz leisten, wurde in den aktuell publizierten Veröffentlichungen des IEA HPT Annex 57 Projektes dokumentiert.

Um CO₂-Emissionen von Heizung und Klimatisierung zu senken, suchen viele europäische Länder derzeit nach Alternativen zu einer Feuerung mit Öl und Gas. „Die Klimaziele von Paris fordern einen sehr bewussten Umgang mit den vorhandenen Ressourcen. Für die Wärmeversorgung bedeutet das, möglichst viel vorhandene Energie zu verwenden und bedarfsgerecht zu ergänzen“, erläutert Projektleiter Dr. Dietrich Schmidt, Fraunhofer IEE, die Motivation der Wissenschaftler und Wissenschaftlerinnen.

Effiziente Nutzung von Wärmepumpen zur Dekarbonisierung des Heizungssystems
Als innovative Technologie nutzen Wärmepumpen vorhandene Wärme aus der Umwelt und bringen diese mit Strom auf die gewünschte Temperatur. Die möglichen Wärmequellen sind vielfältig: vorhandene Wärme in Boden oder Luft, Abwärme aus Industrieprozessen, Rechenzentren, Müllverbrennung oder Kraftwerken können direkt oder über ein Fernwärmesystem integriert werden. Der benötigte Strom wird perspektivisch CO₂-frei erzeugt und unterstützt die Dekarbonisierung des Heizungssystems.

Gemeinsam haben Forschungsinstitute aus Dänemark, Schweden, Österreich, den Niederlanden und Deutschland im Rahmen des IEA-Projektes die Technologien, Marktbedingungen, Geschäftsmodelle und Anwendungsfälle für Wärmepumpen unterschiedlicher Größe verglichen. Im Ergebnis liegt nun eine Übersicht mit 28 realen Projekten aus mehreren europäischen Ländern vor, die die Best Practices für verschiedene Anwendungsfälle darstellt.

Wärmepumpen gibt es in unterschiedlichen Größenklassen, sodass sie Einzelhäuser oder auch gesamte Stadtquartiere mit Wärme beliefern können. Für Deutschland zeigen sieben unterschiedliche Vorzeigeprojekte, wie ein netzdienlicher Betrieb von Wärmepumpen funktioniert und welche Effizienzgewinne dadurch ermöglicht werden. Dieses wird von den Fraunhofer-Instituten IEE und ISE für Standorte in Berlin, Mannheim, Rosenheim, Neuburg an der Donau, Stuttgart und Karlsruhe beschrieben.

Die besondere Eigenschaft von Wärmepumpen ist, auch geringe Temperaturniveaus aus Abwärme, Geothermie oder der Luft im Wärmemarkt sinnvoll nutzen zu können. Dadurch können die Anlagen mit einem vorhandenen Energiesystem kombiniert werden. Im Modellprojekt in Karlsruhe Durlach wurden Mehrfamilienhäuser aus den 1960er Jahren energetisch saniert und mit einem neuen Energiesystem ausgestattet, welches Photovoltaik, dezentrale Wärmepumpen und Speicher kombiniert. Im Ergebnis sanken die CO₂-Emissionen um 28 Prozent.

Großwärmepumpen können natürliche Wärmequellen und industrielle Abwärme mit hohem Energiepotenzial auch auf niedrigem Temperaturniveau nutzen. Denn vorhandene Wärmequellen liegen oft nicht in unmittelbarer Nähe der Verbraucher. In Gebieten mit hohem spezifischem Wärmebedarf, die mit Fernwärme versorgt werden können, können Großwärmepumpen für eine effiziente strombasierte Wärmeversorgung sorgen. So wurde in Mannheim in einem Kraftwerk, dessen Abwärme das Fernwärmesystem der Stadt speist, zusätzlich eine Großwärmepumpe installiert, die mit der Energie aus dem Rhein weitere klimaneutrale Energie in das Fernwärmesystem liefert.

Flexible Steuerung passt sich fluktuierender Stromerzeugung an
Darüber hinaus sorgen Wärmepumpen für einen Ausgleich des Energiesystems und können das Stromnetz unterstützen: Denn Wärmepumpen können auf die Schwankungen in der Stromerzeugung aus Wind und Sonne reagieren. Da sich Wärme besser als Strom speichern lässt, können die Anlagen mit einem Wasserspeicher kombiniert auf Vorrat heizen, wenn ausreichend Strom im Netz bereitsteht und dieser besonders preisgünstig ist. Andersherum schaltet sich die Wärmepumpe ab, wenn wenig Energie aus Sonne und Wind zur Verfügung steht. Damit wird der Netzbetrieb besser planbar und steuerbar und der Verbraucher profitiert von Preisschwankungen im Strommarkt.

„Wärmepumpen passen gut in ein klimaneutrales Energiesystem, denn sie lassen sich so betreiben, dass sie sich nach dem Stromangebot richten. Durch eine zentrale netzdienliche Steuerung können sie sich einschalten, wenn Sonne und Wind ausreichend Strom liefern. Damit tragen sie zur Glättung von Last- und Erzeugungsspitzen im Stromnetz bei. Diese Flexibilität ist ein wichtiger Bestandteil für ein künftiges Energiesystem“, berichtet Schmidt.

Neben den technischen Fragen wurden im Rahmen des Forschungsauftrags auch die unterschiedlichen Rahmenbedingungen für die Geschäftsmodelle in den verschiedenen europäischen Ländern verglichen: „In Dänemark und Schweden haben bereits sehr viele Haushalte eine Heizung mit Wärmepumpe. Aus den dortigen Erfahrungen lässt sich ableiten, wie flexibel der Heizungssektor funktionieren kann“, berichtet Axel Oliva, Fraunhofer ISE. „Fallbeispiele aus den Niederlanden zeigen besonders eindrucksvoll, wie ein smarter Betrieb von Wärmepumpen Lastspitzen im Netz reduzieren kann“, so Oliva weiter.

Wärmepumpen verbinden Heizen und Speichern
Beim flächendeckenden Austausch von alten Heizungssystemen könnten zusätzliche Flexibilitäten für den Stromsektor entstehen. Denn bisher werden zum Ausgleich von Erzeugungsschwankungen bei Sonne und Wind vor allem mit fossilen Brennstoffen betriebene Kraftwerke hochgefahren. Mit Wärmepumpen wird die Stromnachfrage deutlich flexibler. Wenn Sonne und Wind nicht genügend Strom liefern, können Wärmepumpen ihren Betrieb vorübergehend drosseln. „Die Sorge, dass der Betrieb von Wärmepumpen das Stromnetz überlastet, ist unbegründet, wenn diese netzdienlich gesteuert werden“, resümiert Oliva, Fraunhofer ISE.

Wissenschaftliche Ansprechpartner:
Dr. Dietrich Schmidt, Fraunhofer IEE

Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2024/waermepumpen-leisten-beitrag-zur-flexibilisierung-des-stromnetzes.html

(nach oben)


Meeresbakterien produzieren gemeinsam ein lebenswichtiges Vitamin

Zwei Arten von Meeresbakterien aus der Nordsee pflegen eine ungewöhnliche und teils zerstörerische Beziehung, um gemeinsam das wichtige Vitamin B12 herzustellen. Das berichten Forschende aus Oldenburg und San Diego im Wissenschaftsmagazin „Nature“. Die Experimente des Teams decken auf, dass die beiden Mikrobenarten eine koordinierte Strategie entwickelt haben, um an das knappe, aber essentielle Vitamin zu kommen.

Die komplexe Interaktion von Kleinstlebewesen im Meer besser verstehen: Diesem Ziel ist ein deutsch-amerikanisches Forschungsteam um den Oldenburger Mikrobiologen Dr. Gerrit Wienhausen ein Stück nähergekommen. Die Forschenden analysierten anhand verschiedener Experimente das Zusammenspiel zweier Bakterienarten aus der Nordsee bei der Produktion von Vitamin B12 und veröffentlichten ihre Ergebnisse nun im Wissenschaftsmagazin „Nature“.

Vitamin B12 ist (unter anderem) im Meer ein knappes Gut und nicht nur für den Stoffwechsel der beiden beteiligten Bakterienarten der Gattungen Roseovarius und Colwellia essenziell: „Die Hälfte aller Algenarten würde gar nicht überleben ohne dieses Vitamin“, erläutert Wienhausen. Allerdings können Algen – ebenso wie Menschen – es nicht selbst herstellen. Umso wichtiger war den Forschenden von der Universität Oldenburg und der Scripps Institution of Oceanography in San Diego (USA) daher der sehr genaue Blick auf die Meeresbakterien.

Während einzelne Bakterienstämme als Vitamin B12-Produzenten bekannt sind, lag der besondere Fokus in ihrem Forschungsvorhaben auf zwei Bakterien, die jeweils einen der beiden Bausteine von Vitamin B12 produzieren. Sie können den Stoff somit in Kooperation herstellen. „Es ist faszinierend, wie komplex das Zusammenspiel zwischen Bakterien sein kann“, betont Wienhausen im Hinblick auf die Publikation, die im Kontext des Sonderforschungsbereichs „Roseobacter“ unter Leitung von Prof. Dr. Meinhard Simon entstand. Der Oldenburger Mikrobiologe ist Ko-Autor der aktuellen Publikation.

Mit komplexen Labor-Experimenten und modernsten Analysemethoden gingen die Forschenden diesem Zusammenspiel auf den Grund. Demnach stellen Bakterien des Colwellia-Stammes M166 den kleineren Baustein des Vitamins her und geben diesen ins umgebende Wasser ab. Bakterien des Roseovarius-Stammes M141 hingegen produzieren nicht nur den großen Baustein – den Hauptbestandteil – sondern können aus beiden Komponenten auch das von beiden Bakterien benötigte Vitamin B12 synthetisieren.

Allerdings gibt Roseovarius das Vitamin von sich aus nicht ab. Freigesetzt wird es nur, wenn Colwellia bei seinem Kooperationspartner ein im bakteriellen Genom verankertes Virus aktiviert und dieses sich stark vermehrt. Diese Virusinfektion bringt einen Teil der betroffenen Roseovarius-Bakterien zum Platzen, so dass neben dem Virus auch das Vitamin B12 freigesetzt und auch für Colwellia (und möglicherweise für andere Meereslebewesen) verfügbar wird. „Diese fein abgestimmte wechselseitige Zufuhr von Stoffwechselbausteinen und -produkten könnte neben mikrobiellen Gemeinschaften im Meer auch in anderen Ökosystemen relevant sein“, resümieren die Forschenden des Oldenburger Instituts für Chemie und Biologie des Meeres (ICBM) und der Scripps Institution of Oceanography in „Nature“.

„Wir konnten hier zum ersten Mal zeigen, dass zwei Bakterien nur in Kooperation B12 produzieren“, ergänzt Wienhausen. „Eine derart komplexe Form des Zusammenwirkens von Bakterien war bisher gänzlich unbekannt.“

Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Transregio-Sonderforschungsbereichs (SFB) „Roseobacter“ haben mehr als 60 Forschende aus Oldenburg, Braunschweig, Göttingen und Bonn in den vergangenen 13 Jahren die Bakterien der Roseobacter-Gruppe unter die Lupe genommen. Diese kommen in allen Lebensräumen der Meere vor – von den Tropen bis in die Polarmeere, von der Wasseroberfläche bis in die Tiefsee. Die Forschenden entdeckten unter anderem viele neue Stämme und beschrieben deren Verbreitung und funktionelle Biogeografie in den Weltmeeren erstmals. Insgesamt basieren mehr als 280 veröffentlichte wissenschaftliche Artikel auf der Forschung im Kontext des SFB.

Wissenschaftliche Ansprechpartner:
Dr. Gerrit Wienhausen, E-Mail: gerrit.wienhausen@uol.de
Prof. Dr. Meinhard Simon, Tel.: 0442/798-5361, meinhard.simon@uol.de

Originalpublikation:
Gerrit Wienhausen, Cristina Moraru, Stefan Bruns, Den Quoc Tran, Heinz Wilkes, Leon Dlugosch, Farooq Azam, Meinhard Simon: Ligand crossfeeding resolves bacterial vitamin B12 auxotrophies. DOI: https://www.nature.com/articles/s41586-024-07396-y

Weitere Informationen:
https://uol.de/icbm/bgp

(nach oben)


IFAT 2024: Wasser im Kreis führen

Unter dem Motto »Water reuse for a sustainable future« stellt Fraunhofer UMSICHT auf der diesjährigen IFAT in München verschiedene Technologien zur Wasserkreislaufführung und Abwasseraufbereitung vor. Der Fokus liegt auf der verbesserten Abscheidung von Schadstoffen und einer höheren Ressourcen- und Energieeffizienz.

Bedingt durch Klimawandel und Bevölkerungswachstum wird die Ressource Wasser immer knapper. Zudem werden durch Abwässer umweltrelevante Substanzen wie Spurenstoffe, Mikroplastik oder PFAS eingeleitet – mit teils kritischen Folgen für das Ökosystem. Bisherige Technologien zur Abwasseraufbereitung sind ressourcen- und kostenintensiv und kommen bislang noch nicht flächendeckend zum Einsatz. Sie sind auch nur begrenzt effektiv, indem beispielsweise die vierte Reinigungsstufe einer Kläranlage nicht alle Spurenstoffe entfernen kann. Auch deshalb findet aktuell noch keine umfassende Wasserwiedernutzung zur Entlastung unserer Wasserversorgungssysteme statt.

Fraunhofer-Allianz »SysWasser«: Abwasserströme aufbereiten
In der Fraunhofer-Allianz »SysWasser« bündeln insgesamt neun Fraunhofer-Institute, darunter das Fraunhofer UMSICHT, ihre Kompetenzen in der Erforschung und Entwicklung rund um das Thema Wasserkreislauf. Ihr gemeinsames Ziel: Abwasserströme aus Industrieprozessen und der kommunalen Abwasserreinigung technisch so aufbereiten, dass Wasser im Prozess wiederverwendet werden kann und/oder keine umweltkritischen Stoffe in die Natur gelangen. »Wir wollen Wasser in verschiedenen Szenarien aufbereiten und recyceln, zum Beispiel in Industrieprozessen oder Wiederverwendung in der Landwirtschaft«, erklärt Lukas Rüller vom Fraunhofer UMSICHT. Gleichzeitig sollen aus chemischen Prozessen oder der Stahlindustrie Säuren und Laugen zurückgewonnen und so im Kreislauf geführt werden.

Das Oberhausener Forschungsinstitut ist im Rahmen von »SysWasser« unter anderem für das Thema Membrantechnik zuständig. Eine robuste Technologie, die flexibel zentral oder dezentral anwendbar ist. Je nach Anwendungsfall und zu entfernenden Bestandteilen kommen individuelle Lösungen zum Einsatz: Vorwärtsosmose, Reverse-Osmose, Ultra- oder Nanofiltration. Ein neuartiger Schwingfilter hilft, die Energieeffizienz zu steigern. Zur spezifischen Entfernung von Spurenstoffen eignen sich Adsorberharze oder CDI-Systeme (Capacitive deionization). Diese reversiblen Adsorptionstechnologien ermöglichen die Regeneration und Wiederverwendung des Adsorbermaterials, was wiederum den Materialverbrauch minimiert und gleichzeitig den Energieverbrauch optimiert.

Lukas Rüller: »Ein großer Vorteil unseres Angebots zur Abwasseraufbereitung ist, dass es nicht nur kosten- und ressourcenschonender ist, sondern auch die Rückgewinnung von potenziell wertvollen Abwasserbestandteilen ermöglichen kann.«

Willkommen auf dem IFAT-Messestand
Auf der diesjährigen IFAT stellt Fraunhofer UMSICHT das Schwingfiltermodul und weitere Technologien zur Abwasseraufbereitung aus. Außerdem können sich interessierte Messebesucherinnen und -besucher über die Nutzung von CO2 zur Produktion von Plattformchemikalien und das Projekt »Biolectid« informieren. In einem bio-elektrochemischen Fermentationsprozess wird hier aus Glukose und CO2 einer Biogasanlage biobasierte Bernsteinsäure hergestellt. Es werden technische Ansätze zur Herstellung von Biomethan aus CO2 einer Biogasanlage und grünem Wasserstoff gezeigt. Und es gibt Informationen zum biologischen Prüflabor, in dem zertifizierte Untersuchungen zum Abbau von Produkten wie Kunststoffen in der Umwelt (Kompost, Boden etc.) durchgeführt werden.

Fraunhofer UMSICHT vom 13. bis 17. Mai 2024 auf der IFAT in München: Stand B2.338. Wir freuen uns auf Ihren Besuch.

Weitere Informationen:
https://www.syswasser.de/ SysWasser
https://ifat.de/ IFAT 2024

(nach oben)


Neue Wege in der Ozeanbeobachtung: Kreuzfahrtschiff als Datensammler

Wissenschaftliche Forschung nicht nur von speziellen Forschungsschiffen aus zu betreiben, sondern auch von nicht-wissenschaftlichen Schiffen und marinen Infrastrukturen – das ist eine der Ideen der Helmholtz-Innovationsplattform „Shaping an Ocean Of Possibilities“ (SOOP), die neue Technologien und Strukturen in der Ozeanbeobachtung entwickeln soll. Jetzt hat SOOP eine Kooperation mit HX Hurtigruten Expeditions gestartet. Im Rahmen von Expeditions-Seereisen in entlegene Regionen sollen Meeresdaten für die Wissenschaft gesammelt werden. Die erste Expedition hat am Samstag in Hamburg begonnen, Zielhafen ist Reykjavik.

Die Innovationsplattform „Shaping an Ocean of Possibilities for science-industry collaboration“ (SOOP) will gemäß ihrem Titel einen „Ozean der Möglichkeiten“ für Kooperationen zwischen Wissenschaft und Industrie schaffen. Entstehen sollen nachhaltige Strukturen und Technologien für die Ozeanbeobachtung, um den Zugang zu Messdaten zu verbessern und das Wissen über unsere Meere auszubauen. Hierfür bringen das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und das Helmholtz-Zentrum Hereon Beteiligte aus Industrie, Zivilgesellschaft und Wissenschaft zusammen. Eine Idee: Wissenschaftliche Forschung nicht nur von speziellen Forschungsschiffen, sondern unter anderem auch von Kreuzfahrt- oder Handelsschiffen aus zu betreiben, um die Menge an Forschungsdaten zu steigern.

Kooperation mit Anbieter von Expeditions-Seereisen
Jetzt hat SOOP eine Kooperation mit HX Hurtigruten Expeditions gestartet. Im Rahmen dieses Projektes werden wissenschaftliche Daten von einem kommerziellen Expeditions-Kreuzfahrtschiff erhoben. Die Zusammenarbeit hat mit der Installation von Messgeräten an Bord von MS FRIDTJOF NANSEN im Hamburger Hafen begonnen. Von dort aus ist das Schiff am Samstag nach Reykjavik aufgebrochen. Auf seiner Reise, die über Norwegen sowie die Shetland- und Färöer-Inseln führt, werden dann Daten für die Forschung gesammelt. Mit an Bord: Melf Paulsen, wissenschaftlicher Ingenieur in der Forschungseinheit Chemische Ozeanographie am GEOMAR. Er wird nicht nur die Messinstrumente überwachen, sondern den Gästen der Seereise auch seine Arbeit und das Projekt in Vorträgen näherbringen.

Auf den folgenden acht Expeditionsreisen der FRIDTJOF NANSEN werden dann abwechselnd Wissenschaftler:innen der drei Forschungsinstitute GEOMAR, AWI und Hereon an Bord Daten sammeln und ihr Wissen an die Gäste weitergeben. Gemessen werden neben Temperatur und Sauerstoffgehalt des Wassers auch der Salz-, Mikroplastik- und CO2-Gehalt. Daneben soll erprobt werden, wie man mittels Messungen von Phytoplankton und Erbgutspuren im Wasser (eDNA) von kommerziellen Schiffen aus die biologische Vielfalt in den Gewässern untersuchen kann.

Neue Strategien für breite Datensammlung
„Wir entwickeln einfach zu handhabende Instrumente, die es uns ermöglichen, die bekannte und erprobte Umgebung der wissenschaftlichen Forschungsschiffe zu verlassen“, sagt Dr. Toste Tanhua, chemischer Ozeanograph am GEOMAR und Koordinator von SOOP. „Daneben brauchen wir einheitliche Standards für Daten und Analysen, um in allen Regionen ausreichend Informationen über unsere Ozeane sammeln zu können.“ Die Kooperation mit HX könne dabei helfen, neue und zukunftsfähige Strategien für die einfachere und umfassendere Datensammlung auf nicht-wissenschaftlichen Schiffen und marinen Infrastrukturen als Ergänzung zu den unverzichtbaren Expeditionen mit Forschungsschiffen zu entwickeln.

„Unsere Expeditions-Seereisen mit der FRIDTJOF NANSEN tragen ab sofort dazu bei, bestehende Datenlücken zu füllen“, sagt Dr. Verena Meraldi, wissenschaftliche Leiterin bei HX Hurtigruten Expeditions. „Damit können wir einen wichtigen Beitrag zum besseren Verständnis des Zustands wenig befahrener Meeresregionen leisten, und unsere Gäste haben die außergewöhnliche Möglichkeit, unmittelbar Einblick in laufende Forschungsarbeiten zu erhalten.“

Hintergrund SOOP:
Die Helmholtz-Innovationsplattform SOOP „Shaping an Ocean Of Possibilities“ wird mit 11 Millionen Euro aus dem Pakt für Forschung und Innovation, einer Forschungs-Förderinitiative des deutschen Bundes und der Länder, gefördert. Drei Helmholtz-Zentren arbeiten an dem Aufbau nachhaltiger Meeresbeobachtungsstrukturen im wachsenden Markt der New Blue Economy. Ziel ist es ein, „Meer der Möglichkeiten“ für Kooperationen zwischen Wissenschaft und Industrie im Bereich der Meerestechnik und -dienstleistungen zu schaffen und konkrete Innovationen schnell und flexibel für Wirtschaft und Gesellschaft verfügbar zu machen.

Hintergrund HX Hurtigruten Expeditions:
HX (Hurtigruten Expeditions) unternimmt seit 1896 Expeditionen an die entlegensten Orte der Erde. Heute ist HX führend im Bereich der Expeditions-Seereisen und bringt Reisende zu 250 außergewöhnlichen Zielen in 30 Ländern. Durch wissenschaftliche Vorträge und Aktivitäten an Bord haben Reisende die Möglichkeit, mehr über die Geschichte, Kultur sowie die Tier- und Pflanzenwelt der Orte zu erfahren, die sie auf den Expeditions-Seereisen besuchen. Bereits seit 2013 kooperiert HX Hurtigruten Expeditions im Rahmen ihres Wissenschafts- und Bildungsprogramms mit unterschiedlichen Forschungsinstituten weltweit. Den Forschenden werden Kabinen zur Verfügung gestellt, um ihre Projekte auf den Expeditionsreisen voranzutreiben und ihre Erkenntnisse im Rahmen des Vortragsprogramms an Bord mit den Gästen zu teilen. Ziel von HX ist es, das nachhaltigste Expeditionsunternehmen der Welt zu werden. Als erstes Unternehmen der Branche hat HX Schweröl und Einwegplastik verbannt. Im Jahr 2019 hat HX das weltweit erste Expeditions-Kreuzfahrtschiff mit Batterie-Hybridantrieb vorgestellt.

Weitere Informationen:

http://www.geomar.de/n9423 Bildmaterial zum Download
http://www.soop-platform.earth Webseiten der SOOP-Innovationsplattform
https://www.hurtigruten.com/de-de/expeditions/inspiration/wissenschaft-und-bildu… Wissenschaft und Bildungsprogramm von HX Hurtigruten Expeditions
https://www.awi.de/ Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI)
https://www.hereon.de/ Helmholtz-Zentrum Hereon
http://www.travelhx.de Webseiten von HX (Hurtigruten Expeditions)

(nach oben)


Wandel in der Energiewelt und datengestützte Geschäftsmodelle simulieren

Forschungskonsortium entwickelt Open Source Tool
Eine wachsende Zahl dezentraler Energiequellen wie Solaranlagen und Verbraucher wie Wärmepumpen stellt das elektrische Verteilnetz vor Herausforderungen. Gerade kleineren Stadtwerken und Netzbetreibern fehlen die Möglichkeiten, diese Veränderungen zu simulieren, um sich auf eine im Wandel befindende Energiewelt einzustellen. Im Projekt VISE-D arbeiten die Universität zu Köln, die TH Köln und die Ruhr-Universität Bochum an einem Open Source Tool, das solche Simulationen und neue datengestützte Geschäftsmodelle ermöglicht.

Daten sind der Rohstoff der Zukunft – das gilt auch für den Energiesektor. Diese zu beherrschen ist für kleinere Marktteilnehmer jedoch eine Herausforderung, da es oft an ausreichendem Know-how oder finanziellen Mitteln mangelt. „Wir entwickeln ein leicht zugängliches und übertragbares Modell von Stromverteilnetzen. Es bildet vielfältige technische und ökonomische Aspekte ab, einschließlich des Nutzungsverhalten. Damit lassen sich neue, datengestützte Geschäftsmodelle untersuchen, optimale Regulierungsstrategien identifizieren und die Auswirkungen von Veränderungen im Netz ermitteln“, erläutert Prof. Dr. Marc Oliver Bettzüge von der Universität zu Köln.

Netz- und Marktmodell
Im Fokus der Analysen steht dabei das Niederspannungsnetz, also die unterste Ebene des Stromnetzes. Da dessen Gestalt je nach Siedlungsstruktur sehr unterschiedlich sein kann, verwenden die Projektpartner Benchmark-Netze, die sich in anderen Projekten bewährt haben. Darauf aufbauend werden Stromerzeuger und -verbraucher sowie weitere Anlagen wie Photovoltaik-Anlagen, Batteriespeicher, Wärmepumpen oder Ladestationen für Elektrofahrzeuge im Netz simuliert. Zudem fließen Faktoren wie Netzzustand und Wetterdaten ein.

Neben diesem Netzmodell entsteht im Projekt ein Marktmodell: Dazu sollen zunächst die Akteur*innen des digitalen Energiesystems wie Endverbraucher oder Stadtwerke sowie deren Präferenzen und Bedürfnisse analysiert werden. Anschließend werden Modelle erstellt, um individuelle Interessenslagen abzubilden und den Effekt von neuen Tarifmodellen oder politischen Maßnahmen wie der CO2-Bepreisung zu ermitteln.

Risikoarmer Experimentierraum
„Durch diese ganzheitliche Betrachtung von Netz und Markt und der zahlreichen technischen, sozioökonomischen sowie wirtschaftlichen Aspekte können wir eine Vielzahl von Fragestellungen und die verschiedenen Spannungsfelder adäquat adressieren und erforschen. Das Simulationstool wird ein risikoarmer Raum sein, in dem Marktteilnehmer*innen die richtigen Weichenstellungen in einer sich verändernden Energiewelt vorab erproben können“, sagt Prof. Dr. Thorsten Schneiders von der TH Köln.

So sind in den vergangenen Jahren beispielsweise immer mehr Solaranlagen als dezentrale Erzeuger sowie Wärmepumpen und Ladestationen für E-Autos als große Verbraucher an ein Netz angeschlossen worden, das dafür ursprünglich nicht ausgelegt ist. Ziehen die Verbraucher zeitgleich Strom aus dem Netz, droht Instabilität. „Dieser konkreten Problemlage kann durch einen geeigneten regulatorischen Rahmen begegnet werden, etwa indem die Versorger unterschiedliche Tarife anbieten, z.B. mit günstigem Nachtstrom, damit E-Autos eher in dieser Zeit geladen werden, oder mit der stärker invasiven Möglichkeit für Netzbetreiber, Wärmepumpen per Fernzugriff netzdienlich abzuschalten – beide und noch viele weitere Optionen lassen sich mit unserem Tool testen“, sagt Prof. Dr. Andreas Löschel von der Ruhr-Universität Bochum.

Über das Projekt
Das Projekt „VISE-Smart Data: Mehrwertgenerierung durch Energiedaten – Trends & Transformationsprozesse“ wird im Rahmen des Virtuellen Instituts Smart Energy (VISE) durchgeführt, einer NRW-weiten interdisziplinären Forschungsplattform unter der Leitung der TH Köln und der Ruhr-Universität Bochum. Das Energiewirtschaftliche Institut an der Universität zu Köln leitet das Teilprojekt VISE-D und verantwortet die Themen Regulatorik und Marktgeschehen. Das Cologne Institute for Renewable Energy der TH Köln untersucht die Auswirkungen auf die technische Infrastruktur, während der Lehrstuhl für Umwelt-/Ressourcenökonomik und Nachhaltigkeit der Ruhr-Universität Bochum das Nutzungsverhalten und Ansätze zur Verhaltensmodellierung untersucht. VISE-D wird unterstützt durch die assoziierten Partner Stadtwerke Troisdorf GmbH, Beenic Buildings Intelligence GmbH, BDEW-Landesgruppe NRW, ASEW GbR und SME Management GmbH. Fördermittelgeber ist das Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes Nordrhein-Westfalen.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 23.500 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Christian Sander
0221-8275-3582
pressestelle@th-koeln.de

Falls Sie keine weiteren Pressemitteilungen der TH Köln erhalten möchten, schreiben Sie bitte an pressestelle@th-koeln.de

(nach oben)


Resilient und nachhaltig: krisenfeste Branche Gesundheitswirtschaft in der Zeitenwende

Einladung zur 19. Nationalen Branchenkonferenz Gesundheitswirtschaft – Bundesgesundheitsminister Prof. Dr. Karl Lauterbach zu Gast in Rostock

Medizinische Krisenabwehr und -vorsorge in der Zeitenwende, Künstliche Intelligenz in der Gesundheitsversorgung, Prävention im digitalen Zeitalter, Forschungszugang zu Gesundheitsdaten, Lebensmittel für die kommende Generation: die derzeitigen wie künftigen wirtschaftlichen und gesellschaftlichen Herausforderungen sind auch für die Gesundheitswirtschaft enorm.
Um die aktuellen Trends und Anforderungen der Branche zu diskutieren, lädt die Landesregierung Mecklenburg-Vorpommern zur 19. Nationalen Branchenkonferenz Gesundheitswirtschaft ein. Sie findet am Donnerstag, dem 30. Mai 2024, und Freitag, dem 31. Mai 2024, im Radisson Blu Hotel in Rostock statt (Anmeldung für Medienvertreter per E-Mail siehe weiter unten).

Unter dem Titel „#Gesundheit2024: Resilient. Nachhaltig“ kommen auch Themen wie Nachhaltiges Gesundheitssystem, One Health – ländliche Regionen im Wandel, Lifestyle Fitness und Start-ups zur Sprache. Organisiert wird das jährlich stattfindende Branchentreffen von der BioCon Valley® GmbH im Auftrag des Landes Mecklenburg-Vorpommern.

Zur Eröffnung und nachfolgenden Programmpunkten werden am ersten Konferenztag der Bundesminister für Gesundheit, Prof. Dr. Karl Lauterbach, und die Ministerpräsidentin des Landes Mecklenburg-Vorpommern, Manuela Schwesig, in Rostock erwartet. Beide werden auch an der Auftaktpressekonferenz zur 19. Nationalen Branchenkonferenz Gesundheitswirtschaft teilnehmen. Diese findet am Donnerstag, dem 30. Mai 2024, von 12:30 Uhr bis 13:30 Uhr im Radisson Blu Hotel statt. Hierzu folgt eine gesonderte Einladung.

Partnerland der 19. Nationalen Branchenkonferenz Gesundheitswirtschaft ist Litauen. Impulsreferate und Vorträge geben Einblicke in Trends und Entwicklungen des baltischen Staates. Litauen ist in der Gesundheitswirtschaft insbesondere im Life Science-Bereich einer der dynamischsten Standorte in Europa.
Durch das Fachprogramm leiten hochrangige Referenten und Experten aus Wirtschaft, Wissenschaft, Bundes- und Landespolitik. Eine begleitende Ausstellung bietet darüber hinaus viele Gelegenheiten zum Meinungsaustausch und fachlichen Diskurs.

„Die Gesundheitswirtschaft ist eine Branche im steten Wandel – insbesondere in der Zeitenwende. Die daraus resultierenden Konsequenzen sorgen häufig für Zündstoff und Konflikte“, sagt Prof. Marek Zygmunt, Präsident der Nationalen Branchenkonferenz Gesundheitswirtschaft. „Wir wollen offen darüber diskutieren, wie die Gesundheitswirtschaft in der Zukunft aussieht beziehungsweise aussehen sollte und welchen Einfluss diese Veränderungen der größten Branche auf die wirtschaftliche Entwicklung Deutschlands haben werden.“

Das aktuelle Programm sowie weitere Infos unter www.konferenz-gesundheitswirtschaft.de.

Wissenschaftliche Ansprechpartner:
BioCon Valley® GmbH
Lars Bauer
Geschäftsführer
Friedrich-Barnewitz-Straße 8
18119 Rostock
T +49 160 476 93 81
E nf@bcv.org

Weitere Informationen:
http://www.konferenz-gesundheitswirtschaft.de/

(nach oben)


Funktionalisiertes Chitosan als biobasiertes Flockungsmittel für die Aufbereitung komplexer Abwässer

Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB haben ein biobasiertes und funktionalisiertes Flockungsmittel entwickelt, mit dem sich Abwässer mit komplexen Inhaltsstoffen effizient aufreinigen lassen. Dabei sorgt das Enzym Laccase in einer Matrix aus Chitosan zusätzlich dafür, dass toxische Phenole aus dem Wasser entfernt werden. Das neue abbaubare funktionalisierte Flockungsmittel LaChiPur wird erstmals vom 13. bis 17. Mai 2024 auf der IFAT in München vorgestellt.

Mit der Flockung werden in der Abwasserreinigung und Wasseraufbereitung feinste Feststoff-Verunreinigungen abgetrennt. Flockungsmittel bewirken dabei, dass Schwebstoffe zu größeren Flocken agglomerieren, welche zu Boden sinken oder abfiltriert werden können – das Wasser wird wieder klar. Zur Entfernung von Huminstoffen in der Trinkwasseraufbereitung oder zur Aufbereitung von Prozesswasser in der Papierherstellung kommen häufig anorganische Metallsalze zum Einsatz, etwa Eisen- oder Aluminiumsulfate und -chloride, ebenso bei der Fällung von Phosphor in kommunalen Kläranlagen. Teilweise werden zusätzlich polymere Flockungsmittel, aus fossilen Rohstoffen hergestellte synthetische Polymere, hinzugeben. Der Nachteil herkömmlicher Methoden liegt auf der Hand: Aufgrund der zugesetzten Chemikalien oder Polymere kann der resultierende Schlamm nicht weiterverwendet, sondern muss aufwendig entsorgt werden.

Aus diesem Grund setzen Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB auf natürliches und vollständig biologisch abbaubares Chitosan. Es wird aus dem nachwachsenden Rohstoff Chitin gewonnen, der als strukturelle Komponente in den Schalen von Krustentieren, Panzern und Häuten von Insekten und in Pilzen enthalten ist. Damit ist Chitin – nach der aus Pflanzen stammenden Cellulose – das zweithäufigste natürliche Polymer auf der Erde.

Neue Technologie mit natürlichen biobasierten Rohstoffen
Tatsächlich wird Chitosan auch heute schon zur Klärung von Schwimmbecken und Teichen angeboten. Die Fraunhofer-Forscher gehen aber einen Schritt weiter und funktionalisieren Chitosan zusätzlich mit dem Enzym Laccase. Das Enzym ist in vielen Pflanzen, aber auch in Pilzen und Bakterien, zu finden. In der Natur sind Laccasen an der Vernetzung aromatischer Monomere zu Lignin wie auch an dessen Abbau beteiligt. Ihre Eigenschaft, Phenole und andere phenolische Substanzen zu oxidieren, macht sie für verschiedene industrielle Anwendungen gefragt, von der Entfernung toxischer Phenole in Fruchtsäften, über die Entfärbung von Textilabwässern bis zum Abbau von Schadstoffen in Wasser und Boden.

»Wir hatten die Idee, dass Laccase – gebunden an Chitosan als Matrix – auch für komplexe Abwässer, wie sie bei der Herstellung von Wein oder Olivenöl anfallen, geeignet sein könnte«, sagt Dr. Thomas Hahn, der am Fraunhofer IGB seit Langem an der Aufbereitung von Chitin aus den verschiedensten Abfallströmen und der nachfolgenden Konversion zu Chitosan forscht. Nach der Weinlese stoßen kommunale Kläranlagen schnell an ihre Grenzen, wenn in kurzer Zeit das drei- bis vierfache Volumen an Abwasser die vorwiegend kleinen Kläranlagen in ländlichen Weinbaugebieten erreicht. »Die Phenole im Abwasser wirken toxisch auf die Bakterien im Belebungsbecken. In der Folge muss die Belüftung erhöht werden, sodass der Energiebedarf der Kläranlage signifikant steigt«, weiß Marc Beckett, Experte im Bereich Wassermanagement und Wasseraufbereitung am IGB. In Olivenölmühlen werden die Waschabwässer gar in große Sammelbecken geleitet, wo das Wasser im Laufe der Zeit verdunstet und einen für Flora und Fauna giftigen Schlamm zurücklässt.

Aus der Idee wurde ein zweijähriges Fraunhofer-Forschungsprojekt, das bis Dezember 2023 im Programm »Schnelle Mittelstandsorientierte Eigenforschung (SME)« gefördert wurde. Beteiligt war auch das Fraunhofer-Institut für Angewandte Polymerforschung IAP in Potsdam, dessen Part die Funktionalisierung des Chitosans mit Laccase war. Um die Wirkung des mit Laccase funktionalisierten Chitosans mit realen Abwässern überprüfen zu können, etablierten die Forschenden im IGB zunächst die entsprechende Methodik und Analytik. »Eine der Herausforderungen war, das polymere Chitosan in Lösung zu bringen, damit es überhaupt als Flockungsmittel dosiert werden und seine Wirkung zur Bindung von Polyphenolen, Tanninen und Gerbstoffen entfalten kann«, erinnert sich Hahn. »Da für die Laccase ein leicht saures Milieu optimal ist, haben wir für die typischen Abwässer aus der Wein- oder Olivenölherstellung gleich sehr gute Ergebnisse erzielt«, so der Chemiker.

Auch phenolische Inhaltsstoffe werden abgetrennt
»Unsere Technologie weist für komplexe agroindustrielle Abwässer eine Flockungsleistung auf, die mit der von herkömmlich eingesetzten metallsalzhaltigen Koagulationsmitteln oder synthetischen polymeren Flockungsmitteln vergleichbar ist. LaChiPur, wie wir unser funktionalisiertes Produkt nennen, ist aber vollständig biobasiert und lässt sich somit biologisch abbauen«, fasst Beckett, Biologe und Umweltwissenschaftler, zusammen. Die Kombination mit Laccase erwies sich bei diesen Abwässern als echter Vorteil, da das funktionalisierte Chitosan nicht nur als Flockungsmittel eingesetzt werden kann, sondern gleichzeitig auch Phenole oxidiert werden, polymerisieren und ebenfalls sedimentieren.

Regionale Herstellung und vielfältige Anwendungen
Weitere Vorteile der neuen umweltfreundlichen Technologie: Der Ausgangsstoff Chitin fällt lokal in der Lebensmittel- oder Biotechnologieindustrie in großen Mengen als Abfallstoff an. Dies gewährleistet nicht nur eine wirtschaftliche Herstellung, sondern auch Versorgungssicherheit – ohne die Abhängigkeiten verflochtener internationaler Lieferketten. Wird der nach der Flockung entstehende abbaubare Schlamm in Kläranlagen vergärt, kann dies die Biogasausbeute sogar deutlich erhöhen.

»Dank unserer interdisziplinären Expertise können wir in Industriebetrieben anfallende Abwässer und Prozesswässer nun bei uns im Labor daraufhin untersuchen, mit welchem Ergebnis das mit LaChiPur behandelte Wasser gereinigt wird«, so Hahn und Beckett. Aufgrund der ersten vielversprechenden Ergebnisse wollen die Forscher ihre Technologie darüber hinaus mit kleinen und mittelständischen Unternehmen, die Flockungsmittel vertreiben oder herstellen, weiter optimieren, in einen größeren Maßstab überführen und in die industrielle Anwendung bringen. »LaChiPur eignet sich ebenso als Filtermaterial und weist Eigenschaften von Fällmitteln auf. Daher wollen wir unser Produkt auch für den Einsatz in der Phosphorfällung weiterentwickeln. Aufgrund seiner Eigenschaften ist es zudem für die Reinigung von Textilabwässern oder den Einsatz in der Trinkwasseraufbereitung interessant«, sind die IGB-Wissenschaftler überzeugt. Vom 13. bis 17. Mai 2024 präsentieren sie LaChiPur am Gemeinschaftsstand der Fraunhofer-Allianz SysWasser in Halle B2, Stand 338 auf der IFAT in München.

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Thomas Hahn
Telefon: +49 711 970-4159
E-Mail: thomas.hahn@igb.fraunhofer.de

Marc Beckett M. Sc.
Telefon: +49 711 970-4086
E-Mail: marc.beckett@igb.fraunhofer.de

Diego Eufracio Lucio M. Sc.
Telefon: +49 711 970-4214
E-Mail: diego.eufracio.lucio@igb.fraunhofer.de

Kontakt für Presseanfragen:
Dr. Claudia Vorbeck
Telefon +49 711 970-4031
E-Mail: claudia.vorbeck@igb.fraunhofer.de

Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2024/lachipur…

Weitere Informationen:
https://www.igb.fraunhofer.de/de/referenzprojekte/lachipur.html
https://www.igb.fraunhofer.de/de/forschung/wasser-abwasser.html
https://www.igb.fraunhofer.de/de/forschung/wasser-abwasser/biologische-abwasserr…
https://www.igb.fraunhofer.de/de/forschung/industrielle-biotechnologie.html
https://www.igb.fraunhofer.de/de/forschung/industrielle-biotechnologie/bioprozes…

(nach oben)


Welttag der Handhygiene: Schutz gegen Krankheiten und Infektion

Zum Internationalen Tag der Händehygiene machen Expertinnen und Experten aus der Krankenhaushygiene auf die Wichtigkeit des Themas aufmerksam. So wie regelmäßige Bewegung gut für die Gesundheit ist, beugt auch ein Bewusstsein für Hygiene möglichen Krankheiten vor. Das Datum – der 5. Mai – ist dabei bewusst gewählt. Die Ziffern symbolisieren die fünf Finger der beiden Hände. Am Universitätsklinikum Carl Gustav Carus Dresden werden Mitarbeitende sowie Patientinnen und Patienten mit unterschiedlichen Aktionen sensibilisiert. Bereits Mitte April hat ein interner Aktionstag Informationen geboten. Zudem konnten die Mitarbeitenden hier Fortbildungspunkte zum Thema sammeln.

„Wer auf richtige Händedesinfektion achtet, schützt nicht nur sich, sondern auch andere. Vor allem im klinischen Setting ist dies wichtig, um die Patientinnen und Patienten vor Infektionen zu schützen. Dabei ist die gründliche Reinigung der Hände meist der einfachste, schnellste und günstigste Weg für eine verantwortungsvolle Krankenhaushygiene“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Uniklinikum.

Wenn an diesem Sonntag (5. Mai) der diesjährige Welttag der Händehygiene für das Thema sensibilisiert, sind die Mitarbeitenden am Universitätsklinikum bereits bestens darauf vorbereitet. Mitte April hat der jährliche klinikumsinterne Aktionstag Saubere Hände stattgefunden. Unter dem diesjährigen Motto „Der Zugang bist Du“ haben sich um die 300 Teilnehmende an drei Aktionsständen informiert. Die Mitarbeitenden aus dem Zentralbereich Krankenhaushygiene haben unter anderem geschult, wie die Hände korrekt mit Desinfektionsmittel einzureiben sind und wie Schutzhandschuhe sinnvoll eingesetzt und sicher ausgezogen werden – alles, um der Verbreitung von gefährlichen Erregern im Krankenhaussetting zuvorzukommen um Infektionen zu verhüten. Besonders eindrucksvoll ist dabei, den Erfolg der durchgeführten Händedesinfektion visuell darzustellen. Neben der bewährten Schulungsvariante mittels UV-Lampe kam dabei eine neue eindrucksvolle Trainingsmethode mit Färbetechnik zum Einsatz. „Wir freuen uns über reges Interesse, konstruktiven Austausch und positives Feedback. Bei unserem Aktionstag geht es genau darum – dass wir gemeinsam über das wichtige Thema Händedesinfektion ins Gespräch kommen, um diese dauerhaft im oft herausfordernden klinischen Berufsalltag zu verankern“, sagt Prof. Florian Gunzer, Leiter Krankenhaushygiene am Uniklinikum.

Zu den Aktivitäten des Universitätsklinikums zum Thema Handhygiene zählt zudem die Beteiligung an verschiedenen Surveillance-Modulen (KISS) des nationalen Referenzzentrums am Robert Koch Institut. Regelmäßig wird dabei der Verbrauch von Desinfektionsmitteln in den unterschiedlichen Bereichen dokumentiert. Weiterhin werden Compliance-Beobachtungen auf sechs Intensivstationen durchgeführt, Die Ergebnisse werden mit den Teams besprochen. So erhält das Team der Krankenhaushygiene einen Überblick darüber, wie sich die Umsetzung der Handhygiene am Uniklinikum darstellt. Regelmäßig finden zudem Schulungen statt: Im Jahr 2023 gab es insgesamt 42 Schulungen in Präsenz, sowie das obligatorisch zu absolvierende Online-Schulungstool welches ebenfalls Bestandteil der Präventionsmaßnahmen am Uniklinikum ist.

Das allein ist aber nicht die einzige Aktion, um auf das wichtige Thema aufmerksam zu machen. Zum Internationalen Tag der Händehygiene nimmt sich die Direktion Qualitäts- und Medizinisches Risikomanagement dem Thema im Rahmen der Bemühungen um die Patientensicherheit an. Patientinnen und Patienten werden über das Patientenfernsehen informiert und sensibilisiert. Zahlen der Weltgesundheitsorganisation WHO belegen, warum dies wichtig ist. So werden 80 Prozent der ansteckenden Erkrankungen über ein Händeschütteln oder das Berühren von Oberflächen übertragen. Wer sich 30 Sekunden lang gründlich die Hände mit Seife wäscht, kann die Anzahl der vorhandenen Keime um 99 Prozent reduzieren.

Händehygiene für Alle – Lange Nacht der Wissenschaften
Das Team der Krankenhaushygiene ist auch in diesem Jahr mit einem eigenen Stand bei der Langen Nacht der Wissenschaften dabei. Am 14. Juni können Besuchende im Foyer Haus 27 sich zur Händehygiene informieren und sich selbst in der gründlichen Reinigung/Desinfektion der Hände versuchen und das Ergebnis mittels UV-Licht überprüfen.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Pressestelle
Annechristin Bonß
Tel.: +49 351 458 4162
E-Mail: pressestelle@uniklinikum-dresden.de

(nach oben)


Digitalisierung der Landwirtschaft – KI für die Beurteilung von Pflanzen

Die Bonitur ist ein wichtiges Werkzeug, um Pflanzen in ihrem Wachstum und Gesundheitszustand fachlich zu bewerten. Durch die Beurteilung können Maßnahmen in Betracht gezogen werden, wie der Einsatz von Pflanzenschutzmitteln oder eine Änderung der Pflanzbedingungen. Jedoch ist der manuelle Prozess aufwendig, kostenintensiv und bedarf langjähriger Erfahrung. Das Forschungsprojekt BoniKI, mit rund 432.000 Euro vom Bundesministerium für Ernährung und Landwirtschaft gefördert, beschäftigte sich über einen Zeitraum von drei Jahren mit der Automatisierung der Pflanzenbonitur mittels KI. So können nun aufgrund der Automatisierung Pestizide in geringerer Menge gezielter eingesetzt werden.

Im Rahmen der Abschlussveranstaltung des Vernetzungs- und Transferprojekts X-KIT am 25.-26.04.2024 in Kaiserslautern wurde mit dem Forschungsprojekt BoniKI eine ganzheitliche, einfach nutzbare Lösung präsentiert: ein autonomes und pflanzengenaues Bonitursystem, das mittels Verfahren der Künstlichen Intelligenz (KI) eine automatische Bewertung vornimmt und dadurch ein wichtiges Werkzeug der Landwirtschaft digitalisiert. Anstatt mit Klemmbrett und jahrelanger Erfahrung in mühsamer Handarbeit Pflanzen zu betrachten, können mit unbemannten Flugsystemen hochauflösende Luftaufnahmen der Pflanzen erstellt und mittels neuronaler Netze schnell und effizient klassifiziert werden.

Konsolidierte Erfahrung dank kontinuierlicher Feldversuche
Unter der Konsortialleitung des FZI Forschungszentrum Informatik führte das Projekt die Kompetenzen aller Partner erfolgreich zusammen. So entwickelte das Start-Up SAM-DIMENSION GmbH Unmanned Aerial Systems (UAS) mit Spezialsensorik, um hochauflösende Karten zu erstellen. Der Projektpartner bietet drohnenbasierte Unkrautkartierungen, die helfen, aufkommende Unkrautprobleme zu erkennen und durch gezieltere Einsätze die Herbizidapplikation zu reduzieren. Die erstellten hochauflösenden Karten wurden im nächsten Schritt vom FZI genutzt, um Kulturpflanzen wie Mais, Winterweizen und Gerste auf Schlag- und Einzelpflanzenbasis zu ermitteln und mithilfe von Bildauswertung und KI-Verfahren zu analysieren. Das Landwirtschaftliche Technologiezentrum Augustenberg (LTZ) trug mit dem Fachwissen seiner Boniteure das notwendige Domänenwissen, die Trainingsdaten und eine manuell erhobene Baseline für einen erfolgreichen Abschluss des Projektes bei: KI kann nun die Bewertung der Pflanzen für eine automatisierte Bonitur übernehmen.

Die Bonitur erfolgte in einer integrierten Pipeline mit minimaler menschlicher Intervention. Aus den hochauflösenden georeferenzierten UAS-Aufnahmen wurden durch ein sogenanntes siamesisches neuronales Netz zunächst individuelle Pflanzen ermittelt. Diese wurden anschließend mittels eines MultiNet-Ansatzes auf ausgewählte Boniturparameter analysiert. Für das Training der KI wurden die umfangreichen Bilddaten aus verschiedenen Feldversuchen des LTZ und aus Landessortenversuchen in Mais und Getreide (Winterweizen, Wintergerste und Dinkel) über drei Jahre verwendet und durch Experten von Hand gelabelt. Die erzielten Ergebnisse belegen deutlich, dass die KI sehr zuverlässig arbeitet und auch unter schwierigen Bedingungen relevante Merkmale erkennt.

Fachwissen für die Allgemeinheit
Dank des KI-basierten Bonitursystems sind nun einfache und flächendeckende Bonituren an verschiedenen Standorten mit Hilfe von Drohnenflügen schnell und unkompliziert durchführbar. Dies könnte dazu beitragen, Landwirtschaft in Zukunft nachhaltiger, transparenter und effizienter zu gestalten, da eine Bonitur mittels KI nun weniger aufwendig und auch für die Analyse anderer Kulturen einsetzbar ist.

KI-Methoden verbessern Effizienz und Nachhaltigkeit
Auf der Abschlussveranstaltung von X-KIT präsentierten die vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten 36 KI-Projekte ihre Ergebnisse. Neben den Projektpräsentationen fand eine Messe mit Poster-Sessions und einer Ausstellung der Demonstratoren statt. Luftaufnahmen des Feldes und Detailaufnahmen der Auswertungen sowie die dazugehörige Evaluation vermittelten einen direkten Einblick in die angewandten Technologien und die erzielten Fortschritte. Eingeladen waren die Forschenden der 36 KI-Projekte, Vertreter*innen des BMEL sowie der Bundesanstalt für Landwirtschaft und Ernährung.

Insgesamt unterstrich die Abschlussveranstaltung das Potenzial von KI-Methoden, die Effizienz und Nachhaltigkeit des Agrarsektors zu verbessern.

Weitere Informationen:
https://www.fzi.de/2024/05/02/digitalisierung-der-landwirtschaft-ki-fur-die-beur… Pressemitteilung mit Bildmaterial
https://www.fzi.de/project/boniki/ Projektwebsite

Anhang
Pressemitteilung BoniKI

(nach oben)


Kreisläufe statt Abfälle: Wanderausstellung „Jetzt geht’s rund“ zur Kreislaufwirtschaft eröffnet

Unsere Art zu produzieren und zu konsumieren, zehrt an der Umwelt und damit auch an unserer Lebensgrundlage. Wie wir Ressourcen sparsamer, gerechter und nachhaltiger einsetzen können, zeigt die neue Wanderausstellung „Jetzt geht’s rund“ – und nimmt Besucherinnen und Besucher aller Altersgruppen anhand interaktiver Exponate mit in eine umweltfreundliche zirkuläre Zukunft. Die Ausstellung ist ein Gemeinschaftsprojekt des VDI Technologiezentrums (VDI TZ) und der Deutschen Bundesstiftung Umwelt (DBU). Von montags bis freitags kann sie in der DBU in Osnabrück besucht werden. Weitere Informationen gibt es hier: https://www.jetztgehtsrund.org/

Wir nutzen mehr Fläche, Energie und Rohstoffe, als die Erde wieder erneuern kann. Und das immer schneller: Der weltweite Materialverbrauch pro Jahr hat sich in den letzten 50 Jahren mehr als verdreifacht, so der Bericht „Assessing Global Resource Use“ des Weltressourcenrates (IRP) der Vereinten Nationen (UN). Diese Entwicklung soll das Modell der Kreislaufwirtschaft (engl. Circular Economy) umkehren, indem bestehende Materialien und Produkte so lange wie möglich genutzt, geteilt, wiederverwendet, repariert, aufgearbeitet und recycelt werden. „Circular Economy ist mehrfach klug. Wirtschaften in Kreisläufen spart Rohstoffe und schützt Umwelt und Klima“, erläutert Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt. „Wir wollen mit der Ausstellung ‚Jetzt geht´s rund‘ die Menschen an das Konzept der Kreislaufwirtschaft heranführen; sie zum zirkulären Denken und Handeln motivieren“, ergänzt der Geschäftsführer des VDI Technologiezentrums, Sascha Hermann.

Ab sofort kann das Gemeinschaftsprojekt der DBU und des VDI TZ in Osnabrück besucht werden. „Mit unserer Arbeit verfolgen unsere beiden Organisationen das Ziel, natürliche Ressourcen zu schonen und unsere Umwelt zu schützen“, betont Sascha Hermann. Seit mehr als 20 Jahren begleitet das VDI TZ als Innovationsagentur und Projektträger Förderprojekte zur Kreislaufwirtschaft und Ressourceneffizienz, die den Wandel hin zu einem nachhaltigen und klimaneutralen Wirtschaften gestalten. Für „Jetzt geht’s rund“ haben Expertinnen und Experten des VDI TZ zusammen mit Verantwortlichen der DBU das Ausstellungkonzept erarbeitet.

Bewusstsein schaffen: Kreislaufwirtschaft im Alltag
In drei Ausstellungsbereichen erleben Besucherinnen und Besucher, welche Auswirkungen das lineare Wirtschaften hat (Bereich 1), wie Konsum- und Produktionsprozesse im Sinne der Circular Economy gestaltet werden können (Bereich 2) und wie wir als Gesellschaft diese Entwicklung mitgestalten können (Bereich 3). „Die Ausstellung setzt mit interaktiven Stationen in der Lebensrealität der Menschen an”, sagt Sascha Hermann. Denn nur wer über die Folgen des eigenen Konsums aufgeklärt ist, kann ressourcenschonend handeln. Ein Beispiel aus dem ersten Ausstellungsbereich: Im „DisScounter“ können Besucherinnen und Besucher verschiedene Alltagsgegenstände zur Kasse bringen. Dabei erfahren sie, welche Umweltprobleme nicht-kreislaufgerechte Produkte mit sich bringen. Der Bereich informiert außerdem, wie man Greenwashing erkennen kann. Unter Greenwashing versteht man eine Marketingstrategie, mit der sich Unternehmen umweltfreundlicher darstellen, als sie sind.

Der Weg in die Circular Economy gelingt nur gemeinsam
Der zweite Teil der Ausstellung zeigt Lösungen für eine funktionierende Kreislaufwirtschaft. Hier gibt es die Möglichkeit, virtuell selbst einen kreislaufgerechten Sneaker zu designen und verschiedene Verfahren zur Mülltrennung auszuprobieren. Der dritte Bereich macht deutlich, dass eine Circular Economy nur möglich ist, wenn alle mitmachen. Ein mit verschiedenen Aussagen und Fragen bedruckter Drehtisch regt zur Diskussion darüber an, was man selbst zur Kreislaufwirtschaft beitragen kann. Zudem stellt das Exponat „Besuch in der Zukunft“ fünf Menschen und Unternehmen vor, die Pionierarbeit für die Circular Economy leisten und somit zeigen, dass eine zirkuläre Wirtschaft zukünftig realisierbar ist.

Am Ende der Ausstellung soll der Kreislaufgedanke mit in den Alltag getragen werden. Postkarten mit Kreislauf-Challenges laden dazu ein, diese zu Hause umsetzen und unter festgelegten Hashtags auf Social Media zu posten.

Wissenswertes zum Besuch von „Jetzt geht’s rund“
„Jetzt geht’s rund“ richtet sich an Klassen ab der Stufe 7 aller Schulformen sowie an Familien und Erwachsene. Die Ausstellung kann in der DBU in Osnabrück besucht werden; bis sie im April 2026 deutschlandweit auf Wanderschaft geht. Geöffnet ist sie montags bis donnerstags von 9 bis 16 Uhr und freitags von 9 bis 12:30 Uhr sowie nach vorheriger Vereinbarung. Im Zuge der Ausstellung sind kostenlose Führungen, Vorträge und Vermittlungsprogramme für Klassen ab der siebten Jahrgangsstufe möglich. Weitere Informationen unter www.jetztgehtsrund.org.

„Jetzt geht’s rund“ ist teils aus recycelten und kreislauffähigen Materialien gebaut und wurde vom Studio it’s about und der molitor GmbH gestaltet.

Über das VDI Technologiezentrum (VDI TZ)
Als Innovationsagentur und als ein führender Projektträger in Deutschland widmet sich das VDI Technologiezentrum den Themen und Technologien der Zukunft mit dem Ziel, die Zukunftskompetenzen von Deutschland und Europa zu stärken. Im Auftrag von Bundes- und Landesministerien, der Europäischen Kommission sowie Stiftungen und weiteren Auftraggebern setzt das VDI TZ Forschungs- und Innovationsförderprogramme um und bietet innovationsbegleitende Maßnahmen an. Im Fokus stehen Themen wie Nachhaltigkeit und Klima, Digitalisierung, Schlüsseltechnologien, Gesundheit, Innovation und Bildung, Sicherheit sowie Ressourceneffizienz und Kreislaufwirtschaft. Beispielsweise ist das VDI Zentrum Ressourceneffizienz (VDI ZRE) am VDI TZ angesiedelt. Im Auftrag des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz unterstützt das VDI ZRE kleineren und mittleren Unternehmen mit praxisrelevantem Know-how bei der Steigerung ihrer Ressourceneffizienz.
Das VDI TZ ist Teil der VDI-Gruppe.

Über die Deutsche Bundesstiftung Umwelt (DBU)
Die DBU fördert innovative, modellhafte und lösungsorientierte Vorhaben zum Schutz der Umwelt unter besonderer Berücksichtigung der mittelständischen Wirtschaft. Geförderte Projekte sollen nachhaltige Effekte in der Praxis erzielen, Impulse geben und eine Multiplikatorwirkung entfalten. Es ist das Anliegen der DBU, zur Lösung aktueller Umweltprobleme beizutragen, die insbesondere aus nicht nachhaltigen Wirtschafts- und Lebensweisen unserer Gesellschaft resultieren.

Hinweis zum Bildmaterial

Die Verwendung der Bilder ist nur im Rahmen der redaktionellen Berichterstattung zur Wanderausstellung „Jetzt geht’s rund“ und unter Angabe der Quelle gestattet.

Wissenschaftliche Ansprechpartner:
VDI Technologiezentrum
Ulrike Lange
+49 30 2759506 32
lange_u@vdi.de

Weitere Informationen:
https://www.jetztgehtsrund.org/ Seite der Ausstellung

(nach oben)


Gesundheitsrisiko Klimawandel: BZgA informiert zu Hitzeschutz

Das vergangene Jahr war das wärmste in Deutschland seit Beginn der Wetteraufzeichnung. Besonders im Juli und September gab es Hitzerekorde. Mit dem Portal https://www.klima-mensch-gesundheit.de bietet die BZgA der Allgemeinbevölkerung, Eltern mit kleineren Kindern und älteren Menschen Hilfestellung, um künftige Hitzewellen besser zu überstehen. Kommunen, Kitas, Schulen und Pflegeeinrichtungen erhalten Hinweise, wie sie hitzebezogenen Gesundheitsproblemen vorbeugen und Menschen dabei unterstützen können, gut mit Hitzeperioden umzugehen. Auch zu den Belastungen zunehmender UV-Strahlung und dem Thema Allergie und Allergieschutz informiert das BZgA-Internetangebot.

Das vergangene Jahr war das wärmste in Deutschland seit Beginn der Wetteraufzeichnung. Besonders im Juli und September gab es Hitzerekorde. Immer häufiger auftretende Hitzeperioden haben Auswirkungen auf unsere Gesundheit: So erhöhte sich mit steigenden Temperaturen die Sterberate deutlich. Für das Jahr 2023 wird für den Zeitraum April bis September von 3.200 Todesfällen aufgrund von Hitze ausgegangen. Die Bundeszentrale für gesundheitliche Aufklärung (BZgA) unterstützt Bürgerinnen und Bürger zielgruppengerecht mit Informationen zu Schutzmöglichkeiten und praxisnahen Handlungsempfehlungen.

Dr. Johannes Nießen, Errichtungsbeauftragter des Bundesinstituts für Prävention und Aufklärung in der Medizin (BIPAM) und Kommissarischer Leiter der BZgA: „Vielen Menschen sind die gesundheitlichen Risiken durch Hitzebelastungen nicht bewusst. Dabei sind Hitzetage und Hitzewellen ganz besonders für ältere Menschen, Menschen mit Vorerkrankungen sowie Babys und Kleinkinder riskant. So verändern sich mit steigendem Lebensalter der Stoffwechsel und andere Prozesse im Körper. Da ältere Menschen außerdem seltener Durst verspüren, besteht die Gefahr, dass sie dehydrieren und überhitzen. Babys und Kleinkinder bekommen schneller einen Sonnenstich, Fieber oder Symptome von Hitzeerschöpfung. Unser Ziel ist daher, das Wissen der Menschen über Schutzmöglichkeiten für sich und andere zu stärken.“

Mit dem Portal https://www.klima-mensch-gesundheit.de bietet die BZgA der Allgemeinbevölkerung, Eltern mit kleineren Kindern und älteren Menschen Hilfestellung, um Hitzewellen besser zu überstehen. Multiplikatorinnen und Multiplikatoren, Kommunen, Kitas, Schulen und Pflegeeinrichtungen erhalten Hinweise, wie sie hitzebezogenen Gesundheitsproblemen vorbeugen und Menschen dabei unterstützen können, gut mit Hitzewellen umzugehen. Auch zu den Belastungen zunehmender UV-Strahlung und dem Thema Allergie und Allergieschutz informiert das BZgA-Internetangebot. Ergänzend stehen kostenlos bestellbare Printmedien zur Verfügung.

Wie sich insbesondere ältere Menschen auf Hitzebelastungen vorbereiten können, beschreibt das BZgA-Angebot https://www.gesund-aktiv-aelter-werden.de. Auf der Website gibt es praktische Tipps für den Alltag sowie Merkblätter zum Download für Angehörige und Fachkräfte.

Speziell an Eltern, Betreuende und Fachkräfte richtet sich das BZgA-Internetportal https://www.kindergesundheit-info.de mit einer Vielzahl an Gesundheitsthemen, die in den ersten Lebensjahren von Bedeutung sind – darunter auch viele Tipps, wie Babys und Kinder vor Sonne und Hitze geschützt werden können.

Warum Alkohol und Hitze keine gute Kombination sind, erläutert die Internetseite der BZgA-Kampagne „Alkohol? Kenn dein Limit.”: https://www.kenn-dein-limit.info/gesundheit/

Kostenfreie BZgA-Angebote zum Thema Klimawandel und Gesundheit im Überblick:

Klima – Mensch – Gesundheit:
https://www.klima-mensch-gesundheit.de

  • Flyer „So kommen Sie gut durch Hitzewellen“
  • Flyer „So bleiben Sie bei einer Hitzewelle gesund – Empfehlungen für ältere Menschen“
  • Flyer „Diabetes und Hitze – was muss ich beachten?“
  • Infokarten Tipps Ernährung, Trinktipps, Rezept Cooler Drink, Sommerliches Memo I und II, Ausmalbild zum UV-Schutz, Hitze-Rätsel, Sonnenschutz mit UV Index, Tipps Sport bei Hitze

Gesund und aktiv älter werden:
https://www.gesund-aktiv-aelter-werden.de/gesundheitsthemen/hitze-und-gesundheit…

  • Checkliste „Gesund durch die Sommerhitze”
  • Plakat „Gesund durch die Sommerhitze”
  • Flyer „Gesund durch die Sommerhitze”
  • Flyer kompakt „Gesund trinken im Alter”

Kindergesundheit:
https://www.kindergesundheit-info.de/themen/risiken-vorbeugen/sonnenschutz/

  • Merkblatt „Sonnenschutz für Kinder“
  • Checkliste „Ohne Wenn und Aber: Sonnenschutz für Kinder“

Kampagne „Alkohol? Kenn dein Limit.”:
Alkohol und Hitze https://www.kenn-dein-limit.info/gesundheit/alkohol-und-hitze/

Bestellung der kostenlosen BZgA-Materialien unter:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: https://shop.bzga.de/
Fax: 0221/8992257
E-Mail: bestellung@bzga.de

(nach oben)


Professor Ralf B. Schäfer: Ökotoxikologe verstärkt Wasserforschung

Hochkarätige Expertise für das Research Center One Health Ruhr der Research Alliance und die Exzellenzstrategie: Umweltwissenschaftler Prof. Dr. Ralf B. Schäfer hat einen Ruf an die Universität Duisburg-Essen angenommen. Der renommierte Wissenschaftler stärkt künftig die internationale Spitzenforschung der Universität im Bereich der Wasserforschung. Zum April wechselte der Forscher von der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau ins Ruhrgebiet.

Wie reagieren Mikroorganismen und wirbellose Tiere in Gewässern auf menschliche Einflüsse wie Schadstoffe und den Klimawandel? Das erforscht Prof. Dr. Ralf B. Schäfer. „Mich interessiert, wie diese Reaktionen die Ökosysteme beeinflussen, zum Beispiel die Umsetzung von Nährstoffen“, erklärt der Forscher. Er ist spezialisiert in Ökotoxikologie und Ökologie und erfahren in chemischer und statistischer Analyse, z.B. zur Modellierung von Gewässerrisiken, etwa durch Pestizide aus der Landwirtschaft.

Am Research Center One Health Ruhr möchte Schäfer den Zusammenhang zwischen Artenvielfalt in Gewässern und menschlicher Gesundheit erforschen. „Wir freuen uns außerordentlich, dass Professor Schäfer künftig bei uns forscht“ betont Prof. Dr. Dirk Schadendorf, Direktor des Centers der Research Alliance. „Mit seinem Profil reiht er sich perfekt in die Forschungsagenda von One Health Ruhr ein, denn hier erforschen wir das Wohlergehen der menschlichen Gesellschaft im unmittelbaren Zusammenhang mit der Qualität und Gesundheit unserer Umwelt“, so Schadendorf weiter. „Am Center möchte ich beispielsweise untersuchen, wie Kläranlageneinträge in das Ökosystem zur Entwicklung antibiotikaresistenter Bakterienstämme beitragen“, ergänzt Schäfer.

An der Universität Duisburg-Essen verstärkt der Umweltexperte künftig den deutschlandweit einzigartigen Profilschwerpunkt Wasserforschung. „Mit seiner ausgewiesenen wissenschaftlichen Expertise bereichert Professor Schäfer unser Forschungsprofil in der Wasser- und Gesundheitsforschung an der Universität Duisburg-Essen und vor allem in der Research Alliance Ruhr“, erklärt Rektorin Prof. Dr. Barbara Albert.

Ralf. B Schäfer studierte Umweltwissenschaften (1997-2003) an der Leuphana Universität Lüneburg sowie Statistik, Philosophie und Soziologie (2003/04) an der Universität Kassel. Anschließend ging er als Doktorand ans Helmholtz-Zentrum für Umweltforschung nach Leipzig, wurde 2008 in Umweltwissenschaften promoviert und war bis 2010 Postdoc an der australischen RMIT University, Melbourne. Im Jahr 2010 nahm er eine Juniorprofessur an der Universität Koblenz-Landau an, wo er sich auch habilitierte (2013). Ab 2016 bis zu seiner Berufung an die UDE forschte und lehrte er als Professor für Landschaftsökologie in Landau an der heutigen Rheinland-Pfälzischen Technischen Universität Kaiserlautern-Landau.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ralf Schäfer, Professor for Ecotoxicology Research Center One Health Ruhr, University Alliance Ruhr & Fakultät für Biologie, Universität Duisburg-Essen, Tel. 0201 183 3962, ralf.schaefer@uni-due.de

(nach oben)


Kohlendioxid in nützliche Chemikalien verwandeln

Künstliche Photosynthese ist das Thema einer Nachwuchsgruppe an der Universität Oldenburg. Die Forschenden wollen edelmetallfreie Katalysatormaterialien auf Basis gut verfügbarer und günstiger Inhaltsstoffe entwickeln, um Kohlendioxid mit Hilfe von Sonnenlicht weiterzuverarbeiten. So soll das Treibhausgas mit möglichst wenig Energieaufwand in Grundstoffe für die chemische Industrie verwandelt werden.

Die Kraft der Sonne zu nutzen, um das Treibhausgas Kohlendioxid in nützliche Chemikalien zu verwandeln – das ist das Ziel einer neuen Nachwuchsgruppe an der Universität Oldenburg. Das internationale Team um den Chemiker Dr. Lars Mohrhusen verfolgt dabei einen besonders nachhaltigen Ansatz: Die Forschenden planen, edelmetallfreie Katalysatoren zu entwickeln, die das eher reaktionsträge Treibhausgas mit Hilfe von Sonnenlicht chemisch aktivieren. Das Bundesforschungsministerium (BMBF) fördert das Vorhaben Su2nCat-CO2 in den nächsten sechs Jahren mit rund 2,6 Millionen Euro in der Förderrichtlinie SINATRA (Nachwuchsgruppen für „Künstliche Photosynthese“ und „Nutzung alternativer Rohstoffe zur Wasserstofferzeugung“).

„Die Arbeit der neuen Nachwuchsgruppe zielt darauf ab, günstige und langfristig stabile Materialien zu finden, um derzeit verwendete Edelmetall-Katalysatoren zu ersetzen. Die Förderzusage des BMBF würdigt die große interdisziplinäre Kompetenz der Universität Oldenburg in den Bereichen Katalyse und Nanomaterialien und unterstreicht die große Bedeutung dieser Forschung für die Gesellschaft“, sagt Prof. Dr. Ralph Bruder, Präsident der Universität Oldenburg.

In seinem Projekt will Mohrhusen mit seiner Gruppe Katalysatormaterialien auf Basis gut verfügbarer und günstiger Inhaltsstoffe wie beispielsweise Titandioxid entwickeln. Ziel ist es, das Treibhausgas Kohlendioxid mit möglichst wenig Energieaufwand in Stoffe wie Methan, Methanol oder Formaldehyd zu verwandeln, die von der chemischen Industrie etwa zu Kunststoffen oder synthetischen Treibstoffen weiterverarbeitet werden können. „Bisher werden für die Umwandlung von Stoffen wie Kohlendioxid meist edelmetallhaltige Katalysatoren verwendet, die oft bei hohem Druck und hohen Temperaturen eingesetzt werden“, erläutert Mohrhusen. Neben dem großen Energieaufwand für die richtigen Reaktionsbedingungen hätten diese Materialien den Nachteil, oft teuer und zudem nicht besonders langlebig zu sein. So können beispielsweise Verunreinigungen das Katalysatormaterial leicht „vergiften“, so dass es mit der Zeit weniger aktiv wird.

Im Projekt will das Team um Mohrhusen zwei unterschiedliche Modellsysteme von hybriden Katalysatormaterialien untersuchen. Zum einen sollen Kombinationen aus Titandioxid mit Halbmetall-Nanopartikeln hergestellt werden, zum anderen organische Strukturen an Oxidoberflächen. Anschließend wollen die Forschenden diese Systeme mit unterschiedlichen Verfahren mikroskopisch genau charakterisieren, was meist Ultrahochvakuumbedingungen erfordert. In beiden Fällen handelt es sich um sogenannte Photokatalysatoren, also Katalysatoren, die durch Licht katalytisch aktiv werden: Die Sonnenstrahlung erzeugt in dem Material Ladungsträger – negativ geladene Elektronen und positiv geladene, bewegliche Fehlstellen, sogenannte Löcher. Diese können anschließend chemisch mit Kohlendioxid reagieren. „Anhand dieser Modellkatalysatoren wollen wir auf atomarer Ebene im Detail verstehen, welche Materialeigenschaften zur Reaktivität, aber auch zur Stabilität der Systeme beitragen“, sagt Mohrhusen. Dies sei unter technischen Bedingungen in großen Reaktoren oft nicht ohne weiteres möglich.

In einem dritten Teilprojekt will das Team Mikro-Testreaktoren entwickeln, um die Modellkatalysatoren unter realistischeren Bedingungen zu testen. Dabei werden die Materialien in einer speziellen Kammer mit einer Gasmischung – etwa aus Kohlendioxid, Wasserstoff und Wasser – in Kontakt gebracht und gleichzeitig mit Licht bestrahlt. Währenddessen analysieren die Forschenden die Entstehung der Reaktionsprodukte. Etwaige strukturelle Veränderungen der Katalysatormaterialien durch die Reaktion können sie auch nach Ende der Tests untersuchen.

Mohrhusen studierte Chemie an der Universität Oldenburg, wo er 2014 seinen Bachelor- und 2016 seinen Masterabschluss erwarb. 2021 promovierte er in Oldenburg bei Prof. Dr. Katharina Al-Shamery in der Arbeitsgruppe Nanophotonik und Grenzflächenchemie. Während seiner PostDoc-Phase forschte er insgesamt etwa drei Jahre an der Harvard University (USA) und der Universität Aarhus (Dänemark).

Als assoziierte Partner begleiten die Universität Erlangen-Nürnberg, die Universität Leiden (Niederlande), die Universität Aarhus (Dänemark), die University of Florida (USA) und die Unternehmen Evonik und Leiden Probe Microscopy Mohrhusens Vorhaben. Mit Nachwuchsgruppen fördert das BMBF fortgeschrittene Wissenschaftlerinnen und Wissenschaftler auf dem Weg zur Professur oder einer anderen wissenschaftlichen Leitungsfunktion.

Wissenschaftliche Ansprechpartner:
Dr. Lars Mohrhusen, Tel.: 0441/798-5616, E-Mail: lars.mohrhusen@uol.de

Weitere Informationen:
http://uol.de/chemie/

(nach oben)


Handy, Tablet und Co: Kleine Kinder haben mehr Zugang zu smarten Geräten

Frühkindliche Medienbildung: Erste Ergebnisse der miniKIM-Studie 2023 über Mediennutzung von Kindern im Alter zwischen 2 und 5 Jahren bei Fachkongress in Berlin vorgestellt / Berichte aus der Forschung / Überblick über digitale Angebote / Diskussion zwischen Wissenschaft, Wirtschaft und Politik

Knapp ein Viertel der Kinder zwischen zwei und fünf Jahren nutzen täglich smarte Geräte wie Handys, Tablets, Laptops oder Sprachassistenten. Das zeigen erste Ergebnisse der Studie miniKIM 2023 über die Mediennutzung von Kleinkindern, die am Freitag bei einem Fachkongress der Stiftung Digitale Chancen und der Stiftung Ravensburger Verlag in Berlin vorgestellt wurde.

Es ist eines der wichtigsten Themen für Eltern: 89 Prozent der Mütter und Väter in Deutschland interessiert der Umgang von Kindern mit Medien, wie eine aktuelle Umfrage zeigt. Dieses Thema steht damit an dritter Stelle nach Erziehung und Gesundheitsfragen. Die Studie miniKIM 2023 des Medienpädagogischen Forschungsverbunds Südwest (mpfs) hat genau das näher untersucht: Insgesamt wurden 600 Haupterziehende von 2- bis 5-Jährigen zur Mediennutzung ihrer Kinder befragt. In diesem Alter nutzen 23 Prozent der Mädchen und Jungen bereits täglich mindestens ein Gerät mit Internetzugang wie Smartphones, Tablets, Laptops oder Sprachassistenten. Nimmt man Mediatheken, Streaming-Dienste, Computerspiele oder Apps dazu, sind es 44 Prozent, die täglich digitale Angebote nutzen.

„Was die Medienausstattung der Haushalte betrifft, sind deutlich mehr Sprachassistenten zuhause verfügbar. Auch hat eine steigende Anzahl Familien ein Abo bei einem Pay-TV-Anbieter oder einem Streamingdienst“, erklärt miniKIM-Studienleiter Thomas Rathgeb die Veränderungen seit der letzten Untersuchung aus dem Jahr 2020. Inzwischen haben vier von fünf Familien mit Kleinkindern ein Streaming-Abo.

Gegenüber 2020 hat auch der direkte Zugang der Kinder zu smarten Geräten zugenommen. Mit einer Steigerung um 50 Prozent hat nun jedes fünfte Kleinkind ein eigenes Tablet zur Verfügung, bei den Vorschulkindern (4-5 Jahre) sind es bereits 28 Prozent. Ebenso ist der Zugang der Kinder zu einem Streaming-Abo von acht auf aktuell 13 Prozent angestiegen. Jedes zehnte Kind im Alter von zwei bis fünf Jahren hat nach Angaben der Eltern bereits ein eigenes Handy oder Smartphone. Laut Studienleiter Rathgeb haben Familien eine sehr umfangreiche Medienausstattung. Indem Eltern diese Medien zunehmend auch kleinen Kindern zugänglich machten, wachse aber auch deren Verantwortung, die Mediennutzung zu begleiten und altersgerecht zu gestalten.

Essenz aus dem Forschungsprojekt „Kindgerechte Zugänge zum Internet“
Erste Ergebnisse aus dem Forschungsprojekt „Kindgerechte Zugänge zum Internet“ der Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) zeigen, dass auch jüngere Kinder sich mittels digitaler Medien mit Gleichaltrigen austauschen und gemeinsam spielen und lernen möchten. „Die aktuell verfügbare Angebotslandschaft kann dieses Bedürfnis jedoch nur teilweise erfüllen“, sagt Sebastian Gutknecht, Direktor der BzKJ. „Deshalb haben wir in 2024 ein Förderprogramm für Angebote aufgelegt, die Kindern altersgerechte digitale Erfahrungen ermöglichen und Orientierung bieten.“

Jutta Croll, Vorstandsvorsitzende der Stiftung Digitale Chancen, die das Forschungsprojekt durchführt, unterstreicht das Kinderrecht auf freie Meinungsäußerung und gesellschaftliche Teilhabe: „Auch kleinere Kinder sollten Zugang zu digitaler Kommunikation und Interaktion haben und bei der Nutzung unterstützt werden, um ein gutes Aufwachsen mit Medien zu gewährleisten.“

Fachkongress mit aktuellen Forschungsergebnissen und fachlichem Diskurs
Kinder beim Aufwachsen in einer digitalen Gesellschaft zu begleiten und von klein auf zu fördern, ist eine Anforderung an die frühkindliche Bildung, mit der sich Politik und Wissenschaft ebenso auseinandersetzen wie pädagogische Fachkräfte in der Praxis vor Ort. In einem mehrjährigen Forschungs- und Praxisprojekt haben sich die Stiftung Ravensburger Verlag und die Stiftung Digitale Chancen mit der Medienerziehung im Dialog von Kita und Familie befasst. Der Fachkongress „Frühkindliche Medienbildung“ am 26. April 2024 in der Landesvertretung Baden-Württemberg in Berlin knüpft an die Projektergebnisse an und stellt aktuelle Entwicklungen aus Wissenschaft, Wirtschaft und Politik vor.

Wissenschaftliche Ansprechpartner:
Thomas Rathgeb
Abteilungsleiter Medienkompetenz Jugendschutz und Forschung
Landesanstalt für Kommunikation Baden-Württemberg
Telefon: 0711 66991-52
E-Mail: t.rathgeb@lfk.de

Jutta Croll
Vorstandsvorsitzende
Stiftung Digitale Chancen
Telefon: 030-43727730
E-Mail: jcroll@digitale-chancen.de

Weitere Informationen:
https://cdn.micro.ravensburger.com/content/wcm/mediadata/pdf/Stiftung/Unsere%20P… Präsentation miniKIM-Studie 2023 von 26.04.2024

Anhang
Pressemeldung Fachkongress Frühkindliche Medienbildung mit Vorstellung miniKIM-Studie 2023

(nach oben)


Influenza: Erreger in Fledermäusen umgeht menschlichen Abwehrmechanismus

Forscher*innen des Universitätsklinikums Freiburg entschlüsseln Eigenschaften eines tierischen Influenza-Virustyps, die auf hohes Übertragungspotenzial auf den Menschen schließen lassen / Publikation in Nature Communications

Obwohl Fledermäuse schon lange als Reservoir für eine Vielzahl von Viren bekannt sind, wurde erst kürzlich entdeckt, dass sie auch Influenza-A-Viren (IAV) beherbergen, zu denen auch die Grippe-Erreger gehören. Diese Viren sind bekannt dafür, sich schnell zu verändern. Forscherinnen des Universitätsklinikums Freiburg und des Friedrich-Loeffler Instituts zeigten nun, dass ein in ägyptischen Fruchtfledermäusen gefundener Subtyp dieser Viren in der Lage ist, das Immunsystem von Säugetieren zu überwinden. Darum gehen die Forscherinnen davon aus, dass der neu entdeckte Virustyp ein relativ hohes Risiko für eine Übertragung auf den Menschen birgt. Die Ergebnisse der Studie wurden am 25. April 2024 in der Fachzeitschrift Nature Communications veröffentlicht.
Hohe Vermehrungs- und Übertragungsfähigkeit

„Das Virus schafft es, einen wichtigen Abwehrmechanismus unseres angeborenen Immunsystems teilweise zu umgehen. Dadurch hat es ein höheres pandemisches Potential als andere Viren“, sagt Forschungsgruppenleiter Prof. Dr. Martin Schwemmle vom Institut für Virologie am Universitätsklinikum Freiburg. Dem Influenza-A-Subtypen H9N2 gelingt es insbesondere, die antivirale Aktivität des sogenannten Myxovirus-Resistenzproteins A (MxA) zu unterdrücken. MxA ist ein menschliches Protein, das vor allem gegen RNA-Viren wie Influenzaviren eine entscheidende Rolle in der Abwehr spielt, indem es die Viren erkennt, bindet und deren Vermehrung stört.

Im Tiermodell zeigte der Virustyp eine hohe Vermehrungs- und Übertragungsfähigkeit. Zusätzlich konnte der Erreger menschliche Lungenzellen erfolgreich infizieren. Die aktuellen Studienergebnisse zeigen außerdem, dass das Fledermaus-H9N2-Virus nur eine geringe antigene Ähnlichkeit zu den Bestandteilen menschlicher Grippeviren aufweist. „Das bedeutet, dass – bei einer potentiellen Übertragung auf den Menschen – in der Bevölkerung eine geringe Immunität gegen das Virus vorliegen würde und bestehende Grippeimpfstoffe möglicherweise nicht wirksam gegen eine neue H9N2-basierte Influenza wären“, sagt Studienleiter Dr. Kevin Ciminski vom Institut für Virologie des Universitätsklinikums Freiburg. Die Erkenntnisse bilden eine wichtige Grundlage für weitere Untersuchungen und präventive Maßnahmen wie umfassende Überwachungsprogramme in Wildtierpopulationen.

Originalpublikation:
Originaltitel der Studie: “Bat-borne H9N2 influenza virus evades MxA restriction and exhibits efficient replication and transmission in ferrets”
DOI: 10.1038/s41467-024-47455-6
Link zur Studie: https://www.nature.com/articles/s41467-024-47455-6

(nach oben)


Der Klimawandel könnte Hauptgrund für den Rückgang biologischer Vielfalt werden

Die globale biologische Vielfalt ist im 20. Jahrhundert allein durch veränderte Landnutzung um 2 bis 11 % zurückgegangen, so das Ergebnis einer in der Zeitschrift Science veröffentlichten Studie. Die Modellberechnungen zeigen auch, dass der Klimawandel bis Mitte des 21. Jahrhunderts zum Hauptgrund für den Rückgang biologischer Vielfalt werden könnte.

Die Arbeit wurde vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv) und der Martin-Luther-Universität Halle-Wittenberg (MLU) geleitet und ist die bisher umfangreichste Modellierungsstudie ihrer Art. Die Forscherinnen und Forscher verglichen dreizehn Modelle; diese berechneten die Auswirkungen von Landnutzungs- und Klimawandel auf vier verschiedene Messgrößen biologischer Vielfalt sowie auf neun verschiedene Ökosystemleistungen.

DIE GLOBALE BIOLOGISCHE VIELFALT KÖNNTE ALLEIN DURCH LANDNUTZUNGSWANDEL UM 2 BIS 11 % ZURÜCKGEGANGEN SEIN
Laut Weltbiodiversitätsrat IPBES gilt Landnutzungswandel (zum Beispiel die Umwandlung von Wald in Weide) als der wichtigste Faktor für den Wandel der biologischen Vielfalt. Die Wissenschaft ist sich jedoch uneins, wie sehr sich die biologische Vielfalt verändert hat. Um diese Frage besser zu beantworten, modellierte das Forschungsteam die Auswirkungen des Landnutzungswandels auf die biologische Vielfalt im 20. Jahrhundert. Die Berechnungen zeigten, dass die weltweite biologische Vielfalt allein aufgrund des Landnutzungswandels um 2 % bis 11 % zurückgegangen sein könnte. Diese Spanne deckt vier Messgrößen biologischer Vielfalt ab (globale Artenzahl, mittlere lokale Artenzahl, mittlere Lebensraumgröße, mittlere Unversehrtheit der Artengemeinschaft), berechnet mit sieben verschiedenen Modellen.

„Indem wir alle Erdregionen in unser Modell einbezogen haben, konnten wir viele blinde Flecken füllen. Wir konnten auch die Kritik an anderen Berechnungsansätzen angehen, die fragmentierte und möglicherweise nicht repräsentative Daten nutzen“, sagt Erstautor Prof. Henrique Pereira, Forschungsgruppenleiter bei iDiv und an der MLU. „Jeder Ansatz hat seine Vor- und Nachteile. Wir denken, dass unser Modellierungsansatz die bisher umfassendste Berechnung des weltweiten Biodiversitätswandels liefert.“

UNEINHEITLICHE TRENDS FÜR ÖKOSYSTEMLEISTUNGEN
Mit fünf verschiedenen Modellen berechneten die Forscherinnen und Forscher auch die Auswirkungen des Landnutzungswandels auf sogenannte Ökosystemleistungen, d. h. den Nutzen der Natur für uns Menschen. Sie stellten fest, dass sich im 20. Jahrhundert versorgende Ökosystemleistungen, wie zum Beispiel die Produktion von Nahrungsmitteln und Holz, vervielfacht haben. Dagegen sind regulierende Ökosystemleistungen, wie zum Beispiel Bestäubung durch Insekten oder die Bindung klimarelevanten Kohlenstoffs, leicht zurückgegangen.

KLIMA- UND LANDNUTZUNGSWANDEL ZUSAMMEN KÖNNTEN ZU EINEM RÜCKGANG BIOLOGISCHER VIELFALT IN ALLEN ERDTEILEN FÜHREN
Die Forscherinnen und Forscher untersuchten auch, wie sich biologische Vielfalt und Ökosystemleistungen in Zukunft entwickeln könnten. Für diese Berechnungen fügten sie den Klimawandel als weiteren Faktor für den Wandel biologischer Vielfalt in ihre Modelle ein.

Den Berechnungen zufolge wird der Klimawandel sowohl die biologische Vielfalt als auch die Ökosystemleistungen zusätzlich beeinträchtigen. Während der Landnutzungswandel weiterhin eine wichtige Rolle spielt, könnte der Klimawandel bis Mitte des 21. Jahrhunderts zum Hauptgrund für den Rückgang biologischer Vielfalt werden. Das Forschungsteam bewertete drei oft verwendete Szenarien – von einem Szenario nachhaltiger Entwicklung bis zu einem Szenario hoher Klimagas-Emissionen.
In allen Szenarien führen Landnutzungs- und Klimawandel zusammen zu einem Rückgang biologischer Vielfalt in allen Weltregionen. Im Detail zeigen sich erhebliche Unterschiede in den verschiedenen Weltregionen, Modellen und Szenarien.

MODELLIERUNGEN SIND KEINE VORHERSAGEN
„Der Zweck langfristiger Szenarien besteht nicht darin, vorherzusagen, was passieren wird“, sagt Mitautorin Dr. Inês Martins von der Universität York. „Vielmehr geht es darum, die Alternativen zu verstehen – um solche Entwicklungen verfolgen zu können, die besonders wünschenswert scheinen. Diese Entwicklungen hängen von unseren Entscheidungen ab, die wir tagtäglich treffen.“ Martins hat die Modellberechnungen mit geleitet; sie ist Alumna von iDiv und MLU.

Das Autorenteam weist auch darauf hin, dass selbst im Szenario „nachhaltiger Entwicklung“ nicht alle Maßnahmen zum Schutz biologischer Vielfalt berücksichtigt werden. So kann beispielsweise der Anbau von Bioenergie-Pflanzen, ein zentraler Baustein des Nachhaltigkeitsszenarios, den Klimawandel abmildern, gleichzeitig aber auch wichtige Lebensräume gefährden. Im Gegensatz dazu sind effektivere Schutzgebiete und Renaturierungs-Maßnahmen in keinem der üblichen Szenarien enthalten.

MODELLE HELFEN BEI DER WAHL WIRKSAMER MAßNAHMEN
Die Auswirkungen verschiedener Schutzmaßnahmen abzuschätzen, kann dabei helfen, die wirksamsten auszuwählen. „Natürlich gibt es Unsicherheiten bei der Modellierung“, fügt Pereira hinzu. „Dennoch zeigen unsere Ergebnisse klar, dass die derzeitigen politischen Maßnahmen nicht ausreichen, um die internationalen Ziele für biologische Vielfalt zu erreichen. Wir müssen mehr tun, um eines der größten globalen Probleme zu lösen: den vom Menschen verursachten Wandel der biologischen Vielfalt.“

Diese Forschungsarbeit wurde u. a. gefördert durch die Deutsche Forschungsgemeinschaft (DFG; FZT-118).

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henrique Pereira (spricht Englisch, Portugiesisch und etwas Deutsch)
https://www.idiv.de/de/profile/132.html

Originalpublikation:
https://doi.org/10.1126/science.adn3441

(nach oben)


Pfunde schmelzen mittels Piks: Was ist dran an der Abnehmspritze?

Endlich schlank und das ohne große Mühen. Die Abnehmspritze, auch bekannt als Fett-weg-Spritze, hat sich von einem Medikament für Diabetiker:innen zu einer Art Lifestyleprodukt entwickelt. So scheint es zumindest. Doch was kann man tatsächlich vom vermeintlichen Schlank-Wunder erwarten? Das klären wir mit Dr. Margit Jekle, Professorin für Lebensmitteltechnologie und pharmazeutisches Qualitätsmanagement an der SRH Fernhochschule.

Mehr als jeder zweite Deutsche ist statistisch gesehen zu dick. Fast ein Viertel gilt sogar als fettleibig. Die Ursachen für das Übergewicht sind vielfältig. Propagierte Methoden, um es wieder loszuwerden auch. Immer wieder gibt es Konzepte oder Wundermittel, die versprechen, überflüssige Kilos schnell und einfach verschwinden zu lassen. Und dafür sind Betroffene bereit, tief in die Tasche zu greifen. Oder sogar ihre Gesundheit zu riskieren.

Jetzt ist ein neues, vermeintliches Wundermittel in aller Munde. Die Abnehmspritze. Doch was genau ist da eigentlich drin? Für wen wurde sie entwickelt und was bewirkt sie? Prof. Dr. Margit Jekle hat Antworten auf diese Fragen.

Jekle: „Die Abnehmspritze, hat in den letzten Monaten an Popularität gewonnen, und die neuesten Entwicklungen auf diesem Gebiet versprechen, neben dem Nutzen für Diabetes Typ 2 Patienten, eine Möglichkeit für eine Gewichtsabnahme für vor allem Adipositaspatienten. So ist das Medikament für Menschen mit einem Body-Mass-Index (BMI) von mindestens 30 oder übergewichtigen Personen mit weiteren Erkrankungen und einem BMI von mindestens 27 zugelassen. Das Medikament dient dabei der Ergänzung zu einer Ernährungs- und Bewegungsumstellung.

Was ist das für ein Wirkstoff und was genau tut er im Körper?

Jekle: „Ganz vereinfacht gesagt, reduziert die Spritze den Appetit oder lässt ihn sogar ganz verschwinden. Das funktioniert, indem der Inhaltsstoff die Wirkung von Darmhormonen nachahmt. Das stimuliert die Bauchspeicheldrüse, die daraufhin Insulin ausschüttet. Der Blutzuckerspiegel sinkt. Das Medikament täuscht ein Sättigungsgefühl vor und diese Reaktion sorgt für weniger Nahrungsaufnahme. Das Medikament wurde ursprünglich für Menschen mit Typ-2-Diabetes entwickelt.“

In Social Media scheint die Spritze aber auch Einzug gehalten zu haben. Der Hype ist groß und die Vorstellung, unerwünschtes Fett mit nur einem Piks loszuwerden, klingt verlockend. Doch es gibt sicher auch Risiken. Welche sind das?

Jekle: „Nebenwirkungen wie Übelkeit, Durchfall und Erbrechen wurden im Zusammenhang mit der Anwendung des Medikaments beobachtet, insbesondere zu Beginn der Behandlung. Es können auch Erkrankungen an der Bauchspeicheldrüse, Gallenblase oder auch Gallensteine entstehen. In Tierversuchen zeigten sich Fälle von Schilddrüsenkrebs. Eine enge ärztliche Überwachung ist daher unerlässlich, um potenzielle Komplikationen zu vermeiden.“

Es gibt Befürchtungen, dass es wegen eingeschränkter Verfügbarkeit des Wirkstoffes zu einem Wettbewerb kommen könnte. Kann es wirklich sein, dass Diabetiker das Medikament nicht mehr bekommen, weil Abnehmwillige es Ihnen vor der Nase wegschnappen?

Jekle: „Die Produktionskapazitäten für dieses Medikament sind derzeit noch begrenzt. Pharmazeutische Unternehmen wie Eli Lilly & Company setzten weiterhin auf Expansion und investieren in neue Produktionsstätten, auch in Deutschland, um die Nachfrage zu decken und sicherzustellen, dass alle, die von dieser Behandlung profitieren könnten, Zugang dazu haben.“

Wie nachhaltig ist denn die Abnahme dank der Spritze?

Jekle: „Es gibt keine Langzeitstudie zur Abnehmspritze. Erste Untersuchungen zeigen, dass Anwender:innen wieder zunehmen, wenn sie die Spritze absetzen, da der Appetit wieder zunimmt. Um dauerhaft schlank zu bleiben, scheint es derzeit, dass man die Abnehmspritze wahrscheinlich langfristig nehmen muss.“

Kommt man auch ohne medizinische Indikation an die Spritze?

Jekle: „Sie ist verschreibungspflichtig, und sollte nicht ohne ärztliche Konsultation angewendet werden. Krankenkassen übernehmen in der Regel die Kosten nur bei Diabetes. Bei Adipositas muss das Medikament allgemein selbst bezahlt werden.“

Kann man mit der Fett-weg-Spritze gezielt Problemzonen bekämpfen, wie zum Beispiel ein Doppelkinn oder Bauchspeck?

Jekle: „Nein. Das ist nicht möglich. Das Medikament reduziert das Verlangen zur Nahrungsaufnahme. Gezielt nur an bestimmten Körperstellen abnehmen ist daher ähnlich schwierig, wie bei einer Diät.“

Wie bewerten Sie insgesamt die Spritze? Ihre Einsatzgebiete und die Wirkung?

Jekle: „Das Medikament kann in Spezialfällen hilfreich sein, wie bei stark adipösen Patienten, die auch unter Begleiterkrankungen wie Herz-Kreislauf-Erkrankungen leiden. Doch um eine langfristige Ernährungs- und Bewegungsumstellung kommt man nicht herum, wenn man wirklich dauerhaft schlank bleiben möchte, ohne längerfristig auf eine Injektion angewiesen zu sein.“

Anhang
Das PDF zur Pressemitteilung „Abnehmspritze“

(nach oben)


Unterschätzter Risikofaktor: Ein gestörter Schlaf kann Bluthochdruck verursachen

Ein erholsamer Schlaf ist für unser Wohlbefinden und unsere Gesundheit unerlässlich, denn dauerhafte Schlafstörungen begünstigen organische und psychische Erkrankungen. Das ist vielen bekannt. Dass Schlafstörungen aber auch ein deutlicher Risikofaktor für die Entwicklung einer Bluthochdruckerkrankung sind, sollte noch stärker im Bewusstsein der Menschen verankert sein. Wie immer gilt auch hier: Genau hinsehen und Blutdruck messen!

Bluthochdruck-Risikofaktor Schlafstörungen
Schlafstörungen sind nicht nur belastend und senken das Wohlbefinden und die Leistungsfähigkeit. Sie sind auch bekanntermaßen ein relevanter Risikofaktor für die Entwicklung einer Bluthochdruckerkrankung. Daher wurden Schlafstörungen nun als neuer Risikofaktor für Herz-Kreislauf-Erkrankungen in die Hypertonie-Leitlinie der europäischen Gesellschaft für Bluthochdruck aufgenommen [1]. Menschen mit einem gestörten Schlaf haben Studien zufolge ein 1,5 bis 3-fach höheres Risiko für eine Bluthochdruckerkrankung [2,3]. „10% der Bevölkerung in Deutschland leidet unter Ein- und Durchschlafstörungen“, erklärt der Internist, Pneumologe, Kardiologe, Somnologe und Intensivmediziner Prof. Dr. med. Bernd Sanner, Ärztlicher Direktor und Chefarzt der Medizinischen Klinik des Agaplesion Bethesda Krankenhauses Wuppertal und Sprecher der Sektion Hochdruckdiagnostik der Hochdruckliga. „Daher trifft das Risiko, einen Bluthochdruck zu entwickeln, auf eine nicht unerhebliche Anzahl von Menschen zu.“ Sichere Auskunft darüber, ob die Schlafstörungen eine organische Ursache haben, oder ob der Blutdruck bereits krankhaft erhöht ist, geben die ambulante 24-Stunden-Blutdruckmessung und die Schlafdiagnostik. „Deshalb ist die regelmäßige Blutdruckmessung, auch zu Hause, für alle ratsam, die mit Schlafstörungen zu kämpfen haben. Ist der Blutdruck erhöht, kann anschließend eine gesicherte Diagnose durch Ärztinnen und Ärzte erfolgen“, betont Prof. Sanner.

Blutdruckregulation im Schlaf
Schlaf ist lebensnotwendig. Der Körper regeneriert sich im Schlaf, Wachstumshormone werden dazu ausgeschüttet, die Energiespeicher werden aufgefüllt, das Immunsystem bildet Abwehrstoffe und das Gehirn verarbeitet und speichert Informationen. Im Zuge dieser Aktivitäten sinken der Herzschlag und der Blutdruck in der Nacht. „Ein gestörter Schlaf verhindert diese wichtige Absenkung, das sogenannte Dipping. Liegt ein sogenanntes Non-Dipping vor, ist die Rate von zukünftigen Herz- und Kreislaufproblemen bereits erhöht. Auf Dauer kann auch ein Bluthochdruck am Tage entstehen“, erklärt Prof. Sanner den Zusammenhang.

Schlechte Schlafqualität ist durch viele Faktoren bedingt
Faktoren, die den Schlaf negativ beeinflussen können, sind z. B.

  • psychischer und emotionaler Stress
  • Schnarchen
  • Schlafapnoe (meist obstruktive Schlafapnoe OSA, Atemaussetzer)
  • nächtliche periodische Beinbewegungen
  • sogenannte „exogene“ Faktoren wie Lärm und zu hohe Umgebungstemperaturen oder Helligkeit während des Schlafes
  • soziale Faktoren, wie z. B. selbst gewählter Schlafmangel.

Schnarchen und Schlafapnoe lassen den Blutdruck steigen und umgekehrt
Bluthochdruck und schlafbezogene Atemstörungen bedingen sich gegenseitig. Die Hälfte aller Betroffenen mit einer Schlafapnoe leidet auch unter Bluthochdruck und umgekehrt sind 30 bis 40 Prozent aller Bluthochdruckerkrankten von einer Schlafapnoe betroffen [4,5]. Liegt eine therapieresistente Hypertonie vor, d. h. lässt sich der Bluthochdruck auch mit Medikamenten nicht einstellen, ist besonders häufig parallel eine Schlafapnoe vorhanden. Bei der häufigsten Form, der obstruktiven Schlafapnoe (OSA), erschlaffen die Halsmuskeln im Schlaf, Zunge und Gaumensegel entspannen sich, fallen nach hinten und blockieren die oberen Atemwege und damit die Sauerstoffversorgung. Die Atmung setzt dann wieder mit einem Schnarchen und einer damit verbundenen unbewussten Weckreaktion ein. „Bei der Schlafapnoe kommt es durch die ständigen Kollapse des weichen Gaumens beim Einatmen zu Atemaussetzern und dadurch zu einem Dauerstress während der Nacht. Aus Sicht des Kreislaufs ist das ein rein passiver Stress, genau in der Zeit, in der unser Kreislauf eigentlich die nächtliche Erholung benötigt. Dies führt anfangs nachts, aber im Verlauf auch tagsüber zu einer dauerhaften Erhöhung des Blutdrucks“, erläutert Hochdruckliga-Sektionsmitglied PD Dr. Jan Börgel, Internist, Kardiologe, Intensivmediziner und Chefarzt der Klinik für Innere Medizin I des akademischen Lehrkrankenhauses St. Barbara-Klinik in Hamm [6].

Auch Insomnie und zu wenig Schlaf fördern Bluthochdruck
Schlaflosigkeit (Insomnie) betrifft ungefähr sechs Prozent der Bevölkerung, Frauen stärker als Männer. Betroffene liegen dauerhaft mindestens dreimal pro Woche wach und finden keinen Schlaf. Der daraus resultierende Schlafmangel beeinträchtigt nicht nur das Wohlbefinden und führt zu Gereiztheit, Unkonzentriertheit und Gedächtnisproblemen, sondern erhöht das Risiko für einen Bluthochdruck deutlich. Wie eine Studie zeigte, hat eine Schlafdauer von unter fünf Stunden ein um 50 Prozent erhöhtes Hypertonierisiko zur Folge [7]. „Weniger als sieben Stunden Schlaf sollten es in der Regel für einen gesunden Blutdruck nicht sein, unabhängig davon, ob die kurze Schlafdauer durch Schlafstörungen bedingt ist, oder durch den Lebensstil selbst gewählt ist. Nur die wenigsten sind echte „Kurzschläfer“, die mit weniger Schlaf auskommen, ohne Schaden zu nehmen oder in ihrer Leistungsfähigkeit beeinträchtigt zu sein“, rät Prof. Sanner.

Wie lässt sich der Schlaf verbessern?
Besser Schlafen zu können, lässt sich in den allermeisten Fällen lernen, manchmal sind jedoch Hilfsmittel erforderlich [8].

Gegen Stress und andere emotionale Faktoren hilft eine konsequente Schlafhygiene mit zeitigem Zubettgehen, Entspannungsmaßnahmen (Atem-, Meditationsübungen, progressive Muskelentspannung, Yoga), der Vermeidung von Bildschirmaktivität und dem Unterlassen von Alkoholkonsum vor dem Einschlafen. Gute Effekte zeigen auch entsprechende Apps und professionell entwickelte Achtsamkeitsprogramme wie das Mindfulness-Based Stress Reduction Programm (MBSR).

Körperliche Ursachen müssen zunächst über Screening-Untersuchungen zu Hause oder im Schlaflabor ärztlich abgeklärt werden. Oft ist auch Übergewicht ein begünstigender Faktor für die Schlafapnoe. Aufgrund ihrer stammbetonten Fettverteilung im Körper neigen Männer stärker als Frauen dazu, eine Schlafapnoe zu entwickeln. Besonders in Rückenlage kommt es zu den gefährlichen Atemaussetzern. Eine Gewichtsabnahme und der Wechsel der Schlafposition schaffen häufig Abhilfe.

In schweren Fällen wird zur Behandlung eine CPAP (Continuous Positive Airway Pressure)-Maske eingesetzt. Die Nasenmaske wird während des Schlafs getragen und verhindert durch eine kontinuierliche Überdruck-Atmung den Kollaps des weichen Gaumens und damit die Atemaussetzer. Dadurch kommt der Kreislauf kommt zur Ruhe und die Blutdruckabsenkung wird wiederhergestellt.

Von Schlafmitteln raten die Experten übereinstimmend ab: „Schlafmittel sollten wegen Ihres Suchtpotenzials bei einer diagnostizieren Insomnie nur die allerletzte Wahl sein.“ „Wurden bei Patientinnen und Patienten alle körperlichen und seelischen Ursachen ausgeschlossen und sind z. B. schlafhygienische Maßnahmen oder auch verhaltenstherapeutische Therapien erfolglos, kann in seltenen Fällen ein medikamentöser Therapieversuch über eine kurze Zeit von maximal 3−4 Wochen erfolgen, um die Nebenwirkung einer Abhängigkeit zu vermeiden“, stellt Dr. Börgel klar.

Schlafmythen – was ist dran?
Gesunder Schlaf vor Mitternacht: Der Schlaf vor Mitternacht ist nicht notwendigerweise gesünder, allerdings liegen bei vielen Menschen die als erholsamer empfundenen Tiefschlafphasen vor Mitternacht.

Abends kein Sport: Sport und körperliche Bewegung sind zur Senkung des Blutdrucks und für einen gesunden Schlaf sehr empfehlenswert, aber tatsächlich nicht unmittelbar vor dem Einschlafen. Dann ist der Körper noch zu angespannt und findet nicht in den notwendigen Ruhezustand.

Kein Alkohol: Selbst moderater Alkoholgenuss stört den Schlaf. Er erleichtert zwar oft das Einschlafen selbst, aber fördert zwischenzeitliches nächtliches Aufwachen.

Nicht nach 18 Uhr essen: Wer reichlich am Abend isst und das auch noch kohlenhydratreich, schläft tatsächlich schlechter. Empfehlenswert ist daher eiweißreiche und kohlenhydratarme Kost vor 20 Uhr.

Quellen:
[1] Mancia G, Kreutz R, Brunström M et al. 2023 ESH Guidelines for the management of arterial hypertension The Task Force for the management of arterial hypertension of the European Society of Hypertension: Endorsed by the International Society of Hypertension (ISH) and the European Renal Association (ERA). J Hypertens. 2023 Dec 1;41(12):1874-2071. (Table 2 auf S. 1888)
[2] Budhiraja R, Roth T, Hudgel D W, Budhiraja P, Drake C L. Prevalence and polysomnographic correlates of insomnia comorbid with medical disorders. Sleep. 2011;34(7):859–867.
[3] Taylor D J, Mallory L J, Lichstein K L, Durrence H H, Riedel B W, Bush A J. Comorbidity of chronic insomnia with medical problems. Sleep. 2007;30(2):213–218.
[4] Fletcher ED, DeBehnke RD, Lovoi MS et al. Undiagnosed sleep apnea in patients with essential hypertension. Ann Intern Med. 1985;103(2):190-195.
[5] Durán-Cantolla J, Aizpuru F, Martínez-Null C, Barbé-Illa F. Obstructive sleep apnea/hypopnea and systemic hypertension. Sleep Med Rev. 2009;13(5):323-331.
[6,8] Deutsche Deutsche Hochdruckliga e.V. DHL®│Deutsche Gesellschaft für Hypertonie und Prävention. DRUCKPUNKT 1-2024;14-22.
[7] Vgontzas AN, Liao D, Bixler EO, Chrousos GP, Vela-Bueno A. Insomnia with objective short sleep duration is associated with a high risk for hypertension. Sleep. 2009;32(4):491-497.

Informationsmaterial:
Die Hochdruckliga als Kompetenzstelle für Bluthochdruck in Deutschland hält auf ihrer Website unter https://www.hochdruckliga.de/ eine Vielzahl von Informationsmaterialien für Betroffene und Fachleute rund um das Thema Bluthochdruck bereit: von der Prävention über die Diagnose bis zur Therapie. Das zweimal jährlich erscheinende Magazin DRUCKPUNKT richtet sich an von Bluthochdruck Betroffene und Interessierte. Ein Probe-Exemplar kann kostenfrei per E-Mail an info@hochdruckliga.de oder über https://www.hochdruckliga.de/betroffene/magazin-druckpunkt angefordert werden.

Zusatzmaterial:
Tipps für einen besseren Schlaf

  1. Auf ausreichend Schlaf achten
  • Egal, ob Sie tagsüber oder nachts arbeiten: Zwischen dem Zubettgehen und dem Aufstehen genügend Schlaf einplanen. 7 bis 9 Stunden sollten es sein!
  1. Auf regelmäßige Schlaf- und Aufstehzeiten achten
  • Schlaf- und Aufstehzeiten dürfen individuell sein, aber sie sollen regelmäßig sein: Frühaufsteher also früh zu Bett, Langschläfer später.
  • Auch für den Mittagsschlaf gilt: entweder regelmäßig zur gleichen Zeit oder besser gar nicht, um den Schlafrhythmus nicht durcheinander zu bringen.
  1. Schlaffreundliche Umgebung schaffen
  • Ruhige Umgebung und angenehme, eher kühle Raumtemperatur
  • Schlafplatz/Zimmer abdunkeln. Licht stört den Schlaf als Stressfaktor und verringert die Ausschüttung des Schlafhormons Melatonin.
  • Lärm wirkt sich auch dann negativ auf den Schlaf aus, wenn er nicht bewusst wahrgenommen wird, also gerade auch während des Schlafens.
  1. Vor dem Zubettgehen erst einmal zur Ruhe kommen
  • Nach emotionaler Aufregung nicht gleich ins Bett gehen, sondern Zeit zum „Runterkommen“ nehmen
  • Entspannungstechniken nutzen: Atem-, Meditationsübungen, progressive Muskelentspannung, Yoga oder spezielle Programme wie das MBSR
  • Buch statt Bildschirm (Fernsehen, Smartphone, Tablet, E-Reader)
  • Entspannungsbad oder -dusche
  • Musikhören
  • Abendspaziergang
  1. Nicht unter Druck setzen
  • Der ständige Gedanke daran, einschlafen zu müssen, stresst zusätzlich.
  1. Kein Alkohol
  • Auch mäßiger Alkoholkonsum verschlechtert die Schlafqualität und führt zu unruhigem Schlaf und Schlafunterbrechungen.
  • Der „Schlummertrunk“ hilft vielleicht beim Einschlafen, aber schadet.
  1. Auf üppige, schwere Mahlzeiten vor dem Zubettgehen verzichten
  • Kohlenhydratreiche Kost liegt nicht nur schwer im Magen, sondern erschwert auch einen erholsamen Schlaf, denn der Stoffwechsel arbeitet dann auf Hochtouren.
  • Auf eiweißreiche und kohlenhydratarme Kost vor dem Schlafengehen umstellen
  1. Gewichtsabnahme bei Übergewicht
  • Schon eine moderate Gewichtsabnahme hilft oft. Generell begünstigt Übergewicht Bluthochdruck.
  1. Schlafposition wechseln
  • Die Rückenlage begünstigt Schnarchen und Schlafapnoe.
  1. Schlaftabletten vermeiden
  • Schlaftabletten sollten nur nach ärztlicher Rücksprache über einen kurzen Zeitraum eingenommen werden. Ein längerer Gebrauch kann schnell zur Abhängigkeit führen.

Über uns:
Die Deutsche Hochdruckliga e.V. DHL® │ Deutsche Gesellschaft für Hypertonie und Prävention ist eine gemeinnützige, unabhängige medizinisch-wissenschaftliche Fachgesellschaft. Seit 1974 setzen wir uns für eine wissenschaftlich fundierte Aufklärung auf dem Gebiet der Hypertonie ein. Die gesamtgesellschaftliche gesundheitliche Herausforderung Bluthochdruck verlangt nach einer interdisziplinären Antwort. Wir bündeln die Expertise aus allen relevanten Fachgruppen und stellen diese allen beteiligten Gruppen zur Verfügung.

Pressekontakt:
Silke Kleffner-Pöppel
Berliner Straße 46
69120 Heidelberg
presse@hochdruckliga.de
Telefon: +49 62 21 5 88 55-18
Mobil (Geschäftsführerin Frau Dr. Barbara Pfeilschifter): 0 170-329 293 7
Website: www.hochdruckliga.de

Weitere Informationen:
https://www.hochdruckliga.de/betroffene/infomaterial-zum-download
Video zu Schlaf und Bluthochdruck aus der Reihe „Kurz erklärt: Bluthochdruck“

Anhang
Pressemeldung Bluthochdruck und Schlafstörungen der Deutschen Hochdruckliga

(nach oben)


Verbesserter Hochwasserschutz entlang der Elbe: Projektabschlussveranstaltung informiert Fachöffentlichkeit

Die Kooperationspartner Bundesanstalt für Gewässerkunde (BfG) und die Bundesländer Niedersachsen, Sachsen-Anhalt, Brandenburg, Mecklenburg-Vorpommern und Schleswig-Holstein stellten die Ergebnisse des Projektes „Untersuchungen zur Verbesserung der Hochwassersituation an der Mittelelbe von Tangermünde bis Geesthacht – 2D-Modellierung Mittelelbe“ am 11. April 2024 im Rahmen einer Abschlussveranstaltung an Bord des Schiffes „Lüneburger Heide“ auf der Elbe vor. Die Veranstaltung richtete sich an Fachleute verschiedener Disziplinen, Institutionen sowie Vertreter/-innen der Politik.

Im Rahmen des Projektes analysierte die Bundesanstalt für Gewässerkunde (BfG) gemeinsam mit den an der Elbe liegenden Bundesländern Niedersachsen, Sachsen-Anhalt, Brandenburg, Mecklenburg-Vorpommern und Schleswig-Holstein im Verlauf der Jahre 2016 bis 2024 eine hohe Anzahl an Optionen zur Verbesserung des Hochwasserschutzes des Elbe-Abschnittes von Tangermünde bis Geesthacht. Das Besondere des Projektes liegt in der Breite und dem Umfang der Bundesländer-übergreifenden Analyse. So wurden ca. 50 Optionen identifiziert und wissenschaftlich bewertet, die den Hochwasserschutz in der Elbe-Region zukünftig unter Berücksichtigung ökologischer Belange verbessern könnten.

Die analysierten Maßnahmenoptionen befinden sich zum jetzigen Zeitpunkt in verschiedenen Planungsstadien bzw. der Prüfung der Machbarkeit auf Bundesländerebene. Die Veranstaltung diente deren Vorstellung, der Diskussion und einem Ausblick zu den im Projektverlauf gewonnenen Erkenntnissen. Zum Programm zählten mehrere Fachvorträge der beteiligten Kooperationspartner aus den Bundesbehörden, der Bundesländer, der Flussgebietsgemeinschaft Elbe (FGG Elbe) sowie verschiedener Verbände. Die Ergebnisse stehen als BfG-Bericht bereits öffentlich zur Verfügung (s. u.).

Hochwasserschutz als Gemeinschaftsaufgabe
Zuständig für Hochwasserschutz und -vorsorge sind in Deutschland die Bundesländer. Die BfG forscht und berät zu unterschiedlichen Aspekten rund um das Thema Hochwasser und unterstützt damit die Bundesländer bei ihrer Aufgabe. Unmittelbar nach den verheerenden Hochwassern im Juni 2013 insbesondere im Elbe- und Donaugebiet fassten der Bund und die für den Hochwasserschutz zuständigen Bundesländer gemeinsam den Entschluss zur Erarbeitung eines Nationalen Hochwasserschutzprogramms (NHWSP). Dieses enthält eine bundesweite Aufstellung mit vordringlich umzusetzenden, überregional wirksamen Schutzmaßnahmen. Ziel ist es, diese Maßnahmen innerhalb eines Flussgebiets so zu kombinieren, dass möglichst viele Menschen von ihnen profitieren und Synergieeffekte mit dem Naturschutz und der Umsetzung der Wasserrahmenrichtlinie zu fördern. Die Bundesländer Niedersachsen, Mecklenburg-Vorpommern, Schleswig-Holstein, Brandenburg und Sachsen-Anhalt haben mit der Bundesanstalt für Gewässerkunde (BfG) das Projekt „Untersuchungen zur Verbesserung der Hochwassersituation an der Mittelelbe von Tangermünde bis Geesthacht“ im Rahmen des Nationalen Hochwasserschutzprogramms (NHWSP) durchgeführt. Das Projekt trägt mit wissenschaftlichen Empfehlungen zu einer zielgerichteten Entwicklung konkreter Hochwasserschutzmaßnahmen bei. Die bereits etablierte überregionale fachliche Zusammenarbeit der Kooperationspartner wurde durch die Zusammenarbeit im Projekt noch intensiviert.

Wissenschaftliche Ansprechpartner:
Dr. Markus Promny, +49 261 1306-5028, E-Mail: promny@bafg.de

Originalpublikation:
Schramm, W., Promny, M., Hatz, M., (2024): Untersuchungen zur Verbesserung der Hochwassersituation an der Mittelelbe von Tangermünde bis Geesthacht – 2D-Modellierung Mittelelbe. Bericht der Bundesanstalt für Gewässerkunde BfG-2175, Kob-lenz. DOI: 10.5675/BfG-2175. Im Internet: http://doi.bafg.de/BfG/2024/BfG-2175.pdf

Weitere Informationen:
https://www.bafg.de/DE/Service/Presse/_doc/2024/240412_elbe2D.html

(nach oben)


Handlungsoptionen für die Wasserstoffwirtschaft – Wasserstoff-Kompass jetzt auch als PDF-Version verfügbar

Der gemeinsam von acatech und DECHEMA erarbeitete digitale Wasserstoff-Kompass bietet Orientierung in der Wasserstoffwirtschaft – ab sofort ist er auch als umfassende PDF-Version verfügbar.

Wasserstoff gilt als wichtiger Baustein des künftigen Energiesystems. Das Projekt Wasserstoff-Kompass hatte es sich deshalb im Jahr 2021 zur Aufgabe gemacht, Orientierungswissen für viele noch offene Fragen zu diesem Thema zu erarbeiten und im Anschluss zur Verfügung zu stellen.

Im September 2023 veröffentlichten acatech und DECHEMA den gemeinsam erarbeiteten digitalen Wasserstoff-Kompass https://www.wasserstoff-kompass.de/handlungsfelder#/, der Orientierung für mögliche Wege in Deutschlands künftige Wasserstoffwirtschaft bietet. Er zeigt daten- und faktenbasiert Handlungsoptionen und Schlüsseltechnologien zu Erzeugung, Transport und Import sowie zu möglichen Anwendungsfällen rund um Wasserstoff und seine Folgeprodukte auf. Gleichzeitig stellt er wesentliche Grundvoraussetzungen, Vor- und Nachteile und Folgen dar. Zusätzlich wurden bestehende und künftige Verknüpfungen zwischen Industrien, Prozessen und Sektoren im Rahmen der Projektarbeit herausgearbeitet.

Das im Wasserstoff-Kompass erfasste umfangreiche Orientierungswissen hat in den vergangenen Monaten sehr viel Zuspruch erfahren. Die im Rahmen der Projektarbeit entwickelten Ergebnisse finden sich deshalb nun auch als PDF-Version zum Download. Dabei gilt es zu beachten, dass es sich bei einer PDF-Version immer nur um eine Momentaufnahme handelt. Im Fall des Wasserstoff-Kompasses ist dies der Stand der Analysen zum Zeitpunkt Dezember 2023.

Die PDF-Version des Gesamtdokumentes sowie die Einzelkapitel stehen nun zum kostenlosen Download zur Verfügung.

Über das Projekt Wasserstoff-Kompass
Deutschland will ab 2045 klimaneutral sein. Mithilfe von Wasserstoff lassen sich viele Bereiche defossilisieren. Gleichzeitig eröffnet Wasserstoff dem Industriestandort Deutschland neue Wachstumsoptionen. Ein Projektteam von DECHEMA und acatech hat gemeinsam den Wasserstoff-Kompass erarbeitet. Das Projekt wurde gemeinsam durch das Bundesministerium für Wirtschaft und Klimaschutz und das Bundesministerium für Bildung und Forschung gefördert.

Wissenschaftliche Ansprechpartner:
Simone Angster, DECHEMA e.V. (simone.angster@dechema.de)
Christoph Uhlhaas, acatech – Deutsche Akademie der Technikwissenschaften (uhlhaas@acatech.de)

Weitere Informationen:
https://dechema.de/Themen/Studien+und+Positionspapiere/2024+03+H2+Kompass.html – Download der pdf-Datei
https://www.wasserstoff-kompass.de/ – Das Projekt Wasserstoffkompass

(nach oben)


Wie Grünalgen und Bakterien gemeinsam zum Klimaschutz beitragen

Mikroskopisch kleine Algen spielen eine bedeutende Rolle bei der Bindung von Kohlendioxid und sind daher von großer ökologischer Bedeutung. Ein Forschungsteam der Universität Jena hat nun ein Bakterium gefunden, das mit einer Grünalge ein Team bildet. Beide Mikroorganismen unterstützen sich gegenseitig in ihrem Wachstum. Das Bakterium hilft der Mikroalge außerdem dabei, den Giftstoff eines anderen, schädlichen Bakteriums zu neutralisieren. Das grundlegende Verständnis des Zusammenspiels von Algen und Bakterien spielt auch beim Klimaschutz eine wichtige Rolle. Die Ergebnisse der Studie werden am 5. April in der wissenschaftlichen Fachzeitschrift PNAS veröffentlicht.

„Wir konnten nachweisen, dass das Bakterium Mycetocola lacteus mit der grünen Mikroalge Chlamydomonas reinhardtii in einer partnerschaftlichen Verbindung lebt, von der beide Seiten profitieren. Während das Bakterium bestimmte überlebenswichtige B-Vitamine und eine schwefelhaltige Aminosäure erhält, wird das Wachstum der Grünalge optimiert“, sagt Prof. Dr. Maria Mittag, Professorin für Allgemeine Botanik der Friedrich-Schiller-Universität Jena. „Zudem“, so die korrespondierende Autorin der neuen Studie weiter, „schützen das Helferbakterium Mycetocola lacteus und eine verwandte Bakterienart die Alge gemeinsam vor schädlichen Angriffen anderer Bakterien, indem sie einen Giftstoff dieser feindlichen Bakterien durch Spaltung inaktivieren. Somit sichern die bakteriellen Helfer das Überleben der Algen.“

Mikroalgen sind – ebenso wie Bakterien – Mikroorganismen. Sie kommen sowohl im Süßwasser als auch in Ozeanen und im Boden vor. „Neben Landpflanzen produzieren Algen und Cyanobakterien einen großen Teil des Sauerstoffs und binden etwa die Hälfte des Kohlendioxids in der Atmosphäre durch Photosynthese. Damit leisten sie einen wichtigen Beitrag für das Leben auf der Erde“, stellt Mittag fest.

Nur gesunde Algen können Kohlendioxid gut aufnehmen
Auch vor dem Hintergrund der globalen Erwärmung ist dieses Wissen von großer Bedeutung. „Nur gesunde Algen können Kohlendioxid gut aufnehmen und binden. Deshalb ist es wichtig zu wissen, welche Bakterien den Algen dabei helfen, stark zu bleiben und gleichzeitig die Wirkung der schädlichen Bakterien zu neutralisieren. In unserer Studie konnten wir zeigen, dass die verwendeten Bakterien und Mikroalgen auch in ihrer natürlichen Umgebung zusammen auftreten“, sagt Prof. Mittag.

In ihren natürlichen Lebensräumen interagieren Mikroorganismen miteinander und gestalten so ihr Zusammenleben. „In unserer Forschung analysieren wir das komplexe Zusammenspiel dieser kleinen Lebewesen, um zu verstehen, wie sie sich gegenseitig beeinflussen und welche Faktoren sich positiv oder negativ auf ihr Wachstum auswirken. Dies ist entscheidend, um die Mechanismen zu verstehen, die zur Erhaltung der natürlichen Ökosysteme beitragen und um effektive Schutzmaßnahmen zu entwickeln“, erläutert Prof. Dr. Christian Hertweck, Professor für Naturstoffchemie der Universität Jena sowie Leiter der Abteilung für Biomolekulare Chemie am Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie.

Die Studie ist im Rahmen eines gemeinsamen Forschungsvorhabens entstanden, an dem sowohl Forschende des Exzellenzclusters „Balance of the Microverse“ als auch des Sonderforschungsbereichs „ChemBioSys“ der Universität Jena beteiligt waren. „Mit der Verknüpfung der biologischen Perspektive mit der analytischen Naturstoffchemie und unserer fachlichen Expertise in der organischen Synthese haben wir den Mechanismus nachgewiesen, mit dem das Bakteriengift inaktiviert wird“, erklärt Prof. Dr. Hans-Dieter Arndt, Professor für Organische Chemie der Universität Jena.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Maria Mittag
Matthias-Schleiden-Institut der Friedrich-Schiller-Universität Jena
Am Planetarium 1, 07743 Jena
Tel.: 03641 / 949201
E-Mail: m.mittag@uni-jena.de

Originalpublikation:
David Carrasco Flores, Vivien Hotter, Trang Vuong, Yu Hou, Yuko Bando, Kirstin Scherlach, Bertille Burgunter-Delamare, Ron Hermenau, Anna J. Komor, Prasad Aiyar, Magdalena Rose, Severin Sasso, Hans-Dieter Arndt, Christian Hertweck, Maria Mittag: A mutualistic bacterium rescues a green alga from an antagonist. PNAS, Vol. 121, 5. April 2024, DOI: 10.1073/pnas.2401632121


Weitere Informationen:
https://www.microverse-cluster.de – Exzellenzcluster „Balance of the Microverse“ der Friedrich-Schiller-Universität Jena
https://www.chembiosys.de – Der DFG-Sonderforschungsbereich ChemBioSys

(nach oben)


Long-COVID: Biomarker bestätigen sich nicht

Etwa 0,5% aller Menschen entwickeln nach einer SARS-CoV-2-Infektion über Monate anhaltende Beschwerden. Dieser Zustand wird als Long-COVID oder Post-COVID bezeichnet. Solche Patient:innen zu erkennen, gestaltet sich für die behandelnden Mediziner:innen oft schwierig, da die Symptome vielgestaltig sind und von psychischen Faktoren beeinflusst werden. Daher sucht die Wissenschaft intensiv nach sogenannten Biomarkern, also bestimmten Laborwerten im Blut der Betroffenen, die die Diagnose Long-COVID zweifelsfrei bestätigen.

Forschende des Universitätsklinikums Essen und der Medizinischen Fakultät der Universität Duisburg-Essen mussten die Hoffnung auf den schnellen Einsatz einiger solcher Biomarker nun dämpfen.

Long-COVID ist ein noch unverstandenes Phänomen. Das liegt nicht zuletzt daran, dass die Erkrankung mit bis zu 200 unterschiedlichen Symptomen einhergehen kann, etwa einer ausgeprägten Müdigkeit (Fatigue), Konzentrationsstörungen oder starken Schmerzen. Trotzdem sind die Untersuchungsbefunde meistens völlig normal. Daher setzt die Wissenschaft große Hoffnung in die Entdeckung von Biomarkern, mit deren Hilfe es gelingen soll, Menschen mit Long-COVID eindeutig zu identifizieren.
Neuere wissenschaftliche Veröffentlichungen berichteten, dass insbesondere das Aktivitätshormon Cortisol und bestimmte Entzündungsbotenstoffe im Blut, sogenannte Zytokine, geeignete Biomarker bei Long-COVID sein könnten. Laut diesen Studien ist die Konzentration von Cortisol im Blut Long-COVID Betroffener deutlich niedriger als bei Gesunden, die Menge an entzündungsfördernden Zytokinen ist dagegen erhöht. Die Messung solcher Blutwerte hätte es den behandelnden Ärzt:innen zukünftig möglich gemacht, die Diagnose Long-COVID rasch und sicher zu stellen. Diese hoffnungsvollen Ergebnisse konnte ein Forschungsteam des Universitätsklinikums Essen in einer aktuellen Studie nun nicht bestätigen.

Die Wissenschaftler:innen bestimmten die Blutwerte von Cortisol und der Zytokine TNFalpha, Interleukin-1beta und Interleukin-6 in vier verschiedenen Gruppen an insgesamt 130 Teilnehmenden: Menschen, die nie eine SARS-CoV-2-Infektion gehabt hatten; Menschen, die eine SARS-CoV-2-Infektion durchgemacht hatten, aber kein Long-COVID entwickelten; Menschen, die Long-COVID hatten, aber wieder vollständig davon genesen waren und Menschen mit anhaltendem Long-COVID. Die Ergebnisse, die in der aktuellen Ausgabe von „Therapeutic Advances in Neurological Disorders“ erschienen sind, waren überraschend – alle gemessenen Werte lagen im Normbereich, und es gab keinerlei Unterschiede zwischen den genannten Gruppen. „Leider konnten wir nicht bestätigen, dass Cortisol und einige der wichtigsten Entzündungsbotenstoffe alltagstaugliche Biomarker bei Menschen mit Long-COVID sind. Diese Nachricht ist für die Betroffenen sicher enttäuschend, passt allerdings zu unseren früheren Untersuchungen, dass es sich bei Long-COVID nicht um eine körperliche Erkrankung im engeren Sinne handelt, sondern die Psyche eine große Rolle spielt“, fasst Prof. Christoph Kleinschnitz, Direktor der Klinik für Neurologie und federführender Autor der Studie, zusammen.

„Die Ergebnisse zeigen das Dilemma der medizinischen Forschung: Während es wichtig ist, Studienergebnisse anderen Forschenden zugänglich zu machen, stehen auf der anderen Seite Patient:innen, bei denen unter Umständen zu große Hoffnungen auf Diagnose- oder Therapiemöglichkeiten geweckt werden“, erklärt Dr. Michael Fleischer, Facharzt für Neurologie am UK Essen. Dennoch sei es sinnvoll, bei Long-COVID auch zukünftig nach Faktoren zu suchen, die die Erkrankung begünstigen. „Hier werden wir uns insbesondere auf den psychischen Bereich konzentrieren, da erste Therapiestudien nahelegen, dass viele Long-COVID Betroffene gut von einer Psychotherapie profitieren“, so Prof. Kleinschnitz.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Kleinschnitz
Klinik für Neurologie
Universitätsmedizin Essen
Email: christoph.kleinschnitz@uk-essen.de

Originalpublikation:
https://journals.sagepub.com/doi/10.1177/17562864241229567

Weitere Informationen:
https://www.uni-due.de/med/meldung.php?id=1538

(nach oben)


Wie Blaualgen Mikroorganismen manipulieren

Forschungsteam an der Universität Freiburg entdeckt ein bisher unbekanntes Gen, das indirekt die Photosynthese fördert

Cyanobakterien werden auch Blaualgen genannt und gelten als „Pflanzen des Ozeans“, weil sie in gigantischen Größenordnungen Photosynthese betreiben, Sauerstoff produzieren und das Klimagas CO2 aus der Umgebung entnehmen. Hierzu benötigen sie aber weitere Nährstoffe wie Stickstoff. Ein Team um den Biologen Prof. Dr. Wolfgang R. Hess, Professor für Genetik an der Universität Freiburg, hat ein bisher unbekanntes Gen entdeckt, das eine zentrale Rolle in der Koordination des Stickstoff- und Kohlenstoffwechsels spielt: Die Cyanobakterien steuern damit indirekt das Wachstum von Mikroorganismen, die die Photosynthese fördern. „Unsere Arbeit zeigt, dass es vielfältige, bisher nicht bekannte Wechselbeziehungen selbst zwischen den kleinsten Organismen in der Umwelt gibt und dass eine Vielzahl bisher unbekannter Gene dabei eine Rolle spielt“, sagt Hess. Die Ergebnisse sind in der Fachzeitschrift Nature Communications erschienen.

Balance zwischen Hauptnährstoffen
Die für Pflanzen, Algen und Cyanobakterien verfügbaren Mengen an Kohlenstoff (CO2) und Stickstoff sind nicht immer gleich. Für die Photosynthese ist eine physiologisch relevante Balance zwischen diesen beiden Hauptnährstoffen von großer Bedeutung. Alexander Kraus, Doktorand bei Wolfgang R. Hess an der Universität Freiburg, hat nun in Gendaten von Cyanobakterien ein Gen entdeckt und charakterisiert, das in diesem Zusammenhang eine Schlüsselrolle spielt: Das Gen kodiert ein Protein mit dem Namen NirP1. Dieses wird nur hergestellt, wenn die Zellen einen Mangel an Kohlenstoff relativ zu dem verfügbaren Stickstoff feststellen.

Das Protein ist zwar zu klein, um wie viele andere Proteine selbst als Enzym wirken zu können. In Zusammenarbeit mit Dr. Philipp Spät und Prof. Dr. Boris Maček vom Proteomzentrum der Universität Tübingen konnten die Forschenden aber herausfinden, dass NirP1 fest an ein Enzym binden kann, das normalerweise Nitrit in Ammonium umwandeln würde. NirP1 verhindert dies und sorgt somit dafür, dass sich Nitrit in der Zelle sammelt; in der Folge kommt es zu massiven weiteren Stoffwechselveränderungen, die in Zusammenarbeit mit dem Team von Prof. Dr. Martin Hagemann an der Universität Rostock detailliert untersucht wurden. Schließlich beginnen die Cyanobakterien, Nitrit in die Umwelt zu exportieren. Dort stimuliert das zusätzliche Nitrit das Wachstum nützlicher Mikroorganismen, also eines für die Photosynthese der Cyanobakterien förderlichen Mikrobioms.

Anregungen für weitere Forschung
Die Ergebnisse bieten Anregungen, die Wechselwirkungen zwischen Mikroorganismen und die Rolle der sie steuernden, bisher häufig unbekannten Gene weiter zu erforschen, so Hess. „Darüber hinaus könnten kleine Proteinregulatoren wie NirP1 künftig in der ‚grünen‘ und ‚blauen‘ Biotechnologie zur gezielten Kontrolle des Stoffwechsels eingesetzt werden.“

Faktenübersicht:
Originalpublikation: Kraus, A., Spät, P., Timm, S., Wilson, A., Schumann, R., Hagemann, M., Maček, B., Hess, W. R.: Protein NirP1 regulates nitrite reductase and nitrite excretion in cyanobacteria. In: Nature Communications 15, 1911 (2024).
DOI: https://doi.org/10.1038/s41467-024-46253-4

Prof. Dr. Wolfgang R. Hess ist Professor für Genetik an der Fakultät für Biologie der Universität Freiburg. Zu seinen Forschungsschwerpunkten zählen RNA-Biologie unter Verwendung experimenteller und bioinformatischer Methoden, mikrobielle Systembiologie und Biologie nativer CRISPR-Systeme und ihrer Anwendung. Alexander Kraus ist Doktorand an der Universität Freiburg.

An der Entdeckung war ein Verbund von Forschenden an den Universitäten Freiburg, Tübingen und Rostock beteiligt. Die Arbeit wurden durch die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Projekts „SCyCode“ gefördert.

Kontakt:
Hochschul- und Wissenschaftskommunikation
Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de

(nach oben)


Arabica-Kaffee: Forschende entwickeln neue Datenbank zur besseren Identifizierung klimaresistenterer Pflanzen

Angesichts des Klimawandels, der den Kaffeeanbau bedroht, untersuchen Expert:innen des Nahrungsmittelkonzerns Nestlé, wie fortschrittliche Datenwissenschaft und künstliche Intelligenz genutzt werden können, um die Auswahl und Züchtung klimaresistenterer Pflanzen zu unterstützen. Zusammen mit Forschenden u.a. von Wissenschaftseinrichtungen in Brasilien, Frankreich und den USA haben sie ihre neuesten Ergebnisse in der Zeitschrift „Nature Genetics“ publiziert. Beteiligt waren auch Prof. Dr. Peter Stadler, Direktor des Interdisziplinären Zentrums für Bioinformatik der Universität Leipzig, und Dr. Jan Engelhardt von der Universität Wien, der während seiner Promotion in Leipzig gearbeitet hat.

Es gibt zwar mehr als 120 Kaffeesorten, aber rund 70 Prozent der weltweiten Kaffeeproduktion gehen auf die Sorte Arabica zurück. Sie verträgt jedoch steigende Temperaturen weniger gut und ist anfälliger für Krankheiten. Außerdem schrumpft durch den Klimawandel die Anbaufläche, auf der Kaffee angebaut werden kann, und die Wasserknappheit führt zu erheblichen Ertragseinbußen.

Pflanzenwissenschaftler:innen sind daher auf der Suche nach neuen Arabica-Sorten, die widerstandsfähiger gegen Krankheiten und Trockenheit sind. Im Rahmen dieser Arbeit haben die Expert:innen ein Arabica-Referenzgenom entwickelt, nunmehr verfügbar in einer öffentlich zugänglichen digitalen Datenbank. Dies erleichtert die Analyse verschiedener Merkmale der Kaffeesorte, um spezifische Eigenschaften wie bessere Erträge, die Größe der Kaffeekirschen und eine größere Widerstandsfähigkeit gegen Krankheiten oder Trockenheit sowie Geschmacks- oder Aromamerkmale zu ermitteln.

„Nachdem das neue Genom sequenziert war, musste es annotiert werden, wie wir fachsprachlich sagen“, berichtet Dr. Jan Engelhardt. „Dabei werden zum Beispiel Teilbereiche identifiziert, die Informationen zur Herstellung von sogenannten Boten-RNAs beinhalten. Diese Ribonukleinsäure-Moleküle können sozusagen zu Proteinen übersetzt werden.“ Es gebe aber auch „die nicht-codierenden RNAs“ mit wichtigen Funktionen in der Regulation und Koordination jeder Zelle. „Das ist unsere Spezialität“ ergänzt Professor Peter Florian Stadler. „Im Rahmen der internationalen Zusammenarbeit hat unsere Gruppe die Teilbereiche des Genoms identifiziert, die nicht-codierende RNAs darstellen.“ Beteiligt war auch der damalige Gastwissenschaftler Alexandre Rossi Paschoal.

Das Referenzgenom soll nun dabei helfen, wichtige genetische Marker im Arabica-Genom zu identifizieren, die für bestimmte Merkmale bei erwachsenen Pflanzen verantwortlich sind. Das Ziel: neue und verbesserte Arabica-Kaffeesorten identifizieren, auswählen und züchten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter F. Stadler
Interdisziplinäres Zentrum für Bioinformatik (IZBI)
Telefon: +49 341 97-16691
E-Mail: studla@bioinf.uni-leipzig.de
Web: http://www.bioinf.uni-leipzig.de

Dr. Jan Engelhardt
Universität Wien, Fakultät für Lebenswissenschaften
Telefon: +43-1-4277-56706
E-Mail: jan.engelhardt@univie.ac.at
Web: http://theoretical.univie.ac.at/people/associated-scientists-and-postdocs/jan-en…

Originalpublikation:
“The genome and population genomics of allopolyploid Coffea arabica reveal the diversification history of modern coffee cultivars” (auf Deutsch in etwa: “Das Genom und die Populationsgenomik von allopolyploidem Arabica-Kaffee offenbaren die Diversifizierungsgeschichte der modernen Kaffeesorten“
DOI 10.1038/s41588-024-01695-w
https://www.nature.com/articles/s41588-024-01695-w

Weitere Informationen:
https://www.nestle.com/about/research-development/news/coffee-varieties-arabica-… Pressemitteilung von Nestlé (englisch)

(nach oben)


Geeignete CO2-Quellen und deren integration in PtX-Wertschöpfungsketten

Die von der DECHEMA herausgegebene Publikation ‘Carbon for Power-to-X – Suitable CO2 sources and integration in PtX value chains“ befasst sich mit den Möglichkeiten zur Abscheidung und Nutzung von Kohlenstoffdioxid für nachhaltige Produktionswege. Kohlendioxid kann als Kohlenstoffquelle für zahlreiche klimafreundliche Produkte dienen, die mit Power-to-X-Technologien hergestellt werden. Der Bericht beschreibt Punktquellen und state-of-the-art Abscheidungsmethoden. Er entstand in Zusammenarbeit mit dem International PtX Hub, der die Entwicklung nachhaltiger Power-to-X- und Wasserstoffmärkte in Ländern wie Marokko, Südafrika und Argentinien unterstützt.

Klimaneutrale Rohstoffe mit nachhaltiger Energie hergestellt – dies verspricht Power-to-X (PtX). Das PtX-Konzept vereint eine Vielzahl innovativer Technologien zum Aufbau von Wertschöpfungsketten, die durch erneuerbare Energien gespeist werden. Aus diesem Grund wird PtX als relevanter Beitrag zur industriellen Energiewende betrachtet. Für viele PtX-Routen wird jedoch Kohlenstoff benötigt, um Materialrohstoffe und Energieträger zu ersetzen, die konventionell auf fossilen Ressourcen basieren.

Kohlenstoffdioxid (CO2) ist eine geeignete Kohlenstoffquelle, da es als Ausgangspunkt für die Herstellung von Kraftstoffen, Polymeren und zahlreiche Basischemikalien dienen kann. In einem aktuellen Bericht, der im Rahmen des International PtX Hub veröffentlicht wurde, identifiziert die DECHEMA Punktquellen und beschreibt verschiedene Technologien zur CO2-Abscheidung. „Die heutigen Wertschöpfungsketten der am häufigsten verwendeten Produkte sind in hohem Maße von der petrochemischen Industrie geprägt, die Grundchemikalien wie Methanol liefert“, sagt Co-Autorin Luisa López. „Diese auf fossilen Rohstoffen basierenden Moleküle werden derzeit im Megatonnen-Maßstab produziert. PtX ermöglicht es uns, alternative Produktionsrouten für diese wichtigen Verbindungen auf der Basis von CO2 zu schaffen.“

Derzeit ist CO2 in vielen Sektoren hauptsächlich ein Abfallprodukt. Weltweit werden etwa 37 Gigatonnen CO2 pro Jahr in die Atmosphäre ausgestoßen. Obwohl Anstrengungen zur Minimierung dieser Emissionen unternommen werden, können die verbleibenden CO2-Ströme als Rohstoff für die PtX-Produktion genutzt werden. Der Bericht zeigt, dass CO2 aus dem Energie- und Industriesektor, aus biogenen Prozessen, Abfällen und Abwässern sowie aus der Atmosphäre gewonnen werden kann. Quellen, die auf fossile Ressourcen zurückzuführen sind, haben zusätzliche Auswirkungen auf die Nachhaltigkeit, und mögliche Lock-in-Effekte müssen berücksichtigt werden. Daher sind CO2-Quellen mit einem geschlossenen Kohlenstoffkreislauf besser geeignet, um Nachhaltigkeitsziele zu erreichen. „Biogene Quellen und Direct-Air-Capture (DAC) könnten als nachhaltige CO2-Quellen dienen und stoßen durch einen geschlossenen Kohlenstoffkreislauf auf eine höhere Akzeptanz.“, sagt Co-Autor Dr. Chokri Boumrifak. „Biomasse wird jedoch auch in anderen Sektoren stark nachgefragt und ihre Kapazitäten sind begrenzt. DAC, als theoretisch unbegrenzt verfügbare Quelle, erfordert dagegen im Vergleich zu anderen Quellen hohe Energiemengen und die großtechnische Anwendung ist noch sehr kostenintensiv. Daher sollten unvermeidbaren CO2-Emissionen aus dem Industriesektor als zusätzliche Punktquelle berücksichtigt werden“.

Die Publikation ‚Carbon for Power-to-X‘ gibt einen Überblick über Technologien zur Abtrennung und Aufreinigung von CO2. Diese Technologien sind bereits gut entwickelt, und ihre Anwendung hängt von Faktoren wie der Qualität der Gaszusammensetzung, der Energie- und der Kosteneffizienz ab. Die Amingasbehandlung ist unter allen CO2-Abtrennungsmethoden die ausgereifteste Technologie und wird bereits in großem Umfang kommerziell genutzt. Mehrere andere Trennverfahren, nämlich die kryogene Trennung, die Pressure-Swing-Adsorption, die Vacuum-Pressure-Swing-Adsorption, die Membrantrennung und die Verbrennung mit dem Chemical-Looping-Verfahren, werden bei der Kohlenstoffdioxidabscheidung eingesetzt.

Für Verbrennungsprozesse wird gezeigt, wie die Kohlenstoffabscheidung mit verschiedenen Ansätzen angewendet werden kann. Die einfachste Methode besteht in der direkten Extraktion von CO2 aus dem Abgas. Weitaus fortschrittlicher sind Ansätze, bei denen der Brennstoff entweder durch Vergasung vorbehandelt wird oder mit reinem Sauerstoff verbrannt wird, um CO2 in höherer Reinheit zu gewinnen. Außerdem kann CO₂ direkt aus der Atmosphäre abgeschieden werden.

Das abgeschiedene CO2 kann entweder über bereits bestehende Produktionsrouten oder über neu eingerichtete Prozesse zur Herstellung von Chemikalien genutzt werden. Zu den primären Produktionsrouten mit CO2 als Ausgangsstoff gehören die Methanolsynthese (als Vorprodukt für Kraftstoffe, Polymere, Säuren usw.), Fischer-Tropsch (zur Herstellung von Kraftstoffen, Wachsen, Naphtha und Methan) und Carbonylierungsprozesse (zur Herstellung von Ibuprofen, Acrylglas usw.). Die Anpassung dieser Produktionsrouten an ein PtX-Konzept erfordert neue Technologien zur Umwandlung von CO2 in den jeweiligen Ausgangsstoff. Einer der am weitesten fortgeschrittenen Anwendungsfälle für PtX sind Power-to-Liquid (PtL)-Prozesse zur Herstellung von synthetischen Kohlenwasserstoffen wie Kraftstoffen.

Wie CO2 in Zukunft integriert wird, hängt von regulatorischen Aspekten ab, die klären, welche Kohlenstoffquelle als nachhaltig bezeichnet werden kann, sowie von Infrastrukturmaßnahmen, um Kohlenstoff dort bereitzustellen, wo er benötigt wird. Abgesehen von diesen Unwägbarkeiten wird CO2 nach wie vor eine Schlüsselkomponente sein, um PtX-Produkte als Alternative zu Materialien und Kraftstoffen auf fossiler Basis voranzutreiben.

Wissenschaftliche Ansprechpartner:
Luisa López (luisa.lopez@dechema.de)
Dr. Chokri Boumrifak (chokri.boumrifak@dechema.de)

Weitere Informationen:
https://dechema.de/-p-20480537-EGOTEC-9e92b4556d8c80b48b939d58642f5b5d/_/CO2-R_0… – kostenfreier Download der Publikation

(nach oben)


Neue Studie: Ungünstige Kohlenhydrate früh am Morgen – ein mögliches Problem für „Eulen“

Eine kohlenhydratreiche Mahlzeit am Morgen löst einen geringeren Glukoseanstieg aus als dieselbe Mahlzeit am Abend – das ist der Stand der Wissenschaft. Neueste Ergebnisse zeigen jetzt: Das ist nicht bei allen Menschen so und hängt von der „inneren Uhr“ ab. Ein fester Tagesablauf, vorgegeben durch Studium oder Job, führt häufig dazu, dass insbesondere junge Erwachsene gegen ihre innere Uhr essen.

Die Typen „Lerche“ und „Eule“ unterscheiden sich ihrem sogenannten zirkadianen Rhythmus (Chronotyp) – Lerchen stehen früh auf und essen früher, während Eulen biologisch bedingt länger schlafen und später essen. Wissenschaftlerinnen der Universität Paderborn haben untersucht, inwieweit sich dies auf den Glukosespiegel auswirkt. Die Ergebnisse wurden im renommierten „European Journal of Nutrition“ veröffentlicht.

„Essen gegen die innere Uhr betrifft auch Studierende in besonderem Maße, die z. B. früh morgens frühstücken, obwohl sie sich aufgrund ihres späten Chronotyps noch in der biologischen Schlafphase befinden. Auf der anderen Seite führen soziale Aktivitäten manchmal dazu, dass Menschen mit einem frühen Chronotyp ‚zu spät‘ ihr Abendessen verzehren. Daher wollten wir in unserer Studie untersuchen, ob sich die tageszeitlichen Unterschiede in der Glukoseantwort auch bei Studierenden mit einem frühen und späten Chronotyp finden“, erklärt Dr. Bettina Krüger vom Institut für Ernährung, Konsum und Gesundheit der Universität Paderborn.

Nach einem Screening, bei dem 327 Studierende im Alter von 18 bis 25 Jahren untersucht wurden, nahmen 45 Studierende mit dem frühsten und spätesten Chronotyp an einer kontrollierten Ernährungsstudie teil, die von September bis Dezember 2020 durchgeführt wurde. Die Teilnehmenden erhielten alle Mahlzeiten und Snacks, die sie zu vorgegebenen Uhrzeiten verzehrten. An einem Tag verzehrten die Studierenden eine Mahlzeit, die einen hohen Glukoseanstieg auslöst, also einen hohen glykämischen Index hat, um 7 Uhr morgens, an einem weiteren Tag um 20 Uhr abends. Die Glukoseantwort wurde mit einem kontinuierlichen Glukosemessgerät gemessen.

„Wie erwartet zeigten Studierende mit einem frühen Chronotyp – die Lerchen – eine höhere Glukoseantwort auf die abendlich verzehrte Mahlzeit. Bei den Studierenden mit einem späten Chronotyp – den Eulen – war die morgendliche Antwort jedoch ähnlich hoch wie am Abend. Die Ergebnisse für die Lerchen unterstreichen die über den Tagesverlauf abnehmende Glukosetoleranz, das heißt die Fähigkeit, Glukose im Blut zu regulieren. Überraschend waren für uns die Ergebnisse für die Eulen“, sagt Bianca Stutz, die im Rahmen der Studie „Chronotype and Nutrition“ („ChroNu-Studie“) an der Universität Paderborn promoviert. „Ein sehr frühes Frühstück scheint für Eulen kritisch zu sein, wenn es reichlich ungünstige Kohlenhydrate enthält. Eulen sollten daher nicht nur abends, sondern auch morgens auf die Qualität der Kohlenhydrate achten und lieber später frühstücken, indem sie zum Beispiel ihr Frühstück mit in die Universität nehmen“, erklärt Studienleiterin Prof. Dr. Anette Buyken. Außerdem lassen die Ergebnisse schlussfolgern, dass ein Essen spät abends nachteilig für die Glukoseantwort ist – unabhängig vom Chronotyp.

Die „ChroNu-Studie“ ist Teil einer Kooperation mit der Universität Bonn und dem Deutschen Diabetes Zentrum in Düsseldorf und wird durch die Deutsche Forschungsgemeinschaft (DFG) gefördert.

Das Team um Buyken widmet sich in Forschung und Lehre vielfältigen Aspekten der Ernährungswissenschaft. Am Institut für Ernährung, Konsum und Gesundheit der Universität Paderborn leitet Buyken die Arbeitsgruppe „Public Health Nutrition“ und ist u. a. zuständig für den Studiengang „Ernährungslehre“ im Bereich „Lehramt für Gymnasien und Gesamtschulen“.

Weitere Informationen gibt es unter: https://sug.uni-paderborn.de/ekg/phn

Wissenschaftliche Ansprechpartner:
Prof. Dr. Anette Buyken, Fakultät für Naturwissenschaften der Universität Paderborn, Fon: +49 5251 60-3756, E-Mail: anette.buyken@uni-paderborn.de

Originalpublikation:
https://link.springer.com/article/10.1007/s00394-024-03372-4

(nach oben)


Eigener Internetauftritt der Innovationsförderung – Jetzt entdecken!

Das Programm zur Innovationsförderung des Bundesministeriums für Ernährung und Landwirtschaft (BMEL), das vom Projektträger BLE (PT BLE) umgesetzt wird, geht mit seinem eigenen Internetauftritt unter http://www.innovationsfoerderung-bmel.de live.

Ab sofort finden Förderinteressierte und Geförderte hier wichtige Vorlagen und Hinweise, aktuelle Bekanntmachungen und Ausschreibungen sowie allgemeine Informationen zur Projektförderung im Innovationsprogramm.

Im Jahr 2006 fiel der Startschuss für das Programm zur Innovationsförderung des BMEL. Das Ziel: die Unterstützung von Forschung und Entwicklung, Wissenstransfer sowie bessere Rahmenbedingungen für Innovationen in der deutschen Agrar- und Ernährungswirtschaft. Im Fokus der Projektförderung stehen Kleinst-, kleine und mittlere Unternehmen (KMU) sowie Start-Ups, die mit wissenschaftlichen Einrichtungen zusammenarbeiten. Dabei sollen international wettbewerbsfähige Produkte, Verfahren und Dienstleistungen in den Bereichen Landwirtschaft, Ernährung und Verbraucherschutz auf Grundlage neuer wissenschaftlicher Erkenntnisse entwickelt werden.

Infos zu Bekanntmachungen und Ausschreibungen, schnelle Hilfe bei Fragen

Auf der neuen Internetseite erwarten Nutzerinnen und Nutzer ab sofort wichtige Informationen zu aktuellen Förderaufrufen sowie Ausschreibungen. Förderinteressierte können sich über die breit gefächerten Förderthemen und -voraussetzungen sowie Förderintensitäten informieren. Zudem sind wichtige Informationen schnell und übersichtlich in den Vorlagen und Hinweisen zu finden. Schnelle Hilfe verschaffen ebenso die zusammengestellten häufig gestellten Fragen (FAQ) zu den gängigsten Fragen zu Skizze, Antrag und Co.

Innovationsprojekte zum Anfassen auf http://www.innovationsfoerderung-bmel.de

Ab sofort finden Interessierte außerdem spannende Berichte zu den Ergebnissen und aktuellen Entwicklungen aus den innovativen Forschungs- und Entwicklungsprojekten auf der neuen Homepage. Ebenso werden die Aktivitäten der vielfältigen Vernetzungs- und Transfermaßnahmen beleuchtet, die die Projektakteure einer thematischen Fördermaßnahme miteinander vernetzen und den Wissens- und Technologietransfer in die Praxis unterstützen.

Umstrukturierungen auf http://www.ble.de/innovationsfoerderung

Wer bislang nach Informationen zum Innovationsprogramm des BMEL im World Wide Web suchte, der wurde auf www.ble.de/innovationsfoerderung fündig. Durch die nun kürzlich veröffentlichte Homepage http://www.innovationsfoerderung-bmel.de werden Schritt für Schritt die Informationen zur Innovationsförderung umziehen. Damit finden Sie künftig alles zentral und übersichtlich auf der neuen Homepage.

(nach oben)


Was wäre, wenn der Starkregen 50 Kilometer entfernt niedergegangen wäre?

Mit hypothetischen aber nicht unwahrscheinlichen Hochwasser-Szenarien sollen Menschen und Entscheider in gefährdeten Regionen motiviert werden, sich besser auf potenzielle Extrem-Ereignisse vorzubereiten. Simulationen von Forschenden des Deutschen GeoForschungsZentrums GFZ zeigen in einer neuen Studie, dass bei nur geringfügiger Verschiebung von Regengebieten sehr viel schwerwiegendere Hochwasser-Ereignisse hätten auftreten können.

Zusammenfassung
Hochwasser betrifft weltweit mehr Menschen als jede andere Naturgefahr, mit enormen Schäden, die in einer wärmer werdenden Welt voraussichtlich weiter zunehmen. Menschen und Entscheidungsträger in gefährdeten Regionen sind jedoch oft nicht bereit, sich auf außergewöhnlich schwere Ereignisse vorzubereiten, da sie schwer vorstellbar sind und außerhalb ihrer Erfahrung liegen. In einer aktuellen Studie schlägt ein Team von Forschenden um Bruno Merz und Sergiy Vorogushyn vom Deutschen GeoForschungsZentrum GFZ eine neue Strategie vor, um die Gesellschaft zu motivieren, über geeignete Risikomanagementstrategien zu diskutieren: Sie entwickeln eine Reihe von hypothetischen extremen Überschwemmungsszenarien in Deutschland, indem sie vormals beobachtete Niederschlagsereignisse um einige zehn bis hundert Kilometer im Raum verschieben und deren Auswirkungen dann durch ein Hochwassermodell berechnen. Solche Szenarien sind nicht unwahrscheinlich, da der tatsächliche Niederschlag auch mehrere Dutzend Kilometer entfernt hätte fallen können. Auf diese Weise ergeben sich Ereignisse, die mehr als doppelt so schwerwiegend sind wie das verheerendste Hochwasser seit 1950 in Deutschland. Außerdem zeigt sich: In der Vergangenheit verschonte Regionen können sich nicht sicher fühlen, da sie ebenfalls schwer von Zerstörungen hätten getroffen werden können. Die Ergebnisse wurden im Fachmagazin Environmental Research Letters veröffentlicht.

Hintergrund: Nicht gut vorbereitet auf außergewöhnliche Ereignisse
Von Überschwemmungen sind weltweit mehr Menschen betroffen als von jeder anderen Naturgefahr. Allein das Hochwasser vom Juli 2021 in Westeuropa forderte mehr als 220 Todesopfer und verursachte Schäden in Höhe von fast 50 Mrd. EUR. Trotz der enormen Auswirkungen außergewöhnlicher Hochwasser in den letzten Jahrzehnten und ihres prognostizierten häufigeren Auftretens in der Zukunft ist die Gesellschaft oft nicht bereit, über solche Ereignisse zu diskutieren und sich darauf vorzubereiten.

Umfragen haben gezeigt, dass Menschen sich nur schwer in Ereignisse hineinversetzen können, die sie nicht selbst erlebt haben: Sie können dann die negativen Auswirkungen von schweren Überschwemmungen nicht gut vorhersagen. Und sie neigen dazu, die Wahrscheinlichkeit eines Ereignisses danach zu beurteilen, wie leicht sie es sich vorstellen können. Außerdem fällt es Menschen und Organisationen generell schwer, über bedrohliche Aussichten nachzudenken, und sie fühlen sich unwohl, wenn sie für Situationen planen, die ihnen selbst schaden würden.

Daher ist die Gesellschaft oft überrascht und wenig vorbereitet, wenn Ereignisse eintreten, die schwerwiegender sind als das, was sie bisher erlebt haben – mit katastrophalen Auswirkungen (1). „Die mangelnde Bereitschaft, über außergewöhnliche Überschwemmungen nachzudenken und sich darauf vorzubereiten, ist besorgniserregend, da außergewöhnliche Ereignisse in einer wärmeren Welt voraussichtlich häufiger auftreten werden. Daher müssen Ausnahmeszenarien entwickelt werden, die auch von Laien verstanden werden können“, sagt Bruno Merz, am Deutschen GeoForschungsZentrum GFZ in Potsdam Leiter der Sektion „Hydrologie“ und Professor für Hydrologie an der Universität Potsdam.

Neuer Ansatz: Virtuelles räumliches Verschieben vergangener Extremereignisse
Die Schwere eines Ereignisses wird häufig in Form von Wiederkehrperioden beschrieben, wie z.B. das 100- oder 1000-jährliche Hochwasser. Hierdurch wird ausgedrückt, dass ein Ereignis dieser Stärke im Schnitt nur alle 100 oder 1000 Jahre eintritt. Die Wahrscheinlichkeit dafür beträgt in einem bestimmten Jahr also 1:100 bzw. 1:1000. Dieses Konzept ist für Laien jedoch nicht gut zugänglich.

Stattdessen schlägt das Forschungsteam um Bruno Merz und Sergiy Vorogushyn, leitender Wissenschaftler in der GFZ-Sektion „Hydrologie“, vor, räumliche Alternativszenarien zu nutzen. Solche sogenannten kontrafaktischen Szenarien sind alternative Möglichkeiten für vergangene Ereignisse, also Szenarien, die nicht eingetreten sind, aber hätten eintreten können. Um sie zu entwickeln, verschieben die Forschenden die Niederschlagsfelder vergangener Hochwasser und simulieren die Folgen, die sich ergeben hätten, wenn die Zugbahnen der verursachenden Tiefdruckgebiete einen anderen Weg genommen hätten.

„Wir gehen davon aus, dass es selbst für Laien leicht zu verstehen ist, dass sich ein Tiefdruckgebiet, das für heftigen Regen in einer bestimmten Region gesorgt hat, auch etwas anders hätte entwickeln können. Dadurch hätte eine damals verschonte Region durchaus getroffen und eine betroffene Region möglicherweise sehr viel schwerer getroffen werden können – sodass sie damals einfach nur Glück hatten“, erläutert Merz.

Die Forschenden haben für ihre Studie die zehn schadensträchtigsten Hochwasser für Deutschland seit 1950 ausgewählt und die damaligen Niederschläge in drei Entfernungen – 20, 50 und 100 Kilometer – und acht Richtungen verschoben. Solche Verschiebungen sind angesichts der beteiligten Mechanismen gut begründet: Die Bahnen der niederschlagsbildenden Tiefdrucksysteme werden durch nichtlineare Wechselwirkungen auf Skalen von ∼1.000 Kilometern oder mehr dominiert. Daher können sich die Niederschlagsfelder einzelner Ereignisse bei einer etwas anders gelagerten meteorologischen Gesamtsituation auch anders entwickeln. Diese 24 kontrafaktischen Niederschlagsereignisse für jede der zehn größten Katastrophen wurden in ein Hochwassermodell gespeist, um damit die Schwere des Hochwassers für die entsprechenden Regionen in Deutschland zu quantifizieren.

Ergebnisse am Beispiel des Weihnachtshochwassers aus dem Jahr 1993
Es stellte sich heraus, dass die Verschiebung der Niederschläge zu viel schwereren Überschwemmungen führen kann, als beim tatsächlich eingetretenen Ereignis. Als Beispiel sei hier das Weihnachtshochwasser 1993 betrachtet.

Weiträumige und teilweise extreme Niederschläge im Dezember 1993 führten an Weihnachten 1993 zu Überschwemmungen entlang des Mittel- und Niederrheins, die in drei Bundesländern mehrere Todesopfer und erhebliche materielle Schäden zur Folge hatten. Allein in Köln waren mehr als 13.500 Haushalte betroffen. Ein kontrafaktisches Hochwasser ergibt sich hier aus einer Verschiebung des Niederschlagsfeldes um 50 Kilometer in Richtung Nordosten. Wäre der Regen dort gefallen, dann wären viele der vom Hochwasser betroffenen Orte noch stärker betroffen gewesen. Und zusätzlich wären viele Orte, die von der Katastrophe verschont geblieben sind, von Flusswasserständen betroffen gewesen, die die Hochwasserschutzanlagen überstiegen hätten.

Flussabschnitte im Einzugsgebiet der Weser, die 1993 nur geringfügig betroffen waren, hätten beispielsweise Überschwemmungen größer als das 100-jährliche Hochwasser erlebt. Insgesamt erzeugen die kontrafaktischen Szenarien an mehr als 70 Prozent der von in dieser Studie betrachteten 516 Flusspegel in ganz Deutschland Spitzenabflüsse, die das aktuell dort verzeichnete Rekordhochwasser übersteigen.

Ausblick: Nutzung kontrafaktischer Szenarien für das Risikomanagement
„In Anbetracht der Tatsache, dass sich das Risikomanagement in der Regel auf die größten beobachteten Hochwasser konzentriert, ist die Leichtigkeit, mit der durch unseren Ansatz viele neue Hochwasserrekorde erzeugt werden, beunruhigend“, resümiert Merz.

„Unser neuer Ansatz ist in der Lage, plausible Ausnahmeszenarien zu generieren, die genutzt werden könnten, um Laien das Hochwasserrisiko zu vermitteln und das Hochwasserrisikomanagement zu unterstützen. Auch wenn sich bei außergewöhnlichen Hochwasserereignissen Schäden nicht vollständig verhindern lassen, kann das Risikomanagement die katastrophalen Auswirkungen begrenzen“, ergänzt Sergiy Vorogushyn.

So können Vorhersage-, Frühwarn- und Evakuierungssysteme Todesopfer verhindern. Durch Raumplanung und Infrastrukturmanagement kann sichergestellt werden, dass sensible Infrastrukturen wie Altenpflegeheime und kritische Infrastrukturen wie Kraftwerke entweder nicht in gefährlichen Zonen liegen oder gegen Überschwemmungen geschützt sind.

Darüber hinaus kann das Infrastrukturmanagement Sicherungs- und Redundanzmaßnahmen für einen kontinuierlichen Betrieb bei Überschwemmungen vorsehen und Maßnahmen entwickeln, die eine rasche Rückkehr zu einem Mindestbetriebsniveau ermöglichen, wenn ein Ausfall nicht verhindert werden kann.

(1) Kreibich, H., et al (2022): The challenge of unprecedented floods and droughts in risk management. – Nature, 608, 80-86. DOI: 10.1038/s41586-022-04917-5
https://doi.org/10.1038/s41586-022-04917-5

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bruno Merz
Leitung Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Tel.: +49 331 6264-1500
E-Mail: bruno.merz@gfz-potsdam.de

Dr. Sergiy Vorogushyn
Wissenschaftler in Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Tel.: +49 331 6264-1338
E-Mail: sergiy.vorogushyn@gfz-potsdam.de

Originalpublikation:
Bruno Merz, et al Spatial counterfactuals to explore disastrous flooding 2024 Environ. Res. Lett. 19 044022, DOI: 10.1088/1748-9326/ad22b9
https://iopscience.iop.org/article/10.1088/1748-9326/ad22b9

(nach oben)


Land unter – was extreme Überschwemmungen verursacht

Wenn Flüsse über die Ufer treten, können die Folgen verheerend sein, wie beispielsweise das katastrophale Hochwasser in Nordrhein-Westfalen und Rheinland-Pfalz vor drei Jahren gezeigt hat. Um in Zukunft die Überschwemmungsschäden in Grenzen zu halten und die Bewertung von Hochwasserrisiken zu optimieren, muss besser verstanden werden, welche Variablen in welchem Ausmaß zu extremen Ausprägungen von Überflutungen führen können. Mit Methoden des Erklärbaren Maschinellen Lernens haben Forschende des UFZ nachgewiesen, dass Überschwemmungen extremer ausfallen, wenn mehrere Faktoren an deren Entstehung beteiligt sind. Die Forschungsarbeit wurde im Fachjournal Science Advances veröffentlicht.

Die Lufttemperaturen, die Bodenfeuchte und die Höhe der Schneedecke sowie die tägliche Niederschlagsmenge in den Tagen vor einem Hochwasser – sie alle sind Variablen, die bei der Entstehung von Hochwasser eine wichtige Rolle spielen. Um zu verstehen, welchen Anteil die einzelnen Faktoren an Überschwemmungen haben, haben Forschende des UFZ mehr als 3.500 Flusseinzugsgebiete weltweit untersucht und für jedes von ihnen Hochwasserereignisse zwischen den Jahren 1981 und 2020 analysiert. Das Ergebnis: Lediglich für rund ein Viertel der fast 125.000 Hochwasserereignisse war die Niederschlagsmenge der alleinig ausschlaggebende Faktor. Die Bodenfeuchte war in etwas mehr als zehn Prozent der Fälle entscheidend, Schneeschmelze und Lufttemperatur spielten als alleiniger Faktor nur jeweils bei etwa 3 Prozent eine Rolle. Dagegen waren für etwas mehr als die Hälfte der Überschwemmungen (51,6 Prozent) mindestens zwei Faktoren verantwortlich. Dabei tritt mit etwa 23 Prozent die Kombination aus Niederschlagsmenge und Bodenfeuchte am häufigsten auf.

Allerdings fanden die UFZ-Forschenden bei der Datenanalyse auch heraus, dass drei oder sogar alle vier Variablen gemeinsam für ein Hochwasserereignis verantwortlich sein können. So sind zum Beispiel Temperatur, Bodenfeuchte und Schneedecke immerhin für rund 5.000 Überschwemmungen entscheidend gewesen, während alle vier Faktoren bei etwa 1.000 Hochwasserereignissen bestimmend waren. Und nicht nur das: „Wir konnten auch zeigen, dass die Hochwasserereignisse immer extremer ausfallen, je mehr Variablen dafür ausschlaggebend waren“, sagt Prof. Jakob Zscheischler, Leiter des UFZ-Departments „Compound Environmental Risks“ und Letztautor des Artikels. Lag der Anteil mehrerer Variablen an einem 1-jährlichen Hochwasser bei 51,6 Prozent, waren es bei einem 5-Jahres-Hochwasser 70,1 Prozent und bei einem 10-Jahres-Hochwasser 71,3 Prozent. Je extremer die Hochwasser also ausfallen, desto mehr treibende Faktoren gibt es und desto wahrscheinlicher ist es, dass sie bei der Entstehung des Ereignisses zusammenwirken. Dieser Zusammenhang gilt oft auch für einzelne Flusseinzugsgebiete und wird von den Autoren als Hochwasserkomplexität bezeichnet.

Als Flusseinzugsgebiete mit geringer Hochwasserkomplexität stuften die Forscher zum Beispiel die nördlichen Regionen Europas und Amerikas sowie den Alpenraum ein, weil dort die Schneeschmelze als entscheidender Faktor für die meisten Hochwasser unabhängig von der Abflussmenge dominiert. Ähnliches gilt für das Amazonasbecken, wo oft die hohe Bodenfeuchte infolge der Regenzeit ein wesentlicher Auslöser von Überschwemmungen unterschiedlicher Ausprägung ist. In Deutschland sind zum Beispiel die Havel und die Zusam, ein Nebenfluss der Donau in Bayern, Flusseinzugsgebiete mit einer niedrigen Hochwasserkomplexität. Zu den Regionen mit einer hohen Hochwasserkomplexität in den Flusseinzugsgebieten zählen dagegen vor allem Ostbrasilien, die Anden, Ostaustralien, die Rocky Mountains bis zur US-Westküste sowie die west- und mitteleuropäischen Ebenen. In Deutschland gehören dazu beispielsweise die Mosel und der Oberlauf der Elbe. „Einzugsgebiete in diesen Regionen weisen in der Regel mehrere Überflutungsmechanismen auf“, sagt Jakob Zscheischler. So können Flusseinzugsgebiete in den europäischen Ebenen von Überschwemmungen betroffen sein, die durch das Miteinander von hohen Niederschlägen, Schneeschmelze und hoher Bodenfeuchte verursacht werden.

Entscheidend für die Frage, wie komplex Hochwasserprozesse sind, ist aber auch die Beschaffenheit der Landoberfläche. Denn jedes Flusseinzugsgebiet hat seine eigenen Besonderheiten. Dazu zählten die Forschenden unter anderen den Klima-Feuchtigkeits-Index, die Bodentextur, die Waldbedeckung, die Größe des Flusseinzugsgebiets und das Flussgefälle. „In trockeneren Regionen etwa sind die Mechanismen, die zur Entstehung des Hochwassers führen, heterogener. Für moderate Hochwasser reichen dort schon wenige Tage mit viel Regen, während es für extreme Hochwasser länger auf feuchte Böden regnen muss“, sagt der Erstautor Dr. Shijie Jiang, der mittlerweile nicht mehr am UFZ, sondern am Max-Planck-Institut für Biogeochemie in Jena tätig ist.

Die Wissenschaftler:innen nutzten für die Analyse das sogenannte Explainable Machine Learning, also erklärbares maschinelles Lernen. „Dabei sagen wir zuerst aus den zehn Treibern – Lufttemperatur, Bodenfeuchte und Schneedecke sowie dem wöchentlichen Niederschlag, der für jeden Tag als einzelner Treiber genutzt wird –, die Abflussmenge und damit die Größe des Hochwassers vorher“, erläutert Jakob Zscheischler. Anschließend wird quantifiziert, welche Variablen und Variablenkombinationen wie viel zu der Abflussmenge eines bestimmten Hochwassers beigetragen haben. Erklärbares maschinelles Lernen nennt sich dieser Ansatz, weil man so versuche, die Black Box des trainierten Modells zwischen Hochwassertreibern und Abflussmenge im Hochwasserfall zu verstehen. „Mit dieser neuen Methodik können wir quantifizieren, wie viele Treiber und Treiberkombinationen relevant für die Entstehung und die Intensität von Überschwemmungen sind“, ergänzt Shijie Jiang.

Helfen sollen die Ergebnisse der UFZ-Forschenden künftig bei der Vorhersage von Hochwasserereignissen. „Unsere Studie leistet einen Beitrag, besonders extreme Hochwasser besser abschätzen zu können“, sagt Klimaforscher Jakob Zscheischler. Denn bislang erfolge die Abschätzung von Hochwasser, indem man weniger extreme Werte extrapoliere und so zu neuen Abschätzungen zur Abflussmenge komme. Das sei aber zu ungenau, da bei sehr extremen Hochwasserereignissen die einzelnen Faktoren einen anderen Einfluss bekommen könnten.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jakob Zscheischler
Department „Compound Environmental Risks”
jakob.zscheischler@ufz.de

Dr. Shijie Jiang
Max-Planck-Institut für Biogeochemie
sjiang@bgc-jena.mpg.de

Originalpublikation:
Shijie Jiang, Larisa Tarasova, Guo Yu, Jakob Zscheischler (2024): Compounding effects in flood drivers challenge estimates of extreme river floods. Science Advances, doi: 10.1126/sciadv.adl4005

(nach oben)


Positionspapier veröffentlicht: „Auswahl und Vereinheitlichung eines Abfallschlüssels für Trockentoilettenhinhalte“

Rechtliche Anpassungen sind dringend nötig, um Nährstoffe aus menschlichen Ausscheidungen in Form von Recyclingdüngern in den Kreislauf zu bringen. Unser drittes Positionspapier zeigt, wie wir das deutsche Abfallrecht vorübergehend nutzen und langfristig anpassen können, um Recyclingdünger auch in Deutschland nutzbar zu machen.

Die Ausgangslage
Trocken- respektive Trenntoiletten sind eine Schlüsseltechnologie um die Ziele des deutschen Ressourceneffizienzprogramm III (2020-2023) der Bundesregierung zu erreichen. Sie ermöglichen es, die nährstoffreichen menschlichen Ausscheidungen getrennt von Abwasser zu erfassen und diese effizient zu Recyclingdüngern für die schadlose landwirtschaftliche Nutzung aufzubereiten. Für diese Sanitär- und Nährstoffwende sind aber rechtliche Anpassungen essentiell. Ebenso wichtig: Orientierung und Einheitlichkeit zu schaffen, wo Trocken- und Trenntoiletten bereits im Einsatz sind. Denn aktuell ordnen unterschiedliche Entsorgende oder deren Träger*innen den Trockentoiletteninhalten jeweils unterschiedliche Abfallschlüsselnummern zu.

Der Lösungsweg
Das vorliegende Positionspapier erläutert kurz das Prüfschema, das gemäß Europäischem Abfallverzeichnis (EAV) und der deutschen Abfallverzeichnis-Verordnung (AVV) bei der Auswahl einer Abfallschlüsselnummer verwendet werden muss. Ausgehend von den Ergebnissen einer Umfrage unter Praktiker*innen sowie von Erfahrungen aus dem zirkulierBAR Reallabor in Eberswalde listen wir praxisübliche Abfallschlüsselnummern auf und prüfen deren Sachmäßigkeit.

Das Ergebnis:
Abfallschlüsselnummern mit Bezug zur Abwasserentsorgung beziehungsweise zur Land- und Forstwirtschaft sowie Nahrungsmittelproduktion sind unsachgemäß.
Die Handlungsempfehlungen
Das zirkulierBAR-Konsortium empfiehlt Entsorgenden und deren Träger*innen, temporär den Abfallschlüssel 20 03 99 “Siedlungsabfälle a. n. g.” zu verwenden. Um den Aufbau ressourcen-orientierter, zirkulärer Wertschöpfung im Sinne der Kreislaufwirtschafts- und Reallabor-Strategien der Bundesregierung zu beschleunigen, empfiehlt das Konsortium auch die Abstimmung und Schaffung eines bundeseinheitlichen Abfallschlüssels für Trockentoiletteninhalte.

Positionspapier:
Adam R, Jung E, Schröder C, Beneker C, Calmet A, Kirsten C, Krause A (2024). Auswahl und Vereinheitlichung eines Abfallschlüssels für Trockentoilettenhinhalte. Berlin, Eberswalde, Großbeeren, Leipzig. Verfügbar unter http://www.zirkulierbar.de/

Über das Projekt
zirkulierBAR ist ein von zehn Konsortiums-Partner*innen getragenes inter- und transdisziplinäres Forschungsprojekt unter der Leitung von Dr. Ariane Krause vom Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ). Im Rahmen der Fördermaßnahme „REGION.innovativ – Kreislaufwirtschaft“ hat es 2021 eine dreijährige Förderung des Bundesministeriums für Bildung und Forschung (BMBF) in Höhe von 2,4 Mio. Euro erhalten. Im zirkulierBAR-Reallabor werden Inhalte aus Trockentoiletten zu qualitätsgesicherten Recyclingdüngern veredelt und die Produktion der Dünger wissenschaftlich begleitet.

Wissenschaftliche Ansprechpartner:
Dr. Ariane Krause, Projektkoordinatorin zirkulierBAR | E-Mail krause@igzev.de | Tel. +49 (0) 33 701 78 254

Weitere Informationen:
https://zirkulierbar.de/wp-content/uploads/2024/03/PP3_Abfallschluesselnummer.pd… Positionspapier
http://www.zirkulierbar.de/ Projektwebseite zirkulierBAR

(nach oben)


Prof. Harald Kunstmann: „Auch in Deutschland wird es zu Problemen bei der Wasserverfügbarkeit kommen“

Der Klimawandel wirkt sich stark auf unsere Gewässer aus. Hitzewellen und Dürren lassen Flüsse und Seen austrocknen, die Grundwasserspiegel sinken. Gleichzeitig kommt es immer häufiger zu starken Niederschlägen und Überschwemmungen. Der Schutz der Ressource Wasser steht im Mittelpunkt des Weltwassertags am Freitag, 22. März, zu dem die Vereinten Nationen seit 1993 jährlich aufrufen.

„Wir müssen uns dringend bewusst machen, dass Wasser eine endliche Ressource ist und sie konsequenter schützen. Das gilt nicht nur für die trockensten Regionen unserer Welt. In Zukunft wird es auch hier in Deutschland – zumindest regional und temporär – zu Problemen mit der Wasserverfügbarkeit kommen“, sagt Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung Atmosphärische Umweltforschung, dem Campus Alpin des KIT in Garmisch-Partenkirchen.

Kunstmann untersucht mit Hilfe von Computermodellsimulationen, wie sich beispielsweise Klimaveränderungen auf den regionalen Wasserhaushalt auswirken oder welche langfristigen Entwicklungen zu erwarten sind. „Mit unseren Modellsystemen können wir hydrologische Prozesse im Gesamtsystem abbilden – vom Grundwasser bis zur Atmosphäre“, erklärt der Wissenschaftler. „So können wir etwa untersuchen, wie sich Landnutzungsänderungen oder Hochwasser und Dürren regional auswirken. Das ist zum Beispiel wichtig für das Wassermanagement, das zwischen Wasserangebot und -nachfrage ausgleichen muss.“

Um zu messen, wann es wo wie viel regnet, haben der Hydrologe und sein Team spezielle Messverfahren entwickelt: So können sie mit Hilfe von Mobilfunkdaten hochauflösende Niederschlagskarten erstellen. Das ist vor allem in Ländern des globalen Südens relevant, wo verlässliche Messungen und Vorhersagen für ein angepasstes Wassermanagement fehlen. „Wir haben die Regenmessung bereits erfolgreich in Afrika eingesetzt“, so Kunstmann. „Unsere Forschung lebt vom Transfer in die Praxis. Nur so können wir auch wirklich dabei helfen, unsere Gewässer – und damit unsere wichtigste Lebensgrundlage – zu schützen.“

Für seine herausragenden Leistungen für die Hydrologie im deutschsprachigen Raum erhielt Harald Kunstmann am 20. März 2024 in Berlin den Deutschen Hydrologiepreis 2024 der Deutschen Hydrologischen Gesellschaft.

Wissenschaftliche Ansprechpartner:
Sandra Wiebe: sandra.wiebe@kit.edu, Tel.: 0721 608-41172

Originalpublikation:
https://www.sts.kit.edu/kit_express_7614.php

Weitere Informationen:
http://Weitere Informationen finden Sie im Expertenporträt: https://www.sts.kit.edu/kit-experten_Kunstmann.php
http://Für Interviewwünsche oder weiterführende Informationen stellt der Presseservice des KIT gern den Kontakt zu dem Experten her: Presse@kit.edu
http://Bitte wenden Sie sich an Sandra Wiebe, E-Mail: sandra.wiebe@kit.edu, Tel.: 0721 608-41172.

(nach oben)


Jahresbilanz 2023 des Gesamtwasserspeichers in Deutschland liegt vor

Der Gesamtwasserspeicher in Deutschland hat sich im Jahr 2023 zwar etwas erholt, im Vergleich zum langjährigen Mittel fehlen aber immer noch rund 10 Milliarden Tonnen Wasser.
Das ergab die Auswertung des soeben komplettierten aktuellsten Datensatzes des Satellitenduos GRACE-Follow-On durch Forschende des Deutschen GeoForschungsZentrums GFZ.
In dem neuen GFZ-Informationsportal www.globalwaterstorage.info finden Sie viele Daten, Grafiken, aktuelle Berichte und Hintergründe rund um die GRACE-Satellitenmissionen und den globalen Wasserhaushalt.

Neue Daten zum Wasserhaushalt 2023
Am 22. März ist der Welttag des Wassers. Vermeintlich allgegenwärtig, ist Wasser längst in weiten Teilen der Welt zur kostbaren und knappen Ressource geworden. Der Klimawandel hat die Situation vielerorts verschärft. Auch Deutschland hat in den vergangenen fünf Jahren drastische Dürren erlebt. Für das Jahr 2023 haben jetzt Forschende um Eva Börgens und Christoph Dahle vom Deutschen GeoForschungsZentrum GFZ den soeben komplettierten aktuellsten Datensatz des Satellitenduos GRACE-Follow-On ausgewertet, der auf Basis von Schwerefeldmessungen genaue Einblicke in die Wasserbilanz der Erde ermöglicht. Sie zeigen, dass sich der Gesamtwasserspeicher in Deutschland im Jahr 2023 zwar etwas erholt hat, dass im Vergleich zum langjährigen Mittel aber immer noch rund 10 Milliarden Tonnen fehlen. Zum Vergleich: Der Bodensee fasst in etwa 48 Milliarden Tonnen Wasser. Für Europa ist seit Beginn der Messungen im Jahr 2002 ein Rückgang des Gesamtwasserspeichers um rund 100 Milliarden Tonnen zu verzeichnen. Daraus lässt sich zum aktuellen Zeitpunkt allerdings noch kein eindeutiger Trend ableiten.

Der sogenannte terrestrische Gesamtwasserspeicher TWS (von engl. Terrestrial Water Storage) setzt sich zusammen aus den Wasserkreislaufkomponenten Eis (also Gletscher), Schnee, Bodenfeuchte, Grundwasser sowie dem Oberflächenwasser in Flüssen, Seen und künstlichen Reservoiren. TWS ist eine wichtige Messgröße für die Umwelt- und Klimaforschung. Sie gehört mittlerweile offiziell zu den 54 „Essenziellen Klimavariablen“, die entscheidend zur Charakterisierung des Erdklimas beitragen und wichtige Basis für die Arbeit des IPCC (Intergovernmental Panel on Climate Change) sind. Der TWS wird von der deutsch-amerikanischen GRACE-FO-Mission zur Verfügung gestellt.

Damit liefern die Schwerefeldmissionen nicht nur wertvolle Daten zum Wasser auf und unter der Erdoberfläche, sondern auch zur Massenbilanz der großen Inlandeisschilde über Grönland und der Antarktis. Der Trend ist hier dramatisch: Jahr für Jahr verliert Grönland rund 224 Milliarden Tonnen an Eis und die Antarktis, die ungleich kälter ist, 138 Milliarden Tonnen.

Neues Informationsportal des GFZ zur globalen Wasserspeicherung
Diese und weitere aktuelle sowie hintergründige Informationen zu den GRACE-Satellitenmissionen, ihrem Messprinzip und der Datenauswertung, aber auch zu Forschungsprojekten sowie Animationen und Karten finden Sie in dem neuen Informationsportal globalwaterstorage.info, das das GFZ eingerichtet hat. Beispielsweise findet sich hier eine animierte Zeitreihe, die eindrücklich zeigt, wie Europas Gesamtwasserspeicher seit 2002 immer kleiner geworden ist. Faktenblätter und Themendossiers ergänzen das Angebot, das sich insbesondere an Vertreter:innen der nationalen Medien und politische Entscheidungsträger:innen, aber auch an die breite interessierte Öffentlichkeit richtet.

Schwerefeldmission wird fortgesetzt und auch künftig wichtige Wasser- und Klimadaten liefern
Seit 2002 liefern die Tandem-Satelliten der GRACE- bzw. seit 2018 der nachfolgenden GRACE-FO-Mission wichtige Daten für die Klimabeobachtung: GRACE steht für Gravity Recovery and Climate Experiment, übersetzt: Schwerkraftermittlungs- und Klimaexperiment. Sie ist eine gemeinsame Mission der NASA, des Deutschen Zentrums für Luft- und Raumfahrt DLR sowie des Deutschen GeoForschungsZentrums GFZ mit weiteren Forschungs- und Industriepartnern. Die Satelliten ermöglichen die kontinuierliche Überwachung des Schwerefelds der Erde. Auf Basis von dessen winzigen Änderungen können zeitliche und räumliche Veränderungen im globalen Wasser- und Eishaushalt ermittelt werden – und damit auch der Einfluss, den der Klimawandel darauf hat.

Die an den GRACE-Missionen beteiligten Forschungseinrichtungen in den USA und Deutschland, die Industriepartner sowie die Bundesministerien für Wirtschaft und Klimaschutz (BMWK) und für Bildung und Forschung (BMBF) haben sich geeinigt, die Mission fortzusetzen: Voraussichtlich 2028 wird GRACE-C starten und auch weiterhin das Schwerefeld der Erde vermessen. Damit ist sichergestellt, dass die Vermessung des Wasserkreislaufs der Erde über eine Zeitspanne von wenigstens rund 30 Jahren erfolgen kann – ein Zeitraum, der als Klimaperiode gilt.

Abbildungen
Alle Abbildungen finden Sie zum Download unter diesem Link:
https://nextcloud.gfz-potsdam.de/s/Y3QAqryrbWxTLRL
(Das GIF aus Abb. 0 wird nur abgespielt, wenn die Datei zuvor heruntergeladen wurde.)

Wissenschaftliche Ansprechpartner:
Dr. Eva Börgens
Sektion 1.3 Erdsystemmodellierung
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 6264-1140
E-Mail: eva.boergens@gfz-potsdam.de

Weitere Informationen:
https://www.globalwaterstorage.info Neues Infoportal des GFZ
https://nextcloud.gfz-potsdam.de/s/Y3QAqryrbWxTLRL Bildmaterial zur PM

(nach oben)


Das DMKG-Kopfschmerzregister: differenzierte Einblicke in die Versorgungsrealität bei Migräne

Aktuelle Real-World-Daten des Kopfschmerzregisters der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG) liefern wertvolle Erkenntnisse zur Behandlung akuter Migräneattacken. Unzureichende Wirksamkeit und/oder Unverträglichkeit der Akutmedikation zählen zu den Herausforderungen der Migränebehandlung. Die DMKG-Auswertungen zeigen, dass dies öfter Menschen mit häufigeren Migräneattacken betrifft als jene mit geringerer Krankheitslast.

Zudem gilt: „Wer keine ausreichend wirksame Akuttherapie hat, ist durch Migräne wesentlich stärker beeinträchtigt als notwendig. Die Auswertungen deuten nämlich auch darauf hin, dass für viele Patienten eine gut wirksame Medikation gefunden werden kann, wenn alle Möglichkeiten ausgeschöpft werden“, kommentierte Dr. med. Ruth Ruscheweyh, zertifizierte DMKG-Kopfschmerzexpertin und Privatdozentin an der Neurologischen Klinik und Poliklinik der Ludwig-Maximilians-Universität in München. [1]

Triptane zählen derzeit zu den effektivsten Therapieoptionen bei akuten Migräneattacken. Es gibt sieben verschiedene Präparate und neben Tabletten auch Nasenspray und Spritzen. Dennoch erfahren einige Patientinnen und Patienten keine ausreichende Wirksamkeit und/oder Verträglichkeit. Um besser abschätzen zu können, wie relevant das Thema „Triptan-Resistenz“ im Versorgungsalltag ist, wurden Daten aus dem Kopfschmerzregister der DMKG von 2.284 Behandelten (85,4 % weiblich, Alter: 39,4 ± 12,8 Jahre, Kopfschmerztage pro Monat: 12,3 ± 8,2) aus spezialisierten Zentren und Praxen in Deutschland ausgewertet.
42,5 % der Befragten gaben an, mindestens ein Triptan aufgrund mangelnder Wirksamkeit oder Verträglichkeit abgesetzt zu haben. Darunter erfüllten 13,1 % die Kriterien einer „Triptan-Resistenz“, die laut Definition der European Headache Federation (EHF) [2] mindestens zwei gescheiterte Triptan-Versuche (Wirksamkeit oder Verträglichkeit weniger als gut) erfordert. Bei einem kleinen Anteil von 3,9 % versagten sogar drei oder mehr Triptane zur Akutmedikation von Migräneattacken. [1] Vor diesem Hintergrund wird deutlich, dass in der Praxis nur sehr wenige Patienten ein sogenanntes Triptan-Versagen zeigen und dass ein Behandlungsversuch auch mit einem 3. Triptan durchaus nützlich ist, so PD Dr. Tim Jürgens für die DMKG.

Triptan-Non-Responder zu mehreren Therapieversuchen motivieren
Auffällig war, dass Triptan-Non-Responder im Vergleich zu Respondern signifikant häufiger eine schwerere Migräne mit mehr Kopfschmerztagen pro Monat und deutlich stärkerer Beeinträchtigung aufwiesen. Dies wurde mit der Anzahl der Triptan-Versagen immer wahrscheinlicher. „Die Beeinträchtigung durch eine nicht wirksam behandelte Migräneattacke ist hoch, daher ist es besonders wichtig, als Behandler nicht zu schnell aufzugeben und wenigstens zwei verschiedene Triptane anzubieten, die mit hohen Ansprechraten assoziiert sind“, so der Rat von Ruscheweyh. In der aktuellen Auswertung waren die Responder-Raten für nasales und orales Zolmitriptan, orales Eletriptan und Sumatriptan subkutan am höchsten. [1]
Laut Ruscheweyh sind nasale und subkutane Applikationsformen besonders nützlich, wenn die Migräneattacken mit starker Übelkeit und ggf. Erbrechen einhergehen.

Immer wieder an basale Anwenderegeln erinnern
Darüber hinaus betonte die Expertin, es sei wichtig, Betroffene regelmäßig an die basalen Anwenderegeln zu erinnern. „Eine frühzeitige Einnahme der Akutmedikation in ausreichender Dosierung ist die Grundvoraussetzung für eine gute Wirksamkeit“, appellierte Ruscheweyh. „Ein neues Medikament sollte in mindestens zwei Attacken versucht werden. Darüber hinaus darf die Einnahme nicht zu häufig erfolgen (Grenze: < zehn Tage pro Monat), da sonst ein Kopfschmerz bei Medikamentenübergebrauch entstehen kann.“ Wenn die Möglichkeiten einer Akutmedikation mit Triptanen ausgeschöpft sind, wären Analgetika-Kombinationen, zum Beispiel mit Acetylsalicylsäure, Paracetamol und Koffein oder neuere Präparate, wie die Ditane (z. B. Lasmiditan) und Gepante, mögliche Alternativen. „Auf europäischer Ebene wurden Gepante zwar bereits zugelassen. Der Hersteller hat sie in Deutschland aber noch nicht auf den Markt gebracht“, berichtete Ruscheweyh. Ihrer Ansicht nach wären Gepante sowohl zur Akutbehandlung als auch zur Migräneprophylaxe eine sinnvolle Ergänzung des Behandlungsspektrums.

Optimierte Therapiestrategien für Betroffene mit hoher Krankheitslast erforderlich
Neben den Einblicken zum Thema Triptan-Resistenz analysierte die DMKG zudem die Patientensicht zur Wirksamkeit und Verträglichkeit der Akutmedikation im Allgemeinen. In dieser Arbeit wurden die Angaben von 1.756 erwachsenen Personen (85 % weibl., Alter: 39,5 ± 12,8 Jahre, Kopfschmerztage pro Monat: 13,5 ± 8,1) berücksichtigt. Eine gute oder sehr gute Wirksamkeit schrieben Behandelte signifikant häufiger Triptanen (75,4 %) als Nicht-Opioid-Analgetika zu (43,6 %, p < 0,001). Unter den Nicht-Opioid-Analgetika wurden Naproxen und Metamizol im Vergleich zu Ibuprofen, Acetylsalicylsäure und Paracetamol als wirksamer eingestuft, die beiden Letzteren wurden allerdings auch häufig unterdosiert. „Nicht-Opioid-Analgetika sind auch in der klinischen Erfahrung weniger stark wirksam als Triptane“, kommentierte Ruscheweyh.
Auch hier korrelierte die Wirksamkeit der Akutmedikation mit der Kopfschmerzaktivität. Bei Patientinnen und Patienten mit mehr Kopfschmerztagen war die Akutmedikation signifikant schlechter wirksam (p < 0,001). „Betroffene mit hoher Krankheitslast brauchen unsere besondere Aufmerksamkeit, einschließlich optimierter Strategien zur Akuttherapie und zu nicht medikamentöser sowie medikamentöser Migräneprophylaxe“, schilderte Ruscheweyh. [3]

Real-World-Daten zur Migräneprophylaxe werden folgen
Die nächsten Auswertungen aus dem DMKG-Register werden sich der medikamentösen Migräneprophylaxe widmen. Dies sind vorbeugende Medikamente, die bei regelmäßiger Anwendung zu selteneren und weniger schweren Attacken führen, sodass auch weniger Schmerzmittel notwendig sind. Hierzu gehören sowohl klassische Medikamente wie Betablocker als auch neue, spezifische Medikamente, z. B. die Antikörper gegen CGRP (Calcitonin gene-related peptide). Die beiden vorgestellten Publikationen des Kopfschmerzregisters der DMKG zur Akuttherapie [1, 3] werden im nächsten Schritt durch Daten aus dem Versorgungsalltag zum Nutzen-Risiko-Profil der Migräneprophylaxe ergänzt, stellte Ruscheweyh in Aussicht.

Die DMKG-App und die DMKG-Cluster-App werden rege genutzt
Für die Kopfschmerzforschung werden anonymisierte Daten des Kopfschmerzregisters und aus den beiden Kopfschmerz-Apps der DMKG genutzt. „Die DMKG-App und die DMKG-Cluster-App sind aber in erster Linie ein Service für Betroffene zur Dokumentation ihrer Kopfschmerzen, der kostenlos und ohne Werbung genutzt werden kann“, erläuterte Ruscheweyh. Aktuell nutzen bereits 19.000 Patientinnen und Patienten die DMKG-App. Die Clusterkopfschmerz-spezifische DMKG-Cluster-App ist erst seit Kurzem verfügbar und hat bereits 750 Nutzer. „Wir stoßen mit den beiden Apps bei Menschen mit Migräne und Kopfschmerzen auf eine breite Akzeptanz, auch bei seltenen Erkrankungen wie Cluster-Kopfschmerz“, betonte Ruscheweyh.

Literatur
1 Ruscheweyh R, Gossrau G, Dresler T et al. Triptan non-response in specialized headache care: cross-sectional data from the DMKG Headache Registry. J Headache Pain 24, 135 (2023). https://doi.org/10.1186/s10194-023-01676-0

2 Sacco S, Amin FM, Ashina M et al. European Headache Federation guideline on the use of monoclonal antibodies targeting the calcitonin gene related peptide pathway for migraine prevention – 2022 update. J Headache Pain. 2022;23(1):67. Published 2022 Jun 11. doi:10.1186/s10194-022-01431-x

3 Ruscheweyh R, Dresler T, Förderreuther S et al. What do patients’ efficacy and tolerability ratings of acute migraine medication tell us? Cross-sectional data from the DMKG Headache Registry. Cephalalgia. 2023;43(5). doi:10.1177/03331024231174855

Pressekontakt
Pressestelle der Deutschen Migräne- und Kopfschmerzgesellschaft e.V.
Initiativenbüro »Attacke! Gemeinsam gegen Kopfschmerzen«
c/o albertZWEI media GmbH, Oettingenstr. 25, 80538 München, Tel.: 089 4614 86-29
E-Mail: presse@attacke-kopfschmerzen.de
www.attacke-kopfschmerzen.de
Pressesprecherin der DMKG: Prof. Dr. med. Gudrun Goßrau

Die Deutsche Migräne- und Kopfschmerzgesellschaft e.V. (DMKG, www.dmkg.de) ist seit 1979 die interdisziplinäre wissenschaftliche Fachgesellschaft für Kopf- und Gesichtsschmerzen, in der Ärzt:innen, Psycholog:innen, Physiotherapeut:innen, Pharmakolog:innen und Apotheker:innen organisiert sind. Die DMKG setzt sich für die Verbesserung der Therapie der vielen Millionen Patient:innen in Deutschland mit akuten und chronischen Kopfschmerzen ein. Die Fachgesellschaft fördert die Forschung und organisiert Fortbildungen für medizinische Fachberufe sowie einmal jährlich gemeinsam mit der Deutschen Schmerzgesellschaft den Deutschen Schmerzkongress.

Mit der Initiative »Attacke! Gemeinsam gegen Kopfschmerzen« will die DMKG die Kopfschmerzversorgung verbessern. Im Fokus stehen Migräne, Kopfschmerz durch Medikamentenübergebrauch, Kopfschmerz vom Spannungstyp und Clusterkopfschmerz. Das Angebot richtet sich an alle, die in der Versorgung von Kopfschmerzpatient:innen tätig sind: www.attacke-kopfschmerzen.de. Die Initiative wird finanziell unterstützt von den Unternehmen AbbVie, Lilly, Lundbeck, Novartis und Teva. Alle fachlichen Inhalte sind von Expertinnen und Experten aus den Reihen der unabhängigen DMKG ehrenamtlich verfasst und nicht von Werbebotschaften beeinflusst.

Weitere Informationen:
https://www.attacke-kopfschmerzen.de/presse/pressemitteilungen/18-pressemitteilung/127-das-dmkg-kopfschmerzregister-differenzierte-einblicke-in-die-versorgungsrealitaet-bei-migraene

(nach oben)


Potenzialanalyse: Abwärme könnte bis zu 10 Prozent des zukünftigen Wärmebedarfs Berlins decken

Pressemitteilung des Instituts für ökologische Wirtschaftsforschung (IÖW) und des Instituts für Energie- und Umweltforschung (ifeu)

► Untersuchung von IÖW und ifeu zeigt, wie viel Abwärme Berlin aus verarbeitendem Gewerbe, Rechenzentren, U-Bahn-Stationen oder Umspannwerken zum Heizen von Gebäuden nutzen kann

► Expert*innen erwarten, dass Abwärme relevanten Beitrag leisten kann, um Berliner Wärmesektor klimaneutral umzubauen

► In Berlin fällt Abwärme überwiegend im Temperaturbereich bis 65 °C an

Berlin/Heidelberg, 18. Januar 2024 – In Betrieben wie Rechenzentren, Großbäckereien oder Kaffeeröstereien entsteht viel Wärme, die bislang meist ungenutzt in die Umwelt abgegeben wird. Die Summe all dieser Wärme kann eine wichtige Energiequelle darstellen, um mit ihr zu heizen. Ein Projekt zeigt nun, dass das Land Berlin bis zu zehn Prozent des zukünftigen Wärmebedarfs aus solcher Abwärme decken kann. Neben dem verarbeitenden Gewerbe und dem Dienstleistungssektor sind auch U-Bahn-Stationen und -Tunnel und zukünftig die Wasserstofferzeugung wichtige Quellen von Abwärme. Die Analyse des Instituts für ökologische Wirtschaftsforschung (IÖW) und des Instituts für Energie- und Umweltforschung Heidelberg (ifeu) zeigt, mit welchen Maßnahmen die Stadt gezielt die Nutzung von Abwärme voranbringen und als einen Baustein in die Berliner Wärmeplanung einbauen kann. Sie wurde im Auftrag der Berliner Senatsverwaltung für Mobilität, Verkehr, Klimaschutz und Umwelt erstellt.

Berlins Abwärme erstmals umfassend erfasst
„Die Hälfte aller CO2-Emissionen in Berlin entstehen im Wärmesektor“, so Energieexpertin Julika Weiß vom IÖW. „Abwärme wird zwar neben dem Umstieg auf erneuerbare Energien schon länger als eine ergänzende Strategie beim klimaneutralen Umbau der Wärmeversorgung angesehen, aber bislang gab es hierzu keine systematische Wissensbasis. Erstmals zeigt die Potenzialanalyse nun, welche Mengen an Abwärme in Berlin vorhanden sind und wie sich diese voraussichtlich entwickeln. Auf dieser Basis kann Berlin die Nutzung von Abwärme, die nicht vermieden werden kann, strategisch entwickeln.“

Die Wissenschaftler*innen haben die Abwärmepotenziale mittels einer Unternehmensbefragung und Experteninterviews ermittelt und dabei Akteure der Berliner Wärmebranche eingebunden. Die Ergebnisse zeigen, dass das Abwärmepotenzial gegenwärtig bei knapp 1.200 Gigawattstunden pro Jahr liegt. „Damit könnten rein rechnerisch bislang drei Prozent des Berliner Wärmeverbrauchs bereitgestellt werden“, erklärt Sebastian Blömer vom ifeu-Institut. „In einigen Bereichen ist in Berlin perspektivisch mit einer Zunahme der Abwärmemengen zu rechnen. Dies betrifft vor allem Abwärme aus zusätzlichen Rechenzentren und aus neuen Anlagen für die Wasserstofferzeugung, sodass wir davon ausgehen, dass bis 2045 jährlich 3.800 Gigawattstunden Abwärme in Berlin entstehen. Davon ausgehend, dass die Hälfte genutzt werden kann, könnte Abwärme rund zehn Prozent des zukünftigen Wärmeverbrauchs Berlins decken.“

Abwärme systematisch erschließen
Die Wissenschaftler*innen weisen in ihrer Analyse darauf hin, dass Abwärme in Berlin vor allem kleinteilig und auf einem niedrigen Temperaturniveau bis 65 °C vorliegt. „Doch selbst niedrige Temperaturen von unter 25 °C können für die Wärmeversorgung nutzbar gemacht werden, wenn hierfür die Temperaturen durch Wärmepumpen angehoben werden“, erklärt Ingenieurin Julika Weiß. „Damit die vorhandene Abwärme möglichst schnell und umfassend erschlossen werden kann, ist es nötig, dass das Land Berlin sich strategisch auf den Weg macht, Abwärme schnell in die Wärmeversorgung zu integrieren.“

Die Wissenschaftler*innen schlagen hierfür ein Maßnahmenpaket vor: So solle eine zentrale Anlaufstelle mit Möglichkeit der Initialberatung sowie der geförderten Erstberatung geschaffen und weitere Angebote zur besseren Finanzierung von Projekten zur Nutzung von Abwärme entwickelt werden. Auch empfehlen sie, Genehmigungsverfahren zu erleichtern und Steuerungs- und Planungsinstrumente so zu entwickeln, dass neue Unternehmen mit relevanten Abwärmemengen gezielt an Standorten mit guter Abnahmemöglichkeit angesiedelt werden.

Mehr Informationen:
Download Abschlussbericht: Bestimmung des Potenzials von Abwärme in Berlin: https://www.berlin.de/sen/uvk/_assets/klimaschutz/klimaschutz-in-der-umsetzung/w…

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30 884594-16
kommunikation@ioew.de

Isabelle Haupt
Institut für Energie- und Umweltforschung Heidelberg (ifeu)
Tel.: +49 6221 47 67 83
presse@ifeu.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.

http://www.ioew.de | http://www.ioew.de/newsletter | https://www.linkedin.com/company/8255036/ | https://mastodon.social/@ioew | https://bsky.app/profile/ioew.bsky.social | http://www.twitter.com/ioew_de

Das Institut für Energie- und Umweltforschung Heidelberg (ifeu) zählt zu den bedeutenden ökologisch ausgerichteten Forschungsinstituten in Deutschland. An den Standorten Heidelberg und Berlin sind aktuell über 100 Mitarbeiter*innen aus dem Bereich der Natur-, Ingenieurs- und Gesellschaftswissenschaften beschäftigt. In zahlreichen Forschungs- und Beratungsprojekten für nationale und internationale Auftraggeber sucht das ifeu wissenschaftlich, unabhängig, praxisnah, transdisziplinär, kreativ und ganzheitlich Antworten auf drängende Umwelt- und Nachhaltigkeitsfragen. Das Institut ist gemeinnützig, wirtschaftlich eigenständig und finanziert sich ausschließlich über projektgebundene Mittel. Das ifeu ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.

http://www.ifeu.de/ | https://twitter.com/ifeu | https://www.linkedin.com/company/ifeu-ggmbh/ | https://bsky.app/profile/ifeu.bsky.social | https://www.ifeu.de/newsletter-archiv/

Wissenschaftliche Ansprechpartner:
Dr. Julika Weiß
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30 884594-0
julika.weiss@ioew.de

Sebastian Blömer
ifeu – Institut für Energie- und Umweltforschung Heidelberg
Tel.: +49 6221 4767-28
sebastian.bloemer@ifeu.de

(nach oben)


Lebensmittel nur geringfügig mit Pflanzenschutzmitteln belastet

BVL-Auswertung für 2022: Deutliche Unterschiede bei den Kulturen

Lebensmittel in Deutschland sind nur wenig mit Rückständen von Pflanzenschutzmitteln belastet. Die Untersuchungsergebnisse der amtlichen Lebensmittelüberwachung aus dem Jahr 2022 bestätigen die Daten der Vorjahre. Der Blick auf einzelne Kulturen und die Herkunft der Produkte fällt jedoch unter-schiedlich aus. Erzeugnisse aus Deutschland und anderen EU-Staaten sind deutlich geringer belastet als solche aus Nicht-EU-Staaten. Dies geht aus der vom Bundesamt für Verbraucherschutz und Lebensmit-telsicherheit (BVL) veröffentlichten „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2022“ hervor.

Dem Bericht liegen mehr als 8,3 Millionen Analyseergebnisse aus 21.601 Lebensmittelproben der amtli-chen Lebensmittelüberwachung des Jahres 2022 zugrunde. Bei den überwiegend risikoorientiert durchge-führten Kontrollen wurde auf 1.067 Stoffe untersucht.

Die Belastung mit Pflanzenschutzmittelrückständen variiert wie in den Vorjahren abhängig von der Her-kunft der Erzeugnisse. Bei Lebensmitteln aus Deutschland stieg die Anzahl an Überschreitungen der Rück-standshöchstgehalte im Jahr 2022 im Vergleich zum Jahr 2021 von 1,1 % auf 1,3 % leicht an. Bei Produk-ten aus anderen EU-Staaten sank die Überschreitungsquote auf 1,5 % (2021: 1,8 %). Lebensmittel aus Nicht-EU-Staaten sind deutlich höher belastet: Hier lag die Überschreitungsquote bei 9,8 % (2021: 10,9%).

Unterschiede bei einzelnen Lebensmittelgruppen und Kulturen
Häufig verzehrte Lebensmittel wie Karotten, Kartoffeln und Äpfel sowie beliebte saisonale Erzeugnisse wie Erdbeeren und Spargel weisen seit Jahren kaum oder keine Rückstandshöchstgehaltsüberschreitun-gen auf. Die meisten Überschreitungen (bei Lebensmitteln mit mindestens 100 untersuchten Proben) gab es bei Chiasamen (53,3 %), getrockneten Kräutertees (18,8 %), Granatäpfeln (18,7%), schwarzem und grü-nem Tee (15,5 %) sowie Bohnen mit Hülsen (13,0 %).

Bei verarbeiteten pflanzlichen Lebensmitteln sowie Obst und Gemüse sank die Überschreitungsquote. Dagegen stieg sie bei Lebensmitteln tierischen Ursprungs sowie Säuglings- und Kleinkindernahrung mo-derat, bei Getreide deutlich an. Der starke Anstieg bei Getreide um das fast Sechsfache des Vorjahres ist auf die hohe Überschreitungsrate der Rückstandshöchstgehalte für Kupfer (51,4 % der Proben) bei Chiasamen zurückzuführen. In einem Projektmonitoring wurden viele Proben Chiasamen auf Kupfer un-tersucht. Kupfer wird zwar auch in Pflanzenschutzmitteln eingesetzt. Chiapflanzen nehmen aber auch anderweitig im Boden enthaltenes Kupfer verstärkt auf und speichern es im Samen. Das Problem wird bereits auf europäischer Ebene diskutiert.

Wirkstoffe und Mehrfachrückstände
Bei 195 Wirkstoffen (18,3 %) wurden Überschreitungen der Rückstandshöchstgehalte festgestellt. Die Überschreitungsquoten lagen pro einzelnem Wirkstoff bei maximal 2,0 %. Nur bei Kupfer lag sie mit 5,0 % höher. Bei rund einem Drittel aller untersuchten Proben wurde mehr als ein Wirkstoff nachgewiesen. Bei Lebensmitteln, von denen mehr als 100 Proben untersucht wurden, wiesen mehr als drei Viertel der Pro-ben Mehrfachrückstände auf. Dies betraf vor allem Kirschen, Mandarinen, Tafeltrauben, Orangen, Grape-fruit und Pfirsiche/Nektarinen, Erdbeeren, Rosenkohle, Birnen, Himbeeren und Aprikosen.

Hintergrund
Rückstände von Pflanzenschutzmitteln in Lebensmitteln sind nur dann zulässig, wenn sie die geltenden Rückstandshöchstgehalte nicht überschreiten und demnach gesundheitlich unbedenklich sind. Eine Überschreitung des festgesetzten Rückstandshöchstgehalts ist aber im Umkehrschluss nicht gleichbe-deutend mit einem gesundheitlichen Risiko für Verbraucherinnen und Verbraucher. Die Festsetzung eines Höchstgehaltes erfolgt ausgehend von der Menge an Rückständen, die bei ordnungsgemäßer Anwen-dung des Pflanzenschutzmittels zu erwarten ist. Ein Risiko für die Gesundheit darf dabei nicht gegeben sein. Daher können die Rückstandshöchstgehalte deutlich unterhalb der gesundheitlichen Bedenklichkeit liegen.

Weiterführende Informationen

(nach oben)


Mikroplastik: Reifen- und Fahrbahnabrieb im Fokus einer neuen Publikation

Gemeinsam mit dem Karlsruher Institut für Technologie (KIT) und der Carnegie Mellon University (CMU), Pittsburgh, hat das Fraunhofer UMSICHT in einer Fachpublikation den Forschungsstand zum Thema Reifen- und Fahrbahnabrieb zusammengetragen. In dem peer reviewed Artikel mit dem Titel »Review: Mitigation measures to reduce tire and road wear particles« werden technische und nicht-technische Maßnahmen beschrieben, mit denen sich Emissionen aus Reifen- und Fahrbahnabrieb in die Umwelt vermeiden und bereits eingetragene Mengen reduzieren lassen.

Es ist wissenschaftlich belegt, dass Reifenabrieb eine relevante Quelle für Mikroplastik ist. Dies resultiert bereits aus der Zahl von rund 1,5 Milliarden weltweit zugelassener Kraftfahrzeuge im Jahr 2023[1]. Alleine in den Vereinigten Staaten waren im ersten Quartal 2023 gut 286 Millionen Fahrzeuge auf den Straßen unterwegs[2]. In Deutschland wurden nach Angaben des Kraft-fahrtbundesamts KBA fast 70 Millionen KFZ und KFZ-Anhänger gezählt (Stand 1. Januar 2023)[3]. Das Fraunhofer UMSICHT schätzt die jährlich entstehende Menge an Reifenabrieb hierzulande auf 60 000 bis 100 000 Tonnen – was bei über 80 Millionen Einwohner*innen ei-nem rechnerischen Mittel von ca. 1 000 Gramm Reifenabrieb pro Kopf und Jahr entspricht.

Weitestgehend unbekannte Folgen für die Umwelt
Reifenabrieb tritt auf Straßen nicht als reines Material auf. Während der Fahrt reibt sich die Lauffläche des Reifens ab und verbindet sich mit Material der Fahrbahnoberfläche sowie weiteren Partikeln wie Sand, Straßenstaub oder sedimentiertem Feinstaub aus der Atmosphäre zu sogenannten TRWP (Tyre and Road Wear Particles). Durch Niederschläge, Wind oder fahrzeuginduzierte Aufwirbelung können TRWP dann von der Straße weiter in Luft, Wasser und Boden gelangen. Einmal dort angekommen, ist der Reifen- und Fahrbahnabrieb nur schwer wieder zu entfernen und verbleibt dort in der Regel über lange Zeit – mit noch weitestgehend unbekann-ten Folgen für die Umwelt.

Neue Schadstoffnorm Euro 7 soll Bremsen- und Reifenabrieb berücksichtigen
Es gibt bereits heute Maßnahmen, die sich mindernd auf die Entstehung und Verbreitung von Reifen- und Fahrbahnabrieb auswirken. Hierzu zählen präventive Maßnahmen wie Geschwindigkeitsreduzierungen,eine defensive Fahrweise sowie nachgelagerte Maßnahmen wie die Straßenreinigung oder passende Behandlungsmethoden bei der Straßenentwässerung. Auch setzen immer mehr technische Lösungsansätze zur Reduzierung von TRWP-Emissionen bei den Fahrzeugen und Reifen an. Zu nennen sind zum Beispiel die optimale Verteilung von Antriebsmomenten oder die Steigerung der Reifenabriebresistenz. Ebenso werden regulatorische Maßnahmen eingeführt. So verständigte sich am 18. Dezember 2023 die EU auf die neue Schadstoffnorm Euro 7, in der es erstmalig Grenzwerte für Bremsen- und Reifenabrieb geben soll[4].

Studie zeigt Ist-Zustand auf
Um sich einen Überblick über bereits existierende technologische, regulatorische und verwaltungstechnische Maßnahmen und Entwicklungen gegen Reifenabrieb zu verschaffen, beauf-tragten die European Tyre & Rubber Manufacturers‘ Association ETRMA und die U.S. Tire Manufacturers Association USTMA im Jahr 2022 das Fraunhofer UMSICHT und seine wissen-schaftlichen Kooperationspartner KIT und CMU mit der Erstellung einer Studie.

Die im internationalen Journal »Science of The Total Environment« online erschienene Publikation »Review: Mitigation measures to reduce tire and road wear particles« basiert auf der gleichnamigen Studie. Das Team um die Wissenschaftlerinnen und Wissenschaftler des Fraunhofer UMSICHT hat aus mehr als 500 Fachliteraturquellen den aktuellen Stand an Minderungsmaßnahmen für TRWP zusammengetragen, kategorisiert und bewertet. Auch zukünftige Mobilitätstrends wie E-Mobilität und autonomes Fahren wurden berücksichtigt. Die Publikation schildert Wissenslücken und weist auf vielversprechende Forschungsfelder hin. Ralf Berling vom Fraunhofer UMSICHT: »Wirksame Maßnahmen, die die Entstehung und Verbreitung von Reifenabrieb reduzieren, liegen uns nun übersichtlich vor. Jetzt gilt es, ins Handeln zu kommen und die Maßnahmen zeitnah anzuwenden.«

[1] https://hedgescompany.com/blog/2021/06/how-many-cars-are-there-in-the-world/
[2] https://www.statista.com/statistics/859950/vehicles-in-operation-by-quarter-unit…
[3] https://www.kba.de/DE/Statistik/Fahrzeuge/Bestand/bestand_node.html
[4] https://www.consilium.europa.eu/de/press/press-releases/2023/12/18/euro-7-counci…

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S0048969723051628 Zur Publikation »Review: Mitigation measures to reduce tire and road wear particles«

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/reife… Pressemitteilung und Bilder

(nach oben)


Besserer Schutz vor Hochwasser: Mehr Raum für Flüsse und Auen als naturbasierte Lösung

Die Hochwassersituation in Teilen Deutschlands entspannt sich langsam. Dennoch wird es noch einige Tage dauern, bis die Flüsse wieder in ihr Bett zurückkehren. Doch wie breit ist ein natürliches Flussbett eigentlich? Unter welchen Bedingungen wird Hochwasser für uns gefährlich – und ist es das auch für die Natur? Wie können wir uns besser auf solche Extremereignisse vorbereiten und welche Maßnahmen nutzen Mensch und Natur gleichermaßen? Die aktuellen Hochwasserereignisse machen deutlich, dass wir beim Hochwasserschutz umdenken müssen, erklären Forschende des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB).

Für die meisten Menschen endet ein Fluss dort, wo Wasser auf Land trifft – an der Uferkante. Tatsächlich sind Flüsse aber viel ausgedehnter: Ihre natürlichen Überschwemmungsgebiete – die Auen – gehören bei Hochwasser dazu. Und auch die Flussbetten selbst waren ursprünglich breiter; das Wasser floss in mehreren Flussarmen und um viele Inseln, wie es sie heute z.B. noch in der Loire und in der Weichsel gibt.
Mittlerweile sind in Deutschland nur noch 32 Prozent dieser Auen vorhanden (BfN 2021). Die restlichen 68 Prozent wurden durch Deichbau von den Flüssen abgetrennt, entwässert und zur Landwirtschaft oder für Siedlungen genutzt.

„Deichbau und Entwässerung, die lokal sinnvoll waren, haben durch ihre flächenhafte Umsetzung dazu geführt, dass heute ganze Landstriche anfälliger für Hochwasserereignisse sind. Die Moorgebiete Niedersachsens zum Beispiel verzeichnen durch die Entwässerung großflächige Absenkungen der Geländeoberfläche um ein bis zwei Meter“, erklärt IGB-Forscher Dr. Martin Pusch. Dadurch erhöhen sich dort die möglichen Überflutungshöhen.

Hochwasser als Naturereignis:
„Hochwasser sind ganz natürliche Ereignisse in intakten Flusslandschaften, die über Jahrtausende eine einzigartige Artenvielfalt und widerstandsfähige Ökosysteme geschaffen haben. Sie sind sogar Voraussetzung für lebenswichtige Funktionen – zum Beispiel für die Grundwasserneubildung. Für einen nachhaltigeren Schutz vor Hochwasser sollten daher nicht nur technische Maßnahmen, sondern zunehmend naturbasierte Lösungen im Fokus stehen“, berichtet Prof. Dr. Sonja Jähnig, Abteilungsleiterin am IGB und Professorin an der Humboldt-Universität zu Berlin.

Erst der Bau von Siedlungen und Infrastrukturen in den Auen hat dazu geführt, dass aus einem eigentlich natürlichen Phänomen große materielle Risiken entstanden sind. Flussbegradigungen und zu dicht an Flüssen geführte Hochwasserdeiche ebenso wie großflächige Entwässerungen und Drainagen lassen Hochwasserwellen höher und schneller anschwellen. Zugleich tragen anthropogene Veränderungen wie die Folgen des Klimawandels, die zunehmende Bodenversiegelung und -verdichtung sowie der Gewässerausbau grundsätzlich zu einer Zunahme der Hochwasserhäufigkeit, -höhe und -fließgeschwindigkeit bei.

Begrenzte Schutzwirkung von Deichen und Rückhaltebecken:
Technische Hochwasserschutzanlagen bieten keinen absoluten Schutz. Treten stärkere Regen- und Hochwasserereignisse auf als bei der Bemessung angenommen, werden sie schnell zum Problem. „Ein vorwiegend technisch orientierter und oft nicht nachhaltiger Hochwasserschutz stößt zunehmend an seine Grenzen, weil er erhebliche Restrisiken birgt, flussabwärts neue Risiken erzeugt und zudem die Umwelt schädigt“, erläutert die IGB-Forscherin.

Herkömmlicher Hochwasserschutz greift nicht nur stark in die Gewässerstruktur ein, er ist auch teuer, meist unflexibel und lässt sich nur schwer an die im Klimawandel zunehmenden Hochwasserereignisse anpassen. Zudem gehen wertvolle Lebensräume für viele Tier- und Pflanzenarten im und am Wasser verloren – und damit auch viele Vorteile für uns Menschen. „Wir brauchen deshalb deutlich mehr Hochwasserschutzkonzepte mit Mehrfachnutzen für Mensch und Umwelt“, rät Jähnig. „Wir müssen von der Idee wegkommen, dass ein Fluss nur Wasser irgendwohin ableitet und stattdessen anstreben, dass diese Ökosysteme viele verschiedene Leistungen erbringen.“

Naturnaher Hochwasserschutz ist wichtiger Teil der Lösung:
Statt allein auf bauliche Maßnahmen wie Deiche oder künstliche Rückhaltebecken zu setzen, sollten also verstärkt sogenannte naturbasierte Lösungen (NbS, nature based solutions) zum Einsatz kommen. Sie sind meist multifunktional, d.h. sie dienen verschiedenen gesetzlichen, gesellschaftlichen oder wirtschaftlichen Zielen gleichzeitig – im Falle der Flussauen etwa der Klimaanpassung, der Erholung, dem Naturschutz oder der Biomasse-Erzeugung. Maßnahmen wie die Revitalisierung von Flüssen, Auen, Feuchtgebieten, Mooren und Wäldern oder die Entsiegelung von Flächen verbessern den Wasserrückhalt in der Landschaft und damit die Widerstandsfähigkeit gegenüber Hochwasserereignissen – aber auch gegenüber Dürren und Trockenperioden.

Technische Hochwasserschutzmaßnahmen wie Deiche sollten hingegen vor allem auf Siedlungsgebiete beschränkt werden, aber nicht zum Schutz landwirtschaftlicher Flächen dienen. „Der Schutz von Feldern und Äckern vor Hochwasser erhöht die Hochwassergefahr für Städte, Siedlungen und wichtige Infrastruktur“, erklärt Martin Pusch. „Deshalb sollten Deiche zurückverlegt und zusätzliche Überflutungsflächen geschaffen werden. Landwirtschaftliche Flächen, die in den Auen liegen, wären dann zwar nicht mehr geschützt, könnten aber immer noch als Weideland oder zur Erzeugung von Biomasse genutzt werden – beispielsweise durch den Anbau von Kulturpflanzen, die kaum Dünger benötigen.“

In den Niederlanden, die seit Langem führend im Wasserbau sind, wird dieses Prinzip im Rahmen des Programms „Raum für den Fluss“ großflächig umgesetzt. In Deutschland werden dagegen nur relativ wenige Deichrückverlegungen durchgeführt, sodass die aktive Auenfläche im Zeitraum 2009 bis 2020 nur um 0,1 Prozent pro Jahr vergrößert werden konnte. „Die meisten Gelder werden hierzulande immer noch in Deicherhöhungen und Deichverstärkungen investiert“, kritisiert Pusch.

Nationales Hochwasserschutzprogramm bleibt hinter den Erwartungen zurück:
Nach den großen Hochwasserschäden des Jahres 2013 hatten Bund und Länder ein Nationales Hochwasserschutzprogramm (NHWSP) beschlossen, um den natürlichen Hochwasserrückhalt zu koordinieren und zu beschleunigen. Damit könnten die Hochwasserstände auf weiten Strecken um 10 bis 50 cm gesenkt werden.
„Leider soll der Hochwasserrückhalt jedoch zu zwei Dritteln durch neue Polder und nur zu einem Drittel durch naturnahen Hochwasserrückhalt wie Deichrückverlegungen erreicht werden“, so Pusch. Von den 168 raumbedeutsamen Teil- und Einzelmaßnahmen des NHWSP befinden sich 66 in der Konzeptionsphase (39 Prozent), 46 (27 Prozent) in der Vorplanung, 18 (11 Prozent) in der Genehmigungs- bzw. Vergabephase und 26 (15 Prozent) in der Bauphase (LAWA 2023).

Die Forscherinnen und Forscher des IGB empfehlen daher, vorrangig einen kosteneffizienten und multifunktionalen naturnahen Hochwasserschutz umzusetzen. Deichrückverlegungen bieten ein breiteres Spektrum an Ökosystemleistungen als die Einrichtung technisch gesteuerter Polder, die nur selten geflutet werden und der naturnahe Hochwasserschutz funktioniert unabhängig von der behördlichen Entscheidungskette. Die für diese Deichrückverlegungen benötigten Flächen sollten in der Regional- und Flächennutzungsplanung reserviert werden. Betroffene Landwirt*innen könnten über Flächenpools und Flurbereinigungen entschädigt werden.

„Nur mit einem solchen ganzheitlichen Ansatz können wir den Herausforderungen des Hochwasserschutzes langfristig begegnen und gleichzeitig die natürlichen Lebensräume an unseren Fließgewässern erhalten“, fasst Auen-Forscher Martin Pusch zusammen und ergänzt: „Zahlreiche wissenschaftliche Studien belegen, dass es sinnvoll ist, Auen zu erhalten und ihre Funktionen wiederherzustellen – nicht nur wegen des Hochwasserschutzes, sondern auch wegen ihrer Fähigkeit zum Nährstoffabbau, ihrer Bedeutung im Kohlenstoffkreislauf und für den Erhalt der Artenvielfalt.“


Referenzen:

BfN (2021): Auenzustandsbericht. Bundesamt für Naturschutz, https://www.bfn.de/publikationen/broschuere/auenzustandsbericht-2021

LAWA (2023): 10 Jahre Nationales Hochwasserschutzprogramm (NHWSP) Grundlagen und Umsetzungsstand. Bund/Länder-Arbeitsgemeinschaft Wasser, https://www.lawa.de/documents/230531-broschuere-10-jahre-nhwsp-barr_2_1685951721…


Weitere Informationen zum Thema:
Wie ein kluger Hochwasserschutz aussehen könnte und welche Vorteile insbesondere naturbasierte Lösungen bieten, haben deutsche Wissenschaftlerinnen und Wissenschaftler 2022 unter Federführung der Senckenberg Gesellschaft für Naturforschung (SGN) in einer Handlungsempfehlung zusammengefasst. Der Policy Brief, an dem auch das IGB mitgewirkt hat, empfiehlt die Renaturierung von Flüssen und ihren Auen, die Wiedervernässung von Mooren und die Umgestaltung des deutschen Forsts.
https://www.igb-berlin.de/sites/default/files/media-files/download-files/220527-…

Ökologischer Hochwasserschutz – der Auen wiederherstellt – ist sinnvoll, technisch möglich und wirtschaftlich effizient. Dennoch wird dieser Ansatz weltweit noch nicht konsequent umgesetzt, weil die administrativen und rechtlichen Hürden hoch sind. Das zeigte eine Studie von Wissenschaftler*innen des IGB, die gemeinsam mit anderen Forschungseinrichtungen vier Projekte zur Renaturierung von Flussauen in Deutschland und den USA analysierten.
https://www.igb-berlin.de/news/hochwasserschutz-mit-mehrfachnutzen-mehr-raum-fue…

Flussauen sind nicht nur für den Hochwasserschutz wichtig, sondern stellen zahlreiche Leistungen für unsere Gesellschaft bereit, etwa Klimaregulierung, Kohlenstoffbindung, Wasserfiltration, Nahrungsmittelversorgung und Erholungsmöglichkeiten. Ein Hintergrunddokument der Europäischen Fachkonferenz „Riverine and coastal wetlands for biodiversity and climate – Linking science, policy and practice“, die 2023 von BfN und ENCA ausgerichtet wurde, gibt einen Überblick.
https://www.bfn.de/sites/default/files/2023-06/2023-riverine-and-coastal-wetland…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Abteilungsleiterin: Ökologie der Lebensgemeinschaften und Ökosysteme
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de
+49 (0)30 64181 680

Dr. Martin Pusch
Forschungsgruppenleiter und Programmbereichssprecher
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
martin.pusch@igb-berlin.de
+49 (0)30 64181 685

Weitere Informationen:
https://www.igb-berlin.de/news/besserer-schutz-vor-hochwasser

(nach oben)


Verstecktes Natrium: Konsum von Brausetabletten kann bei Bluthochdruck schädlich sein

Brausetabletten enthalten oft hohe Mengen an Natrium. Eine aktuelle Studie zeigt, dass dies auch für Nahrungsergänzungsmittel zutrifft. Patientinnen und Patienten mit Bluthochdruck sollten daher bei der Einnahme von bestimmten Nahrungsergänzungs- und Arzneimitteln besonders vorsichtig sein. Die Forscher fordern, die Angabe von Natrium auf Verpackungen verpflichtend zu machen.

In Deutschland greifen drei von vier Personen laut Statistischem Bundesamt regelmäßig zu Nahrungsergänzungsmitteln. Was die wenigsten jedoch wissen: Damit sich Brausetabletten im Wasserglas auflösen, enthalten sie oft erhebliche Mengen Natrium. Eine gesteigerte Natrium- bzw. Kochsalzzufuhr (Natriumchlorid) geht allerdings mit erhöhtem Blutdruck einher. Damit erhöht sich auch das Risiko für kardiovaskuläre Erkrankungen wie Schlaganfälle oder die koronare Herzkrankheit (KHK).

Natriumkonsum durch Unwissenheit oft viel zu hoch
Die Weltgesundheitsorganisation (WHO) rät, die Natriumzufuhr auf weniger als 2 g pro Tag zu beschränken und auf stark natriumhaltige Lebensmittel sowie auf Nachsalzen des Essens zu verzichten. „In Deutschland liegt der durchschnittliche Wert weit darüber. Das liegt unter anderem an sogenannten versteckten Natriumquellen“, erklärt Prof. Ulrich Kintscher, Sprecher der AG Hypertonie der Deutschen Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e. V. (DGK). Das sind Nahrungsmittel und Präparate zum Einnehmen, bei denen nicht die nicht immer direkt zu erkennen ist, wie viel Natrium sie enthalten. Beispiele hierfür sind Wurst, Käse oder Ketchup.

Offensichtlich gehören auch Brausetabletten zu diesen versteckten Natriumquellen, wie Forscher vom Universitätsklinikum des Saarlandes (UKS) nun herausfanden. Sie untersuchten verschiedene Brausetabletten, die als Nahrungsergänzungsmittel oder Medikamente verkauft werden. Mit einer speziellen Messmethode bestimmten sie den Natriumgehalt von 39 Vitamin-, Mineral-, Calcium- und Magnesium-Brausetabletten aus deutschen Drogerie-, Supermärkten und Discountern. Zudem analysierten sie 33 frei-verkäufliche, apothekenpflichtige Schmerzmittel, Husten- und Erkältungsmedikamente sowie Calciumpräparate, die als Brausetabletten erhältlich sind. Abschließend verglichen sie die deutschen Produkte mit 51 Nahrungsergänzungsmittel-Brausetabletten aus den USA.

Durch Brausetabletten wird empfohlene Tagesdosis schnell überschritten
„Eine einzelne Vitamintablette enthält durchschnittlich 380 mg Natrium. Das deckt bereits rund 20 Prozent des täglichen Tagesbedarfs“, sagt Prof. Felix Mahfoud, Leitender Oberarzt der Klinik für Kardiologie des UKS. Aber auch Arzneimittel-Brausetabletten enthalten eine bedeutende Menge Natrium. „Insbesondere Schmerz- und Erkältungsmedikamente sind mit durchschnittlich 450 mg pro Brausetablette stark natriumhaltig. Bei einem untersuchten Schmerzmittel liegt die maximale Tagesdosis laut Hersteller bei acht Tabletten. Das allein entspricht fast der doppelten Höchstmenge an Natrium, die die WHO pro Tag empfiehlt.“ Dabei muss erwähnt werden, dass die Werte zwischen den untersuchten Produktklassen stark schwankten. Die Analysen deuten darauf hin, dass deutsche Produkte mehr Natrium enthalten als US-amerikanische.

Forscher fordern mehr Produkttransparenz für Patientenwohl
„Die Ergebnisse sind von großer Relevanz für das Management von Patientinnen und Patienten mit Bluthochdruck. Vielen ist der Natriumgehalt von Brausetabletten gar nicht bekannt. Auf apothekenpflichtigen Mitteln muss er angegeben werden, da wird er aber oft nicht beachtet. Auf Produkten aus Drogerien und Supermärkten muss er gar nicht angegeben werden“, warnt Dr. Michael Kunz vom UKS. Das Forscher-Team fordert daher, dass alle Hersteller von Brausetabletten verpflichtet werden sollten, den Natriumgehalt und das damit assoziierte Risiko, auf der Verpackung anzugeben. Besser noch wäre, die Zusammensetzung der Brausetabletten zu überarbeiten und wenn möglich, Natrium einzusparen. Patientinnen und Patienten sollten zudem angehalten werden, den Konsum von natriumhaltigen Brausetabletten stark einzuschränken und auf andere Dosierungsformen, z. B. Tabletten, auszuweichen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Felix Mahfoud, M.A.
Dr. med. Michael Kunz
Klinik für Innere Medizin III
Kardiologie, Angiologie und Internistische Intensivmedizin
Universitätsklinikum des Saarlandes
66421 Homburg/Saar
Tel.: 06841 16 15350 – Sekretariat Frau Zickwolf
E-Mail: Felix.Mahfoud@uks.eu
E-Mail: Michael.Kunz@uks.eu

Originalpublikation:
doi:10.1136/bmjopen-2023-076302

Anhang
Hidden sodium in effervescent-tablet dietary supplements and over-the- counter drugs: a comparative cross-sectional study

(nach oben)


Forschungskooperation zur Gewässerwiederherstellung an der Ahr in Bad Neuenahr-Ahrweiler vorgestellt

Am 12. Januar 2024 wurde der Kooperationsvertrag zum Forschungsvorhaben „Monitoring der Gewässerwiederherstellungsmaßnahmen an der Ahr nach der Flutkatastrophe (MonAHR)“, unter der wissenschaftlichen Gesamtleitung des Umwelt-Campus Birkenfeld der Hochschule Trier, im Rahmen einer Pressekonferenz mit Klimaschutzministerin Katrin Eder vorgestellt und unterschrieben.

Im Juli 2021 sind im Zuge der Flutkatastrophe im Ahrtal 136 Menschen in Rheinland-Pfalz gestorben, unzählige Menschen wurden verletzt, traumatisiert, und haben ihr Hab und Gut verloren. Die Infrastruktur im Ahrtal wurde weitgehend zerstört. Ein maßgeblicher Teil der Zerstörung betrifft auch die Gewässerinfrastruktur der Ahr und ihrer Nebengewässer. Das vom Landkreis Ahrweiler beauftragte Gewässerwiederherstellungskonzept umfasst rund 1.000 Einzelmaßnahmen und ist damit eine der größten Gewässerwiederherstellungsmaßnahmen in Deutschland.

Die mit der Umsetzung dieses Konzepts betrauten Behörden beteiligen mit dieser Forschungskooperation wissenschaftliche Institutionen, die bereits langjährig und erfolgreich in der Wasserwirtschaft des Landes aktiv sind.
Die Gesamtprojektkoordination übernimmt dabei Prof. Dr. Stefan Stoll vom Umwelt-Campus Birkenfeld der Hochschule Trier. „Basierend auf einem umfangreichen Monitoringprogramm werden wir in diesem Projekt ökologische Chancen und Risiken der in der Ahr notwendigen Wiederherstellungsmaßnahmen beleuchten und die Auswirkungen bereits abgeschlossener Maßnahmen messen. Wir beziehen in unseren Analysen auch die Veränderungen durch den Klimawandel mit ein, denn die Ahr soll nicht nur in einen guten ökologischen Zustand zurückversetzt werden, sondern gleichzeitig auch fit für die Zukunft gemacht werden.“, so Prof. Stoll.

Weiter beteiligt sind neben dem Ministerium für Klimaschutz, Umwelt, Energie und Mobilität Rheinland-Pfalz die Universität Koblenz, die Hochschule Koblenz sowie als Praxispartner der Landkreis Ahrweiler und die Stadt Bad Neuenahr-Ahrweiler. Das Projekt ist in drei Phasen gegliedert und für die Laufzeit von sechs Jahren sind 1,8 Millionen Euro vorgesehen.

Mit Fokus auf den am stärksten betroffenen Mittel- und Unterlauf der Ahr wird das bereits existierende behördliche Monitoringnetz von den wissenschaftlichen Partnern ergänzt. Zielsetzung des verdichteten Monitorings ist ein kausales, quantitatives Verständnis der ökologischen Zusammenhänge mit Blick auf zentrale Ökosystemleistungen und den ökologischen Bewertungszustand. Ein solches Verständnis ist notwendig, um Handlungsalternativen bei Wiederherstellungsmaßnahmen bewerten und Prognosen zu zukünftigen Entwicklungen an der Ahr geben zu können. Dabei werden Schwerpunkte gesetzt: Es sollen die Besiedlungsprozesse der Gewässerorganismen nach der Flutkatastrophe vom Juli 2021 und den Wiederherstellungsmaßnahmen analysiert werden, es wird die Primär- und Sekundärproduktion in der Ahr untersucht und die Rolle von Ufergehölzen und ihren ökologischen Funktionen sowie eventuell resultierende Risiken bei Hochwassersituationen werden beleuchtet.

In Phase 1 wird in enger Absprache mit dem Landesamt für Umwelt und der SGD-Nord ein Messnetz zur Erfassung wichtiger physikalischer, chemischer und hydromorphologischer Umweltfaktoren und biologischer Messgrößen aufgebaut. Phase 2 beschäftigt sich mit der Analyse von Wiederherstellungsprojekten. In der letzten Phase ist die finale Bewertung der Maßnahmen sowie die Erstellung von Klimawandelszenarien Ziel. Die Veröffentlichungen sollen für alle Projektpartner jederzeit auf einer Projektplattform einsehbar sein. Das Monitoring und die darauf aufbauenden Analysen sind so ausgelegt, dass eine gute Übertragbarkeit der Erkenntnisse auf andere Fließgewässer in Rheinland-Pfalz gewährleistet ist.

Die Präsidentin der Hochschule Trier Prof. Dr. Dorit Schumann, die ebenfalls in Bad Neuenahr-Ahrweiler vor Ort war, betonte die Bedeutung des Projektes mit bundesweiter Beachtung für die Entwicklung des Umwelt-Campus Birkenfeld und die Hochwasservorsorge an der Ahr.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Stoll – Interdisziplinärer Umweltschutz

+49 6782 17-1578
s.stoll@umwelt-campus.de
https://www.umwelt-campus.de/sstoll

(nach oben)


Grundwasser für die Gesundheit des Planeten von zentraler Bedeutung: Besserer Schutz gefordert

Internationale Studie stuft das Grundwasser als Schlüsselökosystem ein und schlägt Wege für besseren Schutz vor, um biologische Vielfalt zu erhalten und Klimawandel abzufedern

Wasser ist die Basis allen Lebens auf der Erde. Welche wichtige Rolle das Grundwasser für die Menschheit und die biologische Vielfalt dabei spielt, wird häufig übersehen. In einer neuen Veröffentlichung zeigt ein internationales Forschungsteam zum ersten Mal auf, weshalb Grundwasser als ein Schlüsselökosystem zu bewerten ist. „Grundwasser ist nicht nur selbst ein wichtiges Ökosystem, sondern spielt darüber hinaus eine ganz entscheidende Rolle für die Ökosysteme an der Erdoberfläche“, sagt Prof. Dr. Robert Reinecke von der Johannes Gutenberg-Universität Mainz (JGU). Reinecke ist Experte für Erdsystemmodellierungen und war federführend an der Publikation beteiligt. Darin werden Wege zum besseren Schutz des Grundwassers vorgeschlagen, um somit den Verlust der biologischen Vielfalt zu verringern und den Klimawandel abzufedern.

Grundwasser liefert Trinkwasser für die Hälfte der Erdbevölkerung
Das Grundwasser ist die größte nicht gefrorene Süßwasserressource unserer Erde. Grundwasser versorgt die Hälfte der Weltbevölkerung mit Trinkwasser und manche Länder wie Dänemark gewinnen 100 Prozent ihres Trinkwassers vollständig aus dem Grundwasser. „Weltweit werden jedes Jahr etwa 1.000 Kubikkilometer Wasser an die Erdoberfläche gepumpt. Wir verbrauchen weit mehr, als natürlicherweise wieder aufgefüllt wird“, so Reinecke. Etwa ein Drittel der größten Grundwassereinzugsgebiete ist gefährdet, das heißt die Grundwasserspiegel nehmen kontinuierlich ab.

Die Versorgung mit Trinkwasser für den Menschen ist ein Aspekt der Problematik. Die Bedeutung des Grundwassers für die Ökosysteme ein weiterer, der jedoch in den globalen Agenden zur Erhaltung der biologischen Vielfalt bisher komplett übersehen wurde. 52 Prozent und damit mehr als die Hälfte der Erdoberfläche weltweit weist eine mittlere bis hohe Wechselwirkung mit dem Grundwasser auf. Die Zahl steigt auf 75 Prozent, wenn Wüsten und Hochgebirge ausgenommen werden – Regionen, wo Grundwasser entweder selten ist oder der Wasserspiegel sehr tief liegt. „Wechselwirkung heißt hier, dass Wasser aus Flüssen und Seen in das Grundwasser gelangt, während Grundwasser andererseits an die Oberfläche steigt und hier Feuchtgebiete, Flüsse und Seen speist.“ Reinecke merkt an, dass das Grundwasser selbst einen wertvollen Lebensraum für tausende Arten bietet, darunter Höhlenfische, blinde Aale und durchsichtige Krebse.

Internationales Forschungsteam schlägt wissenschaftlich-politische Agenda zum Schutz vor
„Wenn man die Bedeutung des Grundwassers als Ökosystem außer Acht lässt, wird seine entscheidende Rolle bei der Erhaltung der Oberflächen-Ökosysteme ignoriert. Um den rechtzeitigen globalen Schutz des Grundwassers zu fördern, schlagen wir vor, das Konzept der Schlüsselarten in den Bereich der Ökosysteme zu übertragen und das Grundwasser als ein Schlüsselökosystem zu betrachten, das die Integrität vieler abhängiger Ökosysteme beeinflusst“, schreibt das Forschungsteam in seinem Bericht, der in der Fachzeitschrift Global Change Biology erschienen ist. Daran beteiligt sind 51 Wissenschaftlerinnen und Wissenschaftler aus vielen verschiedenen Ländern – von Australien über Indien und die Philippinen, Italien und Finnland bis Brasilien und Kanada.

Im Hinblick auf das deutsche Recht weist Robert Reinecke darauf hin, dass das Grundwasser im Naturschutzrecht bisher nicht als Lebensraum gilt, sondern als Ressource – und damit nicht dem Schutz des Bundesnaturschutzgesetzes unterliegt. „Dies müssen wir unbedingt ändern“, so Reinecke. Er weist dazu auch auf Zahlen des Umweltbundesamtes hin, wonach aktuell rund 32 Prozent aller Grundwasserkörper in Deutschland in einem schlechten chemischen Zustand sind. Hauptursachen sind vor allem der Nitrateintrag und Belastungen durch Pflanzenschutzmittel.

In dem Bericht werden acht Schlüsselthemen vorgeschlagen, um eine wissenschaftlich-politisch integrierte Agenda für den Grundwasserschutz zu entwickeln. Da sich die Ökosysteme über und unter der Erde auf vielen Ebenen überschneiden, sei die Betrachtung des Grundwassers als wesentlicher Bestandteil der Gesundheit des Planeten von zentraler Bedeutung, um den Verlust der biologischen Vielfalt zu verringern und den Klimawandel abzufedern. „Wasser ist schließlich die Grundlage des Lebens auf der Erde. Wenn wir die ökologische Integrität der größten Süßwasserressource der Erde ignorieren, gefährden wir die Nachhaltigkeit ganzer Ökosysteme – und unserer eigenen Gesellschaften“, so Reinecke.

Bildmaterial:
https://download.uni-mainz.de/presse/09_geograph_erdsystemmodellierung_grundwass…
Karstsystem in den Plitvicer Seen: Karstgrundwassersysteme sind ein großer, wichtiger Lebensraum.
Foto/©: Robert Reinecke

Weiterführende Links:
https://earthsysmod.uni-mainz.de/ – Arbeitsbereich Erdsystemmodellierung am Geographischen Institut

Lesen Sie mehr:
https://presse.uni-mainz.de/zweiter-bericht-ueber-zustand-der-globalen-wasserres… – Pressemitteilung „Zweiter Bericht über Zustand der globalen Wasserressourcen veröffentlicht“ (12.10.2023)

Wissenschaftliche Ansprechpartner:
Juniorprof. Dr. Robert Reinecke
Erdsystemmodellierung
Geographisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-27875
E-Mail: reinecke@uni-mainz.de
https://erdsysmod.uni-mainz.de/robert-reinecke/

Originalpublikation:
Mattia Saccò, Stefano Mammola et al.
Groundwater is a hidden global keystone ecosystem
Global Change Biology, 12. Dezember 2023
DOI: 10.1111/gcb.17066
https: https://onlinelibrary.wiley.com/doi/10.1111/gcb.17066
Juniorprof. Dr. Robert Reinecke
Erdsystemmodellierung
Geographisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-27875
E-Mail: reinecke@uni-mainz.de
https://erdsysmod.uni-mainz.de/robert-reinecke/

Originalpublikation:
Mattia Saccò, Stefano Mammola et al.
Groundwater is a hidden global keystone ecosystem
Global Change Biology, 12. Dezember 2023
DOI: 10.1111/gcb.17066
https: https://onlinelibrary.wiley.com/doi/10.1111/gcb.17066

(nach oben)


Altersmediziner empfehlen Senioren dringend Doppelimpfung gegen Grippe und Corona

Corona ist für viele Senioren und vor allem hochaltrige Patienten gerade wieder ein Problem. Kombiniert mit saisonalen Infekten wie Grippe, Pneumokokken oder auch Keuchhusten werden derzeit viele Ü60-Jährige stationär in den Kliniken behandelt. Auch die sehr schweren Verläufe sehen Mediziner derzeit vor allem bei älteren Menschen – der durchschnittliche COVID-19-Patient auf der Intensivstation ist 75 Jahre und älter, denn 85 Prozent der Patienten sind hochbetagt.

„Der Schutz dieser vulnerablen Gruppe durch Impfungen bedarf deshalb noch größerer Aufmerksamkeit“, fordert Dr. med. Anja Kwetkat, Chefärztin der Klinik für Geriatrie und Palliativmedizin am Klinikum Osnabrück und Leiterin der Arbeitsgruppe Impfen der Deutschen Gesellschaft für Geriatrie (DGG). Und weist darauf hin, dass es auch jetzt für den wichtigen Piks noch nicht zu spät ist!

Generell sollte die jährliche Grippe-Impfung für Senioren ab 60 Jahren zur Routine werden, wie das Reifen-Wechseln zur Saison am eigenen Auto – so empfiehlt es auch die STIKO. „Der quadrivalente (vierfache) Hochdosis-Impfstoff, der vor gut zwei Jahren eingeführt wurde, hat sich gut etabliert und zeichnet sich durch einen stärkeren Wirkschutz aus als der Standard-Impfstoff“, erklärt Dr. Anja Kwetkat. „Verlangen Sie mit über 60 Jahren unbedingt diesen Impfstoff, um eine gute Immunantwort zu erhalten.“

Insbesondere älteren Menschen und Menschen mit Vorerkrankungen rät sie deshalb unbedingt zur jährlichen Grippe-Impfung. Zu relevanten Vorerkrankungen zählen die koronare Herzkrankheit (KHK), eine Herz- oder Niereninsuffizienz, Schlaganfall oder Diabetes. „Insbesondere bei den Herz-Kreislauf-Erkrankten besteht bei einer Grippeinfektion ein erhöhtes Risiko für das Auftreten kardiovaskulärer Komplikationen – und das auch noch nach überstandener Grippeinfektion“, so Kwetkat. Geimpfte Menschen sind gegenüber solch schweren Folgeerkrankungen deutlich besser geschützt.

Neu: Doppelimpfung gegen Grippe und Corona möglich
Wichtig zu wissen: Aufgrund der aktualisierten Datenlage wird die Influenza-Impfung jetzt gleichzeitig mit der COVID-19-Impfung empfohlen – vor allem für Ü60-Jährige, so die STIKO. „Für Senioren mit Basisimmunität wird eine Auffrischungsimpfung empfohlen. Im Moment geht man davon aus, dass diese jährlich benötigt wird und bevorzugt im Herbst verabreicht werden soll. Der Abstand zur letzten Auffrischungsimpfung sollte dann mindestens zwölf Monate her sein und zur letzten Infektion mindestens sechs Monate“, erklärt Impfexpertin Kwetkat.

Zur Erinnerung: Eine Basisimmunität besteht bei Personen, die drei Impfungen bekommen haben oder zwei Impfungen und eine COVID-Infektion durchgemacht haben.

Auch Empfehlung für Pneumokokken-Impfung
Alle Ü60-Jährigen sollten sich zudem mit dem 20-valenten Konjugatimpfstoff gegen Pneumokokken impfen lassen – egal ob mit Vorerkrankungen oder ohne Vorerkrankungen. Für Senioren mit Vorerkrankungen, die vor mindestens sechs Jahren mit dem älteren Polysaccharidimpfstoff geimpft wurden, wird eine einmalige Auffrischung mit dem neuen 20-valenten Konjugatimpftstoff empfohlen.

„Wir Altersmediziner hoffen, dass sich hier die Impfquote noch deutlich steigern wird, denn die Impfquote bei Pneumokokken ist leider noch vergleichsweise gering“, weiß Dr. Kwetkat. „Der Hausarzt sollte den Impfstatus überprüfen. Fragen Sie unbedingt danach, wenn Sie sich unsicher sind!“ Denn weiterhin ist eine Lungenentzündung, ausgelöst durch Pneumokkoken, eine sehr schwere Erkrankung, vor der man sich aber einfach schützen kann.

Impfen ist fast immer möglich – außer bei Fieber
Mit Blick auf den Kalender wäre der Gang zum Hausarzt und zur Impfung bereits im Oktober sicherlich sehr gut gewesen. „Aber es ist jetzt kurz vor Weihnachten trotzdem nicht zu spät“, fordert Dr. Anja Kwetkat auf, Versäumtes nachzuholen.
Einzig und allein gilt es, nicht während eines Infektes zu impfen. „Fieber ist eine echte Gegenanzeige zum Impfen“, so Kwetkat. Also selbst wenn man nach einer rauschenden Familienfeier jetzt doch etwas Sorge vor Ansteckung hat, es vielleicht schon im Hals kratzt, kann geimpft werden. „Je mehr Senioren sich jetzt noch zur Impfung entschließen, desto weniger Patienten werden wir Altersmediziner in den nächsten Wochen auf unseren Stationen und Intensivstationen sehen“, ist Frau Dr. Kwetkat überzeugt. „Es ist wirklich wichtig!“

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen/2181-pm-altersmediziner-empfeh…

(nach oben)


Eier und Cholesterin: Was der Kardiologe dazu sagt

Begünstigt erhöhter Eiverzehr an den Ostertagen Herz- und Gefäßerkrankungen? Herzspezialist lenkt Blick auf gesamte Ernährungsweise und fordert mehr Aufmerksamkeit für Prävention durch Nichtrauchen und regelmäßige Bewegung

Jetzt um die Osterzeit genießt das Ei besondere Aufmerksamkeit in der medialen Öffentlichkeit. Ursache ist nicht allein seine Beliebtheit auf dem Frühstückstisch: Über 230 Eier pro Kopf werden in nur einem Jahr in Deutschland verbraucht. Für einen kurzen Moment führte auch die aktuelle Empfehlung der Deutschen Gesellschaft für Ernährung (DGE) zu Verunsicherung bei Ei-Konsumenten. Denn danach sollte nur noch ein Ei pro Woche verzehrt werden. Mitbegründet wurde dies allerdings auch mit ökologischen Aspekten [1]. Und auch unabhängig davon steht das Frühstücks-Ei oder aktuell das zusätzliche Oster-Ei immer wieder in der Kritik, weil Eier besonders reich an Cholesterin sind (100 Gramm Ei enthalten rund 470 Milligramm Cholesterin). Damit verbunden wird die Sorge, dass der Verzehr den Cholesterinspiegel in ungesundem Maß erhöht. „Diese Sorge ist unbegründet. Denn der Cholesteringehalt eines einzelnen Nahrungsmittels beeinflusst den Cholesterinspiegel im Blut wenig. Im Wesentlichen ist der Cholesterinstoffwechsel genetisch determiniert, ererbt aus der Familie“, erklärt der Kardiologe und Lipidspezialist Prof. Dr. Ulrich Laufs vom Wissenschaftlichen Beirat der Deutschen Herzstiftung im Exklusiv-Interview. Auch komme es auf Art und Menge der grundsätzlich verzehrten Nahrungsfette an. Wie sich Eier im Detail auf den Cholesterinspiegel auswirken, lasse sich wissenschaftlich nicht genau beantworten, „weil die Cholesterinaufnahme sehr stark von der übrigen Ernährung und anderen Faktoren abhängt“, so der Direktor der Klinik und Poliklinik für Kardiologie am Universitätsklinikum Leipzig. Das Essen sei nicht völlig egal, es komme aber auf den „Ausgangszustand“ an, wie Laufs im Interview am Extrem-Beispiel des „Couch Potato“ erklärt: „Wer nur aus der Fritteuse lebt und vor einem Bildschirm sitzt, bei dem wird eine Änderung des Lebensstils durch mehr Bewegung, durch eine Reduktion von Gewicht und sehr fettbetonter Ernährung dazu führen können, dass das LDL-Cholesterin um 20 bis 30 Prozent sinkt.“ Infos zu Ei und Cholesterin auch unter https://herzstiftung.de/eier-und-cholesterin
Sicher ist, dass der Cholesterinspiegel im Blut in erster Linie durch die Leber reguliert wird und nicht durch Darm und Ernährung. Nur ein Drittel des Cholesterins nimmt der Körper über die Nahrung auf. Zwei Drittel des Blutfetts stellt er über die Leber selbst her. „Wer sich daher insgesamt ausgewogen ernährt und ansonsten einen gesunden Lebensstil pflegt, bei dem wirkt sich ein Ei zum Frühstück am Wochenende oder der Verzehr mehrerer Eier an Ostern kaum auf den Cholesterinspiegel aus“, betont Prof. Laufs, der an der Leipziger Uniklinik auch die Lipid-Ambulanz leitet. „Wer Herzinfarkt und Schlaganfall vermeiden möchte, sollte vielmehr auf Zigaretten verzichten und sich täglich 30 bis 45 Minuten bewegen.“

Erhöhtes LDL-Cholesterin: Risiko immer individuell abschätzen
Ein hoher Cholesterinspiegel zählt zu den größten Risikofaktoren für Herz-Kreislauf-Erkrankungen. Insbesondere hohe Werte des LDL (LDL=Low Density Lipoprotein)-Cholesterins (LDL-C) steigern dieses Risiko. Denn überschüssiges LDL-C im Blut lagert sich in den oberen Schichten der Gefäßwand ein. Dies ist ein wesentlicher Mechanismus für das Entstehen einer Gefäßverkalkung (Atherosklerose) und führt über Jahre hinweg – gemeinsam mit anderen Risikofaktoren wie Bluthochdruck, Diabetes mellitus oder Rauchen – zum vollständigen Verschluss oder zum Aufplatzen von Kalkplaque mit nachfolgender Thrombose (Herzinfarkt, Schlaganfall, pAVK). Allein in Deutschland werden pro Jahr fast 200.000 Herzinfarkt-Patienten stationär in Kliniken versorgt.
Prof. Laufs, wie auch andere Kardiologen, betonen dabei, dass für eine Behandlung bei hohen LDL-C-Werten immer die individuelle Person, also auch ihr Gesamtrisiko für Herz-Kreislauf-Erkrankungen, zu betrachten ist. Ist zum Beispiel nur das LDL-C leicht erhöht? Oder liegen noch zusätzlich Risikofaktoren für Infarkte vor, die ebenfalls ein Handeln erfordern? Häufig reicht bei lediglich leicht erhöhten LDL-C-Werten das Umstellen der Ernährungs- und Bewegungsgewohnheiten, um das kardiovaskuläre Risiko zu senken. Herzexperten und die Deutsche Herzstiftung empfehlen dazu die Mittelmeerküche. Sie ist reich an frischem Gemüse, Obst, Salaten, Hülsenfrüchten, Vollkornprodukten, Fisch, Nüssen, Kräutern und pflanzlichen Ölen (z.B. Olivenöl), die mehrfach ungesättigte Fettsäuren enthalten. Insgesamt werden zudem nur wenige tierische Produkte genutzt. Der Verzehr von einem Ei oder auch hin wieder mehreren in Kombination mit einer ausgewogenen Ernährung wie der Mittelmeerküche, die fettarm und reich an ungesättigten Fettsäuren ist, ist dann auch unbedenklich. Infos unter https://herzstiftung.de/mediterrane-ernaehrung
Für die tägliche Bewegung von 30 bis 45 Minuten sind Ausdaueraktivitäten wie Radfahren, Laufen, flottes Spazierengehen, Joggen oder Schwimmen sehr zu empfehlen. „Und nicht allein an Ostern gilt: Gesellschaft und Freude und Entspannung wirken ebenfalls kardioprotektiv“, betont der Leipziger Kardiologe.

Lebensstil-Anpassung vor allem bei erhöhten Triglyzerid-Werten
In das Gesamtkonzept einer Fettstoffwechsel-Behandlung sollte stets die Prävention mit eingebunden werden, betont Laufs. Arzt und Patient sollten dies gemeinsam besprechen. „An erster Stelle steht gerade bei erhöhten Triglyzerid-Werten stets der Lebensstil und dann erst kommen Medikamente ins Spiel.“ Bei erhöhten LDL-C-Werten sei mit Lebensstilmaßnahmen nur wenig zu erreichen. Daher muss früher mit einer medikamentösen Therapie gestartet werden. Dennoch sei auch hier ein gesunder Lebensstil für die Gefäßgesundheit wichtig, um das Infarktrisiko zu verringern. „Wissenschaftlich am besten gesichert sind hierfür Statine“, so Laufs. Lässt sich der Cholesterinspiegel mit Statinen nicht ausreichend senken, ist eine Kombinationstherapie ratsam. Dazu stehen Ezetimib, Bempedoinsäure und auch die PCSK9-Hemmer zur Verfügung. Infos unter https://www.herzstiftung.de/cholesterinsenker
(wi/ne)

Jetzt reinhören! Podcast „Ach du dickes Ei – Wichtiges Wissen zu Cholesterin“
Der Podcast mit dem vollständigen Gespräch mit Prof. Dr. Ulrich Laufs ist zu hören unter: https://www.herzstiftung.de/eier-und-cholesterin
Alle Podcasts können auf der Herzstiftungs-Website unter www.herzstiftung.de/podcasts direkt gehört werden und sind ebenso bei den einschlägigen Podcast-Anbietern wie Spotify und Apple iTunes zu finden. Alle 14 Tage gibt es einen neuen „imPULS“-Podcast.

Informationen über Ursachen und Folgen hoher Cholesterinwerte sowie Möglichkeiten der Therapie finden Betroffene und Interessierte unter https://www.herzstiftung.de/cholesterin und https://www.herzstiftung.de/cholesterinsenker sowie unter
https://www.herzstiftung.de/statine-irrtuemer

Den kostenfreien Ratgeber „Hohes Cholesterin: Was tun?“ kann man unter
https://www.herzstiftung.de/bestellung oder per Tel. unter 069 955128-400 anfordern.

Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114

Literatur:
[1] Pressemitteilung der Deutschen Gesellschaft für Ernährung e. V., „Auch zu Ostern Eier genießen“, abgerufen am 25.3.2024: https://www.dge.de/presse/meldungen/2024/auch-zu-ostern-eier-geniessen/

Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle:
Michael Wichert (Ltg.) /Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
https://www.herzstiftung.de/eier-und-cholesterin
https://www.herzstiftung.de/podcasts
https://www.herzstiftung.de/cholesterin
https://www.herzstiftung.de/cholesterinsenker
https://www.herzstiftung.de/statine-irrtuemer

Anhang
PM_DHS_Eier-und-Cholesterin_2024-03-28_FIN

(nach oben)


EU-Klimapolitik: Wie die EU CO2-Entnahme steuern könnte

Damit in der EU in Zukunft in großem Umfang CO2 aus der Atmosphäre entnommen werden kann, braucht es neben technischen Gegebenheiten einen steuernden Rahmen. In einer neuen Studie legt ein Forschungsteam um PIK-Direktor Ottmar Edenhofer dafür ein ökonomisch fundiertes Konzept vor. Eine Schlüsselrolle spielt dabei eine zu errichtende Europäischen Kohlenstoff-Zentralbank.

Für zügiges Mindern der Klimagas-Emissionen hat die EU weitreichende Beschlüsse gefasst. So wird sie, wie in Energiewirtschaft und Industrie, ab 2027 auch in den Problemsektoren Wärme und Verkehr den CO2-Ausstoß per Emissionshandel deckeln um so Klimaneutralität zu erreichen. Nicht vermeidbare Restemissionen sollen vor allem durch den Einsatz von Technologien kompensiert werden, die der Atmosphäre direkt oder indirekt CO2 entziehen und es dann einlagern. „CO2-Entnahme als die zweite Säule des Klimaschutzes wird uns in der zweiten Hälfte des Jahrhunderts viel Geld kosten – die Schätzungen reichen von 0,3 bis 3 Prozent der globalen Wirtschaftsleistung“, sagt Ottmar Edenhofer, Direktor vom Potsdam-Institut für Klimafolgenforschung (PIK) und einer der Autoren. „Wir liefern ein sehr konkretes Konzept, wie diese Herkulesaufgabe bewältigt werden kann.“

+++ EU-Subventionen an Dauerhaftigkeit von CO2-Entnahme koppeln +++

Die in der Fachzeitschrift FinanzArchiv veröffentlichte Studie widmtet sich dem Thema CO2-Entnahme aus ökonomischer Sicht: So wie der Staat den CO2-Ausstoß verteuert, um seine negative Folgen zu begrenzen, sollte er die CO2-Entnahme subventionieren. Max Franks, PIK-Forscher und Autor der Studie, erklärt: „Als grundlegendes Prinzip zur Kostenminimierung sollte dabei für jede entnommene und dauerhaft gespeicherte Tonne CO2 der gleiche Preis verwendet werden wie für die Emission einer Tonne CO2 in die Atmosphäre. Eine Herausforderung dabei ist die nicht dauerhafte CO2-Entnahme, bei der das Treibhausgas immer wieder neu aus der Atmosphäre entnommen werden muss.“

Unmittelbar kostengünstige landbasierte Optionen, wie die Aufforstung oder das Anreichern von Kohlenstoff auf Äckern, können dadurch etwa im Vergleich zu Luftfilter-Anlagen mit dauerhafter unterirdischer Speicherung entscheidend an Attraktivität verlieren. Deshalb erscheint es sinnvoll, die EU-Subventionen zunächst an die Dauerhaftigkeit der Entnahme zu koppeln („Upstream pricing“), so die Autoren. Erst wenn auch die CO2-Emissionen im Landsektor umfassend ermittelt sind und der Bepreisung unterliegen, können Entnahmen unterschiedslos gefördert werden. Die vier entscheidenden Stellschrauben sind die Mengensteuerung der Netto-Emissionen, die Regelung der Haftung bei nicht permanenten Entnahmen, die finanzielle Förderung von Entnahme-Ausbau und Innovation sowie die Zertifizierung der Anbieter.
Für die ersten beiden Aufgaben schlägt die Studie eine Europäische Kohlenstoff-Zentralbank vor, außerdem zwei Behörden für Finanzierung und Qualitätssicherung. Den Studienautoren zufolge wäre dieser Vorschlag im Rahmen der derzeitigen politischen Architektur der EU gut durchführbar.

Artikel: Edenhofer, O., Franks, M., Kalkuhl, M., Runge-Metzger, A. (2024): On the Governance of Carbon Dioxide Removal – A Public Economics Perspective. FinanzArchiv. [DOI: 10.1628/fa-2023-0012]
Weblink zum Artikel: https://viewer.content-select.com/pdf/viewer?ip=145.253.110.218&id_type=doi&…

Originalpublikation:
Edenhofer, O., Franks, M., Kalkuhl, M., Runge-Metzger, A. (2024): On the Governance of Carbon Dioxide Removal – A Public Economics Perspective. FinanzArchiv. [DOI: 10.1628/fa-2023-0012]

(nach oben)


Fachleute der Raumplanung empfehlen Reaktivierung von Bahnstrecken

ARL-Arbeitskreis lotet in aktuellem Positionspapier das Potential von Schienennetz-Reaktivierung als Beitrag zur Orts- und Regionalentwicklung aus

Die Reaktivierung stillgelegter Schienenstrecken für den Personen- und Güterverkehr ist eine große Chance, die Verkehrswende zu beschleunigen und gleichwertige Lebensverhältnisse in ganz Deutschland zu schaffen. Darauf weist die ARL – Akademie für Raumentwicklung in der Leibniz-Gemeinschaft in einem aktuell erschienenen Positionspapier hin. Vielerorts sind die alten Strecken oder zumindest die Trassen noch verfügbar. Ein Anschluss von Städten und Gemeinden an ein schienenbasiertes Verkehrssystem ermöglicht gesellschaftliche Teilhabe und schafft Impulse für eine nachhaltige Entwicklung. Durch den Ausbau des Schienennetzes können mehr Menschen auf umweltfreundliche Verkehrsmittel umsteigen und ländliche Räume werden so besser an den öffentlichen Verkehr angebunden.
Die ARL ruft dazu auf, unmittelbar mit den notwendigen Schritten zu beginnen. Dringend erforderlich ist eine verbindliche Sicherung der Trassen durch die Landes- und Regionalplanung, um eine Überbauung auszuschließen. Stillgelegte Schienenstrecken müssen umgehend auf ihr Potenzial für die Orts- und Regionalentwicklung hin analysiert und verstärkt reaktiviert werden. Das Positionspapier zeigt, wie sich bisherige Hindernisse überwinden lassen. Es stellt heraus, dass neue volkswirtschaftliche Bewertungsmaßstäbe und innovative Finanzierungsmodelle benötigt werden, die den Wert reaktivierter Strecken für Regionalentwicklung, Tourismus und Klimaschutz viel stärker gewichten. Der Präsident der ARL, Prof. Dr. Axel Priebs, der zusammen mit dem Verkehrsplaner Prof. Dr. Volker Stölting den Arbeitskreis geleitet hat, fasst die Empfehlungen aus der ARL zusammen: „Nachdem über Jahrzehnte das Streckennetz der deutschen Eisenbahnen reduziert wurde, ist es angesichts überlasteter Strecken und nicht auf der Schiene erreichbarer Mittelzentren höchste Eisenbahn, das Netz wieder zu verdichten und Menschen in allen Teilen Deutschlands einen gut erreichbaren Zugang zum System Eisenbahn zu verschaffen!“.

Das Positionspapier aus der ARL wurde von Expertinnen und Experten aus Wissenschaft und Praxis im Rahmen des ARL-Arbeitskreises „Reaktivierung von Schienenstrecken als Instrument einer integrierten Raumentwicklung“ erarbeitet, es enthält zentrale Empfehlungen für die Umsetzung in der Praxis und ist über die Website der ARL für alle Interessierten kostenfrei zugänglich.

Zitierempfehlung
ARL – Akademie für Raumentwicklung in der Leibniz-Gemeinschaft (Hrsg.) (2024): Die Reaktivierung von Schienenstrecken als Strategie der integrierten Raumentwicklung – Chancen nutzen und Hemmnisse überwinden. Hannover. = Positionspapier aus der ARL 146.

Pressekontakt
Tanja Ernst / Carolin Pleines
Wissenschaftskommunikation der ARL
Tel. +49 511 34842-54 oder 56
wiko@arl-net.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Axel Priebs
Präsident der ARL
praesidium@arl-net.de

Weitere Informationen:
https://www.arl-net.de/shop/positionspapiere-aus-der-arl-587

(nach oben)


Was macht mich internetsüchtig? DFG fördert Forschungsgruppe weiter

Einfach aufhören? Das ist online beim Zocken, Shopping, Pornoschauen oder beim Nutzen von Sozialen Medien für viele Menschen kaum möglich. Wie sich das Suchtverhalten entwickelt und ändern lässt, ist das Thema einer transregionalen Forschungsgruppe* unter Leitung von Prof. Matthias Brand von der Fakultät für Informatik und der Medizinischen Fakultät der Universität Duisburg-Essen. Nun gab die Deutsche Forschungsgemeinschaft grünes Licht für drei weitere Förderjahre und rund fünf Millionen Euro.

Neben dem suchtartigen Computerspielen, das die Weltgesundheitsorganisation bereits als Erkrankung anerkennt, können auch im Internet hemmungsloser Pornographiekonsum, exzessives Shopping und das soziale Netzwerken zum Problem werden. Was dem an psychologischen und neurobiologischen Prozessen zugrunde liegt, untersuchen Prof. Matthias Brand und seine Kollegin Dr. Elisa Wegmann vom Lehrstuhl für Allgemeine Psychologie: Kognition seit drei Jahren. In der zweiten Förderperiode sind zwei weitere Antragstellerinnen aus dem Team Brand dabei: Dr. Stephanie Antons und Dr. Silke M. Müller. Unterstützt werden sie von Prof. Nicole Krämer, Lehrstuhl Sozialpsychologie: Medien und Kommunikation (UDE), und von Kolleg:innen der Universitäten Bochum, Bamberg, Gießen, Mainz, Lübeck, und der Medizinischen Hochschule Hannover.

Verschiedene Stadien der Sucht
Wie werden die Nutzenden getriggert? Wann gelingt es ihnen, ihre Impulse zu unterdrücken? Warum verhalten und entscheiden sie sich so? „Die bisherigen Ergebnisse belegen unsere Annahme, dass individuelle kognitive und impulsgesteuerte Prozesse eine besondere Rolle spielen, wenn onlinebezogene Süchte entstehen und aufrechterhalten werden“, so Forschungsgruppen-Sprecher Brand. Mit diesem Wissen lassen sich Prävention und Therapie dieser Störungen verbessern. „Dennoch sind noch viele psychologische und neurobiologische Mechanismen unklar. Auf diese wollen wir uns in der zweiten Förderphase konzentrieren.“

Dafür befragen der Psychologe und seine Kolleg:innen erneut rund die Hälfte der über 1.100 Personen mit sowohl unproblematischem als auch riskantem und pathologischem Verhalten. Sie haben sich bereits in der ersten Förderperiode an Fragebögen, Interviews, experimentellen Paradigmen sowie Hirnscans beteiligt. Die Forschenden wollen so einen mehrere Jahre umfassenden Verlauf darstellen, der die verschiedenen Stadien des Suchtprozesses aufzeigt.

Neu ist zudem, dass sich drei der insgesamt zehn Teilprojekte Machbarkeitsstudien widmen. So will die Forschungsgruppe herausfinden, wie durch gezielte Interventionen die affektiven und kognitiven Mechanismen verändert und dadurch die exzessive Nutzung verringert werden könnte. „Bei weiteren Projekten werden wir zudem erneut die Magnetresonanztomographie einsetzen, um noch besser die neurobiologischen Grundlagen des onlinebezogenen Suchtverhaltens zu verstehen“, erklärt Brand.

  • Affective and cognitive mechanisms of specific Internet-use disorders (ACSID) (FOR 2974)

Redaktion: Cathrin Becker, Tel. 0203/37 9-1488, cathrin.becker@uni-due.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Brand, Kognitionspsychologie, Tel. 0203/37 9-2541, matthias.brand@uni-due.de

Weitere Informationen:
https://www.uni-due.de/kognitionspsychologie/for2974

(nach oben)


Krankenhaus: Risiken und Nebenwirkungen für den Klimawandel

Sechs Prozent des CO2-Fußabdrucks in Deutschland gehen auf das Konto des Gesundheitssektors. Wege zur Klimaneutralität im Krankenhausbetrieb – Thema eines öffentlichen Symposiums am 18. April an der HWR Berlin.

Gebäudebetrieb, Reinigung, Krankentransport, Einkauf, Apothekendienst – diese und viele andere Dienstleistungen und medizinische Prozesse sind essenziell, um ein Krankenhaus am Laufen zu halten. Und sie verursachen Treibhausgasemissionen, in erheblichem Umfang.

Wegweisende Erkenntnisse
Wissenschaftlerinnen der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) haben gemeinsam mit Vertreterinnen von Krankenhäusern, Serviceanbietern, Fachverbänden und Bratungsfirmen in den letzten drei Jahren ermittelt, welche CO2- Emissionen mit nicht-medizinischen Prozessen im Klinikbetrieb verbunden sind und welche Maßnahmen ergriffen werden müssen, um diese Prozesse klimaneutral zu gestalten. Das Bundesministerium für Bildung und Forschung (BMBF) förderte das praxisbezogene Forschungsprojekt unter dem Titel „Klimaneutrale Sekundärprozesse im Krankenhaus“, kurz „KlinKe“.

Zukunftsweisender Dialog
Der fachliche Austausch über die Ergebnisse und Empfehlungen stehen im Mittelpunkt des öffentlichen Symposiums unter dem Titel „Klimaneutrale Sekundärprozesse im Krankenhaus“ am 18. April 2024 von 10.30 bis 16.00 Uhr an der HWR Berlin (Campus Schöneberg, Haus B, Aula, Badensche Straße 50–51, 10825 Berlin). Die Keynote hält Dr. med. Matthias Albrecht von der Deutschen Allianz Klimawandel und Gesundheit (KLUG) und dem Kompetenzzentrum für klimaresiliente Medizin und Gesundheitseinrichtungen (KliMeG).

Die Veranstaltung richtet sich an Mitarbeiter*innen aus dem Gesundheitswesen (Krankenhäuser, Servicegesellschaften, Pflegeeinrichtungen), aus der Wissenschaft und Zivilgesellschaft (Verbände und Vereine) und ist offen für alle am Thema interessierten Personen.

Medienvertreterinnen sind herzlich eingeladen. Interviews mit Wissenschaftlerinnen und anderen Beteiligten des Forschungsprojektes können auf Anfrage vermittelt werden.

Anmeldung und Programm
Anmeldungen für die kostenlose Teilnahme am Symposium sind möglich bis zum 11. April 2024 unter folgendem Link:
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/1147-kl….

Mehr zum Forschungsprojekt „KlinKe“
https://www.hwr-berlin.de/forschung/forschungsprojekte/schlaglichter-aus-der-for…

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Martina Martinovic
E-Mail: martina.martinovic@hwr-berlin.de

Heike Prüße
E-Mail: heike.pruesse@hwr-berlin.de

(nach oben)


Girls‘ Day 2024: Nur noch schnell das Klima retten

Mit cleverem Gebäudemanagement die Energiewende schaffen, mit Maschinenbau das Klima retten – Zukunftsberufe für coole Girls von heute. Komm am 25. April 2024 zum Girls‘ Day an die Hochschule für Wirtschaft und Recht Berlin.

Entdecke deine Leidenschaft für Technik, Ingenieurwesen und Management. Ob App-Entwicklerin, Robotik-Ingenieurin oder Datenanalystin – finde Deinen Traumjob in der Welt aus Technologie und Innovation.

Am Donnerstag, dem 25. April 2024, gibt es von 9.00 bis 15.00 Uhr an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) am Campus Lichtenberg (Alt-Friedrichsfelde 60, 10315 Berlin) tolle Mitmach-Workshops für Schülerinnen der 7.–10. Klasse:

Eingebunden sind die Workshops in ein buntes Rahmenprogramm mit Infos zur Hochschule, den Studiengängen und rund um das Thema Studium.

Die Teilnahme ist kostenlos, eine vorherige Anmeldung über das Girls‘ Day Radar erforderlich. Die Teilnehmerinnenzahl ist begrenzt.

Alle Informationen und Anmeldung zum Girls‘ Day an der HWR Berlin
Die Online-Anmeldung erfolgt über das Girls’ Day Radar unter dem Link www.girls-day.de oder über den direkten Link des jeweiligen Workshops auf der Veranstaltungsseite der HWR Berlin:
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/446-gir…

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Marielle Hermstrüwer
Tel.: +49 30 30877-1473
E-Mail: marielle.hermstruewer@hwr-berlin.de

(nach oben)


Kommunale Wärmeplanung in der Praxis

Zum 1. Januar 2024 ist das »Gesetz für die Wärmeplanung und zur Dekarbonisierung der Wärmenetze« in Kraft getreten. Dieses nimmt Deutschlands Kommunen in die Pflicht, in Form einer kommunalen Wärmeplanung Strategien für die Umstellung ihrer Energieversorgung auf erneuerbare Energien und unvermeidbare Abwärme zu entwickeln. Wie diese Pläne zum einen sektorenübergreifend gestaltet und zum anderen erfolgreich in die Praxis umgesetzt werden können, beschäftigt die Partner im frisch gestarteten Verbundvorhaben »KommWPlanPlus«.

Hinter dem »Forschungs- und Entwicklungscluster zur Verknüpfung von kommunaler Wärmeplanung mit der Umsetzungsplanung von integralen Maßnahmen im Quartier« – so der komplette Titel des Vorhabens – stehen das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, die items GmbH & Co. KG, die Stadt Wuppertal, die WSW Wuppertaler Stadtwerke GmbH, die Stadt Hagen, die Enervie Service GmbH, die Stadt Garbsen und die Stadtwerke Garbsen GmbH sowie der Verein Civitas Connect e. V. als Netzwerkpartner. Gemeinsam untersuchen sie, wie die kommunale Wärmeplanung als langfristige Planungsaufgabe organisatorisch und technisch verstetigt und mit Blick auf sich ändernde Anforderungen in Richtung einer integrierten Umsetzungsplanung weiterentwickelt werden kann. Das Besondere: In Wuppertal, Hagen und Garbsen laufen parallel zum Projekt kommunale Wärmeplanungen, so dass die praktischen Arbeiten die wissenschaftlichen Arbeiten flankieren.

In einem ersten Schritt werden Grundlagen der integralen Konzeptentwicklung und -bewertung erarbeitet. Dabei spielen Erfahrungen aus so genannten Umsetzungsprojekten an den drei Standorten eine große Rolle. »Wenn ein Stadtwerk plant, die Wärme- und Stromversorgung in einem Quartier neu zu gestalten, wird dieses Projekt bei der Wärmeplanung mitgedacht«, nennt Dr.-Ing. Anne Hagemeier von Fraunhofer UMSICHT ein Beispiel. »Wie wirkt sich die Wärmeplanung auf Stromlösungen und -netze aus? Wo lassen sich Verknüpfungen herstellen?«

Ein weiterer Fokus des Vorhabens liegt auf Methoden und Werkzeugen zur Integration der Ergebnisse aus der eher strategisch gelagerten kommunalen Wärmeplanung in eine integrierte Umsetzungsplanung auf Ebene von Fach- und Detailplanung. Ihre Entwicklung erfolgt ebenfalls in enger Abstimmung mit den drei Praxisstandorten, um sowohl Anwendbarkeit und Übertragbarkeit als auch Verstetigung und Fortschreibung zu gewährleisten. Anne Hagemeier: »Die von uns entwickelten und ausgewählten Formate sollen dazu beitragen, dass die kommunale Wärmeplanung verstärkt in die Umsetzung kommt, als wichtiges integrales Planungswerkzeug weiterentwickelt und auch verstetigt wird. Dafür steht das Plus im Namen unseres Vorhabens.«

Um die Ergebnisse des Vorhabens auch anderen Kommunen zur Verfügung zu stellen, schlagen die Partner unterschiedliche Wege ein. Zum Beispiel wollen sie eine Veranstaltungsreihe mit dem Titel »Komm.InFahrt« initiieren. Zielsetzung: eine akteursgerechte Ansprache von Kommunen, um sie für die anstehenden Aufgaben im Umfeld der kommunalen Energiewende zu befähigen und die Umsetzung der kommunalen Wärmeplanung zu beschleunigen. Dabei soll auch ein Leitfaden unterstützen, in dem zentrale Ergebnisse von »KommWPlanPlus« praxisgerecht aufbereitet werden.

FÖRDERHINWEIS
Das Verbundvorhaben »KommWPlanPlus – Forschungs- und Entwicklungscluster zur Verknüpfung von kommunaler Wärmeplanung mit der Umsetzungsplanung von integralen Maßnahmen im Quartier« wird im Rahmen von »EnEff:Stadt« vom Bundesministerium für Wirtschaft und Klimaschutz gefördert. Projektträger ist die Forschungszentrum Jülich GmbH.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/kommunale-waermeplanung.html

(nach oben)


Wasser ist die Quelle des Lebens

Das gilt insbesondere auch für uns Menschen. Gemessen am Körpergewicht beträgt der Wasseranteil rund 60 Prozent. Dieser verändert sich im Laufe des Lebens und ist bei Säuglingen höher und im Alter zumeist niedriger. Die Muskulatur besteht zu 75 Prozent aus Wasser, das Fettgewebe nur zu 10 Prozent. Verantwortlich für einen geregelten Flüssigkeitshaushalt des Körpers sind die Nieren. Zum Weltwassertag am 22. März 2024 rückt Professor Dr. Bernhard Banas, Leiter der Abteilung für Nephrologie des Universitätsklinikums Regensburg (UKR), die Nieren in den Fokus.

Die Lebewesen entwickelten sich im Laufe der Jahrtausende weiter: Vom Salzwasser in das Süßwasser und schließlich an Land. Was fast niemand weiß: Hätte die Evolution „nur“ Herzen, Mägen, Gehirne und Knochen vorangebracht, so wäre das Leben bis heute auf die Meere beschränkt. Das wichtigste Organ für die Entwicklung des Lebens auf unserer Erde war und ist die Niere. Im Salzwasser gibt es Flüssigkeit und Salze genug, Organismen haben es leicht, einen ersten Stoffwechsel zu kontrollieren. Im Süßwasser muss man dann schon Salze einsparen und darf diese nicht einfach verlieren. Und an Land gilt es sowohl den Flüssigkeitshaushalt als auch den Salzhaushalt genau zu regulieren, dafür gibt es die Nieren.

Die Nieren und der Körperhaushalt
„Ganz gleich, ob wir an einem Tag fünf Liter Wasser trinken und am nächsten Tag nur einen halben Liter, ob wir an einem Tag ein Kilo Salzheringe essen und am nächsten nur ein einziges rohes Salatblatt – die Nieren schaffen es locker, den Wasser- und Salzhaushalt unseres Körpers zu regulieren. Wir können uns auf unsere Nieren verlassen“, sagt Professor Dr. Bernhard Banas, Leiter der Abteilung für Nephrologie des UKR. Betrachtet man den Organismus des menschlichen Körpers, so ist die Funktion der Nieren einmalig. Ein Herz zum Beispiel kann nicht plötzlich die zehnfache Menge an Blut pumpen, und unsere Lungen können nicht zehnmal so viel atmen. „Aber die Nieren passen sich nur dann Bedürfnissen und Umständen an, wenn sie gesund sind.“ Es ist sinnvoll, während des gesamten Lebens immer wieder einmal die Nierenfunktion überprüfen zu lassen, dazu gehört auch eine Untersuchung des Urins. „Viel zu oft wird bei Routineuntersuchungen leider nur der sogenannte Kreatininwert im Blut gemessen, dieser steigt aber erst an, wenn bereits 50 Prozent der Nierenfunktion verlorengegangen sind“, so Professor Banas weiter.

Was die Nieren täglich leisten
Rund 1,2 Liter Blut laufen pro Minute durch die Nieren, das entspricht etwa 1.800 Litern pro Tag. Daraus entstehen ca. 180 Liter Filtrat, auch Primärharn genannt. Im Endeffekt werden aber 99 Prozent der filtrierten Flüssigkeit rückresorbiert. Dabei werden Salze eingestellt und Giftstoffe ausgeschieden, so dass die tägliche Urinausscheidung im Normalfall bei rund 1,5 Litern liegt. „Wollten wir unsere Nieren mal so richtig testen, so könnten wir einen Halbmarathon laufen und dabei sehr wenig Flüssigkeit zu uns nehmen. In diesem Extremfall produzieren gesunde Nieren einen hochkonzentrierten, jedoch fast salzfreien Urin.“ Das alles ist aber nur die Pflicht, in der Kür regulieren die Nieren zum Beispiel auch den Blutdruck, den Säure-Basen-Haushalt, die Blutbildung und den Knochenstoffwechsel entscheidend mit.

Ein kleiner Ratschlag zum Schluss
„Wollen Sie sich und Ihren Nieren etwas Gutes tun, dann ist das weder aufwendig noch schwierig. Trinken Sie nach Durst, eine normale Trinkmenge sind 1,5 bis 2 Liter pro Tag, bei körperlicher Belastung oder Hitze natürlich mehr“, so der Nephrologe. Viel zu trinken schützt die Nieren nicht und ist nur in Sondersituationen wie etwa bei Nierensteinen von Bedeutung. Wichtig ist aber, was getrunken wird. Am besten ist Wasser, auch Tee und Kaffee schaden der Niere in aller Regel nicht. Vorsicht ist geboten bei Zucker-gesüßten oder Zuckerersatz-gesüßten Getränken, hierfür sind gesundheitliche Risiken bis hin zu einer erhöhten Sterberate wissenschaftlich belegt. Wichtig ist es zudem, konsequent bei der Abklärung und Behandlung von Hypertonie und Diabetes zu sein. Beide Erkrankungen sind in der westlichen Welt noch häufigere Ursachen für ein chronisches Nierenversagen als spezifische, primär die Nieren betreffende Krankheiten.

(nach oben)


Je höher das Windrad, desto besser

Hereon-Forscher haben herausgefunden: Große Windräder der neuen Generation haben
weniger Einfluss sowohl auf die Meeresoberfläche als auch auf benachbarte Windparks.

Windparks auf der Nordsee können sich gegenseitig ausbremsen und zudem das Leben im Meer beeinträchtigen. Wissenschaftler des Helmholtz-Zentrums Heron haben jetzt herausgefunden, dass sich diese Effekte mit dem künftigen Ausbau der Offshore-Windenergie nicht unbedingt verstärken müssen. Im Gegenteil: Der Trend geht zu immer höheren Windrädern, deren Einfluss auf den Ozean offensichtlich geringer ist. Das kann die Meereslebensräume entlasten und zugleich die Stromausbeute erhöhen.

Windräder werden immer höher und stärker. Anfang der 2000er-Jahre kamen die ersten Anlagen der 2-Megawatt-Klasse auf den Markt, die Strom für umgerechnet etwa 3000 Haushalte lieferten. Heute haben die höchsten und stärksten Anlagen rund 15 Megawatt. In wenigen Jahren sollen es sogar 20 Megawatt sein. Damit will die Europäische Union die Stromproduktion auf See, die sogenannte Offshore-Windkraft, massiv ausbauen. Derzeit stehen in den europäischen Gewässern Windräder mit einer Gesamtleistung von 28 Gigawatt, was rund 50 Kernkraftwerksreaktoren entspricht. Bis zum Jahr 2050 sollen es 300 Gigawatt sein.

Angesichts dieses enormen Wachstums haben Wissenschaftler vom Hereon jetzt untersucht, wie sich die künftigen Windparks aus 15-Megawatt-Giganten auf ihre Umgebung auswirken könnten – sowohl auf die Meeresoberfläche als auch auf benachbarte Windparks. Die Ergebnisse, die das Hereon-Team um den Klimaforscher Dr. Naveed Akthar jetzt im Fachmagazin Nature Scientific Reports veröffentlicht hat, überraschen: Windparks aus 15-Megawatt-Anlagen beeinflussen ihre Umgebung weniger stark als solche aus den deutlich kleineren 5-Megawatt-Anlagen. Dabei gehen die Forscher in ihrer Studie davon aus, dass auf einem Quadratkilometer Windparkfläche künftig vergleichsweise wenige 15-Megawatt-Windräder stehen werden. Statt vieler kleiner Anlagen wie bisher, wird es in einem Windpark einige Große geben. Der Grund: Für die Meeresgebiete in der Europäischen Union ist reglementiert, wie viele Megawatt Windkraft-Leistung auf einem Quadratkilometer installiert werden dürfen. Mit einigen wenigen großen Anlagen ist dieses Limit schneller erreicht als mit kleinen.

Räumliche Veränderungen der Windfelder machen Probleme
Dass Windparks ihre Umgebung beeinflussen, liegt daran, dass durch die Drehbewegung der Rotoren Luft verwirbelt wird. Dadurch treten hinter einem Windpark Turbulenzen auf. Außerdem ist dort die Windgeschwindigkeit geringer. Für einen Windpark, der hinter einem anderen liegt, bedeutet das eine geringere Stromausbeute. Wie Naveed Akhtar und seine Kollegen schon vor zwei Jahren in einem Fachartikel beschrieben haben, beeinflussen Windanlagen auch das Leben im Meer. Durch Modellrechnungen am Computer konnten sie zeigen, dass vor allem das Wachstum von Planktonalgen verändert wird. Hinter einem Windpark kann es um bis zu zehn Prozent geringer als in anderen Meeresgebieten sein. Die Ursache ist der abnehmende Wind und die erhöhte Turbulenz hinter den Windenergieanlagen. Die übertragene Energie in den Ozean nimmt in diesen Regionen durch die Verringerung der Windgeschwindigkeit ab. Durch die räumlich ungleichförmigen Windfelder in der Nähe der Wasseroberfläche werden zudem Ausgleichsbewegungen im Ozean erzeugt, die zu Vertikaltransporten- sogenanntes Up- und Downwelling führen und die Planktonproduktion entweder verstärken oder verringern können.

Wie die aktuellen Modellrechnungen des Hereon-Teams zeigen, sind Veränderungen des Windfeldes an der Wasseroberfläche bei einem Windpark mit 15-Megawatt-Anlagen geringer. Das hat vor allem zwei Gründe. Zum einen stehen die Anlagen weniger dicht zusammen. Zum anderen sind sie höher. Der Rotor kommt der Meeresoberfläche damit nicht so nah wie bei kleinen Anlagen. „Was die Meeresumwelt angeht, sind das gute Nachrichten für den Ausbau der Offshore-Windenergie in den europäischen Gewässern“, sagt Naveed Akhtar. Und auch für die Stromerzeuger sind die größeren Anlagen von Vorteil. Windparks mit wenigen hohen Anlagen stören die Luftströmung weniger als viele kleine Anlagen. Die Bremswirkung eines Windparks und die Turbulenzen fallen geringer aus. „Alles in allem kann sich damit die Stromausbeute in den Windparks um zwei bis drei Prozent erhöhen.“

Einzigartiger Blick auf die ganze Nordsee
Die Studie der Hereon-Forscher ist besonders, weil sie die Situation für die gesamte Nordsee darstellt. „Für gewöhnlich wird bei derartigen Berechnungen lediglich der Einfluss einzelner Windräder oder nur eines Windparks berücksichtigt“, sagt Naveed Akhtar. „Angesichts des starken Ausbaus in weiten Bereichen der Nordsee muss man aber das gesamte Gebiet betrachten. Windparks haben eine Fernwirkung, die 60 bis 70 Kilometer weit reichen kann. Um all das zu erfassen, muss man die ganze Nordsee im Blick haben.“

Wissenschaftliche Ansprechpartner:
Dr. Naveed Akhtar I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung
T: +49 (0)4152 87-1009 I naveed.akthar@hereon.de

Originalpublikation:
https://doi.org/10.1038/s41598-024-56731-w

(nach oben)


Stressübertragung in Gruppen

Kann Stress übertragen werden? Können auch weitere physiologische Zustände an andere Individuen weitergegeben werden? Diese Fragen untersuchten Forschende des Exzellenzclusters Kollektives Verhalten bei Menschen und bei Tieren.

Bei Mensch und Tier können wir beobachten, wie physiologische Zustände untereinander übertragen werden. Ein gutes Beispiel dafür ist Stress. Stress ist eine natürliche Reaktion, die meist durch eine Bedrohung der physischen oder psychischen Unversehrtheit verursacht wird. Menschen und Tiere als soziale Wesen erleben Stress häufig in Gruppensituationen: zum Beispiel bei der Arbeit oder wenn Tiere einem Raubtier gegenüberstehen. Die Übertragung von Stress auf andere kann dabei durchaus eine positive Funktion haben: Sie kann eine koordinierte Reaktion der Gruppe erleichtern oder einzelne Mitglieder des Kollektivs besser auf die Bewältigung der Bedrohung vorbereiten.

Übertragung von Stress
In Experimenten untersuchten Forschende des Exzellenzclusters Kollektives Verhalten der Universität Konstanz aus der Biologie und Psychologie die Übertragung von Stress von einem Individuum auf eine Gruppe, aber auch die Stressübertragung innerhalb von Gruppen.
So untersuchten die Psychologinnen Alisa Auer, Lisa-Marie Walther und Petra Wirtz unter anderem das Stresserleben von Studierenden bei schriftlichen universitären Prüfungen, von Orchestermusikerinnen während einer Probe und einem Konzert, sowie in Situationen am Arbeitsplatz. Außerdem haben sie in einer kürzlich publizierten, als Editor’s Choice Article ausgewählten Studie „erstmals ein Paradigma entwickelt, um die Übertragung von Stress unter standardisierten Bedingungen im Labor untersuchen und dabei für eine Vielzahl potenzieller Einflüsse kontrollieren zu können“, berichtet Studienleiterin Petra Wirtz. Dadurch konnte gezeigt werden, dass einige, aber nicht alle Stresssysteme bei der Stressübertragung aktiviert werden. Die Stressübertragungsreaktion hat einen ähnlichen Verlauf wie die Reaktion auf selbst erlebten Stress, jedoch in geringerem Ausmaß. In weiteren Studien von Kolleginnen wurde Stressübertragung bei Paaren, bei Speeddating oder in Schulklassen erforscht.

Stressübertragung in Tiergruppen
Die Doktoranden Dennis Horvath und Dennis Mink zeigten mit ihren Experimenten, dass Mäuse, die mit gestressten Mäusen zusammenleben, ein erhöhtes Stresshormon-Level haben. Sie sind zurückhaltender und vorsichtiger, während nicht gestresste Mäuse aktiver und mutiger sind: Letztere verhalten sich neugierig und erkunden vermehrt ihre Umgebung.

Ein ähnlich stark verändertes Verhalten unter Stress wurde auch bei Vogelschwärmen beobachtet: „Die Aktivität von Vögeln, die in Kolonien mit gestressten Mitgliedern lebten, veränderte sich stark“, sagt Hanja Brandl, Postdoktorandin am Exzellenzcluster Kollektives Verhalten. „Vor allem bewegten sie sich weniger, und ihre Fortpflanzungsrate sank proportional zum Grad des Stresses in ihrem sozialen Umfeld. Dies zeigt, dass Stressoren nicht nur auf die direkt dem Stress ausgesetzten Individuen wirken können, sondern auch auf Gruppenmitglieder, die den Stressor nie am eigenen Leib erfahren haben“, schlussfolgert die Biologin.

Physiologische Synchronisierung
Stress kann nicht nur kollektiv übertragen werden, sondern es findet auch eine physiologische Synchronisation zwischen den Gruppenmitgliedern statt – sogar zwischen Tieren und Menschen. Ein Bereich, in dem physiologische Synchronität beobachtet wird, ist die Reittherapie. Studienleiter Jens Pruessner sagt dazu: „Eine wichtige Hypothese dieses Projekts ist, dass die physiologische Synchronisation mit einer Verbesserung der Symptome im Verlauf der Studie zusammenhängt.“ Erste Ergebnisse bestätigen diese Annahme: Die Herzfrequenzvariabilität von Patient*in und Pferd innerhalb und im Verlauf der Behandlungstermine wird immer ähnlicher. Pruessner fügt hinzu: „Interessanterweise verringern vergangene traumatische Erfahrungen die Synchronität, und die Synchronisation zwischen Therapeut und Pferd scheint auch die Synchronisation von Patient und Pferd zu beeinflussen.“

Anhand aller durchgeführten Experimente konnten die Forschenden nachweisen, dass Stressübertragung und physiologische Synchronisation zwischen den Gruppenmitgliedern stattfindet. Im nächsten Schritt wollen sie herausfinden, wie genau dies geschieht.

Faktenübersicht:

  • Eine ausführliche Beschreibung aller Experimente und eine Übersicht über die zugehörigen Veröffentlichungen ist auf den Seiten 48 – 59 des Jahresberichts des Exzellenzclusters Kollektives Verhalten 2023 zu finden.
  • Der Exzellenzcluster Kollektives Verhalten der Universität Konstanz ist ein weltweit führendes Spitzenforschungszentrum für die Erforschung von Schwarmverhalten. Interdisziplinär werden drängende Fragen über Arten- und Organisationsebenen hinweg angegangen, von neuronalen Mechanismen über individuelle Wahrnehmung und Präferenzen bis hin zu kollektivem Verhalten in Gruppen oder ganzen Gesellschaften.

(nach oben)


Internationaler Tag des Waldes: Wie technische Innovation hilft, gestresste Wälder besser zu verstehen

Im Sonderforschungsbereich ECOSENSE an der Universität Freiburg entwickeln Forschende der Mikrosystemtechnik und der Umweltwissenschaften gemeinsam neue Sensoren, um die Reaktion von Wäldern auf den Klimawandel zu untersuchen.

Den 21. März 2024 haben die Vereinten Nationen zum Internationalen Tag des Waldes ausgerufen und unter das Motto „Wälder und Innovation: Neue Lösungen für eine bessere Welt“ gestellt. Damit wollen die Vereinten Nationen die Rolle technischer Neuentwicklungen würdigen, die einen Beitrag zu Schutz und Erhalt der globalen Wälder leisten. „Als Ökologen sind wir bei unseren Messungen in Wäldern und anderen Ökosystemen schon immer auf Technik angewiesen“, kommentiert Prof. Dr. Christiane Werner, Professorin für Ökosystemphysiologie an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Herkömmliche Messinstrumente hätten aber erhebliche Beschränkungen: Sie seien oft sehr teuer, groß und aufwendig zu installieren, so dass sich mit ihnen meist nur einzelne Bäume vermessen ließen. „Solche Messungen sind daher räumlich nicht hoch aufgelöst und sie sind zudem invasiv, das heißt die Sensoren verletzen oder belasten die Bäume, greifen in die Natur ein und stören das Ökosystem“, ergänzt Prof. Dr.-Ing. Ulrike Wallrabe, Professorin für Mikroaktorik am Institut für Mikrosystemtechnik (IMTEK) der Universität Freiburg.

Die Entwicklung moderner Mikrosysteme eröffnet jedoch neue Wege für die Erforschung der Wälder. „Wir beobachten international den Trend, im Wald intelligente Netzwerke aus verteilten Sensoren aufzubauen, mit denen sich verteilte und detaillierte Messungen durchführen und so ganz neue Erkenntnisse gewinnen lassen“, sagt Werner. „Und indem wir die Systeme kleiner machen, können wir versuchen, möglichst nicht-invasiv zu messen und das Ökosystem so wenig wie möglich zu stören“, erläutert Wallrabe.

Mit verteilten Sensornetzwerken an vielen einzelnen Blättern und Wurzeln messen

Gemeinsam sind Werner und Wallrabe Sprecherinnen des 2022 eingerichteten Sonderforschungsbereichs ECOSENSE an der Universität Freiburg, der das Ziel hat, möglichst robuste, energieautonome und kostengünstige Sensornetzwerke zur Vermessung von Wäldern zu entwickeln. Der Ansatz von ECOSENSE ist einzigartig: Statt auf vorgefertigte Sensoren zurückzugreifen, arbeiten Umweltwissenschaftlerinnen mit Mikrosystemtechnikerinnen zusammen an der Entwicklung von Sensorik, Datenübertragungstechniken und Fertigungsverfahren. So entstehen etwa kleine vernetzte Sensoren, die sich an einzelnen Blättern oder Wurzeln anbringen lassen. „Damit können wir wirklich detailliert und in großer Vielzahl einzelne Blätter, einzelne Wurzel-Boden-Interaktionen oder andere kleinräumige Prozesse in ihrer ganzen Heterogenität messen“, erklärt Werner.

Die Daten helfen den Forschenden, besser zu verstehen, wie sich Klimawandel, Schädlingsbefall und andere Stressfaktoren auf Wälder auswirken. „Die Dürren der letzten Jahre haben gezeigt, wie unterschiedlich die Effekte des Klimawandels auf den Wald sind. Das kennt jeder, der durch die Natur geht: Da gibt es eine Baumgruppe, die ist abgestorben, und direkt daneben stehen gesunde Bäume der gleichen Art. Solche heterogenen Prozesse können wir in Zukunft mithilfe hochaufgelöster Messungen viel besser verstehen“, sagt Werner. Die ersten von ECOSENSE entwickelten Sensornetzwerke werden nun in einem Versuchswald in Ettenheim, nahe bei Freiburg, mit großer Unterstützung der Gemeinde getestet. Gemessen werden sollen zunächst die Photosyntheseaktivität, der Wasser- und Kohlenstoffaustausch an Wurzeln und Blättern sowie die Ausscheidung flüchtiger organischer Verbindungen, die wichtige Marker für Stressreaktionen von Bäumen sind. Aus den Daten ließen sich wiederum Rückschlüsse für die zukünftige Klimawandelanpassung von Wäldern ziehen, etwa im Hinblick auf die besten Kombinationen von Baumarten und Böden, so Werner.

Schmutz, Feuchtigkeit und Insekten – der Wald als Herausforderung für die Mikrosystemtechnik

Der Einsatz moderner Mikrotechnik im Wald stelle die Forschung jedoch vor eine schwierige Aufgabe, hebt Wallrabe hervor: „Für uns als Mikrosystemtechniker ist der Wald eine enorme Herausforderung. Dort gibt es große Temperaturspannen und Sonneneinstrahlung, durch die die Materialien der Sensoren altern. Wir haben mit Feuchtigkeit, Schmutz, Staub und Pollen zu kämpfen. Es gibt Insekten, die in jede Ritze krabbeln. Und sogar die Entwicklungszyklen der Technik müssen sich an natürliche Rhythmen anpassen – ein Blattsensor nützt mir nichts, wenn er erst im September zum Ende der Wachstumssaison fertig ist.“ Um diesen Problemen zu begegnen, wird bei ECOSENSE auch an möglichst haltbaren und selbstreinigenden Oberflächen geforscht, die ohne antibakterielle und fungizide Wirkstoffe auskommen und so das Ökosystem möglichst wenig beeinträchtigen.

Das große Ziel von ECOSENSE sei es, ein Set von Sensoren zu entwickeln, die günstig hergestellt und von anderen Forschenden sowie teilweise auch von Forstpraktiker*innen auf einfache Weise genutzt werden können, heben Wallrabe und Werner hervor. Die Skalierbarkeit und breite Anwendbarkeit der Sensorik sei entscheidend, so Werner, denn „es wird nicht eine einfache Lösung geben, mit der wir alle Wälder gleichermaßen an den Klimawandel anpassen. In jedem Wald gibt es individuelle Wechselwirkungen zwischen der Bodenbeschaffenheit, dem Baumbestand, der Artenzusammensetzung, den Umweltfaktoren und dem Klima. Unsere Vision ist deshalb, dass man mit unserem mobilen Werkzeugkasten von Sensoren an vielen unterschiedlichen Orten Messungen durchführen kann und damit die spezifischen Wechselwirkungen an den jeweiligen Standorten analysiert.“ So könne technische Innovation einen wichtigen Beitrag dazu leisten, die Wälder besser zu verstehen und für die Zukunft zu rüsten.

Ulrike Wallrabe und Christiane Werner stehen für Medienanfragen gern zur Verfügung.

Prof. Dr.-Ing. Ulrike Wallrabe
Professur für Mikroaktorik
Albert-Ludwigs-Universität Freiburg
Telefon: +49 761 203-7580
wallrabe@imtek.uni-freiburg.de

Prof. Dr. Christiane Werner
Professur für Ökosystemphysiologie
Albert-Ludwigs-Universität Freiburg
Telefon: +49 761 203-8301
c.werner@cep.uni-freiburg.de

Faktenübersicht:

  • Der Sonderforschungsbereich 1537 „ECOSENSE – Skalenübergreifende Quantifizierung von Ökosystemprozessen in ihrer räumlich-zeitlichen Dynamik mittels smarter autonomer Sensornetzwerke“ wird von der Deutschen Forschungsgemeinschaft gefördert. Mehr zu seiner Arbeit hier: https://www.ecosense.uni-freiburg.de/
  • Gemeinsam sind Ulrike Wallrabe und Christiane Werner Sprecherinnen von ECOSENSE. Frau Werner ist außerdem Principal Investigator bei der Exzellenzcluster-Initiative „Future Forests“.
  • Mehr zum Internationalen Tag des Waldes: https://www.fao.org/international-day-of-forests/en/

Kontakt:
Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de

Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/expertendienst/internationaler-tag-des-…

(nach oben)


Die Landschaft als Schwamm: Warum Hochwasserschutz in Wald und Flur beginnt

Wer das Risiko von Hochwasser minimieren will, muss vor Ort etwas tun. Genauer gesagt: noch vor dem Ortsschild. In einem neuen Forschungsprojekt will die Hochschule Coburg ein Baukastensystem entwickeln, das Kommunen bei einer klugen Planung der unbebauten Flächen außerorts unterstützt. Das Projekt wird über DATIpilot des Bundeforschungsministeriums gefördert. Projektpartner ist TNL Umweltplanung aus Buttenheim (Kreis Bamberg).

Immer häufiger kommt es vor, dass starke Regenfälle Hochwasser verursachen und dadurch enorme Schäden entstehen. In Bremen drohten im Dezember und Januar Deiche zu brechen, in Bayern wurden zahlreiche Straßen und Bahngleise geflutet und auch die Region rund um Coburg war stark betroffen. Aber das ist nicht der Grund, warum Prof. Dr. Andreas Weiß von der Hochschule Coburg sich mit dem Thema beschäftigt. „Der Ansatz ist meist, bei Hochwasser auf das aktuelle Ereignis zu reagieren“, sagt Weiß. Es gibt technische Lösungen wie Rückhaltesysteme und viele organisatorische Lösungen der Vorsorge. Aber der Coburger Wissenschaftler will nicht nur das Problem bekämpfen. Sondern die Ursachen.

Weiß forscht und lehrt an der Fakultät Design der Hochschule Coburg unter anderem zu Siedlungswasserwirtschaft und zukunftsorientierter Stadtentwässerung. Mit seinem Team startet er in diesem Jahr ein Forschungsprojekt, das Kommunen künftig dabei helfen soll, die Ursachen von Hochwasser durch eine kluge Flächenplanung zu bekämpfen. Er freut sich sehr, dass sein Konzept für ein „Baukastensystem für eine wasserwirtschaftlich optimierte, klimaresiliente, multifunktionale Flächennutzung“ (BauWaOpKliNu) für eine Förderung durch die Deutsche Agentur für Transfer und Innovation (DATI) des Bundesministeriums für Bildung und Forschung (BMBF) ausgewählt wurde. Von deutschlandweit 3000 Bewerbungen für das neue Format DATIpilot haben 300 eine Zusage erhalten. Die Hochschule Coburg ist mit zwei Projekten vertreten: Nach UltraHip von Prof. Dr. Klaus Drese und Master-Student Jan Lützelberger nun auch mit BauWaOpKliNu. 150.000 Euro wurden beantragt, um das Projekt an der Hochschule voranzutreiben, hinzu kommen 130.000 für den Projektpartner TNL Umweltplanung aus Buttenheim. „Dieses Planungsbüro passt perfekt zu unserem Ansatz: Sie denken weitsichtig und hinterfragen bei der Umweltplanung wo nötig auch die Vorstellungen der Auftraggeberinnen und Auftraggeber“, sagt Weiß. „Außerdem stärkt die Zusammenarbeit auch den Forschungstransfer in die Region – das ist wichtig.“ Um das Baukastensystem zu entwickeln, sollen gemeinsam mit TNL die Flächen verschiedener Kommunen der Region genau bewertet werden.

Das Besondere ist, dass es hier nicht um Hochwasserschutz in den Ortschaften geht, sondern die Einzugsgebiete analysiert werden: Wald, Wiese, Acker, Photovoltaik- oder Windparks. „Wenn das Wasser schon in den Einzugsgebieten besser versickert, kommt gar nicht soviel auf die Ortschaften zu. Deshalb betrachten wir unbebaute Flächen außerorts“, erklärt Weiß. Es geht darum, im Einzugsgebiet großflächig zu ermitteln, wo Wasser nicht versickert, sondern wegfließt. Und warum. Wie wirken diese so genannten Abflüsse zusammen? Welche Fläche hat Potenzial, Wasser zurückzuhalten? Und wieviel? Was muss sich dafür ändern? Mit solchen Fragen werden sich die Forschenden der Hochschule Coburg genau beschäftigen. Dafür wollen sie vor allem vorhandene Daten nutzen, beispielsweise aus Geoinformationssystemen und Geländemodellen der Kommunen und des Landes. Auch die Unterstützung von Künstlicher Intelligenz soll geprüft werden. Abhängig von verschiedenen Parametern für die Durchlässigkeit des Bodens lässt sich ermitteln, wie sich der Wasserrückhalt verbessern lässt: Vielleicht reicht ein einfaches technisches Bauwerk, eine Mulde oder eine Erhöhung? Vielleicht sollte eine Fläche anders bewirtschaftet werden? Oder lassen sich verschiedene Nutzungsmöglichkeiten sinnvoll kombinieren?

Schwamm-Stadt und Schwamm-Land
Ähnlich wie beim gerade sehr beliebten Konzept von so genannten „Schwamm-Städten“ ist auch Weiß‘ Ansatz, Wasser nicht abzuleiten oder wegfließen zu lassen, sondern für trockene Perioden zu speichern. Er zuckt die Schultern: „Ziel der Wasserwirtschaft ist immer, das Wasser zu halten.“ Aber ein viel größeres Potenzial als in den Städten sieht der Coburger Professor außerorts. Das Problem ist: Das betrifft auch mehr Flächen. Mehr Interessen. Deshalb sollen für das Baukastensystem Maßnahmenmodule zusammengestellt, kategorisiert und bewertet werden, die alle Nutzungsinteressen berücksichtigen: Kriterien wie Kosten für eine Maßnahme, die Auswirkungen auf den Naturhaushalt sowie Wechselwirkungen mit anderen Flächennutzungen und gesellschaftliche Akzeptanz können so berücksichtigt werden. Die Lebenswirklichkeit der Menschen vor Ort miteinzubeziehen ist für den Studiengangsleiter des Coburger Masterstudiengangs „Ressourceneffizientes Planen und Bauen“ entscheidend.

Das geplante Baukastensystem zur Flächennutzung soll deshalb vielseitige Ansatzpunkte aufzeigen. So wird es für Kommunen, aber beispielsweise auch für Flächeneigentümer und Zweckverbände leichter, wirksame Maßnahmen zu finden, um ihr direktes Umfeld widerstandsfähiger gegen die Folgen des Klimawandels zu machen.

(nach oben)


Forschungsprojekt zu wirksamem Schutz vor Starkregen

Mit dem Ziel einer umfassenden Analyse des Risikos von Starkregen sowie von wirksamen Präventionsmaßnahmen ist ein neues Forschungsprojekt der Hochschule Coburg gestartet.

Überfluteter Keller, nasser Dachboden, feuchte Wände: Die Folgen von starken Regenfällen können vielfältig sein. Doch welche Maßnahmen am Haus sind sinnvoll, um den Schaden zu begrenzen oder sogar zu verhindern? Welche helfen am besten und sind trotzdem günstig? Und was hat die Wohngebäudeversicherung damit zu tun? Diese Fragen klären Forschende der Hochschule Coburg in einem Projekt, das der Deutsche Verein für Versicherungswissenschaft (DVfVW) mit etwa 40.000 Euro über eine Laufzeit von einem Jahr fördert.

Der Umgang mit Naturkatastrophen im 21. Jahrhundert ist eine große Herausforderung. Gesellschaft und Politik diskutieren Lösungswege. Beispielsweise steht die Pflichtversicherung für sogenannte Elementarschäden an Häusern, also Schäden durch Wetterextreme wie Stark-regen auf der politischen Agenda. Zu Starkregen können Karten mit gefährdeten Gebieten beispielsweise auch in der Coburger Innenstadt öffentlich abgerufen werden. „Angesichts der Diskussionen über eine Versicherungspflicht gegen Naturkatastrophen ist Prävention auch wieder stärker in den Blick geraten, sodass wir mit dem Forschungsprojekt auch zu einer Versachlichung der doch teilweise ideologischen Debatte beitragen können“, sagt Prof. Dr. Mirko Kraft, Professor für Versicherungsbetriebslehre an der Fakultät Wirtschaftswissenschaften der Hochschule Coburg.

Kraft leitet das Forschungsprojekt, in dem es darum geht, verschiedene Baumaßnahmen ganz konkret auf Kosten und Nutzen zu untersuchen und die vertragliche Gestaltung der Versicherungen in den Fokus zu nehmen. Das bezieht sich beispielsweise auf Rabatte bei den Versicherungsprämien. Ziel des Projekts ist eine umfassende Analyse des Risikos von Starkregen und dessen Prävention. Dabei wird auf praxisnahe Umsetzung und theoretisch fundierte Erkenntnisse gesetzt sowie wie durch beispielhafte Kommunen in Bayern, Regionalität gefördert.

Prof. Dr. Mirko Kraft vertritt den Bereich Versicherungswissenschaften. Prof. Dr. Andreas Weiß von der Fakultät Design bringt zusätzlich die Expertise aus den Bereichen Wasserbau und Siedlungswirtschaft ein. Die beiden Coburger Wissenschaftler kooperieren in dem Projekt mit Prof. Dr. Christoph Schwarzbach Professor für Gesundheits- & Versicherungsökonomie an der Europäischen Fernhochschule Hamburg. Außerdem unterstützen an der Hochschule Coburg noch zwei wissenschaftliche Mitarbeitende, Larissa Fischer und Jannik Wolf, das Forschungsprojekt.

(nach oben)


Weltwassertag 2024: Eintauchen in die Wasserforschung

Am 22. März ist der Weltwassertag. Das Zentrum für Wasser- und Umweltforschung der Universität Duisburg-Essen nimmt am Aktionstag der UN teil, um das Bewusstsein für einen nachhaltigen Umgang mit Wasserressourcen zu stärken. Das öffentliche Programm umfasst wissenschaftliche Vorträge und Netzwerkaktivitäten. Interessierte sind eingeladen, sich mit den Wasserexpert:innen am Campus Essen (Bibliothekssaal und Glaspavillon) auszutauschen.

Extremwetterereignisse, Artenrückgang und Medikamentenrückstände stellen vermehrt Herausforderungen für Gewässer-Ökosysteme dar. Wissenschaftliche Lösungen für einen nachhaltigen Umgang mit Wasser erarbeiten die deutschlandweit führenden Expert:innen des Zentrums für Wasser- und Umweltforschung (ZWU) der Universität Duisburg-Essen (UDE). Im Februar dieses Jahres setzte sich das Team mit dem Clusterantrag REASONS in der ersten Runde des Exzellenzwettbewerbs durch. Ihr Forschungsprojekt konzentriert sich auf die Entwicklung eines nachhaltigen Konzepts für das Flussmanagement, um sicherzustellen, dass die Ökosysteme trotz Klimawandel und menschlicher Einflüsse künftig funktionieren können.

Beim ZWU Water Day geben die Expert:innen des Netzwerks spannende Einblicke in die Wasserforschung. Den Auftakt macht Prof. Dr. Hans-Peter Grossart (Leibniz-Institut für Gewässerökologie und Binnenfischerei – IGB) mit einer Keynote zum Thema mikrobielle Vielfalt in aquatischen Systemen. Anschließend gestalten die Nachwuchsforschenden der Water Graduate School des ZWU den Vormittag. Annabell Hüsken, Michael Leupold und Henrike Walther geben Einblicke in die Themen Biodiversität, Wasserqualität und den urbanen Wasserkreislauf.

Am Nachmittag durchleuchtet Prof. Dr. Torsten C. Schmidt in seinem Vortrag „Liquid Lies“ welche Heilsversprechen es zum Thema Wasser so gibt und wie man unwissenschaftichen Humbug erkennen kann. Weitere Vorträge halten Prof. Dr. Ruben-Laurids Lange (Westfälische Hochschule) und Dr. André Soares (UDE).

Ein wichtiger Bestandteil des Programms ist der Netzwerkaustausch, bei dem sich Partner aus Wirtschaft und Wissenschaft präsentieren und zu interdisziplinärem Dialog einladen. Darunter der Ruhrverband, die Emschergenossenschaft und Lippeverband, das IWW Zentrum Wasser, Chemstars.NRW und das Institut für Umwelt & Energie, Technik & Analytik (IUTA).

Weitere Informationen:
http://Programm und Anmeldung: https://www.uni-due.de/zwu/water_day

(nach oben)


Kann man den Ausbruch von Rheuma verhindern?

Forschenden der FAU gelingt es, Erkrankung zu hemmen

Die schlimmste Form von Rheuma ist die rheumatoide Arthritis, die vor allem Frauen betrifft und in jedem Lebensalter auftreten kann. Behandelt wird die rheumatoide Arthritis dann, wenn Gelenkschwellungen auftreten. Nun hat eine Gruppe Forschender der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) etwas völlig Neues untersucht: Die Wissenschaftler/-innen haben Personen, die ein sehr hohes Risiko haben an einer rheumatoiden Arthritis zu erkranken, mit einer speziellen Methode behandelt, um den Ausbruch der Erkrankung zu verhindern. Die Ergebnisse der bahnbrechenden Studie sind jetzt in dem renommierten Fachjournal The Lancet veröffentlicht worden.*

Gelenkschmerzen sind sehr häufig. Bei manchen Menschen sind Gelenkschmerzen allerdings auch das erste Anzeichen einer schweren Erkrankung – der rheumatoiden Arthritis. Ungefähr einer von 200 Menschen sind von der rheumatoiden Arthritis betroffen, die schleichend beginnt und unbehandelt langsam, aber sicher die Gelenke durch chronische Entzündung zerstört. Schmerzen, Schwellungen und Steifigkeit an den Gelenken beider Körperhälften sind typische Symptome dieser Erkrankung. Durch Zerstörung des Knorpels und Knochens kommt es zur bleibenden Funktionseinschränkung wie Schwierigkeiten beim Greifen oder beim Gehen.

Früherkennung und frühe Behandlung sind bei rheumatoider Arthritis essenziell. In einer bahnbrechenden Studie unter Leitung der Medizinischen Klinik 3 – Rheumatologie und Immunologie (Direktor: Prof. Dr. Georg Schett) im Deutschen Zentrum Immuntherapie (DZI) am Uniklinikum Erlangen der FAU konnte nun gezeigt werden, dass der Ausbruch der Erkrankung gehemmt werden kann, wenn eine spezielle Behandlung durchgeführt wird, die das fehlgeleitete Immunsystem reguliert. Dabei nutzen die Ärztinnen und Ärzte einen Trick: Bereits vor Ausbruch der Erkrankung ist im Blut von Menschen ein spezieller Antikörper zu finden, der sich gegen veränderte Eiweiße, so genannte Citrullinierte Proteine, CCP, richtet. Diesen Antikörper findet man bei Gesunden normalerweise nicht. Menschen mit CCP haben ein hohes Risiko, in nächster Zeit eine rheumatoide Arthritis zu entwickeln.

„Wir haben in dieser Studie, die 11 Zentren in Deutschland und 3 Zentren im Ausland umfasst, Menschen mit CCP mit dem immunregulatorischen Medikament Abatacept für ein halbes Jahr behandelt und dann die Behandlung beendet. Dabei entwickelten Menschen, die mit Abatacept behandelt wurden, viel seltener eine rheumatoide Arthritis als jene, die ein Placebo bekamen“, sind sich die beiden Studienautoren PD Dr. Jürgen Rech und Dr. Koray Tascilar einig. Die Aussagekraft dieser Entdeckung wird zusätzlich noch dadurch verstärkt, dass eine zweite unabhängige Studie einer britisch-niederländischen Gruppe, die in derselben Ausgabe des Lancet veröffentlicht wurde, ebenfalls zeigte, dass die Behandlung mit Abatacept den Ausbruch einer rheumatoiden Arthritis hemmt.

„Durch diese Studie eröffnen sich für Menschen, die in ihren Blutuntersuchungen einen positiven Test auf Antikörper gegen CCP aufweisen, neue Möglichkeiten den Ausbruch einer rheumatoiden Arthritis zu verhindern“, sagt Prof. Dr. Georg Schett, Co-Sprecher vom Deutschen Zentrum Immuntherapie.

DOI: https://doi.org/10.1016/S0140-6736(23)02650-8

Ansprechpartner für Medien:
Prof. Dr. Georg Schett
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
georg.schett@uk-erlangen.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Georg Schett
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
georg.schett@uk-erlangen.de

Originalpublikation:
https://doi.org/10.1016/S0140-6736(23)02650-8

(nach oben)


Kartierung der chemischen Fußabdrücke in europäischen Flüssen

Gelangen Chemikalien aus häuslichen Quellen über Kläranlagen, aus der Landwirtschaft und aus der Industrie in die Gewässer, wirkt sich dieser Eintrag negativ auf die Süßwasserökosysteme aus. Das ist bekannt. Um mehr über die Belastung europäischer Flüsse herauszufinden, hat ein Forschungsteam des Helmholtz-Zentrums für Umweltforschung (UFZ) rund 450 Proben aus 22 europäischen Fließgewässern ausgewertet und dabei mehr als 500 Chemikalien gefunden, zum Teil in hohen Konzentrationen. Diese stellen insbesondere für wirbellose Tiere ein hohes Risiko dar, schreiben sie im Fachblatt Environment International.

Pflanzenschutzmittel, Industriechemikalien, Arzneimittel – die meisten von ihnen sowie deren Abbauprodukte finden sich nach dem Gebrauch irgendwann in Bächen und Flüssen wieder. Ein Team von Umweltchemiker:innen des UFZ hat deshalb 610 Chemikalien, deren Vorkommen oder problematische Wirkung bekannt sind, genauer betrachtet und analysiert, ob und wenn ja in welchen Konzentrationen sie in den Fließgewässern Europas vorkommen – angefangen von großen Flüssen wie Elbe, Donau, Rhein über Ebro und Tajo auf der iberischen Halbinsel bis hin zu kleineren Fließgewässern in landwirtschaftlich geprägten Regionen Deutschlands. Das Ergebnis nach der Auswertung von 445 Proben aus insgesamt 22 Flüssen: Die Forschenden konnten insgesamt 504 der 610 Chemikalien nachweisen. Insgesamt fanden sie 229 Pestizide und Biozide, 175 pharmazeutische Chemikalien sowie Tenside, Kunststoff- und Gummizusätze, Per- und Polyfluoralkylsubstanzen (PFAS) und Korrosionsinhibitoren. In 40 Prozent der Proben wiesen sie bis zu 50 chemische Substanzen nach, in weiteren 41 Prozent zwischen 51 und 100 Chemikalien. In 4 Proben konnten sie sogar mehr als 200 organische Mikroschadstoffe belegen. Mit 241 Chemikalien stellten sie die meisten Substanzen in einer Wasserprobe der Donau fest.

Am häufigsten fanden die Umweltchemiker:innen in den Proben N-Acetyl-4-aminoantpyrin. Der Stoff ist ein Abbauprodukt des Arzneimittelwirkstoffs Metamizol, der gute Dienste bei der Schmerzbehandlung in der Humanmedizin leistet, über dessen Auswirkungen auf Süßwasserökosysteme aber bislang kaum etwas bekannt ist. „Bei zahlreichen dieser Metabolite ist unklar, wie schädlich sie für die Umwelt sind. Da fehlt uns noch das notwendige Wissen“, sagt die UFZ-Umweltchemikerin Saskia Finckh, Erstautorin der Studie. Bei anderen Substanzen, die die Wissenschaftler:innen in den Gewässern entdeckten, sind die negativen Auswirkungen dagegen bereits erforscht. Einer der häufigsten dieser Stoffe ist Carbamazepin, ein Arzneistoff zur Behandlung von Epilepsie. In Gewässern ist er jedoch biologisch schwer abbaubar, beeinträchtigt die Fortpflanzungsfähigkeit wirbelloser Tiere und verzögert die Entwicklung von Fischen. Der Stoff steht deshalb bereits auf der Beobachtungsliste des Umweltbundesamts (UBA) und ist einer von 23 weiteren vorgeschlagenen prioritären Stoffen, um die die EU-Wasserrahmenrichtlinie erweitert werden soll. Auch die Wirkung einiger anderer Substanzen, die ebenfalls oft in den Proben festgestellt wurden, ist bekannt. Häufig fanden die UFZ-Forschenden zum Beispiel die Insektizide Diazinon und Fipronil, die beide sehr schädlich für wirbellose Wasserorganismen sind. Insgesamt wurden bei mehr als 70 Chemikalien in den Gewässern die chronischen Risikoschwellen für Wirbellose überschritten – das bedeutet, dass es bei anhaltender oder wiederholter Exposition etwa zu Entwicklungsstörungen kommen kann.

Viele der einzelnen organischen Mikroschadstoffe sind schon für sich gesehen ein Problem für Gewässer, allerdings kommt noch ein weiteres dazu. „Schwierigkeiten bereitet die Bandbreite der Chemikalien, die in die Gewässer eingetragen werden. Denn wir wissen noch viel zu wenig darüber, welche additiven Wirkungen diese Stoffe haben, wenn sie sich miteinander vermischen“, erklärt Dr. Eric Carmona, Co-Erstautor und ebenfalls Umweltchemiker am UFZ. Um die Wirkung dieser Mischungseffekte auf die in den Fließgewässern lebenden Organismen einschätzen zu können, nutzten die Forscher:innen das Konzept des chemischen Fußabdrucks. Es ist ein quantitatives Maß für die Gefahr einer Beeinträchtigung der Wasserqualität – also konkret, welche Überlebenschance Wasserorganismen wie etwa Fische, Krustentierchen und Algen an einem untersuchten Standort haben. Berechnet wird der chemische Fußabdruck, indem die Konzentration einer Chemikalie an einem Standort ins Verhältnis zum erwarteten Effekt gesetzt wird. Anschließend werden die Werte für die nachgewiesenen Chemikalien addiert. Für jede dieser Organismengruppen gibt es einen wissenschaftlichen Grenzwert, bei dessen Überschreitung mit dem Verschwinden empfindlicher Arten aus dem Ökosystem gerechnet werden muss. In 74 Prozent der untersuchten Proben werden die wissenschaftlichen Grenzwerte überschritten. Besonders hoch ist das Risiko für Krebstierchen: An 15 Prozent der untersuchten Standorte ist das Risiko für sie akut. Das heißt, dass für die Tiere die Überlebenschance an diesen Standorten im Gewässer gering ist.

Die UFZ-Forscher:innen folgern aus ihren Ergebnissen, dass in den europäischen Gewässern trotz vieler Verbesserungsmaßnahmen in der Vergangenheit immer noch zu viele Chemikalien vorkommen und an viele Standorten Grenzwerte überschritten werden. „Unsere Daten zeigen zudem, dass nicht nur einzelne Substanzen, sondern vor allem die Vielzahl der Substanzen zu diesem Problem beitragen“, bilanziert Saskia Finckh. Notwendig sei deshalb zum einen, in der chemischen Gewässerüberwachung für die Umsetzung der EU-Wasserrahmenrichtlinie noch deutlich mehr Chemikalien aufzunehmen, weil diese bislang nicht in der Umwelt bewertet werden. Zum anderen brauche es mehr Messdaten. „Oft ist völlig unklar, welche Effekte Chemikalien in welcher Konzentration auf Organismen in den Gewässern haben“, sagt Eric Carmona. In diesen Fällen wird bislang auf modellbasierte Werte zurückgegriffen, die eine größere Unsicherheit als die gemessenen Effekt-Werte mit sich führen. „Und vor allem“, ergänzt Saskia Finckh, „sollten wir bei der Bewertung von Chemikalien ihre Mischungen stärker in den Fokus nehmen.“

Die Proben wurden zwischen 2016 und 2019 während verschiedener Probenahmekampagnen wie zum Beispiel dem Deutschen Kleingewässermonitoring (KGM), dem Joint Danube Survey 4 (JDS4), einer Probenahmekampagne der Internationalen Kommission zum Schutz der Donau in Kooperation mit dem EU-Projekt SOLUTIONS, sowie einer Elbe-Beprobung gesammelt.

Wissenschaftliche Ansprechpartner:
Saskia Finckh
UFZ-Department Exposure Science
Saskia.finckh@ufz.de
https://www.ufz.de/index.php?de=46372

Originalpublikation:
Saskia Finckh, Eric Carmona, Dietrich Borchardt, Olaf Büttner, Martin Krauss, Tobias Schulze, Soohyun Yang, Werner Brack: Mapping chemical footprints of organic micropollutants in European streams; Environment International, January 2024. https://doi.org/10.1016/j.envint.2023.108371

Weitere Informationen:
https://www.solutions-project.eu/
https://www.danubesurvey.org/jds4/about
https://www.ufz.de/kgm/index.php?de=44480

(nach oben)


Innovatives Forschungsprojekt zur Optimierung der Gewässerqualität in der Schussen

Die 60 Kilometer lange Schussen durchquert die Landkreise Biberach, Ravensburg und den Bodenseekreis, bevor sie bei Eriskirch in den Bodensee mündet. In einem Bestreben, die Gewässerqualität im Verbandsgebiet zu verbessern und die EU-Wasserrahmenrichtlinie im Einzugsgebiet der Schussen zu erfüllen, hat der Abwasserverband Unteres Schussental (AUS) ein gewässerökologisches Gutachten beauftragt. Dieses wurde 2020 abgeschlossen und zeigt die Notwendigkeit ingenieurtechnischer Maßnahmen auf den letzten 17,5 Kilometern vor der Mündung. Die wissenschaftliche Konzeption dieser Maßnahmen wird in Zusammenarbeit mit der Hochschule Biberach (HBC) und anderen Projektpartnern umgesetzt.

Die Schussen durchquert auf ihrem etwa 60 Kilometer langen Weg die drei Landkreise Biberach, Ravensburg und den Bodenseekreis und mündet bei Eriskirch in den Bodensee. Auf den letzten 17,5 Kilometern vor ihrer Mündung ins schwäbische Meer nimmt die Schussen etwa 20 Zuflüsse auf. Im Bestreben, den Zustand der Gewässer im Verbandsgebiet zu verbessern und die Ziele der EU-Wasserrahmenrichtlinie im Einzugsgebiet der Schussen im Bodenseekreis zu erreichen, hat der Abwasserverband Unteres Schussental (AUS) ein umfassendes gewässerökologisches Gutachten in Auftrag gegeben. Dieses wurde 2020 abgeschlossen und zeigt, dass ingenieurtechnische Maßnahmen notwendig sind. Für die wissenschaftliche Konzeption dieser Maßnahmen erhält der Verband Unterstützung von der Hochschule Biberach (HBC) und weiteren Projektpartnern.

Unter der Leitung von Professorin Dr.-Ing. Ulrike Zettl und dem Team des Instituts für Geo und Umwelt (IGU) arbeitet die HBC an einem innovativen Forschungsprojekt zur Verbesserung der Wasserqualität durch die Entwicklung eines Retentionsbodenfilters zur weitergehenden Regenwasserbehandlung, der gezielt Mikroschadstoffe entfernen kann. Die innovative Komponente des Projekts liegt in der Nutzung von Aktivkohleverfahren zur Spurenstoffelimination. Durch die gezielte Anwendung von Aktivkohle soll die Effizienz der Retentionsbodenfilter zur Rückhaltung von Mikroschadstoffen wie TCPP, Diclofenac, Carbamazepin und Metoprolol erhöht werden. „Ein erheblicher Anteil schlechter Wasserqualität ist auf die Siedlungsentwässerung zurückzuführen“, erklärt Prof. Zettl. Das Problem: „Während bei trockenem Wetter sämtliches Abwasser zur Kläranlage abgeleitet und dort gereinigt wird, gelangt bei Regen hingegen ein Teil der Siedlungsabflüsse direkt in die Gewässer“.

Um die Belastung der Gewässer zu reduzieren, werden Speicherbecken errichtet, dadurch werden Schmutz- und Regenwasser seltener und in geringerem Umfang in die Gewässer entlastet. Trotzdem reiche das nicht aus, weshalb Bodenfilter zur weitergehenden Behandlung eingesetzt werden. Durch die Bodenpassage werden Feststoffe zurückgehalten und es zeigt sich eine biologische Reinigungswirkung. Jedoch bleiben problematische Stoffe, insbesondere wasserlösliche und schwer abbaubare Mikroschadstoffe, die sich nicht an Feststoffe binden, weiterhin im Wasser und gelangen in die Gewässer. Um diesem Umstand zu begegnen, untersucht das Forschungsteam der HBC zunächst den im Einzugsgebiet der Schussen eingesetzten konventionellen Bodenfilter (Baujahr 2004) in der Gemeinde Tettnang um ihn im nächsten Schritt weiterzuentwickeln. Entscheidend für den Forschungsprozess ist die Auswahl von Leitsubstanzen. Das Team identifiziert dabei relevante Substanzen für die beiden Eintragswege aus Schmutzwasser und Niederschlagsabflüssen und stimmt diese mit bereits bekannten Spurenstofflisten aus der Literatur, unter anderem der Liste B des Kompetenzzentrum Spurenstoffe Baden-Württemberg (KomS BW) ab. Die Untersuchung der Eliminationsleistung des bestehenden Filters bildet einen weiteren Schwerpunkt der Forschung. Hier analysiert das Team gezielt die ausgewählten Leitsubstanzen sowie das Adsorptionsverhalten der unzureichend eliminierten Stoffe an verschiedenen marktgängigen Aktivkohleprodukten.

„Aus den Betriebsdaten dieses bestehenden Retentionsbodenfilters der letzten 5 Jahren werden die Anzahl der Einstauereignisse bestimmt, sowie deren Dauer berechnet und mit der zu erwartenden Wasserbeaufschlagung des zu konzipierenden Filters verglichen. Des Weiteren werden Spurenstoffe aus Abwasserproben am Zulauf und Ablauf des bestehen Filters identifiziert und bilanziert, um das Eliminationsverhalten des Filters zu evaluieren. Die Stoffe, die nicht von diesem gewöhnlichen Bodenfilter zurückgehalten werden, sind besonders für dieses Projekt interessant. Sie sollen durch den Einsatz von Aktivkohle, die im „neuen“ Bodenfilter geplant ist, weiter reduziert werden, um so den Spurenstoffeintrag in die Gewässer weiter zu reduzieren.“, beschreiben die Forscherinnen ihre Vorgehensweise. Die gewonnenen Erkenntnisse zum Eintrags- und Eliminationsverhalten der Leitsubstanzen sollen in das bestehende Schmutzfrachtmodell des AUS integriert werden.

Unterstützung erhalten Ulrike Zettl und ihre Mitarbeiterin Birgit Kornmann bei ihrer Arbeit sowohl von Studierenden der Fakultät Bauingenieurwesen und Bau-Projektmanagement als auch von Prof. Dr. Chrystelle Mavoungou und ihrem Mitarbeiter Tim Hamann vom Institut for Applied Biotechnology (IAB). Denn das Pilotprojekt wird an der HBC interdisziplinär behandelt. Das IAB stellt hierfür u.a. hochmoderne Messgeräte wie z.B. Py-GC-MS (Gaschromatograph mit Pyrolyse und einem MS-Detektor, Fluoreszenzmikroskopen, UV-Sonden und HPLC etc. für die Spurenstoffanalytik bereit und ist an der Optimierung und ggfs. der Erweiterung der Screeningverfahren beteiligt. Die AG von Prof. Mavoungou war von Anfang an in die Gewässeruntersuchungen eingebunden. „Alle Beteiligten setzen sich nachdrücklich für eine Verbesserung der Gewässergüte und des Umweltschutzes ein. Wir freuen uns umso mehr auf die hochschulinterne Zusammenarbeit und den Austausch mit allen anderen Expert*innen in unserem Projektteam“, freut sich die Projektleiterin über die Kooperation.

Neben den Expertinnen der Hochschule Biberach sind noch weitere Partnerinnen an der Entwicklung des Bodenfilters beteiligt. Kern ist die Zusammenarbeit mit Fachleuten, die lokale Kenntnisse zum Entwässerungssystem des Abwasserverbands (Wasser-Müller Ingenieurbüro GmbH in Biberach) und dem Gewässer haben (Büro Gewässerplan in Kressbronn a.B.) sowie große Erfahrung mit der Anwendung von granulierter Aktivkohle in der Abwasserreinigung mitbringen (Ingenieurbüro Jedele und Partner in Wangen im Allgäu). Ebenso ist die Einbindung der Wasserwirtschaftsbehörde (Landratsamt Bodenseekreis) und des Betriebspersonals vor Ort (Abwasserverband Unteres Schussental) für die Projektbeteiligten von großer Bedeutung.

Zudem ist das KomS BW am Institut für Siedlungswasserbau, Wassergüte und Abfallwirtschaft (ISWA) der Universität Stuttgart involviert, um das Forschungsteam bei der Beprobung und der Spurenstoffanalytik zu unterstützen, genauso wie das Lehr- und Forschungslabor des Instituts für Siedlungswasserbau, Wassergüte und Abfallwirtschaft (ISWA, Universität Stuttgart).

Grundsätzlich soll die innovative Filtertechnologie zur weitergehenden Regenwasserbehandlung eingesetzt werden, aber auch im Ablauf von kleineren Kläranlagen in Gebieten, in denen eine gezielte Spurenstoffelimination erforderlich ist. Die langfristigen Perspektiven dieses Ansatzes umfassen die mögliche Integration solcher Bodenfilter in die landesweite Wasserinfrastruktur, um die Wasserqualität zu verbessern und den Herausforderungen im Zusammenhang mit Mikroverunreinigungen zu begegnen. „Der Bau eines Retentionsbodenfilters mit einer zusätzlichen gezielten Spurenstoffelimination gilt als Schlüssel für eine nachhaltige Verbesserung der gewässerökologischen Situation. Gleichzeitig stellt die Verwendung eines mit Aktivkohle ausgestatteten Retentionsbodenfilters zur weitergehenden Regenwasserbehandlung eine technische Neuerung dar, die bislang nur in Versuchsanlagen zur Anwendung kam“, betont das Projektteam die Relevanz und Innovation seiner Arbeit.

Das Forschungsprojekt wird vom Regierungspräsidium Tübingen sowie dem Umweltministerium Baden-Württemberg gefördert.

Wissenschaftliche Ansprechpartner:
zettl@hochschule-bc.de , kornmann@hochschule-bc.de

(nach oben)


Wie sich COVID-19 auf das Gehirn auswirkt

Neurologische Symptome offenbar nicht Folge einer SARS-CoV-2-Infektion des Gehirns

Noch immer ist nicht abschließend geklärt, wie neurologische Symptome bei COVID-19 zustande kommen. Liegt es daran, dass SARS-CoV-2 das Gehirn infiziert? Oder sind die Beschwerden eine Folge der Entzündung im Rest des Körpers? Eine Studie der Charité – Universitätsmedizin Berlin liefert jetzt Belege für letztere Theorie. Sie ist heute im Fachmagazin Nature Neuroscience* erschienen.

Kopfschmerzen, Gedächtnisprobleme oder Fatigue, also eine krankhafte Erschöpfung, sind nur einige der neurologischen Beeinträchtigungen, die während einer Corona-Infektion auftreten und auch darüber hinaus andauern können. Forschende vermuteten schon früh in der Pandemie, dass eine direkte Infektion des Gehirns die Ursache dafür sein könnte. „Auch wir sind von dieser These zunächst ausgegangen. Einen eindeutigen Beleg dafür, dass das Coronavirus im Gehirn überdauern oder sich gar vermehren kann, gibt es allerdings bislang nicht“, erklärt Dr. Helena Radbruch, Leiterin der Arbeitsgruppe Chronische Neuroinflammation am Institut für Neuropathologie der Charité. „Dazu wäre zum Beispiel ein Nachweis intakter Viruspartikel im Gehirn nötig. Die Hinweise, dass das Coronavirus das Gehirn befallen könnte, stammen stattdessen aus indirekten Testverfahren und sind deshalb nicht ganz stichhaltig.“

Einer zweiten These zufolge wären die neurologischen Symptome stattdessen eine Art Nebenwirkung der starken Immunreaktion, mit der der Körper sich gegen das Virus wehrt. Vergangene Studien hatten auch hierfür Anhaltspunkte geliefert. Die aktuelle Charité-Arbeit untermauert nun diese Theorie, mit umfassenden molekularbiologischen und anatomischen Ergebnissen aus Autopsie-Untersuchungen.

Keine Anzeichen einer direkten Infektion des Gehirns
Für die Studie analysierte das Forschungsteam verschiedene Bereiche des Gehirns von 21 Menschen, die aufgrund einer schweren Corona-Infektion im Krankenhaus, zumeist auf der Intensivstation, verstorben waren. Zum Vergleich zog es 9 Patient:innen heran, die nach intensivmedizinischer Behandlung anderen Erkrankungen erlegen waren. Die Forschenden prüften zunächst, ob das Gewebe sichtbare Veränderungen aufwies, und fahndeten nach Hinweisen auf das Coronavirus. Dann ermittelten sie durch die detaillierte Analyse von Genen und Proteinen, welche Vorgänge in einzelnen Zellen vonstattengingen.

Wie andere Forschungsteams auch konnten die Charité-Wissenschaftler:innen in einigen Fällen das Erbgut des Coronavirus im Gehirn nachweisen. „SARS-CoV-2-infizierte Nervenzellen haben wir jedoch nicht gefunden“, betont Helena Radbruch. „Wir gehen davon aus, dass Immunzellen das Virus im Körper aufgenommen haben und dann ins Gehirn gewandert sind. Sie tragen noch immer Virus in sich, es infiziert aber keine Gehirnzellen. Das Coronavirus hat also andere Zellen des Körpers, nicht aber das Gehirn befallen.“

Gehirn reagiert auf Entzündung im Körper
Dennoch beobachteten die Forschenden, dass bei den COVID-19-Betroffenen die molekularen Vorgänge in manchen Zellen des Gehirns auffällig verändert waren: Die Zellen fuhren beispielsweise den sogenannten Interferon-Signalweg hoch, der typischerweise im Zuge einer viralen Infektion aktiviert wird. „Einige Nervenzellen reagieren offenbar auf die Entzündung im Rest des Körpers“, sagt Prof. Christian Conrad, Leiter der Arbeitsgruppe Intelligent Imaging am Berlin Institute of Health in der Charité (BIH). Zusammen mit Helena Radbruch hat er die Studie geleitet. „Diese molekulare Reaktion könnte die neurologischen Beschwerden von COVID-19-Betroffenen gut erklären. Zum Beispiel können Botenstoffe, die diese Zellen im Hirnstamm ausschütten, Fatigue verursachen. Denn im Hirnstamm liegen Zellgruppen, die Antrieb, Motivation und Stimmungslage steuern.“

Die reaktiven Nervenzellen fanden sich hauptsächlich in den sogenannten Kernen des Vagusnervs, also Nervenzellen, die im Hirnstamm sitzen und deren Fortsätze bis in Organe wie Lunge, Darm und Herz reichen. „Vereinfacht interpretieren wir unsere Daten so, dass der Vagusnerv die Entzündungsreaktion in unterschiedlichen Organen des Körpers ‚spürt‘ und darauf im Hirnstamm reagiert – ganz ohne eine echte Infektion von Hirngewebe“, resümiert Helena Radbruch. „Auf diese Weise überträgt sich die Entzündung gewissermaßen aus dem Körper ins Gehirn, was dessen Funktion stören kann.“

Zeitlich begrenzte Reaktion
Die Nervenzellen reagieren dabei nur vorübergehend auf die Entzündung, wie ein Vergleich von Menschen zeigte, die entweder während der akuten Corona-Infektion oder erst mindestens zwei Wochen danach verstorben waren. Am stärksten ausgeprägt während der akuten Erkrankung, normalisierten sich die molekularen Veränderungen anschließend wieder – jedenfalls in den allermeisten Fällen.

„Wir halten es für möglich, dass eine Chronifizierung der Entzündung bei manchen Menschen für die oft beobachteten neurologischen Symptome bei Long COVID verantwortlich sein könnte“, sagt Christian Conrad. Um dieser Vermutung weiter nachzugehen, plant das Forschungsteam nun, die molekularen Signaturen im Hirnwasser von Long-COVID-Patient:innen genauer zu untersuchen.

Zur Studie
Voraussetzung für die Studie war die explizite Einwilligung der Patient:innen oder der Angehörigen, für die sich die Forschungsgruppe ausdrücklich bedankt. Die Arbeit ist im Rahmen des Nationalen Obduktionsnetzwerks (NATON) entstanden, einer Forschungsinfrastruktur des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Netzwerks Universitätsmedizin (NUM). Das NUM wurde initiiert und wird koordiniert von der Charité und vereint die Kräfte der 36 Universitätsklinika in Deutschland.

*Radke J et al. Proteomic and transcriptomic profiling of brainstem, cerebellum, and olfactory tissues in early- and late-phase COVID-19. Nat Neurosci 2024 Feb 16. doi: 10.1038/s41593-024-01573-y

Wissenschaftliche Ansprechpartner:
*Radke J et al. Proteomic and transcriptomic profiling of brainstem, cerebellum, and olfactory tissues in early- and late-phase COVID-19. Nat Neurosci 2024 Feb 16. doi: 10.1038/s41593-024-01573-y

Wissenschaftliche Ansprechpartner:
Dr. Helena Radbruch
Institut für Neuropathologie
Charité – Universitätsmedizin Berlin
T: +49 30 450 536 004
E-Mail: helena.radbruch@charite.de

Originalpublikation:
https://www.nature.com/articles/s41593-024-01573-y

(nach oben)


Chemische Reaktionen auf der Wasseroberfläche

Forschende der Universität Regensburg unter der Leitung von Prof. Dr. Burkhard König, Institut für Organische Chemie, haben eine neue Synthesemethode entwickelt: Lichtreaktion auf einer Wasseroberfläche erlaubt chemische Synthesen ohne Verwendung organischer Lösemittel oder anderer Reaktionszusätze. Dadurch wird die Herstellung chemischer Produkte effizienter und umweltfreundlicher. Die Ergebnisse der jahrelangen Forschung wurden jetzt im international renommierten Fachmagazin Science veröffentlicht.

Durch das Knüpfen chemischer Bindungen zwischen Atomen werden komplexe Moleküle, wie sie für Medikamente, Pflanzenschutzmittel oder Hochleistungsmaterialien benötigt werden, durch Synthesechemie aufgebaut. Für solche Synthesereaktionen werden typischerweise organische Lösemittel, Metallkatalysatoren und Reagenzien, wie Säuren oder Laugen benötigt. Nicht immer können alle Hilfsstoffe und Lösemittel recycelt werden, so dass Abfall entsteht.

Forschende der Universität Regensburg unter der Leitung von Prof. Dr. Burkhard König, Institut für Organische Chemie, präsentieren nun einen ganz anderen Weg zur Synthese komplexer Moleküle: Die zu verknüpfenden Reaktionspartner werden auf eine Wasseroberfläche aufgebracht, wo sie einen dünnen Film bilden. Durch Bestrahlung mit violettem Licht wird eine Reaktion ausgelöst, die beide Reaktionspartner verknüpft. Die neue Methodik nutzt die Filmbildung wasserunlöslicher organischer Moleküle auf der Wasseroberfläche (wie ein Ölfilm auf einer Pfütze) aus, um ideale Bedingungen für die Aktivierung durch Licht zu erzeugen. An über 160 Beispielen wurde die Anwendungsbreite der Technik gezeigt, wobei auch Vorstufen von Arzneimitteln synthetisiert wurden.

Die Lichtreaktion auf der Wasseroberfläche erlaubt nun chemische Synthesen ohne Verwendung organischer Lösemittel oder anderer Reaktionszusätze. Dadurch wird die Herstellung chemischer Produkte effizienter und umweltfreundlicher.

Die Ergebnisse der jahrelangen Forschung wurden jetzt im international renommierten Fachmagazin Science veröffentlicht.

Das Projekt läuft seit etwa zwei Jahren. In dieser Zeit wurden zahlreiche Experimente durchgeführt, um die zentrale Entdeckung weiterzuentwickeln und zu bestätigen. Die Übertragung der Reaktion in einen Durchflussreaktor war ein Durchbruch, da so die Synthese kontinuierlich betrieben werden kann und auch größere Substanzmengen zugänglich sind. Spektroskopische Messungen gaben zudem einen Einblick in den molekularen Mechanismus der Reaktion. In Folgearbeiten wird die Synthesetechnik nun auf andere Reaktionen angewandt, um eine möglichst große Anwendungsbreite in der Herstellung chemischer Produkte zu erreichen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Burkhard König
Institut für Organische Chemie
Universität Regensburg
Tel.: +49 941 943-4576
burkhard.koenig@ur.de
https://www.uni-regensburg.de/chemie-pharmazie/organische-chemie-koenig/startsei…

Originalpublikation:
Ya-Ming Tian, Wagner Silva, Ruth M. Gschwind, Burkhard König, “Accelerated photochemical reactions at oil-water interface exploiting melting point depression”, Science, 15 Feb 2024, Vol 383, Issue 6684, pp. 750-756, DOI: 10.1126/science.adl3092

Weitere Informationen:
https://doi.org/10.1126/science.adl3092

(nach oben)


Was hilft, wenn der Blutdruck trotz Behandlung nicht sinkt

MHH-Forschende legen Metaanalyse zur Therapie der resistenten Hypertonie vor
Bluthochdruck ist einer der größten Risikofaktoren für Herz-Kreislauferkrankungen. Krankheiten, die mit Bluthochdruck zusammenhängen, sind die häufigste Todesursache weltweit. Wirkstoffe gegen Hypertonie gehören zu den am häufigsten verschriebenen Medikamenten in Deutschland. Doch es gibt Menschen, deren Blutdruck nicht unter den angestrebten Zielwert sinkt, obwohl sie bereits drei oder mehr verschiedene Blutdruck-Medikamente einnehmen. Resistente Hypertonie heißt die Diagnose dann. Sie erhöht das Risiko für Schlaganfall, Herzinfarkt und chronische Nierenerkrankungen bis hin zum Nierenversagen. Diese Patientinnen und Patienten haben überdies eine deutlich kürzere Lebenserwartung.

Die Behandlung der resistenten Hypertonie ist eine medizinische Herausforderung. Zum Einsatz kommen verschiedene Medikamente, aber auch interventionelle, also nicht-operative und operative Eingriffe. Dazu gehören die sogenannte Nieren-Denervation und der Barorezeptor-„Schrittmacher“. Bei der Nieren-Denervation werden über einen Katheter feinste Nervenbahnen im Bereich der Nierenschlagader verödet, mit dem Ziel, den Blutdruck zu senken. Der Barorezeptor-Schrittmacher stimuliert Nervenzellen im Bereich der Halsschlagader, was ebenfalls einen Einfluss auf die Blutdruckregulation hat.

Ein Team um Professor Dr. Bernhard Schmidt, Oberarzt an der Klinik für Nieren- und Hochdruckerkrankungen der Medizinischen Hochschule Hannover (MHH), hat nun untersucht, welche therapeutischen Maßnahmen die wirksamsten sind, um den Blutdruck bei resistenter Hypertonie zu senken. Dafür haben die Forschenden in einer Netzwerk-Metaanalyse eine Vielzahl bereits veröffentlichter wissenschaftlicher Studien zusammengefasst und so die Wirksamkeit der verschiedenen Behandlungsmethoden verglichen. Das Ergebnis: Der Wirkstoff Spironolacton, der das Hormon Aldosteron an seiner Wirkung hindert, hatte den stärksten blutdrucksenkenden Effekt. Auch eine Änderung des Lebensstils zeigte bei dieser schweren Hypertonie eine deutliche positive Wirkung. Dagegen waren die Effekte der anderen medikamentösen und interventionellen Verfahren geringer ausgeprägt. Die Meta-Analyse ist in der Fachzeitschrift Cardiovascular Research veröffentlicht worden.

Vergleich der Wirkstärke unterschiedlicher Bluthochdrucktherapien
Bei der Blutdruck-Messung werden zwei Werte bestimmt. Der erste heißt Systole und entspricht dem Druck, der in den Gefäßen herrscht, wenn der Herzmuskel das Blut in den Körper pumpt. Der zweite, die Diastole, gibt den niedrigsten Druck in den Gefäßen an, wenn der Herzmuskel entspannt ist. Gemessen wird der Blutdruck in „Millimeter Quecksilbersäule“, abgekürzt mmHg. Ein zu hoher Blutdruck beginnt bei einem Wert von mehr als 140/90 mmHg. Um bis zu 50 Prozent sinkt das Risiko für Herzinfarkt und Schlaganfall, wenn der Blutdruck dauerhaft auf unter 140/90 mmHg gesenkt wird. Der Idealwert liegt bei 120/80 mmHg.

„Resistente Hypertonie besteht, wenn der Blutdruck über 140/90 liegt trotz gleichzeitiger Einnahme von drei verschiedenen Klassen von blutdrucksenkenden Medikamenten bei maximal verträglicher Dosierung“, erklärt Professor Schmidt. Zu den Medikamentenklassen gehören neben den Diuretika auch die ACE-Hemmer, die Sartane und die Beta-Blocker. Für die Metaanalyse analysierten die Forschenden insgesamt 24 Studien, die unterschiedliche Therapien bei resistenter Hypertonie testeten. Auch wenn jede dieser Studien für sich genommen jeweils nur eine Blutdruckbehandlung im Vergleich zu Scheintherapien (Placebo) untersuchte, konnte durch die spezielle Methodik der Netzwerk-Metaanalyse ein Vergleich der unterschiedlichen Behandlungsformen über die unterschiedlichen Studien hinweg ermöglicht werden. „Dabei konnten wir sehen, dass alle Therapien einen Effekt hatten, aber in unterschiedlicher Stärke“, sagt Professor Schmidt.

Therapietreue als Voraussetzung für die Behandlung
Auch die Therapietreue, also die Bereitschaft, ärztlichen Anweisungen zu folgen, spiele bei der Behandlung von Bluthochdruck eine große Rolle. „Interessanterweise hatten auch die Placebo-Behandlungen in den Studien positive Wirkung, vermutlich weil die Patientinnen und Patienten besser mitarbeiteten, wenn sie das Gefühl haben, dass sie ärztlich betreut werden“, vermutet Professor Schmidt. Nimmt der Patient die Medikamente nicht oder nicht wie verordnet ein und der Blutdruck bleibt hoch, spricht die Medizin von pseudoresistenter Hypertonie. „Das müssen die behandelnden Ärztinnen und Ärzte natürlich im Blick haben.“ Doch etwa zehn Prozent der Bluthochdruck-Betroffenen leiden unter tatsächlicher resistenter Hypertonie. „Hier haben unsere Untersuchungen gezeigt, welchen überraschend großen Einfluss die Änderung des Lebensstils hatte“, stellt der Nephrologe fest. Wer sich gesund und salzarm ernähre, sich ausreichend bewege, Übergewicht vermeide und den Konsum von Nikotin und Alkohol reduziere, könne selbst sehr viel gegen Bluthochdruck tun. In Kombination mit Spironolacton lassen sich die größten blutdrucksenkenden Effekte erwarten.

Doch Spironolacton hat auch Nebenwirkungen wie etwa eine Vergrößerung der Brustdrüse bei Männern. Zudem verändert es den Elektrolythaushalt im Blut. Das kann erhöhte Kaliumwerte zu Folge haben, die sich negativ auf das Herz auswirken. Es gibt aber schon vielversprechende Studien zu ähnlich wirkenden Alternativen, die weniger Nebenwirkungen haben. „Bis die auf dem Markt sind, bleibt der seit Jahren bewährte Wirkstoff Spironolacton der Goldstandard in der Behandlung“, sagt Professor Schmidt.

SERVICE:
Eine Zusammenfassung der Originalarbeit „Efficacy of pharmacological and interventional treatment for resistant hypertension – a network meta-analysis“ finden Sie unter:
https://pubmed.ncbi.nlm.nih.gov/37890022/

Weitere Informationen erhalten Sie bei Professor Dr. Bernhard Schmidt, schmidt.bernhard@mh-hannover.de.

(nach oben)


Water-for-X – ein Leitfaden für den verantwortlichen Umgang mit der Ressource Wasser in der Energiewende

Wasserstoff wird künftig einen signifikanten Anteil an der globalen Energieversorgung haben. Ob in Chile, Namibia oder Deutschland, die Anzahl an Projekten steigt stetig. Somit wächst auch das künftige Angebot an Wasserstoff und Derivaten. Um die neuen Herausforderungen in Punkto Wasserversorgung zu bewältigen, hat die DECHEMA die Roadmap „Water-for-X“ entwickelt, die den Aufbau lokale Strategien zum Wasserressourcenmanagement unterstützt. Die Lösungsperspektiven bauen auf einem Schalenmodell auf, das den Fokus auf die lokale Infrastruktur legt, um so Partnerschaften und Investitionen langfristig zu sichern.
Am Thema Interessierte können sich an der Weiterentwicklung der Roadmap beteiligen.

Der Leitfaden „Water-for-X“ greift dazu Fragen rund um die Ressourcensicherung auf und setzt diese in einen geopolitischen Rahmen. Das Konzept hebt die Bedeutung eines integrierten und nachhaltigen Wassermanagements für den Erfolg von Power-to-X-Lösungen hervor. Hierfür müssen die Produktionsstandorte im regionalen Kontext analysiert werden.

Wasser spielt eine entscheidende Rolle in der Energiewende. Ob als Kühlmittel für Kraftwerke und Industrie, oder als Rohstoff für den Wasserstoff. Die Bedeutung und Tragweite bei Ausbeutung der Wasserressourcen wird bisher nicht erkannt. Die Herstellung von Wasserstoff als sauberer Energieträger erfordert Prozesse, bei denen erneuerbarer Strom verwendet wird. Über sogenannte Power-to-X(PtX)-Prozesse können weiterhin Derivate wie Ammoniak, Methan-Gas oder Kerosin erzeugt werden. Die gesamte Prozesskette ist dabei wasserabhängig: Sei es für die Wasserstoffproduktion selbst, zur Bereitstellung von Kühlwasser und Dampf oder für Reinigungsprozesse. So werden beispielweise für die Herstellung von einem Kilogramm Wasserstoff mindestens neun Kilogramm hochreines Wasser verbraucht, bzw. je nach Herkunft und Prozess 12 bis 20 Kilogramm Wasser. Unter Berücksichtigung der geschätzten Wasserstoffnachfrage von 530 Megatonnen im Jahr 2050 entspricht dies etwa 0,1 Prozent des derzeitigen jährlichen globalen Wasserbedarfs. Viele Regionen mit hohem Potenzial für die Wasserstoffproduktion befinden sich jedoch in Gebieten, in denen es bereits jetzt an Frischwasser mangelt. Dies wird den Wasserstress der Region zusätzlich erhöhen.

Weitere Informationen:
http://dechema.de/Water_for_X – kostenloser Download der Roadmap

(nach oben)


Entgeltlücken bei hochqualifizierten Frauen am größten

Institut für Wirtschaft, Arbeit und Kultur (IWAK) und Hessisches Arbeitsministerium informierten zum Equal Pay Day: Am 6. März war Equal Pay Day: Bis zu diesem Tag hätten Frauen umsonst gearbeitet – wenn sie denselben Monatslohn hätten wie Männer. Haben sie aber nicht. Obwohl die Lohnlücke insgesamt schrumpft, tut sich in manchen Bereichen wenig. Dies betrifft vor allem hochqualifizierte Frauen. Auf zwei Veranstaltungen haben das Institut für Wirtschaft, Arbeit und Kultur (IWAK) der Goethe-Universität und das Hessische Arbeitsministerium heute zur Diskussion eingeladen.

Die Lohnlücken zwischen Frauen und Männern in Hessen sind in den vergangenen zehn Jahren im Schnitt zwar kleiner geworden. Dies zeigt deutlich der Blick in die Daten des Hessischen Lohnatlas, der vom Institut für Wirtschaft, Arbeit und Kultur (IWAK) im Auftrag der Landesregierung fortgeschrieben wird. Diese insgesamt positive Entwicklung speist sich aber vor allem aus der Entwicklung im Bereich der Fachkraftstellen und der Arbeitsplätze für Helferinnen. Die Situation bei hochqualifizierten Tätigkeiten sieht anders aus: Hier bewegt sich wenig. Frauen in Führungsfunktionen haben in Hessen im Schnitt immer noch ein Viertel weniger Einkommen als Männer.

Diese unterschiedlichen Entwicklungen wurden bei zwei Veranstaltungen am Equal Pay Day genauer betrachtet, zu der das Arbeitsministerium mit der neuen Ministerin Heike Hofmann und das IWAK gemeinsam eingeladen hatten. Mit Akteurinnen und Akteuren aus Politik, Wirtschaft und Wissenschaft wurden mögliche Lösungen diskutiert. Mit beteiligt waren auch das Gleichstellungsbüro der Goethe-Universität und der Business and Professional Women Germany Club Frankfurt am Main e.V. (BPW). „Die Durchführung des Equal Pay Days 2024 an der Goethe-Universität sensibilisiert dafür, wie wichtig das Thema für uns sowohl bei den Beschäftigten in der Verwaltung als auch bei unseren Absolventinnen und Wissenschaftlerinnen ist“, sagte Dr. Ulrich Breuer, Kanzler der Goethe-Universität, in seinem Grußwort. Auch die zentrale Gleichstellungsbeauftragte der Goethe-Universität Dr. Anja Wolde begrüßte diesen Schulterschluss zur differenzierten Betrachtung des Themas nach Entgeltbereichen.

„Wir sind stolz, mit dem Hessischen Lohnatlas ein Instrument zur Verfügung zu haben, das uns eine differenzierte Betrachtung der Entgelt-Situation in Hessen ermöglicht. Auf Basis dieses umfassenden und differenzierten Zahlenwerks entwickeln wir zielgenaue Strategien zur Verbesserung der Lage von Frauen“, sagte Arbeitsministerin Heike Hofmann. Am meisten zugunsten der Frauen getan habe sich im Bereich der Fachkräfte, hier hat sich die Lohnlücke seit 2012 mehr als halbiert. „Aber auch hier gibt es noch viel zu tun. Wir werden darauf einwirken, dass sich die Entgeltlage von Frauen mit Berufsabschluss noch stärker verbessern wird“, kündigte die Ministerin an. Denn die meisten Beschäftigten in Hessen seien Fachkräfte mit Berufsausbildung, eine Verbesserung habe hier eine besonders große Wirkung. Dass die Lohnlücken auf Helferstellen seit 2012 ebenfalls deutlich kleiner geworden sind, dafür gibt es eine schlüssige Erklärung: „Dazu trägt maßgeblich die Erhöhung des Mindestlohns bei“, betonte Dr. Christa Larsen vom IWAK.

Das untere und mittlere Entgeltsegment nimmt auch das Gleichstellungsbüro der Goethe-Universität in den Blick: „Wir möchten Frauen aus unserer Verwaltung dafür sensibilisieren, sich mit ihrer eigenen Entgeltlage zu befassen“, sagte Ulrike Schneider-Gladbach, zentrale Gleichstellungsbeauftragte für die Beschäftigten in der Verwaltung. Die Daten aus dem Hessischen Lohnatlas seien ein wichtiger Ausgangspunkt, es brauche jedoch noch mehr Informationen zu den Ursachen der Entgeltungleichheit und vor allem darüber, wie mit deren Folgen umgegangen werden kann. Viele Frauen können sich wirtschaftlich nicht gut eigenständig absichern, im Falle von Scheidung kann es finanziell schnell eng werden. Auch sind immer mehr Frauen im Rentenalter betroffen. Altersarmut trifft viel häufiger Frauen als Männer.

Vor allem Frauen, die sich in Führungsfunktionen hineinentwickeln wollen oder diese schon wahrnehmen, sind mit sehr großen Entgeltlücken konfrontiert. Um sie ging es in der Präsenzveranstaltung am Abend. „Als Hochschule sehen wir diese Zahlen mit Sorge. Wir bilden hochqualifiziertes Personal für den Arbeitsmarkt aus und sehen es als selbstverständlich an, dass Frauen und Männer für ihre Arbeit angemessen entlohnt werden. Wir müssen noch mehr Energie daransetzen, als Bildungsstätte auf mehr Gerechtigkeit hinzuwirken“, sagte Prof. Bernhard Brüne, Vizepräsident der Goethe-Universität für Forschung, in seinem Grußwort.

„Das macht uns Sorgen, aber spornt uns gleichzeitig an“, sagte Monika Diefenbach, die 1. Vorsitzende des Business and Professional Women (BPW) Germany Club Frankfurt am Main. „Die Unterstützung von hochqualifizierten Frauen, beispielsweise durch unser Netzwerk ist wichtig, auch weil immer mehr akademisch qualifizierte Frauen ins Erwerbsleben eintreten und bei gleicher Bildung zurecht auch gleiche Entgelte beanspruchen“, so Diefenbach weiter. Der Lohnatlas zeigt, dass die Lücken auch im Vergleich der Branchen untereinander durchaus verschieden groß sind. Gerade in den MINT-Bereichen erfahren hochqualifizierte Frauen häufig, dass es sehr schwer ist, die „gläserne Decke“ zu durchstoßen. Ideen und Vernetzung untereinander könnten helfen. Wie dies gehen kann, zeigte Veronika Hucke, Mitglied beim BPW Frankfurt, die ein „Gleichstellungspoker“ mit den Teilnehmenden der Abendveranstaltung durchführen wird. Beratung, Vernetzung und Coaching gelten als die Schlüsselfaktoren, die hochqualifizierte Frauen besonders gut unterstützen können.

Alle Informationen zum Hessischen Lohnatlas können auf der Webseite www.hessischer-lohnatlas.de eingesehen, heruntergeladen oder gedruckt werden. Darüber hinaus besteht die Möglichkeit, eigene Analysen durchzuführen.

Wissenschaftliche Ansprechpartner:
Dr. Christa Larsen
Institut für Wirtschaft, Arbeit und Kultur (IWAK) der Goethe-Universität
Telefon 069 798- 22152
E-Mail c.larsen@em.uni-frankfurt.de

(nach oben)


Energiewirtschaft in der Transformation

In Düsseldorf findet am 14. März der dritte Energierechtstag in NRW statt. Die Herausforderungen der Wärmewende, die Zukunft der Netze sowie die Chancen von Energiepartnerschaften stehen im Mittelpunkt der Diskussionen mit Expertinnen und Experten aus Wissenschaft, Politik, Verwaltung und der Wirtschaft.

Im Klimaschutzgesetz hat sich Deutschland verpflichtet, bis 2045 Treibhausgasneutralität zu erreichen. Prof. Dr. Dr. Udo Di Fabio, Richter des Bundesverfassungsgerichts a.D. skizziert in seinem Eröffnungsvortrag den verfassungsrechtlichen Rahmen für diese Energiewende.

80 % der Energie wird in Haushalten für Heizung, Kühlung und Warmwasser verbraucht. Die Wärmewende ist daher unverzichtbarer Teil aktiver Klimapolitik. Zugleich hat kaum ein anderes Thema im letzten Jahr für mehr Furore gesorgt. Im Mittelpunkt stand die eilig verabschiedete GEG-Novelle („Heizungsgesetz“). Das Panel ‚Herausforderungen der Wärmewende‘ beleuchtet die technischen, ökonomischen und juristischen Grundlagen und Herausforderungen dieses ambitionierten Projekts.
Es diskutieren Prof. Dr. Christoph Wieland (Universität Siegen), Prof. Dr. Marc Oliver Bettzüge (Universität zu Köln) sowie Prof. Dr. Torsten Körber LL.M. (Berkeley).

Die Energienetze sind das Rückgrat der Energiewende. Nur wenn Deutschland die Stromnetze ausbaut und ein Wasserstoffnetz aufbaut, kann es seine Klimaschutzziele erreichen. Aufgrund einer Entscheidung des Europäischen Gerichtshofes (EuGH) liegt seit diesem Jahr die Regulierung der Energienetze in wichtigen Teilen nicht mehr in der Hand der Bundesregierung, sondern der Bundesnetzagentur.
Klaus Müller (Präsident der Bundesnetzagentur), Ulrike Pastohr (Richterin am OLG Düsseldorf), Prof. Dr. Hartmut Weyer (TU Clausthal) sowie Dr. Paula Hahn (BDEW) analysieren die Weiterentwicklung und aktuelle Rechtsprechung zur Netzregulierung, den Aufbau der Wasserstoffnetze und die Transformation der Gasnetze.

Das Nachmittagspanel widmet sich der staatlichen Förderung der Umstellung auf „grüne“ Technologien in der Industrie durch Klimaschutzverträge, die der Staat mit transformationswilligen Unternehmen schließt. Zudem werden bi- und multilaterale Partnerschaften der Bundesrepublik erörtert, die die Nutzung klimafreundlicher Technologien in anderen Staaten fördern und den notwendige Import von „grünem“ Wasserstoff sicherstellen sollen.
Dr. Friedrich von Schönfeld (Bundesministerium für Wirtschaft und Klimaschutz), Prof. Dr. Dr. Dr. h.c. Franz Josef Radermacher, Forschungsinstitut für anwendungsorientierte Wissensverarbeitung/n (FAW/n) sowie Dr. Annegret Groebel (Bundesnetzagentur) loten die Chancen von Energie- und Klimapartnerschaften aus.

Der Energierechtstag in NRW ist die gemeinsame Jahrestagung der drei großen Energierechtsinstitute in Nordrhein-Westfalen, dem Düsseldorfer Institut für Energierecht (DIER), dem Institut für Energiewirtschaftsrecht (EWIR) an der Universität zu Köln und dem Institut für Berg- und Energierecht (IBE) an der Ruhr-Universität Bochum. Im Rahmen der Tagung werden aktuelle energierechtliche Fragen diskutiert. Er findet im jährlichen Wechsel an den drei Standorten statt.

Der Energierechtstag in NRW ist eine öffentliche Veranstaltung. Die Teilnahme ist kostenfrei. Eine Anmeldung ist wegen der begrenzten Platzkapazität erforderlich.

Termin:
14. März 2024, Beginn: 9:00 Uhr
Hörsaal 3D (Gebäude 23.01)
Universitätsstr. 1
Heinrich-Heine-Universität Düsseldorf

Weitere Informationen:
https://energierechtstag.nrw/programm-2/ Programm und Anmeldung
https://energierechtstag.nrw/

(nach oben)


Arbeit, Unternehmen und Gesellschaft: Wandel durch Industrie 4.0

Für eine menschenorientierte Arbeits- und Organisationsgestaltung bedarf es eines Verständnisses von Industrie 4.0, das sowohl die soziale als auch die technische Dimension des Wandels umfasst. Unternehmen sollten beispielsweise Weiterbildung und Kompetenzentwicklung der Mitarbeitenden als strategische Aufgaben in den Fokus nehmen. Über diese und weitere Herausforderungen sowie das Aufbrechen tradierter Rollen in den Unternehmen spricht Hartmut Hirsch-Kreinsen im Interview. Er ist Mitglied im von acatech koordinierten Forschungsbeirat Industrie 4.0 und Research Fellow an der Sozialforschungsstelle der Technischen Universität Dortmund.

Herr Hirsch-Kreinsen, für eine menschenorientierte Arbeits- und Organisationsgestaltung bedarf es eines Verständnisses von Industrie 4.0, das sowohl die soziale als auch die technische Dimension des Wandels umfasst. Wo sehen Sie hier die entscheidenden Stellhebel?

Die allgemeine Auffassung der Arbeitsforschung ist seit langem, dass digitalisierte Produktionsprozesse, eben auch Industrie 4.0, als soziotechnische Systeme zu verstehen sind. Für eine menschenorientierte bzw. qualifikationsorientierte Gestaltung von digitalisierten Produktionsprozessen bedeutet dies, dass stets das Zusammenspiel digitaler Technologien mit den dadurch induzierten personellen und organisatorischen Veränderungen in den Blick zu nehmen ist. Anders formuliert, zentraler Stellhebel ist, das Gesamtsystem der Produktion so zu gestalten, dass die Verbindungen zwischen den verschiedenen Teilen berücksichtigt werden. Es geht nicht nur darum, die Arbeitsorganisation oder ein technisches System isoliert zu betrachten und zu gestalten, sondern vielmehr sicherzustellen, dass sie gut aufeinander abgestimmt sind und im Kontext des gesamten Produktionssystems wirksam werden.

Kompetenzentwicklung und Weiterbildung gelten angesichts der sich beschleunigenden Digitalisierung auch in Zukunft als zentrale Bausteine, den digitalen Wandel sozial und ökonomisch erfolgreich zu bewältigen. In welchen Bereichen der Industrie 4.0 sehen Sie den größten Wandel der Kompetenzanforderungen und wie können diese erfüllt werden?

Generelle Antworten sind hier schwierig, weil neue Kompetenzanforderungen an die Mitarbeitenden je nach Funktion, Beschäftigungssegment, Qualifikationsniveau und digitalen Systemen in unterschiedlicher Weise auftreten und damit auch spezifische Maßnahmen erfordern. Je nach Arbeitssituation sind hier stets valide Analysen und die Entwicklung passgenauer Qualifizierungs- und Weiterbildungskonzepte erforderlich. Freilich sind zwei häufig vernachlässigte Voraussetzungen hierfür unabdingbar: Zum Ersten müssen Unternehmen Kompetenzentwicklung und Weiterbildung als strategische Aufgaben ansehen. Zum Zweiten müssen die Mitarbeiterinnen und Mitarbeiter mit ausreichenden Ressourcen und motivierenden Bedingungen für effektive Qualifizierungsmaßnahmen ausgestattet werden.

Eine erfolgreiche Einführung von Industrie 4.0 sowie der damit verbundenen Geschäftsmodelle muss mit einem organisationalen Wandel einhergehen. Was ist für Unternehmen im Vorfeld besonders zu berücksichtigen?

Wie auch vom Forschungsbeirat Industrie 4.0 in seinen Themenfeldern für Forschung und Entwicklung betont, sind für eine erfolgreiche Implementierung von Industrie 4.0 sowie der damit verbundenen Geschäftsmodelle weitreichende unternehmensorganisatorische Anpassungen notwendig, die von der Arbeits- bis zur Führungsebene reichen. Denn Industrie 4.0 verändert die tradierten Rollen von Mitarbeiterinnen und Mitarbeitern, Führungskräften sowie Betriebsräten. Digitale Medien machen Information und Wissen inner- und überbetrieblich transparenter und Führungsfunktionen differenzieren sich auf verschiedenen Ebenen – hierarchisch, horizontal, im Netzwerk etc.– aus. Insgesamt ist festzuhalten, dass eine mangelnde Ausprägung von „Lessons Learned“, eine fehlende adäquate Fehlerkultur sowie unzureichende Lösungen der Wissensspeicherung und des Wissenstransfers in der Organisation, gerade auch in global verteilten Wertschöpfungsketten, wesentliche Gründe darstellen, warum viele Unternehmen nicht über den Prototypen-Status von Industrie 4.0 hinauskommen. Es gilt nicht nur tradierte Denkweisen und Prozesse zu überwinden, sondern durch geeignete Methoden des Change-Managements einen Umbruch in Kultur und Organisationsstruktur von Unternehmen herbeizuführen. Daher ist eine umfassende Neubewertung des Führungsverständnisses sowie der Beteiligungsformen der Beschäftigten unabdingbar.

Über den Forschungsbeirat Industrie 4.0:
Der Forschungsbeirat Industrie 4.0 trägt als strategisches und unabhängiges Gremium wesentlich dazu bei, forschungsbasierte Lösungswege für die Weiterentwicklung und Umsetzung von Industrie 4.0 aufzuzeigen und somit Orientierung zu geben – mit dem übergeordneten Ziel, das deutsche Innovationssystem und die Wertschöpfung zu stärken. Dafür kommen im Forschungsbeirat aktuell 32 Vertreter*innen aus Wissenschaft und Industrie mit ihrem interdisziplinären Expertenwissen zusammen, formulieren neue, vorwettbewerblich beantwortbare Forschungsimpulse bzw. -bedarfe, zeigen mittel- bis langfristige Entwicklungsperspektiven auf und leiten Handlungsoptionen für die erfolgreiche Umsetzung von Industrie 4.0 ab. Die Forschung im Bereich Industrie 4.0 fokussiert sich dabei verstärkt auf Themen wie Nachhaltigkeit, Resilienz, Interoperabilität, technologische bzw. strategische Souveränität und die zentrale Rolle des Menschen. Die Arbeit des Forschungsbeirats wird von acatech – Deutsche Akademie der Technikwissenschaften koordiniert, vom Projektträger Karlsruhe (PTKA) betreut und vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Wissenschaftliche Ansprechpartner:
Kristina Fornell
Referentin Kommunikation
T +49 89/52 03 09-865
fornell@acatech.de
acatech – Deutsche Akademie der Technikwissenschaften
Geschäftsstelle
Karolinenplatz 4
80333 München

Originalpublikation:
https://www.acatech.de/publikation/themenfelder-i40-akt/

(nach oben)


Immunantwort eines Mannes mit 217 Covid-Impfungen untersucht

Forschende der FAU finden keine negativen Auswirkungen auf das Immunsystem

Forschende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und des Uniklinikums Erlangen haben einen Mann untersucht, der sich mehr als 200 Mal gegen Covid-19 hat impfen lassen. Sie waren durch Zeitungsberichte auf ihn aufmerksam geworden. Bislang war unklar, welche Auswirkungen eine solche Hypervakzinierung auf das Immunsystem hat. So gingen manche Wissenschaftlerinnen und Wissenschaftler davon aus, dass die Abwehrzellen durch Gewöhnungseffekte weniger schlagkräftig werden. Bei dem Betroffenen ist das jedoch nicht der Fall: Das Immunsystem arbeitet bei ihm völlig normal. Bestimmte Abwehrzellen und Antikörper gegen SARS-CoV-2 kommen sogar deutlich häufiger vor als bei Menschen, die nur drei Impfungen erhalten haben. Die Ergebnisse erscheinen in der Fachzeitschrift Lancet Infectious Diseases*.

Mehr als 60 Millionen Menschen in Deutschland sind gegen das SARS-Coronavirus 2 geimpft, der überwiegende Teil von ihnen mehrfach. Der Mann, den die Forscherinnen und Forscher der FAU nun untersucht haben, hat sich nach eigenen Angaben aus persönlichen Gründen 217-mal vakzinieren lassen. 134 dieser Impfungen sind offiziell bestätigt.

„Wir sind durch Zeitungsberichte auf ihn aufmerksam geworden“, erklärt Privatdozent Dr. Kilian Schober vom Mikrobiologischen Institut – Klinische Mikrobiologie, Immunologie und Hygiene (Direktor: Prof. Dr. Christian Bogdan). „Wir haben dann zu ihm Kontakt aufgenommen und ihn eingeladen, sich in Erlangen diversen Tests zu unterziehen. Daran hatte er auch großes Interesse.“ Schober und seine Kolleginnen und Kollegen wollten wissen, welche Folgen eine solche Hypervakzinierung hat: Wie verändert sich durch sie die Antwort des Immunsystems?

Impfstoffe enthalten in der Regel Teile des Erregers oder aber eine Art Bauanleitung, mit denen die Zellen der Geimpften diese Erreger-Bausteine selbst produzieren. Das Immunsystem lernt durch diese sogenannten Antigene, im Falle einer späteren Infektion den eigentlichen Erreger zu erkennen. Es kann dann schneller und schlagkräftiger reagieren. Doch was passiert, wenn die körpereigene Abwehr sehr oft einem spezifischen Antigen ausgesetzt wird?

„Das kann etwa bei einer chronischen Infektion wie HIV oder Hepatitis B der Fall sein, die immer wieder aufflackert“, sagt Schober. „Es gibt Hinweise darauf, dass bestimmte Arten von Abwehrzellen – die T-Zellen – dann ermüden. Sie schütten dann beispielsweise weniger entzündungsfördernde Botenstoffe aus.“ Solche und andere Gewöhnungs-Effekte können die Immunantwort schwächen. Das Immunsystem kann den Erreger dann nicht mehr so effektiv bekämpfen.

Blutproben aus verschiedenen Jahren untersucht
In der aktuellen Studie, an der auch Forschende aus München und Wien beteiligt waren, finden sich dafür jedoch keine Anhaltspunkte. „Der Betroffene hat sich in den letzten Jahren häufiger verschiedenen Bluttests unterzogen“, erklärt Schober. „Wir konnten mit seiner Erlaubnis die Ergebnisse dieser Analysen auswerten. In manchen Fällen waren auch Proben eingefroren worden; diese konnten wir selber untersuchen. Wir hatten außerdem die Möglichkeit, selbst Blutproben zu entnehmen, als sich der Mann im Laufe der Studie auf eigenes Betreiben nochmals impfen ließ. Mit diesen Proben konnten wir die direkte Reaktion des Immunsystems auf die Impfung nachvollziehen.“

Ergebnis: Der Proband verfügte über eine große Menge sogenannter T-Effektorzellen gegen SARS-CoV-2. Diese sind sozusagen die körpereigenen Soldaten, die gegen das Virus kämpfen. Ihre Zahl war gegenüber einer Vergleichsgruppe von dreifach geimpften Personen sogar erhöht. Bei diesen Effektorzellen konnten die Forschenden keine Ermüdung feststellen – sie waren ähnlich effektiv wie die von normal vakzinierten Probandinnen und Probanden.

Daneben gibt es noch die sogenannten T-Gedächtniszellen. Sie sind die Vorläufer der Effektorzellen: Sie können, ähnlich wie Stammzellen, immer wieder für Nachschub an passenden Effektorzellen sorgen. „Die Zahl der Gedächtniszellen war bei unserem hypervakzinierten Probanden genauso hoch wie in der Vergleichsgruppe“, erklärt Katharina Kocher, eine der beiden Erstautorinnen der Studie. „Insgesamt fanden wir also keine Anzeichen für eine schwächere Immunantwort – eher im Gegenteil.“ Zudem zeigte selbst die 217. Impfung, die der Mann während der Studie hatte vornehmen lassen, noch Wirkung: Die Zahl der Antikörper gegen das SARS-Coronavirus 2 erhöhte sich durch sie ebenfalls deutlich.

Immunsystem gegen andere Erreger weiter aktiv
Die Funktion des Immunsystems gegen andere Erreger war hingegen unverändert, wie weitere Tests zeigten. Das Abwehrsystem als solches scheint durch die Hypervakzinierung also keinen Schaden genommen zu haben. „Unser Proband wurde mit insgesamt acht verschiedenen Vakzinen geimpft, darunter auch verschiedenen verfügbaren mRNA-Impfstoffen“, sagt Dr. Kilian Schober. „Die Beobachtung, dass es trotz dieser außerordentlichen Hypervakzinierung nicht zu erkennbaren Nebenwirkungen gekommen ist, steht im Einklang mit der grundsätzlich guten Verträglichkeit der Präparate.“

Allerdings handele es sich um einen Einzelfall. Weitreichende Schlüsse oder gar Empfehlungen für die Allgemeinbevölkerung ließen sich aus den Ergebnissen daher nicht ableiten. „Nach heutigem Kenntnisstand bleibt eine dreimalige Impfung und gegebenenfalls eine regelmäßige Auffrischung bei vulnerablen Gruppen die Vorgehensweise der Wahl. Darüber hinausgehende Impfungen sind nicht indiziert.“

Ansprechpartner für Medien:
PD Dr. Kilian Schober
Lehrstuhl für Mikrobiologie und Infektionsimmunologie
Tel.: 09131/85-32644
kilian.schober@uk-erlangen.de

Wissenschaftliche Ansprechpartner:
PD Dr. Kilian Schober
Lehrstuhl für Mikrobiologie und Infektionsimmunologie
Tel.: 09131/85-32644
kilian.schober@uk-erlangen.de

Originalpublikation:
https://doi.org/10.1016/S1473-3099(24)00134-8
PD Dr. Kilian Schober
Lehrstuhl für Mikrobiologie und Infektionsimmunologie
Tel.: 09131/85-32644
kilian.schober@uk-erlangen.de

Originalpublikation:
https://doi.org/10.1016/S1473-3099(24)00134-8

(nach oben)


Gemeinsam für hohe Standards bei der Bewertung von Gesundheitstechnologien in Europa ab 2025

Gemeinsam für hohe Standards bei der Bewertung von Gesundheitstechnolo-gien in Europa ab 2025
Wenige Monate vor Inkrafttreten der EU-HTA-Verordnung besuchte eine Delegation der französi-schen HTA-Agentur HAS das IQWiG in Köln, um sich über die Zukunft der europäischen Nutzenbe-wertung auszutauschen.

Die Mitgliedstaaten der Europäischen Union (EU) sollen ab 2025 gemeinsame Nutzenbewertungen von Gesundheitstechnologien (engl. Health Technology Assessments = HTA) erstellen. So steht es in der EU-HTA-Verordnung, die ab dann gilt. Die Weichen dafür, dass sie zum Vorteil der Patienten und der Gesundheitssysteme umgesetzt wird, werden derzeit gestellt.
Vor diesem Hintergrund kamen in dieser Woche Expertinnen und Experten der Haute Autorité de santé (HAS) und des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) zu einem Arbeitstreffen in Köln zusammen, um sich gegenseitig über den Stand der Vorbereitungen auf diese neue europäische Ära der Nutzenbewertung von Arzneimitteln und Medizinprodukten zu informieren.
„Ich danke dem Präsidenten von HAS, Lionel Collet, und seinem Team für den sehr konstruktiven Austausch heute hier bei uns im Institut“, sagte IQWiG-Chef Thomas Kaiser nach dem Treffen. Der Besuch sei Teil eines laufenden Dialogs zwischen den beiden HTA-Agenturen: „Uns eint der Wunsch nach hohen Standards bei der Bewertung von Gesundheitstechnologien. Dafür wollen wir gemein-sam in den zuständigen Gruppen auf EU-Ebene.“

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_11…

(nach oben)


Werkzeuge und Maßnahmen zur Gestaltung der Wärmewende

Zukünftig sollen Deutschlands Kommunen Konzepte und Strategien für klimaneutrales Heizen vorlegen. So sieht es das für 2024 geplante Gesetz zur kommunalen Wärmeplanung vor. Um Wärmebedarfe zu erfassen, lokale Potenziale zu ermitteln und einen entsprechenden Maßnahmenplan aufzusetzen, muss jede Kommune individuelle Wege gehen. Orientierung und Hilfestellung bieten gute Praxisbeispiele und auch Tools zur Gestaltung der Wärmewende. Hier setzen Fraunhofer UMSICHT und ASEW in einem gemeinsamen Projekt an: Sie wollen vorhandene Werkzeuge und Maßnahmen bewerten, charakterisieren und über eine Online-Plattform den Wärmemarkt-Akteuren zur Verfügung stellen.

»Ob Kommunen, Stadtwerke oder Netzbetreiber – wer die kommunale Wärmeplanung in Angriff nehmen will, steht häufig vor zwei Herausforderungen: Zum einen liegen Informationen zu bereits durchgeführten Transformationsmaßnahmen nur sehr fragmentiert vor. Zum anderen verhindern die große Vielzahl existierender Energiesystemplanungstools und eine meist schlechte Dokumentation ihrer Einsatzmöglichkeiten die Orientierung«, so Dr.-Ing. Anne Hagemeier von Fraunhofer UMSICHT. »Die Folge: Statt auf Vorhandenem aufzubauen starten viele bei null, stecken zeitliche und finanzielle Ressourcen in die Entwicklung neuer Werkzeuge.«

Gemeinsam mit der Stadtwerkenetzwerk Arbeitsgemeinschaft für sparsame Energie- und Wasserverwendung (ASEW) arbeiten die Forschenden im Projekt »PlaWaTT« deshalb an einer Online-Plattform für Wärmetransformations-Tools und -Maßnahmen, die Akteuren des Wärmemarktes als Entscheidungshilfe und Arbeitsgrundlage dienen soll. Dabei führen sie vorhandene Forschungsergebnisse und Praxiserfahrungen zusammen und erstellen Steckbriefe zu technologischen sowie unterstützenden Maßnahmen. Diese Charakterisierungen beinhalten Umfeldfaktoren wie Verbrauchs- und Netzstrukturen ebenso wie Maßnahmen für die Wärmetransformation.

Darüber hinaus schauen sich die Projektpartner Methoden zu Potenzialanalyse zur Einbindung neuer Wärmequellen, Priorisierung von Wärmeversorgungslösungen, Wärmenetzplanung und -auslegung, Anlageneinsatzplanung und Betriebsanalyse an. Stefan Schulze-Sturm von der ASEW: »Wir analysieren und bewerten vorhandene Tools mit Blick auf ihre Praxisrelevanz: Was eignet sich für welche Fragestellung und welchen Planungsschritt? Wie steht es um Anwendungsfreundlichkeit und Entwicklungsstand? Und welche Werkzeuge lassen sich kombinieren?« Die Ergebnisse werden auf der Plattform übersichtlich dargestellt, mit weiterführenden Informationen verlinkt und untereinander verknüpft.

Um bereits mit Beginn möglichst anwendungsorientiert zu arbeiten, wird »PlaWaTT« von Vertreterinnen und Vertretern aus der Praxis begleitet – darunter Stadtwerke und Verbände. Ihr fachlicher Input fließt in die Projektarbeit ein. Gleichzeitig dienen sie als Multiplikatoren, die Erkenntnisse aus dem Projekt in ihre Netzwerke spiegeln. Am Ende soll eine wartungsarme und auf automatisierten Prozessen basierte Plattform stehen, die dabei unterstützt, passgenaue Werkzeuge und Konzepte zur Gestaltung der Wärmewende zu finden und zu nutzen.

FÖRDERHINWEIS
Das Projekt »PlaWaTT – Plattform für Wärmetransformations-Tools und Maßnahmen: Bewertung und Charakterisierung von Konzepten und Werkzeugen für die Dekarbonisierung des Wärmesektors« wird von Bundesministerium für Wirtschaft und Klimaschutz gefördert. Kennzeichen: 03EN3086A-B.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/gesta…

(nach oben)


Gold aus Abfall gewinnen

ETH-​Forschende gewinnen das Edelmetall aus Elektroschrott. Ihre neue Methode ist besonders nachhaltig: Sie basiert auf einem Proteinfaserschwamm, den die Wissenschaftler aus Molke herstellen, einem Nebenprodukt der Lebensmittelindustrie.

Unedles in Gold zu verwandeln, war eines der nie erreichten Ziele der Alchemisten im Mittelalter und der frühen Neuzeit. Unter dasselbe Motto fällt aber auch das, was Raffaele Mezzenga, Professor am Departement Gesundheitswissenschaften und Technologie der ETH Zürich, nun geschafft hat. Natürlich hat er nicht ein anderes chemisches Element in Gold verwandelt, wie es die Alchemisten versuchten. Aber es ist ihm gelungen, mithilfe eines Nebenprodukts aus der Käseherstellung aus Elektroschrott Gold zu gewinnen.

Elektroschrott enthält verschiedene wertvolle Metalle, darunter Kupfer, Kobalt und auch relevante Mengen an Gold. Dieses aus ausgedienten Smartphones und Computern zurückzugewinnen, ist wegen der steigenden Nachfrage nach dem Edelmetall von grossem Interesse. Bisherige Verfahren zur Rückgewinnung sind allerdings energieintensiv und benötigen oft hochgiftige Chemikalien. Die Gruppe von ETH-​Professor Mezzenga präsentiert jetzt eine sehr effiziente, kostengünstige und vor allem viel nachhaltigere Methode: Mit einem Schwamm aus einem Proteingeflecht ist es ihr gelungen, Gold aus Elektroschrott herauszufischen.

Selektive Gold-​Aufnahme
Für die Herstellung des Schwammes nutzten Mohammad Peydayesh, Oberassistent in Mezzengas Gruppe, und seine Kollegen Molkenproteine. Diese denaturierten sie bei grosser Hitze und mit Säure, sodass sie in einem Gel zu Protein-​Nanofasern aggregierten. Dieses Gel trockneten die Wissenschaftler, wodurch ein Schwamm aus diesen Proteinfasern entstand.

Um im Laborversuch Gold zurückzugewinnen, nahmen die Forschenden die Elektronikleiterplatten von 20 alten Computern und entfernten die Metallteile. Diese lösten sie in einem Säurebad auf, sodass die Metalle darin als Ionen vorlagen.

Legten die Forschenden den Proteinfaserschwamm in die Metallionen-​Lösung, lagerten sich die Gold-​Ionen an die Proteinfasern an. Auch andere Metall-​Ionen können sich an die Fasern anlagern, Gold-​Ionen lagern sich jedoch viel effizienter an als diese. Das zeigen die Forschenden in ihrer Arbeit, die sie in der Fachzeitschrift externe SeiteAdvanced Materialscall_made veröffentlicht haben.

In einem nächsten Schritt erhitzten die Forschenden den Schwamm. Dadurch kristallisierten die Gold-​Ionen zu Flocken, die die Wissenschaftler schliesslich zu einem Goldnugget einschmelzen konnten. So erhielten sie aus den 20 Computer-​Leiterplatten ein rund 450 Milligramm schweres Nugget mit einem Anteil von 91 Prozent Gold an der Gesamtmasse (der Rest ist Kupfer), was knapp 22 Karat entspricht.

Wirtschaftlich rentabel
Die neue Technologie ist wirtschaftlich, wie Mezzenga vorrechnet: Die Kosten für die Beschaffung der Ausgangsmaterialen und die Energiekosten des ganzen Prozesses sind zusammen 50-​mal geringer als der Wert des Goldes, das zurückgewonnen werden kann.

Als Nächstes wollen die Forschenden die Technologie zur Marktreife entwickeln. Auch wenn Elektroschrott das vielversprechendste Ausgangsprodukt ist, aus dem sie Gold schürfen möchten, gibt es noch weitere mögliche Quellen. Dazu gehören zum Beispiel Industrieabfälle aus der Mikrochip-​Herstellung oder von Vergoldungen. Ausserdem wollen die Wissenschaftler untersuchen, ob sie die Proteinfaserschwämme auch aus anderen proteinhaltigen Neben-​ oder Abfallprodukten der Lebensmittelindustrie herstellen können.

«Am besten gefällt mir, dass wir ein Nebenprodukt der Lebensmittelindustrie verwenden, um Gold aus Elektroschrott zu gewinnen», sagt Mezzenga. Man könne also zu Recht sagen, dass die Methode zwei Abfallstoffe zu Gold veredelt. «Viel nachhaltiger geht es nicht.»

Wissenschaftliche Ansprechpartner:
Prof. Dr. Raffaele Mezzenga, ETH Zürich, raffaele.mezzenga@hest.ethz.ch

Originalpublikation:
Peydayesh M, Boschi E, Donat F, Mezzenga R: Gold Recovery from E-​Waste by Food-​Waste Amyloid Aerogels. Advanced Materials 2024, 2310642, doi: 10.1002/adma.202310642

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2024/03/aus-abfall-wir…

(nach oben)


Den Wandel im öffentlichen Sektor erfolgreich gestalten

Fraunhofer IAO und Capgemini Invent veröffentlichen Studie mit praktischen Handlungsempfehlungen

Nach einer intensiven Forschungsphase hat das Fraunhofer IAO gemeinsam mit der weltweit tätigen Unternehmensberatung Capgemini Invent eine breit angelegte Studie veröffentlicht, die zeigt, welche Hemmnisse den Wandel im öffentlichen Sektor bremsen und welche Beschleuniger die Transformation vorantreiben. Praktische Handlungsempfehlungen zeigen, wie der Wandel zu einer zukunftsfähigen Organisation in Institutionen des öffentlichen Sektors gelingen kann.

Institutionen des öffentlichen Sektors stehen angesichts hoher Dynamik und Komplexität unter Veränderungsdruck. Um resilient und effizient auf die Bedürfnisse von Wirtschaftsakteuren und Bürgerinnen und Bürger reagieren zu können, ist ein grundlegendes Umdenken in Arbeitsweise und Organisation erforderlich. Hier setzt die neue Kooperationsstudie »Hemmnisse und Be-schleuniger der Transformation im öffentlichen Sektor. Unchain the Public Sector« des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO und Capgemini Invent an: Sie zeigt anschaulich, wie die Transformation hin zu zukunftsfähigen öffentlichen Institutionen gelingen kann und bietet Lösungs-ansätze. »In unserer neuen Studie hat sich der Fachkräftemangel als stärkster Transformationstreiber im öffentlichen Sektor herauskristallisiert«, sagt Dr. Ulrich G. Schnabel, Co-Autor der Studie und Projektleiter am Fraunhofer IAO. Steigende Erwartungen der Stakeholder und die Herausforderungen des demografischen Wandels, wie alternde Belegschaften, sind weitere Treiber, ebenso wie die Digitalisierung und die begrenzten finanziellen Ressourcen der öffentlichen Haushalte. »Auf diesen vielschichtigen Druck muss mit zukunftsfähigen Organisationsformen in den Institutionen des öffentlichen Sektors reagiert werden«, so Dr. Schnabel weiter.

Mit innovativen Technologien und Managementpraktiken fit für die Zukunft
Wie kann der Wandel gelingen? Um dies aufzuzeigen, identifiziert die Studie Zielbilder, Hemmnisse und Beschleuniger der Transformation hin zu zukunftsfähigen Arbeits- und Organisationsformen, innovativen Informations- und Kommunikationstechnologien, zeitgemäßen Führungspraktiken und innovationsförderlichen Organisationskulturen. Wichtige Maßnahmen, die den Wandel vorantreiben, sind für die Aufbauorganisation z. B. die Gestaltung eher flacher Hierarchien und größerer Handlungs- und Entscheidungsspielräume sowie Verantwortungsbereiche. Darüber hinaus haben eine verbesserte bereichsübergreifende Vernetzung der Mitarbeitenden und die entsprechende Zusammenarbeit in Netzwerken eine hohe Bedeutung für die Transformation. Zentral ist auch die Automatisierung und Digitalisierung von Regel- und Standardprozessen, um den Fachkräftemangel zu reduzieren und freie Kapazitäten für höherwertige Aufgaben zu schaffen, u. a. durch Robotic Process Automation (RPA). Dabei gewinnen pragmatische, flexible und agile Arbeitsweisen aufgrund völlig neuer Aufgaben, projektbezogener Zusammenarbeit und komplexer Fragestellungen an Bedeutung.

»Die Studie zeigt, dass die digitale Transformation und die Einführung innovativer Technologien im öffentlichen Sektor maßgeblich durch eine strategische Personalplanung und -entwicklung mit dem Fokus auf Zukunftskompetenzen beschleunigt werden kann«, betont Veronika Hübner, Senior Managerin bei der Unternehmensberatung Capgemini Invent. Die Expertin führt weiter aus, dass die Nachfrage nach Projekten in diesem Kontext stetig steigt.

Darüber hinaus werden bereichsübergreifende Prozesse mit E2E-Prozessverantwortung und entsprechender IT-Unterstützung in der Transformation wichtiger. Hierzu zählen beispielsweise die Einführung der E-Akte, die eine durchgängige Kommunikation ermöglichen soll, sowie die Implementierung virtueller Kooperationsplattformen zur interdisziplinären und bereichs-übergreifenden Bearbeitung von Projekten.

Transformationale Führung gepaart mit umfassender Partizipation: die Führungspraxis der Zukunft
Transformationale Führung fördert die intrinsische Motivation der Mitarbeitenden und gibt ihnen situativ einen möglichst großen Freiraum in Institutionen des öffentlichen Sektors, gesetzte Ziele eigenständig, selbstorganisiert und selbstbestimmt zu erreichen. »Führungskräfte mit transformationalen Führungskompetenzen agieren als Vorbild, stellen Vertrauen und Loyalität her. Sie erarbeiten und kommunizieren eine inspirierende Vision, geben anspruchsvolle langfristige und übergeordnete Ziele vor, um Mitarbeitende zu motivieren und anzutreiben«, hebt Dr. Schnabel hervor. Auch sind für eine zukunftsfähige Führungspraxis in der Transformation Ansätze einer umfassenden Partizipation im Sinne von Mitwissen, Mitentscheiden, Mitumsetzen und Mitverantworten heute wichtiger denn je. Dazu gehören auch die Verlagerung von Entscheidungskompetenzen in Teams, eine klare Rollenverteilung und Förderung von Selbstführungskompetenzen. Führung muss in Zukunft Transformation als zentrale Aufgabe wahrnehmen, sowohl innerhalb der Bereiche als auch bereichsübergreifend. Gefragt sind Führungskräfte mit einem entwicklungsorientierten Führungsstil und Coachingkompetenzen, die im Sinne der lateralen Führung auf Augenhöhe mit den Mitarbeitenden agieren.

Die vollständige Studie kann ab sofort kostenlos heruntergeladen werden. Auf Anfrage vermitteln wir Ihnen gerne ein Interview mit den Autorinnen und Autoren der Studie.

Ansprechpartnerin Presse:
Catharina Sauer
Presse und Öffentlichkeitsarbeit

Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart

Telefon +49 711 970-2242
E-Mail: presse@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr. Ulrich G. Schnabel

Organisationsgestaltung
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart, Germany

Telefon +49 (0) 711 970-2265
E-Mail: ulrich.schnabel@iao.fraunhofer.de

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/den-wandel-im-oeffe…

(nach oben)


Calciumverlust, Sport und Ermüdungsbrüche

Neues Verfahren zur frühzeitigen Erkennung von Calciumschwund: Einladung zur Pressekonferenz am 6. März

Calcium ist das wichtigste Element für die Gesundheit von Knochen und Muskeln. Im Sport kommt es allerdings immer wieder auch zu Ermüdungsbrüchen, die auf Calciummangel zurückzuführen sind. Ziel der aktuellen Studie der Deutschen Sporthochschule Köln und der Firma osteolabs – Experts for Bone Biomarkers war es, den Zusammenhang zwischen Calciumverlust, Sport und Ermüdungsbrüchen anhand eines neuen Verfahrens zur frühzeitigen Erkennung von Calciumschwund zu ermitteln. Die Studienergebnisse werden im Rahmen einer Pressekonferenz am 6. März an der Deutschen Sporthochschule Köln präsentiert.

Im Rahmen der Studie kam der innovative und nicht-invasive biochemische Test der Kieler Firma osteolabs – Experts for Bone Biomarkers zum Einsatz. Der Test wurde bei 38 männlichen Fußballern vor und nach intensivem Training durchgeführt, um den Einfluss von intensiver sportlicher Tätigkeit auf den Calciumstoffwechsel in den Knochen zu untersuchen. Die erhobenen Daten liefern einen Einblick in den jeweiligen Calciumverlust der einzelnen Spieler während des Trainings und sollen als Basis für individuell abgestimmte Trainings- und Ernährungspläne dienen.

Wir laden Sie herzlich zur Vorstellung der Studienergebnisse ein:

6. März 2024
10 bis 11 Uhr
im Leichtathletik-Stadion
der Deutschen Sporthochschule Köln (1. Etage)
Am Sportpark Müngersdorf 6, 50933 Köln

Ihre Gesprächspartner sind:

  • Prof. Dr. Ingo Froböse, Leiter der Studie
  • Dr. Christiane Wilke, Leiterin der Studie, kommissarische Leiterin des Instituts für Bewegungstherapie und bewegungsorientierte Prävention und Rehabilitation, Deutsche Sporthochschule Köln
  • Dr. Giordano Scinicarelli, Wissenschaftlicher Mitarbeiter der Studie
  • Prof. Dr. Anton Eisenhauer, Mitgründer und Gesellschafter osteolabs GmbH
  • Heike Henkel, ehemalige Leistungssportlerin (u.a. Olympiasiegerin im Hochsprung) und Mutter einer Nachwuchsathletin

Wir bitten um eine formlose Anmeldung unter v.monti@dshs-koeln.de.

Wissenschaftliche Ansprechpartner:
Projektkontakt:
Deutsche Sporthochschule Köln
Dr. Giordano Scinicarelli
+49 221 4982-8576
g.scinicarelli@dshs-koeln.de

Projektpartner:
Osteolabs GmbH
Kathrin Hagen (Öffentlich-keitsarbeit)
+49 431 990730
kh@osteolabs.de

(nach oben)


Kidnapping im Immunsystem

HCMV programmiert zelluläre Abwehrmechanismen um
Das humane Cytomegalievirus, kurz HCMV schlummert bei den meisten Menschen ein Leben lang unbemerkt im Körper. In immungeschwächten Individuen kann das Virus allerdings lebensgefährliche Infektionen verursachen. Es befällt dendritische Zellen, einen bestimmten Typ Zellen im Immunsystem. Die Mehrzahl von ihnen wird zwar infiziert, aber nur in wenigen wird das genetische Programm der Viren sofort ausgeführt. Forscherinnen und Forscher am TWINCORE, Zentrum für Experimentelle und Klinische Infektionsforschung, konnten jetzt zeigen, welche Signalwege des angeborenen Immunsystems das Virus angreift, …

…um sich selbst von den Wirtszellen produzieren zu lassen. Diese Ergebnisse veröffentlichen sie in der Fachzeitschrift Nature Communications.

Bis zu 90% der Weltbevölkerung tragen HCMV in sich. Bei Menschen mit regulärem Immunsystem verläuft die Infektion in der Regel subklinisch, sie ruft also keine ausgeprägten Symptome hervor. In immunsupprimierten Patienten, beispielweise Empfängerinnen oder Empfänger von Organtransplantationen, kann die Infektion allerdings lebensbedrohlich werden. Außerdem ist die Infektion mit HCMV während der Schwangerschaft die häufigste Ursache für Fehlbildungen bei Neugeborenen, wie beispielsweise angeborene Hörschäden.

Im menschlichen Körper kann HCMV die myeloiden Zellen des Immunsystems befallen. Zu dieser Gruppe gehören auch die von Monozyten abgeleiteten dendritischen Zellen, zu deren Hauptaufgabe die Weiterverarbeitung von fremden Proteinen gehört, damit diese den T-Zellen präsentiert werden. Antigen-spezifische T-Zellen können dann infizierte Zellen beseitigen.

Die Forschenden aus dem Institut für Experimentelle Infektionsforschung unter der Leitung von Prof. Ulrich Kalinke konnte die von Monozyten abgeleiteten dendritischen Zellen in drei Gruppen unterteilen, von denen eine anfälliger für die Infektion ist als die übrigen. „Durch Einzelzell-RNA-Sequenzierungen haben wir festgestellt, dass in diesen Zellen der Signalweg, der normalerweise Viren erkennt, von HCMV quasi gekidnappt wird, um die produktive Infektion zu etablieren“, sagt Dr. Bibiana Costa, Postdoktorandin am TWINCORE und Erstautorin der Studie. „Es handelt sich um den sogenannten STING-Signalweg.“ STING steht für „stimulator of interferon genes“, zu Deutsch Stimulator von Inferferon-Genen.
Interferone sind Botenstoffe des Immunsystems, die sowohl direkt gegen Viren wirken als auch Abwehrzellen aktivieren können. Außerdem setzen Interferone wie in einer Kettenreaktion weitere Abwehrprozesse in Gang. In der Untergruppe der dendritischen Zellen, die für die Infektion besonders anfällig sind, blockieren viruseigene Proteine diese Schutzfunktion und programmieren sie stattdessen so um, dass ungestört neue Viruspartikel produziert werden.

„Diesen viralen Eingriff in das zelluläre Geschehen haben wir anschließend noch genauer untersucht, um herauszufinden, welche Gene in den Zellen genau betroffen sind“, sagt Costa. „Dabei konnten wir mehrere Kandidaten identifizieren, die entweder antivirale oder provirale Eigenschaften haben.“ Weil bestimmte immunmodulierende Medikamente genau in diese Signalwege eingreifen, bietet sich hier möglicherweise Potential für einen therapeutischen Ansatz. Dies scheint besonders vielversprechend, weil Trägerinnen und Träger von Organtransplantaten lebenslang immunsupprimierende Medikamente einnehmen müssen, um die Abstoßung des Transplantats durch das Immunsystem zu verhindern. „Dazu sind aber weitere Studien notwendig“, sagt Prof. Ulrich Kalinke, Direktor des Instituts für Experimentelle Infektionsforschung und Geschäftsführender Direktor des TWINCORE.

An der Studie waren neben den Forschenden vom TWINCORE Kooperationspartnerinnen und -partner aus mehreren Forschungseinrichtungen beteiligt, unter anderem vom Helmholtz-Institut für RNA-basierte Infektionsforschung HIRI in Würzburg, der Universität Regensburg, vom Helmholtz-Zentrum für Infektionsforschung in Braunschweig sowie der Medizinischen Hochschule Hannover. „Bei der Vernetzung unterstützt uns außerdem der Exzellenzcluster RESIST“, sagt Kalinke. „Ohne diese Partnerschaften könnten wir keine translationale Infektionsforschung auf hohem Niveau betreiben.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Kalinke, ulrich.kalinke@twincore.de
Tel: +49 (0)511 220027-112

Originalpublikation:
Bibiana Costa, Jennifer Becker, Tobias Krammer, Felix Mulenge, Verónica Durán, Andreas Pavlou, Olivia Luise Gern, Xiaojing Chu, Yang Li, Luka Čičin-Šain, Britta Eiz-Vesper, Martin Messerle, Lars Dölken, Antoine-Emmanuel Saliba, Florian Erhard & Ulrich Kalinke
Human cytomegalovirus exploits STING signaling and counteracts IFN/ISG induction to facilitate infection of dendritic cells
Nature Communications volume 15, Article number: 1745 (2024)
DOI: https://doi.org/10.1038/s41467-024-45614-3

Weitere Informationen:
https://www.twincore.de/infothek/infothek-news-details/news/kidnapping-im-immuns… |
Diese Pressemitteilung auf www.twincore.de

(nach oben)


Water Science Alliance mit neuer Spitze: Nachwuchsförderung in der Wasserforschung

Die Water Science Alliance hat im vergangenen Jahr ihren Sitz erfolgreich an das Zentrum für Wasser- und Umweltforschung der Universität Duisburg-Essen verlegt. Zuvor war sie an der Technischen Universität Dresden angesiedelt. Unter Leitung der neu gewählten Doppelspitze, bestehend aus Prof.‘in Dr. Martina Flörke von der Ruhr-Universität Bochum und Prof. Dr. Florian Leese (Duisburg-Essen), hat die Deutsche Wasserforschungsallianz nun eine Förderung in Höhe von 100.000 Euro für die Nachwuchsförderung von der Bernhard und Ursula Plettner-Stiftung eingeworben.

Seit 2010 stärkt die Water Science Alliance (WSA) die interdisziplinäre Wasserforschung in Deutschland und international, indem sie diese sichtbar positioniert, aktiv Synergien fördert und sie mit angrenzenden Fachgebieten vernetzt. So entsteht eine zentrale Plattform für die Zusammenarbeit an übergreifenden Themen. „Außerdem legt die WSA einen besonderen Schwerpunkt auf die Förderung von Forschenden zu Beginn ihrer Laufbahn“, betont Prof.‘in Dr. Martina Flörke, Expertin für Ingenieurhydrologie und Wasserwirtschaft (Ruhr-Universität Bochum). „Denn junge Wissenschaftler:innen tragen dazu bei, eine dynamische und nachhaltige Wasserforschungslandschaft zu schaffen, die den aktuellen und künftigen Herausforderungen in Wissenschaft und Lehre gewachsen ist“

„Mit den eingeworbenen Fördermitteln der Bernhard und Ursula Plettner-Stiftung wollen wir einen Karriere-Navigator für Nachwuchsforschende in der komplexen Wasserforschungslandschaft etablieren“, erklärt Prof. Dr. Florian Leese (Universität Duisburg-Essen). „Durch den Navigator können die Forschenden ihren Horizont erweitern, etwa indem sie an Konferenzen teilnehmen, Workshops organisieren oder daran teilnehmen, oder ein individuelles Mentoring durch renommierte Mitglieder der WSA bekommen“, so der Experte für Aquatische Ökosystemforschung an der UDE weiter.

Der „WSA Karriere Navigator“ wird über einen Zeitraum von fünf Jahren Nachwuchswissenschaftler:innen in den folgenden drei Schlüsselbereichen fördern:

Berufliche Aus- und Weiterbildung & Qualifizierung: Finanzielle Unterstützung für Reisekosten und/oder Gebühren im Rahmen relevanter Konferenzen, Workshops und Praktika, um die berufliche Ausbildung zu erweitern und neue Einblicke für die fachliche berufliche Weiterentwicklung zu gewinnen.
Kommunikation & Netzwerkaktivitäten: Organisation von Brainstorming-Treffen zu interdisziplinären Wasserforschungsthemen, Publikations- oder Antragsideen. Zudem wird die Teilnahme an WSA-Veranstaltungen, einschließlich kostenfreier Beteiligung an der jährlichen Water Research Horizon Conference und/oder „WSA Lectures“, gefördert.
Karriereplanung: Unterstützung der individuellen Karriereplanung in der Wasserforschung durch Beratung und/oder Mentoring durch renommierte und erfahrene Mitglieder der WSA und/oder ihres Netzwerks.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Florian Leese, Fakultät für Biologie, Aquatische Ökosystemforschung (UDE), Tel. 0201 183-4053, florian.leese@uni-due.de

Prof.’in Dr.-Ing. Martina Flörke, Fakultät für Bau- und Umweltingenieurwissenschaften, Lehrstuhl für Ingenieurhydrologie und Wasserwirtschaft (RUB), Tel. 0234 32 – 24693, Martina.floerke@hydrology.ruhr-uni-bochum.de

Weitere Informationen:
https://www.watersciencealliance.org/career-navigator.html

(nach oben)


Neue Erkenntnisse zur menschlichen Gehirnentwicklung: Forschende identifizieren geschlechtsspezifische Unterschiede

Bereits in den frühen Phasen des Lebens zeigen sich je nach Entwicklungsstadium signifikante Unterschiede in der Art und Weise, wie das Gehirn Signale und Informationen aufnimmt und verarbeitet. Eine gestörte Entwicklung kann dauerhafte Folgen haben und zu psychischen Erkrankungen führen. Forschende des Universitätsklinikums Tübingen haben nun gemeinsam mit internationalen Forschungspartnern aufschlussreiche Erkenntnisse gewonnen: Die neuronale Komplexität der Gehirnaktivität verändert sich vom späten Stadium der Schwangerschaft bis in die frühe Kindheit anders als erwartet und zudem mit geschlechtsspezifischen Unterschieden.

In der Studie hat das Team untersucht, wie das menschliche Gehirn auf äußere Reize, wie beispielsweise Tonsequenzen, reagiert, sowohl vor als auch nach der Geburt. Gemessen werden konnten die Reaktionen des Gehirns mit der fetalen Magnetenzephalographie (fMEG), die nicht-invasiv an der Oberfläche des Bauches der Mutter die Gehirnaktivität schon im Mutterleib misst. Die Sensoren befinden sich unter einer Messschale, die optimal an die Form des mütterlichen Bauches angepasst ist. „Sensorische Stimulation bietet uns eine einzigartige Möglichkeit, zu beobachten, wie junge Gehirne Informationen von außen verarbeiten. Und das auf eine vollkommen sichere Weise“, erklärt Prof. Dr. Hubert Preissl vom fMEG-Zentrum Tübingen und dem Institut für Diabetesforschung und metabolische Erkrankungen des Helmholtz Zentrums München.

Erkrankungen frühzeitig erkennen und therapieren
Die Hypothese der Forschenden: Je weiter sich das Gehirn entwickelt, desto komplexer sind die neuronalen Reaktionen auf Reize von außen. Überraschenderweise zeigen die Ergebnisse, dass die Komplexität der neuronalen Antworten abnimmt, und zwar in geschlechtsspezifisch unterschiedlichem Tempo. Diese Unterschiede könnten Aufschluss darüber geben, warum bestimmte Entwicklungsstörungen bei Jungen und Mädchen in unterschiedlicher Häufigkeit auftreten. „Zunächst war ich ziemlich überrascht“, gibt Dr. Joel Frohlich vom Institut für Neuromodulation und Neurotechnologie zu. „Instinktiv hatte ich angenommen, dass mit der Reifung des Gehirns auch seine Aktivität komplexer werden würde.“ Jedoch erscheint es sinnvoll, dass reifende Gehirnverbindungen auf externe Reize mit strukturierteren Mustern reagieren. Ein entwickelteres Gehirn ist also geordneter und hat dadurch weniger Möglichkeiten, auf denselben Reiz in unterschiedlicher Weise zu reagieren.

Das Forscherteam aus Tübingen plant, den Zusammenhang zwischen den beobachteten Gehirnmustern und der langfristigen psychischen Gesundheit weiter zu erforschen. „Je früher wir das Risiko für die Entwicklung neuropsychiatrischer und metabolischer Störungen identifizieren, desto effektiver können wir die Gehirnentwicklung unterstützen, um schwerwiegende Krankheitsverläufe zu verhindern“, erklärt Prof. Dr. Alireza Gharabaghi vom Institut für Neuromodulation und Neurotechnologie. Diese Erkenntnisse könnten den Weg für zukünftige präventive Maßnahmen und Behandlungsstrategien ebnen, die das Forschungsteam auch im Rahmen des Zentrums für Bionic Intelligence und des Deutschen Zentrums für Psychische Gesundheit erforscht. An der Studie wesentlich beteiligt waren Dr. Joel Frohlich, Dr. Julia Moser, Dr. Katrin Sippel, Dr. Pedro Mediano, Prof. Dr. Hubert Preissl und Prof. Dr. Alireza Gharabaghi vom Tübinger Institut für Neuromodulation und Neurotechnologie.

Hintergrund: Neurotechnologie für bessere Therapien von Gehirnerkrankungen
Das Tübinger Institut für Neuromodulation und Neurotechnologie wurde 2020 mit dem Ziel gegründet, Patientinnen und Patienten mit innovativen Methoden zu helfen. Rund 25 Ärztinnen, Neurowissenschaftler, Ingenieurinnen und Informatiker arbeiten zusammen, damit Patienten von modernsten neurotechnologischen Entwicklungen profitieren können. Schwerpunkt ist die Neuromodulation. Dabei geht es darum, Hirnfunktionen positiv zu beeinflussen – durch Hirnschrittmacher und Neuroprothesen, durch magnetische oder elektrische Stimulation oder auch Neurorobotik und Orthesen, die helfen, die Rehabilitation nach einer Schädigung des Gehirns zu verbessern.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Tübingen
Stabsstelle Kommunikation und Medien
Hoppe-Seyler-Straße 6, 72076 Tübingen
Tel. 07071 29-88548, Fax 07071 29-25024
presse@med.uni-tuebingen.de

Prof. Dr. med. Alireza Gharabaghi
Ärztlicher Direktor
Institut für Neuromodulation und Neurotechnologie

Originalpublikation:
Frohlich J, Moser J, Sippel K, Mediano P, Preissl H & Gharabaghi A Sex differences in prenatal development of neural complexity in the human brain https://www.nature.com/articles/s44220-024-00206-4
DOI: 10.1038/s44220-024-00206-4

(nach oben)


Neues Klimamodell: Mehr Extremregen durch Wolkenansammlungen in Tropen bei erhöhten Temperaturen

Wolkenformationen zu verstehen ist in unserem sich wandelnden Klima entscheidend, um genaue Vorhersagen über deren Auswirkungen auf Natur und Gesellschaft zu treffen. Wissenschafter:innen des Institute of Science and Technology Austria (ISTA) und des Max-Planck-Instituts für Meteorologie veröffentlichten in der Fachzeitschrift Science Advances eine neue Studie, in der sie ein hochauflösendes globales Klimamodell verwenden, um zu verstehen, wie sich die Häufung von Wolken und Stürmen auf extreme Niederschläge in den Tropen auswirkt. Sie zeigten, dass mit steigenden Temperaturen die Intensität von extremen Niederschlagsereignissen zunimmt.

Extreme Regenfälle gehören zu den gefährlichsten Naturkatastrophen. Sie kosten Menschenleben und verursachen Schäden in Milliardenhöhe. Ihre Häufigkeit hat in den letzten Jahren aufgrund der Klimaerwärmung zugenommen. Seit mehreren Jahrzehnten nutzen Wissenschafter:innen Computermodelle des Erdklimas, um die Mechanismen hinter diesen Ereignissen besser zu verstehen und zukünftige Trends vorherzusagen. In einer neuen Studie, die jetzt in der Fachzeitschrift Science Advances veröffentlicht wurde, untersuchte ein Team von Forscher:innen des Institute of Science and Technology Austria (ISTA) und des Max-Planck-Instituts für Meteorologie (MPI-M) unter der Leitung von ISTA-Postdoc Jiawei Bao mit einem neuen, hochmodernen Klimamodell, wie sich Anhäufungen von Wolken und Stürmen auf extreme Niederschlagsereignisse – insbesondere in den Tropen – auswirken, und zwar detaillierter als bisher möglich.

„Diese neue Art von Modell mit einer viel feineren Auflösung hat gezeigt, dass bei einem wärmeren Klima extreme Niederschlagsereignisse in den Tropen stärker zunehmen als theoretisch erwartet, weil die Wolken stärker zu Clustern gebündelt sind“, erklärt Bao, der dieses Projekt ursprünglich während seiner früheren Postdoc-Stelle am MPI-M begonnen hatte. „Wir haben festgestellt, dass es länger regnet, wenn die Wolken mehr angehäuft sind, sodass die Gesamtmenge des Niederschlags zunimmt. Wir haben auch festgestellt, dass die erhöhten extremen Regenfälle über niederschlagsreichen Gebieten auf Kosten der Ausdehnung trockener Gebiete gehen – eine weitere Verschiebung hin zu extremem Wetter. Dies ist darauf zurückzuführen, wie sich Wolken und Stürme zusammenballen, was wir nun mit diesem neuen Klimamodell simulieren konnten.“ Dieses neue Modell, das 2019 erstmals vorgestellt wurde, simuliert das Klima mit einer viel höheren Auflösung als bisherige Modelle. Frühere Modelle konnten Wolken und Stürme nicht so detailliert berücksichtigen, sodass ein Großteil der komplexen Dynamik der Luftbewegung, die Wolken entstehen lässt und dafür sorgt, dass sie sich zu intensiveren Stürmen zusammenballen, nicht berücksichtigt wurde.

Während das Modell die ganze Welt simuliert, konzentrierten sich die Wissenschafter:innen bei ihrer Analyse auf den Bereich der Tropen rund um den Äquator. Sie taten dies, weil die Wolken- und Sturmbildung dort anders funktioniert als in anderen Breitengraden. Caroline Muller, Assistenzprofessorin am ISTA, fügt hinzu: „Frühere Modelle haben den Einfluss der Wolkenansammlungen auf Niederschlagsextreme angedeutet, konnten aber nicht die notwendigen Daten liefern. In Zusammenarbeit mit unseren Kollegen Bjorn Stevens und Lukas Kluft vom Max-Planck-Institut für Meteorologie tragen unsere Ergebnisse zu der wachsenden Zahl von Belegen bei, die zeigen, dass die Wolkenbildung in kleinerem Maßstab einen entscheidenden Einfluss auf die Folgen des Klimawandels hat.“

Gemeinsame Modellierung
Forscher:innen auf der ganzen Welt arbeiten gemeinsam an detaillierteren und realistischeren Modelle des Weltklimas, um die Auswirkungen des Klimawandels zu verstehen. Klimamodelle unterteilen die Erdatmosphäre in dreidimensionale Blöcke, wobei jeder Block Daten über seine Temperatur, Druck, Feuchtigkeit und viele andere physikalische Eigenschaften beinhaltet. Mit Hilfe physikalischer Gleichungen wird dann simuliert, wie diese Blöcke interagieren und sich im Laufe der Zeit verändern, um ein Abbild der realen Welt zu schaffen. Da Rechenleistung und Speicherplatz nicht unbegrenzt sind, müssen diese Modelle vereinfacht werden, und die Wissenschafter:innen arbeiten ständig daran, sie zu verbessern.

Ältere Generationen von Klimamodellen verwenden Blöcke von etwa 100 Kilometern horizontaler Länge, was immer noch in Zehn- bis Hunderttausenden Blöcken resultiert, um die gesamte Erde abzudecken. Fortschritte bei den Algorithmen und Supercomputern ermöglichten es den Wissenschafer:innen, die Auflösung der Modelle immer weiter zu erhöhen. „Wir haben ein am MPI-M entwickeltes Klimamodell verwendet und die Daten am Deutschen Klimarechenzentrum in Hamburg mit einer Auflösung von nur fünf Kilometern analysiert, was sehr rechenintensiv war“, fügt Bao hinzu. „Die gesamte Klimaforschung ist ein immenses gemeinschaftliches Projekt von Hunderten von Menschen, die dazu beitragen wollen, dass wir die Welt – und wie wir sie beeinflussen – besser verstehen.“

Bao, dessen Interesse an der Klimaforschung während seiner Promotion an der University of New South Wales, Australien, geweckt wurde und der jetzt als IST-BRIDGE Postdoktorand am ISTA arbeitet, möchte seine Arbeit über extreme Niederschlagsereignisse fortsetzen, um mit Hilfe zusätzlicher Modelle mehr Beweise für deren Ursachen und Auswirkungen zu finden.

Caroline Muller, die zuerst Mathematik studierte und dann ihre Leidenschaft für Forschungsfragen mit praktischen Auswirkungen entdeckte, und ihre Forschungsgruppe verwenden Klimamodelle, um die Luftkonvektion und die Bildung von Wolken und Stürmen auf verschiedenen Ebenen – bis hin zu tropischen Wirbelstürmen – zu untersuchen, um deren Ursachen und die Auswirkungen des Klimawandels auf Gesellschaft und Natur besser zu verstehen.

Projektförderung:
Diese Arbeit wurde unterstützt von der Max-Planck-Gesellschaft (MPG), dem Deutschen Klimarechenzentrum (DKRZ), dem Jülich Supercomputing Centre (JSC), dem EU-Programm Horizon 2020 (Grant Agreement No. 101003470) durch das Projekt NextGEMS und dem Projekt MONSOON-2.0 (Grant Agreement No. 01LP1927A), das vom Bundesministerium für Bildung und Forschung (BMBF) unterstützt wird. Die Finanzierung erfolgte im Rahmen des EU-Programms Horizont 2020 (Marie Skłodowska-Curie-Förderung, Fördervereinbarung Nr. 101034413; Fördervereinbarung Nr. 101003470; Projekt CLUSTER, Fördervereinbarung Nr. 805041).
Originalpublikation:

J. Bao, B. Stevens, L. Kluft, C. Muller. 2024. Intensification of daily tropical precipitation extremes from more organized convection. Science Advances. DOI: https://doi.org/10.1126/sciadv.adj6801

Weitere Informationen:
https://ista.ac.at/de/forschung/muller-gruppe/ Muller Forschungsgruppe am ISTA
https://mpimet.mpg.de/startseite MPI-M
https://nextgems-h2020.eu/ Klimamodell
https://www.dkrz.de/de/ Deutsches Klimarechenzentrum

Anhang
attachment icon Extreme Regenfälle, wie hier während der Messmission „Mooring Rescue“ im Atlantik fotografiert, werden bei steigenden globalen Temperaturen intensiver, so die Autor:innen der Studie von ISTA & MPI-M.

(nach oben)


Globale Erwärmung aktiviert inaktive Bakterien im Boden

Neue Erkenntnisse ermöglichen genauere Vorhersage des Kohlenstoffkreislaufs
Wärmere Böden beherbergen eine größere Vielfalt an aktiven Mikroben: Zu diesem Schluss kommen Forscherinnen des Zentrums für Mikrobiologie und Umweltsystemforschung (CeMESS) der Universität Wien in einer neuen Studie in Science Advances. Dies ist ein bedeutender Fortschritt im Verständnis, wie der mikrobielle Abbau im Boden den globalen Kohlenstoffkreislauf beeinflusst und mögliche Rückkopplungsmechanismen auf das Klima bedingt. Bislang gingen Wissenschafterinnen davon aus, dass höhere Bodentemperaturen das Wachstum von Mikroorganismen beschleunigen und dadurch die Freisetzung von Kohlenstoff in die Atmosphäre verstärken. Aber: Die Erwärmung fördert vielmehr die Aktivierung von zuvor inaktiven Bakterien.

„Böden sind das größte Reservoir an organischem Kohlenstoff auf der Erde“, erklärt der Ökosystemforscher Andreas Richter von der Universität Wien, Hauptautor der Studie. Mikroorganismen bestimmen den globalen Kohlenstoffkreislauf, indem sie organisches Material abbauen und dabei Kohlendioxid freisetzen. Wenn die Temperaturen steigen, ein wahrscheinliches Szenario im Rahmen des Klimawandels, ist davon auszugehen, dass die mikrobiellen Gemeinschaften mehr Kohlendioxid freisetzen, was den Klimawandel in einem Prozess, der als Bodenkohlenstoff-Klima-Rückkopplung bekannt ist, weiter beschleunigt.

„Jahrzehntelang haben Wissenschafterinnen angenommen, dass diese Reaktion durch erhöhte Wachstumsraten einzelner Bakterienpopulationen in einem wärmeren Klima angetrieben wird“, erklärt Richter. In dieser Studie untersuchten die Forscherinnen ein subarktisches Grasland in Island, das seit mehr als einem halben Jahrhundert von geothermischer Erwärmung betroffen ist, was zu höheren Bodentemperaturen als in den umliegenden Gebieten geführt hat. Durch die Entnahme von Boden und den Einsatz modernster Isotopenmarkierungstechniken identifizierte das Team aktive Bakterien und verglich ihre Wachstumsraten sowohl bei Umgebungstemperatur als auch bei einer Erwärmung um 6 Grad Celsius.

„Wir konnten feststellen, dass die seit mehr als 50 Jahren anhaltende Erwärmung des Bodens das mikrobielle Wachstum wie erwartet auf Gemeinschaftsebene erhöht hat“, sagt Dennis Metze, Doktorand an der Universität Wien und Erstautor der Studie. „Aber bemerkenswerterweise waren die Wachstumsraten der Mikroben in wärmeren Böden nicht von denen bei normalen Temperaturen zu unterscheiden.“ Der entscheidende Unterschied lag in der bakteriellen Vielfalt – wärmere Böden beherbergten eine größere Vielfalt an aktiven Mikroben.

Vorhersage mikrobieller Aktivität im zukünftigen Klima
„Die Reaktion des Bodenmikrobioms auf den Klimawandel vorherzusagen ist eine große Herausforderung. Der Boden wird daher in den meisten Klima- und Kohlenstoffkreislaufmodellen als ‚Black Box‘ behandelt“, fügt Mitautorin Christina Kaiser ebenfalls von der Universität Wien hinzu: „Diese Arbeit schafft die Voraussetzungen für genauere Vorhersagen des mikrobiellen Verhaltens und der daraus resultierenden Auswirkungen auf den Kohlenstoffkreislauf in einem sich entwickelnden Klimaszenario“.

Die aus dieser Studie gewonnenen Erkenntnisse beleuchten die vielfältigen mikrobiellen Reaktionen auf die Erwärmung und sind für die Vorhersage der Auswirkungen des Bodenmikrobioms auf die zukünftige Kohlenstoffdynamik von entscheidender Bedeutung.

Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Andreas Richter
Zentrum für Mikrobiologie und Umweltsystemwissenschaft (CeMESS), Universität Wien
1030 Wien, Djerassiplatz 1 (UBB)
+43-1-4277-91260
andreas.richter@univie.ac.at
www.univie.ac.at

Originalpublikation in Science Advances:
Metze D., Jörg Schnecker J., Le Noir de Carlan C., Bhattarai B., Verbruggen E., Ostonen I., Janssens I., Sigurdsson B., Hausmann B., Kaiser C., Richter A. Soil warming increases the number of growing bacterial taxa but not their growth rates.
DOI: 10.1126/sciadv.adk6295
https://doi.org/10.1126/sciadv.adk6295

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Innovatives Lernkonzept soll Lust auf Natur machen – Förderung für Wuppertaler Biolog*innen

Studierenden auf innovative Weise naturwissenschaftliche Kenntnisse näherbringen, das ist die Idee des im April 2024 startenden Projekts „Kollaborativ Biodiversität erleben“ (KollaBio). Prof. Dr. Angelika Preisfeld und Dr. Nadine Domröse vom Wuppertaler Lehrstuhl für Biologie und ihre Didaktik / Zoologie setzen dabei insbesondere auf die Förderung selbstgesteuerten Lernens.

„Ziel des Projekts ist es, der schwindenden naturwissenschaftlichen Kenntnis und dem sinkenden Interesse an der Natur entgegenzuwirken. Durch ein innovatives, offenes Kurs- und Raumkonzept sollen Artenkenntnis, Selbstlernkompetenz und positive Selbstkonzepte von Biologie-Studierenden gefördert werden“, erklärt Nadine Domröse. Dazu sei es besonders wichtig, die Studierenden auch aktiv an der Kursentwicklung zu beteiligen.

Umgesetzt wird das im Projekt KollaBio durch digital-gestütztes und selbstgesteuertes Lernen in Form von freiem Forschen in der Gemeinschaft. Konkret heißt das: Den Studierenden wird ein innovativ ausgestatteter Co-Working Lernraum, das sogenannte CoBioHub, zur Verfügung gestellt, in dem sie an ihren Forschungsprojekten arbeiten können. „Die Idee ist, dass die Studierenden in einem selbstgewählten Habitat Daten erheben und daraus kooperativ und lösungsorientiert ökologische Zusammenhänge und Wechselwirkungen ableiten. Und das in Teams und im engen Austausch mit den Kommiliton*innen“, so Dr. Domröse weiter. Die Ergebnisse sollen anschließend auf einer interaktiven webbasierten Karte festgehalten werden. Ziel ist es, die Relevanz der Organismen für die Natur zu verdeutlichen und Empathie bei den Studierenden zu fördern. Das Konzept wird evaluiert und soll anschließend in weiteren Kursen implementiert werden.

Das Projekt „Kollaborativ Biodiversität erleben“ der Wuppertaler Biologinnen Prof. Dr. Angelika Preisfeld und Dr. Nadine Domröse konnte in der aktuellen Förderrunde des Programms „Freiraum“ der Stiftung Innovation in der Hochschullehre überzeugen und erhält eine Förderung von rund 216.000 Euro.

Wissenschaftliche Ansprechpartner:
Dr. Nadine Domröse
Fakultät für Mathematik und Naturwissenschaften
E-Mail domroese@uni-wuppertal.de

(nach oben)


Dringend benötigt: Neue Strategien zur Risikobewertung genotoxischer Substanzen

Die Risikobewertung erbgutschädigender (genotoxischer) Stoffe ist eine Herausforderung. Eigentlich sollten solche Stoffe in Lebensmitteln oder Verbraucherprodukten überhaupt nicht vorkommen, da sie die Gesundheit beeinträchtigen und zum Teil Krebs auslösen können. Allerdings lässt sich ein Vorkommen nicht immer vermeiden, etwa weil eine Substanz in der Umwelt weit verbreitet ist oder sie natürlicherweise in einem Lebensmittel steckt – wenn auch oft nur in geringen Mengen. Die Risikobewertung steht vor der Frage, wie man aus den vorhandenen Daten und Fakten ableitet, welche Menge eines Stoffes nach Stand der Wissenschaft in einem Lebensmittel oder einem Produkt noch vertretbar ist.

Unterschiedliche Ansätze zur Risikobewertung genotoxischer Substanzen diskutieren internationale Experten auf einem vom Bundesinstitut für Risikobewertung (BfR) organisierten Symposium vom 26. bis zum 28. Februar 2024 in Berlin. „Wir wollen mit diesem Treffen zu einer Weiterentwicklung der etablierten Bewertungskonzepte und auch zur Harmonisierung der Risikobewertungsmethoden verschiedener nationaler und internationaler Institutionen beitragen“, erläutert BfR-Präsident Professor Andreas Hensel. „Das ist auch eine wesentliche Voraussetzung für eine klare und zielführende Risikokommunikation.“

Stoffe, die erwiesenermaßen genotoxisch wirken, werden in der EU nicht zugelassen, etwa als Wirkstoffe in Pestiziden oder als Zusatzstoffe für Lebensmittel. Dennoch finden erbgutschädigende Substanzen ihren Weg in den menschlichen Körper: Manche von ihnen sind beispielsweise in der Umwelt weit verbreitet und können beim Anbau von Nahrungsmitteln in diese übergehen. Ein Beispiel ist anorganisches Arsen, das aus Böden und Grundwasser in Reis übergehen kann. Andere genotoxisch wirkende Stoffe können bei der Herstellung und Zubereitung von Lebensmitteln entstehen oder durch Mikroorganismen im bzw. auf Lebensmitteln gebildet werden. Hierzu zählen zum Beispiel die von Schimmelpilzen (v. a Aspergillus flavus und Aspergillus parasiticus) gebildeten Aflatoxine, die zu den stärksten in der Natur vorkommenden krebserzeugenden Stoffen gehören. Außerdem können Aflatoxine das Erbgut schädigen.

Genotoxische Stoffe, die direkt mit der DNA reagieren und auf diese Weise das Erbgut schädigen, sind für die Risikobewertung eine Herausforderung, weil nach derzeitigem wissenschaftlichem Kenntnisstand schon geringe Konzentrationen potentiell gesundheitsschädlich sein können. Daher können für diese Substanzen bislang keine gesundheitsbasierten Richtwerte festgelegt werden, bei deren Einhaltung gesundheitliche Risiken mit hinreichender Wahrscheinlichkeit auszuschließen sind. Kontaminationen mit DNA-reaktiven genotoxisch wirkenden Substanzen, wie z.B. mit Aflatoxinen, lassen sich nicht immer vermeiden. Daher wird in dieser Situation im Rahmen des Risikomanagements das ALARA-Prinzip (as low as reasonably achievable) angewendet. Der Gehalt einer genotoxischen Substanz soll danach so weit verringert werden, wie dies mit vertretbarem (technologischen) Aufwand möglich ist.

Um Prioritäten beim Risikomanagement setzen zu können und um eine bessere Einschätzung der tatsächlichen gesundheitlichen Risiken zu ermöglichen, sind allerdings quantitative Angaben wünschenswert – also etwa die Angabe, bis zu welcher Aufnahmemenge nach derzeitigem Wissen nur ein geringes Risiko von Beeinträchtigungen besteht.

Auf dem Symposium werden nach einleitenden Vorträgen unterschiedliche Aspekte im Rahmen der Bewertung von genotoxischen Stoffen in vier Workshops ausführlich diskutiert, und während einer Podiumsrunde am Ende der Veranstaltung Perspektiven für zukünftige Konzepte erörtert. Erwartet werden vor Ort rund 150 Fachleute aus Forschung, Industrie und von Behörden – darunter nationale und internationale Organisationen wie die Europäische Chemikalienagentur (ECHA), die Europäische Behörde für Lebensmittelsicherheit (EFSA) und das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM). Darüber hinaus werden zahlreiche Online-Teilnehmende erwartet.

Alle Vorträge sowie die abschließende Podiumsdiskussion können im Live-Stream verfolgt werden. Die Zugangsdaten finden Sie hier:
https://www.bfr-akademie.de/english/events/gentox2024.html

Link zum Programm des Symposiums:
https://www.bfr-akademie.de/media/wysiwyg/2024/gentox2024/GenTox2024_programme.p…

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

(nach oben)


Kunststoff-Abbau dank Eiweiß-Anker

Peptid mit Kobalt-Komplex oxidiert Polystyrol-Mikropartikel
Polystyrol ist sehr verbreiteter Kunststoff, der im Gemisch mit anderen Materialien kaum wiederverwertbar und nicht bioabbaubar ist. In der Zeitschrift Angewandte Chemie stellt ein deutsches Forschungsteam einen Biohybrid-Katalysator vor, der Polystyrol-Mikropartikel oxidiert, um einen anschließenden chemischen Abbau zu erleichtern. Der Katalysator besteht aus einem speziell konstruierten „Ankerpeptid“, das auf Polystyrol-Oberflächen haftet, und einem Kobalt-Komplex, der das Polystyrol oxidiert.

Polystyrol kommt – allein oder im Verbund mit anderen Polymeren – in vielen Anwendungen vor, vom Joghurtbecher bis zum Gerätegehäuse. In seiner besonders unter dem Handelsnamen „Styropor“ bekannten, geschäumten Form, wird es z.B. zur Wärmedämmung und als Verpackungsmaterial eingesetzt. Ein großer Nachteil von Polystyrol ist seine schlechte biologische Abbaubarkeit, was zu Umweltverschmutzung führt. Sortenrein und sauber ist Polystyrol gut recycelbar, nicht aber verschmutzt oder im Gemisch oder im Verbund mit anderen Materialien. In kommunalen Recyclingprogrammen können gemischte Polystyrol-Kunststoffabfälle und Abbauprodukte wie Polystyrol-Nano- und -Mikropartikel nur schwer verwertet werden. Das Problem: Polystyrol ist wasserabweisend und unpolar und kann daher mit vielen gängigen polaren Reaktanden nicht reagieren.

Für ein einfaches, kostengünstiges, energieeffizientes Verfahren zum Abbau gemischter Polystyrol-Abfälle müsste das Polystyrol zuallererst mit polaren funktionellen Gruppen ausgestattet werden. Das Team um Ulrich Schwaneberg und Jun Okuda von der RWTH Aachen hat jetzt einen neuartigen biohybriden Katalysator für diesen Schritt entwickelt. Er basiert auf sog. Ankerpeptiden und einem Kobalt-Komplex.

Ankerpeptide sind kurze Eiweißketten, die auf Oberflächen haften können. Das Team hatte ein spezielles Ankerpeptid entwickelt (LCI, “liquid chromatography peak I”), das an Polystyrol-Oberflächen bindet. Ein Gramm des Peptids reicht, um eine Oberfläche bis zu 654 m2 innerhalb von Minuten in Form einer Monoschicht durch Besprühen oder Eintauchen zu bedecken.

Über ein kurzes Verbindungsstück wird das Ankerpeptid an einen katalytisch aktiven Kobaltkomplex geknüpft. Das Kobaltatom wird dabei von einem makrozyklischen Liganden „eingefasst“, einem Ring aus acht Kohlenstoff- und vier Stickstoffatomen (TACD, 1,4,7,10-Tetraazacyclododekan). Der Katalysator ist in der Lage, C–H-Bindungen von Polystyrol-Mikropartikeln mit Oxone (Kaliumperoxomonosulfat), einem gängigen Oxidationsmittel, zu oxidieren und so polare OH-Gruppen einzubauen (Hydroxylierung). Die Ankerpeptide können Material-spezifisch an Oberflächen binden und über diese orientiere Immobilisierung das katalytisch aktive Kobalt nah an die Polystyrol-Oberfläche bringen und so die Reaktion beschleunigen. Der einfache, kostengünstige und energieeffiziente Ansatz ist über Tauch- und Sprühapplikationen skalierbar und für den technischen Maßstab geeignet.

Das Hybridkatalysator-Konzept mit Material-spezifischer Anbindung über Ankerpeptide könnte über konjugierte chemische Katalysatoren den Material-spezifischen Abbau weiterer hydrophober Polymere, wie Polypropylen oder Polyethylen, ermöglichen, die mittels Enzymen nicht ökonomisch abbaubar sind.

Angewandte Chemie: Presseinfo 02/2024

Autor/-in: Jun Okuda, Rheinisch-Westfälische Technische Hochschule Aachen (Germany), https://www.okuda.ac.rwth-aachen.de/go/id/yuxkx/

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202317419

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Der Ozean als Verbündeter im Klimaschutz: Wie beeinflusst marine Alkalinitätserhöhung das Leben im Meer?

In einem heute beginnenden mehrwöchigen Experiment unter Leitung des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel untersuchen Wissenschaftler:innen, inwieweit der Eintrag von Gesteinsmehl dem Ozean helfen kann, Kohlendioxid aus der Atmosphäre aufzunehmen und den Klimawandel zu mindern. Dafür verankern sie zwölf abgeschlossene Versuchstanks im Wasser am Anleger vor dem Kieler Aquarium. Mit Hilfe kontrollierter Versuche möchten sie besser abschätzen, welche Auswirkungen die Gesteinsmehl-Zugabe auf die Meeresumwelt hat. Die Versuchsreihe ist die erste von dreien, die 2024 im Rahmen des internationalen Projekts Ocean Alk-Align in der Förde stattfinden.

Das im Pariser Klimaabkommen erklärte Ziel, die globale Klimaerwärmung auf möglichst unter 1,5 Grad Celsius zu begrenzen und damit verbundene Risiken des Klimawandels zu reduzieren, ist eine Generationenaufgabe, die nicht allein durch Reduzierung von Treibhausgas-Emissionen zu bewältigen ist. Zusätzlich müssen auch Maßnahmen in Betracht gezogen werden, um Kohlendioxid (CO2) aus unvermeidlichen Restemissionen aktiv aus der Atmosphäre zu entfernen. Einer der aktuell diskutierten Ansätze ist die marine Alkalinitätserhöhung: Eine Zugabe von Mineralien soll die Kapazität des Meerwassers steigern, Säure zu binden und Kohlendioxid aus der Atmosphäre aufzunehmen. Sie kann gleichzeitig der Ozeanversauerung entgegenwirken, einer Veränderung in der Ozeanchemie, unter der vor allem kalkbildende Organismen leiden. Die Alkalinitätserhöhung ahmt die Verwitterung von Gestein nach. Während dieser Prozess in den vergangenen Jahrmilliarden das Erdklima weitgehend stabil gehalten hat, ist der durch den Menschen verursachte Kohlendioxid-Eintrag etwa hundertmal zu schnell, um durch natürliche Verwitterung ausgeglichen zu werden. Daher sollen Studien zeigen, inwiefern sich der Effekt der Verwitterung entsprechend beschleunigen lässt.

Wie beeinflusst der gezielte Eintrag von Mineralien das Leben an der Basis des marinen Nahrungsnetzes? Wie reagieren Mikroalgen, Kleinkrebse und anderes Plankton? Wie ändern sich die Stoffkreisläufe im Meer? Ein heute beginnendes Experiment unter Leitung des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel hilft, diese und weitere offene Fragen zu klären. Es ist das erste von drei mehrwöchigen Experimenten, die zu verschiedenen Jahreszeiten in der Kieler Förde durchgeführt werden. Die Arbeiten finden im Rahmen des internationalen Projekts Ocean Alk-Align statt, welches von der Universität Dalhousie in Halifax, Kanada, koordiniert wird.

Für ihre Untersuchungen installieren Forschende an der Pier vor dem Kieler Aquarium eine schwimmende Versuchsanlage: Zwölf in sich abgeschlossene Tanks, sogenannte Mesokosmen, isolieren jeweils 8.000 Liter Fördewasser mitsamt dem darin enthaltenen pflanzlichen und tierischen Plankton. Die Umweltbedingungen in den Mesokosmen sind dieselben wie im Meer – ein Wasseraustausch findet jedoch nicht statt. Fünf Mesokosmen werden mit Löschkalk (Weißkalkhydrat, Kalziumhydroxid) und fünf mit Brucit (Magnesiumhydroxid) in jeweils unterschiedlichen Mengen versetzt. Je ein Mesokosmos pro Versuchsreihe bekommt keine Mineralzugabe und dient als Kontrolle. Anders als in früheren Experimenten werden die Mineralien nicht als Lösung, sondern als Gesteinsmehl hinzugegeben, was der wahrscheinlichsten Anwendungsform in großem Maßstab entspricht. Etwa einen Monat lang laufen regelmäßige Probennahmen, Messungen und Analysen, um das Wachstum von Mikroalgen, die Entwicklung des Zooplanktons und zahlreiche andere Prozesse zu überwachen.

„Vor dem Hintergrund, dass immer mehr Start-Ups entstehen, deren Geschäftsmodell auf dem Verkauf von CO2-Zertifikaten durch Alkalinitätserhöhung im Ozean beruht, besteht dringender Forschungsbedarf zu möglichen Risiken für das Leben im Meer“, erklärt Professor Dr. Ulf Riebesell. Der Leiter der Forschungseinheit Biologische Ozeanographie am GEOMAR koordiniert die Studie gemeinsam mit Dr. Kai Schulz, Gastwissenschaftler der Universität Southern Cross, Australien. „Ziel unserer Forschung ist, eine wissenschaftlich fundierte Entscheidungsgrundlage für den möglichen Einsatz von Alkalinitätserhöhung zur aktiven CO2-Entfernung zu schaffen.“ Andere derzeit erforschte Ansätze zur ozeanbasierten Kohlendioxid-Entnahme sind etwa die Renaturierung von Seegraswiesen, die Kultivierung von Makroalgen oder die Speicherung von Kohlendioxid im Meeresboden (Carbon Capture and Storage, CCS). Welche Maßnahmen letztlich zum Einsatz kommen, muss in einem gesamtgesellschaftlichen Prozess zur Minderung des Klimawandels entschieden werden.

„Dies ist die erste Studie zur Alkalinitätserhöhung, die sich mögliche saisonale Effekte anschaut. Es ist auch die erste, die mit Gesteinsmehl und nicht schon vorgelöster Alkalinität arbeitet. Wir sind sehr gespannt auf die entsprechenden Erkenntnisse“, sagt Dr. Kai Schulz.

An der Serie von Experimenten beteiligt sind 36 Forschende von einer Vielzahl von Forschungseinrichtungen in Deutschland, Europa, den Vereinigten Staaten von Amerika, Kanada, Australien und Asien.

„Das aktuelle Experiment und die Zusammenarbeit mit internationalen Partnern stärkt die Expertise der Kieler Meeresforschung zu marinen Kohlenstoffspeichermöglichkeiten für den Klimaschutz“, betont Professorin Dr. Katja Matthes, Direktorin des GEOMAR. „Es betrachtet einen von mehreren derzeit erörterten Ansätzen zur Kohlendioxidaufnahme im Ozean und trägt damit wichtiges Wissen zur gesellschaftlichen und politischen Entscheidungsfindung bei. Damit ergänzt es auch Erkenntnisse, die in der am GEOMAR koordinierten Forschungsmission ‚Marine Kohlenstoffspeicher als Weg zur Dekarbonisierung‘, CDRmare, der Deutschen Allianz Meeresforschung gewonnen werden.“

Hintergrund: Ocean Alk-Align
Ocean Alk-Align ist ein Forschungsprojekt, das die Effizienz und Beständigkeit, die Umweltsicherheit und Anforderungen an die Überwachung, Berichterstattung und Verifizierung (Monitoring, Reporting, and Verification, MRV) der marinen Alkalinitätserhöhung ergebnisoffen untersucht. Koordiniert wird es von der Universität Dalhousie, Kanada. Beteiligt sind außerdem das GEOMAR sowie die Universität Hamburg und die Universitäten Southern Cross und Tasmanien, Australien. Das Projekt wird von der „Carbon to Sea“-Initiative aus den Vereinigten Staaten von Amerika gefördert.

Weitere Informationen:
https://alkalign.ocean.dal.ca Projekt Ocean Alk-Align
https://www.geomar.de/der-ozean-als-klimaschuetzer/kohlenstoffaufnahme-im-ozean/… GEOMAR Entdecken: Marine Alkalinitätserhöhung (Umfangreiche Hintergrundinformationen)
https://storymaps.arcgis.com/stories/2a51d96684cc42169a82a8da8a7f0b2b Storymap „Wie reagiert das Leben im Meer? Experimente zur Alkalinitätserhöhung des Ozeans“

(nach oben)


Das Hepatitis-E-Virus – Neue Erkenntnisse zur gezielten Behandlung und Diagnose

Das Hepatitis-E-Virus (HEV) ist die häufigste Ursache für eine akute, virusbedingte Leberentzündung (Virushepatitis). Jährlich gibt es circa 15 bis 110 Millionen aktive Erkrankungen weltweit, die zu etwa 70.000 Todesfällen führen. In Europa gibt es keine zugelassenen Impfstoffe gegen HEV. Derzeitige Therapeutika sind nicht spezifisch, weisen starke Nebenwirkungen auf und können zu Resistenzen führen. Ein Forschungsteam des Paul-Ehrlich-Instituts hat bestimmte Vesikelstrukturen und Proteine identifiziert, die Ziele für eine Behandlung sein könnten und zu einem neuen Verständnis der Weitergabe des viralen Erbgutes auch im Hinblick auf Diagnostik beitragen.

Häufige Symptome einer Leberentzündung durch Hepatitis-E-Viren (HEV) sind u. a. Fieber, Bauchschmerzen, blasser Stuhl, Übelkeit und Gelbsucht. Zu den Risikogruppen dieser Infektion gehören Personen mit geschwächtem Immunsystem (Immunsupprimierte) sowie schwangere Frauen. Immunsupprimierte leiden häufig an chronischen Infektionen, was häufig im globalen Norden der Fall ist. Schwangere durchlaufen nicht selten einen schweren Krankheitsverlauf (fulminante Hepatitis), was mit Sterblichkeitsraten von bis zu 30 Prozent verbunden ist und primär im globalen Süden auftritt. Die geografischen Unterschiede lassen sich dadurch erklären, dass in den nördlichen Regionen vorwiegend zoonotische, durch Lebensmittel übertragene HEV-Stämme (Genotyp 3 und 4) zirkulieren, während in den südlichen Regionen vor allem durch Wasser übertragene Genotypen 1 und 2 vorkommen.

Bisher gibt es in Europa keine zugelassenen Impfstoffe gegen HEV. Zwar gibt es Arzneimittel, die bei Infektionen eingesetzt werden, aber die Behandlungsmöglichkeiten sind nach wie vor begrenzt und mit starken Nebenwirkungen oder einer Resistenzentwicklung verbunden. Dies ist auch auf ein mangelndes Verständnis großer Teile des viralen Lebenszyklus zurückzuführen.

Virales Polyprotein pORF1 – zentral für die Vermehrung des viralen Erbguts und dennoch fast unbekannt
Die Vervielfältigung der genetischen Informationen von HEV (Genomreplikation) wird über das virale Polyprotein pORF1 vermittelt. Das Protein besteht aus verschiedenen Bereichen oder Domänen. Eine Proteindomäne ist eine stabil gefaltete Struktur innerhalb eines Proteins, die funktional und strukturell unabhängig von benachbarten Proteinabschnitten ist. pORF1 ist das zentrale Protein für die Replikation (Replikase), das heißt für die Vervielfältigung der genetischen Information des Virus. Wenig ist jedoch ansonsten über pORF1 bekannt, auch nicht seine genaue Lokalisation innerhalb infizierter Zellen.

Forscherinnen und Forscher um Dr. Mirco Glitscher in der Arbeitsgruppe von Prof. Eberhard Hildt, Leiter der Abteilung Virologie des Paul-Ehrlich-Instituts, haben sich mit dieser wichtigen Unbekannten des HEV beschäftigt. Hierzu wurde die subzelluläre Lokalisierung von pORF1 und dessen einzelner Domänen, die auf der Grundlage einer Strukturvorhersage der viralen Replikase generiert und kloniert worden waren, mithilfe der konfokalen Laser-Scanning-Mikroskopie analysiert. Die aus den Zellen freigesetzten Exosomen wurden darüber hinaus durch Ultrazentrifugation isoliert und durch isopyknische (Trennung nach gleicher Dichte) Dichtegradientenzentrifugation analysiert. Anschließend wurden die abgetrennten Partikel durch Fluorimetrie, Western-Blot-Analysen oder RT-qPCR genauer untersucht.

Das Vesikelsystem als Dreh- und Angelpunkt der Virusvermehrung
Das Forschungsteam stellte fest, dass sich pORF1 im Vesikelsystem der Zelle – dem endosomalen System – anreichert und hier vor allem in den sogenannten multivesikulären Körpern (multivesicular bodies, MVBs). Diese Strukturen sind zentral für die Bildung von Exosomen und wurden bisher nur als Wirtstruktur zur Freisetzung von Viruspartikeln des HEV angesehen. Dass auch die virale Replikase hier zu finden ist, wurde als abhängig von einer pORF1-Domäne, der PCP (papainähnliche Cystein-Protease) identifiziert. Das Forschungsteam hat jetzt herausgefunden, dass auch die virale Replikase über Exosomen freigesetzt wird. Dieser Prozess wird durch die virale Protease, die Teil der Replikase ist, vermittelt. Auch führt dies dazu, dass Virusgenome sogar in Abwesenheit von Viruspartikeln über diesen Weg freigesetzt werden.

Gemeinsame Freisetzung für schnelle Vermehrung
Die Ergebnisse weisen darauf hin, dass pORF1 in einer PCP-abhängigen Weise in MVBs gelangt, woraufhin die exosomale Freisetzung folgt. Möglicherweise sind also die Freisetzung des Virus und die Replikation, die Vervielfältigung der genetischen Informationen, räumlich gekoppelt. Dies könnte die Ausbreitung der viralen Infektion erleichtern, da Genome, die während einer Neuinfektion in die Zelle gelangen, schnell auf exosomal übertragenes pORF1 treffen und vervielfältigt werden können. Außerdem weisen die erhobenen Daten darauf hin, dass das Kapsid nicht zwangsläufig zur Freisetzung von Erbgut benötigt wird.

Die Exosomen und damit in Verbindung stehende Proteinstrukturen könnten geeignete Angriffspunkte für Therapeutika gegen HEV sein, weil so gegebenenfalls der Zellaustritt und die Vermehrung unterbunden werden könnten. Für die Diagnostik hat die kapsidunabhängige Freisetzung der HEV-Genome durchaus Auswirkungen, da bisher eine Korrelation von Viruspartikelmenge und Virusgenomen angenommen wird. Dass genomische RNA jedoch auch ohne Kapsid in Exosomen vorliegen kann, muss auf Relevanz diagnostischer Verfahren überprüft werden.

Originalpublikation:
Glitscher M, Spannaus IM, Behr F, Murra RO, Woytinek K, Bender D, Hildt E (2024): The protease domain in HEV pORF1 mediates the replicase’s localization to multivesicular bodies and its exosomal release.
Cell Mol Gastroenterol Hepatol Jan 6 [Epub ahead of print].
DOI: 10.1016/j.jcmgh.2024.01.001

Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/38190941/ – Volltext (Open Access) des Artikels
https://www.pei.de/DE/newsroom/pm/jahr/2024/01-hepatitis-e-virus-neue-erkenntnis… – Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts

(nach oben)


Elektrifizierung oder Wasserstoff? Beide haben unterschiedliche Rollen in der europäischen Energiewende

Ein entscheidender Schritt auf dem Weg zur Klimaneutralität in der Europäischen Union ist der rasche Umstieg von fossilen Brennstoffen auf elektrische Technologien, die mit Strom aus erneuerbaren Energien betrieben werden. Gleichzeitig wird aus Strom erzeugter Wasserstoff in schwer zu elektrifizierenden Bereichen wie der Luftfahrt, der Schifffahrt und der Chemie unverzichtbar sein. Bis 2050 sind Elektrifizierung und Wasserstoff die Schlüsselstrategien, um Klimaneutralität zu erreichen. Forschende des Potsdam-Instituts für Klimafolgenforschung (PIK) haben ihre Rolle in modellierten Szenarien für die künftige EU-Transformation untersucht.

Ihre Studie zeigt: Bis 2050 ist ein Anteil von 42 bis 60 Prozent des Gesamtenergieverbrauchs aus Strom und 9 bis 26 Prozent aus wasserstoffbasierter Energie erforderlich.

„Frühere Forschungsarbeiten haben bereits gezeigt, dass unser Energiesystem kostengünstig und umweltschonend auf erneuerbare Energiequellen wie Wind und Sonne umgestellt werden kann. Die Frage ist, wie dieser erneuerbare Strom genutzt werden kann, um die Nutzung fossiler Brennstoffe in Gebäuden, im Industrie- und im Verkehrssektor zu ersetzen. Unsere Analyse zeigt, dass die direkte Nutzung von Strom, zum Beispiel durch Elektroautos und Wärmepumpen, für viele Sektoren ganz entscheidend ist, während die Umwandlung von Strom in Wasserstoff nur für wenige Anwendungen wichtig ist“, sagt Leitautor Felix Schreyer.

Erstmals buchstabiert die in der Zeitschrift „One Earth“ veröffentlichte Studie das Zusammenspiel von Elektrifizierung und Wasserstoff in EU-Klimaneutralitätsszenarien in den einzelnen Sektoren detailliert aus. Mit Hilfe des Energie-Ökonomie-Modells REMIND untersuchten die PIK-Forschenden plausible Kombinationen beider Strategien in den Transformationspfaden des EU-Energiesystems in verschiedenen Szenarien. Die Analyse zeigt höhere Potenziale für die Elektrifizierung und beschreibt einen begrenzteren Einsatzbereich für wasserstoffbasierte Energie als frühere Studien.

Über alle Szenarien hinweg ist die direkte Nutzung von Strom die dominierende Strategie etwa für Autos oder beim Heizen von Gebäuden und in der Industrie. Wasserstoff und synthetische Kraftstoffe aus Strom werden vor allem für die Luftfahrt, die Schifffahrt, die chemische Industrie und als Stromspeicher benötigt. Elektrifizierung und Wasserstoff ergänzen sich im Gesamtenergiemix somit weitgehend, während sie um einen geringen Anteil von etwa 15 Prozent der Endenergie konkurrieren. Das betrifft vor allem Sektoren wie den LKW-Verkehr und die industrielle Hochtemperatur-Prozesswärme.

Drei Eckpfeiler für eine erfolgreiche Transformation: Ausbau vorantreiben, Hindernisse abbauen und Anreize setzen
„Der Ausbau der Stromerzeugung aus erneuerbaren Energien und die Umstellung auf elektrische Technologien, wo immer dies möglich ist, ist bei weitem der schnellste und billigste Weg, um die Kohlenstoffemissionen in den meisten Sektoren zu senken. Wir gehen daher davon aus, dass der Anteil von Strom am Endenergieverbrauch von 20 Prozent auf 42 bis 60 Prozent bis 2050 steigen muss, um Klimaneutralität in der EU zu erreichen“, sagt Studienautor Gunnar Luderer, Leiter der Gruppe Energiesysteme am PIK. Ursache hierfür ist, dass elektrische Technologien zunehmend verfügbar sind und Strom sehr effizient nutzen, während die Umwandlung in Wasserstoff und synthetische Brennstoffe und deren Verbrennung mit erheblichen Energieverlusten verbunden sind. Insgesamt steigt die Stromnachfrage in der EU in den Szenarien bis 2050 um 80 bis 160 Prozent, je nach Umfang der Wasserstoffimporte und der Rolle der Elektrifizierung und des Wasserstoffs in unsicheren Sektoren. Bis dahin müsste somit etwa doppelt so viel Strom erzeugt werden wie heute.

Die Forschenden diskutieren auch den aktuellen Stand der EU-Politik in Bezug auf Elektrifizierung und Wasserstoff und skizzieren drei kritische Eckpfeiler für eine erfolgreiche Transformation: Die Politik sollte 1) der Elektrifizierung bzw. dem Wasserstoff in den Sektoren Vorrang einräumen, in denen sie in allen Szenarien bevorzugt werden, 2) Hindernisse für den Ausbau der erneuerbaren Energien beseitigen und 3) Anreize für den Ausbau von Wasserstoffversorgungsketten schaffen.

„Unsere Studie unterstreicht, dass politische Entscheidungsträger die unterschiedlichen sektoralen Rollen beider Strategien berücksichtigen sollten, indem sie die Elektrifizierung durch elektrische Anwendungen für den Straßenverkehr und das Heizen fördern. Wasserstoff und synthetische Kraftstoffe sollten hingegen für Anwendungen priorisiert werden, in denen sie unverzichtbar sind“, sagt Studienautor Falko Ueckerdt.

Originalpublikation:
Artikel: Felix Schreyer, Falko Ueckerdt, Robert Pietzcker, Renato Rodrigues, Marianna Rottoli, Silvia Madeddu, Michaja Pehl, Robin Hasse and Gunnar Luderer (2024): Distinct Roles of Direct and Indirect Electrification in Pathways to a Renewables-dominated European Energy System. One Earth. [DOI: 10.1016/j.oneear.2024.01.015]

Weitere Informationen:
https://www.cell.com/one-earth/fulltext/S2590-3322(24)00037-X – Weblink zum Artikel, sobald er veröffentlicht ist

(nach oben)


Chemische Reaktionen auf der Wasseroberfläche

Forschende der Universität Regensburg unter der Leitung von Prof. Dr. Burkhard König, Institut für Organische Chemie, haben eine neue Synthesemethode entwickelt: Lichtreaktion auf einer Wasseroberfläche erlaubt chemische Synthesen ohne Verwendung organischer Lösemittel oder anderer Reaktionszusätze. Dadurch wird die Herstellung chemischer Produkte effizienter und umweltfreundlicher. Die Ergebnisse der jahrelangen Forschung wurden jetzt im international renommierten Fachmagazin Science veröffentlicht.

Durch das Knüpfen chemischer Bindungen zwischen Atomen werden komplexe Moleküle, wie sie für Medikamente, Pflanzenschutzmittel oder Hochleistungsmaterialien benötigt werden, durch Synthesechemie aufgebaut. Für solche Synthesereaktionen werden typischerweise organische Lösemittel, Metallkatalysatoren und Reagenzien, wie Säuren oder Laugen benötigt. Nicht immer können alle Hilfsstoffe und Lösemittel recycelt werden, so dass Abfall entsteht.

Forschende der Universität Regensburg unter der Leitung von Prof. Dr. Burkhard König, Institut für Organische Chemie, präsentieren nun einen ganz anderen Weg zur Synthese komplexer Moleküle: Die zu verknüpfenden Reaktionspartner werden auf eine Wasseroberfläche aufgebracht, wo sie einen dünnen Film bilden. Durch Bestrahlung mit violettem Licht wird eine Reaktion ausgelöst, die beide Reaktionspartner verknüpft. Die neue Methodik nutzt die Filmbildung wasserunlöslicher organischer Moleküle auf der Wasseroberfläche (wie ein Ölfilm auf einer Pfütze) aus, um ideale Bedingungen für die Aktivierung durch Licht zu erzeugen. An über 160 Beispielen wurde die Anwendungsbreite der Technik gezeigt, wobei auch Vorstufen von Arzneimitteln synthetisiert wurden.

Die Lichtreaktion auf der Wasseroberfläche erlaubt nun chemische Synthesen ohne Verwendung organischer Lösemittel oder anderer Reaktionszusätze. Dadurch wird die Herstellung chemischer Produkte effizienter und umweltfreundlicher.

Die Ergebnisse der jahrelangen Forschung wurden jetzt im international renommierten Fachmagazin Science veröffentlicht.

Das Projekt läuft seit etwa zwei Jahren. In dieser Zeit wurden zahlreiche Experimente durchgeführt, um die zentrale Entdeckung weiterzuentwickeln und zu bestätigen. Die Übertragung der Reaktion in einen Durchflussreaktor war ein Durchbruch, da so die Synthese kontinuierlich betrieben werden kann und auch größere Substanzmengen zugänglich sind. Spektroskopische Messungen gaben zudem einen Einblick in den molekularen Mechanismus der Reaktion. In Folgearbeiten wird die Synthesetechnik nun auf andere Reaktionen angewandt, um eine möglichst große Anwendungsbreite in der Herstellung chemischer Produkte zu erreichen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Burkhard König
Institut für Organische Chemie
Universität Regensburg
Tel.: +49 941 943-4576
burkhard.koenig@ur.de
https://www.uni-regensburg.de/chemie-pharmazie/organische-chemie-koenig/startsei…

Originalpublikation:
Ya-Ming Tian, Wagner Silva, Ruth M. Gschwind, Burkhard König, “Accelerated photochemical reactions at oil-water interface exploiting melting point depression”, Science, 15 Feb 2024, Vol 383, Issue 6684, pp. 750-756, DOI: 10.1126/science.adl3092

Weitere Informationen:
https://doi.org/10.1126/science.adl3092

(nach oben)


Allgemeinmedizin stärkt STIKO

Wie angekündigt, hat das Bundesgesundheitsministerium (BMG) die Ständige Impfkommission (STIKO) neu besetzt. Dem Gremium gehören künftig 19 Mitglieder aus unterschiedlichen Fachbereichen an. Die Allgemeinmedizin wird durch zwei Expertinnen vertreten sein, eine davon ist Prof. Dr. Beate Müller (Universität Köln), die gleichzeitig Mitglied im geschäftsführenden Präsidium der Deutschen Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) ist.

Kürzlich hat das BMG die neuen Mitglieder der STIKO bekannt gegeben. Bis auf wenige Ausnahmen wird das Gremium neu besetzt – das BMG gab bekannt, dass die STIKO nun „jünger und interdisziplinärer“ sein werde. Außer den Bereichen Pädiatrie, Allgemeinmedizin, Arbeitsmedizin, Gynäkologie, Immunologie, Virologie, Mikrobiologie werden künftig auch die Fachbereiche Modellierung und Kommunikation vertreten sein.

Neu in das Gremium wurden auch zwei Universitätsprofessorinnen aus der Allgemeinmedizin berufen: Prof. Dr. Beate Müller, Direktorin des Instituts für Allgemeinmedizin an der Universitätsmedizin Köln und Prof. Dr. Birgitta Weltermann, Direktorin des Instituts für Hausarztmedizin am Universitätsklinikum Bonn. Beide bringen sowohl wissenschaftliche Expertise als auch praktische Erfahrung aus der Hausarztmedizin mit: Beate Müller als Leiterin der allgemeinmedizinischen Hochschulambulanz in Köln und Birgitta Weltermann aus ihrer Hausarztpraxis in Düsseldorf. Beate Müller ist darüber hinaus Mitglied im geschäftsführenden Präsidium der DEGAM.

„Wir gratulieren beiden Kolleginnen ganz herzlich zu dieser Berufung. Es ist eine Auszeichnung, zu den STIKO-Expertinnen und Experten zu gehören. Umso wichtiger, dass die evidenzbasierte Allgemeinmedizin, für die wir uns als DEGAM einsetzen, in dem Gremium erneut stark vertreten ist“, sagt Prof. Martin Scherer, Präsident der DEGAM.

Prof. Beate Müller kommentiert ihre Berufung wie folgt: „Ich freue mich sehr auf die Aufgabe. In meiner Arbeit für die STIKO werde ich mich besonders für das Thema Impfen als Prävention einsetzen. Es wird eine anspruchsvolle Aufgabe für die kommenden Jahre sein, die Prävention auf verschiedenen Ebenen zu stärken und damit zu einem nachhaltigeren Gesundheitswesen beizutragen. Es bedeutet mir viel, diese Entwicklung auch innerhalb der STIKO mitzugestalten.“

Die DEGAM begrüßt die starke Vertretung der allgemeinmedizinischen Perspektive in der neuen STIKO. „Hausärztinnen und Hausärzte gehören gemeinsam mit den Kinderärztinnen und Kinderärzten zur größten impfenden Berufsgruppe. Für diese Expertise stehen Beate Müller und Birgitta Weltermann, denen wir als DEGAM für ihre Arbeit alles Gute wünschen“, so Prof. Martin Scherer weiter.

„Zusätzlich wäre es wünschenswert gewesen, wieder eine Vertreterin oder einen Vertreter aus der Hausarztpraxis zu berufen. Die ausschließlich praktisch tätigen Kolleginnen und Kollegen können erfahrungsgemäß gerade zur Impfberatung weitere wichtige Aspekte einbringen, da sie Tag für Tag in den Praxen mit den Fragen, Bedürfnissen und teils auch Befürchtungen rund ums Impfen konfrontiert sind. Eine solche zusätzliche Berufung würde die enge Rückkoppelung von Praxis und Forschung sowie die Überprüfung der Übertragbarkeit in den Praxisalltag umfassend abbilden und steht für die Vielfalt in der wissenschaftlichen Community in der Allgemeinmedizin. Aus der Perspektive der DEGAM wäre das ein bedeutendes Signal an alle impfenden Kolleginnen und Kollegen.“

Wichtig wäre aus Sicht der DEGAM auch, die Regeln für die Berufungen transparenter zu machen. Diese Forderung hat die DEGAM bereits im November 2023, als Minister Karl Lauterbach seine Pläne zum Umbau erstmalig bekannt gegeben hatte, in die Debatte eingebracht. Gerade, wenn es um das Thema Impfen geht, sollte höchstmögliche Transparenz herrschen – schließlich haben Empfehlungen der STIKO weitreichende Implikationen.

Pressekontakt:
Natascha Hövener
Pressesprecherin
Telefon: 030 – 20 966 98 16
E-Mail: hoevener@degam.de

Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM)
Schumannstraße 9, 10117 Berlin
Präsident: Prof. Dr. med. Martin Scherer (Hamburg)
http://www.degam.de

Über die DEGAM
Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) ist eine wissenschaftliche Fachgesellschaft. Ihre zentrale Aufgabe ist es, die Allgemeinmedizin als anerkannte wissenschaftliche Disziplin zu fördern und sie als Rückgrat der Patientenversorgung weiterzuentwickeln. Die DEGAM ist Ansprechpartnerin bei allen Fragen zur wissenschaftlichen Entwicklung der Allgemeinmedizin an den Hochschulen, zur Fort- und Weiterbildung sowie zum Qualitätsmanagement. Sie erarbeitet eigene wissenschaftlich fundierte Leitlinien für die hausärztliche Praxis und beteiligt sich auch an interdisziplinären Leitlinien anderer Fachgesellschaften. Die Aktivitäten der Nachwuchsförderung sind in der Deutschen Stiftung für Allgemeinmedizin und Familienmedizin (DESAM) zusammengefasst.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Scherer, Präsident der DEGAM
E-Mail: m.scherer@uke.de

(nach oben)


DMP Chronischer Rückenschmerz: IQWiG sieht großen Aktualisierungsbedarf

DMP Chronischer Rückenschmerz: IQWiG sieht großen Aktualisierungsbedarf
Die Leitlinien-Recherche zeigt, dass zahlreiche Versorgungsaspekte bearbeitet werden sollten oder ergänzt werden könnten, manche sind im DMP Chronischer Rückenschmerz noch nicht abgedeckt. Stellungnahmen zum Vorbericht bitte bis zum 13.03.2024.

Das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) hat im Auftrag des Gemeinsamen Bundesausschusses (G-BA) die Empfehlungen aus aktuellen evidenzbasierten Leitlinien zur Behandlung von chronischen Rückenschmerzen mit den Anforderungen im Disease-Management-Programm Chronischer Rückenschmerz (gemäß der entsprechenden Richtlinie DMP-A-RL) abgeglichen. Vorläufiges Ergebnis: Das DMP Chronischer Rückenschmerz sollte aktualisiert werden.
Für den nun vorliegenden Vorbericht wertete das Wissenschaftlerteam des IQWiG mehr als 371 Empfehlungen aus neun evidenzbasierten Leitlinien aus, extrahierte diskrepante Empfehlungen und fasste diese inhaltlich zusammen. Zusätzlich werden Empfehlungen zu digitalen medizinischen Anwendungen (DiGA) unabhängig von Empfehlungsstärke und Evidenzlevel dargestellt.
Demnach weichen zahlreiche Aspekte des DMP Chronischer Rückenschmerz von den aktuellen Leitlinienempfehlungen ab und sollten aktualisiert werden. Dazu zählen beispielsweise die Diagnostik und Prüfung der Aufnahmekriterien fürs DMP, eine differenzierte Therapieplanung, therapeutische Maßnahmen mit Verlaufskontrolle und Kooperation über die Versorgungebenen hinweg sowie Schulung von Versicherten. Zudem identifizierten die Wissenschaftlerinnen und Wissenschaftler zusätzliche Versorgungsaspekte, die bisher nicht im DMP thematisiert werden.

Stellungnahmen zum Vorbericht sind möglich bis zum 13.03.2024.

Chronische Rückenschmerzen und Disease-Management-Programme
Strukturierte Behandlungsprogramme für chronisch kranke Menschen, sogenannte Disease-Management-Programme (DMPs), sollen für die Betroffenen eine Versorgung sicherstellen, die Folgeschäden und Verschlechterungen von chronischen Rückenschmerzen so weit wie möglich verhindert und die Lebensqualität verbessert. DMPs beruhen auf Erkenntnissen der evidenzbasierten Medizin und ihre inhaltlichen Anforderungen werden regelmäßig auf Aktualität hin überprüft.
Chronische Rückenschmerzen sind weit verbreitet: mit rund 16 Prozent leiden viele Erwachsene an chronischen Rückenschmerzen, Frauen häufiger als Männer. Und mit zunehmendem Alter wächst die Zahl der Betroffenen deutlich: Fast ein Viertel der Menschen ab 70 Jahren leidet an chronischen Rückenschmerzen. Gemäß der DMP-A-Richtlinie bezieht sich das DMP Chronischer Rückenschmerz auf chronische nicht-spezifische Kreuzschmerzen, deren Genese multikausal ist und denen keine eindeutige somatische Ursache zugeordnet werden kann.
Diagnose und Behandlung solcher Schmerzen sind daher komplex und erfordern eine enge Zusammenarbeit von medizinischem Personal aus unterschiedlichen Fachrichtungen und Versorgungsebenen. Deshalb ist es hilfreich, die Behandlung von Betroffenen effektiv zu steuern und unnötige Untersuchungs- und Behandlungsmaßnahmen zu vermeiden – wie im DMP Chronischer Rückenschmerz.

Zum Ablauf der Berichterstellung
Der G-BA hat das IQWiG am 12.07.2023 mit einer Leitliniensynopse zur Aktualisierung des DMP Chronische Rückenschmerzen beauftragt. In die Bearbeitung des Projekts wurde ein externer Sachverständiger eingebunden. Bei dem vorliegenden Vorbericht handelt es sich um eine vorläufige Bewertung. Stellungnahmen zu dem jetzt veröffentlichten Vorbericht sind bis zum 13.03.2024 möglich und werden nach Ablauf der Frist gesichtet. Sofern die Stellungnahmen Fragen offenlassen, werden die Stellungnehmenden zu einer mündlichen Erörterung eingeladen. Im Anschluss erstellt das IQWiG den Abschlussbericht.

Originalpublikation:
https://www.iqwig.de/projekte/v23-04.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_11…

(nach oben)


Abwasser mithilfe von Algen reinigen. TH Köln arbeitet an nachhaltiger Methode zur Aufbereitung von Deponiesickerwasser

Sie können Schadstoffe aus Abwässern aufnehmen, Kohlenstoffdioxid (CO2) binden und als Energieträger fungieren: Mikroalgen bieten großes Potenzial, um nachhaltige Lösungen für Umweltprobleme zu entwickeln. Das :metabolon Institute der TH Köln erforscht daher im Projekt „ERA3 – Phase II“, unter welchen Bedingungen Deponiesickerwasser mithilfe von Mikroalgen gereinigt werden kann. Hierfür wurde jetzt eine Pilotanlage in Betrieb genommen.

„Allein in Nordrhein-Westfalen gibt es 428 Deponien, auf denen jährlich etwa sechs Millionen Kubikmeter Deponiesickerwasser anfallen. Dabei handelt es sich um Niederschlag, der durch die Deponie sickert und dabei große Mengen an umweltschädlichen Stoffen wie Ammonium aufnehmen kann“, erklärt die Projektleiterin Prof. Dr. Miriam Sartor vom :metabolon Institute. Da ein Großteil des Sickerwassers in kommunale Kläranlagen geleitet werde, müsse es zuvor je nach Belastung unter hohem Ressourcen- und Energieaufwand aufbereitet werden.

Um diesen Prozess nachhaltiger zu gestalten, wird im Projekt „ERA³“ die Kultivierung von Mikroalgen erforscht, die wesentliche abwasserrelevante Inhaltsstoffe aufnehmen und in ihrer Biomasse speichern können. „Ein großer Vorteil der Mikroalgen ist, dass sie dabei durch Photosynthese angetrieben werden und die Aufbereitung dadurch besonders energieeffizient ist. Zudem wird durch das Wachstum der Kulturen CO2 in der Algenbiomasse gespeichert und gleichzeitig Sauerstoff produziert, was die Wasserqualität verbessert. Nicht zuletzt können die Organismen auch als Energieträger genutzt werden“, so Alexander Kuß, wissenschaftlicher Mitarbeiter im Projekt.

Im Vorgängerprojekt „ERA³ – Phase I“ (2019 bis 2021) konnte das Forschungsteam bereits nachweisen, dass Mikroalgen auch in hochbelasteten Deponiesickerwässern kultiviert werden können. Bis dahin wurden Mikroalgen überwiegend in stark verdünntem Abwasser eingesetzt. Ziel des nun gestarteten Vorhabens „ERA³ – Phase II“ ist es, im Pilotmaßstab zu ermitteln, wie die Algen als ergänzendes Verfahren in der Behandlung von Abwässern aus der Abfallwirtschaft effektiv genutzt werden können.

Besseres Wachstum und stabilere Kulturen durch Biofilme
„Bisher werden Mikroalgen im industriellen Maßstab überwiegend in suspensions-basierten Systemen kultiviert. Das bedeutet, dass die Algen gezüchtet werden, indem sie sich freischwimmend durch eine Nährlösung – im konkreten Fall Abwasser – bewegen, Nährstoffe aufnehmen, verarbeiten und wachsen. Solche Systeme sind vergleichsweise kostengünstig, leicht zu bewirtschaften und weisen moderate Wachstumsraten auf“, erklärt Sartor. Die Effizienz sei allerdings durch das in der Regel recht trübe Deponiesickerwasser begrenzt, weil die im Abwasser schwimmenden Algen nicht ausreichend dem Sonnenlicht ausgesetzt seien. Deshalb würden große, flache Becken zur Kultivierung benötigt, die sich allerdings nur schwer in die bestehende Infrastruktur zur Aufbereitung integrieren ließen.

Daher verfolgt das Projektteam einen anderen Ansatz: Die Kulturen werden in sogenannten biofilm-basierten Kultivierungssystemen angebaut. Dabei heften sich die Algenstämme an eine Oberfläche fest und wachsen dort. Da die Biofilme auf diese Weise sowohl über als auch unter der Wasseroberfläche angebracht werden können, ergeben sich neue Möglichkeiten der Anlagenplanung. Zudem konzentriert sich die Biomasse in den Biofilmen auf natürliche Weise, wodurch die Ernte und Weiterverarbeitung deutlich erleichtert wird. Auch sind die Kulturen resistenter gegenüber Stressfaktoren in extremen Lebensräumen wie belastetem Deponiesickerwasser, da sie sich in den Biofilmen besser gegenüber ihrer Umwelt abgrenzen können.

In einem ersten Schritt wurde eine Pilotanlage in Betrieb genommen, in der Mikroalgen in einem Biofilm kultiviert und Deponiesickerwasser ausgesetzt werden. Die Anlage wird nun mit Blick auf den Abbau von Nährstoffen, Stoffwechselaktivitäten anderer relevanter Mikroorganismen wie Cyanobakterien, nitrifizierende und denitrifizierende Bakterien, die Produktion und Verwertbarkeit der Biomasse sowie die Betriebskosten kontinuierlich überwacht und optimiert. „Am Ende des Projekts wollen wir fundierte Erkenntnisse darüber erhalten, ob und wie eine großtechnische Umsetzung ökologisch sinnvoll, effektiv und wirtschaftlich realisierbar ist“, sagt Sartor.

Über das Projekt
Das Forschungsprojekt „ERA3 II – Effiziente Ressourcenverwertung in Abwässern der Abfallwirtschaft mittels Algenkulturen“ („ERA³ – Phase II“) wird an der TH Köln von Prof. Dr. Miriam Sartor vom :metabolon Institute geleitet. Assoziierte Projektpartner sind Prof. Dr. Christian Wolf vom :metabolon Institute sowie Dr. Pascal Beese-Vasbender vom Bergischen Abfallwirtschaftsverband. Das Vorhaben wird vom Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) über einen Zeitraum von zwei Jahren mit 160.000 Euro gefördert.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 23.500 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de

(nach oben)


Wenn das Weltklima Schluckauf hat

Klimatische Veränderungen erfolgen meist über längere Zeiträume. In der letzten Eiszeit kam es jedoch innert weniger Jahre zu extremen Temperaturschwankungen. Forschende der Universität Basel konnten das Phänomen nun auch für die vorletzte Eiszeit belegen.

In der jüngeren Erdgeschichte, dem sogenannte Quartär, gab es immer wieder Eiszeiten und Warmzeiten. Zu welcher Zeit welches Klima herrschte, können Forschende aus der Zusammensetzung von sogenannten Klimaarchiven ableiten. Im Falle der letzten Eiszeit vor 100’000 Jahren liefern insbesondere Eisbohrkerne aus Grönland detaillierte Daten für Forschende.

Diese zeigen zum Beispiel, dass es immer wieder sprunghafte Temperaturanstiege gab. «Für Europa reden wir von plus 5 bis 10 Grad im Mittel innert 30 bis 40 Jahren. Ein Neandertaler erlebte also im Lauf seines Lebens Sprünge in der Durchschnittstemperatur von mehreren Grad», erklärt Prof. Dr. Dominik Fleitmann, Professor für Quartärgeologie an der Universität Basel. Er bezeichnet das Phänomen als «klimatischen Schluckauf».

Diese sogenannten Dansgaard-Oeschger-Events sind für die letzte Eiszeit gut dokumentiert. Die Klimaarchive aus Grönland reichen aber nur etwa 120’000 Jahre zurück. Bislang war daher unklar, ob diese Dansgaard-Oeschger-Events auch in der vorletzten Eiszeit vor 135’000 bis 190’000 Jahren auftraten. Frederick Held, Doktorand in der Forschungsgruppe von Dominik Fleitmann, konnte anhand von Isotopenmessungen an Stalagmiten zeigen, dass Dansgaard-Oeschger-Events auch in der vorletzten Eiszeit vorkamen. Er ist Erstautor der Studie, die in der Fachzeitschrift «Nature Communications» publiziert wurde.

Nordatlantik als Ursprung für Veränderungen
Die untersuchten Stalagmiten stammen aus der Sofular-Höhle in der Türkei. Sie liegt in einer Gegend, die sehr sensitiv für klimatische Ereignisse ist. Die Forschenden sprechen daher von einer Schlüsselregion. Sie ist beeinflusst von den Winden des Nordatlantiks, und das Schwarze Meer ist nur wenige Kilometer entfernt. «Wir haben anhand der Isotopenzusammensetzung in den Stalagmiten die Feuchtigkeitsquellen festgestellt, aus denen sie sich bildeten: Schwarzes Meer, Mittelmeer und Atlantik», erläutert Frederick Held.

Die Auswertungen der Stalagmiten aus der Sofular-Höhle belegen erstmals, dass Dansgaard-Oeschger-Events auch während der vorletzten Eiszeit auftraten. «Bisher war nicht bekannt, ob diese relativ kurzfristigen Temperaturereignisse in früheren Eiszeiten überhaupt vorgekommen sind», so Held. Sie traten in der vorletzten Eiszeit jedoch weniger häufig auf als während der letzten: «Die Temperaturpeaks liegen doppelt so weit auseinander, es gab also längere kalte Phasen dazwischen.»

Die Ursache für diese Temperaturschwankungen liegt im Nordatlantik: Die Zirkulation des Ozeans ist ein globales Wärmeförderband, das mal stärker, mal schwächer sein kann. «Die Zirkulation hat zum Beispiel Auswirkungen auf den Wärmeaustausch zwischen Atmosphäre und Ozean, was wiederum den Wärmehaushalt der nördlichen Hemisphäre sowie Luftströmungen und Niederschläge beeinflusst», führt Frederick Held aus. Eine Abschwächung der Zirkulation reduziere ausserdem die Menge an CO2, die der Ozean aus der Atmosphäre aufnimmt.

Diese Meeresströmungen waren in der vorletzten Eiszeit anders als in der letzten, was die unterschiedlichen Abstände zwischen den Dansgaard-Oeschger-Events erklärt. Das zeigt: Kaltzeit ist nicht gleich Kaltzeit und Warmzeit nicht gleich Warmzeit.

Die Daten aus den Stalagmiten glichen die Forschenden mit marinen Sedimentbohrkernen ab, die ebenfalls natürliche Archive für klimatische Ereignisse sind. Je mehr Puzzlesteine vorhanden sind, desto genauer wird das Bild dessen, was vor sich ging, und Rückkoppelungseffekte lassen sich feiner erfassen.

Die Mechanismen besser verstehen
Der Blick auf die beiden letzten Eiszeiten macht deutlich, wie schnell sich das Klima verändern kann. «Klimaveränderungen sind ein Motor für neue Ökosysteme», sagt Dominik Fleitmann. «Unser Traum ist es, einen kontinuierlichen Datensatz für die letzten 600’000 bis 700’000 Jahre zu erstellen und bestehende Wissenslücken zu schliessen.»

Die Auswertungen helfen, das System Erde besser zu verstehen: Welche Faktoren führen zu abrupten Klimaschwankungen? Welche Tendenzen lassen sich beobachten? Wie und unter welchen Bedingungen verändern sich Zirkulationsmuster der Ozeane?

Mit den Daten aus der Vergangenheit lassen sich heutige Klimamodelle testen. «Festgestellte Muster können Klimaforschenden helfen, ihre Modelle weiter zu verbessern und somit Annahmen für künftige Entwicklungen zu verfeinern», erklärt Fleitmann.

Der Geologe hofft auch, mittels weiterer Analysen offene Fragen zu klären. «Wir wissen zum Beispiel noch nicht, ob die festgestellten Temperaturanstiege periodisch oder stochastisch, also zufällig waren.» Doktorand Frederick Held ergänzt: «Bisher können wir anhand der Daten die Tendenzen beschreiben. Toll wäre, wenn wir einen absoluten Temperaturwert feststellen könnten.»

Originalpublikation:
Frederick Held et al.
Dansgaard-Oeschger cycles of the penultimate and last glacial period recorded in stalagmites from Türkiye
Nature Communications (2024)
doi: 10.1038/s41467-024-45507-5

(nach oben)


Wasserstoff: Welche Importstrategie für Deutschland?

Eine im Rahmen des Forschungsprojekts HyPat durchgeführte Metastudie des Fraunhofer ISI hat existierende Studien zu Erzeugung, Produktion und Handel von Wasserstoff ausgewertet. Aus den in einem Impulspapier festgehaltenen Erkenntnissen wurden Handlungsempfehlungen für eine deutsche Wasserstoff-Importstrategie abgeleitet, die klar zwischen dem Import reinen Wasserstoffs und von Wasserstoffderivaten unterscheidet.

In ihrer überarbeiteten Wasserstoffstrategie geht die Bundesregierung davon aus, dass rund 50 bis 70 Prozent des für 2030 prognostizierten Wasserstoffbedarfs durch Importe aus dem Ausland gedeckt werden müssen.

Vor diesem Hintergrund wertete ein Team von Wissenschaftler:innen des Fraunhofer ISI im vom BMBF geförderten Forschungsprojekt HyPat zahlreiche Studien aus, die sich mit den Kosten für Herstellung und Transport sowie möglichen internationalen Handelsströmen für grünen Wasserstoff und Wasserstoffderivaten befassten. Daraus wurden Handlungsempfehlungen für eine deutsche Importstrategie abgeleitet.

Globale Wasserstoffnachfrage lässt sich mit grünem Wasserstoff decken
Die Studien gehen von einer globalen Wasserstoffnachfrage bis 2050 von 4 bis 11 Prozent am Endenergiebedarf aus. Stellt man das globale Angebot dem Bedarf gegenüber, so lässt sich diese Nachfrage durch grünen Wasserstoff auch unter stark einschränkenden Annahmen, wie Ausschluss von Regionen mit Wasserstress oder geopolitischen Instabilitäten, decken. Derzeit bestehen aber eine Reihe an Hemmnissen für einen Markthochlauf, sodass dieser aktuell nur schleppend voranschreitet.

Für die Stromerzeugung zur Herstellung von Wasserstoff bieten sich nach Studienlage Standorte mit guten Photovoltaikbedingungen an, idealerweise kombiniert mit guten Windbedingungen, da in diesem Fall die Herstellkosten am günstigsten sind. Künftige Exportländer sollten zudem Zugang zu kostengünstigen Finanzierungen und nationalen Fonds haben, damit sich Kapitalkosten, die einen hohen Einfluss auf die Gesamtkosten haben, niedrig halten lassen. Aspekte wie Wasserverfügbarkeit, politische Stabilität, technologisches Know-how und Transportdistanzen spielen ebenfalls eine zentrale Rolle.

Der internationale Wasserstoffhandel wird global überschaubar sein
Der globale Handel zwischen 2030 und 2050 wird aber voraussichtlich nur ein Drittel des Gesamtbedarfs ausmachen, weil der Importbedarf für Wasserstoff eher gering ist und viele Länder wie beispielsweise die USA oder China ihren Wasserstoffbedarf überwiegend selbst decken können. Dies gilt allerdings nicht für Deutschland. Da grüner Wasserstoff und Wasserstoffderivate kurz- und mittelfristig eher teuer und knapp bleiben werden, sollte sich eine Importstrategie auf Bereiche fokussieren, in denen sich die Klimaziele nur unter Anwendung von Wasserstoff erreichen lassen: Etwa in der Stahl- und Grundstoffchemie, dem internationalen Flug- und Schiffstransport oder Raffinerien.

Potenzielle Exportländer von Wasserstoff und seinen Derivaten verfolgen teilweise Strategien, künftig höhere Anteile an der Wertschöpfungskette im eigenen Land zu behalten und anstelle von Wasserstoff zum Beispiel Eisenschwamm für die Stahlherstellung oder Chemieprodukte wie Ammoniak zu exportieren, was die deutsche Industrie vor Herausforderungen stellt. Länder wie die USA, die über große und günstige Ressourcen zur Herstellung von grünem Wasserstoff verfügen und bereits heute beträchtliche Marktanteile bei industriellen Anwendungen, in denen Wasserstoff künftig eine wichtige Rolle spielen kann, besitzen, könnten durch die Integration von Segmenten der Wertschöpfungskette für grünen Wasserstoff in der Produktion und bei industriellen Anwendungen zu Spitzenreitern werden.

Der Handel mit reinem Wasserstoff wird überwiegend in großräumigen regionalen Märkten mit einem Radius von 2.000 bis 3.000 Kilometern erfolgen, wobei voraussichtlich der Pipelinetransport aufgrund von Kostenvorteilen die vorherrschende Transportoption darstellt und Schiffsimporte eher die Funktion einer Risikoabsicherung übernehmen. Auf der anderen Seite dürfte für Wasserstoffderivate eher ein internationaler Markt, analog zu den heutigen Ölmärkten, entstehen, wobei hier dem Schiffstransport eine entscheidende Rolle zukommt.

Mit Blick auf Handlungsempfehlungen sollte der Metastudie zufolge eine deutsche Importstrategie klar zwischen Wasserstoff und Wasserstoffderivaten unterscheiden.

Beim Import reinen Wasserstoffs sind folgende Aspekte zu beachten:
– Infrastrukturaufbau: Der Aufbau eines Pipelinenetzes ist zeit- und kapitalintensiv, ließe sich aber aufgrund eines langsam anlaufenden Markthochlaufes realisieren.
– Aus Erfahrungen lernen: Fehler beim Auf- und Ausbau des Gasnetzes wie die starke Fokussierung auf wenige Anbieter wie Russland gilt es zu vermeiden. Daher sollte nicht automatisch der kosteneffizienteste Importpfad gewählt werden.
– Nachfragereduzierung: Durch Effizienz und Fokus auf wirklich notwendige Wasserstoff-Anwendungen wird die Nachfrage von vornherein begrenzt.
– Diversifizierung: Durch verschiedene Lieferanten, Routen und Verkehrsträger sowie heimische Produktion gewisser Mengen werden Abhängigkeiten reduziert.
– Widerstandsfähigkeit stärken: Diese lässt sich durch heimische Speicherung von Wasserstoff erhöhen, die Vorbereitung auf Versorgungsengpässe sollte ausgeweitet werden.
– Marktdifferenzierung: Unterschiedliche Anforderungen an die Herstellung von Wasserstoff, etwa bezüglich Umweltstandards, begünstigen die Entstehung kleiner Märkte und höherer Preise, was aus Gründen der Wirtschaftlichkeit sowie der Investitions- und Versorgungssicherheit zu vermeiden ist.
– Importe aus der EU und EU-Anrainerstaaten bevorzugen: Deutschland sollte sich aus einer wirtschaftlichen Perspektive auf EU-Staaten mit guten Erneuerbaren-Potenzialen wie Spanien und EU-Anrainerstaaten wie Norwegen konzentrieren. Diese sind verlässliche Partner und die EU würde insgesamt gestärkt.

Für die Importstrategie für Wasserstoffderivate ist folgendes zu berücksichtigen:
– Konkurrenz und Kooperation: Deutschland sollte insbesondere Japan und Südkorea – die beiden anderen Länder mit hohen Importbedarfen – als Konkurrenten, aber auch als mögliche Kooperationspartner betrachten.
– Wasserstoff-Allianz: Aus Gründen der Marktmacht sollte eine gemeinsame Position mit EU-Importländern wie der Niederlande und Belgien beziehungsweise der EU insgesamt gesucht werden, etwa in einer europäischen Wasserstoff-Allianz.
– Differenzierung nach Derivatien: Eine Importstrategie sollte die Spezifika bei Wasserstoffderivaten wie eKerosin, Ammoniak oder Methanol berücksichtigen.
– eKerosin wird zum Erreichen der Klimaschutzziele im Flugverkehr benötigt, Alternativen gibt es so gut wie keine. Bestehende Importinfrastrukturen können weiter genutzt werden.
– Methanol lässt sich als Treibstoff und in der chemischen Industrie als Grundstoff einsetzen. Bisher gibt es aber nur wenig Infrastruktur und Schiffe zum Transport.
– Ammoniak ließe sich als Träger für Wasserstoff nutzen, was jedoch mit hohen Umwandlungsverlusten verbunden und daher kostspielig ist. Für eine Direktnutzung kommt künftig der Schiffsverkehr und unter Umständen auch die Stromerzeugung in Frage, wobei für letzteres noch ein hoher Entwicklungsaufwand nötig ist.

Deutschland sollte schon jetzt auf potenzielle Exportländer zugehen
Prof. Dr. Martin Wietschel, der am Fraunhofer ISI das Competence Center Energietechnologien und Energiesysteme leitet und Mitautor des HyPat-Impulspapiers ist, fasst mit Blick auf die Metastudie zusammen: »Die Bundesregierung wird im Frühjahr ihre Wasserstoff-Importstrategie vorstellen. Dafür gilt es eine Reihe von Aspekten zu beachten, allen voran Wasserstoff und Wasserstoffderivate separat zu betrachten. Gerade weil der Importbedarf international begrenzt sein wird, muss Deutschland in Abstimmung mit der EU schon jetzt auf potenzielle Exportländer zugehen, die mittelfristig eine bedeutende Marktmacht erlangen werden. Verhandlungen sollten nicht in die Länge gezogen werden, damit Erstanbieter nicht andere Importeure in Betracht ziehen. Daher gilt es mit Exportländern gemeinsam und auf Augenhöhe Technologien und Geschäftsmodelle zu entwickeln und Risiken fair zu verteilen. Dies schafft nicht nur lokale Wertschöpfung, sondern treibt zugleich lokale Energiewenden voran – und hilft am Ende vor allem auch Deutschland bei der Erreichung seiner eigenen Klimaziele.«

Wissenschaftliche Ansprechpartner:
Prof. Dr. Martin Wietschel
Leiter des Competence Centers Energietechnologien und Energiesysteme
Telefon +49 721 6809-254
E-Mail martin.wietschel@isi.fraunhofer.de

Originalpublikation:
„Was wissen wir über Importe von grünem Wasserstoff und seinen Derivaten und was lässt sich daraus für eine deutsche Importstrategie ableiten?“ https://www.isi.fraunhofer.de/content/dam/isi/dokumente/cce/2024/HyPAT_Impulspap…

Weitere Informationen:
https://www.isi.fraunhofer.de/de/themen/wasserstoff.html Querschnittsthema Wasserstoff
https://www.isi.fraunhofer.de/de/presse/verteiler/anmeldung-presseverteiler.html
Anmeldung für Presseverteiler des Fraunhofer ISI

(nach oben)


Neue Hoffnung im Kampf gegen RSV

Forschende von TWINCORE entdecken vielversprechenden Wirkstoffkandidaten
Das Respiratorische Synzytial-Virus (RSV) verursacht vor allem bei Kleinkindern schwere Infekte der unteren Atemwege. Bisher gibt es gegen das Virus weder eine antivirale Therapie noch eine Schutzimpfung für Kinder. Deshalb suchen Forscherinnen und Forscher um Prof. Thomas Pietschmann am TWINCORE, einer gemeinsamen Einrichtung der Medizinischen Hochschule Hannover (MHH) und des Helmholtz-Zentrums für Infektionsforschung (HZI) in Braunschweig, nach neuen Wirkstoffen gegen RSV. In einer groß angelegten Studie konnten sie nun Lonafarnib als vielversprechenden Kandidaten identifizieren.

Ihre Ergebnisse veröffentlichen sie in der Fachzeitschrift Nature Communications.
Jedes Jahr in den Wintermonaten kommt es zu Infektionswellen mit RSV. Bei gesunden Erwachsenen und Jugendlichen verläuft die Infektion meist harmlos. Anders bei Kleinkindern: Etwa 1 % von ihnen, die zum ersten Mal mit dem Erreger in Kontakt kommen, erkranken so schwer, dass sie im Krankenhaus behandelt werden müssen. Aber auch bei Erwachsenen über 65 Jahren kann es aufgrund von Vorerkrankungen des Herzens oder der Lunge zu schweren Krankheitsverläufen kommen. Für ältere Menschen und für Schwangere sind seit 2023 Impfstoffe zugelassen, eine direkt antiviral wirkende Therapie gegen das RS-Virus gibt es bisher nicht.

Um neue Wirkstoffe gegen bestimmte Krankheitserreger zu entdecken, durchsuchen Forscherinnen und Forscher große Sammlungen bereits bekannter und klinisch erprobter Substanzen. Dieses Verfahren wird als „Drug Repurposing Screen“ bezeichnet und prüft zusätzliche Anwendungsgebiete für bereits bekannte Pharmazeutika. Das Team vom Institut für Experimentelle Virologie am TWINCORE, Zentrum für Experimentelle und Klinische Infektionsforschung, in Hannover unter der Leitung von Prof. Thomas Pietschmann hat auf diese Weise die ReFRAME Library des Scripps Research Institutes (USA) nach möglichen neuen RSV-Medikamenten durchsucht. Diese Substanzbank enthält rund 12.000 Wirkstoffe, die sich in der klinischen Entwicklung befinden oder bereits zugelassen sind.

„Für das Screening der Bibliothek haben wir ein so genanntes Reportervirus verwendet, das mit dem fluoreszierenden Protein GFP markiert ist“, sagt Pietschmann. „Ein Ausbleiben der Fluoreszenzreaktion in diesem Test weist auf eine antivirale Wirkung hin.“ Gleichzeitig wurden alle Substanzen auch auf ihre Toxizität hin untersucht. Nur diejenigen, die keine zellschädigende Wirkung haben, kommen in die engere Auswahl. Die Tests wurden mit Hilfe eines Pipettierroboters in Zusammenarbeit mit dem Institut für Virologie der Medizinischen Hochschule Hannover automatisiert durchgeführt. „Anders kann man eine Sammlung von mehreren tausend Substanzen nur sehr schwer durchsuchen“, sagt Dr. Sibylle Haid, Wissenschaftlerin im Institut für Experimentelle Virologie und Ko-korrespondierende Autorin der Studie.

Aus zunächst 21 verbliebenen Kandidaten konzentrierten sich die Wissenschaftlerinnen und Wissenschaftler auf den Wirkstoff Lonafarnib, der für die Behandlung des Hutchinson-Gilford-Progerie-Syndroms zugelassen ist. Betroffene dieser seltenen, genetisch bedingten Erkrankung altern vorzeitig und sterben früher, durchschnittlich mit 14,5 Jahren. „Lonafarnib hemmt einen bestimmten Reifungsschritt von Proteinen in der Zelle“, sagt Haid, „die Farnesylierung.“ Um den Wirkmechanismus gegen das RS-Virus genauer zu charakterisieren, testeten die Forschenden einen weiteren Farnesylierunghemmer namens Tipifarnib und verglichen die Ergebnisse. „Tipifarnib wirkt nicht gegen RSV“, sagt Haid. „Daraus konnten wir schließen, dass die antivirale Wirkung von Lonafarnib vermutlich nicht auf der Hemmung der Farnesylierung beruht.“

Mit Hilfe der Kooperationspartner Prof. Anna Hirsch vom Helmholtz-Institut für Pharmazeutische Forschung Saarland (HIPS) und Prof. Thomas Krey von der Universität zu Lübeck konnte das Team die molekulare Struktur des Virus-Wirkstoff-Komplexes aufklären. Lonafarnib bindet an das Fusionsprotein von RSV und verhindert so das Verschmelzen des Virus mit der Membran der Zielzelle. Dadurch können keine neuen Zellen infiziert werden. In Kooperation mit Kolleginnen und Kollegen in Frankreich konnte im Mausmodell eine Reduktion der Viruslast bereits nachgewiesen werden. „Oral verabreicht ist die benötigte Dosis von Lonafarnib allerdings sehr hoch, so dass wir auch Nebenwirkungen beobachtet haben“, sagt Pietschmann. „Es ist denkbar, dass eine lokale Anwendung, beispielsweise per Inhalation, das Verhältnis zwischen Wirkung und Nebenwirkung verbessert. Dies muss in Nachfolgestudien sorgfältig geprüft werden.“

„Mit Lonafarnib haben wir einen interessanten Kandidaten für die Behandlung von RSV identifiziert“, sagt Dr. Svenja Sake, die Erstautorin der Studie. „Weil das Mittel bereits alle klinischen Studien durchlaufen hat, wäre eine Zulassung für das neue Anwendungsgebiet deutlich einfacher, kostengünstiger und schneller als für einen komplett neuen Wirkstoff“, fasst sie die Vorteile des Drug Repurposing zusammen. „Diese Studie ist außerdem wieder ein tolles Beispiel für Teamwork, wie es in der Wissenschaft üblich ist“, sagt Studienleiter Pietschmann. „Mit vielen der Kooperationspartner sind wir zum Beispiel im Exzellenzcluster RESIST vernetzt.“

Wissenschaftliche Ansprechpartner:
Kontakt
Prof. Dr. Thomas Pietschmann, thomas.pietschmann@twincore.de
Tel: +49 (0)511 220027-130

Originalpublikation:
Svenja M. Sake, Xiaoyu Zhang, Manoj Kumar Rajak, Melanie Urbanek-Quaing, Arnaud Carpentier, Antonia P. Gunesch, Christina Grethe, Alina Matthaei, Jessica Rückert, Marie Galloux, Thibaut Larcher, Ronan Le Goffic, Fortune Hontonnou, Arnab K. Chatterjee, Kristen Johnson, Kaycie Morwood, Katharina Rox, Walid A. M. Elgaher, Jiabin Huang, Martin Wetzke, Gesine Hansen, Nicole Fischer, Jean-Francois Eléouët, Marie-Anne Rameix-Welti, …Thomas Pietschmann
Drug repurposing screen identifies lonafarnib as respiratory syncytial virus fusion protein inhibitor
Nature Communications volume 15, Article number: 1173 (2024)

DOI: https://doi.org/10.1038/s41467-024-45241-y

Weitere Informationen:
https://www.twincore.de/infothek/infothek-news-details/news/neue-hoffnung-im-kam… | Diese Pressemitteilung auf twincore.de

(nach oben)


Immunzellen stärken die Knochen

Neuer molekularer Mechanismus bei entzündlichem Knochenschwund entdeckt

Osteoporose oder Knochenschwund bezeichnet den Verlust von Knochenmasse, so dass die Knochen leichter brechen. Der erhöhte Knochenabbau entsteht entweder durch ein hormonelles Ungleichgewicht oder als Folge von entzündlichen Erkrankungen, wie der rheumatoiden Arthritis oder chronisch-entzündlichen Darmerkrankungen. Ein Forschungsteam der Medizinischen Klinik 3 – Rheumatologie und Immunologie (Direktor: Prof. Dr. Georg Schett) im Deutschen Zentrum Immuntherapie am Uniklinikum Erlangen der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) unter Leitung von Prof. Dr. Aline Bozec hat nun eine neue Funktion von Eosinophilen Granulozyten, einer Gruppe von weißen Blutkörperchen, entdeckt.Sie sind an der Aufrechterhaltung des Gewebegleichgewichts beteiligt, indem sie die übermäßige Bildung und Aktivität von knochenfressenden Zellen hemmen.. Die Ergebnisse haben die Forsch/-innen im renommierten Journal Nature Communication veröffentlicht.*

Osteoporose betrifft rund 6,3 Millionen Menschen in Deutschland. Häufig tritt der Knochenschwund aufgrund von Fehlsteuerungen im Immunsystem auf, die zu einem Ungleichgewicht zwischen knochenbildenden, sogenannten Osteoblasten, und knochenfressenden Osteoklasten führen. Die jüngsten Forschungen haben jetzt ergeben, dass Eosinophile Granulozyten einen tiefgreifenden Einfluss auf die Knochengesundheit haben. Sie befinden sich in unmittelbarer Nähe von knochenzerstörenden Zellen, die für den Abbau von altem Knochengewebe im Rahmen eines natürlichen Prozesses, dem Knochenumbau, verantwortlich sind. „Wir konnten nachweisen, dass ein niedriger Eosinophilenspiegel zu einem schnelleren Knochenabbau führt, insbesondere unter Bedingungen wie der Menopause oder entzündlicher Arthritis. Umgekehrt kann eine Erhöhung der Eosinophilenzahl dazu beitragen, die Knochen vor diesen schädlichen Auswirkungen zu schützen,“ sagt Prof. Dr. Aline Bozec.

Eosinophile üben ihre knochenschützende Wirkung aus, indem sie die Aktivität der Osteoklasten aktiv unterdrücken. Sie setzen eine Substanz namens eosinophile Peroxidase frei, die die Fähigkeit der Osteoklasten beeinträchtigt, zwei Schlüsselprozesse, die am Knochenabbau beteiligt sind, in Gang zu setzen: reaktive Sauerstoffspezies zu produzieren und die mitogenaktivierte Proteinkinase zu aktivieren.

„Interessanterweise haben unsere Studien am Menschen ebenfalls gezeigt, dass der Eosinophilenspiegel bei gesunden Menschen sowie bei Patientinnen und Patienten mit rheumatoider Arthritis mit der Knochenmasse korreliert. Dies deutet darauf hin, dass Eosinophile auch beim Menschen eine Rolle bei der Regulierung der Knochengesundheit spielen könnten,“ erklärt Prof. Dr. Aline Bozec.

Diese Erkenntnisse haben erhebliche Auswirkungen auf die Behandlung von Knochenerkrankungen. Durch gezieltes Eingreifen in die Funktion der Eosinophilen können möglicherweise neue Therapien entwickelt werden, die den Knochenschwund verhindern oder verlangsamen und so die Knochengesundheit verbessern.
https://doi.org/10.1038/s41467-024-45261-8

Ansprechpartnerin für Medien:
Prof. Dr. Aline Bozec
Professur für Experimentelle Immunologie und Immuntheraphie
aline.bozec@fau.de
Tel.: 09131/85-39109

Wissenschaftliche Ansprechpartner:
Prof. Dr. Aline Bozec
Professur für Experimentelle Immunologie und Immuntheraphie
aline.bozec@fau.de
Tel.: 09131/85-39109

Originalpublikation:
https://doi.org/10.1038/s41467-024-45261-8

(nach oben)


Belastung durch giftige Arzneirückstände – Hochschule Hof stärkt Abwasserreinigung in Indien

Die Reinigung toxischer Abwässer der Pharmaindustrie in Indien soll sich verbessern – das ist das Ziel eines Forschungsprojektes am Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa). Die rapide ansteigende Produktion von Arzneimitteln in Ländern wie Indien führt derzeit noch zu großen Mengen an problematischen Abwässern. Diese können bei Mensch und Tier enorme Gesundheitsprobleme verursachen, wenn sie unbehandelt in Ökosysteme eingeleitet werden. Zur Umsetzung einer neuartigen Reinigungstechnologie wurde nun eine erste Pilotanlage nach Indien verschifft.

Auf dem indischen Subkontinent werden immer mehr kostengünstige Medikamente für den Weltmarkt hergestellt – wovon ein großer Teil nach Europa exportiert wird. Mit einer jährlichen Wachstumsrate von 10 – 12 % strebt die Branche an, bis zum Jahr 2030 Weltmarktführer zu werden und ihren Umsatz auf 130 Milliarden US-Dollar zu steigern. Für Gesellschaft und Umwelt hat das wichtige Geschäft mit Medikamenten einen hohen Preis. Abwässer aus pharmazeutischen Produktionsfirmen, die verschiedenste Chemikalien und Wirkstoffreste beinhalten, werden oft noch ungeklärt in Flüsse eingeleitet – mit verheerenden Auswirkungen für Ökosysteme und Gesundheit. Dem will die Hochschule Hof mit ihren Verbundpartnern im Projekt „pharmIn2“ nun entgegenwirken.

Innovative Reinigungstechnologie
Das bereits 2023 gestartete Forschungsprojekt basiert auf der innovativen Abwasserbehandlungstechnologie a3op, die durch das Unternehmen „up2e! GmbH“ aus dem bayerischen Rain am Lech entwickelt wurde. „Dabei wird akustische Energie mit einem einzigartigen Gaseintragssystem kombiniert, wodurch ein extrem leistungsfähiger und hoch reaktiver Oxidationsprozess entsteht“, erläutert Geschäftsführerin Ulla Pöschl den Reinigungsprozess. Im Verbund mit dem indischen Partnerunternehmen Paques Environmental Technology Pvt, dem Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa) sowie dem Bayerisch-Indischen Zentrum für Wirtschaft und Hochschulen (BayIND), das ebenfalls an der Hochschule Hof beheimatet ist, wurde zur praktischen Anwendung der Technik nun eine erste Pilotanlage konzipiert, in Deutschland gebaut und ins südostindische Chennai verschifft.

Abwässer müssen gereinigt werden
Sie soll im März beim indischen Projektpartner in Betrieb genommen werden. Vor Ort soll mit Hilfe der Pilotanlage die Anwendung bei Abwasserproduzenten getestet werden und so Kunden für den Bau ganzer Großanlagen im indischen Pharmasektor gewonnen werden. Denn pharmazeutische Abwässer müssen vor der Einleitung in die Gewässer auch in Indien jetzt wirksam vorbehandelt werden, am besten direkt auf dem Industriegelände“, so Prof. Günter Müller-Czygan, Leiter der Forschungsgruppe Wasserinfrastruktur und Digitalisierung am Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa). Die größte Herausforderung sei es, die Pilotanlage nach dem Export nun innerhalb eines vorgegebenen Zeitraums zu installieren und anschließend die Effizienz der Technologie auf dem lokalen indischen Markt nachhaltig zu demonstrieren, so der Forscher.

Schulungsplattform für indische Wirtschaft
Die Forschenden der Hochschule Hof übernehmen im begleitenden Prozess die Erstellung einer Online-Lern- und Schulungsplattform für die entwickelte Technologie. Diese richtet sich als Drehscheibe für den Wissenstransfer dezidiert an indische Universitäten, öffentliche Einrichtungen sowie an interessierte Unternehmen. „Für eine bessere Sichtbarkeit planen wir vor Ort Online-Workshops, Webinare, Schulungen und auch die Teilnahme an Veranstaltungen und Messen“, erläutert Projektmitarbeiterin Jasmin Mundackal, die direkt nach erfolgreichem Abschluss im Hofer Masterstudiengang „Sustainable Water Management and Engineering“ als wissenschaftliche Mitarbeiterin in das Projekt einsteigen konnte und mit ihrer indischen Herkunft auch die kommunikative Brücke zwischen den deutschen und den indischen Partnern bildet. Das Bayerisch-Indische Zentrum für Wirtschaft und Hochschulen (BayIND) ist als Netzwerkpartner für den Aufbau von Kontakten zu Kooperationspartnern in Wissenschaft und Wirtschaft in Indien zuständig und unterstützt zudem bei der Vermarktung der Technologie.

Erweiterung auf andere Branchen möglich
Zur Zielgruppe gehören zunächst Pharmaunternehmen, Kläranlagen und andere Dienstleister, die pharmazeutische Abwässer behandeln müssen. Die innovative Technologie soll später auch in anderen umweltkritischen Branchen zum Einsatz kommen – so könnten auch chemische und lebensmittelverarbeitende Betriebe von der Einführung der a3op-Technologie profitieren.

Förderung
Das Projekt „pharmIn2“ läuft noch bis zum 31. Januar 2025. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz im Rahmen des Förderprogramms „Exportinitiative Umweltschutz“ gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de

(nach oben)


Neues internationales Forschungsprojekt will Makroplastik in der Ostsee reduzieren

Plastik stellt eine zunehmende Bedrohung für die Ökosysteme der Ostsee dar. Jährlich gelangen zwischen 4 und 12 Millionen Tonnen Plastik in die Meere, während der Plastikverbrauch weiterhin steigt. Länderübergreifende Maßnahmen sind gefragt, um dieses globale Umweltproblem anzugehen. Gemeinsam mit dänischen, schwedischen und polnischen Partnern haben die Universität Rostock und das Leibniz-Institut für Ostseeforschung Warnemünde (IOW) ein Forschungsprojekt gestartet, das die Vermeidung von Meeresplastik an seiner Ursprungsquelle bewirken will. Das Interreg-Projekt „Circular Ocean-bound Plastic“ (COP) wird über einen Zeitraum von drei Jahren mit knapp 2,02 Millionen Euro gefördert.

Etwa 80 % des Plastiks in der Ostsee stammen aus landbasierten Quellen, einschließlich städtischer und ländlicher Aktivitäten wie Industrie, Tourismus, Essen im Freien und anderen Veranstaltungen in Ufernähe. Hier setzt das Projekt an, indem es in Zusammenarbeit mit Unternehmen, Forschungseinrichtungen und Kommunen in der Küstenregion der südlichen Ostsee Lösungen entwickelt, um den Eintrag von Plastik über Flüsse in die Ostsee zu reduzieren. Ziel ist es, Plastik möglichst nahe an seiner Quelle aus dem Flusssystem zu entfernen und Möglichkeiten für die Wiederverwendung und das Recycling von Meeresplastik zu identifizieren.

Die Universität Rostock und das Leibniz-Institut für Ostseeforschung Warnemünde arbeiten in diesem Verbundprojekt mit Partnern aus Dänemark, Schweden und Polen zusammen, um die wichtigsten Verschmutzungsquellen im Rostocker Stadtgebiet zu identifizieren. Auf dieser Grundlage werden Lösungen entwickelt, um das im Fluss befindliche Plastik effektiv zu sammeln und wiederzuverwerten. Basierend auf diesen Erkenntnissen werden zusätzlich Vermeidungsstrategien erarbeitet, die nicht nur im Untersuchungsgebiet Rostock, sondern auch in den weiteren beteiligten Städten Aarhus in Dänemark, Malmö in Schweden und Danzig in Polen anwendbar sind. Neben maßgeschneiderten Lösungen, die unmittelbar an der Quelle der Verschmutzung ansetzen, kommen zudem Geräte zum Einsatz, die den Müll aus dem Oberflächenwasser des Flusses entfernen. Das eingesammelte Plastik wird später hinsichtlich seiner mechanischen und chemischen Recyclingfähigkeit bewertet. Schließlich werden Best-Practice-Beispiele entwickelt, um effektiv Plastikmeeresmüll in Rostock und anderen Städten entlang der Ostsee zu vermeiden und einzusammeln.

CLEAN – Dänemarks Wasser- und Umwelt-Cluster – ist der federführende Partner bei der Kooperation mit dem Ocean Plastic Forum, dem Plast Center Denmark, dem schwedischen Sustainable Business Hub, dem Leibniz Institut für Ostseeforschung Warnemünde, der Universität Rostock, der University of Gdansk, der Gdansk Water Foundation und dem Gdansk Sports Center.

Wissenschaftliche Ansprechpartner:
Mona-Maria Narra
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
E-Mail: mona-maria.narra@uni-rostock.de
Tel: + 49 381 498-3410

Stine Ganzer
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
E-Mail: stine.ganzer@uni-rostock.de
Tel: + 49 381 498 3408

Dr. Mirco Haseler
Leibniz-Institut für Ostseeforschung Warnemünde
E-Mail: mirco.haseler@io-warnemuende.de
Tel: +49 381 5197 405

Weitere Informationen:
https://circularoceanplastic.eu

(nach oben)


Erster Erfolg im Exzellenzstrategie-Wettbewerb: Wasser-Forschung erreicht Meilenstein

Im Rahmen der Universitätsallianz Ruhr haben die drei Universitäten in Duisburg-Essen, Dortmund und Bochum ihre Forschung gemeinsam strategisch entwickelt, beispielsweise mit dem gemeinsamen Research Center One Health Ruhr. Die exzellente Wasser-Forschung der Universität Duisburg-Essen und ihrer Partner-Universitäten ist Teil dieses Research Centers und setzte sich jetzt mit dem Forschungsvorhaben „REASONS – river ecosystems in the anthropocene, sustainable scientific solutions“ (Flussökosysteme im Antropozän, nachhaltige wissenschaftliche Lösungen) in der ersten Runde des zweistufigen Exzellenz-Wettbewerbs von Bund und Ländern durch.

Steigende Temperaturen, Antibiotikarückstände, Dürren und Hochwasser: Flüsse geraten weltweit unter Druck. Um sie fit für die Zukunft zu machen, entwickeln Forscher und Forscherinnen der Exzellenzclusterinitiative REASONS ein neues, nachhaltiges Konzept für das Management von Gewässern. Das interdisziplinäre Forschungsteam wird geleitet von Prof. Dr. Bernd Sures (Universität Duisburg-Essen), Prof. Dr. Torsten Claus Schmidt (Universität Duisburg-Essen) und Prof. Dr. Martina Flörke (Ruhr-Universität Bochum).
Mit neuen Mess- und Analysemethoden erforschen die Wasserexperten und Expertinnen die Basis für ein zukunftsfähiges Flussmanagement, das Stressoren wie Klimawandel, stoffliche Belastungen sowie Veränderungen in der Biodiversität integriert. Das Besondere: der Ansatz stellt das sich wandelnde System in den Mittelpunkt und findet einen innovativen Umgang mit den teils irreversiblen Veränderungen von Binnengewässern.

Die Universität Duisburg-Essen hat einen deutschlandweit einzigartigen Schwerpunkt im Bereich der Wasserforschung. Forschende aus den Disziplinen Biologie, Chemie, Medizin, Ingenieurwissenschaften sowie Geistes- und Gesellschaftswissenschaften haben in den letzten beiden Jahrzehnten eine exzellente inter- und transdisziplinäre Zusammenarbeit entwickelt. Besondere Studiengänge und die Water Graduate School für Early Career Researchers bilden darüber hinaus hervorragende Strukturen für Spitzenforscher und Spitzenforscherinnen in frühen Karrierestadien.
Das Exzellenzprojekt REASONS ist aus dem etablierten Netzwerk des Zentrums für Wasser- und Umweltforschung an der Universität Duisburg-Essen mit Partnern der Ruhr-Universität Bochum, der Goethe Universität Frankfurt, der Philipps-Universität Marburg, des Helmholtz-Zentrums für Umweltforschung, des Fraunhofer-Instituts für Molekularbiologie und Angewandte Ökologie, des Leibniz-Instituts für Gewässerökologie und Binnenfischerei sowie der Senckenberg Gesellschaft für Naturforschung entstanden.
„Mit nachgewiesener wissenschaftlicher Exzellenz und enormer Leidenschaft haben unsere Spitzenforscher und Spitzenforscherinnen erfolgreich den ersten Meilenstein im Exzellenzstrategie-Wettbewerb erreicht. Die Universität Duisburg-Essen freut sich ungemein, und ich gratuliere den Antragstellern und Antragstellerinnen. Damit verbunden ist unser aller großer Dank für ihre herausragende Forschungsarbeit“, sagt Prof. Dr. Barbara Albert, Rektorin der Universität Duisburg-Essen. „Der Wissenschaftsrat und die Deutsche Forschungsgemeinschaft haben uns in ihrer Entscheidung heute aufgefordert, auf der Basis der eingereichten Antragsskizzen nun bis zum 22 August 2024 einen Vollantrag einzureichen. Wir haben gezeigt: wir verfolgen mit unserer internationalen Spitzenforschung zusammen mit unseren ebenfalls erfolgreichen Partner-Universitäten in der Universitätsallianz Ruhr die richtige Forschungsstrategie.“

Die Universität Duisburg-Essen hat seit ihrer Gründung 2003 ein reizvolles und international wett-bewerbsfähiges Forschungsprofil entwickelt. „In der Universitätsallianz Ruhr und der Research Alliance Ruhr haben wir mit unseren beiden Partneruniversitäten in Bochum und Dortmund nun durch Berufungen von besonders renommierten Professorinnen und Professoren strategische Schwerpunkte setzen können. Mit den gemeinsamen exzellenten Forschungsergebnissen geben wir im Ruhrgebiet entscheidende Impulse: die Transformation zur Wissensgesellschaft generiert wegweisende neue Erkenntnisse für die Welt im Wandel. Unsere herausragende Wasserforschung bietet Lösungen aus der Wissenschaft“, erklärt die Prorektorin für Forschung und wissenschaftlichen Nachwuchs, Prof. Dr. Astrid Westendorf.
Die Exzellenzstrategie: Der Wettbewerb von Bund und Ländern zur Stärkung internationaler Spitzenforschung in Deutschland
Mit der Exzellenzstrategie fördern Bund und Länder seit 2018 die internationale Spitzenforschung und laden die deutschen Universitäten zum Wettbewerb ein. Die Förderung ist in zwei Förderlinien gegliedert, die zum zweiten Mal an den Start gehen und zeitlich gestaffelt ausgeschrieben werden.

Aktuell läuft die Phase der Exzellenzcluster-Bewerbung. Diese wiederum ist zweistufig. Im ersten Schritt des Auswahlprozesses waren die deutschen Universitäten aufgefordert, bis Mai 2023 Antragsskizzen für neue Exzellenzclusterinitiativen einzureichen. Diese wurden durch ein Expertengremium, bestehend aus 39 international anerkannten Wissenschaftler und Wissenschaftlerinnen, begutachtet. Die am 01. Februar ausgewählten Antragsstellenden wurden durch den Wissenschaftsrat und die DFG nun aufgefordert, bis zum 22. August 2024 Vollanträge auszuarbeiten und zu einer weiteren Begutachtung einzureichen. Die Entscheidung über eine Förderung wird im Mai 2025 erwartet und von der sogenannten Exzellenzkommission getroffen. Insgesamt können bis zu 70 Cluster über einen Zeitraum von sieben Jahren gefördert werden. Die Förderung beginnt zum 01. Januar 2026, jährlich stellen Bund und Länder bis zu 539 Millionen Euro bereit.

In einer weiteren Phase des Wettbewerbs haben die Universitäten, die erfolgreich mindestens zwei Exzellenzcluster einwerben konnten, die Option, sich als Exzellenzuniversität zu bewerben. Verbundbewerbungen von mehreren Universitäten benötigen drei Exzellenzcluster, jedoch mindestens einen Exzellenzcluster je antragstellender Universität.

Hinweis für die Redaktionen:
Portraits der Sprecher:innen stellen wir Ihnen unter Berücksichtigung des Bildnachweises zur Verfügung: https://www.uni-due.de/de/presse/pi_fotos.php

Wissenschaftliche Ansprechpartner:
Prof. Dr. Bernd Sures, Aquatische Ökologie,
bernd.sures@uni-due.de, Tel. 0201-183 2617

(nach oben)


Grubenwasser besser überwachen und nutzen

Wie viel Grubenwasser befindet sich in stillgelegten Schächten? Welche Qualität hat es, und lässt es sich zum Beispiel von Städten zum Heizen oder als Trinkwasser nutzen? Diese Fragen möchte das zu Jahresbeginn 2024 gestartete Verbundprojekt „Digitalisierung bergbaulicher Strukturen mithilfe innovativer Sensorik und Künstlicher Intelligenz“ (DIETER), beantworten. Koordiniert wird es von Dr. Thomas Heinze und Dr. Wiebke Warner, beide Forschende an der Fakultät für Geowissenschaften der Ruhr-Universität Bochum. Das Bundesministerium für Bildung und Forschung fördert das Projekt für drei Jahre mit knapp 1 Million Euro.

Kooperationspartner
Neben der Ruhr-Universität Bochum sind an dem Projekt die Hochschule Rhein-Waal sowie die Universität Stuttgart beteiligt.

Relevante Daten sollen in Echtzeit abgerufen werden können
Zum Einsatz kommen modernste Technologien, die es besser als zuvor ermöglichen sollen, geflutete Bergbaustrukturen zu analysieren und zu beobachten. „Im Rahmen des Projekts wird ein Versuchsbergwerk umfangreich mit Sensorik und Netzwerktechnik ausgestattet“, erklärt Wiebke Warner. Ziel des Projekts sei die Schaffung eines Online-Tools zur Analyse von Menge, Qualität und geothermischem Potenzial des Grubenwassers. Kommunen soll somit ein kostengünstiges und benutzerfreundliches Werkzeug für die Überwachung und Verwertung des Grubenwassers zur Verfügung gestellt werden. „Am Ende der Projektlaufzeit wird ein Datendashboard stehen, das es ermöglicht, alle relevanten Informationen in Echtzeit abzurufen“, so Warner.

Kritische Betrachtung der Grenzen von Monitoring
Die Implementierung von KI in Monitoring-Systemen eröffnet neue Horizonte für die effiziente Nutzung gefluteter Bergwerke und bietet gleichzeitig innovative Lösungen für Herausforderungen im Bereich Trinkwasserversorgung und Wärmegewinnung. Das Projekt legt nicht nur den Fokus auf die Möglichkeiten, sondern betrachtet auch kritisch die Grenzen des digitalen Monitorings untertägiger Anlagen, um Altbergbau nachhaltig zu nutzen und dabei die Umweltauswirkungen zu minimieren. Zudem werden sich Projektergebnisse auch auf andere Fragestellungen des Wasser- und Umweltmonitorings anwenden lassen.

Wissenschaftliche Ansprechpartner:
Dr. Wiebke Warner
Abteilung Hydrogeochemie und Hydrogeologie
Institut für Geologie, Mineralogie und Geophysik
Ruhr-Universität Bochum
Tel.: +49 234 32 25904
E-Mail: wiebke.warner@ruhr-uni-bochum.de

(nach oben)


Europas Gewässerqualität: Besser, aber nicht gut genug

Ein internationales Forschungsteam unter Leitung der Senckenberg-Wissenschaftler Dr. James Sinclair und Prof. Dr. Peter Haase hat Fließgewässer 23 europäischer Länder untersucht. Anhand wirbelloser Tiere von 1.365 Standorten zeigen sie erstmals in ihrer heute im Fachjournal „Nature Ecology & Evolution“ erschienenen Studie die jährliche Veränderung der ökologischen Qualität der Flüsse seit den 1990er Jahren. Während diese insgesamt zugenommen hat, kam die positive Entwicklung um 2010 zum Erliegen. Die Forschenden warnen, dass der erforderliche „gute“ ökologische Zustand im Durchschnitt in den Fließgewässern nicht erreicht wurde.

Flussbegradigungen, eingeschleppte Tier- und Pflanzenarten, der globale Klimawandel und Verschmutzungen – der Mensch beeinflusst die Ökosysteme von Fließgewässern massiv. „Entsprechend haben derzeit rund 60 Prozent der Flüsse Europas keinen guten ökologischen Zustand. In Deutschland sind es sogar rund 90 Prozent. Die seit 2000 geltende EU-Wasserrahmenrichtlinie sollte hier Abhilfe schaffen, jedoch gab es bislang keine belastbaren Daten zum zeitlichen Verlauf von Änderungen in der ökologischen Qualität von Flüssen“, erklärt Prof. Dr. Peter Haase vom Senckenberg Forschungsinstitut und Naturmuseum Frankfurt.

Haase hat gemeinsam mit seinem Kollege Dr. James Sinclair und einem internationalen Forschungsteam die Daten wirbelloser, in Flüssen lebender Tiere von 1.365 Standorten in 23 europäischen Ländern ausgewertet, um die zeitlichen Trends anthropogener Einflüsse zu untersuchen. „Basierend auf diesem einmaligen Datensatz konnten wir die Veränderung der ökologischen Qualität in Flüssen seit Anfang der 1990er Jahre jährlich auflösen“, erläutert Sinclair. Haase ergänzt: „Um die menschengemachten Auswirkungen zu bewerten, haben wir zunächst – im Untersuchungszeitraum 1992 bis 2019 – geschaut, wie sich die Lebensgemeinschaften im Vergleich zu ihren Ausgangsbedingungen verändert haben. So können wir eine Bewertung langfristiger Trends zur ökologischen Qualität auf europäischer Ebene geben.“

Erstautor Sinclair führt weiter aus: „Wir haben festgestellt, dass die ökologische Qualität von den 1990er Jahren bis 2010 generell zugenommen hat, ebenso die Anzahl empfindlicher Taxa, was auf geringere anthropogene Einflüsse hinweist – dieser positive Trend kommt aber um 2010 zum Erliegen. Auch der notwendige – in der EU-Wasserrahmenrichtlinie festgehalten – ‚gute‘ ökologische Zustand wurde im Durchschnitt noch nicht erreicht. Die bessere Wasserqualität ist wahrscheinlich auf europäische Maßnahmen zurückzuführen, die verstärkt ab den 1980er Jahren eingeführt wurden, wie beispielsweise eine verbesserte Abwasserbehandlung.“

In ihrer erstmalig für Europa zusammengestellten Übersicht zur ökologischen Wasserqualität zeigen die Forschenden, dass deren Verbesserung nach den 2010er Jahren stagniert. Als wahrscheinliche Ursachen nennen die Wissenschaftler*innen neue und bestehende Stressfaktoren wie Verschmutzung und Lebensraumveränderung, zunehmende negative Effekte wie den Klimawandel und neu auftretende Probleme wie den Eintrag von neuartigen Pestiziden oder Arzneimitteln.
In einem zweiten Schritt setzen die Forschenden die ermittelte ökologische Qualität in Beziehung zu gängigen Kennzahlen, wie der Häufigkeit oder Vielfalt von Arten oder der Zusammensetzung von Faunengemeinschaften, sowie zu gängigen Biomonitoring-Indizes, die das Vorkommen sensibler Taxa widerspiegeln.

„Hintergrund unserer Arbeit ist, dass es zahlreiche Studien gibt, die über zum Teil widersprüchliche Veränderungen der biologischen Vielfalt berichten, also mal Verbesserung, mal Verschlechterung. Dies hängt damit zusammen, dass sich einige dieser Studien nur auf einzelne Biomonitoring-Indizes beschränken, bislang aber unklar war, ob diese Indizes überhaupt den ökologischen Zustand hinreichend abbilden“, erläutert Haase.

„Deutlich wird zudem, dass Lebensgemeinschaften in Abhängigkeit zur räumlichen Skala unterschiedliche Reaktionen auf anthropogene Einflüsse zeigen. So können beispielsweise negative Einwirkungen lokal zu einem Rückgang der Häufigkeit oder des Artenreichtums führen. Regional ist aber keine Gesamtveränderung zu verzeichnen, weil die Verluste durch Zuwächse an anderen Orten ausgeglichen werden. Oder es kann sogar zu einer Zunahme der Artenzahl kommen, wenn sich – den Veränderungen gegenüber tolerante – Arten vermehren“, so die Gelnhäuser Wissenschaftler.

Laut der neu erschienenen Studie können folglich die in vielen Untersuchungen festgestellten unterschiedlichen Trends bei der biologischen Vielfalt das Ergebnis unterschiedlicher Raumskalen – lokal, regional, kontinental – oder unterschiedlicher Biomonitoring-Indizes sein. Eine weitere Komplikation bestehe darin, dass den meisten Studien zur biologischen Vielfalt die Ausgangsdaten vor der Beeinflussung durch den Menschen fehlten. „Ohne Basisdaten ist es aber schwierig festzustellen, ob die Veränderungen der biologischen Vielfalt auf anthropogene Einflüsse oder auf natürliche Schwankungen zurückzuführen sind“, so Sinclair.

„Unsere Ergebnisse zeigen, dass ohne ausreichende Daten über einen längeren Zeitraum und eine sorgfältige Auswahl der Metriken biologische Trends und anthropogene Einflüsse nicht zuverlässig wiedergegeben werden können. Bei den bislang genutzten Indikatoren ist einzig die Artenvielfalt ein recht zuverlässiger Anzeiger für eine Veränderung der ökologischen Wasserqualität. Dies sollte bei zukünftigen Bewertungen unbedingt berücksichtigt werden“, schließt Haase.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Haase
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Telefon 06051 61954 3114
peter.haase@senckenberg.de

Originalpublikation:
Sinclair et. al. (2024): Multi-decadal improvements in the ecological quality of European rivers are not consistently reflected in biodiversity metrics.
https://www.nature.com/articles/s41559-023-02305-4

(nach oben)


Biomüll als Ressource

Nachhaltige Nutzung von organischen Reststoffen im Fokus eines transdisziplinären Projekts der Universitäten Gießen und Prishtina – Förderung durch die Deutsche Bundesstiftung Umwelt

Wie lassen sich organische Abfälle aus Siedlungen und der Landwirtschaft nachhaltig nutzen? Mit dieser Frage beschäftigen sich Wissenschaftlerinnen und Wissenschaftler der Universität Prishtina (Republik Kosovo) und der Justus-Liebig-Universität Gießen (JLU) in einem binationalen transdisziplinären Projekt. Sie entwickeln am Beispiel der Kommune Viti in der Republik Kosovo Konzepte zur Nutzung von organischen Reststoffen als Bioressourcen. Die Ergebnisse sollen auch auf weitere Kommunen des Westbalkans übertragbar sein. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt ORG-VITI an der JLU ab Juni 2024 für drei Jahre mit insgesamt rund 161.000 Euro.

In der Republik Kosovo werden organische Siedlungs- und Landwirtschaftsabfälle so entsorgt, dass dies Risiken für Mensch und Umwelt birgt – beispielsweise durch illegales Verbrennen in der Natur. Nicht nur deshalb besteht auf kommunaler Ebene Interesse an einer nachhaltigen Nutzung dieser Reststoffe. „Die Entwicklung von Konzepten und deren Umsetzung in geeigneten Formen der Kreislaufwirtschaft stellt für die lokalen Akteure große Herausforderungen dar“, so Prof. Dr. Rainer Waldhardt, Professor für Landschaftsökologie und Landschaftsplanung, der das Drittmittelprojekt leitet. „Diese Herausforderungen können in partnerschaftlicher Zusammenarbeit von Kommunen und Hochschulen besser gemeistert werden.“

Im Projekt ORG-VITI arbeiten Wissenschaftlerinnen und Wissenschaftler der Universitäten in Prishtina und Gießen zusammen mit Vertreterinnen und Vertretern der Kommunalverwaltungen von Viti und der Stadt Kirchhain. Die Zusammenarbeit kommt nicht von ungefähr: Wichtige Grundlagen sind eine seit 2017 bestehende kommunale Nachhaltigkeitspartnerschaft der Kommunen Viti und Kirchhain, die seit Anfang 2023 als Städtepartnerschaft beider Kommunen vertraglich geregelt ist, sowie die seit 2012 bestehende Kooperation der beiden Universitäten. Hinzu kommt die Expertise mehrerer assoziierter Projektpartner aus beiden Ländern, darunter die Nichtregierungsorganisation „GLV Vitia“ und der Verein Region Marburger Land e.V. Zudem werden auch Schülerinnen und Schüler sowie Studierende einbezogen.

Das Team an der JLU wird für Datenerhebungen zu den Mengen und Qualitäten organischer Reststoffe in Viti sowie für chemische Analysen dieser Reststoffe zuständig sein. „Hier kann es je nach Bevölkerungs- und Landwirtschaftsstruktur zwischen Kommunen und selbst innerhalb einzelner Orte deutliche Unterschiede geben“, so Prof. Waldhardt. „Entsprechende Daten liegen auf kommunaler und örtlicher Ebene in der Republik Kosovo jedoch bislang nicht vor.“ Die dazu im Projekt erhobenen Daten bilden eine wichtige Grundlage, um passende Wege der künftigen Nutzung in Form von ressourcenschonenden Wertketten zu erarbeiten, mit denen die organischen Reststoffe als Wertstoffe auf unterschiedliche Weise genutzt werden können – beispielsweise zur Energieerzeugung, zur Herstellung von organischem Dünger oder als Futter bei der Produktion von Insektenprotein. Die im transdisziplinären Prozess dazu entwickelten Wege werden an der JLU zusammengetragen und hinsichtlich ökologischer, wirtschaftlicher und sozialer Effekte bewertet.

Dabei werden die zu erwartenden Umweltauswirkungen, die Kosten unter Berücksichtigung gegebenenfalls einzuwerbender Fördergelder, die Marktchancen, die finanziellen Gewinnaussichten sowie die rechtlichen Limitierungen betrachtet. Der komplexe Prozess, die Wertketten zu erarbeiten und zu priorisieren, beginnt mit dem Aufbau einer Datenbank, die das Wissen aus weltweiten Projekten zur nachhaltigen Nutzung organischer Reststoffe aus Siedlungen und Landwirtschaft bündelt, und die im Projekt laufend ergänzt wird.

Ergänzend führt die Kommune Viti einen Workshop mit Schülerinnen und Schülern aus Viti durch und die Universität Prishtina bietet gemeinsam mit Forschenden der JLU einen zweiwöchigen Kurs mit Studierenden aus der Republik Kosovo und weiteren Ländern des Westbalkans an. Die Ergebnisse dieser beiden Projektmodule werden ebenfalls in den Prozess der Erarbeitung und Priorisierung von Wertketten einfließen. Zudem dienen sie dazu, die Wichtigkeit der nachhaltigen Nutzung organischer Reststoffe in der Republik Kosovo bekanntzumachen, denn dies wird bedeutsam für die Umsetzung und Akzeptanz entsprechender Wertketten sein. Schülerinnen und Schüler sowie Studierende sind hier wichtige Multiplikatorinnen und Multiplikatoren, zudem werden sie künftig die Lebensgrundlagen ihrer Heimat gestalten.

Die Projektbeteiligten tauschen sich auch mit potenziellen Investorinnen und Investoren zur Kreislaufwirtschaft aus und begleiten erste Schritte der Umsetzung. Dabei steht die Kommune Viti stellvertretend für Kommunen mittlerer Größe in der Republik Kosovo, die durch eine für diese Kommunen typische große Vielfalt landwirtschaftlicher Nutzungen gekennzeichnet ist. Die Ausgestaltung einzelner Wertketten wird sich daher auch auf andere Kommunen der Region übertragen lassen. Welche der möglichen Wertketten in den jeweiligen Kommunen zu bevorzugen sind, muss jedoch individuell beurteilt werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rainer Waldhardt
Professur für Landschaftsökologie und Landschaftsplanung
Telefon: 0641 99-37163
E-Mail: rainer.waldhardt@umwelt.uni-giessen.de

Weitere Informationen:
http://www.uni-giessen.de/viti-projekt

(nach oben)


Wie wirkt Landwirtschaft auf Gewässer? – Europaweite Studie

Die Landwirtschaft sichert unsere Ernährung und ist ein wichtiger Wirtschaftsfaktor. Sie hinterlässt aber auch Spuren in der Umwelt, z.B. in Böden, im Grundwasser oder in der Biodiversität. Ein internationales Forschungsteam unter Leitung der Universität Duisburg-Essen hat untersucht, wie sich in Europa unterschiedliche landwirtschaftliche Nutzungsformen und Intensitäten auf den ökologischen Zustand von Fließgewässern auswirken. Die Studie wurde soeben in der Fachzeitschrift Water Research veröffentlicht.

Diese Zahlen lassen aufhorchen: Noch nicht einmal zehn Prozent der Fließgewässer in Deutschland befinden sich in einem guten, naturnahen Zustand; europaweit sind es nur an die 40 Prozent. Die Landwirtschaft als eine der größten Flächennutzerin gilt als mitverantwortlich für diese Situation. Zurecht?

Um dies zu beantworten, analysierte das Forschungsteam um UDE-Wissenschaftler Christian Schürings für 27 europäische Länder Daten zur landwirtschaftlichen Nutzung. Diese setzte es in Zusammenhang mit Daten zum ökologischen Zustand der dortigen Fließgewässer – darunter waren Bäche, aber auch große Flüsse wie Ruhr, Rhein oder Schelde.

Das Ergebnis: Die Art der Landwirtschaft ist mit entscheidend für den Zustand der Gewässer (siehe Abbildung). „Am stärksten wirkt sich die Intensivlandwirtschaft aus“, sagt Schürings. Der Experte für Aquatische Ökologie ist Erstautor der Studie. „Dazu zählt der Bewässerungsfeldbau, wie er in Südeuropa beispielsweise in Spanien, Portugal und Italien betrieben wird, und der intensive Einsatz von Pflanzenschutzmitteln und Dünger auf Flächen in Westeuropa. Das ist vor allem in Frankreich, den Niederlanden, in Belgien, in Deutschland oder Großbritannien verbreitet.“

Durch die intensive Bewirtschaftung können Nitrate, Pflanzenschutzmittel und andere Stoffe in den Gewässern landen, Auen werden zu Ackerland umgewandelt, Flüsse begradigt oder in Südeuropa zur Bewässerung von Feldern genutzt. Das bedroht bzw. zerstört wichtigen Lebensraum für Pflanzen und Tiere.

Anders verhält es sich mit weniger intensiven Landwirtschaftsformen: Laut Studie wirken sie sich kaum bis gar nicht auf den ökologischen Zustand aus. Denn die Anbauflächen sind kleinteilig, Düngemittel und Pflanzenschutzmittel werden sparsamer eingesetzt, und es werden Hecken und Blühstreifen für mehr Biodiversität angelegt. „Unsere Ergebnisse unterstreichen“ so Schürings, „dass der Wandel hin zu nachhaltigeren Landwirtschaftsformen, wie dem ökologischen Landbau, gut für die Gewässer ist.“ Mitautor Dr. Sebastian Birk betont, dass „Gewässerschutz und Landwirtschaft Hand in Hand gehen können. Dies sollte die EU auch durch einen Umbau der Agrarförderung unterstützen, damit Umweltleistungen der Landwirtschaft stärker honoriert werden.“

Für die Redaktion:
Für die Berichterstattung zu dieser Meldung stellen wir Ihnen die Abbildung „Agricultural Pressure Index“ (© CC BY 4.0) zur Verfügung: http://www.uni-due.de/de/presse/pi_fotos.php

Weitere Informationen:
https://doi.org/10.1016/j.watres.2024.121136
Christian Schürings, Aquatische Ökologie, Tel. 0201/18 3-3218, christian.schuerings@uni-due.de

Redaktion: Ulrike Bohnsack, Tel. 0151-74448046, ulrike.bohnsack@uni-due.de

Wissenschaftliche Ansprechpartner:
Christian Schürings, Aquatische Ökologie, Tel. 0201/18 3-3218, christian.schuerings@uni-due.de

Originalpublikation:
https://doi.org/10.1016/j.watres.2024.121136

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S0043135424000368?via%3Dihub
https://doi.org/10.1016/j.watres.2024.121136

Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S0043135424000368?via%3Dihub

(nach oben)


Arbeitszeitverkürzung: Was hält die Bevölkerung davon?

Bamberger Soziologinnen untersuchen in neuem DIFIS-Impuls die Einstellungen der Bevölkerung zu Gewerkschaftsforderungen nach Reduktion der Arbeitszeit.

Das Thema der Arbeitszeitverkürzung ist in Deutschland in den vergangenen Jahren ins Zentrum der öffentlichen Debatte gerückt. Insbesondere Gewerkschaftsforderungen lösen Reformdruck aus. Ganz aktuell streiken etwa Lokführerinnen und Zugbegleiterinnen der Deutschen Bahn neben höheren Löhnen auch für eine Reduktion ihrer regelmäßigen Wochenarbeitszeit. Doch wie steht die deutsche Bevölkerung zu derlei Forderungen? Aufschluss darüber kann ein Impulspapier dreier Bamberger Soziologinnen geben, das jetzt beim Deutschen Institut für Interdisziplinäre Sozialpolitikforschung (DIFIS) erschienen ist. Sie untersuchten die Einstellung der Bevölkerung zu Gewerkschaftsforderungen nach einer Arbeitszeitverkürzung anhand einer Tarifforderung der IG Metall. Diese sorgte bereits 2018 in Baden-Württemberg für große mediale Aufmerksamkeit. Sie beinhaltete unter anderem einen individuellen tariflichen Anspruch auf eine befristete Arbeitszeitverkürzung sowie einen teilweisen Lohnausgleich durch die Arbeitgebenden.

Junge Menschen unterstützen Gewerkschaftsforderung mehr als ältere
Die aktuellen Analysen basieren auf Daten des German Internet Panels (GIP) vom Juli 2018, die repräsentativ für die deutschsprachige Bevölkerung in Privathaushalten sind. 2.426 Personen wurden befragt. Das zentrale Ergebnis der Datenanalyse: Insgesamt besteht in der Bevölkerung eine hohe Zustimmung zu der Gewerkschaftsforderung nach Arbeitszeitverkürzung mit partiellem Lohnausgleich. 61 Prozent der Befragten drücken ihre Unterstützung aus. „Besonders junge Menschen befürworten die Forderung der IG Metall“ erläutert Prof. Dr. Katja Möhring, Inhaberin des Lehrstuhls für Soziologie, insbesondere Familie und Arbeit, an der Universität Bamberg. „Je höher das Alter der Befragten, desto mehr sinkt die Zustimmung. Das deutet auf eine zunehmende Bedeutung von individuellen Entscheidungsmöglichkeiten bei der Arbeitszeit hin.“ Personen, die die Forderung unterstützen, zeigen sich zudem durchschnittlich unzufriedener mit der Vereinbarkeit von Beruf und Privatleben. Es bestehen laut den Wissenschaftlerinnen jedoch keine wesentlichen Unterschiede zwischen Männern und Frauen sowie zwischen Personen mit und ohne Kinder.

Je höher das Einkommen, desto weniger Zustimmung
Drüber hinaus weisen die Ergebnisse darauf hin, dass traditionelle Konfliktlinien bestehen: „Je höher die berufliche Stellung und je höher das Einkommen, desto geringer fällt die Unterstützung für die Forderung nach Arbeitszeitverkürzung aus“, erklärt Maximiliane Reifenscheid, wissenschaftliche Mitarbeiterin am Lehrstuhl für Soziologie, insbesondere Familie und Arbeit. Bei Personen ohne Führungsverantwortung liegt die Unterstützung höher als bei jenen in Managementpositionen und unter Gewerkschaftsmitgliedern finden sich mehr Unterstützer*innen als unter Selbstständigen.

Partei-Neigung spielt eine Rolle
Die Unterstützung der Forderung nach einem Recht auf Arbeitszeitverkürzung mit partiellem Lohnausgleich unterscheidet sich auch nach Partei-Neigung. So findet die Forderung von 2018 bei Anhängerinnen der Grünen die größte Zustimmung und erzielt auch bei den Anhängerschaften der SPD und der Linken höhere Unterstützungswerte. Die geringste Unterstützung drücken Anhängerinnen der FDP sowie jene der CDU aus.

Analyse im Kontext der aktuellen Tarifauseinandersetzungen bei der Deutschen Bahn
In Bezug auf die aktuellen Auseinandersetzungen bei der Deutschen Bahn sind vor allem drei Ergebnisse hervorzuheben: Die Unterstützung für die gewerkschaftliche Forderung der IG Metall war 2018 besonders hoch bei Jüngeren, bei Gewerkschaftsmitgliedern sowie bei Personen, die mit den Vereinbarkeitsmöglichkeiten von Beruf und Privatleben unzufrieden sind. „Unsere Ergebnisse deuten darauf hin, dass die Gewerkschaft durch die Forderung nach Arbeitszeitverkürzung auch im aktuellen Fall einerseits die Bindung zu bestehenden Mitgliedern stärken, andererseits aber auch für neue Mitglieder unter jüngeren Beschäftigten attraktiver werden kann“, schlussfolgert Katja Möhring.

Der DIFIS-Impuls ist kostenfrei zu finden unter: https://difis.org/institut/publikationen/publikation/68

Über die DIFIS-Impulse: Das kompakte Publikationsformat widmet sich aktuellen gesellschaftlichen Entwicklungen: Wissenschaftler*innen machen Bestandsaufnahmen, analysieren Problemlagen und leiten daraus praxisnahe Empfehlungen für Politik und öffentliche Einrichtungen ab. Mehr dazu unter: https://difis.org/publikationen/difis-impulse/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Katja Möhring
Lehrstuhl für Soziologie, insbesondere Familie und Arbeit
katja.moehring@uni-bamberg.de

Originalpublikation:
https://difis.org/institut/publikationen/publikation/68

(nach oben)


Hepatitisviren im Abwasser aufspüren

Hepatitis E ist in der Bevölkerung weltweit verbreitet. Die Weltgesundheitsorganisation schätzt, dass sich jedes Jahr rund 20 Millionen Menschen damit infizieren. „Möglicherweise sind es aber auch sehr viel mehr – das wissen wir nicht genau, weil kein zuverlässiges Screening stattfindet“, erklärt Fiona Rau von der Abteilung Molekulare und Medizinische Virologie der Ruhr-Universität Bochum. Möglich wäre es, das Vorkommen des Hepatitis-E-Virus (HEV) im Abwasser zu überwachen. Das zeigt ihre Dissertation, für die sie und das Team der Abteilung Virus-RNA in Proben aus 21 Klärwerken, einem Kanal und der Emscher aufgespürt haben.

Die Forschenden berichten in der Zeitschrift Liver International vom 30. Januar 2024.

Behandlung im Klärwerk senkt die Belastung
Fiona Rau sammelte über ein Jahr hinweg Wasserproben aus dem Rhein-Herne-Kanal und der Emscher und konnte auf weitere Abwasserproben aus 21 Kläranlagen in NRW zurückgreifen. Bei der folgenden Analyse stand die Suche nach viraler RNA des Hepatitis-E-Virus (HEV) im Mittelpunkt. Ergebnis: In fast 73 Prozent der insgesamt 605 genommenen Wasserproben war HEV-RNA nachweisbar. Der Vergleich zwischen noch unbehandeltem Abwasser und dem Wasser, das die Kläranlagen verließ, zeigte, dass die dortige Behandlung die virale Belastung reduziert. Dennoch blieb Virus-RNA im Wasser.

Die hohe Rate HEV-positiver Gewässerproben überraschte die Forschenden nicht: Sie steht zum einen im Einklang mit Daten aus anderen Regionen. Zum anderen gibt es in Nordrhein-Westfalen viele Schweinemastbetriebe. Hepatitis E kommt bei Schweinen häufig vor und kann auch aus infizierten Fleischprodukten auf den Menschen übergehen.

Genetische Varianten auffindbar
Eine Tiefensequenzierung der Proben belegte, dass es auch möglich ist, im Abwasser verschiedene genetische Varianten des Virus auszumachen. „Es wäre denkbar, dass man auf diese Weise künftig früh erkennen könnte, ob Varianten, die gegen bestimmte Medikamente resistent sind, häufiger auftreten“, so Dr. Daniel Todt aus dem Bochumer Forschungsteam.

Bei ansonsten gesunden Menschen heilt Hepatitis E zwar meist folgenlos aus. Für immungeschwächte Menschen und schwangere Frauen kann das Virus allerdings lebensgefährlich sein. Spezielle Medikamente dagegen gibt es nicht. „Auch wenn wir eine gewisse Wirksamkeit von allgemein antiviral wirksamen Medikamenten oder solchen sehen, die gegen andere Hepatitis-Viren entwickelt wurden, ist die Behandlung häufig nicht erfolgreich, weil das Virus Resistenzen bildet“, so Daniel Todt.

Die Bochumer Forschenden konnten in aktuellen Arbeiten mehrere Mutationen identifizieren, die zu Resistenzen gegen die Behandlung mit verschiedenen Wirkstoffen führten. „Angesichts der Tatsache, dass diese Varianten die derzeitige und wahrscheinlich auch künftige antivirale Behandlung behindern, ist es wichtig, ihre Häufigkeit in der HEV-infizierten Bevölkerung und in der Umwelt zu untersuchen“, so Todt.

Förderung
Die Arbeiten wurden gefördert durch das Bundesministerium für Bildung und Forschung (Projekte VirBio; 01KI2106 und HepEDiaSeq 01EK2106A/B), sowie das Gesundheitsministerium Nordrhein-Westfalen (ZMVI1-2518FSB705) und das Deutsche Zentrum für Infektionsforschung.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eike Steinmann
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 28189
E-Mail: eike.steinmann@ruhr-uni-bochum.de

Dr. Daniel Todt
Arbeitsgruppe Computational Virology (Computergestützte Virologie)
Abteilung für Molekulare und Medizinische Virologie
Medizinische Fakultät
Ruhr-Universität Bochum
Tel.: +49 234 32 22463
E-Mail: daniel.todt@ruhr-uni-bochum.de

Originalpublikation:
Fiona Rau, Carina Elsner, Toni Luise Meister, Andre Gömer, René Kallies, Ulf Dittmer, Eike Steinmann, Daniel Todt: Monitoring of Hepatitis E Virus in Wastewater Can Identify Clinically Relevant Variants, in: Liver International, 2024, DOI: 10.1111/liv.15842, https://onlinelibrary.wiley.com/doi/10.1111/liv.15842

(nach oben)


Belastung durch giftige Arzneirückstände – Hochschule Hof stärkt Abwasserreinigung in Indien

Die Reinigung toxischer Abwässer der Pharmaindustrie in Indien soll sich verbessern – das ist das Ziel eines Forschungsprojektes am Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa). Die rapide ansteigende Produktion von Arzneimitteln in Ländern wie Indien führt derzeit noch zu großen Mengen an problematischen Abwässern. Diese können bei Mensch und Tier enorme Gesundheitsprobleme verursachen, wenn sie unbehandelt in Ökosysteme eingeleitet werden. Zur Umsetzung einer neuartigen Reinigungstechnologie wurde nun eine erste Pilotanlage nach Indien verschifft.

Auf dem indischen Subkontinent werden immer mehr kostengünstige Medikamente für den Weltmarkt hergestellt – wovon ein großer Teil nach Europa exportiert wird. Mit einer jährlichen Wachstumsrate von 10 – 12 % strebt die Branche an, bis zum Jahr 2030 Weltmarktführer zu werden und ihren Umsatz auf 130 Milliarden US-Dollar zu steigern. Für Gesellschaft und Umwelt hat das wichtige Geschäft mit Medikamenten einen hohen Preis. Abwässer aus pharmazeutischen Produktionsfirmen, die verschiedenste Chemikalien und Wirkstoffreste beinhalten, werden oft noch ungeklärt in Flüsse eingeleitet – mit verheerenden Auswirkungen für Ökosysteme und Gesundheit. Dem will die Hochschule Hof mit ihren Verbundpartnern im Projekt „pharmIn2“ nun entgegenwirken.

Innovative Reinigungstechnologie
Das bereits 2023 gestartete Forschungsprojekt basiert auf der innovativen Abwasserbehandlungstechnologie a3op, die durch das Unternehmen „up2e! GmbH“ aus dem bayerischen Rain am Lech entwickelt wurde. „Dabei wird akustische Energie mit einem einzigartigen Gaseintragssystem kombiniert, wodurch ein extrem leistungsfähiger und hoch reaktiver Oxidationsprozess entsteht“, erläutert Geschäftsführerin Ulla Pöschl den Reinigungsprozess. Im Verbund mit dem indischen Partnerunternehmen Paques Environmental Technology Pvt, dem Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa) sowie dem Bayerisch-Indischen Zentrum für Wirtschaft und Hochschulen (BayIND), das ebenfalls an der Hochschule Hof beheimatet ist, wurde zur praktischen Anwendung der Technik nun eine erste Pilotanlage konzipiert, in Deutschland gebaut und ins südostindische Chennai verschifft.

Abwässer müssen gereinigt werden
Sie soll im März beim indischen Projektpartner in Betrieb genommen werden. Vor Ort soll mit Hilfe der Pilotanlage die Anwendung bei Abwasserproduzenten getestet werden und so Kunden für den Bau ganzer Großanlagen im indischen Pharmasektor gewonnen werden. Denn pharmazeutische Abwässer müssen vor der Einleitung in die Gewässer auch in Indien jetzt wirksam vorbehandelt werden, am besten direkt auf dem Industriegelände“, so Prof. Günter Müller-Czygan, Leiter der Forschungsgruppe Wasserinfrastruktur und Digitalisierung am Institut für nachhaltige Wassersysteme der Hochschule Hof (inwa). Die größte Herausforderung sei es, die Pilotanlage nach dem Export nun innerhalb eines vorgegebenen Zeitraums zu installieren und anschließend die Effizienz der Technologie auf dem lokalen indischen Markt nachhaltig zu demonstrieren, so der Forscher.

Schulungsplattform für indische Wirtschaft
Die Forschenden der Hochschule Hof übernehmen im begleitenden Prozess die Erstellung einer Online-Lern- und Schulungsplattform für die entwickelte Technologie. Diese richtet sich als Drehscheibe für den Wissenstransfer dezidiert an indische Universitäten, öffentliche Einrichtungen sowie an interessierte Unternehmen. „Für eine bessere Sichtbarkeit planen wir vor Ort Online-Workshops, Webinare, Schulungen und auch die Teilnahme an Veranstaltungen und Messen“, erläutert Projektmitarbeiterin Jasmin Mundackal, die direkt nach erfolgreichem Abschluss im Hofer Masterstudiengang „Sustainable Water Management and Engineering“ als wissenschaftliche Mitarbeiterin in das Projekt einsteigen konnte und mit ihrer indischen Herkunft auch die kommunikative Brücke zwischen den deutschen und den indischen Partnern bildet. Das Bayerisch-Indische Zentrum für Wirtschaft und Hochschulen (BayIND) ist als Netzwerkpartner für den Aufbau von Kontakten zu Kooperationspartnern in Wissenschaft und Wirtschaft in Indien zuständig und unterstützt zudem bei der Vermarktung der Technologie.

Erweiterung auf andere Branchen möglich
Zur Zielgruppe gehören zunächst Pharmaunternehmen, Kläranlagen und andere Dienstleister, die pharmazeutische Abwässer behandeln müssen. Die innovative Technologie soll später auch in anderen umweltkritischen Branchen zum Einsatz kommen – so könnten auch chemische und lebensmittelverarbeitende Betriebe von der Einführung der a3op-Technologie profitieren.

Förderung
Das Projekt „pharmIn2“ läuft noch bis zum 31. Januar 2025. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz im Rahmen des Förderprogramms „Exportinitiative Umweltschutz“ gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de

(nach oben)


Biomüll als Ressource

Nachhaltige Nutzung von organischen Reststoffen im Fokus eines transdisziplinären Projekts der Universitäten Gießen und Prishtina – Förderung durch die Deutsche Bundesstiftung Umwelt

Wie lassen sich organische Abfälle aus Siedlungen und der Landwirtschaft nachhaltig nutzen? Mit dieser Frage beschäftigen sich Wissenschaftlerinnen und Wissenschaftler der Universität Prishtina (Republik Kosovo) und der Justus-Liebig-Universität Gießen (JLU) in einem binationalen transdisziplinären Projekt. Sie entwickeln am Beispiel der Kommune Viti in der Republik Kosovo Konzepte zur Nutzung von organischen Reststoffen als Bioressourcen. Die Ergebnisse sollen auch auf weitere Kommunen des Westbalkans übertragbar sein. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt ORG-VITI an der JLU ab Juni 2024 für drei Jahre mit insgesamt rund 161.000 Euro.

In der Republik Kosovo werden organische Siedlungs- und Landwirtschaftsabfälle so entsorgt, dass dies Risiken für Mensch und Umwelt birgt – beispielsweise durch illegales Verbrennen in der Natur. Nicht nur deshalb besteht auf kommunaler Ebene Interesse an einer nachhaltigen Nutzung dieser Reststoffe. „Die Entwicklung von Konzepten und deren Umsetzung in geeigneten Formen der Kreislaufwirtschaft stellt für die lokalen Akteure große Herausforderungen dar“, so Prof. Dr. Rainer Waldhardt, Professor für Landschaftsökologie und Landschaftsplanung, der das Drittmittelprojekt leitet. „Diese Herausforderungen können in partnerschaftlicher Zusammenarbeit von Kommunen und Hochschulen besser gemeistert werden.“

Im Projekt ORG-VITI arbeiten Wissenschaftlerinnen und Wissenschaftler der Universitäten in Prishtina und Gießen zusammen mit Vertreterinnen und Vertretern der Kommunalverwaltungen von Viti und der Stadt Kirchhain. Die Zusammenarbeit kommt nicht von ungefähr: Wichtige Grundlagen sind eine seit 2017 bestehende kommunale Nachhaltigkeitspartnerschaft der Kommunen Viti und Kirchhain, die seit Anfang 2023 als Städtepartnerschaft beider Kommunen vertraglich geregelt ist, sowie die seit 2012 bestehende Kooperation der beiden Universitäten. Hinzu kommt die Expertise mehrerer assoziierter Projektpartner aus beiden Ländern, darunter die Nichtregierungsorganisation „GLV Vitia“ und der Verein Region Marburger Land e.V. Zudem werden auch Schülerinnen und Schüler sowie Studierende einbezogen.

Das Team an der JLU wird für Datenerhebungen zu den Mengen und Qualitäten organischer Reststoffe in Viti sowie für chemische Analysen dieser Reststoffe zuständig sein. „Hier kann es je nach Bevölkerungs- und Landwirtschaftsstruktur zwischen Kommunen und selbst innerhalb einzelner Orte deutliche Unterschiede geben“, so Prof. Waldhardt. „Entsprechende Daten liegen auf kommunaler und örtlicher Ebene in der Republik Kosovo jedoch bislang nicht vor.“ Die dazu im Projekt erhobenen Daten bilden eine wichtige Grundlage, um passende Wege der künftigen Nutzung in Form von ressourcenschonenden Wertketten zu erarbeiten, mit denen die organischen Reststoffe als Wertstoffe auf unterschiedliche Weise genutzt werden können – beispielsweise zur Energieerzeugung, zur Herstellung von organischem Dünger oder als Futter bei der Produktion von Insektenprotein. Die im transdisziplinären Prozess dazu entwickelten Wege werden an der JLU zusammengetragen und hinsichtlich ökologischer, wirtschaftlicher und sozialer Effekte bewertet.

Dabei werden die zu erwartenden Umweltauswirkungen, die Kosten unter Berücksichtigung gegebenenfalls einzuwerbender Fördergelder, die Marktchancen, die finanziellen Gewinnaussichten sowie die rechtlichen Limitierungen betrachtet. Der komplexe Prozess, die Wertketten zu erarbeiten und zu priorisieren, beginnt mit dem Aufbau einer Datenbank, die das Wissen aus weltweiten Projekten zur nachhaltigen Nutzung organischer Reststoffe aus Siedlungen und Landwirtschaft bündelt, und die im Projekt laufend ergänzt wird.

Ergänzend führt die Kommune Viti einen Workshop mit Schülerinnen und Schülern aus Viti durch und die Universität Prishtina bietet gemeinsam mit Forschenden der JLU einen zweiwöchigen Kurs mit Studierenden aus der Republik Kosovo und weiteren Ländern des Westbalkans an. Die Ergebnisse dieser beiden Projektmodule werden ebenfalls in den Prozess der Erarbeitung und Priorisierung von Wertketten einfließen. Zudem dienen sie dazu, die Wichtigkeit der nachhaltigen Nutzung organischer Reststoffe in der Republik Kosovo bekanntzumachen, denn dies wird bedeutsam für die Umsetzung und Akzeptanz entsprechender Wertketten sein. Schülerinnen und Schüler sowie Studierende sind hier wichtige Multiplikatorinnen und Multiplikatoren, zudem werden sie künftig die Lebensgrundlagen ihrer Heimat gestalten.

Die Projektbeteiligten tauschen sich auch mit potenziellen Investorinnen und Investoren zur Kreislaufwirtschaft aus und begleiten erste Schritte der Umsetzung. Dabei steht die Kommune Viti stellvertretend für Kommunen mittlerer Größe in der Republik Kosovo, die durch eine für diese Kommunen typische große Vielfalt landwirtschaftlicher Nutzungen gekennzeichnet ist. Die Ausgestaltung einzelner Wertketten wird sich daher auch auf andere Kommunen der Region übertragen lassen. Welche der möglichen Wertketten in den jeweiligen Kommunen zu bevorzugen sind, muss jedoch individuell beurteilt werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rainer Waldhardt
Professur für Landschaftsökologie und Landschaftsplanung
Telefon: 0641 99-37163
E-Mail: rainer.waldhardt@umwelt.uni-giessen.de

Weitere Informationen:
http://www.uni-giessen.de/viti-projekt

(nach oben)


Wie Wellen und Vermischung Küstenauftriebssysteme antreiben: Neue Erkenntnisse zur Produktivität vor Angolas Küste

Große Küstenauftriebsgebiete entlang der östlichen Ränder des Atlantiks und Pazifiks zählen zu den biologisch produktivsten Regionen des Weltozeans. Gewöhnlich hängt das mit den hier vorherrschenden Winden zusammen. Interessanterweise treten in einigen tropischen Regionen hohe Produktivitätswerte auf, selbst wenn die Winde schwach sind. Ein internationales Forschungsteam hat nun das Auftriebssystem vor der Küste Angolas untersucht und konnte zeigen, dass die Kombination von so genannten Schelfrandwellen und verstärkter Durchmischung auf dem Schelf für dieses Phänomen verantwortlich ist. Die Ergebnisse der Studie erscheinen heute in der Fachzeitschrift Science Advances.

Sie gehören zu den produktivsten und artenreichsten Bereichen der Weltmeere: die großen Küstenauftriebsgebiete entlang der östlichen Ränder des Atlantiks und Pazifiks. Dort sorgen normalerweise stetig in Richtung des Äquators wehende Winde dafür, dass oberflächennahes Wasser von der Küste wegbewegt wird. Kaltes, nährstoffreiches Wasser aus der Tiefe strömt an die Oberfläche nach, was das Wachstum von Phytoplankton fördert und die Grundlage für ein reiches marines Ökosystem in diesen Regionen bildet.

In einigen tropischen Regionen gibt es jedoch selbst dann eine hohe biologische Produktivität, wenn die für den Auftrieb verantwortlichen Winde vergleichsweise schwach sind. Welche physikalischen Mechanismen dabei eine Rolle spielen, hat ein internationales Forschungsteam jetzt für das Auftriebsgebiet vor der Küste Angolas südlich des Äquators untersucht. Die Wissenschaftler:innen fanden heraus, dass die Kombination von so genannten Schelfrandwellen und verstärkter Vermischung auf dem Schelf für dieses Phänomen verantwortlich ist. Ihre heute in der Fachzeitschrift Science Advances erscheinenden Ergebnisse könnten dazu beitragen, die Stärke der saisonalen Planktonblüte vorherzusagen.

„Die Produktivität in dem Auftriebsgebiet vor Angola zeigt starke saisonale Schwankungen“, sagt Erstautorin Mareike Körner, Doktorandin in der Forschungseinheit Physikalische Ozeanographie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. „Im dortigen Winter, von Juli bis September, ist die Hauptauftriebszeit. Während dieser Jahreszeit gibt es eine sehr hohe Primärproduktion in den Gewässern vor der angolanischen Küste, und entsprechend wird zu dieser Zeit viel gefischt.“

Eine entscheidende Rolle spielen dabei Wellen im Innern des Ozeans, die im Rhythmus der Jahreszeiten eine Auf- und Abwärtsbewegung des kalten nährstoffreichen Wassers verursachen. Diese Wellen werden nicht lokal vor der Küste Angolas erzeugt, sondern haben ihren Ursprung am Äquator. Jahreszeitliche Windschwankungen erzeugen dort Wellen, welche sich entlang des Äquators in östliche Richtung ausbreiten. Am Ostrand des äquatorialen Atlantiks angekommen, regen sie so genannte Schelfrandwellen an, die sich polwärts entlang der afrikanischen Küste ausbreiten. Auf ihrem Weg sorgen diese Randwellen dafür, dass nährstoffreiches Wasser auf den Schelf schwappt. Die durch die Gezeiten bedingte starke Vermischung auf dem Schelf bringt dann die Nährstoffe bis an die Oberfläche, wo sie eine erhöhte Primärproduktion bewirken. Diese Planktonblüten können von Jahr zu Jahr variieren, abhängig von der Intensität und der Ankunftszeit der Randwellen.

Für ihre Studie kombinierten die Forschenden hydrografische Daten, Sauerstoff-, Nitrat- und Satellitendaten sowie ein regionales Ozeanmodell.

Körner hebt hervor: „Der Auftrieb vor Angola wird durch Wellen hervorgerufen, welche am Äquator angeregt werden und sich dann weiter entlang der afrikanischen Küste ausbreiten. Dies ermöglicht es Stärke und Zeitpunkt der Planktonblüte vor Angola auf saisonalen Zeitskalen vorherzusagen.“ Das bessere Verständnis der Antriebsmechanismen in diesem südwestafrikanischen Küstenauftriebssystem ist außerdem entscheidend, um mögliche künftige Veränderungen, wie die Auswirkungen des Klimawandels oder anderer menschlicher Einflüsse, auf dieses wichtige marine Ökosystem zu bewerten.

Das GEOMAR, wo der „Auftrieb im Atlantischen Ozean“ im Rahmen der Strategie GEOMAR 2030 einen wichtigen Forschungsschwerpunkt darstellt, forscht bereits seit 2013 in dem Gebiet und hat eine umfassende Zusammenarbeit mit angolanischen Kolleg:innen aufgebaut. Sieben Forschungsfahrten unter Leitung der Physikalischen Ozeanographie haben unter anderem umfangreiche Daten zur Vermischung und zur Verteilung von Nährstoffen auf dem Schelf geliefert. Zudem sammelt seit 2013 eine dauerhaft am Meeresgrund verankerte Messstation Daten zu verschiedenen Parametern wie Strömungsgeschwindigkeiten, Temperatur, Salzgehalt und Sauerstoff.

Originalpublikation:
Körner, M., Brandt, P., Illig, S., Dengler, M., Subramaniam, A., Bachèlery, M.-L., Krahmann, G. (2024) Coastal trapped waves and tidal mixing control primary production in the tropical Angolan upwelling system. Science Advances.
https://doi.org/10.1126/sciadv.adj6686

Weitere Informationen:
http://www.geomar.de/n9301 Bildmaterial zum Download (nach Ablauf des Embargos)
https://www.geomar.de/entdecken/ozean-und-klima/klimawandel-im-ozean/auftriebsge…
http://www.geomar.de/auftrieb-im-atlantischen-ozean Forschungsfokus Auftrieb im Atlantischen Ozean
https://www.geomar.de/futuro FUTURO – Die Zukunft der Auftriebsgebiete im tropischen Atlantischen Ozean
https://futuro-campaign.org/ Infos zu FUTURO erhalten

(nach oben)


Gene nutzen oder verlieren: Wie Seegräser das Meer erobern

Gent/Groningen/Kiel/Neapel. Seegräser bilden die Grundlage für eines der artenreichsten und zugleich empfindlichsten marinen Küstenökosysteme der Welt. Sie entwickelten sich vor etwa 100 Millionen Jahren in drei unabhängigen Linien aus ihren im Süßwasser vorkommenden Vorfahren und sind die einzigen vollständig unter Wasser lebenden marinen Blütenpflanzen. Der Wechsel in eine so radikal andere Umgebung ist ein seltenes evolutionäres Ereignis – und er dürfte nicht einfach gewesen sein. Wie gelang den Seegräsern dieser Schritt? Neue hochqualitative Genome für drei Arten liefern Hinweise, die für den Erhalt von Seegras-Ökosystemen und deren nachhaltige Nutzung von Bedeutung sind.

Seegras-Ökosysteme bieten zahlreiche Funktionen und Dienstleistungen. So können sie als Erosionsschutz dienen, der die Küstenlandschaften bewahrt. Außerdem gelten sie dank der Vielzahl mit ihnen verbundener Tiere und Algen als Oasen der biologischen Vielfalt. Obendrein bieten sie sich aufgrund ihrer Fähigkeit, Kohlenstoff in der unterirdischen Biomasse zu speichern, als naturbasierte Lösung für den Klimaschutz an. Sowohl zur Erhaltung als auch zur Wiederherstellung dieser Ökosysteme wird intensiv geforscht – denn Seegräser gehen ebenso wie Korallenriffe durch die Klimaerwärmung und andere menschliche Einflüsse verloren.

Eine internationale Gruppe von 38 Forschenden, koordiniert von Professor Dr. Yves Van de Peer, Universität Gent, Belgien, Professorin Dr. Jeanine Olsen, Universität Groningen, Niederlande, Professor Dr. Thorsten Reusch, GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, Deutschland, Dr. Gabriele Procaccini, Stazione Zoologica Anton Dohrn, Neapel, Italien, und des Joint Genome Institute, Berkeley, Kalifornien, Vereinigte Staaten von Amerika, sequenzierten und analysierten nun die Genome von drei der wichtigsten Seegras-Arten: dem ikonischen, nur im Mittelmeerraum vorkommenden Neptungras (Posidonia oceanica), dem weit verbreiteten Kleinen Neptungras (Cymodocea nodosa) und dem in der Karibik endemischen Schildkrötengras (Thalassia testudinum). Die Forschenden untersuchten zunächst die Genomstruktur der Pflanzen. Anschießend verglichen sie Genfamilien und genomische Modifikationen, die mit strukturellen und physiologischen Anpassungen verbunden sind. Hierbei verglichen sie die drei marinen Seegräser auch mit deren verwandten Süßwasserarten. Ihre Ergebnisse präsentieren die Forschenden in einer heute erscheinenden Publikation in der Fachzeitschrift Nature Plants.

Die internationale Zusammenarbeit bestätigt: „Viele Hände und Hirne machen die Arbeit leicht.“ Am Anfang stand ein Rückblick in die Evolution der Genom-Struktur, gefolgt von einer vergleichenden Analyse der mehr als 20.000 Gene und der relevanten Entwicklungswege, die zu den spezifischen marinen Anpassungen führten. Anschließend konzentrierten sich die 23 kooperierenden Forschungsteams auf verschiedene komplementäre strukturelle oder funktionelle Genfamilien einschließlich ihrer physiologischen Funktionen. Eine zentrale Frage war, ob die genomischen Anpassungen parallel oder unabhängig voneinander entstanden und vielleicht sogar unterschiedliche Gene betreffen.

Professorin Dr. Olsen betont: „Seegräser haben eine extrem seltene Folge von Anpassungen durchlaufen. Während die Neuanpassung an ein Leben im Süßwasser in der Evolutionsgeschichte der Blütenpflanzen mehr als 200 Mal stattgefunden hat – was Hunderte von Stämmen und Tausenden von Arten umfasst – haben sich Seegräser nur drei Mal aus ihren Süßwasser-Vorfahren entwickelt – mit 84 zugehörigen Arten. Dies erforderte eine spezielle Toleranz, etwa gegenüber hohem Salzgehalt, geringerem Licht, unterschiedlichen Wassertemperaturen, der Aufnahme von Kohlenstoff für die Photosynthese unter Wasser, einer anderen Abwehr von Krankheitserregern, struktureller Flexibilität und der Fähigkeit zur Unterwasserbestäubung.“

Ein wichtiges Ergebnis war, dass die Seegräser in der Lage waren, radikale Anpassungen durch Genomverdopplung vorzunehmen, wie sie oft mit starkem Umweltstress verbunden sind. „Der Vergleich der drei unabhängigen Seegras-Linien und den Linien ihrer Süßwasser-Verwandten ergab eine gemeinsame lange zurückliegende Verdreifachung des gesamten Genoms vor etwa 86 Millionen Jahren. Das ist sehr interessant, weil große Teile des Ozeans zu dieser Zeit sauerstofffrei waren und es sich um ein Stressereignis handelt, das sich in allen drei Linien niederschlug“, erklärt Professor Dr. Van De Peer.

Darüber hinaus stellten die Forschenden fest, dass sich die Beibehaltung und Erweiterung einiger Genfamilien durch erhalten gebliebene genetisch gleich strukturierte Blöcke auf diese frühen Verdoppelungen zurückverfolgen ließ. Zu diesen Genen gehörten etwa Flavonoide, die Schutz vor ultravioletter Strahlung und Pilzen bieten und gleichzeitig die Rekrutierung von stickstofffixierenden Bakterien anregen, oder auch erweiterte spezielle Enzyme, mit deren Hilfe die Pflanzen Sauerstoffmangel in Sedimenten widerstehen können. Auch Gene, die den Tag-Nacht-Wechsel steuern, zählten hierzu. Die Ergebnisse zeigen auch, dass von einer Stelle an die andere „springende“ Gene eine wichtige Rolle bei der Schaffung neuer genetischer Variationen spielen, auf die die Selektion einwirken kann. Dies galt insbesondere für die großen Genome von Thalassia testudinum und Posidonia oceanica.

Das Team stellte außerdem fest, dass mehrere Anpassungen das Ergebnis evolutionsbiologischer Konvergenz sind. Dies galt vor allem für Merkmale, die untergetaucht im Meerwasser überflüssig oder schädlich wurden. Zu den überzeugenden Beispielen einer Entwicklung im Sinne von „Nutzen oder verlieren“ gehören der Verlust von Genen für die Spaltöffnungen – die winzigen Öffnungen in der Blattoberfläche, die den Gasaustausch mit der Atmosphäre ermöglichen – oder der Verlust von Genen für flüchtige Stoffe zur Übertragung von Signalen für eine Abwehr von Krankheitserregern und zur Toleranz gegenüber marinen Hitzewellen, insbesondere Hitzeschockfaktoren.

Dr. Procaccini erklärt: „Bei einigen Anpassungen handelte es sich eher um eine Modifikation bestehender Gene, als um einen Funktionswechsel oder Verlust ganzer Gene. Die Salztoleranz ist ein gutes Beispiel dafür, dass die Effizienz mehrerer Prozesse zur Regulierung von Natrium, Chlor und Kalium gesteigert wurde, und das betraf mehrere physiologische Schritte.“

Professor Dr. Reusch fasst zusammen: „Die meisten ökologisch wichtigen Merkmale beruhen auf komplexen Eigenschaften, für die viele Gene über flexible Wege zusammenwirken. Mit dem genomischen Werkzeugkasten, der jetzt für die wichtigsten Seegräser entwickelt wurde, können wir beginnen, sie experimentell zu testen und zu manipulieren. Dies ist besonders wichtig für die Wiederherstellung unter Klimawandelszenarien, die viele der hier diskutierten Bedingungen beinhalten.

Die neuen Erkenntnisse zur genetischen Entwicklung der Seegräser werden experimentelle und funktionelle Studien voranbringen, die für ein transformatives Management und die Wiederherstellung von Seegras-Ökosystemen besonders wichtig sind. Sie sind eine enorme Ressource für die Forschungsgemeinschaft, um auch die zukünftige Anpassungsfähigkeit von Seegras-Ökosystemen zu verstehen und möglicherweise gezielt zu erhöhen.

Originalpublikation:
Ma, X., Vanneste, S., Chang, J. et al. Seagrass genomes reveal ancient polyploidy and adaptations to the marine environment. Nat. Plants (2024). https://doi.org/10.1038/s41477-023-01608-5

Weitere Informationen:
http://www.geomar.de/n9309 Bildmaterial zum Download
https://www.ugent.be Universität Gent
https://www.rug.nl Universität Groningen
https://jgi.doe.gov Joint Genome Institute
https://www.szn.it Stazione Zoologica Anton Dohrn
https://www.geomar.de/entdecken/seegraswiesen GEOMAR Entdecken: Seegraswiesen

(nach oben)


Grüner Stahl aus giftigem Rotschlamm

Bei der Produktion von Aluminium fallen jährlich rund 180 Millionen Tonnen giftigen Rotschlamms an. Wissenschaftler des Max-Planck-Instituts für Eisenforschung zeigen nun, wie sich aus dem Abfall der Aluminiumproduktion grüner Stahl erzeugen lässt. In einem Lichtbogenofen wandeln sie das im Rotschlamm enthaltene Eisenoxid mithilfe von Wasserstoffplasma in Eisen um. Auf diese Weise ließen sich aus den vier Milliarden Tonnen Rotschlamm, die sich bislang weltweit angesammelt haben, knapp 700 Millionen Tonnen CO2-freier Stahl gewinnen. Das entspricht einem guten Drittel der jährlichen Stahlproduktion weltweit. Und wie das Max-Planck-Team zeigt, würde sich dieser Prozess auch ökonomisch lohnen.

Die Nachfrage nach Stahl und Aluminium wird Prognosen zufolge bis 2050 um bis zu 60 Prozent steigen. Die konventionelle Produktion dieser Metalle belastet die Umwelt jedoch erheblich. So stammen acht Prozent der weltweiten CO2-Emissionen aus der Stahlindustrie, sie ist damit die Branche mit dem größten Ausstoß an Treibhausgasen. Bei der Aluminiumproduktion wiederum fallen jährlich etwa 180 Millionen Tonnen Rotschlamm an, der stark ätzend ist und Spuren von Schwermetallen wie etwa Chrom enthält. Dieser Abfall wird unter anderem in Australien, Brasilien und China bestenfalls in gigantischen Deponien aufwendig getrocknet und entsorgt. Bei starkem Regen wird der Rotschlamm oft aus der Deponie gespült, und bei Trockenheit als Staub vom Wind in der Umwelt verbreitet. Zudem greift der stark alkalische Rotschlamm die Betonwände der Deponien an, sodass auslaufender Rotschlamm bereits mehrmals Umweltkatastrophen auslöste, so etwa in China 2012 oder in Ungarn 2010. Und große Mengen Rotschlamm werden ohnehin einfach in der Natur entsorgt.

Potenziell 1,5 Milliarden Tonnen weniger CO2 aus der Stahlindustrie
„Unser Prozess könnte gleichzeitig das Abfallproblem der Aluminiumproduktion lösen und die CO2-Bilanz der Stahlindustrie verbessern“, sagt Matic Jovičevič-Klug, der als Wissenschaftler am Max-Planck-Institut für Eisenforschung maßgeblich an der Arbeit beteiligt war. In einer Studie, die im Fachmagazin Nature erschien, zeigt das Team, wie sich Rotschlamm als Rohstoff der Stahlindustrie nutzen lässt. Denn der Abfall der Aluminiumproduktion besteht aus bis zu 60 Prozent Eisenoxid. Die Max-Planck-Wissenschaftler schmelzen den Rotschlamm in einem Lichtbogenofen und reduzieren das darin enthaltene Eisenoxid gleichzeitig mit einem Plasma, das zehn Prozent Wasserstoff enthält, zu Eisen. Die Umwandlung, im Fachjargon Plasmareduktion genannt, dauert gerade einmal zehn Minuten, wobei sich das flüssige Eisen von den flüssigen Oxiden trennt und anschließend einfach abscheiden lässt. Das Eisen ist so rein, dass es sich direkt zu Stahl weiterverarbeiten lässt.

Die zurückbleibenden Metalloxide sind nicht mehr ätzend und erstarren beim Abkühlen zu einem glasartigen Material, dass sich etwa in der Bauindustrie als Füllmaterial einsetzen lässt. Andere Forschungsgruppen haben aus Rotschlamm in einem ähnlichen Ansatz mit Koks Eisen erzeugt, wobei stark verunreinigtes Eisen und große Mengen CO2 entstehen. Mit grünem Wasserstoff als Reduktionsmittel werden diese Treibhausgasemissionen vermieden. „Wenn man aus den vier Milliarden Tonnen Rotschlamm, die bei der weltweiten Aluminiumproduktion bislang angefallen sind, mit grünem Wasserstoff Eisen erzeugen würde, könnte die Stahlindustrie fast 1,5 Milliarden Tonnen CO2 einsparen“, sagt Isnaldi Souza Filho, Forschungsgruppenleiter am Max-Planck-Institut für Eisenforschung.

Ein wirtschaftliches Verfahren, auch mit grünem Wasserstoff und Strom
Auch die Schwermetalle im Rotschlamm lassen sich mit dem Verfahren quasi entschärfen. „Chrom haben wir nach der Reduktion im Eisen nachgewiesen“, sagt Matic Jovičevič-Klug. „Auch andere Schwer- und Edelmetalle gehen wahrscheinlich ins Eisen oder einen separaten Bereich über. Das werden wir in weiteren Studien untersuchen. Wertvolle Metalle könnte man dann abtrennen und weiterverwenden.“ Und Schwermetalle, die in den Metalloxiden zurückbleiben, seine darin fest gebunden und könnten nicht mehr mit Wasser ausgeschwemmt werden, wie dies beim Rotschlamm passieren kann.

Eisen mit Wasserstoff direkt aus Rotschlamm zu erzeugen, nützt aber nicht nur der Umwelt doppelt. Der Prozess lohnt sich auch ökonomisch, wie das Forschungsteam in einer Analyse der Kosten nachgewiesen hat. Mit Wasserstoff und einem Strommix für den Lichtbogenofen aus nur teilweise regenerativen Quellen lohnt sich das Verfahren bereits, wenn der Rotschlamm 50 Prozent Eisenoxid enthält. Berücksichtigt man noch die Kosten für die Entsorgung von des Rotschlamms, reichen darin sogar nur 35 Prozent Eisenoxid, um den Prozess wirtschaftlich zu machen. Mit grünem Wasserstoff und Strom ist bei den heutigen Kosten – den Aufwand für die Deponierung des Rotschlamms eingerechnet – ein Anteil von 30 bis 40 Prozent Eisenoxid nötig, damit das entstehende Eisen am Markt konkurrenzfähig ist. „Das sind vorsichtige Abschätzungen, weil die Kosten für die Entsorgung des Rotschlamms wahrscheinlich eher niedrig berechnet sind“, sagt Isnaldi Souza Filho. Ein weiter Vorteil aus Sicht der Praxis: Lichtbogenöfen sind in der Metallindustrie – auch in Aluminiumhütten – weitverbreitet, da sie damit Altmetall einschmilzt. In vielen Fällen müsste die Branche also nur wenig investieren, um nachhaltiger zu werden. „Uns war es wichtig, in unserer Studie auch die ökonomischen Aspekte zu berücksichtigen“, sagt Dierk Raabe, Direktor am Max-Planck-Institut für Eisenforschung. „Jetzt kommt es auf die Industrie an, ob sie die Plasmareduktion von Rotschlamm zu Eisen auch einsetzt.“
Wissenschaftliche Ansprechpartner:

Dr. Matic Jovičevič-Klug (m.jovicevic-klug@mpie.de)
Dr. Isnaldi R. Souza Filho (i.souza@mpie.de)
Prof. Dr.-Ing. Dierk Raabe (raabe@mpie.de)

Originalpublikation:
Matic Jovičević-Klug, Isnaldi R. Souza Filho, Hauke Springer, Christian Adam und Dierk
Raabe: Green steel from red mud through climate-neutral hydrogen plasma reduction, Nature, 24. Januar 2024, https://www.nature.com/articles/s41586-023-06901-z

(nach oben)


Zu häufig Breitbandantibiotika für Kleinkinder: Deutschland schneidet im Vergleich mit Dänemark schlecht ab

In Deutschland werden etwa 40 Prozent der Kleinkinder mit Breitbandantibiotika behandelt, wenn sie zum ersten Mal in ihrem Leben ambulante Antibiotika erhalten. Im Vergleich dazu beträgt dieser Anteil in Dänemark lediglich 6 Prozent. Diese Diskrepanz hat potenziell schwerwiegende Folgen. Die Unterschiede zwischen beiden Ländern zeigten sich in einer aktuellen Studie des Leibniz-Instituts für Präventionsforschung und Epidemiologie – BIPS in Bremen und der Süddänischen Universität in Odense.

Die Wissenschaftlerinnen und Wissenschaftler haben für die Studie Daten aus dänischen Gesundheitsregistern und deutsche Krankenkassendaten verglichen. Sie beobachteten dabei Kinder, die zwischen 2004 und 2016 geboren wurden. Die Ergebnisse der Studie, die vor Kurzem in der Fachzeitschrift „Infectious Diseases and Therapy“ erschienen ist, zeigen deutliche Unterschiede zwischen den beiden Ländern.

„Im Geburtsjahrgang 2016 betrug die Zeit bis zur ersten Antibiotikaverschreibung in Dänemark etwa 21 Monate, während sie in Deutschland bei etwa 28 Monaten lag. Die Rate der Antibiotikabehandlungen pro 1.000 Personenjahre betrug 537 in Dänemark und 433 in Deutschland. Dies weist zunächst auf ein zurückhaltenderes Verschreibungsverhalten in Deutschland hin“, berichtet Dr. Oliver Scholle, Erstautor der Studie und wissenschaftlicher Mitarbeiter am BIPS. „Besorgniserregend ist allerdings, dass etwa 40 Prozent der Kleinkinder in Deutschland Breitbandantibiotika als erstes Antibiotikum in ihrem Leben erhalten, während es in Dänemark nur 6 Prozent sind. Dies ist im Hinblick auf Nebenwirkungen und Resistenzen sehr bedenklich.“

Im Vergleich der Geburtsjahrgänge von 2004 bis 2016 zeigte die Studie in beiden Ländern zwar auch positive Veränderungen bei Antibiotikaverschreibungen über die Zeit – wie beispielsweise einen Anstieg des Alters bei Erstverschreibung und einen Rückgang der Verschreibungshäufigkeit – doch gibt es eindeutig noch Raum für Verbesserungen. In Deutschland gilt das besonders für die Art der verordneten Antibiotika.

„Der Ländervergleich erwies sich als besonders wertvoll. Da man davon ausgehen kann, dass sich das Infektionsgeschehen zwischen beiden Ländern nicht grundlegend unterscheidet, lassen die Ergebnisse Ansatzpunkte zur Verbesserung des Verschreibungsverhaltens erkennen. Den verantwortungsvollen Einsatz von Antibiotika insgesamt und von Breitbandantibiotika gilt es sicherzustellen, um das Auftreten von Nebenwirkungen und die Entwicklung von Antibiotikaresistenzen zu minimieren“, erklärt Prof. Dr. Ulrike Haug, Letztautorin der Studie und Leiterin der Abteilung Klinische Epidemiologie am BIPS.

Das BIPS – Gesundheitsforschung im Dienste des Menschen
Die Bevölkerung steht im Zentrum unserer Forschung. Als epidemiologisches Forschungsinstitut sehen wir unsere Aufgabe darin, Ursachen für Gesundheitsstörungen zu erkennen und neue Konzepte zur Vorbeugung von Krankheiten zu entwickeln. Unsere Forschung liefert Grundlagen für gesellschaftliche Entscheidungen. Sie informiert die Bevölkerung über Gesundheitsrisiken und trägt zu einer gesunden Lebensumwelt bei.

Das BIPS ist Mitglied der Leibniz-Gemeinschaft, zu der 97 selbstständige Forschungseinrichtungen gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.000 Personen, darunter 10.000 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,9 Milliarden Euro.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrike Haug, Telefon: +49 (0)421 218-56-862, E-Mail: haug@leibniz-bips.de

Originalpublikation:
Scholle, O., Rasmussen, L., Reilev, M., Viebrock, J., & Haug, U. (2024). Comparative Analysis of Outpatient Antibiotic Prescribing in Early Life: A Population-Based Study Across Birth Cohorts in Denmark and Germany. Infectious Diseases and Therapy. Retrieved from https://doi.org/10.1007/s40121-024-00916-3

(nach oben)


Weltweit sinken die Grundwasserpegel immer schneller

Eine globale Studie zeigt, dass die Grundwasservorkommen der Welt schwinden: Die Pegel sinken weltweit stark, und im 21. Jahrhundert hat sich die Abnahme sogar beschleunigt. Aber es gibt auch Grund zur Hoffnung.

Anfang November titelte die New York Times, dass die USA ihr Grundwasser verbrauchen, als gäbe es kein Morgen. Die Journalist:innen des renommierten Mediums hatten eine Recherche über den Zustand der Grundwasserreserven in den Vereinigten Staaten veröffentlicht. Sie kamen zum Schluss, dass die US-​Amerikaner:innen zu viel Grundwasser aus dem Boden pumpen.

Doch die USA sind kein Einzelfall. «Auch der Rest der Welt verschleudert das Grundwasser, als gäbe es kein Morgen mehr», sagt Hansjörg Seybold, Senior Scientist am Departement Umweltsystemwissenschaften der ETH Zürich. Er ist Mitautor einer Studie, die soeben in der Fachzeitschrift «Nature» erschienen ist.

Wissenschaftlicher Beleg für schnellen Schwund
Zusammen mit Forschenden der University of California Santa Barbara stützt er den besorgniserregenden Befund der Medienschaffenden. Nicht nur in Nordamerika wird viel zu viel Grundwasser hochgepumpt, sondern auch auf anderen Erdteilen, die der Mensch besiedelt.

In einer beispiellosen Fleissarbeit haben die Forschenden Daten von über 170’000 Grundwassermessstellen und 1700 Grundwassersystemen der letzten 40 Jahre zusammengetragen und ausgewertet.

Diese Messdaten zeigen: In den vergangenen Jahrzehnten hat der Mensch die Grundwasserentnahme weltweit massiv ausgebaut. Die Pegelstände der meisten grundwasserführenden Gesteinsschichten, sogenannte Aquifere, sind seit 1980 fast überall auf der Welt drastisch gesunken.

Abnahme hat sich beschleunigt
Seit 2000 hat sich die Abnahme der Grundwasservorräte sogar weiter beschleunigt. Besonders betroffen sind diejenigen in den Trockengebieten dieser Welt, wie in Kalifornien, den High Plains, Spanien, dem Iran oder in Australien.

«Dass die Grundwasserpegel weltweit stark gesunken sind, hat uns nicht überrascht, aber das sich Tempo, in den letzten zwei Jahrzehnten noch beschleunigt hat, hat uns schockiert», sagt Seybold.

Der Grund für das beschleunigte Absinken der Grundwasserspiegel in Trockengebieten ist laut Seybold unter anderem, dass die Menschen diese Gegenden intensiv landwirtschaftlich nutzen und dafür (zu) viel Grundwasser zur Bewässerung der Kulturen an die Oberfläche pumpen, wie etwa im Central Valley in Kalifornien.

Landwirtschaft und Klimawandel verschärfen Problem
Zudem wächst die Weltbevölkerung. Es muss mehr Nahrung produziert werden, wie etwa in den Trockengebieten des Iran. In diesem Land sind die Grundwasserreserven mit am stärksten gesunken.

Aber auch der Klimawandel verschärft die Krise beim Grundwasser: In einigen Gebieten ist es in den vergangenen Jahrzehnten trockener und heisser geworden, landwirtschaftliche Kulturen müssen deshalb stärker bewässert werden. Fällt klimabedingt weniger Niederschlag, erholen sich die Grundwasservorkommen langsamer oder gar nicht.

Auch Starkniederschläge, wie sie im Zug des Klimawandels mancherorts häufiger auftreten, helfen nicht. Kommt das Wasser schwallartig, kann es der Boden oft nicht aufnehmen. Das Wasser fliesst dann oberflächlich ab, ohne dass es ins Grundwasser versickert. Dies gilt insbesondere an Orten mit starker Bodenversiegelung wie in Grossstädten.

Trendwende ist möglich
«Die Studie hat jedoch auch gute Nachrichten» sagt Co-​Autorin Debra Perrone. «In einigen Gebieten haben sich die Aquifere dann erholt, wenn die Politik Massnahmen ergriffen hat oder wo alternative Wasserquellen entweder zur direkten Nutzung oder zur Regeneration der Grundwasserreserven verwendet werden können.»

Eines der positiven Beispiele ist der Genfer Grundwasserleiter. Dieser versorgt rund 700’000 Menschen des Kantons Genfs und des benachbarten französischen Departements Haut-​Savoie mit Trinkwasser. Zwischen 1960 und 1970 sank dessen Pegel drastisch, weil sowohl in der Schweiz als auch in Frankreich unkoordiniert Wasser abgepumpt wurde. Einige Brunnen versiegten und mussten geschlossen werden.

Um die gemeinsamen Wasservorräte zu erhalten, einigten sich Politik und Behörden beider Länder auf eine künstliche Zufuhr von Wasser aus dem Flüsschen Arve. Damit sollte erst der Grundwasserpegel stabilisiert, später angehoben werden. Das ist gelungen. «Den ursprünglichen Stand hat dieser Aquifer zwar nicht mehr erreicht, aber trotzdem zeigt dieses Beispiel: es muss nicht sein, dass Grundwasserspiegel nur sinken», betont Seybold.

Auch andere Länder reagieren
Auch in anderen Ländern mussten die Behörden handeln: In Spanien wurde eine grosse Pipeline gebaut, die Wasser aus den Pyrenäen nach Zentralspanien führt und dort den Los Arenales Aquifer speist. In Arizona wird Wasser aus dem Colorado River in andere Gewässer umgeleitet, damit sich die Grundwassereservoire wieder auffüllen – was allerdings dazu führt, dass das Delta des Colorado Rivers zeitweise trockenfällt.

«Solche Beispiele sind ein Lichtblick», sagt UCSB-​Forscher und Erstautor Scott Jasechko. Dennoch fordern er und seine Kollegen dringend mehr Massnahmen gegen die Erschöpfung der Grundwasservorräte. «Sind die Grundwasserleiter in Halbwüsten und Wüsten fast erschöpft, kann es Jahrhunderte dauern, bis sie sich erholen, weil es schlicht nicht genug Niederschläge gibt, um diese Aquifere schnell wieder aufzufüllen», sagt Jasechko.

An den Küsten droht eine weitere Gefahr. Sinkt der Grundwasserstand unter ein gewisses Mass, kann Meerwasser in den Aquifer eindringen. Dieses versalzt die Brunnen und macht das hochgepumpte Wasser sowohl als Trinkwasser als auch zur Bewässerung von Feldern unbrauchbar. Bäume, deren Wurzeln in den Grundwasserstrom reichen, sterben ab. An der Ostküste der USA sind deshalb schon heute ausgedehnte Geisterwälder (engl. «ghost forests») zu finden, in denen kein Baum mehr lebt.

«Wir können deshalb das Problem nicht auf die lange Bank schieben», betont Seybold. «Die Welt muss dringend handeln.»

Originalpublikation:
Jasechko S, Seybold HJ, Perrone, D. et al. Rapid groundwater declines in many aquifers globally but cases of recovery, Nature, 2024. doi: 10.1038/s41586-​023-06879-8

De los Cobos, G. The Genevese transboundary aquifer (Switzerland-​France): The secret of 40 years of successful management. Journal of Hydrology: Regional Studies, 2018, doi: 10.1016/j.ejrh.2018.02.003

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2024/01/weltweit-sinke…

(nach oben)


Ein Pilz geht neue Wege

Forschende analysieren Biosyntheseweg und entdecken ein fähiges Enzym
Die Untersuchung der Biosynthese von Panepoxydon, einem wichtigen Stoff für die biomedizinische Forschung, bei Ständerpilzen förderte ein neues Enzym als wichtigen Katalysator zu Tage. Die Ergebnisse der Forschenden des Leibniz-HKI, der Friedrich-Schiller-Universität Jena und des Exzellenzclusters Balance of the Microverse wurden jetzt in der Zeitschrift Angewandte Chemie International Edition veröffentlicht.

Der borstige Knäueling, wissenschaftlich Panus rudis, ist ein Pilz aus der Familie der Stielporlingsverwandten. Er zählt zu den Erstbesiedlern von totem Laubholz, bevorzugt sonnenexponierte Standorte und kann längere Trockenperioden schadlos überdauern. Interessant für die Pharmazie macht ihn aber etwas anderes. Er produziert Panepoxydon, das zur Substanzfamilie der den Epoxycyclohexenone (ECH) zählt. Diese Naturstoffe sind für ihre Bioaktivitäten bekannt. Panepoxydon wird in der biomedizinischen Forschung zur Unterbrechung von zellulären Signalwegen, die bei Entzündungen eine Rolle spielen, eingesetzt. Daneben wiesen Studien mit Panepoxydon eine antitumorale Wirkung gegen verschiedene Brustkrebszellen und antimikrobielle Wirkungen nach.

Knäueling entknäuelt
Die chemische Synthese von ECHs ist jedoch schwierig, sodass es nötig ist, auf die Biosynthese der Stoffe zurückzugreifen. Während aber die für die ECH-Synthese in Bakterien und Schlauchpilzen (Ascomyceten) verantwortlichen Enzyme bereits bekannt sind, war das bei den Ständerpilzen (Basidiomyceten) bisher nicht der Fall. „Auch wenn wir wissen, dass Organismen annähernd gleiche Wirkstoffe produzieren, dürfen wir nicht annehmen, dass sie es auf die gleiche Weise tun“, macht Dirk Hoffmeister, Professor für Pharmazeutische Mikrobiologie an der Universität Jena und Gruppenleiter am Leibniz-HKI, deutlich.
Im Rahmen eines Humboldt-Forschungsstipendiums kam Professor Yan-Long Yang, Erstautor der Studie, von der Universität Lanzhou in China an die Universität Jena. Gemeinsam mit dem Team von Dirk Hoffmeister untersuchte er die Biosynthese von Panepoxydon genauer und entdeckte dabei das Enzym PanH.

Konvergenz statt Verwandtschaft
PanH, ein Enzym der Cytochrom-P450-Gruppe, katalysiert die selektive Epoxidierung der Cyclohexenone, die durch chemische Synthese schwierig zu erreichen, jedoch für die Wirksamkeit der Stoffe unerlässlich ist. „Die Zusammenarbeit mit Yan-Long war sehr produktiv. Der Austausch von Wissen und Methodik hat in beide Richtungen sehr gut funktioniert und beide Seiten gut vorangebracht“, freut sich Hoffmeister. Das Ergebnis bestätigt die Vermutung: nicht alle ähnlichen Wirkstoffe müssen auch auf gleiche Weise von den Organismen produziert werden. Die Epoxidierung der ECHs bei Basidiomyceten ist gegenüber Bakterien und Ascomyceten tatsächlich parallel entstanden und verwendet andere Enzyme.

Ein Enzym als Multitalent
„Die nächste Frage, die Yang sich stellte war, ob das Enzym diese Reaktion auch bei anderen Molekülen ausführen kann“, berichtet Hoffmeister. „Und das ist das eigentlich Relevante der Studie: Wenn man dem Enzym Substrate gibt, die natürlicherweise nicht in der Zelle vorkommen, kommt es meist trotzdem zu einer Epoxidierung, das Enzym arbeitet also recht unspezifisch.“ Durch das Variieren der Seitenkette der Substrate konnte das Team eine kleine Bibliothek an Substanzen herstellen. „So konnten wir zeigen, dass das Enzym ein nützlicher und vielseitiger Katalysator mit biotechnologischer Bedeutung ist.“
„Langfristiges Ziel ist es mit diesem Enzym eine größere Bibliothek von Substanzen herzustellen und auf verbesserte und spezifischere Aktivitäten zu testen, in der Hoffnung auf eine pharmazeutische Anwendung“, schließt Hoffmeister.

Kontakt für de Medien
Team Presse- und Öffentlichkeitsarbeit
presse@leibniz-hki.de
Charlotte Fuchs
03641 5321109

Wissenschaftliche Ansprechpartner:
Prof. Dr. Dirk Hoffmeister
Pharmazeutische Mikrobiologie · Leiter +49 3641 9-49850
dirk.hoffmeister@leibniz-hki.de

Originalpublikation:
Yang YL, Zhou M, Yang L, Gressler M, Rassbach J, Wurlitzer JM, Zeng Y, Gao K, Hoffmeister D. (2023) A Mushroom P450-Monooxygenase Enables Regio- and Stereoselective Biocatalytic Synthesis of Epoxycyclohexenones. Angew Chem Int Ed 62(49) e202313817, doi: 10.1002/anie.202313817.

(nach oben)


Integrierte Mediation – Konflikte friedfertig und nachhaltig lösen

Wer sich im neuen Jahr zur Mediatorin oder zum Mediator weiterqualifizieren möchte, kann sich am Dienstag, den 30. Januar 2024 ab 18:00 Uhr online informieren: Arthur Trossen, ehemaliger Familienrichter, der das Fernstudium Integrierte Mediation vor vielen Jahren erfolgreich konzipiert hat, stellt das berufsbegleitende Aus- und Weiterbildungsprogramm vor und geht auf die neuen Ausbildungsbedingungen ein.
Wer dabei sein möchte, kann sich direkt ohne Voranmeldung ins ZOOM-Meeting einloggen unter der Meeting-ID: 851 7496 1610; Kenncode: 625847.
Link zum Zoom-Meeting:
https://us02web.zoom.us/j/85174961610?pwd=a3BrdjFOVGZkUzBFdXJkSGNQZnhnQT09
Der Info-Abend ist für alle Teilnehmenden kostenfrei und unverbindlich.

Die Hochschule Trier ist neuer Kooperationspartner des Weiterbildungsangebots Integrierte Mediation. Die Präsenzveranstaltungen finden am Umweltcampus Birkenfeld, einem Standort der Hochschule Trier, statt. Das zfh unterstützt die Hochschulen des Verbunds bei der Durchführung berufsbegleitender Fernstudien. Studieninteressierte können sich beim zfh für das Sommersemester 2024 online anmelden: http://www.zfh.de/anmeldung/

Mediation kann mehr
„Das im Fernstudium Mediation erworbene Wissen lässt sich in allen Lebenslagen und -umständen anwenden“, sagt Cornelia Körber, die alle drei Semester der Ausbildung absolviert hat. Während der Ausbildung erlernen die Studierenden nicht nur die Kompetenz zur Durchführung eines Mediationsverfahrens. Die erlernte Kompetenz lässt sich auch in weiteren Anwendungsbereichen nutzen, z.B. bei der Konfliktvermeidung, der Herstellung von Resilienz oder zur Verbesserung des Klimas im sozialen Umfeld.
Die Integrierte Mediation kann zur Konfliktvermeidung ebenso eingesetzt werden wie zur vollständigen Konfliktbeilegung – sie schaut immer auf den Nutzen und vermittelt, wie dieser zu verwirklichen ist.

Neue Ausbildungsverordnung
Ab dem 01. März 2024 ändern sich die Ausbildungsbedingungen für angehende Mediatorinnen und Mediatoren. In der neuen Ausbildungsverordnung wird festgelegt, wer sich als zertifizierter Mediator bezeichnen darf. Alle Fragen dazu werden in Rahmen der Informationsveranstaltung beantwortet. Insbesondere erläutern die Dozenten wie das Ausbildungskonzept der Integrierten Mediation auf die Veränderung reagiert, welche Titel und Graduierungen die Studierenden erwerben können und wie diese in der Mediationslandschaft zu verorten sind. Die Teilnehmenden erfahren, welche Ausbildungsmöglichkeiten ihnen mit dem Fernstudium in Kooperation mit dem zfh – Zentrum für Fernstudien im Hochschulverbund und der Hochschule Trier zur Verfügung stehen.

Weiterführende Links:
http://www.zfh.de/zertifikat/mediation/
https://www.in-mediation.eu/

Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh fördert und unterstützt die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind über 6.000 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.

Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de,
Internet: http://www.zfh.de

(nach oben)


Von Algenresten zu hochwertigen Bioaktivstoffen – Europäisches Projekt iCULTURE will Makroalgen nachhaltig nutzen

Algen als neue Ressource für hochwertige Bioaktivstoffe zu nutzen ist das Ziel des EU-Projekts iCULTURE. 17 Partner aus zehn Ländern, darunter die Universität Ulm, wollen Fermentationsverfahren entwickeln, das Meeresalgen in bioaktive Wirkstoffe wie beispielsweise antimikrobielle Peptide umwandelt. Ulmer Forschenden rund um Professor Christian Riedel vom Institut für Molekularbiologie und Biotechnologie der Prokaryoten entwickeln dafür mikrobiologische Zellfabriken. Gefördert wird iCULTURE im Rahmen von Horizon Europe mit sechs Millionen Euro über einen Zeitraum von vier Jahren.

Algen als neue Ressource für hochwertige Bioaktivstoffe: Das ist das Ziel des EU-Projekts iCULTURE. Es zielt darauf ab, ein Fermentationsverfahren zu entwickeln, das Meeresalgen in bioaktive Wirkstoffe wie beispielsweise antimikrobielle Peptide umwandelt. Gefördert werden die 17 Partner aus zehn Ländern, darunter die Universität Ulm, im Rahmen von Horizon Europe mit sechs Millionen Euro über einen Zeitraum von vier Jahren. Die Ulmer Forschenden rund um Professor Christian Riedel entwickeln dafür mikrobiologische Zellfabriken.

Marine Makroalgen stellen eine der größten erneuerbaren und stark nachwachsenden Ressourcen Europas dar. Das Projekt iCULTURE will durch Bioraffinerie und anschließende biotechnologische Fermentation aus den bis zu 50 Meter langen Großexemplaren hochwertige Substanzen produzieren. „Derzeit stellen über 100 Megatonnen Algen die größte Biomasse Europas dar, aber weniger als 0,25 Prozent werden verwertet. Nach der Extraktion wichtiger chemischer Verbindungen aus den Algen bleiben 50 bis 70 Prozent der Biomasse übrig, die weggeworfen oder bestenfalls als kostengünstige Düngemittel mit niedrigem Stickstoffgehalt verkauft werden“, erklärt Professor Nadav Bar von der Norwegischen Universität für Wissenschaft und Technologie und Koordinator des iCULTURE-Projekts. „iCULTURE soll dazu beitragen, die Bedürfnisse der Meeres-, Futtermittel-, Lebensmittel- und Pharmaindustrie zu erfüllen, indem wir eine neuartige abfallfreie Wertschöpfungskette schaffen. Der Schutz der biologischen Vielfalt der Meere und die Nutzung von Bioressourcen wird im Projekt auf innovative Weise kombiniert“.

Das Konzept von iCULTURE besteht darin, mithilfe von drei sogenannten Toolboxen diese neue Wertschöpfungskette zu etablieren. Neben einer „Artificial Intelligence-Toolbox“, die mit Algorithmen des maschinellen Lernens robuste Arten identifiziert, die für die Nutzung geeignet sind, gibt es eine „Modell-Toolbox“, die die widerstandsfähigsten Algen vorhersagen und eine Managementstrategie zur nachhaltigen Nutzung ermöglichen soll. Die „Technologie-Toolbox“ enthält alle Komponenten für einen digital gesteuerten, bakteriellen Bioprozess, mit dem aus der Biomasse dieser Algen wertvolle Produkte erzeugt werden sollen.

Genau hier setzt die Arbeit von Professor Christian Riedel vom Institut für Molekularbiologie und Biotechnologie der Prokaryoten der Universität Ulm an. Seine Forschungsgruppe arbeitet an einem biotechnologischen Verfahren, das mittels Fermentationen die Zucker aus den Meeresalgen in antimikrobielle Peptide umwandelt. Antimikrobielle Peptide sind kleine Proteine, die von einer Vielzahl von Organismen produziert werden und das Wachstum von Mikroorganismen hemmen oder diese sogar abtöten. Bakterien nutzen antimikrobielle Peptide, um sich in der Konkurrenz um Nahrung und Lebensraum durchzusetzen. Da diese antimikrobiellen Peptide teilweise auch gegen Krankheitserreger aktiv werden, besitzen sie eine Reihe von Anwendungen, zum Beispiel in Viehfutter, in Wundauflagen oder als Antibiotika-Ersatz. „Eine unserer Aufgaben innerhalb von iCULTURE wird es sein, eine Methode zu entwickeln, mit der einzelnen Bakterien-Stämme in einer Co-Kultur aufgespürt werden können. Dabei sollen sogenannte Fluoreszenzmarkierungen zum Einsatz“, so der Biologe Professor Christian Riedel. In einem zweiten Schritt lautet die Aufgabe, alle Bakterien-Stämme so zu modifizieren, dass diese das gleiche Peptid bilden. „Dahinter steht die Idee, dass ein Konsortium von Stämmen besser in der Lage ist, das komplexe Gemisch an Zuckern aus der Algenbiomasse zu verwerten. Wenn alle Stämme das gleiche Peptid bilden, wird die Produktion effizienter“, erklärt Riedel.

Professor Riedel ist Teil eines interdisziplinären Teams, das aus 17 Partnern in zehn Ländern besteht. iCULTURE bündelt so Fachwissen aus den Bereichen Informations- und Kommunikationstechnologie, Bioinformatik, biologische Vielfalt, Biotechnologie, synthetische Biologie und Bioverfahrenstechnik. Das Projekt wird von der EU-Kommission als Forschungs- und Innovationsmaßnahme im Rahmen von Horizon Europe finanziert und von der Norwegischen Universität für Wissenschaft und Technologie koordiniert. Die Fördersumme beträgt insgesamt sechs Millionen Euro für vier Jahre, davon fließen knapp 650 000 Euro nach Ulm.

Wissenschaftliche Ansprechpartner:
apl. Prof. Dr. Christian Riedel, Institut für Molekularbiologie und Biotechnologie der Prokaryoten, Uni Ulm, Tel.: 0731/50-24853, E-Mail: christian.riedel@uni-ulm.de

Weitere Informationen:
https://www.iculture-project.eu/

(nach oben)


Ohne Moos nichts los: Moore im Klimawandel

Werden Moore wiedervernässt, leisten sie einen erheblichen Beitrag als Kohlenstoffspeicher. Sie anschließend auf eine klimaneutrale Bewirtschaftung umzustellen, ist sowohl ökologisch als auch ökonomisch sinnvoll. Ein Weg führt über die Aussaat von Torfmoos. Ob das großflächig gelingt, entscheidet sich aktuell in den Laboren der Bioverfahrenstechnik am Fachbereich Angewandte Biowissenschaften und Prozesstechnik der Hochschule Anhalt.

Bioverfahrenstechnik: Biomasse in großem Maßstab
Maria Glaubitz hält einen Glasbehälter mit flüssigem Inhalt in der Hand. Wenige Gramm einer Moospflanze ranken darin in Richtung Flaschenhals. „Davon sollen zukünftig mehrere Kilogramm täglich kostengünstig und an nahezu jedem Ort produziert werden können. Unsere Aufgabe ist es, den Bioreaktor dafür zu entwickeln“, erklärt die Doktorandin des Promotionszentrums „Life Sciences“ der Hochschule Anhalt. Seit Januar 2023 arbeitet sie im Projekt MOOSStart: Damit fördert das Bundesministerium für Ernährung und Landwirtschaft die Forschung zur Herstellung von Torfmoos-Saatgut.

Torfmoos-Zucht als neues Gebiet
Auf diesem Gebiet gibt es bislang kaum Erfahrungen und im Gegensatz zu anderen Pflanzen ist die Vermehrung von Moos-Pflanzenteilen ohne Samen effizienter. Dass Maria Glaubitz die Moospflanze im Glasbehälter überhaupt in der Hand halten kann, ist in erster Linie Wissenschaftlerinnen und Wissenschaftlern der Universität Freiburg zu verdanken. Ihnen gelang es nach jahrelanger Forschung, verschiedene Torfmoos-Arten im Labor zu züchten und ein technisches Verfahren zur Vermehrung zu entwickeln. Gemeinsam mit Ökobiologen der Universität Greifswald konnte das Saatgut erfolgreich auf wiedervernässten Mooren ausgebracht werden – in so genannten Paludikulturen. „Das waren noch kleine Flächen, jetzt geht es darum, die Torfmoose auf mehreren tausend Hektar auszusäen“, erklärt Maria Glaubitz das langfristige Ziel des Projekts, das sie in der Arbeitsgruppe von Prof. Dr. Claudia Grewe in Kooperation mit den Universitäten Freiburg und Greifswald verfolgt. Industriepartner für den Praxistest des Bioreaktors ist die Niedersächsische Rasenkulturen NIRA GmbH & Co. KG.

Paludikulturen für die Bewirtschaftung des Moors
Ohne gezielte Aussaat würde das Moos auf den wiedervernässten Moor-Flächen nur langsam wachsen, etwa einen Millimeter pro Jahr. Mehrere Chancen wären vertan: die zusätzliche Speicherung von Treibhausgasen aus der Atmosphäre, die Ernte der Moos-Pflanzen als Einnahmequelle für Landwirte und als Ersatz für Torf: Damit könnte der Abbau aus noch intakten Mooren verhindert und diese besser geschützt werden. Welche Torfmoos-Arten sich als Alternative besonders eignen, haben die Freiburger und Greifswalder Forschenden bereits herausgefunden. Im Labor der Bioverfahrenstechnik in Köthen sollen sie sich möglichst schnell und in hoher Qualität vermehren. „Die entscheidenden Faktoren sind – vereinfacht gesagt – immer die Versorgung mit Licht und Nährlösung, beides optimieren wir“, erklärt Prof. Grewe mit Blick auf verschiedene durchsichtige Behälter. Darin werden die zerkleinerten Moospflanzen in Bewegung gehalten. „Auf 35 Liter konnten wir die Biomasse bereits anwachsen lassen – ein Rekord“, freut sich die Leiterin des Projekts MOOSStart mit langjähriger Erfahrung in der Algen-Forschung der Hochschule Anhalt: „Diese Expertise in der Biotechnologie und Verfahrenstechnik sind wichtige Voraussetzungen, um nun auch andere Ideen der Bioökonomie anwendbar zu machen und breit nutzen zu können.“

Inwieweit sich die Ernte noch steigern lässt, zeigen die nächsten Monate. Wie ein Bioreaktor für gezüchtete Moose am Ende des Projekts Ende 2025 aussehen wird, steht ebenfalls noch nicht fest. Das erste Gewächshaus für Torfmoose als wichtiges Puzzleteil zum Schutz der Moore und des Klimas ist aber zum Greifen nah.

Ringvorlesung Nachhaltigkeit an der Hochschule Anhalt
Am 24. Januar hält Prof. Dr. Gerald Jurasinski von der Universität Greifswald an der Hochschule Anhalt einen Vortrag zum Thema „Moor muss nass – Wie nachhaltig bewirtschaftete Moore zu Klimaschutz und Klimaanpassung beitragen“. Wer Interesse daran hat, erfährt Näheres auf der Homepage der Ringvorlesung „Nachhaltigkeit“: https://www.hs-anhalt.de/ringvorlesung-nachhaltigkeit

Moore für den Klimaschutz: Hintergrund
Moore finden sich in Deutschland auf einer Fläche von etwa 1,4 Millionen Hektar. Das sind rund 4 Prozent der Bundesfläche. Davon sind in den vergangenen Jahrhunderten nahezu alle trocken gelegt worden, um Torf abzubauen oder Flächen für die Land- und Forstwirtschaft zu gewinnen. Damit verschwand auch der Lebensraum für viele Arten, wie etwa der Torfmoose. Nass sind Moore wertvolle Kohlenstoffspeicher, trocken setzen sie riesige Mengen von Treibhausgasen frei: Allein aus den deutschen Flächen gelangen laut Umweltbundesamt jährlich 53 Millionen Tonnen in die Atmosphäre, 7,5 Prozent der Gesamtemissionen Deutschlands. Deshalb spielt die Wiedervernässung von Mooren auch politisch eine wichtige Rolle und ist unter anderem im Klimaschutzgesetz der Bundesregierung festgeschrieben.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Claudia Grewe
claudia.grewe@hs-anhalt.de

(nach oben)


Cholera-Erreger machtlos gegen eigenes Immunsystem

Molekulares Abwehrsystem schützt Bakterien vor Viren und macht sie gleichzeitig anfällig für Antibiotika

Auch Bakterien haben ein eigenes Immunsystem, dass sie gegen spezielle Viren – sogenannte Bakteriophagen – schützt. Ein Forschungsteam der Universitäten Tübingen und Würzburg zeigt nun, wie das Immunsystem die Wirkung von bestimmten Antibiotika gegen den Cholera-Erreger Vibrio cholerae verstärkt. Das Immunsystem ist der Grund, warum dieses Bakterium besonders empfindlich auf eine der ältesten bekannten Antibiotikaklassen – die Antifolate – reagiert. Die Ergebnisse wurden in der Fachzeitschrift Nature Microbiology veröffentlicht.

Auch Bakterien haben ein eigenes Immunsystem, dass sie gegen spezielle Viren – sogenannte Bakteriophagen – schützt. Ein Forschungsteam der Universitäten Tübingen und Würzburg zeigt nun, wie das Immunsystem die Wirkung von bestimmten Antibiotika gegen den Cholera-Erreger Vibrio cholerae verstärkt. Das Immunsystem ist der Grund, warum dieses Bakterium besonders empfindlich auf eine der ältesten bekannten Antibiotikaklassen – die Antifolate – reagiert. Die Ergebnisse wurden in der Fachzeitschrift Nature Microbiology veröffentlicht.

Vibrio cholerae ist weltweit für schwere Cholera-Ausbrüche verantwortlich und in vielen Entwicklungsländern endemisch. Das Immunsystem von Vibrio cholerae besteht aus mehreren molekularen Abwehrsystemen, die das Bakterium gegen Angriffe verschiedener Bakteriophagen schützen. Eines dieser Abwehrsysteme heißt CBASS (cyclic-oligonucleotide-based antiphage signaling system). Wird das Bakterium von Bakteriophagen angegriffen, wird CBASS aktiviert. CBASS bringt das infizierte Bakterium dazu, sich selbst zu zerstören und verhindert so eine weitere Infektion der Bakterienpopulation. Das Forschungsteam von Professor Dr. Ana Brochado konnte zeigen, dass Antifolat-Antibiotika das Abwehrsystem CBASS auch in Abwesenheit von Bakteriophagen aktivieren. Das aktivierte CBASS verstärkte somit zusätzlich die Wirkung des Antibiotikums und führte zum Zelltod von Vibrio cholerae. „Wie bei einer Autoimmunerkrankung schadete die eigene Immunantwort dem Bakterium.“ sagt Dr. Susanne Brenzinger, die Erstautorin der Studie.

Das Forschungsteam von Professor Dr. Ana Brochado untersucht die Wirkung von Antibiotika mithilfe von Hochdurchsatz-Screenings und Computeranalysen. Beim Hochdurchsatz-Screening handelt es sich um eine automatisierte Methode, bei der die Wirkung von Tausenden von Substanzen auf Bakterien getestet wird. Diese Methode ermöglichte die Entdeckung der Wechselwirkungen zwischen CBASS und Antibiotika. „Antifolate gehörten zu den ersten Antibiotika auf dem Markt, Sie hemmen die Synthese von Folaten, die Bausteine der DNA sind. Unsere Ergebnisse zeigen, dass wir mehr als neunzig Jahre nach der Einführung der Antifolate, immer noch nicht alles über sie wissen. Überraschenderweise ändert das bakterielle Immunsystem ihre Wirkung“ sagt Professor Brochado, die im Tübinger Exzellenzcluster „Controlling Microbes to Fight Infections“ (CMFI) zur Systembiologie von Antibiotika forscht.

Professor Brochado ergänzt: „Wir können Antibiotika zielgerichteter einsetzen, je mehr wir über ihre Wirkweise wissen. Dies kann uns zukünftig bei der Entscheidung helfen, ob wir sie allein, in Kombination mit anderen Antibiotika oder sogar parallel zu einer Phagen-Therapie einsetzen. Nicht nur bei Cholera, sonder auch bei anderen bakteriellen Infektionen. Der angemessene und effektive Einsatz von Antibiotika hilft dabei, die Entstehung weiterer Antibiotikaresistenzen zu verhindern“.
Wissenschaftliche Ansprechpartner:
Professor Brochado ergänzt: „Wir können Antibiotika zielgerichteter einsetzen, je mehr wir über ihre Wirkweise wissen. Dies kann uns zukünftig bei der Entscheidung helfen, ob wir sie allein, in Kombination mit anderen Antibiotika oder sogar parallel zu einer Phagen-Therapie einsetzen. Nicht nur bei Cholera, sonder auch bei anderen bakteriellen Infektionen. Der angemessene und effektive Einsatz von Antibiotika hilft dabei, die Entstehung weiterer Antibiotikaresistenzen zu verhindern“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Ana Rita Brochado
Interfakultäres Institut für Mikrobiologie und Infektionsmedizin (IMIT)
Universität Tübingen
ana.brochado@uni-tuebingen.de

Originalpublikation:
Brenzinger S, Airoldi M, Ogunleye AJ, Jugovic K, Amstalden MK, Brochado AR. The Vibrio cholerae CBASS phage defence system modulates resistance and killing by antifolate antibiotics. Nat Microbiol 2024 Jan;9(1):251-262.
https://doi.org/10.1038/s41564-023-01556-y.

(nach oben)


Biologische Gefahren aus dem Meer überwachen und vorhersagen

Roland Koch Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Der Klimawandel wird wahrscheinlich die Verbreitung von Krankheitserregern im Meer beeinflussen: Bei höheren Wassertemperaturen könnten auch für den Menschen schädliche Bakterien massenhaft auftreten und stellen eine biologische Gefahr dar. Das neue, am Alfred-Wegener-Institut koordinierte und von der Deutschen Allianz Meeresforschung finanzierte Projekt PrimePrevention hat das Ziel, Werkzeuge zu entwickeln, damit sich die Gesellschaft auf solche Gefahren einstellen und ihre Auswirkungen vermeiden oder mindern kann.

Mit steigenden Wassertemperaturen erhöht sich die Gefahr, dass verschiedenste für Mensch und Ökosysteme schädliche Mikroorganismen zunehmend auch in Nord- und Ostsee massenhaft auftreten, wie wir es aktuell eher aus tropischen Regionen kennen. Frühere Forschungen am Alfred-Wegener-Institut zeigten, dass Bakterien der Gattung Vibrio in gemäßigten Sommern nur vereinzelt im Meerwasser nachweisbar sind. Sie können sich aber bei Hitzewellen explosionsartig vermehren, wenn die Wassertemperatur 22 Grad Celsius übersteigt – und die Wahrscheinlichkeit dafür erhöht sich mit dem Klimawandel. Diese Vibrionen können Durchfallerkrankungen oder schwere Entzündungen hervorrufen.

„Wir sind aktuell nicht in der Lage, die Gefahren, die von pathogenen Vibrionen und anderen schädlichen Mikroorganismen für die Gesundheit von Mensch und Ökosystemen ausgehen sowie deren negativen wirtschaftlichen Folgen für Europa beurteilen und vorhersagen zu können“, sagt Dr. Katja Metfies, Molekularökologin am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). „Daher freue ich mich sehr, dass wir das Thema im Rahmen von PrimePrevention jetzt angehen können“, so die Leiterin des Verbundprojekts weiter. Ziel des Forschungskonsortiums ist es, am Ende technologie- und datenbasierte Empfehlungen für Frühwarnsysteme und Informationsketten zur Minderung der Auswirkungen mariner biologischer Gefahren abzugeben. Hier wird das Projekt die Politik und Gesellschaft mit dem technologischen und wissenschaftlichen Hintergrund für angepasste marine Überwachungs- und Bewertungsstrategien versorgen. Beteiligt sind mehr als 30 Fachleute für Messsensorik, Sozialforschung und Mikrobiologie.

Dafür ist es essentiell, potentielle biologische Gefahren im Meer zu kennen. Das Forschungsteam wird neuste Technologie für die Identifizierung von marinen Mikroorganismen mit den aktuellsten molekulargenetischen Analysemethoden in die Umweltbeobachtungen integrieren, die auch die medizinische Diagnostik oder die Forensik nutzen. PrimePrevention setzt für die Analyse der Zusammensetzung mariner eukaryotischer Mikroorganismen aus verschiedensten Umweltproben eine Auswahl komplementärer Methoden ein: Sequenziermethoden der nächsten Generation (Next Generation Sequencing), molekulare Sensortechnologie und quantitativer Polymerase-Kettenreaktion (PCR).

Außerdem entwickelt das Team modular aufgebaute, verteilte Messsysteme unterschiedlicher Komplexität und zeitlicher und räumlicher Abdeckung für intelligente, zielgenaue Messungen im Feld. So wollen die Wissenschaftlerinnen und Wissenschaftler gewährleisten, dass das Beobachtungsnetz zukünftig wirtschaftlich betrieben werden kann. Damit Informationen über potentielle Umweltgefahren die Bevölkerung im Bedarfsfall auch erreichen, wird es eine enge Zusammenarbeit mit der Zivilgesellschaft, Politik, Behörden und weiteren Stakeholdern geben und ein Informationssystem für die Öffentlichkeit entwickelt.

Neben den biologischen Gefahren betrachtet die 3. DAM-Forschungsmission mareXtreme weitere thematische Schwerpunkte. Die Forschenden vernetzen sich über die Grenzen der einzelnen Verbundprojekte hinweg, denn einzelne Extremereignisse und Naturgefahren können noch verstärkt werden, wenn sie gleichzeitig oder in kurzer Folge auftreten und miteinander interagieren. Neben den marin-biologischen Gefahren sind marine Georisiken und physikalisch-ozeanographische Risiken Teil von mareXtreme. Weitere Informationen gibt es auf dieser DAM-Webseite: https://www.allianz-meeresforschung.de/news/dritte-dam-forschungsmission-gestart….

PrimePrevention-Konsortium:

  • Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
  • Aquaecology GmbH
  • Bundesamt für Seefahrt und Hydrographie
  • Christian-Albrechts-Universität zu Kiel
  • GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
  • Jade Hochschule Wilhelmshaven
  • Leibniz-Institut für Ostseeforschung Warnemünde
  • Thünen-Institut für Ostseefischerei
  • Universität Freiburg
  • Institut für Chemie und Biologie des Meeres (ICBM) an der Carl von Ossietzky Universität Oldenburg
    Wissenschaftliche Ansprechpartner:

Dr. Katja Metfies. Tel.: 0471 4831-2083; E-Mail: Katja.Metfies@awi.de

Weitere Informationen:
http://www.awi.de/ueber-uns/service/presse/presse-detailansicht/biologische-gefa… Hier gibt es zusätzliches Bildmaterial zum Download

(nach oben)


Reizthema Verkehrsberuhigung: Vom Gegeneinander zum Miteinander?

In den vergangenen Jahren haben viele Kommunen umfangreiche Maßnahmen zur Verkehrsberuhigung und zur Umsetzung fahrradfreundlicher Infrastrukturen beschlossen. Die Umsetzung führt aber häufig zu Konflikten, wofür nicht nur Berlin ein aktuelles Beispiel bietet. Die Frage ist: Wie können Kommunen diese Spannungen überwinden?

Im Difu-Dialog wird ein Blick auf aktuelle verkehrspolitische Weichenstellungen für einen fahrrad- und fußgängerfreundlichen Umbau geworfen. Zudem ist geplant, in der Veranstaltung erfolgversprechende Strategien verschiedener Städte zu diskutieren, mit denen gesellschaftliche Konflikte rund um die Verkehrspolitik gelöst werden können.

Ablauf

Begrüßung
Prof. Dr. Carsten Kühl, Wissenschaftlicher Direktor und Geschäftsführer des Deutschen Instituts für Urbanistik (Difu)

Impuls und Podiumsdiskussion

  • Martin Nebendahl, Stabsstelle Mobilität, Landeshauptstadt Hannover
  • Dr. Almut Neumann, Bezirksstadträtin und Leiterin des Geschäftsbereichs Ordnung, Umwelt, Natur, Straßen und Grünflächen, Bezirksamt Mitte von Berlin (angefragt)
  • Sonja Rube, Geschäftsführende Gesellschafterin, USP München
  • Dr. Lisa Ruhrort, Deutsches Institut für Urbanistik, Berlin

Moderation

  • Dipl.-Geogr. Anne Klein-Hitpaß, Deutsches Institut für Urbanistik, Berlin

Dramaturgie/Teilnehmende
Die Vortrags- und Dialogreihe widmet sich aktuellen Themen zur „Zukunft der Städte“. Je nach Schwerpunkt setzt sich der Teilnehmendenkreis aus Politik, Bundes- und Landesverwaltungen, Bezirksämtern, Stadtverwaltungen, Medien sowie anderen öffentlichen und privaten Einrichtungen unterschiedlich zusammen. Nach dem Input der jeweiligen Podiumsgäste ist Zeit für Fragen und Diskussion – auch mit dem Publikum.

Online-Anmeldung und weitere Infos: www.difu.de/18252

Eine Anmeldung ist erforderlich, um Zugangsdaten zu erhalten. Bitte beachten Sie die Informationen zum Datenschutz. Fragen zur Anmeldung: dialoge@difu.de. Presseanfragen: presse@difu.de.Teilnehmende können Fragen und Diskussionsbeiträge während der Veranstaltung in der Videokonferenz oder über die Chat-Funktion einbringen.

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Wissenschaftliche Ansprechpartner:
Difu-Pressestelle
Sybille Wenke-Thiem
pressestelle@difu.de
+49 30 39001-208/-209

(nach oben)


Auszeichnung für Überschwemmungs-Monitoring per App

Für das Projekt „Waterproofing Data“, mit dem sich Menschen in brasilianischen Hochwassergebieten auf drohende Überschwemmungen vorbereiten können, ist ein Forschungsteam mit Beteiligung von Geoinformatikern der Universität Heidelberg ausgezeichnet worden. Die Wissenschaftlerinnen und Wissenschaftler erhielten den mit 10.000 Britischen Pfund dotierten ESRC Celebrating Impact Prize 2023, der vom Economic and Social Research Council (ESRC) in der Kategorie „Outstanding societal impact“ für Projekte mit besonderer gesellschaftlicher Relevanz vergeben wurde. Die Ergebnisse sind in eine mobile App für ein Überschwemmungs-Monitoring eingeflossen.

Auszeichnung für Überschwemmungs-Monitoring per App
Britischer Economic and Social Research Council zeichnet Projekt in Brasilien mit Beteiligung Heidelberger Geoinformatiker aus

Für das Projekt „Waterproofing Data“, mit dem sich Menschen in brasilianischen Hochwassergebieten auf drohende Überschwemmungen vorbereiten können, ist ein Forschungsteam mit Beteiligung von Geoinformatikern der Universität Heidelberg ausgezeichnet worden. Die Wissenschaftlerinnen und Wissenschaftler erhielten den mit 10.000 Britischen Pfund dotierten ESRC Celebrating Impact Prize 2023, der vom Economic and Social Research Council (ESRC) in der Kategorie „Outstanding societal impact“ für Projekte mit besonderer gesellschaftlicher Relevanz vergeben wurde. Im Mittelpunkt der Forschungsarbeiten stand die Frage, wie lokale Communities in Brasilien in die Lage versetzt werden können, sich besser vor den Auswirkungen von Hochwasserereignissen zu schützen. Die Ergebnisse des an der Universität Glasgow angesiedelten Projekts sind in eine mobile App für ein Überschwemmungs-Monitoring eingeflossen und wurden anschließend am Heidelberg Institute for Geoinformation Technology (HeiGIT gGmbH) zu einem weltweit nutzbaren Online-Service weiterentwickelt.

Fast ein Viertel der Menschen weltweit lebt laut Experten in Hochwasserrisikogebieten, ein großer Teil von ihnen in Ländern mit geringem und mittlerem Einkommen. Die Folgen sind bislang nur wenig erforscht, ebenso die Strategien, die die Betroffenen über Generationen hinweg zur Bewältigung entwickelt haben, wie Prof. Dr. João Porto de Albuquerque von der Universität Glasgow (Schottland) erläutert. Der Wissenschaftler hat das Projekt „Waterproofing Data“ angestoßen und in Zusammenarbeit mit Prof. Dr. Alexander Zipf, Leiter der Abteilung Geoinformatik am Geographischen Institut der Universität Heidelberg, durchgeführt. Mitgewirkt haben daran auch Expertinnen und Experten aus Brasilien.

Zentraler Ansatz war es, betroffene Bevölkerungsgruppen aktiv in den Forschungsprozess einzubinden und ihnen mit einfachen Mitteln die Möglichkeit zu geben, sich besser auf Hochwasserereignisse vorzubereiten. Gemeinsam mit Einheimischen vor Ort haben die Wissenschaftlerinnen und Wissenschaftler Methoden erarbeitet, mit denen sich bereits vorhandene Daten besser nachverfolgen und örtliche Gewässer visualisieren lassen. Zugleich kann das lokale Wissen der Bevölkerung durch Umfragen und partizipative Kartierungen einbezogen werden. Die Ergebnisse der Forschungsarbeiten wurden anschließend in einer mobilen App zusammengeführt. Sie bietet Menschen in gefährdeten Gebieten die Möglichkeit, Überschwemmungsrisiken selbst im Auge zu behalten, um sich im Notfall in Sicherheit zu bringen.

Nach den Worten von Prof. Zipf, Geschäftsführender Direktor des von der Klaus Tschira Stiftung getragenen Heidelberg Institute for Geoinformation Technology, haben bislang mehr als 400 brasilianische „Citizen Scientists“ die App erfolgreich genutzt – darunter auch Projekteilnehmer aus der Stadt Jaboatão dos Guararapes im brasilianischen Bundesstaat Pernambuco, die 2022 Schauplatz schwerer Hochwasser war. Sie konnten ihre Mitbürger dank der App rechtzeitig vor den Überschwemmungen warnen und damit Leben retten. „In diesem Sinne gilt die Auszeichnung vor allem den Mitwirkenden vor Ort. Sie zeigen, was möglich ist, wenn es niedrigschwellige Möglichkeiten gibt, sich aktiv in die Vorbereitungen auf Naturkatastrophen einzubringen und so besser darauf vorbereitet zu sein”, sagt der Wissenschaftler.

Aus der mobilen App des „Waterproofing Data“-Projekts für das Überschwemmungs-Mapping in Brasilien ist mittlerweile das sogenannte SketchMapTool hervorgegangen, ein Online-Service für partizipatives Kartieren, der weltweit genutzt werden kann. Dieses Tool wird von Wissenschaftlern ebenso wie von humanitären Organisationen verwendet, um lokales räumliches Wissen sichtbar zu machen und analysieren zu können. So konnten beispielsweise damit in Mosambik Überflutungsgebiete erfasst werden.

Der Economic and Social Research Council ist der größte Förderer in Großbritannien für Projekte im Bereich der Wirtschafts-, Sozial- und Verhaltenswissenschaften sowie der Human Data Science. Der ESRC vergibt jedes Jahr den Celebrating Impact Prize in verschiedenen Kategorien für Projekte, die sich positiv auf Wirtschaft und Gesellschaft sowie das tägliche Leben auswirken, sowohl in Großbritannien als auch darüber hinaus. Die Preisträger des Jahres 2023 wurden im November bekanntgegeben.

Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de

Weitere Informationen:
http://www.geog.uni-heidelberg.de/gis – Abteilung Geoinformatik / GIScience
https://heigit.org/de/willkommen – Heidelberg Institute for Geoinformation Technology
http://www.geog.uni-heidelberg.de/gis/waterproofing.html – Waterproofing Data-Projekt

(nach oben)


Mikroplastik: Reifen- und Fahrbahnabrieb im Fokus einer neuen Publikation

Gemeinsam mit dem Karlsruher Institut für Technologie (KIT) und der Carnegie Mellon University (CMU), Pittsburgh, hat das Fraunhofer UMSICHT in einer Fachpublikation den Forschungsstand zum Thema Reifen- und Fahrbahnabrieb zusammengetragen. In dem peer reviewed Artikel mit dem Titel »Review: Mitigation measures to reduce tire and road wear particles« werden technische und nicht-technische Maßnahmen be-schrieben, mit denen sich Emissionen aus Reifen- und Fahrbahnabrieb in die Umwelt vermeiden und bereits eingetragene Mengen reduzieren lassen.

Es ist wissenschaftlich belegt, dass Reifenabrieb eine relevante Quelle für Mikroplastik ist. Dies resultiert bereits aus der Zahl von rund 1,5 Milliarden weltweit zugelassener Kraftfahrzeuge im Jahr 2023[1]. Alleine in den Vereinigten Staaten waren im ersten Quartal 2023 gut 286 Millio-nen Fahrzeuge auf den Straßen unterwegs[2]. In Deutschland wurden nach Angaben des Kraft-fahrtbundesamts KBA fast 70 Millionen KFZ und KFZ-Anhänger gezählt (Stand 1. Januar 2023)[3]. Das Fraunhofer UMSICHT schätzt die jährlich entstehende Menge an Reifenabrieb hierzulande auf 60 000 bis 100 000 Tonnen – was bei über 80 Millionen Einwohner*innen ei-nem rechnerischen Mittel von ca. 1 000 Gramm Reifenabrieb pro Kopf und Jahr entspricht.

Weitestgehend unbekannte Folgen für die Umwelt
Reifenabrieb tritt auf Straßen nicht als reines Material auf. Während der Fahrt reibt sich die Lauffläche des Reifens ab und verbindet sich mit Material der Fahrbahnoberfläche sowie wei-teren Partikeln wie Sand, Straßenstaub oder sedimentiertem Feinstaub aus der Atmosphäre zu sogenannten TRWP (Tyre and Road Wear Particles). Durch Niederschläge, Wind oder fahrzeug-induzierte Aufwirbelung können TRWP dann von der Straße weiter in Luft, Wasser und Boden gelangen. Einmal dort angekommen, ist der Reifen- und Fahrbahnabrieb nur schwer wieder zu entfernen und verbleibt dort in der Regel über lange Zeit – mit noch weitestgehend unbekann-ten Folgen für die Umwelt.

Neue Schadstoffnorm Euro 7 soll Bremsen- und Reifenabrieb berücksichtigen
Es gibt bereits heute Maßnahmen, die sich mindernd auf die Entstehung und Verbreitung von Reifen- und Fahrbahnabrieb auswirken. Hierzu zählen präventive Maßnahmen wie Geschwin-digkeitsreduzierungen,eine defensive Fahrweise sowie nachgelagerte Maßnahmen wie die Straßenreinigung oder passende Behandlungsmethoden bei der Straßenentwässerung. Auch setzen immer mehr technische Lösungsansätze zur Reduzierung von TRWP-Emissionen bei den Fahrzeugen und Reifen an. Zu nennen sind zum Beispiel die optimale Verteilung von An-triebsmomenten oder die Steigerung der Reifenabriebresistenz. Ebenso werden regulatorische Maßnahmen eingeführt. So verständigte sich am 18. Dezember 2023 die EU auf die neue Schadstoffnorm Euro 7, in der es erstmalig Grenzwerte für Bremsen- und Reifenabrieb geben soll[4].

Studie zeigt Ist-Zustand auf
Um sich einen Überblick über bereits existierende technologische, regulatorische und verwal-tungstechnische Maßnahmen und Entwicklungen gegen Reifenabrieb zu verschaffen, beauf-tragten die European Tyre & Rubber Manufacturers‘ Association ETRMA und die U.S. Tire Ma-nufacturers Association USTMA im Jahr 2022 das Fraunhofer UMSICHT und seine wissen-schaftlichen Kooperationspartner KIT und CMU mit der Erstellung einer Studie.

Die im internationalen Journal »Science of The Total Environment« online erschienene Publika-tion »Review: Mitigation measures to reduce tire and road wear particles« basiert auf der gleichnamigen Studie. Das Team um die Wissenschaftlerinnen und Wissenschaftler des Fraun-hofer UMSICHT hat aus mehr als 500 Fachliteraturquellen den aktuellen Stand an Minde-rungsmaßnahmen für TRWP zusammengetragen, kategorisiert und bewertet. Auch zukünftige Mobilitätstrends wie E-Mobilität und autonomes Fahren wurden berücksichtigt. Die Publikation schildert Wissenslücken und weist auf vielversprechende Forschungsfelder hin. Ralf Berling vom Fraunhofer UMSICHT: »Wirksame Maßnahmen, die die Entstehung und Verbreitung von Reifenabrieb reduzieren, liegen uns nun übersichtlich vor. Jetzt gilt es, ins Handeln zu kommen und die Maßnahmen zeitnah anzuwenden.«

[1] https://hedgescompany.com/blog/2021/06/how-many-cars-are-there-in-the-world/
[2] https://www.statista.com/statistics/859950/vehicles-in-operation-by-quarter-unit…
[3] https://www.kba.de/DE/Statistik/Fahrzeuge/Bestand/bestand_node.html
[4] https://www.consilium.europa.eu/de/press/press-releases/2023/12/18/euro-7-counci…

Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S0048969723051628
Zur Publikation »Review: Mitigation measures to reduce tire and road wear particles«

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2024/reife…

(nach oben)


Aktualisierungsbedarf beim DMP Diabetes mellitus Typ 1

Aktualisierungsbedarf beim DMP Diabetes mellitus Typ 1
Das IQWiG veröffentlicht den Abschlussbericht seiner Leitlinien-Recherche: Sehr viele Aspekte des DMP Diabetes mellitus Typ 1 sollten oder könnten überarbeitet werden.

Disease-Management-Programme (DMPs) sind strukturierte Behandlungsprogramme für chronisch kranke Menschen, die auf Erkenntnissen der evidenzbasierten Medizin beruhen: Patientinnen und Patienten mit bestimmten chronischen Krankheiten können sich bei ihrer Krankenkasse in ein DMP einschreiben, damit sie über Einrichtungsgrenzen hinweg nach einheitlichen Vorgaben behandelt werden. Die Anforderungen an ein DMP regelt der Gemeinsame Bundesausschuss (G-BA) in der DMP-Anforderungen-Richtlinie (DMP-A-RL).
Im Auftrag des G-BA identifizierte das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) nun aktuelle evidenzbasierte Leitlinien zum Diabetes mellitus Typ 1 und glich deren Empfehlungen mit der DMP-A-RL ab. Hierzu werteten die Wissenschaftler und Wissenschaftlerinnen des IQWiG insgesamt 1271 Empfehlungen aus 28 Leitlinien aus, zu denen unter anderem auch eine aktuelle internationale Leitlinie zum Diabetischen Fußsyndrom (IWGDF 2023) und die aktuelle Leitlinie der Deutschen Diabetes Gesellschaft (DDG 2023) zählten.
Das Fazit der Auswertung: Zu vielen Versorgungsaspekten der derzeit geltenden DMP-A-RL für das DMP Diabetes mellitus Typ 1 finden sich in den aktuellen Leitlinien ergänzende und abweichende Inhalte.
Der nun vorgelegte Abschlussbericht des IQWiG dient dem G-BA als wissenschaftliche Grundlage für die Aktualisierung der DMP-Richtlinie Diabetes mellitus Typ 1.

Diabetes mellitus Typ 1 und Disease-Management-Programme
Der Diabetes mellitus Typ 1 ist eine chronische Erkrankung, bei der die insulinproduzierenden Zellen in der Bauchspeicheldrüse durch Immunzellen unwiederbringlich zerstört werden. Typische Symptome des Diabetes mellitus Typ 1 sind häufiger Harndrang, Gewichtsverlust, ein starkes Durstgefühl sowie Müdigkeit und Abgeschlagenheit. Bei sehr stark erhöhten Blutzuckerkonzentrationen kann es auch zu Bewusstseinsstörungen oder zur Bewusstlosigkeit kommen. Diabetes mellitus Typ 1 kann in jedem Lebensalter auftreten; die Manifestation der Erkrankung findet aber am häufigsten vor Beginn der Pubertät statt.
Wird die Erkrankung nicht behandelt, kann dies zu schwerwiegenden und irreversiblen Folgeschäden an den kleinen und großen Blutgefäßen sowie an den Nervenbahnen führen und endet zumeist tödlich. Typische Begleit- und Folgeerkrankungen, die im fortgeschrittenen Stadium des Diabetes mellitus Typ 1 auftreten können, betreffen vor allem die Augen, die Nieren sowie das Nervensystem. Zudem haben die Betroffenen ein erhöhtes Risiko für das Auftreten von Herz-Kreislauf-Erkrankungen. Das DMP Diabetes Typ 1 soll sicherstellen, dass die Betroffenen eine Versorgung erhalten, die solche Folgeschäden und Verschlechterungen der Krankheit so weit wie möglich verhindert und die Lebensqualität verbessert.
Im Dezember 2022 waren in Deutschland rund 260 000 gesetzlich Krankenversicherte im DMP Diabetes mellitus Typ 1 eingeschrieben.
Diskrepante Empfehlungen in Leitlinien und in der DMP-Richtlinie Diabetes mellitus Typ 1
Die inhaltlichen Anforderungen an ein DMP werden regelmäßig auf ihre Aktualität hin überprüft. Die aktuelle Recherche des IQWiG zeigt, dass sich in den vergangenen Jahren viele der ausgewerteten 1272 Empfehlungen in den berücksichtigten 28 medizinischen Leitlinien zu Diabetes mellitus Typ 1 in Bezug auf wichtige Versorgungsaspekte weiterentwickelt haben. Daher sollte die geltende DMP-Richtlinie Diabetes mellitus Typ 1 aktualisiert werden.

Diskrepant sind unter anderem die Empfehlungen zu den Versorgungsaspekten

„Eingangsdiagnose“, „Therapieziele“, „Insulinsubstitution und Stoffwechselselbstkontrolle“, „diabetische Neuropathie“ oder auch zum „diabetischen Fußsyndrom“.

Zudem hat das Wissenschaftsteam folgende zusätzliche Versorgungsaspekte, die bisher nicht in der DMP-A-RL thematisiert werden, identifiziert: „Ernährung“, „körperliche Aktivität“, „Fettstoffwechselstörungen“ und „digitale medizinische Anwendungen“.

Aufgrund eingegangener Stellungnahmen zum Vorbericht hatte das IQWiG seine Leitlinien-Synopse vor Veröffentlichung das Abschlussberichts noch einmal überarbeitet und ergänzt: So ersetzten die Wissenschaftler und Wissenschaftlerinnen die Leitlinie IWGDF 2019 durch die aktuelle Version IWGDF 2023. Da in der IWGDF 2023 einige Empfehlungen umformuliert bzw. neue Empfehlungen hinzugekommen sind sowie ein Kapitel zum Charcot-Fuß neu in die Leitlinie aufgenommen wurde, ergaben sich hieraus auch Änderungen in den Empfehlungen des Abschlussberichts. Genauso nahm das Wissenschaftsteam im Abschlussbericht auch die aktuellen Leitlinien der Deutschen Diabetes Gesellschaft (DDG 2023), der Deutschen Gesellschaft für Wundheilung und Wundbehandlung (DGfW 2023), der Endocrine Society (ES 2023), der Gesellschaft für Transitionsmedizin (GfTM 2021) und der International Society for Pediatric and Adolescent Diabetes (ISPAD 2022) neu auf.

Zum Ablauf der Berichterstellung
Der G-BA hat das IQWiG am 17. November 2022 mit einer Leitliniensynopse zur Aktualisierung des DMP Diabetes mellitus Typ 1 beauftragt. Die vorläufigen Ergebnisse, den sogenannten Vorbericht, hat das IQWiG im August 2023 veröffentlicht und zur Diskussion gestellt. Bis Mitte September konnten schriftliche Stellungnahmen eingereicht werden. Nach Ende des Stellungnahmeverfahrens wurde der Bericht überarbeitet und im Dezember 2023 als Abschlussbericht an den Auftraggeber versandt. Die eingereichten schriftlichen Stellungnahmen zum Vorbericht werden zeitgleich mit dem Abschlussbericht publiziert. In die Bearbeitung des Projekts hat das Institut einen externen Sachverständigen eingebunden.

Originalpublikation:
https://www.iqwig.de/projekte/v22-05.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_10…
Der G-BA hat das IQWiG am 17. November 2022 mit einer Leitliniensynopse zur Aktualisierung des DMP Diabetes mellitus Typ 1 beauftragt. Die vorläufigen Ergebnisse, den sogenannten Vorbericht, hat das IQWiG im August 2023 veröffentlicht und zur Diskussion gestellt. Bis Mitte September konnten schriftliche Stellungnahmen eingereicht werden. Nach Ende des Stellungnahmeverfahrens wurde der Bericht überarbeitet und im Dezember 2023 als Abschlussbericht an den Auftraggeber versandt. Die eingereichten schriftlichen Stellungnahmen zum Vorbericht werden zeitgleich mit dem Abschlussbericht publiziert. In die Bearbeitung des Projekts hat das Institut einen externen Sachverständigen eingebunden.

Originalpublikation:
https://www.iqwig.de/projekte/v22-05.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_10…

(nach oben)


Neuartiger thermoformbarer Papierwerkstoff als nachhaltiger Ersatz für Kunststoffverpackungen

Drittmittelgefördertes Forschungsprojekt unter der Leitung der DHBW Karlsruhe erfolgreich abgeschlossen

Wissenschaftler*innen der Dualen Hochschule Baden-Württemberg (DHBW) Karlsruhe haben das Forschungsprojekt „3D-ThermoCell“ erfolgreich abgeschlossen, das sich auf die Entwicklung eines thermoformbaren Papierwerkstoffs als umweltfreundliche Alternative zu Kunststoffverpackungen konzentrierte. Das interdisziplinäre Projekt wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Chemische Technologie, der Tecnaro GmbH, der Mack Kunststofftechnik GmbH und der Mainteam Bild – Text – Kommunikation GmbH durchgeführt. Es erstreckte sich über zweieinhalb Jahre und wurde mit etwa 750 T€ durch das Bundesministerium für Bildung und Forschung gefördert.

Zielsetzung
Das Hauptziel des Projekts war es, einen thermoformbaren Papierwerkstoff zu entwickeln, der in der Lage ist, komplexe dreidimensionale Strukturen mit großen Tiefziehverhältnissen und kleinen Radien zu formen. Das angestrebte Ergebnis waren Verpackungen, die nahezu zu 100 Prozent aus nachwachsenden Rohstoffen bestehen und im Thermoformprozess hergestellt werden können. Dies ermöglicht vergleichbare Geometrien und Festigkeiten wie herkömmliche Kunststoffbauteile, jedoch bei geringerem Gewicht, niedrigeren Kosten und aus nahezu 100% abbaubaren, recyclebaren Papier-Materialien.

Die Herausforderungen des Projekts
Aufgrund der gegensätzlichen Reaktionen von Papier und Kunststoff bei Wärme, die beim Thermoformprozess genutzt wird, mussten die Forscher verschiedene Ansätze verfolgen. So wird Kunststoff z.B. bei Wärme, die beim Thermoformen zugeführt wird, plastisch und damit formbar. Papier reagiert genau gegenteilig: Bei Hitze zerstört sich Papier und wird brüchig.
Unter der Leitung von Monika Korbmann, Akademische Mitarbeiterin an der DHBW Karlsruhe, wurden vier Ideen in Betracht gezogen.

  1. Biobasierter Kunststoff als Zusatz: Die Zugabe von biobasiertem Kunststoff in Form von Pulver oder Kügelchen, um das Papier plastifizier- und umformbar zu machen.
  2. Papierfasern im Kunststoff: Die Integration von Papierfasern in den Kunststoff, um einen neuen thermoformbaren Werkstoffverbund zu schaffen.
  3. Papierwerkstoff aus Kunststoff- und Cellulosefasern: Die Herstellung eines thermoformbaren Papierwerkstoffs aus Kunststoff- und Cellulosefasern.
  4. Verwendung von löslichen Additiven: Das Papier wurde mit Chitosan behandelt, einem biopolymeren Derivat von Chitin, um es dehn- und formbar zu machen.

Erfolgreicher Ansatz und Ausblick
Die erste und die vierte Alternative erwiesen sich als erfolgreich. Bei der ersten Lösung wurde Celluloseproprionat, ein biobasierter Kunststoff mit Cellulosefasern kombiniert. Dieses Material ist sehr gut umformbar auf Thermoformanlagen. Die zweite Lösung, Papier mit Chitosan, erwies sich ebenfalls als erfolgreich. Das resultierende Papier ist formbarer, stabiler, weniger zerreißbar als herkömmliches Papier und zusätzlich sehr nassfest. Die beteiligten Partner planen nun nach Projektende beide Lösungen in Folgeprojekten bis zur Marktreife weiterzuentwickeln.

Die erfolgreiche Umsetzung des Projekts „3D-ThermoCell“ markiert einen bedeutenden Fortschritt in Richtung nachhaltiger Verpackungsalternativen und trägt dazu bei, eine biobasierte Wirtschaft zu etablieren.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Axel Kauffmann
Leiter Studiengang Wirtschaftsingenieurwesen
Tel.: 0721 / 9735 836
Mail: Axel.kauffmann@dhbw-karlsruhe.de

Weitere Informationen:
https://www.karlsruhe.dhbw.de/forschung-transfer/schwerpunkte-aktivitaeten/3d-th…

(nach oben)


Durch KI erstellte klinische Vorhersagemodelle sind präzise, aber studienspezifisch

Wissenschaftler*innen aus Yale und Köln konnten zeigen, dass durch Künstliche Intelligenz (KI) erstellte statistische Modelle sehr genau vorhersagen, ob eine Medikation bei Personen mit Schizophrenie anspricht. Die Modelle sind jedoch stark kontextanhängig und nicht zu verallgemeinern / Veröffentlichung in Science

In einer aktuellen Arbeit prüfen Wissenschaftlerinnen die Genauigkeit von KI-Modellen, die vorhersagen, ob Personen mit Schizophrenie auf eine antipsychotische Medikation ansprechen. Statistische Modelle aus dem Bereich der Künstlichen Intelligenz (KI) haben großes Potential, die Entscheidungsfindung in der medizinischen Behandlung zu verbessern. Jedoch sind Daten, mit denen Modelle arbeiten können, aus der medizinischen Behandlung nicht nur selten, sondern auch teuer. Daher konnte die Prognosegenauigkeit statistischer Modelle bislang nur in wenigen Datensätzen von begrenzter Größe demonstriert werden. In der aktuellen Arbeit prüfen die Wissenschaftlerinnen das Potential von KI-Modellen und testen die Genauigkeit der Prognose des Therapieansprechens auf eine antipsychotische Medikation bei Schizophrenie in mehreren unabhängigen klinischen Studien. Die Ergebnisse der neuen Arbeit, an der Forscher*innen der Universitätsmedizin Köln und Yale beteiligt waren, zeigen, dass die Modelle die Patientenergebnisse innerhalb der Studie, in der sie entwickelt wurden, mit hoher Genauigkeit vorhersagen konnten. Wurden sie allerdings außerhalb der ursprünglichen Studie angewendet, zeigten sie keine bessere Leistung als zufällige Vorhersagen. Auch die Zusammenführung von Daten aus verschiedenen Studien verbesserte die Vorhersagen nicht. Die Studie „Illusory generalizability of clinical prediction models“ wurde in Science veröffentlicht.

Die Studie wurde von führenden Wissenschaftlerinnen aus dem Bereich der Präzisionspsychiatrie geleitet. Dies ist ein Bereich der Psychiatrie, in dem anhand datenbezogener Modelle, gezielt Therapien und passende Medikamente für Personen oder Patientengruppen ermittelt werden sollen. „Unser Ziel ist es, durch neuartige Modelle aus dem Gebiet der KI, Patientinnen mit psychischen Beschwerden gezielter zu behandeln“, sagt Dr. Joseph Kambeitz, Professor für Biologische Psychiatrie an der Medizinischen Fakultät der Universität zu Köln und der Uniklinik Köln. „Auch wenn zahlreiche initiale Studien den Erfolg solcher KI-Modelle belegen, fehlte bislang eine Demonstration der Robustheit dieser Modelle.“ Und genau diese Sicherheit ist für die Anwendung im klinischen Alltag von großer Bedeutung. „Wir stellen strenge Qualitätsanforderung an klinische Modelle und müssen auch sichergehen, dass Modelle in unterschiedlichen Kontexten gute Prognosen liefern“, so Kambeitz. Die Modelle sollten gleich gute Prognosen liefern, egal ob sie in einem Krankenhaus in den USA, in Deutschland oder Chile genutzt werden.
Die Ergebnisse der Studie zeigen, dass eine Verallgemeinerung der Vorhersagen von KI-Modelle über verschiedene Studienzentren hinweg im Moment noch nicht sichergestellt werden kann. Dies ist ein wichtiges Signal für die klinische Praxis und zeigt, dass noch weitere Forschung notwendig ist, um die psychiatrische Versorgung tatsächlich zu verbessern. In laufenden Studien hoffen die Forschenden diese Hindernisse zu überwinden. In Kooperation mit Partnern aus den USA, England und Australien arbeiten sie daran, zum einen große Patientengruppen und Datensätze zu untersuchen, um die Genauigkeit der KI-Modelle zu verbessern sowie an der Nutzung weiterer Datenmodalitäten wie Bioproben oder neue digitale Marker wie Sprache, Bewegungsprofile und Smartphonenutzung.

Presse und Kommunikation:
Dr. Anna Euteneuer
+49 221 470 1700
a.euteneuer@verw.uni-koeln.de

Verantwortlich: Dr. Elisabeth Hoffmann – e.hoffmann@verw.uni-koeln.de

Wissenschaftliche Ansprechpartner:
Inhaltlicher Kontakt:
Professor Dr. Joseph Kambeitz
Biologische Psychiatrie der Medizinischen Fakultät an die Uniklinik Köln
+49 221 478 4024
joseph.kambeitz@uk-koeln.de

Originalpublikation:
Veröffentlichung:

https://www.science.org/doi/10.1126/science.adg8538

(nach oben)


Wegweiser durch die hybride Arbeitswelt

Connected Work Innovation Hub: Studienbericht liefert praxisnahe Lösungsmodelle

Wie wirkt sich die Hybridität auf die Performance der Belegschaft aus? Welche Folgen hat sie für die Klimabilanz und wie steht es in Zeiten von Homeoffice und Co. um die Themen Führung und Selbstorganisation der Mitarbeitenden? Welchen Einfluss hat KI auf Arbeitsformen und Arbeitsbeziehungen? Das Fraunhofer IAO hat im Rahmen des Projektnetzwerks »Connected Work Innovation Hub« praxisnahe Lösungsmodelle für Unternehmen erarbeitet und liefert in der neuen Studie Antworten auf diese und weitere Fragen.

Die Coronapandemie hat einen Digitalisierungsschub ausgelöst und unsere Arbeitswelt massiv verändert: Die Flexibilisierung von Arbeitsorten und -zeiten hat nicht nur die Arbeitspraxis von Mitarbeitenden und Führungskräften verändert, sondern auch ihre Erwartungen an die zukünftige Gestaltung ihrer Arbeit. Die Büros sind längst wieder offen, das hybride Arbeiten ist geblieben. Doch wie lassen sich Produktivität, Innovationskraft und Bindung in der Hybridität langfristig sichern? Um diese ungeklärten Fragen zu erforschen, ging die Projektinitiative »Connected Work Innovation Hub« in diesem Jahr in die zweite Runde, nachdem in der ersten Projektphase grundlegende Erkenntnisse zu Führung, Innovation, Mitarbeitendenbindung, Leistungsmessung und Büroinfrastruktur gewonnen wurden. »Gemeinsam mit Expertinnen und Experten aus 13 Partnerorganisationen haben wir die wesentlichen Handlungsfelder einer Arbeitswelt zwischen Virtualität und Präsenz bearbeitet: von der Performance der Mitarbeitenden über den Klimaschutz bis hin zur Selbstorganisation in der hybriden Arbeitswelt«, erklärt Projektleiter Dr. Stefan Rief, Institutsdirektor und Leiter des Forschungsbereichs »Organisationsentwicklung und Arbeitsgestaltung« am Fraunhofer IAO. Die gesammelten Ergebnisse inklusive praxisnaher Lösungsansätze können im kostenlosen Report »Produktivität, Innovationskraft und Bindung in der Hybridität langfristig sichern« heruntergeladen werden.

Produktivität ist ungebrochen hoch, Gefahr der sozialen Erosion ist gegeben
Die Befragten – sowohl Beschäftigte als auch Führungskräfte – sehen die Produktivität ungebrochen positiv. Im Zuge der Digitalisierung der Arbeit stehen immer leistungsfähigere Tools zur individuellen Selbstoptimierung oder auch zur Messung und Steuerung der Teamleistung sowie Tools für Personalprozesse wie Zielvereinbarungen zur Verfügung. Auch die informellen Kontakte im eigenen Team und zur Führungskraft sind gut: Die Mehrheit der Befragten fühlt sich »gesehen«, gut integriert und von der Führungskraft ausreichend wahrgenommen. Gleichzeitig spüren die Befragten deutlich die Auswirkungen der sozialen Erosion: Veränderungen in den sozialen Beziehungen im beruflichen Kontext, die neben der rein fachlichen Zusammenarbeit immens wichtig sind, um effektiv zusammenzuarbeiten. Sie beklagen eine Verschlechterung der Kontakte zu Kolleginnen und Kollegen außerhalb des eigenen Teams, eine unzureichende Umsetzung systematischer Feedbackschleifen und eine fehlende Wahrnehmung von Überlastungen einzelner Kolleginnen und Kollegen durch eine stark eingeschränkte gemeinsame Präsenz.

Instrumente der Retention und der Führungsorganisation an die neue Arbeitswelt anpassen
Welchen Einfluss hat Hybridität auf die Personalgewinnung und -bindung? Die Antwort ist vielschichtig: Hybridität wirkt sich sowohl erleichternd als auch erschwerend auf die verschiedenen Phasen des Personalzyklus aus. Die Herausforderung, so die Expertinnen und Experten des Fraunhofer IAO, bestehe daher vor allem darin, die vorhandenen Instrumente gezielt an die hybriden Bedingungen anzupassen. Dies gelte auch für Führung und Selbstorganisation in hybriden Unternehmen, so Mitautorin und Co-Projektleiterin Dr. Josephine Hofmann, die am Fraunhofer IAO das Team »Zusammenarbeit und Führung« leitet. »Unsere Ergebnisse deuten darauf hin, dass sich das gesamte Führungssystem an die neuen Bedingungen anpassen muss. Führungsarbeit wird in Zukunft vor allem Beziehungsarbeit sein und die Entwicklung der eigenen Führungspräsenz wird damit zu einer zentralen Aufgabe für Führungskräfte.« Vor allem empathische Kommunikation und digitale Kommunikationskompetenz werden immer wichtiger, so die Wissenschaftlerin. Ihre Prognose: Während KI-unterstützte Führung zur Normalität wird, nehmen gleichzeitig Teamverantwortung und Selbstmanagement zu.

Hybridität als Chance für mehr Nachhaltigkeit
Neben der Förderung eines klimabewussten Verhaltens der Mitarbeitenden wurden im Rahmen der Studie auch die Klimawirkungen von mobilem Arbeiten, Videokonferenzen statt Dienstreisen und Desksharing untersucht. Dabei quantifizierten die Forschenden unter anderem die möglichen CO2-Einspareffekte in Abhängigkeit von der Desksharing-Quote. Die Berechnungen der Wissenschaftlerinnen und Wissenschaftler zeigen unter anderem, dass Unternehmen mit den Gestaltungsmöglichkeiten der Hybridität ihre Klimawirkungen spürbar beeinflussen können: Für einen 28 Quadratmeter großen, gasbeheizten Arbeitsbereich sind durch Desksharing Einsparungen von bis zu 40 Prozent möglich.

Ab Januar 2023 geht das Projekt in die dritte Phase, dann mit dem Fokus auf adäquate Rahmenbedingungen für Kreativität und Innovation, neue Lern- und Wissensmanagementformate, die Beibehaltung von Informalität und persönlicher Bindung, individualisierte Anreiz- und Führungssysteme sowie Optionen für Mitarbeitende Ü50.

Ansprechpartnerin Presse:
Catharina Sauer
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2242
E-Mail: presse@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
Dr.-Ing. Stefan Rief
Leiter Forschungsbereich Organisationsentwicklung und Arbeitsgestaltung
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5479
E-Mail: stefan.rief@iao.fraunhofer.de

Originalpublikation:
https://publica.fraunhofer.de/entities/publication/7a23f92d-9b23-4f9a-88cf-2df93…

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/wegweiser-durch-die-hybride-arbeitswelt.html

(nach oben)


Nachhaltige Tenside auf Pflanzenölbasis

Tenside für Seifen oder Waschmittel sind mit einer weltweiten Jahresproduktion von über 18 Millionen Tonnen nach Kunststoffen die zweitgrößte Klasse chemischer Produkte. Die Fakultät für Angewandte Naturwissenschaften der TH Köln arbeitet schon seit mehreren Jahren an biobasierten Chemikalien und damit an Grundlagen, um diesen Industriezweig nachhaltiger zu gestalten. Zwei neue Projekte widmen sich nun der Erforschung umweltfreundlicher Tenside.

„Die überwiegende Mehrheit der heute verwendeten Tenside wird petrochemisch hergestellt, stammt also aus Erdöl. In unseren Vorhaben arbeiten wir daran, Pflanzenöle als Ausgangsmaterial zu nutzen“, sagt Prof. Dr. Ulrich Schörken, der die beiden Projekte leitet. Dies leiste einen Beitrag zur Transformation in eine CO2-neutrale Gesellschaft und sorge dafür, dass weniger umweltschädliche Chemikalien in die Natur gelangen.

Projekt „BioTense“: Neue Tensidformulierungen für Kosmetik und Pharmazeutik
Tenside sind allgegenwärtig: In Shampoos und Kosmetika sorgen diese Moleküle beispielsweise dafür, dass sich Verunreinigungen lösen und keine statischen Ladungen aufgebaut werden. „Biobasierte Tenside haben das Potential, die Nachhaltigkeit von Kosmetik- und Pharmaprodukten deutlich zu verbessern, sind jedoch bislang nur in Nischenanwendungen zu finden“, sagt Prof. Dr. Ulrich Schörken. Dies liege im Wesentlichen daran, dass sie im Vergleich zu erdölbasierten Produkten unterschiedliche Eigenschaftsprofile aufweisen. In etablierten Produktformulierungen können Einzelkomponenten daher nur schwer ausgetauscht werden. „Es besteht also sowohl Bedarf an neuen, maßgeschneiderten biobasierten Tensiden als auch an einem tiefgehenden Verständnis der Wechselwirkungen in Formulierungen zur Entwicklung verbesserter nachhaltiger Produkte“, ergänzt Prof. Dr. Birgit Glüsen.

In der Synthese biobasierter Tenside entstehen häufig Substanzgemische. Aus ökonomischer Sicht soll auf eine aufwändige Aufreinigung dieser Gemische nach Möglichkeit verzichtet werden. „Eine detaillierte Analytik von Zusammensetzung und Eigenschaften dieser komplexen Produkte ist daher essentiell für die Erstellung belastbarer Struktur-Eigenschaftsbeziehungen“, führt Prof. Dr. Viktoriia Wagner aus. Diese Erkenntnisse sollen einen schnelleren und gezielteren Ersatz von erdölbasierten durch biobasierte Verbindungen erlauben und somit einen Weg für effiziente Produktentwicklungen und -anpassungen bereiten.

Projekt „CombiOne“: Neue Linker-verbrückte Tenside auf Basis nachwachsender Rohstoffe
Im Forschungsprojekt „CombiOne“ sollen Tenside entstehen, deren Komponenten über neuartige Linker verbunden sind. „Auch hier arbeiten wir vollständig mit nachwachsenden Rohstoffen: Jedes Tensid besteht aus einem wasserabweisenden Teil und einem wasserliebenden Teil, für den wir natürliche Aminosäuren oder Zucker verwenden. Gekoppelt wird dies über Linker, zum Beispiel auf Basis von Zitronensäure, die beide Teile miteinander verbinden können“, so Schörken.

Beim wasserabweisenden Teil setzt das Forschungsteam neben Fettsäuren aus Pflanzenölen auch auf Terpene, die bisher für diesen Zweck nur selten verwendet wurden. Dabei handelt es sich um ätherische Öle, die zum Beispiel aus Lavendel, Kiefer oder Wacholder gewonnen werden. So soll eine neue Tensid-Klasse entstehen. „Für jede der drei Komponenten unseres Tensids stehen uns eine Auswahl potenzieller Substanzen zur Verfügung und damit eine große Anzahl möglicher Kombinationen. Wir möchten verschiedene dieser Kombinationen herstellen und charakterisieren, so dass am Projektende ein Substanzkatalog neuer Tenside mit vielversprechenden Eigenschaften steht“, sagt Schörken. Untersucht wird unter anderem, wie gut die neuen Substanzen reinigen, schäumen oder emulgieren, wie sie die Oberflächenspannung von Wasser reduzieren und ob sie eine antibakterielle Wirkung haben.

Über die Projekte
Das Projekt BioTense ist eine Forschungskooperation von Prof. Dr. Ulrich Schörken, Prof. Dr. Birgit Glüsen und Prof. Dr. Viktoriia Wagner. Fördermittelgeber ist das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen über das Programm FF HAW-Kooperation (Förderkennzeichen 005-2302-026).

CombiOne wird über drei Jahre vom Bundesministerium für Ernährung und Landwirtschaft im Förderprogramm „Nachwachsende Rohstoffe“ gefördert (Förderkennzeichen 2221NR005X) unter Beteiligung von Prof. Dr. Ulrich Schörken und Prof. Dr. Birgit Glüsen gemeinsam mit den Industriepartnern BASF Personal Care & Nutrition GmbH und Henkel AG & Co. KGaA.

Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 23.500 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.

Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Christian Sander
0221-8275-3582
pressestelle@th-koeln.de

(nach oben)


BZgA: Grippewelle – Mit der Grippeimpfung jetzt bestmöglich schützen

In der kalten Jahreszeit finden Grippe- und Rhinoviren, das Coronavirus sowie andere Atemwegserreger wie das Respiratorische Synzytial-Virus optimale Bedingungen, sich zu verbreiten: Wir verbringen mehr Zeit in Innenräumen und in der Raumluft können sich Atemwegserreger anreichern. Mit Beginn der Grippewelle im Dezember 2023 ist es besonders wichtig, den Impfschutz gegen Influenza, COVID-19 und Pneumokokken gemäß den Empfehlungen der Ständigen Impfkommission (STIKO) aktuell zu halten. Der „Grippe-Impfcheck“ der BZgA gibt mit wenigen Klicks Auskunft, für wen die Schutzimpfung gegen Influenza angeraten ist.

In der kalten Jahreszeit finden Grippe- und Rhinoviren, das Coronavirus sowie andere Atemwegserreger wie das Respiratorische Synzytial-Virus optimale Bedingungen, sich zu verbreiten: Wir verbringen mehr Zeit in Innenräumen und in der Raumluft können sich Atemwegserreger anreichern. Mit Beginn der Grippewelle im Dezember 2023 ist es besonders wichtig, den Impfschutz gegen Influenza, COVID-19 und Pneumokokken gemäß den Empfehlungen der Ständigen Impfkommission (STIKO) aktuell zu halten.

Dr. Johannes Nießen, Errichtungsbeauftragter des Bundesinstituts für Prävention und Aufklärung in der Medizin (BIPAM) und Kommissarischer Leiter der Bundeszentrale für gesundheitliche Aufklärung (BZgA), betont: „Insbesondere Personen, die zu Risikogruppen zählen, sollten ihren Impfschutz überprüfen und empfohlene Impfungen wahrnehmen. Die wichtigste Maßnahme zum Schutz vor Influenza ist die Grippeschutzimpfung. Noch ist es nicht zu spät, sich impfen zu lassen. Die Impfung gegen Grippe kann in einem Termin mit einer Impfung oder Auffrischimpfung gegen das Coronavirus in Anspruch genommen werden.“

Der „Grippe-Impfcheck“ der BZgA unter https://www.impfen-info.de/grippeimpfung/grippe-impfcheck gibt mit wenigen Klicks Auskunft, für wen gemäß STIKO-Empfehlung die Schutzimpfung gegen Influenza angeraten ist: Personen ab 60 Jahren, chronisch Kranke aller Altersstufen, Schwangere sowie für Bewohnerinnen und Bewohner von Alten- und Pflegeheimen sind besonders gefährdet, bei einer Grippe Komplikationen wie eine Lungenentzündung zu entwickeln und schwer oder sogar lebensbedrohlich zu erkranken. Auch Kontaktpersonen von Gruppen bzw. Personen mit erhöhtem gesundheitlichem Risiko sowie Medizin- und Pflegepersonal sollten sich unbedingt impfen lassen.

Grippeviren und weitere Erreger von Atemwegsinfektionen können über Tröpfcheninfektion beim Sprechen, Husten oder Niesen, aber auch über Hände und Oberflächen übertragen werden. Folgende Tipps mindern das Ansteckungsrisiko von Atemwegsinfektionen:

  • Halten Sie Abstand zu Personen mit Symptomen einer akuten Atemwegserkrankung.
  • In der Erkältungs- bzw. Grippesaison kann in Innenräumen das Tragen einer Maske sinnvoll sein – insbesondere, wenn Sie zu einer Personengruppe mit erhöhtem gesundheitlichem Risiko zählen.
  • Personen mit Symptomen einer Atemwegserkrankung sollten zum Schutz anderer eine Maske tragen.
  • Wer Symptome einer akuten Atemwegsinfektion hat, sollte drei bis fünf Tage und bis zur deutlichen Besserung der Symptomatik zu Hause bleiben.
  • Während dieser Zeit sollte der direkte Kontakt zu Personen, insbesondere solchen, die ein erhöhtes Risiko für schwere Krankheitsverläufe haben, möglichst vermieden werden.
  • Lüften Sie geschlossene Räume regelmäßig.
  • Regelmäßiges und gründliches Händewaschen mit Seife verhindert die Weitergabe von Krankheitserregern über die Hände.
  • Mit den Händen nicht Mund, Nase oder Augen berühren – sonst können Krankheitserreger über die Schleimhäute in den Körper gelangen.
  • Verwenden Sie beim Husten und Niesen ein Taschentuch oder halten Sie die Armbeuge vor Mund und Nase und wenden sich von anderen Personen ab.

Weiterführende Informationen der BZgA zum Thema:

Bestellung der kostenlosen BZgA-Materialien unter:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: https://shop.bzga.de/
Fax: 0221/8992257
E-Mail: bestellung@bzga.de

(nach oben)


Unterarm- und Ellenbogenbrüche bei Kindern: Ultraschall kann Röntgendiagnostik ersetzen

Unterarm- und Ellenbogenbrüche bei Kindern: Ultraschall kann Röntgendiagnostik ersetzen
Ultraschalluntersuchungen sind eine zuverlässige Alternative zur bisherigen Röntgendiagnostik von Brüchen am Unterarm und Ellenbogen bei Kindern – und können Strahlenbelastung ersparen.

Aussagekräftige Daten aus einer aktuellen randomisierten kontrollierten Studie (RCT) bestätigen die Vorteile der Ultraschalldiagnostik (Fraktursonografie) bei Verdacht auf Brüche an den langen Armknochen bei Kindern: Mithilfe von Ultraschall lassen sich Knochenbrüche am Unterarm und in Nähe des Ellenbogens verlässlich und ohne funktionelle Nachteile genauso gut erkennen wie durch Röntgendiagnostik – und das ohne Strahlenbelastung. Dank der guten zusätzlichen Evidenz aus der RCT, die zur Auswertung für den Vorbericht noch nicht vorlag, sieht das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) im nun vorliegenden Abschlussbericht sogar einen Beleg für einen höheren Nutzen der Fraktursonografie am distalen Unterarm, also die höchste Nutzenkategorie. Für Brüche am Ellenbogen bleibt es wie im Vorbericht beim Hinweis auf einen höheren Nutzen im Vergleich zur Strahlendiagnostik, weil dazu keine weitere Evidenz vorlag.
Bei Verdacht auf einen Bruch am Oberarmknochen fehlt es noch an belastbaren Daten zur Fraktursonografie, die sich aber durch eine Erprobungsstudie sammeln ließen. Für eine solche Studie hat das IQWiG im Abschlussbericht Eckpunkte formuliert.
Die Vorteile und Nachteile von Ultraschalldiagnostik bei Verdacht auf Brüche an Oberarm, Ellenbogen oder Unterarm bei Kindern im Vergleich zur konventionellen Röntgenuntersuchung hat das IQWiG im Auftrag des Gemeinsame Bundesausschusses (G-BA) bewertet mit dem Fazit: An Unterarm und Ellenbogen kann die Fraktursonografie die konventionelle radiologische Diagnostik ersetzen. Dies erleichtert die Untersuchung für alle Beteiligten – Kinder, Angehörige und medizinisches Personal.

Diagnostik optimieren und Betroffene schonen
Kinder sind strahlenempfindlicher als Erwachsene und Knochenbrüche kommen bei ihnen häufiger vor: Nur etwa die Hälfte der Kinder erlebt keinen Knochenbruch während der Wachstumsphase. Solche Verletzungen sind überdies meist mit Schmerzen und Angstgefühlen verbunden – deshalb kommt es bei Kindern besonders auf eine möglichst einfache Untersuchungssituation und das Minimieren von Strahlenbelastung an. Die Fraktursonografie kommt ohne Strahlenbelastung aus und lässt sich in einer schmerzarmen Armhaltung durchführen, ohne dass sich die beunruhigten Kinder von den Eltern trennen müssen. Eine Röntgenuntersuchung wird dann nur noch notwendig, wenn das Ultraschallergebnis nicht eindeutig ist.
Wie wichtig die praktischen Vorteile der Fraktursonografie sind, bestätigte sich in den Gesprächen mit Betroffenen, die das IQWiG auch für diese Bewertung durchgeführt hat. Solche Betroffenengespräche führt das IQWiG regelmäßig durch, um einen unmittelbaren Eindruck davon zu gewinnen, was für Patientinnen und Patienten oder ihre Angehörigen bei medizinischen Untersuchungen und Behandlungen relevant ist.

Daten generieren, um Evidenzlücken zu schließen
Die Studiendaten von 33 Kindern zur Ultraschalldiagnostik bei Verdacht auf Oberarmbruch sind zu schwach, um einen Vorteil zu zeigen. Allerdings lässt sich daraus ein Potenzial für die Fraktursonografie als Alternative zur Röntgendiagnostik ableiten. Deshalb haben die Wissenschaftlerinnen und Wissenschaftler des IQWiG Eckpunkte für eine Erprobungsstudie skizziert, in der die Fraktursonografie am Oberarm verglichen wird mit der Röntgendiagnostik: Ziel dieser Testgütestudie ist es nachzuweisen, dass ein unauffälliger Sonografie-Befund einen unauffälligen (d. h. negativen) Röntgen-Befund mit hinreichender Genauigkeit vorhersagen kann. Für die Studienhypothese ist die Sensitivität (Treffergenauigkeit) entscheidend: Bei ausreichend hoher Sensitivität ist sichergestellt, dass nur in wenigen Fällen in der Fraktursonografie ein Bruch übersehen wird. Eine solche Erprobungsstudie ist gut realisierbar, wie auch einschlägige Fachgesellschaften in ihren Stellungnahmen zum Vorbericht bestätigten.

Zum Ablauf der Berichterstellung
Der G-BA hat das IQWiG am 15.12.2022 mit der Nutzenbewertung der Fraktursonografie bei Kindern mit Verdacht auf Fraktur eines langen Röhrenknochens der oberen Extremitäten beauftragt. Die vorläufigen Ergebnisse, den Vorbericht, veröffentlichte das IQWiG im August 2023 und stellte sie zur Diskussion. Nach dem Stellungnahmeverfahren wurde der Bericht überarbeitet und im Dezember 2023 als Abschlussbericht an den Auftraggeber versandt. Die eingereichten schriftlichen Stellungnahmen zum Vorbericht werden in einem separaten Dokument zeitgleich mit den Abschlussberichten publiziert. In die Bearbeitung des Projekts hat das Institut einen externen Sachverständigen eingebunden.

Originalpublikation:
https://www.iqwig.de/projekte/d22-02.html

Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_10…

(nach oben)


Einmal Sauerstoffmangel, immer Sauerstoffmangel? Internationale Studie zum Zustand von Seen zeigt Abwärtsspirale

Sauerstoffmangel bedroht Binnengewässer weltweit. Einmal in einem See aufgetreten setzt der Sauerstoffmangel sogar eine Abwärtsspirale in Gang, die sich mit zunehmender Erderwärmung immer schneller dreht. Darauf deuten die Ergebnisse einer internationalen Studie mit Beteiligung der TU Bergakademie Freiberg hin, die in der wissenschaftlichen Zeitschrift „Global Change Biology“ veröffentlicht wurden.

Demnach sind Seen, die einmal von Sauerstoffmangel im Tiefenwasser betroffen waren, im darauffolgenden Jahr wieder betroffen. In der Folge verschlechtern sich die Lebensbedingungen für Fische und Wirbellose immer weiter, Treibhausgase werden vermehrt freigesetzt und Nährstoffkreisläufe intensiviert.

Für die Studie wertete das internationale Forschungsteam erstmals Langzeit-Daten von mehr als 600 Seen aus – vornehmlich in Nordamerika und Europa. Anhand der Daten schlussfolgert Co-Autor Juniorprofessor Maximilian Lau von der TU Bergakademie Freiberg: „Hat ein See in einem Jahr einen kritischen Sauerstoffgehalt unterschritten, ist die Wahrscheinlichkeit sehr hoch, dass er im darauffolgenden Jahr von noch intensiverem Sauerstoffmangel betroffen ist.“

Er ergänzt: „Obwohl sich dieser problematische Teufelskreis aus dem bisherigen Wissen über Nährstoffdynamik ableiten lässt, konnte unser Team jetzt dank der großen Stichprobe erstmals die Wirkung der beteiligten Prozesse entschlüsseln.“ Mit Daten aus mehr als 100.000 unabhängigen Messkampagnen klärt die Studie damit den wechselseitigen Zusammenhang zwischen der Wassertemperatur, dem Nährstoffrückhalt im Sediment, der Entwicklung von Planktonalgen und dem Sauerstoffmangel. Dank dieser Erkenntnisse kann das Team die Anfälligkeit der Gewässer für weitere Sauerstoff-Krisen vorhersagen.
Die Ergebnisse können Forschung und Behörden nun helfen, den Gesundheitszustand von Seen besser zu verstehen und durch gezieltes Nährstoffmanagement zu verbessern.

Neue Daten ermöglichen Langzeituntersuchung
Die untersuchten Langzeit-Daten zum Gehalt an Phosphor, Chlorophyll und Sauerstoff im Wasser stammen aus 656 Seen und wurden von Wissenschaftlerinnen und Wissenschaftlern des kollaborativen GLEON Netzwerks (Global Lake Observatory Network) zur Verfügung gestellt. Besonderes interessierte das Studien-Team Daten derjenigen Seen, die bereits Anzeichen von Sauerstoffmangel zeigen. Diese befinden sich häufig in der von Menschen besonders geprägten gemäßigten Zone Europas und Nordamerikas. „“Die im Rahmen von GLEON ausgetauschten Daten und Fachkenntnisse waren für dieses Projekt von zentraler Bedeutung. Durch die Zusammenarbeit waren wir in der Lage, die Stärke und Allgegenwart der Sauerstoffmangel-Rückkopplung in über 600 Seen auf fünf Kontinenten zu charakterisieren,“ sagt Hauptautorin Abby Lewis von der US-Hochschule Virginia Tech.

Hintergrund: Wie Sauerstoffmangel in Seen entsteht
Generell begünstigen steigende Temperaturen eine Verlängerung der Schichtungsperiode von Seen. Während der Schichtung ist der Wasseraustausch zwischen oberflächennahen, warmen und tiefen, kalten Schichten erschwert. Der Klimawandel erhöht die Dauer und Stabilität dieser sogenannten thermischen Schichtung von Seen, insbesondere durch den immer früher einsetzenden Frühling. Dadurch haben die Abbauprozesse insgesamt mehr Zeit den begrenzten Sauerstoffvorrat im Tiefenwasser vollständig aufzubrauchen. Dazu begünstigen steigende Temperaturen die vermehrte Bildung von Algen. Sterben die Algen ab, werden sie am Boden von Bakterien zersetzt, die dafür Sauerstoff aufbrauchen. Im See kommt es dann zu Sauerstoffmangel, insbesondere an den tiefsten Stellen. Andauernder Sauerstoffmangel führt dazu, dass fast alle höheren Organismen im Wasser absterben.

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Maximilian Lau, Maximilian.Lau@ioez.tu-freiberg.de, +49 3731 39-3539

Originalpublikation:
https://onlinelibrary.wiley.com/doi/10.1111/gcb.17046

(nach oben)


Soziologe über den Umgang mit Katastrophen: „Schwere Naturereignisse überraschen die Gesellschaft immer wieder“

Noch hält das markante Hochwasser Teile des Landes in Atem, doch bald trockeneres Wetter gibt Hoffnung auf Entspannung. Ein Gespräch mit dem Gesellschafts- und Organisationsforscher Marcel Schütz über unseren Umgang mit Katastrophen, Krisenmanagement, Hilfsbereitschaft und die Macht starker Erinnerungen und Erzählungen.

NBS: Herr Professor Schütz, Sie leben in Oldenburg, derzeit ein Hochwasser-Hotspot. Bleiben die Füße noch trocken?

Nicht ganz. Ich war diese Woche mal im Regen laufen, da wurden die Schuhe nass. Aber davon ab: Seit Weihnachten ist die Lage hier ernst. Auf den Feldern steht das Wasser, die Deiche weichen irgendwann durch, sie könnten brechen und bestimmte Stadtgebiete müssten evakuiert werden. In die Keller dringt Grundwasser ein. Und jetzt am Wochenende soll es Dauerfrost geben. Aus „Land unter“ wird dann eine Eislandschaft. In ein paar Tagen freuen sich die Schlittschuhläufer.

Aus der Wasserhölle direkt ins Wintermärchen. Faszinieren uns derartige Naturgewalten und -dramen irgendwie auch?

Sie faszinieren auf unheimliche Weise. Schwere Naturereignisse, so ewig es sie gibt, überraschen die Gesellschaft immer wieder. Wir sind es gewohnt, uns die Natur anzueignen, sie einzuhegen. Dazu haben wir Wälder, Gewässer und Böden in der Weise geformt, dass sie zu unserer sozialen Welt passen. Diese Eingriffe haben Nebenfolgen. Wenn die Natur auf einmal ein brachiales Eigenleben zeigt, dann führt das zu Störungen und Unterbrechungen unserer Gesellschaft. In vielen Kulturen sprechen die Menschen von der „Rache der Natur“, davon, dass sie sich „Bahn bricht“ oder etwas „zurückholt“. Von alters her wurden Fluten, Beben, Dürren oder Stürme als göttliche Strafe für die Sünden der Welt erfahren. In der „Sintflut“ klingt es bis in unsere Tage noch nach, obschon das Wort erst im Mittelalter mit Sünde in Verbindung gebracht wurde. Das gewaltige Erdbeben von Lissabon 1755 war ein wichtiger Wendepunkt im Katastrophenverständnis. Man fing an, die Katastrophe nicht mehr ohne weiteres als Strafgericht Gottes zu deuten, sondern als ein schlimmes Ereignis, das praktischer Bewältigung bedurfte. Der portugiesische König beauftragte den Außenminister, Sebastião José de Carvalho e Mello, einen Aufklärer und Modernisierer, in Lissabon die Hilfe und den Wiederaufbau zu organisieren. Bußpredigten der Priester ließ er kurzerhand verbieten. Außerdem war es ein Anstoß für die Erdbebenforschung. Wir kalkulieren freilich längst mit physikalischer Kausalität und wissen, dass nicht Fluten, wohl aber Asteroiden unserer Welt ein Ende setzen könnten. Und wir wissen um die schrittweisen und langfristigen Schäden an der Natur durch Aktivitäten des Menschen.

Sie haben einmal über die große Schneekatastrophe im Norden von 1978/79 geschrieben, wie die Menschen, völlig überrascht, in diesem Jahrhundertwinter improvisierten.

Diese natürliche Katastrophe wurde zu einem regelrechten sozialen Mythos, sie ging ins gesellschaftliche Gedächtnis ein. Darin verband sie das damals geteilte (nördliche) Deutschland. Natur kennt keine Grenzen. Und es gibt keinen Winter seither, in dem nicht daran erinnert wird. Je milder die Winter, desto fantastischer die Erinnerung. Der Schnee lag Wochen und Monate teils meterhoch aufgetürmt. Ich denke an Berichte über Leute, die im Schneesturm verschwanden und erst bei Tauwetter im März gefunden wurden. Es starben eben auch einige Menschen und reichlich Vieh verendete auf den Höfen. Das damalige Norddeutschland war noch agrarischer und die Siedlungen waren abgelegener. Mit Panzern und Hubschraubern kam die ersehnte Rettung – manches Mal zu spät. Unzählige private Filmaufnahmen fingen jedoch noch ein ganz anderes Bild ein: traumhaft tief verschneite Landschaften, leuchtende Kinderaugen und lachende Erwachsene, die aus dem Haus einen Tunnel nach draußen graben. Dazwischen bringt der verschmitzte Großvater ein Tablett mit Grog. Die Leute erlebten eine schaurige und eine schöne Zeit. Dem Schrecken von Klima und Wetter kann man gewisse Reize abgewinnen.

Es sind gerade extreme Witterungsphänomene, die es den Menschen – buchstäblich und metaphorisch – antun?

Ja, und das besonders in der dunkleren, nasseren und stürmischen Zeit des Jahres, in der Verheerungen für Landschaft und Leben drohen, gegen die man nicht viel auszurichten vermag. Man muss nicht nur das Wetter nehmen, wie es kommt, sondern auch all das Chaos, das es obendrein anrichtet. Mit dem Klimawandel und der Erwärmung werden häufigere Extremereignisse diskutiert: Hitzewellen, Starkregen, Stürme, kurioserweise kurzzeitig auch kräftige Wintereinbrüche. Es kann gut sein, dass wir es künftig vermehrt mit extremen Witterungen zu tun kriegen. Sie können großen Schaden anrichten und unsere Art zu Leben verändern. Es ist aber auch interessant, ja faszinierend, dass keine Hochtechnologie uns vor diesen Überraschungen ganz schützen, geschweige sie verhindern könnte. Wir können noch so modern und innovativ werden, wir müssen damit leben, dass wir das natürliche System des Wetters nicht beherrschen können.

Wie betrachten wir Katastrophen in unserer an sich durchorganisierten Welt, in der Sicherheit und Kontrolle doch alles zu sein scheinen?

Durch Dokumente, Literatur und Malerei werden uns aus Jahrhunderten und Jahrtausenden Zeugnisse aller möglichen Naturgewalten überliefert. Heute sind es die sozialen Medien und Massenmedien. Katastrophen sind Action und Storytelling. Gebannt folgt man den Sondersendungen. Die Medien sind „Koproduzenten“ dramatischer Naturphänomene, die uns aus aller Welt über die Bildschirme und Displays erreichen. Liveschalten vor brennenden Wäldern und eingestürzten Häusern – diese starken Bilder geben Akutereignissen eine Dramaturgie und Rettern, Helfern und Betroffenen Stimme und Gesicht. Der Umgang damit ist ambivalent, gilt Katastrophenneugier doch als schambehaftet. Man will eigentlich nicht vom Leid anderer Menschen „unterhalten“ werden. Andererseits wollen wir schon wissen, weshalb und wie spektakuläre Dinge passieren, die Erde sich öffnet, Tsunamis entstehen, Lawinen rollen, Vulkane explodieren. Die Geheimnisse der Natur verstehen, Mitleid mit Menschen haben, sich in ihre Lage hineinversetzen. Nicht umsonst sind Katastrophenfilme und TV-Dokus über schwere Unglücke gefragt. Sie thematisieren existenzielle Erfahrungen. Katastrophen entdifferenzieren und konzentrieren eine zergliederte Welt auf einen bestimmten Ort, Zeitpunkt und Umstand. So kann ein winziges Dorf binnen Minuten weltbekannt werden. Und zwar so, wie es niemand, der dort lebt, sich wünschte.

Sie forschen über Organisationen in der Gesellschaft. Das in Verbindung mit devianten Strukturen, Störungen und Unfällen. Was macht Rettungs- und Katastrophenorganisation besonders?

Zunächst ist es das Zusammenwirken unterschiedlicher Behörden, Dienste und Einsatzkräfte. Wir nennen sowas „Interorganisation“. Jetzt beim Hochwasser sieht man es lehrbuchmäßig: Feuerwehr, Technisches Hilfswerk, Kommunen und ehrenamtliche Verbände arbeiten Hand in Hand. Die besondere Situation ist, dass man all sowas zwar von Zeit zu Zeit übt, Szenarien möglichst realistisch simuliert. Doch jedes Unglück und jede Notlage sind im Ernstfall anders, erst recht, wenn es sich um Großeinsätze bzw. Großschadensereignisse handelt. Die beteiligten Akteure müssen sicher und effektiv zusammenarbeiten, einander gut ergänzen. Ferner ist es so, dass ein Hochwasser ein recht dynamisches Ereignis darstellt und weiten Raum einnehmen kann. Ähnlich ist es bei Waldbränden, Verseuchungen oder Vereisungen. Alles entwickelt und entgrenzt sich. Man kann den Zustand nicht sofort beenden, muss die Lage im Blick behalten, zuwarten und die Methoden anpassen. Zur Dynamik gehört natürlich, dass weitere Witterungsbedingungen Einfluss üben: Wind, Niederschlag, Temperatur. Bei der Rettung kann einiges auch schiefgehen. Der Organisationspsychologe Karl Weick hatte einen großen Waldbrand im Jahr 1949 im US-Bundesstaat Montana studiert. Fast die gesamte Kompanie der Forstfeuerwehr, Smokejumper genannt, kam ums Leben – mangels Situationsdefinition, Kooperation und Kohäsion des Teams. Krisenstäbe und Rettungskräfte stehen immer unter Druck, auch ja alles richtig zu tun.

Naturkatastrophen gehen auch mächtig ins Geld. Die Ahrtalflut von 2021 gilt als vielleicht teuerstes Naturunglück in der deutschen Geschichte – und als ein Fall von Verwaltungsversagen?

Darauf deutet manches hin. Einer meiner Absolventen bringt gerade ein Buch heraus, über die Abläufe der Behördenkoordination während der Flutnacht im Ahrtal. Nach der Rettung kommt der Wiederaufbau. Naturunglücke richten große Schäden in der Fläche an, welche kostenmäßig auf die Allgemeinheit umgelegt werden. Aber der Neuanfang kann zu intelligenteren Lösungen führen, damit es beim nächsten Mal weniger schlimm wird, man besser vorsorgt: ein effektiverer Schutz gegen Hochwasser, weniger Bodenversiegelung und leichtere Abflüsse. Die Ausprägung und die Art und Weise der Nutzung von Wäldern, Wiesen und Wegen spielen hier eine große Rolle, im Flachland wie im Gebirge. Heute ist man unter der Perspektive eines nachhaltigen Naturschutzes stärker sensibilisiert. Wenngleich der Naturschutz gewiss längst nicht immer die Priorität erfährt, die für das Ökosystem und unseren Schutz am wirksamsten wäre. Dazu müsste man den Lebensstil womöglich weiter einschränken. Und da liegt ein Zielkonflikt von Gesellschaft und natürlicher Umwelt. Etwaige nachteilige Folgen nehmen wir in Kauf.

Wie unterscheiden sich von diesen natürlichen Unglücken die großen Katastrophen im Zusammenhang mit Technologien, Verkehrs- und Betriebsstrukturen?

Besonders durch die Art der Zurechnung von Verantwortung und beim Nachvollzug vorangegangener Entscheidungen. „Organisationsbedingte“ Katastrophen wie Schiffshavarien, Flugzeug- und Schienenunglücke oder folgenreiche Zwischenfälle in Kraftwerken sind, direkt oder mittelbar, vor allem auf technologische Umstände und Entscheidungsabläufe zurückzuführen. Bei natürlichem Unheil und Kalamitäten ist das weit weniger – in der Regel gar nicht – möglich. Man kann pauschal die Industrie für Naturschäden oder Klimaveränderungen verantwortlich machen, aber direkte Adressen sind selten möglich; vieles greift hier ineinander. Gleichwohl gibt es gewisse Übergänge. Ein Reaktorunfall kann für sehr lange Zeit ein Gebiet verseuchen. Aus einem Technologieunglück wird dadurch ein Naturunglück. Unsere Organisationen und Technologien können potenziell also selbst Naturkatastrophen erzeugen. Charles Perrow, ein US-Soziologe und Unfalltheoretiker, hatte vor rund vierzig Jahren analysiert, wie Technologieunglücke aus schwer durchschaubaren Prozessen, hohem Takt und der engen Verbindung kritischer Prozesse oder Materialien hervorgehen können. Weil wir recht viel Vertrauen in große Technologien haben und wir Organisationen, die sie betreiben und überwachen, für professionell und kompetent halten, sind Schrecken und Enttäuschung bei dieser Art von Unfällen groß. Es kommt hinzu, dass es bei Desastern mit unseren vielen Reise- und Massenverkehrsmitteln schlagartig zahlreiche Tote geben kann. Statistisch passiert es nicht oft, aber wenn doch, dann wirkt es brutal. Derweil bleiben tausende Tote im Straßenverkehr unsichtbar. Katastrophe ist immer auch „Kopfsache“, etwas, bei dem man Vergleiche zieht, sich vom Moment und der dramatischen Verwicklung beeindrucken lässt – das Schnelle und Sichtbare ist das Schlimmste.

Sind daher die Rufe nach einer klaren Verantwortung einzelner Entscheider speziell bei diesen großen Verkehrs- und Technologieunglücken so laut?

Ja, allerdings bringt der Betrieb großer Technologien es nun einmal mit sich, dass man die „einzelnen Entscheider“ in einem hochgradig arbeitsteiligen Ablauf häufig nicht eindeutig identifizieren kann, wenn etwas arg schiefgeht. Man spricht hier von systemischen Gründen. Natürlich gibt es auch einfach Misswirtschaft, Schlamperei und Betrug, die ins Unglück führen. Der Einsturz der Morandi-Brücke in Genua im Jahr 2018 ist dafür ein Beispiel. Aber vielmals hat man in einer ansonsten erfolgreichen, eingespielten Betriebsstruktur bestimmte Risiken nicht kommen sehen oder Probleme nicht wahrhaben wollen; man war abgelenkt, vertraute auf eine bislang bewährte Methode oder verfügte nicht über die erforderlichen Kompetenzen und Informationen, machte sich keinen richtigen Reim auf die Dinge. Die berühmte Verkettung unglücklicher Umstände, sie ist wirklich der Klassiker. Abläufe, die sich später als fatale Fehler herausstellen, mochten zu einem früheren Zeitpunkt durchaus Sinn ergeben. Organisationen können vieles besser als lose Gruppen oder einzelne Menschen, man kann aber sehen, dass sie gerade wegen ihrer Organisiertheit auch kognitive Verengungen hervorbringen. Ich gebe zu, dass das nicht ganz leicht zu verstehen ist.

Kollektive Blindheit, spitz gesagt. Klingt das für Betroffene nicht schnell nach Verdrängen und Vertuschen von Verantwortung?

Für Betroffene entsteht der Eindruck, dass offenbar keiner verantwortlich ist, wenn alle irgendwie mitverantwortlich waren. Und da ist was dran. Missverständnisse, Vergesslichkeit, Fehlannahmen, all das soll nicht passieren, kommt aber vor. Die Brennbarkeit einer Isolierung im Flugzeug wird falsch geprüft, ein neuartiges, unausgereiftes Zugrad zu früh verbaut, auf einem Schiff fehlt ein Sicherheitsschott. Man lernt auch aus diesen Fällen, überprüft Prozesse genauer, lässt mehr Augen darauf schauen, wartet und inspiziert regelmäßig. Absolute Sicherheit wird es nie geben. Nicht alles ist vorhersehbar. Es spielen bestimmte Situationen und Kontexte eine wichtige Rolle. Das ist das Restrisiko, das Unverfügbare und Undefinierte, ähnlich wie bei den Naturunglücken. Ich will es aber nicht kleinreden: Stets können bestimmte Personen besonders verantwortlich sein, fahrlässig oder kriminell gehandelt haben. Gerade auch Kostendruck und Sparzwänge haben Anteil daran.

Kann Künstliche Intelligenz (KI) helfen, Natur und Technik für uns sicherer zu machen?

Es geschieht ja schon. Gerade dann, wenn es um Steuerung, Prävention und Prädiktion, also vorbeugende und wahrscheinlichkeitsbasierte Datenverarbeitung und Assistenzsysteme für die Entscheidungsbildung geht. Ohne dass wir es groß mitkriegen, haben beispielsweise die Wetterdienste heute ausgeklügelte Verfahren, um Extremwitterungen frühzeitiger und regional eingrenzbar zu ermitteln. Die Zahl der Beispiele, wo KI Prozesse überwacht, sicherer macht und reguliert, ist groß, von medizinischer Organisation über Sicherheitsanlagen, Verkehrswege bis hin zu Wirtschaftstransfers. Immer gilt: Alle Messnetze und Datenpunkte sind nur so gut wie die Organisationen und die Leute in ihnen, die das alles noch verstehen, bewältigen und in einer gewünschten Form einsetzen können. Die totale Überwachung und Kontrolle des Lebens will keiner.

In diesem Jahr, dem 30. Jahr nach dem Untergang der Ostseefähre „Estonia“, erscheint von Ihnen eine neue Arbeit über das Unglück. Was macht den Fall nach so langer Zeit noch interessant, was kann man darüber erfahren?

Es war das schwerste europäische Schiffsunglück in Friedenszeiten nach dem der Titanic. Auch Jahrzehnte später nehmen Untersuchungen und Verschwörungserzählungen kein Ende. Selbst jetzt wurde abermals eine Untersuchungskommission eingesetzt. Ich habe mich der Frage gewidmet, wie die vielen Untersuchungen und Verschwörungserzählungen sich wechselseitig in Gang halten; wie die Vorgeschichte, das Unglück und die lange Zeit danach im Zusammenhang stehen. Je mehr man bei der Estonia nachhakt, desto mehr Fragen tun sich auf. Das macht sie zum „unsinkbaren“ Mythos, den ich glaube, genauer nachzeichnen zu können.

Herr Schütz, wir danken für das Gespräch.

Das Interview führte Dr. Rüdiger von Dehn.

Prof. Dr. Marcel Schütz hat die Stiftungs- und Forschungsprofessur für Organisation und Management an der Northern Business School in Hamburg inne. Seine Arbeitsschwerpunkte bilden die soziologische Organisations- und Gesellschaftsforschung.

E-Mail: schuetz@nbs.de

Weitere Informationen:
https://www.nbs.de/forschung/professorinnen-und-professoren/forschungsprofessur-…

(nach oben)


Forschung für „smarte“ Leitwarten

Wissenschaftlerinnen aus Siegen und Trier erforschen gemeinsam, wie Leitwarten mit Hilfe digitaler Technologien „intelligenter“ gemacht werden können. Das Ziel: Die Mitarbeiterinnen in Leitwarten bei ihren verantwortungsvollen Jobs zu unterstützen und zu entlasten.

Leitwarten sorgen dafür, dass im Notfall Feuerwehr und Rettungswagen schnellstmöglich vor Ort sind, dass unsere Strom- und Gasversorgung reibungslos funktioniert – oder auch, dass die Sicherheit im Flug- und Schiffsverkehr sichergestellt ist. Die Menschen, die dort arbeiten, tragen nicht nur viel Verantwortung, sie müssen auch in der Lage sein, innerhalb kürzester Zeit vom Normal- in den Ausnahmebetrieb umzuschalten und dann schnell und korrekt zu agieren. Wie digitale Technologien die Operateurinnen in Leitwarten dabei unterstützen können, erforschen Wissenschaftler der Universität Siegen gemeinsam mit Kolleginnen der Hochschule Trier im Projekt „PervaSafe Computing“.

„Im Bereich der Informations- und Kommunikationstechnologien hat sich in Leitwarten in den vergangenen 30 Jahren sehr viel getan. Kaum verändert haben sich dagegen die Arbeitsbedingungen der Operateurinnen und Operateure. Sie sitzen in ihren Schichten nach wie vor viele Stunden vor Computerbildschirmen, die Interaktion zwischen Mensch und Computer geschieht klassisch über Maus und Tastatur. Den Bedürfnissen und dem Wohlbefinden der Operateur*innen wird dabei viel zu wenig Aufmerksamkeit geschenkt“, sagt der Siegener Projektleiter und Experte für Sensorsysteme und Datenverarbeitung, Prof. Dr. Kristof Van Laerhoven.

An der Schnittstelle zwischen Mensch und Technik setzen die Wissenschaftlerinnen im Rahmen ihres Projektes an. Sie untersuchen, wie klassische Formen der Interaktion ergänzt werden können, um Leitwarten insgesamt „intelligenter“ zu machen. „Unser Ansatz basiert darauf, mit Hilfe von Sensoren zusätzliche Informationen zu gewinnen, die dabei helfen können, Prozesse besser zu steuern und einzelne Mitarbeiterinnen zu entlasten“, erklärt Jonas Pöhler vom Siegener Projektteam. So lässt sich über eine mit Sensoren ausgestattete Smartwatch beispielsweise der individuelle Stresslevel der Operateur*innen messen. Gleichzeitig werden ihre Bewegungen erfasst, um konkrete Arbeitsschritte und Tätigkeiten nachzuvollziehen. So genannte Eye-Tracker erkennen, wohin genau eine Person auf einem Computerbildschirm blickt.

Die so gewonnenen Daten könnten zukünftig unter anderem dabei helfen, die Arbeitslast innerhalb einer Leitwarte gleichmäßiger zu verteilen: So könnten neue Aufgaben gezielt an Mitarbeiterinnen mit vergleichsweise geringer Stressbelastung gegeben werden. Gleichzeitig ließe sich über die Smartwatches feststellen, wenn eine Mitarbeiterin oder ein Mitarbeiter schläfrig wird. Bewegungsinterventionen könnten in solchen Fällen helfen, die Konzentration wieder herzustellen. Mit den smarten Uhren ausgestattet, wären Operateurinnen auch räumlich flexibler und könnten sich kurzzeitig von ihrem Arbeitsplatz entfernen, ohne dabei etwas zu verpassen. „Wir möchten sogar noch weiter gehen und Konzepte entwickeln, die eine Mitarbeit von Operateur*innen aus dem Homeoffice ermöglichen“, erklärt Van Laerhoven. „Die Leitwarte wäre dann nicht mehr ein spezifischer Raum, sondern eine intelligente Computerumgebung, in der Menschen unabhängig von ihrem konkreten Standort miteinander interagieren.“

In dem Projekt arbeiten die Wissenschaftlerinnen eng mit unterschiedlichen Leitwarten zusammen. Eine wesentliche Frage ist dabei, ob die Operateurinnen die Smartwatches als Bevormundung wahrnehmen, oder als Möglichkeit der Unterstützung. „Befragungen haben gezeigt, dass die große Mehrheit gerne bereit ist, neuen Technologien auszuprobieren. Berufsbedingt sind Operateur*innen grundsätzlich technikaffin und haben ein hohes Verantwortungsbewusstsein, deshalb sehen sie die Uhren eher als Unterstützung“, berichtet Pöhler. In der gerade gestarteten zweiten Projektphase möchten die Forscher ihre Ansätze in verschiedenen Leitwarten sowie in realitätsnahen Simulationen testen. „Auf diese Weise möchten wir Modelle entwickeln, mit denen in der Praxis tatsächlich gearbeitet werden kann. Wir möchten aufzeigen, in welche Richtung sich Leitwarten in Zukunft entwickeln können – und die dafür benötigten technologischen Lösungen anbieten“, erklärt Van Laerhoven.

Hintergrund:
Das Projekt „PervaSafe Computing“ läuft bereits seit 2020 und geht jetzt in die zweite Phase. Bis 2026 fördert die Deutsche Forschungsgemeinschaft (DFG) das Projekt mit weiteren 650.000 Euro, von denen rund 325.000 nach Siegen gehen. Innerhalb der ersten Förderphase (Juni 2020 – Juni 2023) hatte die DFG das Projekt bereits mit insgesamt rund 607.000 unterstützt. Neben Wissenschaftlern vom Siegener Lehrstuhl „Ubiquitous Computing“ von Prof. Dr. Kristof Van Laerhoven sind Informatiker*innen der Hochschule Trier an dem Projekt beteiligt. Projektleiter der Hochschule Trier ist Prof. Dr. Tilo Mentler.
Wissenschaftliche Ansprechpartner:

Prof. Dr. Kristof Van Laerhoven (Uni Siegen, Ubiquitous Computing)
E-Mail: kvl@eti.uni-siegen.de
Tel.: 0271 740-2312

(nach oben)


VDI-Presseinfo: Power-to-X: Flüssige Kohlenwasserstoffe als Speicher für Energie aus regenerativen Quellen

B.A. Sarah Janczura Presse und Kommunikation
VDI e.V.

Die Erzeugung von flüssigen Kohlenwasserstoffen aus regenerativer elektrischer Energie und CO2 über sogenannte Power-to-Liquid (PtL)-Verfahren ermöglicht eine Umstellung auf defossilisierte Kraft-, Brenn- und Chemiegrundstoffe, auch in solchen Anwendungsgebieten, die nicht über eine direkte Elektrifizierung adressiert werden können.

Eine Kopplung zwischen dem zunehmend auf regenerativer Primärenergie basierendem Stromsektor und dem Wärme-, Kraftstoff- und Chemiesektor ermöglicht so die Vermeidung oder zumindest Reduzierung der CO2-Emissionen in Anwendungen, die weiterhin auf die Nutzung von Energieträgern mit hoher Energiedichte bei gleichzeitig guter Speicher-, Lager- und Verteilinfrastruktur angewiesen sind. Darüber hinaus können PtL-Anlagen zukünftig auch eine wichtige Speicherfunktion für volatil zur Verfügung stehende elektrische Energie aus regenerativen Quellen z. B. auf Basis von Windenergie oder Solarenergie übernehmen.

Bei weiter steigendem Anteil im Stromnetz werden Speicheroptionen benötigt, die in der Lage sind, große Energiemengen auch über längere Zeiträume zu speichern und bedarfsgerecht wieder in die unterschiedlichen Sektoren des Energiesystems einzukoppeln. Hierfür sind flüssige Kohlenwasserstoffe aufgrund ihrer hohen volumetrischen und gravimetrischen Energiedichte und der in der Regel sehr guten Lagerstabilität und einfachen Handhabung aussichtsreiche Optionen.

Die Richtlinie VDI 4635 Blatt 3.4 E gilt für die Synthese flüssiger Kohlenwasserstoffe über die Methanol-Synthese oder das Fischer-Tropsch-Verfahren im Rahmen des PtX-Ansatzes zur Wandlung und Speicherung elektrischer Energie. In dieser Richtlinie werden lediglich solche Verfahrensketten betrachtet, bei denen elektrische Energie als Hauptenergieträger in flüssige Kohlenwasserstoffe überführt werden. Ausgangspunkt für die betrachteten Verfahren sind entsprechend Wasserstoff oder Synthesegas, die überwiegend mittels regenerativer elektrischer Energie erzeugt werden, sowie Kohlenstoffdioxid.

Die Richtlinie VDI 4635 Blatt 3.4 E „Power-to-X – Flüssige Kohlenwasserstoffe“ ist im November 2023 als Entwurf erschienen und kann für 87,60 € beim Beuth Verlag (Tel.: +49 30 2601-2260) bestellt werden. Einsprüche zum Entwurf können über das elektronische Einspruchsportal oder eine E-Mail an die herausgebende Gesellschaft (geu@vdi.de) eingereicht werden. Die Einspruchsfrist endet am 31.07.2024.

VDI-Mitglieder erhalten 10 Prozent Preisvorteil auf alle VDI-Richtlinien.

Weitere Informationen:
https://www.vdi.de/richtlinien/details/vdi-4635-blatt-34-power-to-x-fluessige-ko…

(nach oben)


Vier umwelttechnische Berufe modernisiert

Digitalisierung, Klimawandel sowie technische und rechtliche Rahmenbedingungen machten Neuordnung erforderlich

Herausforderungen wie Digitalisierung, Klimawandel sowie technische und rechtliche Anforderungen haben eine Modernisierung der umwelttechnischen Berufe erforderlich gemacht. Jetzt wurden die Ausbildungsordnungen aktualisiert und die Berufe mit neuen Abschlussbezeichnungen versehen.

Systemrelevant und Teil der kritischen Infrastruktur – Fachkräfte in den umwelttechnischen Berufen arbeiten in gesellschaftlich hoch relevanten Bereichen: in der Wasserversorgung, der Abwasserbewirtschaftung, der Kreislauf- und Abfallwirtschaft sowie in der Pflege und Wartung von Rohrleitungsnetzen und Industrieanlagen. Herausforderungen wie die Digitalisierung, der Klimawandel sowie veränderte technische und rechtliche Anforderungen haben eine Modernisierung der vier Ausbildungsordnungen erforderlich gemacht.

Das Bundesinstitut für Berufsbildung (BIBB) hat daher gemeinsam mit den zuständigen Bundesministerien sowie den Sozialpartnern und Sachverständigen aus der betrieblichen Praxis im Auftrag der Bundesregierung die Ausbildungsordnungen dieser Berufefamilie modernisiert. Die vier neuen Ausbildungsordnungen treten zum 1. August 2024 in Kraft.

Mit der Modernisierung erhalten die Berufe zudem neue Abschlussbezeichnungen, welche die durch die Digitalisierung gestiegenen Anforderungen widerspiegeln. Gleichzeitig gibt es in den einzelnen Berufen verschiedene Neuerungen, unter anderem:

  • waren bei den Umwelttechnologen/Umwelttechnologinnen für Wasserversorgung der nachhaltige Umgang mit der Ressource Wasser und die Optimierung von Prozessen, um Wasserverluste zu verhindern, wichtige Aspekte im Neuordnungsprozess,
  • wird das Berufsprofil der Umwelttechnologen/Umwelttechnologinnen für Abwasserbewirtschaftung vor dem Hintergrund des Klimawandels um den Schwerpunkt Regenwasserbewirtschaftung erweitert und es kommen weitergehende Reinigungsverfahren hinzu,
  • entfallen bei den Umwelttechnologen/Umwelttechnologinnen für Kreislauf- und Abfallwirtschaft die bisherigen Schwerpunkte, so dass sie zukünftig vielfältiger einsetzbar sind, und
  • die Umwelttechnologen/Umwelttechnologinnen für Rohrleitungsnetze und Industrieanlagen werden weiterhin in diesen beiden Schwerpunkten ausgebildet, allerdings haben sich die zeitlichen Richtwerte von 30 auf 42 Wochen erhöht.

Die gemeinsamen Kernqualifikationen bleiben erhalten. Allerdings reduziert sich der zeitliche Umfang hier von 15 auf zwölf Monate. So wird mehr Raum für die berufsspezifischen fachlichen Inhalte und die erhöhten Anforderungen an die IT-Sicherheit geschaffen. An die Stelle der traditionellen Prüfungsstruktur aus Zwischen- und Abschlussprüfung tritt in Zukunft die Gestreckte Abschlussprüfung.

Für BIBB-Präsident Friedrich Hubert Esser agieren nur wenige duale Berufe so direkt im Feld der Nachhaltigkeit wie die umwelttechnischen Berufe. „Gleichzeitig sind sie maximal relevant für unser tägliches Leben. Drei der vier neugeordneten Berufe arbeiten entlang des Wasserkreislaufs. Wasser als eine der kostbarsten Ressource muss professionell bewirtschaftet werden. Der vierte Beruf ist im Bereich der Kreislauf- und Abfallwirtschaft angesiedelt, also ebenfalls ein Beruf, der essenziell für nachhaltiges Wirtschaften ist. All dies geschieht mit moderner Technologie, wobei die Berufe gleichzeitig eine handwerkliche und eine naturwissenschaftliche Seite haben. Die neuen Abschlussbezeichnungen sollen die Berufe attraktiver machen. Die Hoffnung ist, dass ausbildungswillige Betriebe ihre Ausbildungsplätze künftig besser besetzen können als in der Vergangenheit.“

Die modernisierten Ausbildungsordnungen für den betrieblichen Teil sowie die darauf abgestimmten Rahmenlehrpläne für den schulischen Teil der Ausbildung lösen die bestehenden Ausbildungsregelungen aus dem Jahr 2002 ab.

Die neu geordneten Berufe flankiert das BIBB mit weiteren Aktivitäten. So sollen für jeden der Berufe die Strukturen und Inhalte in jeweils einer Ausgabe der BIBB-Reihe „Ausbildung Gestalten“ erläutert werden. Außerdem wird für die Berufsorientierung vom BIBB mit finanzieller Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF) ein interaktives 360°-Berufsfeldpanorama erstellt.

Weitere Informationen:
http://www.bibb.de/UT-Berufe

Kontakt:
Verena Schneider, Verena.Schneider@bibb.de

(nach oben)


Öffentliche Stromerzeugung 2023: Erneuerbare Energien decken erstmals Großteil des Stromverbrauchs

Die öffentliche Nettostromerzeugung hat 2023 einen Rekordanteil erneuerbarer Energien von 59,7 Prozent erreicht. Der Anteil an der Last lag bei 57,1 Prozent. Das geht aus einer Auswertung hervor, die das Fraunhofer-Institut für Solare Energiesysteme ISE heute vorgelegt hat. Bei Wind- und Solarstrom wurden 2023 neue Bestwerte erzielt. Die Erzeugung aus Braunkohle (- 27 Prozent) und Steinkohle (-35 Prozent) ging dagegen stark zurück. Beim Ausbau der Erzeugungskapazitäten stach die Photovoltaik hervor: mit ca. 14 Gigawatt war der Zubau erstmals zweistellig und übertraf das gesetzliche Klimaschutzziel der Bundesregierung deutlich. Quelle der Daten ist die Datenplattform energy-charts.info

Die Windkraft war 2023 wieder die wichtigste Stromquelle, sie trug 139,8 Terawattstunden (TWh) bzw. 32 Prozent zur öffentlichen Stromerzeugung bei. Damit lag sie 14,1 Prozent über der Produktion des Vorjahres. Der Anteil des Onshore-Windes stieg dabei auf 115,3 TWh (2022: 99 TWh), die Offshore-Produktion sank leicht auf 23,5 TW (2022: 24,75 TWh). Der Ausbau der Windenergie bleibt weiterhin hinter dem Plan zurück: Bis November waren onshore 2,7 Gigawatt neu errichtet, geplant waren 4 GW. Der Ausbau der Offshore-Anlagen verläuft aufgrund der nötigen Ausschreibungen und langen Bauzeiten noch schleppender. Hier wurden 2023 nur 0,23 GW neu errichtet (geplant: 0,7 GW).
Photovoltaik-Anlagen haben im Jahr 2023 ca. 59,9 TWh erzeugt, wovon 53,5 TWh ins öffentliche Netz eingespeist und 6,4 TWh selbst verbraucht wurden. Der Juni 2023 war mit rund neun TWh der Monat mit der höchsten solaren Stromerzeugung jemals. Die maximale Solarleistung wurde mit 40,1 GW am 7. Juli 13:15 Uhr erreicht, das entsprach einem Anteil an der Stromerzeugung von 68 Prozent. Der Photovoltaik-Ausbau übertraf im Jahr 2023 deutlich die Ziele der Bundesregierung: statt der geplanten 9 Gigawatt wurden bis November 13,2 Gigawatt errichtet, bis Ende 2023 werden es mehr als 14 Gigawatt sein. Das ist ein starker Anstieg gegenüber 2022 (7,44 GW). Damit war der PV-Ausbau erstmals in der deutschen Geschichte im zweistelligen Bereich.

Die Wasserkraft legte gegenüber 2022 zu von 17,5 TWh auf 20,5 TWh. Die installierte Leistung von 4,94 GW hat sich gegenüber den Vorjahren kaum verändert.
Die Biomasse lag mit 42,3 TWh auf dem Niveau von 2022 (42,2 TWh). Die installierte Leistung liegt bei 9 GW.

Insgesamt produzierten die erneuerbaren Quellen im Jahr 2023 ca. 260 TWh und damit etwa 7,2 Prozent mehr als im Vorjahr (242 TWh). Der Anteil der in Deutschland erzeugten erneuerbaren Energien an der Last, d.h. dem Strommix, der tatsächlich aus der Steckdose kommt, lag bei 57,1% gegenüber 50,2% in 2022. Die gesamte Nettostromerzeugung beinhaltet neben der öffentlichen Nettostromerzeugung auch die Eigenerzeugung von Industrie und Gewerbe, die hauptsächlich mit Gas erfolgt. Der Anteil der Erneuerbaren Energien an der gesamten Nettostromerzeugung einschließlich der Kraftwerke der »Betriebe im verarbeitenden Gewerbe sowie im Bergbau und in der Gewinnung von Steinen und Erden« liegt bei ca. 54,9 Prozent (2022: 48,2 Prozent).
Die Last im Stromnetz betrug 457 TWh, ca. 26 TWh weniger als 2022. Aufgrund der hohen Strompreise und der höheren Temperaturen wurde wohl deutlich Strom eingespart. Auch der gestiegene Selbstverbrauch von Solarstrom senkt die Last. Die Last beinhaltet den Stromverbrauch und die Netzverluste, aber nicht den Pumpstromverbrauch und den Eigenverbrauch der konventionellen Kraftwerke.

Kohlestrom stark zurückgegangen
Nachdem 2022 die deutschen Kohlekraftwerke – zum einen wegen des Ausfalls fran-zösischer AKWs, aber auch wegen der Verwerfungen im Strommarkt durch den Ukra-inekrieg – ihre Produktion hochgefahren hatten, sank ihr Anteil 2023 deutlich. So lag aufgrund des gesunkenen Kohlestromexports, aber auch wegen der guten Windbe-dingungen, die Erzeugung im November 2023 27 Prozent unter dem Vorjahresmonat.
Insgesamt ging die Erzeugung aus Braunkohle für den öffentlichen Stromverbrauch um ca. 27 Prozent zurück, von 105,94 auf 77,5 TWh. Hinzu kommen 3,7 TWh für den industriellen Eigenverbrauch. Die Bruttostromerzeugung fiel auf das Niveau von 1963.
Die Nettoproduktion aus Steinkohlekraftwerken für den öffentlichen Stromverbrauch betrug 36,1 TWh (- 35 Prozent) und 0,7 TWh für den industriellen Eigenverbrauch. Sie war um 21,4 TWh niedriger als 2022. Die Bruttostromerzeugung fiel auf das Niveau von 1955. Die Nutzung von Erdgas zur Stromerzeugung blieb mit 45,8 TWh für die öffentliche Stromversorgung und 29,6 für den industriellen Eigenverbrauch leicht unter dem Niveau des Vorjahres. Durch die Abschaltung der letzten drei Atomkraftwerke Emsland, Neckarwestheim und Isar am 15. April 2023 trug die Atomkraft nur noch 6,72 TWh zur Stromerzeugung bei, das entspricht einem Anteil von 1,5 Prozent.

Batteriespeicher entwickeln sich rasant
Mit dem Ausbau fluktuierender erneuerbarer Energien steigt auch der Bedarf an Netz-ausbau sowie an Speicherkapazität. Batteriespeicher, die dezentral errichtet werden, um die Erzeugung von Wind- und Solarstrom zu puffern, sind besonders gut geeignet. Das Segment der Privathaushalte zeigt ebenso wie bei den Photovoltaikanlagen ein starkes Wachstum. Insgesamt verdoppelte sich die installierte Batterieleistung fast von 4,4 GW in 2022 auf 7,6 GW in 2023, die Speicherkapazität stieg von 6,5 GWh auf 11,2 GWh. Die Leistung der deutschen Pumpspeicherwerke liegt bei rund 6 GW.

Export und Börsenstrompreis rückläufig
Nachdem 2022 im Stromhandel ein Exportüberschuss von 27,1 TWh erzielt wurde, war 2023 ein Importüberschuss von 11,7 TWh zu verzeichnen. Dies lag besonders an den geringeren Stromerzeugungskosten in den europäischen Nachbarländern im Sommer und den hohen Kosten der CO2-Zertifikate. Der Großteil der Importe kam aus Dänemark (10,7 TWh), Norwegen (4,6 TWh) und Schweden (2,9 TWh). Deutschland exportierte Strom nach Österreich (5,8 TWh) und Luxemburg (3,6 TWh).
Im Winter stiegen die Börsenstrompreise wieder an und die CO2-Zertifikate wurden günstiger. Das führte bereits im November zu einer ausgeglichenen Bilanz und im De-zember auch in Verbindung mit einer hohen Windstromerzeugung zu Exportüberschüssen. Deutschland hat im Gegensatz zu seinen Nachbarländern (Österreich, Schweiz, Frankreich) auch im Winter genügend Kraftwerkskapazitäten, um Strom für den Export zu produzieren.
Der durchschnittliche volumengewichtete Day-Ahead Börsenstrompreis ging stark zurück auf 92,29 €/MWh bzw. 9,23 Cent/kWh (2022: 230,57 €/MWh). Damit liegt er wieder auf dem Niveau von 2021.

Eine ausführliche Präsentation der Daten zu Stromerzeugung, Import/Export, Preisen, installierten Leistungen, Emissionen und Klimadaten finden Sie auf dem Energy-Charts-Server:
https://www.energy-charts.info/downloads/Stromerzeugung_2023.pdf

Zur Datengrundlage
Diese erste Version der Jahresauswertung berücksichtigt alle Stromerzeugungsdaten der Leipziger Strombörse EEX und des europäischen Verbands der Übertragungsnetzbetreiber ENTSO-E bis einschließlich 31.12.2023. Über die verfügbaren Monatsdaten des Statistischen Bundesamtes zur Elektrizitätserzeugung bis September 2023 wurden die Viertelstundenwerte der EEX energetisch korrigiert. Für die restlichen Monate wurden die Korrekturfaktoren auf Basis zurückliegender Monats- und Jahresdaten abgeschätzt. Die hochgerechneten Werte von Oktober bis Dezember unterliegen größeren Toleranzen.
Zugrunde liegen die Daten zur deutschen Nettostromerzeugung zur öffentlichen Stromversorgung. Sie ist die Differenz zwischen Bruttostromerzeugung und Eigenver-brauch der Kraftwerke und wird in das öffentliche Netz eingespeist. Die Stromwirtschaft rechnet mit Nettogrößen, z.B. für den Stromhandel und die Netzauslastung, und an den Strombörsen wird ausschließlich die Nettostromerzeugung gehandelt. Sie repräsentiert den Strommix, der tatsächlich zu Hause aus der Steckdose kommt.
Stündlich aktualisierte Daten zur Stromerzeugung finden Sie hier: https://www.energy-charts.info

Wissenschaftliche Ansprechpartner:
Prof. Bruno Burger: bruno.burger@ise.fraunhofer.de

Originalpublikation:
https://www.energy-charts.info/downloads/Stromerzeugung_2023.pdf

Weitere Informationen:
https://www.energy-charts.info/downloads/Stromerzeugung_2023.pdf Ausführliche Präsentation der Daten zu Stromerzeugung, Import/Export, Preisen, installierter Leistung, Klimadaten und Emissionen

(nach oben)


Ausgezeichnete Himmelsaufnahmen werden zu freien Bildungsmaterialen

Bei seinen dritten Astrofotografie-Wettbewerb hat das am Haus der Astronomie in Heidelberg beheimatete IAU-Büro für astronomische Bildungsarbeit Bilder von den scheinbaren Bewegungen des Himmels vom Weg der Sonne über den Himmel im Laufe des Jahres bis hin zu den Bewegungen der Sterne am Nachthimmel und den wechselnden Phasen der Venus ebenso ausgezeichnet wie eindrucksvolle Himmelsaufnahmen, die mit einem Smartphone aufgenommen wurden. Jedes einzelne der 17 prämierten Bilder und Videos ist für sich atemberaubend – und steht jetzt gemeinsam mit weiteren lobend erwähnten Beiträgen unter der Creative-Commons-Lizenz CC BY 4.0 zur freien Verfügung.

Mit seinem dritten Astrofoto-Wettbewerb hat das IAU-Büro für astronomische Bildungsarbeit (engl. Office of Astronomy for Education, kurz OAE), das am Haus der Astronomie in Heidelberg beheimatet ist, sich an Astrofotografie-Enthusiastinnen aller Erfahrungstufen gewendet. Die Teilnehmerinnen konnten Bilder in verschiedenen Kategorien einreichen: Phasen der Venus, Tagbögen der Sonne und Solargrafien, Sonnenauf- und -untergangsorte im Jahresverlauf, ausschließlich mit Smartphones und anderen mobilen Geräten gewonnene Aufnahmen sowie Zeitraffer von Großem Wagen und Kreuz des Südens. Aus fast 430 eingegangenen Beiträgen aus 40 verschiedenen Ländern und Territorien weltweit, unter denen sich viele mit gewöhnlichen Smartphones aufgenommene Bilder befinden, hat eine Jury aus internationalen Astrofotografinnen und Astronomiedidaktikerinnen nun die prämierten Beiträge ausgewählt.

Die Beiträge wurden nicht nur nach ästhetischen und technischen Gesichtspunkten bewertet, sondern auch nach ihrem didaktischen Wert für den Unterricht in Grund- und weiterführenden Schulen. Die Gewinner*innen des diesjährigen Wettbewerbs erhalten Geldpreise. In der Kategorie Smartphone-Astrofotografie wurden sechs Aufnahmen mit je 100 € ausgezeichnet. In den anderen Kategorien wurden jeweils drei Aufnahmen mit 750 €, 500 € und 250 € für den ersten, zweiten bzw. dritten Platz ausgezeichnet. Weitere Bilder und Videos wurden mit einer lobenden Erwähnung bedacht.

Schöne Himmelsaufnahmen sind ein wertvolles Hilfsmittel für die Bildungsarbeit. Wenn sie als frei verfügbare Lehr- und Lernmaterialien (engl. Open Educational Resources, kurz OER) zur Verfügung gestellt werden, können sie einen nachhaltigen Einfluss auf Lehrkräfte und Lernende überall auf der Welt haben. Das OAE erweitert mit den Ergebnissen des diesjährigen Astrofoto-Wettbewerbs seine Sammlung hochwertiger Bildungsmaterialien, die durch die vorangegangenen Wettbewerbe begründet wurde. Alle preisgekrönten und lobend erwähnten Beiträge werden in der OAE-Ressourcensammlung für Bildungsmaterialien und im Bildarchiv der IAU an prominenter Stelle veröffentlicht. Sie stehen unter der Creative Commons Attribution 4.0 International License (CC BY 4.0), wodurch sichergestellt wird, dass die talentierten Fotograf*innen die Urheberrechte an ihren Bildern behalten.

„Astrofotografie ist ein besonderes Hilfsmittel in der Bildungsarbeit, da sie das Lernen mit einer visuell ansprechenden Erfahrung bereichert“, sagt Marcella Giulia Pace, eine der Gewinnerinnen. „Durch atemberaubende Bilder, die den Lauf der Zeit im Weltraum einfangen, erhalten Schülerinnen eine einzigartige visuelle Perspektive auf die Komplexität und Schönheit des Universums. Diese dynamische und erfahrungsorientierte Herangehensweise macht das Thema nicht nur leichter zugänglich, sondern weckt auch die wissenschaftliche Neugier und gibt Pädagoginnen ein wirksames Instrument an die Hand, um die Leidenschaft für die Erforschung des Kosmos zu wecken. Diese Methode geht über die bloße visuelle Offenbarung hinaus, öffnet den Geist, erweitert den Horizont und weckt das Interesse an dem riesigen, geheimnisvollen Universum.“

Für den diesjährigen Wettbewerb hat das OAE erneut mit dem OAE-Zentrum Italien als Co-Sponsor des Wettbewerbs zusammengearbeitet. Livia Giacomini, Jurymitglied und Chefredakteurin der astroEDU-Plattform des OAE, sagt: „Ich war wirklich beeindruckt zu sehen, wie viele verschiedene Themen mit einem einfachen Bild erklärt werden können, von sehr weit entfernten astrophysikalischen Objekten bis hin zu Erklärungen von alltäglichen Phänomenen, die auf der Erde stattfinden, dem Planeten, den wir gerade erst zu schützen beginnen. Mir war bewusst, dass ein Bild mehr sagt als tausend Worte, aber mit diesem Wettbewerb wird auch sehr deutlich, dass ein Bild auch mehr lehren kann als tausend Worte.“

Hinzu kam in diesem Jahr eine Zusammenarbeit mit seinem Schwesterbüro, dem IAU-Büro für Öffentlichkeitsarbeit (engl. Office for Astronomy Outreach, kurz OAO) als weiterem Co-Sponsor. Im Rahmen seiner Mission „Astronomie für alle“ wird das OAO eine digitale Ausstellung und eine Gala veranstalten, um in der Kategorie Smartphone-Astrofotografie die Gewinnerinnen und die Teilnehmerinnen zu ehren, die eine lobende Erwähnung erhalten haben. Der Termin für diese Veranstaltung wird in Kürze bekanntgegeben.

Kelly Blumenthal, Direktorin des OAO, merkt an: „Astrofotografie wird oft als etwas angesehen, das nur für diejenigen zugänglich ist, die über große Ressourcen und Erfahrung verfügen. Im Mai 2023 haben wir eine Reihe von Workshops zur Astrofotografie mit dem Smartphone veranstaltet und damit gezeigt, dass jeder Astrofotografin sein kann. Wir sind stolz darauf, diesen Wettbewerb mit zu sponsern und freuen uns darauf, zu sehen, wie kreativ diese Bilder in der astronomischen Bildungs- und Öffentlichkeitsarbeit eingesetzt werden.“

Wissenschaftliche Ansprechpartner:
Dr. Carolin Liefke
Stellvertretende Leiterin des OAE
Tel.: 06221 528 226
E-Mail: liefke@astro4edu.org

Dr. Eduardo Penteado
OAE-Koordinator
E-Mail: penteado@astro4edu.org

Weitere Informationen:
https://astro4edu.org/resources/gallery/images-from-the-oae-astrophotography-con… – Bildergalerie der beim 3. Astrofoto-Wettbewerb des OAE ausgezeichneten und lobend erwähnten Aufnahmen
https://www.haus-der-astronomie.de/4152416/oae-astrofotowettbewerb-2023 – Deutschsprachige Pressemitteilung beim Haus der Astronomie
https://astro4edu.org/news/fc412AS/ – Englischsprachige Pressemitteilung beim OAE

(nach oben)


Gewebespende auf Rekordniveau: 3.475 Menschen spendeten in 2023 Gewebe

50.576 Spendermeldungen und 9.379 Aufklärungsgespräche führten im vergangenen Jahr zu 3.475 Gewebespenden. Damit verzeichnet die Deutsche Gesellschaft für Gewebetransplantation (DGFG) einen Anstieg um 12 Prozent im Vergleich zum Vorjahr. Rund 87 Prozent der Gewebespenden wurden unabhängig von der Organspende bei Herz-Kreislauf-Verstorbenen realisiert. Das am meisten gespendete Gewebe ist die Augenhornhaut: 3.352 Menschen spendeten dieses Gewebe nach dem Tod. Dank der hohen Spendenbereitschaft und einer Zustimmungsquote von knapp 41 Prozent war die DGFG in der Lage, 7.503 Patient:innen mit einem Gewebetransplantat zu versorgen, davon 5.003 mit einer Augenhornhaut und 197 mit einer Herzklappe.

Ein Highlight des vergangenen Jahres war die Eröffnung und Inbetriebnahme der Gewebebank Stuttgart am Katharinenhospital. Zu den Herausforderungen im neuen Jahr zählen der weitere Ausbau der Gewebespende bei Herz-Kreislauf-Verstorbenen sowie die Implementierung des Organspende-Registers im Spendeprozess. Sobald das Register zur Entscheidungsdokumentation im ersten Quartal 2024 seinen Betrieb aufnimmt, sind Abfragen aus dem Register für alle Spendeeinrichtungen in der Organ- und Gewebespende verpflichtend.

„Wir können auf ein erfolgreiches Jahr 2023 für die Gewebespende zurückblicken, da mehr als 3.800 Spender:innen und Angehörige einer Gewebespende zugestimmt haben. Ihnen gilt an dieser Stelle unser ganz besonderer Dank“, sagt Martin Börgel, Geschäftsführer der DGFG. Immer mehr Kliniken engagieren sich aktiv in der Gewebespende und schließen sich dem Netzwerk der DGFG an. „Durch den Ausbau der Gewebespendeprogramme in immer mehr Kliniken ist es uns gelungen, die Versorgung der Patientinnen und Patienten mit Gewebetransplantaten weiter zu verbessern.“

Neue Gewebebank Stuttgart wird Versorgungssituation weiter verbessern
Die positive Entwicklung der Spendezahlen erfordert einen Ausbau der Kapazitäten in der Aufbereitung von Geweben. Denn der Bedarf an Spendergewebe ist weiterhin hoch: Die Vermittlungsstelle der DGFG bearbeitete über 6.800 Anträge für eine Spenderhornhaut. 5.003 Hornhauttransplantate konnte sie schließlich erfolgreich vermitteln. Vor diesem Hintergrund eröffnete die DGFG mit dem Klinikum Stuttgart am Katharinenhospital eine neue Gewebebank. Die Gewebebank in Stuttgart ist das Ergebnis einer erfolgreichen Gemeinschaftsarbeit, die nach vielen Jahren intensiver Planung im Mai letzten Jahres auf die Zielgerade gebracht werden konnte. Derzeit noch auf Augenhornhäute ausgerichtet, wird dort langfristig auch die Aufbereitung anderer Gewebespenden, wie Herzklappen, Blutgefäße und Amnionmembranen, möglich sein. Die moderne Gewebebank ist die einzige im Großraum Stuttgart und wird die Versorgung von Patient:innen mit Gewebe sowohl in Baden-Württemberg als auch bundesweit verbessern.

Weiter Mangel an Herzklappen trotz gestiegener Anzahl an Organspenden
Im vergangenen Jahr erhielt die DGFG über 430 Anträge für eine humane Herzklappe. 197 Herzklappen konnten bis Jahresende vermittelt werden, 52 mehr als im Jahr zuvor. „Wir sehen leider nach wie vor einen großen Mangel an Herzklappen, der das Leben vieler Patientinnen und Patienten schwer beeinträchtigt. Hier müssen wir auch im kommenden Jahr gemeinsam mit den Kliniken die Spendeprogramme bei Herz-Kreislauf-Verstorbenen weiter ausbauen, um eine verlässliche Alternative zur Organspende zu haben“, sagt Börgel. Nach wie vor stammt ein Großteil der Herzklappen aus der Organspende: Bei den insgesamt 422 Gewebespenden von Organspender:innen – 96 mehr als im Jahr zuvor – konnte 247-mal kardiovaskuläres Gewebe, dazu zählen das Herz für die Gewinnung der noch funktionsfähigen Herzklappen und Blutgefäße, entnommen werden. Da die Gewebespende im Gegensatz zur Organspende nicht an die Hirntoddiagnostik gebunden ist, treibt die DGFG das von der Organspende unabhängige Spendeprogramm bei Herz-Kreislauf-Verstorbenen weiter voran. Die Entnahme von Herzklappen und Gefäßen ist bis zu 36 Stunden nach Eintritt des Todes möglich. Gerade junge Patient:innen sind auf humane Herzklappen angewiesen, die mitwachsen können und keine blutverdünnenden Medikamente erfordern.

Ausbau der Spende von Knochen, Sehnen und Bändern
Neben der Spende von Augenhornhäuten, Herzklappen und Blutgefäßen widmete sich die DGFG im Jahr 2023 auch der Spende von Knochen, Sehnen und Bändern. 43-mal konnten diese muskuloskelettalen Gewebe (MSG) entnommen werden. Sie kommen am Ende Patient:innen im unfallchirurgischen oder orthopädischen Bereich, nach großen Verletzungen oder Traumata zugute. Knochen- und Sehnenpräparate können Schmerzen lindern, vor Amputationen bewahren und eine Beweglichkeit bis hin zur Gehfähigkeit wiederherstellen. Im März 2022 startete die DGFG ihr MSG-Spendeprogramm. Seitdem konnten die eigenen Entnahmeteams mehr als 70 MSG-Spenden erfolgreich realisieren, aus denen über 1.250 Präparate gewonnen werden konnten.

Vermehrtes Interesse an der Anwendung von Amnion in der Wundversorgung
Dass die Amnionmembran auch außerhalb der Augenheilkunde eine wertvolle Behandlungsoption in der Wundversorgung darstellt, belegen die gestiegenen Anfragen bei der DGFG im vergangenen Jahr. Zwölfmal setzten Mediziner:innen die Amnionmembran ein, um bei Patient:innen einen Wundverschluss zu erzielen. Das Plazentagewebe kann bei schweren Wundheilungsstörungen aller Art und als Hautersatz bei Verbrennungen eingesetzt werden. Dabei zeichnet sich Amnion durch besonders wundheilungsfördernde und schmerzreduzierende Eigenschaften aus. Die DGFG erwartet in 2024 weiter steigende Anfragen für das Gewebe, das werdende Mütter im Rahmen einer Lebend-Gewebespende bei geplanter Kaiserschnittgeburt spenden können. Insgesamt konnte die DGFG im letzten Jahr 2.193 Amniontransplantate abgeben, darunter 2.181 in die Augenheilkunde zur Behandlung der Augenoberfläche.

Hinweis an die Redaktion: Weitere Zahlen zur Gewebespende sowie Bildmaterial zu finden unter https://gewebenetzwerk.de/presse-download/

Über die Deutsche Gesellschaft für Gewebetransplantation (DGFG)
Die DGFG fördert seit 1997 die Gewebespende und -transplantation in Deutschland. Auf Basis des Gewebegesetzes von 2007 sind alle Tätigkeiten und Ablaufprozesse der Gewebespende gesetzlich geregelt. Für alle Gewebezubereitungen gilt das Handelsverbot. Die DGFG vermittelt ihre Transplantate über eine zentrale Vermittlungsstelle mit einer bundesweiten Warteliste. Jede medizinische Einrichtung in Deutschland kann Gewebe von der DGFG beziehen. Als unabhängige, gemeinnützige Gesellschaft wird die DGFG ausschließlich von öffentlichen Einrichtungen des Gesundheitswesens getragen: Gesellschafter sind das Universitätsklinikum Carl Gustav Carus Dresden, das Universitätsklinikum Leipzig, die Medizinische Hochschule Hannover, die Universitätsmedizin Rostock sowie das Dietrich-Bonhoeffer-Klinikum Neubrandenburg. Die DGFG ist in ihrer Aufbaustruktur, der Freiwilligkeit der Unterstützung durch die Netzwerkpartner:innen und ihrer Unabhängigkeit von privaten oder kommerziellen Interessen einzigartig in Deutschland.

Weitere Informationen:
https://gewebenetzwerk.de/gewebespende-auf-rekordniveau/
https://gewebenetzwerk.de/presse-download/

Anhang
Download Presseinformation

(nach oben)