Samstag, Oktober 12, 2024
StartAblageTägliche Meldungen 2023

Tägliche Meldungen 2023

Dezember 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

November 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

Oktober 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft

September 2023

Umwelt
Gesundheit
Gesellschaft

Umwelt

Gesundheit

Gesellschaft


IAB-Arbeitsmarktbarometer: Ausblick nach Talfahrt für 2024 wieder verbessert

Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Das IAB-Arbeitsmarktbarometer verzeichnet den ersten Anstieg seit fast einem Jahr Abwärtstrend. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) steigt im Dezember um 0,4 Punkte auf 99,9 Punkte und liegt damit nur knapp unter dem neutralen Wert von 100. Auch das European Labour Market Barometer steigt erstmals seit sieben Rückgängen in Folge wieder und liegt nun bei 99,2 Punkten.

„Die Arbeitsagenturen sehen gerade für die Arbeitslosigkeit kein einfaches Jahr voraus, aber die Talfahrt der Erwartungen setzte sich zum Jahreswechsel nicht fort“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“ am IAB. Beide Komponenten des Barometers steigen gegenüber dem Vormonat. Die Komponente zur Vorhersage der Arbeitslosigkeit liegt im Dezember bei 97,0 Punkten, ein Plus von 0,5 Punkten im Vergleich zum Vormonat. Somit haben sich die Erwartungen für die Arbeitslosigkeit verbessert, bleiben allerdings weiterhin klar im negativen Bereich. Die Beschäftigungskomponente liegt nach einem Anstieg um 0,3 Punkte nun bei 102,7 Punkten, was weiterhin eine moderate Zunahme der Beschäftigung erwarten lässt. Die Entwicklung ist im Vergleich zu früheren Zeiten jedoch gedämpft. „Der Arbeitsmarkt ist nicht mehr der Selbstläufer der vergangenen Jahre, man kann sich aber auch im Wirtschaftsabschwung nach wie vor auf ihn verlassen“, erklärt Weber. Dennoch gibt er zu bedenken: „Für die wirtschaftliche Trendwende brauchen wir nicht nur einen stabilen Arbeitsmarkt, sondern auch Investitionen in die Transformation.“

Das European Labour Market Barometer legt im Dezember zum ersten Mal seit sieben Monaten zu. Nach einem Anstieg um 0,2 Punkte verzeichnet es nun 99,2 Punkte. Fast kein Land liegt aktuell über der neutralen Marke von 100 Punkten. Insofern steht Deutschland im europäischen Vergleich bei den Aussichten noch eher gut da, besonders bei der Beschäftigung. Die Beschäftigungskomponente des europäischen Barometers steigt um 0,2 Punkte auf 100,8 Punkte. Damit halten sich die Aussichten im positiven Bereich. Die Komponente zur Vorhersage der Arbeitslosigkeit klettert um 0,2 Punkte auf 97,6 Punkte. Der Ausblick bleibt somit deutlich negativ. „Die europäischen Arbeitsmarktservices blicken noch immer eher pessimistisch auf die nächsten Monate, aber es zeigt sich die Hoffnung, dass die Talsohle durchschritten ist“, so Weber.

Datengrundlage
Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert.

Das European Labour Market Barometer ist ein monatlicher Frühindikator, der auf einer seit Juni 2018 gemeinsam von den 17 Arbeitsverwaltungen und dem IAB durchgeführten Befragung unter den lokalen oder regionalen Arbeitsagenturen der teilnehmenden Länder basiert. Dazu zählen: Belgien (Deutschsprachige Gemeinschaft, Wallonien), Bulgarien, Dänemark, Deutschland, Island, Liechtenstein, Litauen, Luxemburg, Malta, Österreich, Polen, Portugal, Schweden, die Schweiz, Tschechien und Zypern.

Während Komponente A des IAB-Arbeitsmarktbarometers und des European Labor Market Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert der beiden Barometer. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Zum Download stehen bereit:

Eine Zeitreihe des European Labour Market Barometer einschließlich seiner Einzelkomponenten für alle 18 beteiligten Arbeitsverwaltungen ist unter https://www.iab.de/Presse/elmb-components (xlsx) abrufbar.

Mehr zum Europäischen Arbeitsmarktbarometer findet sich unter https://iab.de/en/daten/european-labour-market-barometer/.

Weitere Information zum Arbeitskräfteknappheits-Index des IAB finden Sie unter https://iab.de/daten/arbeitskraefteknappheits-index/

(nach oben)


Unsichere Schlüssel im E-Mail-System des Gesundheitswesens gefunden

Forscher des Fraunhofer SIT und der FH Münster haben gravierende Prozessfehler gefunden – Unsicherheit wurde jetzt behoben

Über das Mailsystem der Telematikinfrastruktur verschicken Arztpraxen beispielsweise elektronische Arbeitsunfähigkeitsbescheinigungen oder Heil- und Kostenpläne an Krankenkassen. Jetzt hat das E-Health-Team des Fraunhofer-Instituts für Sichere Informationstechnologie SIT herausgefunden, dass die Verschlüsselung für das Mailsystem bei mehreren Krankenkassen fehlerhaft eingerichtet war – insgesamt acht Krankenkassen benutzten die gleichen Schlüssel und konnten so theoretisch auch die Mails anderer Krankenkassen entschlüsseln.

Die Forscher stellten am 27.12.23, ab 16:00 in Hamburg ihre Erkenntnisse auf dem diesjährigen Chaos Communication Congress (37c3) des Chaos Computer Clubs (CCC) vor. Alle Lücken sind vorab im Coordinated-Vulnerability-Disclosure-Verfahren der Gematik gemeldet worden.

Das E-Mail-System KIM – Kommunikation im Medizinwesen – soll eine sichere Kommunikation zwischen medizinischen und psychotherapeutischen Praxen, Apotheken, Krankenkassen, Kliniken und anderen Teilnehmenden des Gesundheitswesens gewährleisten. Allein in den vergangenen zwei Jahren wurden über KIM mehr als 200 Millionen E-Mails verschickt. Damit ist das System eine der am meisten genutzten Anwendungen in der Infrastruktur des deutschen Gesundheitswesens. KIM verspricht sichere Ende-zu-Ende-Verschlüsselung zwischen allen Einrichtungen des Gesundheitswesens in ganz Deutschland. Um dies zu gewährleisten, werden an alle Beteiligten sichere kryptografische Schlüssel (S/MIME-Zertifikate) ausgegeben, die dafür sorgen, dass eine verschlüsselte E-Mail-Kommunikation möglich ist.

Gleicher Schlüssel für verschiedene Krankenkassen
Forscher des Fraunhofer SIT und der FH Münster haben festgestellt, dass gleich mehrere große Krankenkassen offenbar den gleichen Schlüssel für die Ver- und Entschlüsselung sowie das digitale Signieren ihres KIM-Mailverkehrs nutzten. Damit hätte jede der betroffenen Krankenkassen auch alle Mails mitlesen können, die für eine der anderen betroffenen Kassen bestimmt sind – ein Problem, das bei fehlgeleiteten Mails gerade durch Verschlüsselung verhindert werden soll.

Entstanden war das Problem bei der KIM-Einrichtung: Die betroffenen Krankenkassen hatten externe IT-Dienstleister beauftragt, das KIM-Mailsystem für sie zu betreiben. Diese hatten kryptografische Schlüssel generiert und diese Schlüssel für mehrere Krankenkassen verwendet. Die technische Struktur von KIM war hier also nicht das Sicherheitsproblem – doch in der praktischen Einrichtung des Systems können Fehler passieren. Dies haben die Fraunhofer-Forscher der zuständigen Stelle, der Gematik, gemeldet. Alle betroffenen Schlüssel wurden zwischenzeitlich neu generiert und ausgetauscht. Aufgrund der Meldung hat die Gematik die Spezifikation zur Konfiguration von KIM erweitert und verbessert: Jetzt muss vor der Ausstellung eines Zertifikats geprüft werden, ob der Schlüssel schon einmal verwendet wurde.

37C3 Vortrag von Dr. Christoph Saatjohann und Prof. Dr. Sebastian Schinzel: https://fahrplan.events.ccc.de/congress/2023/fahrplan/events/12030.html

Wissenschaftliche Ansprechpartner:
Dr. Christoph Saatjohann

Weitere Informationen:
https://fahrplan.events.ccc.de/congress/2023/fahrplan/events/12030.html

(nach oben)


Atmosphärische Trockenheit in Europa beispiellos für die letzten 400 Jahre

Ein internationales Team von Forschenden hat Baumringe aus ganz Europa analysiert: Sauerstoffisotopen zeigen eine Rekordtrockenheit in den letzten Jahren und Jahrzehnten, wie es sie seit vierhundert Jahren nicht gegeben hat.

Die Luft in Europa ist in den letzten Jahrzehnten im Vergleich zur vorindustriellen Zeit deutlich trockener geworden. Dies ist auf den vom Menschen verursachten Klimawandel zurückzuführen. Eine trockenere Atmosphäre kann Dürreperioden und die Gefahr von Waldbränden verschärfen, was wiederum Folgen für Wälder und Landwirtschaft hat. Dies ist das Ergebnis einer neuen Studie, die in der Fachzeitschrift „Nature Geoscience“ veröffentlicht wurde. Sie stammt von einem internationalen Forschungsteam unter der Leitung von Kerstin Treydte von der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL).

Mit einem neuartigen Ansatz haben die Forschenden das Dampfdruckdefizit (Vapor Pressure Deficit, VPD) als Maß für die Lufttrockenheit seit dem Jahr 1600 rekonstruiert. Sie untersuchten dazu das Isotopenverhältniss von schwerem und leichtem Sauerstoff (18O/16O) in Baumringen aus einem europäischen Netzwerk von Waldstandorten. Die Analysen zeigen, dass die Luft über weiten Teilen Europas seit Beginn des 21. Jahrhunderts trockener geworden ist als je zuvor – und dieser Trend hält an. „Angesichts der Dürreereignisse in vielen Regionen Europas in den letzten Jahren ist dieser Befund wirklich besorgniserregend“, sagt Kerstin Treydte.

Das Dampfdruckdefizit (VPD) beschreibt den „Durst der Atmosphäre“, d. h. die Differenz zwischen dem tatsächlichen und dem maximal möglichen Wassergehalt der Luft. „Durstige“ Luft mit hohem VPD entzieht Böden und Pflanzen mehr Wasser, verringert das Wachstum der Vegetation und bedroht die Gesundheit der Wälder. „Austrocknende Vegetation und Böden begünstigen die Häufigkeit von Waldbränden, wie wir sie kürzlich in Brandenburg erlebt haben“, sagt Gerhard Helle vom Deutschen GeoForschungsZentrum GFZ und Mitautor der Studie. Es ist bekannt, dass das VPD in einem sich erwärmenden Klima zunimmt, aber es bestehen europaweit große Unsicherheiten hinsichtlich des Ausmaßes der langfristigen Veränderungen bis zurück in die vorindustrielle Zeit, in der es keinen starken menschlichen Einfluss gab. Aussagekräftige Datenreihen, die die regionalen Unterschiede zwischen den verschiedenen europäischen Klimazonen angemessen widerspiegeln, sind eher spärlich.

Variationen von Atomen in Wasser und Baumringen
Um die Unsicherheiten zu verringern, wurden Jahrringdaten von 45 Waldstandorten in ganz Europa zusammengestellt, die bis ins Jahr 1600 zurückreichen. Die Studie basiert auf der Analyse stabiler Sauerstoffisotope, d. h. Varianten des Sauerstoffs mit unterschiedlicher Masse. „Wir haben Baumring-Isotopendaten von Standorten in Deutschland, Spanien, Italien und der Türkei beigesteuert“, sagt Mitautor Ingo Heinrich, früherer Wissenschaftler am GFZ und jetzt am Deutschen Archäologischen Institut in Berlin.

Die Isotopenverhältnisse des Sauerstoffs (18O/16O) im Wasserkreislauf sind Indikatoren für klimarelevante Prozesse. Ihre Variabilität hängt insbesondere mit Veränderungen der atmosphärischen Feuchtigkeit zusammen, die von der Lufttemperatur und den Niederschlägen abhängen. Sauerstoffisotope werden von Bäumen bei der Wasseraufnahme durch die Wurzeln aufgenommen. Ihre 18O/16O -Verhältnisse werden insbesondere während der Transpiration von Wasserdampf durch die Spaltöffnungen der Baumblätter verändert, d. h. durch winzige Poren, die den Kohlendioxid- und Wasser-Gasaustausch zwischen den Blättern und der Atmosphäre regeln. Aufgrund des soliden Verständnisses dieser zugrundeliegenden Prozesse in der Wissenschaft und wegen ihrer weiten Verbreitung sind Bäume wie kein anderes natürliches Klimaarchiv für jährlich aufgelöste Rekonstruktionen der atmosphärischen Feuchtigkeit geeignet.

Die jüngste Trockenheit ist vom Menschen verursacht und in Mitteleuropa am stärksten
Mit Hilfe von Modellsimulationen überprüften die Forschenden unabhängig voneinander die Ergebnisse aus den Isotopendaten der Jahresringe. Die Simulationen zeigen auch, dass das VPD des 21. Jahrhunderts im Vergleich zur vorindustriellen Zeit außergewöhnlich hoch ist. Mehr noch, sie zeigen, dass die heutigen VPD-Werte ohne Treibhausgasemissionen nicht hätten erreicht werden können – der menschliche Einfluss ist offensichtlich.

Die Kombination von Jahrringdaten, Modellsimulationen und direkten Messungen verdeutlicht darüber hinaus auch regionale Unterschiede: In Nordeuropa hat der Wasserdurst der Luft im Vergleich zur vorindustriellen Zeit am wenigsten zugenommen, weil die Luft dort generell kühler ist und weniger Wasser aufnehmen kann. Im mitteleuropäischen Tiefland sowie in den Alpen und Pyrenäen ist der VPD-Anstieg dagegen besonders stark, mit höchsten Werten in den Dürrejahren 2003, 2015 und 2018. „Diese Ergebnisse bestätigen in hohem Maße frühere Ergebnisse einer räumlichen Rekonstruktion der europäischen Sommertrockenheit, die aus einem viel kleineren Netzwerk von Baumstandorten gewonnen wurden, und unterstreichen die Wechselbeziehung zwischen Lufttrockenheit und Bodenfeuchtigkeit“, sagt Gerhard Helle.

Folgen für Wälder und Landwirtschaft
Ein weiterer Anstieg des VPD stellt eine langfristige Bedrohung für viele lebenswichtige Ökosystemfunktionen dar. „Das Dampfdruckdefizit ist für die Landwirtschaft besonders wichtig, denn je höher es ist, desto größer ist der Wasserbedarf der Pflanzen. Es muss mehr bewässert werden und die Ernteerträge sinken. In den Wäldern sind der Holzvorrat und die Kohlenstoffspeicherung gefährdet, was zu Unsicherheiten hinsichtlich der Klimaregulierung und der Kohlenstoffspeicherung dieser Ökosysteme in der Zukunft führt“, sagt Treydte.

Dies sei in den dicht besiedelten Regionen Europas besonders besorgniserregend und mache es um so notwendiger, die Emissionen zu verringern und sich an den Klimawandel anzupassen. „Unsere Ergebnisse werden dazu beitragen, Simulationen künftiger Klimaszenarien zu verfeinern und die Bedrohung zu bewerten, die hohe VPD-Werte für Ökosysteme, Wirtschaft und Gesellschaft darstellen“, sagt Treydte. Gerhard Helle fügt hinzu: „Für ein dichteres Netz sind noch weitere aussagekräftige Datenreihen erforderlich, insbesondere von Standorten im polnischen und deutschen Tiefland, damit die komplexe VPD-Dynamik in den verschiedenen europäischen Regionen gleichermaßen widergespiegelt wird.“

Wissenschaftliche Ansprechpartner:
Wissenschaftliche Kontaktperson GFZ:
Dr. Gerhard Helle
+49 331 6264-1377
gerhard.helle@gfz-potsdam.de

Erstautorin:
Dr. Kerstin Treydte

Research Unit Forest Dynamics
Swiss Federal Research Institute WSL
mailto:kerstin.treydte@wsl.ch

Originalpublikation:
Originalstudie: „Recent human-induced atmospheric drying across Europe unprecedented in the last 400 years“ von K. Treydte et al. in Nature Geoscience, DOI: 10.1038/s41561-023-01335-8 (https://www.nature.com/articles/s41561-023-01335-8)

(nach oben)


Wenn Bakterien Resistenzgene untereinander austauschen

Horizontaler Gentransfer: Warum sich Krankenhaus-Infektionen so schwer bekämpfen lassen – Mobiles genetisches Element verbreitet gefährliche Antibiotikaresistenzen

Bakterien, die gegen Breitband-Antibiotika aus der Gruppe der Carbapeneme resistent sind, stellen die Gesundheitssysteme weltweit zunehmend vor große Probleme. Sie können schwere Infektionen und Ausbruchsituationen verursachen, für die es nur sehr begrenzte oder gar keine Therapieoptionen gibt. Dabei kommt den Bakterien zugute, dass sie genetisches Material – und damit auch Resistenzgene – untereinander austauschen können.
Eine Form dieses horizontalen Gentransfers erfolgt bei Bakterien über sogenannte Plasmide, mobile genetische Elemente. Wissenschaftlerinnen und Wissenschaftler des Instituts für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen (JLU) und des Deutschen Zentrums für Infektionsforschung (DZIF) konnten zusammen mit Institutionen des öffentlichen Gesundheitswesens nun ein besonders stabiles Plasmid nachweisen, das in Deutschland für einen Großteil der bakteriellen Resistenzen gegen Antibiotika verschiedener Gruppen einschließlich der Carbapeneme verantwortlich ist. Dieses Hochrisiko-Plasmid kann nicht nur auf unterschiedliche Bakterien-Spezies übertragen werden, es ist auch noch über Jahre aktiv.

Eine der weltweit wichtigsten und häufigsten Ursachen für die bakterielle Carbapenem-Resistenz ist das Enzym KPC-2-Carbapenemase, das Carbapeneme unschädlich macht. Das Konsortium konnte nachweisen, dass regional rund 85 Prozent aller Erreger, die eine KPC-2-Carbapenemase produzieren können, ein nahezu identisches Plasmid tragen, das der Gruppe der IncN-Plasmide angehört. Dieses erstmals beschriebene Plasmid kodiert verschiedene Antibiotikaresistenzgene und zeigt ein sehr breites bakterielles Wirtsspektrum. Es kann innerhalb eines Patienten oder einer Patientin schnell von einem Bakterium auf das andere übertragen werden, auch auf andere Bakterienarten. Im Falle eines Ausbruchs – zum Beispiel bei den gefürchteten Krankenhaus-Infektionen – findet man also völlig unterschiedliche bakterielle Erreger, die alle das identische Plasmid tragen.

Im Fokus der in der Fachzeitschrift „Micobiology Spectrum“ veröffentlichten Studie standen Carbapenem-resistente Enterobakterien wie Escherichia coli oder Klebsiella pneumoniae. Insgesamt untersuchten die Forscherinnen und Forscher mehr als 600 Carbapenem-resistente gramnegative Bakterienisolate. Dabei wiesen sie das IncN-Plasmid deutschlandweit in elf verschiedenen bakteriellen Spezies nach, in Wasserproben aus Fließgewässern sowie bei insgesamt 77 Patientinnen und Patienten in 28 Krankenhäusern in 20 Städten.

„Unsere Studie zeigt, dass die Möglichkeit des Austauschs von Resistenzen über mobile genetische Elemente ein wesentlicher Faktor ist für die erfolgreiche Verbreitung multiresistenter gramnegativer Erreger“, sagt PD Dr. Can Imirzalioglu, Mitautor der Studie und kommissarischer Leiter des Instituts für Medizinische Mikrobiologie der JLU. „Inwiefern hierbei besonders erfolgreiche Plasmide existieren und inwieweit diese im überregionalen Kontext für die Erregerverbreitung maßgeblich sind, war bislang nur unzureichend untersucht.“

Die von dem Forschungsteam beschriebenen IncN-Plasmide waren bemerkenswert stabil und wurden bei einzelnen Patientinnen und Patienten, die die bakteriellen Erreger trugen, mehr als ein Jahr lang beibehalten. „Die hieraus resultierenden ‚stillen‘ Übertragungsketten sind eine neue Herausforderung für die Überwachung multiresistenter Erreger, die Aufklärung von Ausbrüchen und die Etablierung effektiver Maßnahmen der Hygiene und Infektionsprävention“, so der Erstautor der Studie, Dr. Yancheng Yao vom Institut für Medizinische Mikrobiologie der JLU. „Die Identifizierung solcher Hochrisiko-Plasmide und die Entwicklung neuer Ansätze, um deren Ausbreitung zu reduzieren, sind hochaktuelle Aufgaben der Forschung zum Thema Antibiotikaresistenz.“

„Eine Genom-basierte Überwachung von multiresistenten Erregern erlaubt neben der Aufklärung lokaler Ausbruchsereignisse auch die Detektion von Hochrisiko-Erregern und Resistenzen mit überregionaler und internationaler Bedeutung“, ergänzt Prof. Dr. Trinad Chakraborty, ehemaliger Direktor des Instituts für Medizinische Mikrobiologie der JLU. „Mit konventionellen Methoden lassen sich solche komplexen, auf den ersten Blick nur sehr schwer erkennbaren ‚Plasmidausbrüche’ nicht nachweisen.“

Wissenschaftliche Ansprechpartner:
PD Dr. med. Can Imirzalioglu
Institut für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen
Deutsches Zentrum für Infektionsforschung (DZIF), Standort Gießen-Marburg-Langen
E-Mail: can.imirzalioglu@mikrobio.med.uni-giessen.de

Prof. Dr. Trinad Chakraborty
Institut für Medizinische Mikrobiologie der Justus-Liebig-Universität Gießen
Deutsches Zentrum für Infektionsforschung (DZIF), Standort Gießen-Marburg-Langen
E-Mail: trinad.chakraborty@mikrobio.med.uni-giessen.de

Originalpublikation:
Yancheng Yao, Linda Falgenhauer, Yalda Rezazadeh, Jane Falgenhauer, the IncN Study Group, Can Imirzalioglu, Trinad Chakraborty: Predominant transmission of KPC-2 carbapenemase in Germany by a unique IncN plasmid variant harboring a novel non-transposable element (NTEKPC-Y). Micobiology Spectrum, online veröffentlicht am 12. Dezember 2023

https://journals.asm.org/doi/full/10.1128/spectrum.02564-23

(nach oben)


Wie Vulkane Klima und Menschheitsgeschichte beeinflussen

Internationale Forschungsgruppe präsentiert die Ergebnisse ihrer Arbeit
Vulkanausbrüche können das Klima beeinflussen und das Klima wiederum beeinflusst den Lauf der Geschichte. Die Erforschung dieser komplexen Zusammenhänge ist herausfordernd, denn Forscher*innen unterschiedlicher Disziplinen müssen zusammenarbeiten. Wie dies gelingen kann und wie sich interdisziplinäre Kooperationen verbessern lassen, hat die internationale Forschungsgruppe „Volcanoes, Climate and History“ (Vulkane, Klima und Geschichte) seit 2021 am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld untersucht.

Auf ihrer Abschlusstagung vom 8. bis zum 12. Januar diskutiert die Gruppe nicht nur ihre Ergebnisse, sondern kuratiert auch eine Kunstausstellung am ZiF.

Der Sommer des Jahres 536 dürfte der kälteste der letzten 2000 Jahre gewesen sein. Die Ursache war ein Vulkanausbruch, dessen Asche den Himmel verdunkelte. Die Menschen wunderten sich über das fahle Licht, es kam zu Missernten, die Pest brach aus und das Oströmische Reich geriet ins Wanken. Auch das Jahr 1816 ist als „Jahr ohne Sommer“ in die Geschichtsbücher eingegangen, dieses Mal war ein Vulkan in Indonesien schuld.

Um besser zu verstehen, wie Gesellschaften auf die Folgen von Vulkanausbrüchen auf unterschiedlichen Raum- und Zeitskalen reagieren, haben in der Forschungsgruppe Wissenschaftlerinnen aus verschiedenen Disziplinen zusammengearbeitet: aus Archäologie, Geschichtswissenschaft, Geo-, Klima- und Paläowissenschaften. Die Gruppe hat sich im Laufe ihrer Arbeit immer wieder neue Schwerpunkte gesetzt: So haben die Forscherinnen archäologische Spuren untersucht, sie haben die Leistungsfähigkeit von Computersimulationen getestet und sich historische Quellen angeschaut.

Geladene Expertinnen brachten neue Impulse „Außerdem haben wir immer wieder Expertinnen eingeladen, die uns bei speziellen Fragen weiterhelfen konnten“, sagt der Leiter der Forschungsgruppe, Professor Dr. Ulf Büntgen, der an der Universität Cambridge Umwelt-Systemanalyse lehrt. Diese Kooperationen haben der Gruppe nicht nur zu wichtigen Erkenntnissen über direkte und indirekte Auswirkungen von Vulkanausbrüchen verholfen, sondern sie auch mit den Herausforderungen interdisziplinärer Zusammenarbeit konfrontiert. „Die Kolleg*innen arbeiten etwa mit unterschiedlichen Maßeinheiten oder definieren Begriffe anders“, berichtet Büntgen.

Die Forschungsgruppe hat diese Erfahrungen unter anderem dazu genutzt, ein interdisziplinäres Analyse-Instrument zu entwickeln, das „Dahliagramm“. Außerdem hat sich die Gruppe von einem Film-Team begleiten lassen, welches unter der Regie des Vulkanologen und Filmemachers Dr. Clive Oppenheimer, ebenfalls Professor an der Universität Cambridge und Fellow der Gruppe, die Arbeit am ZiF begleitet hat.

Ausstellung verbindet künstlerische und wissenschaftliche Aspekte
Teil der Abschlusstagung ist die gemeinsame Ausstellung „Curiosity Unbound – Volcanoes, Climate and History“ (Entfesselte Neugier – Vulkane, Klima und Geschichte) der Forschungsgruppe und der isländischen Künstlerin Anna Guðjónsdóttir. Auch sie ist Fellow der Gruppe und hat während der Workshops mit den Wissenschaftlerinnen wiederholt künstlerische Experimente durchgeführt. Sie hat sich besonders dafür interessiert, mit welcher Neugierde und Offenheit die Forscherinnen auf das Thema und die unterschiedlichen Sicht- und Herangehensweisen aller Beteiligten zugegangen sind. Dies visualisiert sie unter anderem mit Gegenständen, die für die Arbeit der Forscher*innen wichtig sind. So treffen in der Ausstellung das Eigenständige und Persönliche auf die wissenschaftlichen und künstlerischen Gedanken. „Die Perspektive der Kunst hat uns noch einmal eine neue Dimension des Fragens und Interagierens, aber auch Möglichkeiten der Präsentation von Forschungsergebnissen aufgezeigt“, so Ulf Büntgen. „Wir haben viel darüber gelernt, wie Vulkanausbrüche gesellschaftliche Entwicklungen und zum Beispiel Pandemien beeinflussen können. Genauso wichtig war es uns aber auch, die Grenzen zwischen den akademischen Disziplinen zu überwinden, und eine unserer Erkenntnisse ist, dass die Kunst definitiv dazu beitragen kann.“

Die Vernissage der Ausstellung findet am Donnerstag, 11. Januar, um 19.30 Uhr am ZiF statt. Gesprochen wird hierbei Englisch und Deutsch. Die Anmeldung ist auf der Website zur Ausstellung möglich.

Die Abschlusstagung findet auf Englisch statt. Journalist*innen sind herzlich eingeladen, über die Tagung zu berichten. Professor Büntgen steht für Anfragen gerne zur Verfügung.

Wissenschaftliche Ansprechpartner:
Maren Winkelhage, Universität Bielefeld
Zentrum für interdisziplinäre Forschung
Telefon 0521 106-2793
E-Mail: group-support@uni-bielefeld.de

Weitere Informationen:
https://www.uni-bielefeld.de/einrichtungen/zif/groups/ongoing/volcanoes/index.xm… Website der internationalen Forschungsgruppe
https://www.uni-bielefeld.de/einrichtungen/zif/events/#/event/6485 Website der Ausstellung
https://blogs.uni-bielefeld.de/blog/pressemitteilungen/entry/neues_werkzeug_zur_… Pressemitteilung zur Entwicklung des Dahliagramms

(nach oben)


Im Job, wenn andere feiern: Zwischen 6 und 10 Prozent aller Erwerbstätigen müssen an den Festtagen arbeiten

Neue Studie des WSI
Im Job, wenn andere feiern: Zwischen 6 und 10 Prozent aller Erwerbstätigen müssen an den Festtagen arbeiten

Sie kümmern sich um Menschen in Not, sie machen die Party im Restaurant möglich, sie bringen dringend benötigte Waren von A nach B: Ein Teil der Erwerbstätigen in Deutschland muss arbeiten, während und damit die Mehrheit der Bevölkerung Weihnachten und den Jahreswechsel feiern kann. Wer an den kommenden Festtagen „im Dienst“ ist, hat das Wirtschafts- und Sozialwissenschaftliche Institut (WSI) der Hans-Böckler-Stiftung untersucht.*

Zentrale Befunde der neuen Studie: Obwohl Heiligabend und Silvester in diesem Jahr auf einen Sonntag fallen, müssen knapp 10 Prozent der Erwerbstätigen auch an Heiligabend wenigstens teilweise arbeiten, am Silvestertag sind es in der Spitze 9 Prozent, je nach Tageszeit. Besonders hoch sind die Anteile derjenigen, die an den Festtagen in ihrem Erwerbsjob gefragt sind, im Gastgewerbe, in Verkehr und Logistik sowie im Gesundheits- und Sozialwesen (siehe auch die Tabellen 1 und 2 in der pdf-Version dieser PM; Link unten). Die gute Nachricht: Beschäftigte im Handel, die sonst bis in die letzte Minute Weihnachtseinkäufe ermöglichen und Feuerwerkskörper verkaufen müssen, haben in diesem Jahr auch mal frei. Insgesamt müssen deshalb 2023 an den Festtagen deutlich weniger Menschen zur Arbeit als in anderen Jahren. 2022 waren es etwa am Vormittag des Heiligen Abends 20 Prozent aller Erwerbstätigen in Deutschland.

Über 4200 Erwerbstätige haben in einer Befragung der Hans-Böckler-Stiftung von November darüber Auskunft gegeben, ob und wann sie an Weihnachten oder zum Jahreswechsel arbeiten. Die WSI-Forscher Dr. Eric Seils und Dr. Helge Emmler können auf Basis der Daten ein detailliertes Bild zeichnen.

Am Vormittag des 24. Dezember müssen noch 10 Prozent aller Erwerbstätigen arbeiten, obwohl es sich um einen Sonntag handelt. Im Gastgewerbe sowie im Gesundheits- und Sozialwesen sind sogar 27 bzw. 20 Prozent der Erwerbstätigen noch im Erwerbsjob aktiv. Nach 14 Uhr, wenn normalerweise das Ladenschlussgesetz den Heiligen Abend einläutet, sinkt der Anteil der Menschen, die schaffen müssen, auf noch 6 Prozent, was die Bedeutung dieses Abends illustriert. Im Gesundheits- und Sozialwesen liegt die Quote allerdings bei 19 Prozent – und bleibt über die Feiertage auf hohem Niveau.

An den beiden Weihnachtstagen steigen die allgemeinen Werte der Beschäftigung gegenüber Heiligabend nach 14 Uhr nur geringfügig an auf 8 Prozent. Eine wichtige Ausnahme ist wiederum das Gastgewerbe, wo rund ein Drittel der Erwerbstätigen im Job gefragt ist.

Am Vormittag des Silvestertages müssen in diesem Jahr 9 Prozent aller Erwerbstätigen arbeiten, während es im Vorjahr 19 Prozent waren. Dies ist wiederum darauf zurückzuführen, dass es sich um einen Sonntag handelt. Nach 14 Uhr sinkt der Anteil auf 6 Prozent. Deutlich überdurchschnittlich ist die Quote dann erneut im Gastgewerbe, im Gesundheits- und Sozialwesen sowie in der Logistik. An Neujahr ist es 8 Prozent der Erwerbstätigen nicht vergönnt, auszuschlafen.

Schließlich müssen Männer und Ostdeutsche tendenziell etwas häufiger als Frauen und Westdeutsche an den Festtagen im Erwerbsjob arbeiten.

Wissenschaftliche Ansprechpartner:
Dr. Eric Seils
WSI-Sozialexperte
Tel.: 0211 / 77 78-591
E-Mail: Eric-Seils@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Eric Seils, Helge Emmler & WSI Tarifarchiv: Wer arbeitet an den Festtagen 2023/2024? Analysen zur Tarifpolitik, Nr. 101, Dezember 2023. Download: https://www.wsi.de/de/faust-detail.htm?sync_id=HBS-008770

Die PM mit Tabellen (pdf): https://www.boeckler.de/pdf/pm_wsi_2023_12_22.pdf

(nach oben)


Derzeit starker Salzwassereinstrom in die Ostsee gemessen

Derzeit lässt sich ein größerer Salzwassereinstrom in die südwestliche Ostsee feststellen. Die vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) betriebene autonome Messstation an der Darsser Schwelle misst seit 20.12.2023 einen starken Einstrom von salzreichem Wasser in der gesamten Wassersäule, was vergleichsweise selten vorkommt. Über Weihnachten wird sich zeigen, ob der Einstrom ähnliche Ausmaße annimmt wie der große Salzwassereinbruch 2014. Salzwassereinströme gehen einher mit sauerstoffreichem Wasser, das sauerstoffarme, tiefere Becken der Ostsee belüften könnte, was wiederum die Bildung von giftigem Schwefelwasserstoff verhindert.

Fast auf den Tag genau neun Jahre nach dem letzten großen Salzwassereinbruch im Dezember 2014, fließen derzeit wieder größere Mengen Salzwasser über die Darsser Schwelle in die östliche Ostsee.
„Seit dem 20.12.2023 überströmt salzreiches Wasser die Darsser Schwelle nicht nur am Boden, sondern in der gesamten Wassersäule. Das sei ein guter Indikator für einen großen Salzwassereinbruch“, sagt Dr. Volker Mohrholz, Ozeanograph am Leibniz-Institut für Ostseeforschung Warnemünde (IOW). Von diesem wird gesprochen, wenn an der Darsser Schwelle über fünf Tage lang deutlich erhöhte Salzgehalte im Wasser gemessen werden. An Weihnachten wird sich also zeigen, ob es sich wieder erstmals nach 2014 um einen großen Salzwassereinbruch handelt, einen sogenannten „Major Baltic Inflow“ (MBI). Damals kam es zum drittgrößten Salzwassereinbruch seit Beginn der ozeanographischen Messungen im Jahre 1912.
Auslöser für den Salzwassereinbruch sind vermutlich die Windverhältnisse der letzten Wochen: Andauernde Winde in der ersten Dezemberhälfte aus südöstlicher Richtung führten zu einer Senkung des Ostsee-Meeresspiegels und zum Ausstrom von Wassermassen in Richtung Nordsee. Nach dem Einsetzen starker Westwinde im Zusammenhang mit dem Sturmtief Zoltan, strömt derzeit in umgekehrter Richtung salzreiches Wasser in großer Menge in die Ostsee ein.
Salzwassereinströme werden mit dem Einstrom von gut mit Sauerstoff gesättigtem Nordseewasser in die Ostsee in Verbindung gebracht. Dadurch können sauerstoffarme, tiefere Beckenbereiche wie das Gotlandbecken mit Sauerstoff belüftet werden, was wiederum die Bildung von giftigem Schwefelwasserstoff verhindert. Aus Messungen des IOW Langzeitprogramms für die Ostsee weiß man aber, dass der Effekt nicht allzu lange anhält.
„Unsere im Auftrage des Bundesamtes für Seeschifffahrt und Hydrographie (BSH) ausgebrachten autonomen Messstationen in der südwestlichen Ostsee sind wichtige Echtzeit-Datenlieferer, ohne die solche Kurzzeit-Ereignisse sowie langfristige Veränderungen der Wassermassen nicht mit dieser zeitlichen Auflösung dokumentierbar wären“, sagt Prof. Dr. Oliver Zielinski, Direktor des Leibniz-Instituts für Ostseeforschung (IOW). Diese Datenreihen sind Grundvoraussetzung für wissenschaftsbasierte Übersichtstudien zum Zustand der Ostsee, die durch IOW-Wissenschaftlerinnen und Wissenschaftler im Verbund mit weiteren nationalen und internationalen Forschungseinrichtungen entstehen.

Pressekontakt:
Dr. Matthias Premke-Kraus | +49 381 – 5197 102 | matthias.premke-kraus@io-warnemuende.de

Das Leibniz-Institut für Ostseeforschung Warnemünde (IOW) ist ein außeruniversitäres Meeresforschungsinstitut. Sein Forschungsprogramm ist auf Küsten- und Randmeere mit besonderer Hinwendung zum Ökosystem Ostsee zugeschnitten. Neben seinen Forschungsaktivitäten verfolgt das IOW den Transfer in die Gesellschaft und betreibt Forschungsinfrastrukturen für die wissenschaftliche Gemeinschaft. Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der aktuell 97 eigenständige Forschungs-einrichtungen gehören. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 20.500 Personen, davon sind ca. 11.500 Forschende. Der Gesamtetat der Institute liegt bei 2 Mrd. Euro. www.leibniz-gemeinschaft.de.

Wissenschaftliche Ansprechpartner:
Dr. Volker Mohrholz, Leiter der Arbeitsgruppe „Physikalisch-Biogeochemische Kopplung mariner Systeme“ | volker.mohrholz@io-warnemuende.de
Prof. Dr. Markus Meier, Leiter Sektion Physikalische Ozeanographie und Messtechnik | markus.meier@io-warnemuende.de
Prof. Dr. Oliver Zielinski, Direktor | oliver.zielinski@io-warnemuende.de

(nach oben)


Mit Hochdruck zu sauberem Wasser: Neuartige Technologie zur Wasserreinigung – Projekt HyKaPro startet

Forschende des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) wollen mit ihrem neuen Projekt den Nachweis erbringen, dass sich eine von ihnen entwickelte innovative Methode zur Aufbereitung industrieller Abwässer in den technischen Maßstab überführen lässt. Als Namensgeber stand die sogenannte hydrodynamische Kavitation (HyKaPro) Pate: Das Verfahren, entwickelt im CLEWATEC Innovation Lab des HZDR, setzt auf ein innovatives Oxidationsverfahren zur Wasserbehandlung, das Mikroschadstoffe effektiv abbauen kann.

Kläranlagen sind für die Beseitigung von Schadstoffen im Wasser entscheidend. Allein in Deutschland sind rund 10.000 kommunale und 3.000 Industrie-Kläranlagen in Betrieb. Sie stoßen jedoch häufig an Grenzen, wenn es um die Entfernung von chemisch stabilen Verbindungen geht. Dazu zählen auch Substanzen, die nicht zu den bisher im Abwasser-Monitoring priorisierten Schadstoffen gehören. Diese neuartigen Schadstoffe, deren weite Verbreitung in der aquatischen Umwelt erst durch moderne Analysetechniken sichtbar wurde, entpuppen sich in zunehmendem Maße als Problem. Prominente Beispiele dieser äußerst vielfältigen menschengemachten Chemikalien sind bromierte Flammschutzmittel, Kraftstoffzusätze, Umwelthormone oder die aus der Herstellung von Antihaftbeschichtungen bekannten Perfluortenside.

„Unser neues Verfahren hat sich in den bisherigen Versuchen im Labor- und Technikumsmaßstab als äußerst effizient bei der Beseitigung solcher Mikroschadstoff-Moleküle erwiesen. Die Technologie gibt uns ein Werkzeug in die Hand, um der Verschmutzung von Wasserressourcen auch mit diesen nur schwer abbaubaren Verbindungen entgegenzutreten und so einen bedeutenden Beitrag zum Umwelt- und Gesundheitsschutz von Ökosystemen und der Bevölkerung zu leisten“, erklärt Dr. Sebastian Reinecke vom Institut für Fluiddynamik am HZDR und Leiter des Clean Water Technology Lab (CLEWATEC).

Turbo für traditionelle Oxidationsverfahren
Oxidationsverfahren spielen traditionell eine entscheidende Rolle in der Wasserbehandlung, weil sie Schadstoffe durch die Reaktion mit Oxidationsmitteln wirkungsvoll abbauen. HyKaPro setzt zusätzlich auf Kavitationseffekte, um die Oxidationsreaktionen zu intensivieren. Diese Technologie erzeugt durch den Kollaps von Dampfblasen extreme Bedingungen in unmittelbarer Nähe zu den im Wasser mitgeführten Schadstoffen. „Bei der Implosion der Blasen entstehen Temperaturen von 4.700 Grad Celsius und Drücke von 9.900 Atmosphären, die ihrerseits hochreaktive Prozesse auslösen, die zu einer verbesserten Zersetzung der Mikroschadstoffe führen“, erläutert Reinecke. Denn mit dem Platzen der Blasen entstehen gleichzeitig reaktionsfreudige Hydroxylradikale, die an die Schadstoffe andocken und sie in kleine, inaktive Fragmente verwandeln. Um die gewünschte Zahl an Hydroxylradikalen zu optimieren, fügen die Wissenschaftler*innen dem Prozess zusätzlich Ozon hinzu.

Vom Labor in die Anwendung
CLEWATEC ist bereits als Vorreiter für die Entwicklung umweltfreundlicher Wasserreinigungstechnologien etabliert. Ein neuartiges Sauerstoffeintragssystem für biologische Abwasserreinigungsprozesse zeigte im Technikum die doppelte Effizienz von herkömmlichen Systemen und wird derzeit an Kläranlagen validiert. „Wir bauen dabei auf den reichhaltigen Erfahrungsschatz unseres Instituts für Fluiddynamik am HZDR auf. Die hier seit Jahren gewonnenen Erkenntnisse zur Optimierung komplexer Strömungsmodelle kommen uns bei unseren Arbeiten sehr zupass“, freut sich Reinecke.

Mit HyKaPro will das Team nun die hydrodynamische Kavitation aus dem Labor holen und in eine marktreife Technologie verwandeln. In Zusammenarbeit mit Betreibern von Industrie-Klärwerken wollen die Forschenden die technologische Effizienz des Verfahrens nachweisen. Dabei werden sie gemeinsam mit den Projektpartnern die Wirtschaftlichkeit auf den Prüfstand stellen und an einer Verwertungsstrategie feilen. Dabei unterstützt Business Development Manager Alejandro Parra das Projekt im Bereich Technologietransfer. Das für anderthalb Jahre konzipierte Projekt startet im Januar 2024 und wird durch die Sächsische Aufbaubank über die EFRE-Validierungsförderung mit rund 200.000 Euro unterstützt. Das CLEWATEC-Team am HZDR ist zuversichtlich, dass HyKaPro nicht nur die Effizienz der hydrodynamischen Kavitation unter Beweis stellen, sondern auch einen bedeutenden Schritt in Richtung umweltfreundlicher Wasserreinigung gehen wird: sowohl in der kommunalen und industriellen Abwasseraufbereitung als auch in der Landwirtschaft und der Trinkwasseraufbereitung.

Weitere Informationen:
Dr. Sebastian Reinecke
Institut für Fluiddynamik am HZDR
Tel.: +49 351 260 2320 | E-Mail: s.reinecke@hzdr.de

Medienkontakt:
Simon Schmitt | Leitung und Pressesprecher
Abteilung Kommunikation und Medien am HZDR
Tel.: +49 351 260 3400 | Mobil: +49 175 874 2865 | E-Mail: s.schmitt@hzdr.de

Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:

  • Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
  • Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
  • Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?

Das HZDR entwickelt und betreibt große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Es ist Mitglied der Helmholtz-Gemeinschaft, hat sechs Standorte (Dresden, Freiberg, Görlitz, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt fast 1.500 Mitarbeiterinnen – davon etwa 670 Wissenschaftlerinnen inklusive 220 Doktorand*innen.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Reinecke
Institut für Fluiddynamik am HZDR
Tel.: +49 351 260 2320 | E-Mail: s.reinecke@hzdr.de

Weitere Informationen:
https://www.hzdr.de/presse/hykapro

(nach oben)


Corona & Co.: Bei Rheuma auf umfassenden Impfschutz achten

Die Zahl der Atemwegserkrankungen liegt bereits deutlich höher als für die Jahresuzeit üblich. Auch wenn die Covid-19-Pandemie offiziell beendet ist, spielt der Erreger SARS-CoV-2 in dieser Saison noch eine führende Rolle. Für Menschen mit eingeschränkter Immunfunktion wird daher eine weitere Covid-19-Auffrischimpfung empfohlen. Warum der erneute Booster – möglichst mit einem an die Omikron-Variante angepassten Impfstoff – daher auch für Menschen mit entzündlich-rheumatischen Erkrankungen wichtig ist und worauf diese noch achten sollten, erklären Expertinnen und Experten der Deutschen Gesellschaft für Rheumatologie e. V. (DGRh).

Die laufende Erkältungssaison bietet einen guten Anlass, einen Blick in den Impfpass zu werfen. Denn nicht nur für Covid-19, auch für andere potenziell kritisch verlaufende Atemwegserkrankungen stehen Impfungen zur Verfügung, die das Risiko einer Infektion und vor allem die Schwere der Erkrankung reduzieren können. Besonders wichtig ist dieser Schutz für Menschen, deren körpereigene Immunabwehr geschwächt ist – sei es aufgrund einer chronischen Grunderkrankung oder aufgrund von Medikamenten, die das Immunsystem bremsen. „Bei Menschen mit entzündlich-rheumatischen Erkrankungen trifft oft beides zu“, sagt PD Dr. med. Rebecca Hasseli-Fräbel, stellvertretende Leiterin der Sektion Rheumatologie und Klinische Immunologie am Universitätsklinikum Münster. Zum einen verringere das chronische Entzündungsgeschehen die Fähigkeit des Immun-systems, sich mit Krankheitserregern auseinanderzusetzen. Zum anderen müssten Rheuma-Betroffene oft Medikamente einnehmen, die die Immunfunktion beeinträchtig-ten. Sie sollten sich daher besonders konsequent vor Infektionen schützen.

Nach wie vor kommt dem Schutz vor SARS-CoV-2 dabei eine hohe Bedeutung zu, auch wenn das Virus seine Sonderstellung unter den Krankheitserregern mit dem offiziellen Ende der Pandemie weit-gehend eingebüßt hat. Wie sich aus den Statistiken des Robert-Koch-Instituts (RKI) zu Atemwegserkrankungen ablesen lässt, findet sich SARS-CoV-2 derzeit in jeder fünften eingesandten Probe. Nur der Anteil von Rhinoviren, einfachen Erkältungsviren, ist mit 30 Prozent noch höher. „Anders sieht es bei den schweren Atemwegserkrankungen aus, die zu einer Krankenhauseinweisung führen“, sagt Hasseli-Fräbel. Dort spielten Rhinoviren keine Rolle. In der 48. Kalenderwoche wurde bei 30 Pro-zent der intensivmedizinischen Behandlungen aufgrund von Atemwegserkrankungen COVID-19 diagnostiziert. Bei den gemeldeten SARS-CoV-2-Infektionen in der 48. Kalen-derwoche war bei 27 Prozent eine stationäre Behandlung notwendig (Stand 05.12.2023). Insgesamt wurden seit der 40. Meldewoche 2007 Todesfälle in Zusammen-hang mit einer Coronainfektion gemeldet, davon 97 Prozent bei Personen im Alter von mindestens 60 Jahren. Für diese Altersgruppe gilt entsprechend auch die Empfehlung für eine erneute Booster-Impfung. Von einem Ende der aktuellen Covid-Welle zu sprechen, sei jedoch mit Sicherheit verfrüht, die Empfehlung für Immungeschwächte, sich spätestens zwölf Monate nach dem letzten Antigenkontakt (erneut) impfen zu lassen, sei weiterhin hochaktuell.

Darüber sollte der Schutz vor anderen Infektionskrankheiten nicht vergessen werden. So zählen Rheumapatientinnen und -patienten auch zu den Risikogruppen, die sich jährlich neu gegen Grippe impfen lassen sollten. „Dafür ist jetzt genau der richtige Zeitpunkt“, sagt DGRh-Expertin Hasseli-Fräbel. Es zeigte sich in der 48. Kalenderwoche bereits ein Aufwärtstrend der Infektionszahlen und bei 21 Prozent der gemeldeten Grippekranken war eine stationäre Behandlung notwendig (Stand 05.12.2023). Die neun gemeldeten Verstorbenen in Zusammenhang mit der Grippe waren mindestens 60 Jahre alt (seit der 40. Kalenderwoche). Die Zahl der registrierten Influenza-Infektionen liege derzeit noch auf einem sehr niedrigen Niveau, der Beginn der Grippewelle, der meist um den Jahres-wechsel herum liege, zeichne sich noch nicht ab. Bei einer zeitnahen Impfung bleibt dem Immunsystem damit noch genug Zeit, um einen guten Grippeschutz aufzubauen. Älteren und/oder immungeschwächten Personen empfiehlt die STIKO darüber hinaus, sich gegen Pneumokokken impfen zu lassen, die häufigsten bakteriellen Erreger von Lungenentzündungen. In die diesbezügliche Empfehlung wurde in diesem Herbst auch die Vakzine PCV20 neu aufgenommen, die einen besonders guten und breiten Schutz vor 20 unter-schiedlichen Pneumokokken-Varianten vermittelt. Die Kostenübernahme über den Sprechstundenbedarf steht jedoch noch in einigen Bundesländern aus.

Wichtige Erkenntnisse dazu, wie SARS-CoV-2-Infektionen bei Menschen mit Rheuma verlaufen, stammen aus dem Covid-19-Register der DGRh, das Hasseli-Fräbel bereits früh im Verlauf der Pandemie mit initiiert hat und bis heute betreut. Es umfasst mittler-weile Daten von mehr als 7.100 Patientinnen und Patienten und bestätigt eindrucksvoll die positiven Effekte der Covid-19-Impfung. „Aus den Daten konnten wir außerdem ablesen, wie wichtig eine gute Kontrolle der rheumatologischen Grunderkrankung dafür ist, einen schweren Covid-Verlauf abzuwenden“, sagt die Münsteraner Rheumatologin. Patientinnen und Patienten sollten ihre Rheumamedikamente daher auf keinen Fall eigen-mächtig absetzen oder in ihrer Dosis verringern. Das Risiko einer Infektion und eines schweren Verlaufs kann zusätzlich gesenkt werden, wenn die entzündlich-rheumatische Erkrankung mit Rheumamedikamenten und möglichst wenig Kortison unter Kontrolle gehalten wird. Denn die Einnahme von hochdosiertem Kortison wirkt sich negativ auf den Verlauf von Infektionen aus – auch das geht aus den Registerdaten hervor. „Das Covid-19-Register der DGRh ist eines der umfangreichsten zu diesem Thema weltweit“, sagt DGRh-Präsident Christof Specker, Direktor der Klinik für Rheumatologie und Klinische Immunologie der Kliniken Essen-Mitte. „Rheumatologisch tätige Kolleginnen und Kolle-gen sind weiterhin dazu aufgerufen, hiervon regen Gebrauch zu machen und so die wissenschaftliche Arbeit des Registers zu unterstützen.“

Pressekontakt DGRh für Rückfragen:
Stephanie Priester
Pressestelle
Deutsche Gesellschaft für Rheumatologie e.V. (DGRh)
Postfach 30 11 20
70451 Stuttgart
Tel.: +49 711 8931-605
Fax: +49 711 8931-167
E-Mail: priester@medizinkommunikation.org

Quelle:
PD Dr. med. Rebecca Hasseli-Fräbel, Ein Überblick über das aktuelle Infektionsgeschehen, Vortrag, 7.11.2023

Deutsches COVID-19-Register für Patienten mit entzündlich-rheumatischer Erkrankung
https://www.covid19-rheuma.de/

Implementierung der COVID-19-Impfung in die allgemeinen Empfehlungen der STIKO 2023 (Aktualisierung Epid Bull 4/2023)
https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2023/Ausgaben/21_23.pdf?__b…

Weitere Informationen:
https://dgrh.de/Start/DGRh/Presse/Pressemitteilungen/Pressemitteilungen/2023/Pre…

(nach oben)


Automatische und nachhaltige Entfernung von Ölverschmutzungen in Gewässern durch Textilien

Forschende des ITA, der Uni Bonn und der Heimbach GmbH haben eine neuartige Methode entwickelt, mit der Ölverschmutzungen energiesparend, kostengünstig und ohne Einsatz toxischer Substanzen von Wasseroberflächen entfernt werden können. Ermöglicht wird dies durch ein technisches Textil, das in einen schwimmenden Behälter integriert wird. So können mit einem einzigen kleinen Gerät bis zu 4 L Diesel innerhalb einer Stunde zu entfernen. Dies entspricht etwa 100 m2 Ölfilm auf einer Wasseroberfläche.

Trotz dem stetigen Ausbau erneuerbarer Energien haben die weltweite Ölproduktion, der Ölverbrauch und das Risiko der Ölverschmutzung in den letzten zwei Jahrzehnten stetig zugenommen. Im Jahr 2022 belief sich die weltweite Ölförderung auf 4,4 Milliarden Tonnen! Dabei kommt es bei der Förderung, dem Transport und der Verwendung von Öl häufig zu Unfällen, die zu schweren und manchmal irreversiblen Umweltverschmutzungen und Schäden für den Menschen führen.

Es gibt verschiedene Methoden diese Ölverschmutzungen von Wasseroberflächen zu entfernen. Jedoch weisen alle Methoden verschiedene Defizite auf, die ihren Einsatz erschweren und insbesondere die Entfernung von Öl aus Binnengewässern einschränken.

Für viele technische Anwendungen gibt es unerwartete Lösungen aus dem Bereich der Biologie. Jahrmillionen der Evolution haben dazu geführt, dass die Oberflächen lebender Organismen für ihre Interaktion mit der Umwelt optimiert wurden. Lösungen, die für Materialwissenschaftler oft eher ungewohnt und schwer zu akzeptieren sind. Die langjährige Untersuchung von rund 20.000 verschiedenen Arten an der Uni Bonn zeigte, dass es eine nahezu unendliche Vielfalt an Strukturen und Funktionalitäten gibt. Einige Arten zeichnen sich besonders durch ihre hervorragende Öladsorption aus. Beispielsweise adsorbieren die Blätter des Schwimmfarns Salvinia molesta Öl sehr schnell, separieren es gleichzeitig von Wasseroberflächen und transportieren es auf ihren Oberflächen (Abbildung 1 Sekundenschnelle Adsorption eines Tropfens Altöls durch ein Blatt des Schwimmfarns Salvinia molesta, schauen Sie sich auch das Video des Phänomens an).

Die Beobachtungen inspirierten dazu, den Effekt auf technische Textilien zur Trennung von Öl und Wasser zu übertragen. Es handelt sich um ein superhydrophobes Abstandsgewirk, das industriell hergestellt werden kann und daher leicht skalierbar ist.
Das biologisch inspirierte Textil kann in eine Vorrichtung zur Öl-Wasser-Trennung integriert werden kann. Dieses gesamte Gerät wird Bionischer Öladsorber (BOA) genannt
(s. Abbildung 2: Querschnitt durch das CAD-Modell des bionischen Öladsorbers. Das Schema zeigt einen Ölfilm (rot) auf einer Wasseroberfläche (hellblau). In dem schwimmenden Behälter (grau) ist das Textil (orange) so befestigt, dass es mit dem Ölfilm in Kontakt ist und das Ende in den Behälter hineinragt. Das Öl wird durch das BOA-Textil adsorbiert und transportiert. Wie im Querschnitt dargestellt, gelangt es in den Behälter, wo es wieder freigesetzt wird und sich am Boden des Behälters ansammelt. Bitte sehen Sie sich dazu auch das Video zur Ölabsorption an Textil an).

Ausgehend von der Verunreinigung in Form eines Ölfilms auf der Wasseroberfläche funktioniert der Separations- und Sammelprozess nach den folgenden Schritten:

  • Der BOA wird in den Ölfilm eingebracht.
  • Das Öl wird vom Textil adsorbiert und gleichzeitig vom Wasser getrennt.
  • Das Öl wird durch das Textil in den Auffangbehälter transportiert.
  • Das Öl tropft aus dem Textil in den Auffangbehälter.
  • Das Öl wird bis zur Entleerung des Behälters aufgefangen.

Der Vorteil dieser neuartigen Ölabscheidevorrichtung ist, dass keine zusätzliche Energie für den Betrieb aufgewendet werden muss. Das Öl wird durch die Oberflächeneigenschaften des Textils vom umgebenden Wasser getrennt und allein durch Kapillarkräfte, auch gegen die Schwerkraft, durch das Textil transportiert. Am Ende des Textils im Sammelbehälter angekommen, desorbiert das Öl ohne weitere äußere Einwirkung allein durch die Schwerkraft. Mit dem derzeitigen Maßstab können mit einem Gerät des Bionic Oil Adsorber pro Stunde ca. 4 l Diesel von Wasser getrennt werden.

Es scheint unwahrscheinlich, dass ein funktionalisiertes Abstandsgewirk günstiger ist als ein herkömmliches Vlies, wie es üblicherweise für Ölsorptionsmittel verwendet wird. Da es sich jedoch um ein funktionelles Material handelt, müssen die Kosten im Verhältnis zur Menge des entfernten Öls stehen. Vergleicht man den Verkaufspreis des BOA-Textils mit den Verkaufspreisen verschiedener ölbindender Vliesstoffe, so ist das BOA-Textil mit 10 ct/L ca. 5 bis 13 Mal günstiger.

Insgesamt bietet das BOA-Gerät eine kostengünstige und nachhaltige Methode zur Öl-Wasser-Trennung im Gegensatz zu den gängigen Reinigungsmethoden durch die folgenden Vorteile:

  • Es ist kein zusätzlicher Energiebedarf, wie bei Ölskimmern, notwendig.
  • Es werden keine giftigen Substanzen in das Gewässer eingebracht, wie z.B. bei Öl-Dispersionsmitteln.
  • Die Textilien und Geräte können mehrfach wiederverwendet werden.
  • Es verbleibt kein Abfall im Gewässer.
  • Es ist kostengünstig in Bezug auf die Menge des entfernten Öls.

Das Team der Forschenden vom ITA, der Uni Bonn und der Heimbach GmbH konnte nachweisen, dass die neuartige biomimetische BOA-Technologie für eine selbstgesteuerte Abtrennung und automatische Sammlung von Ölfilmen einschließlich ihrer vollständigen Entfernung aus dem Wasser überraschend effizient und nachhaltig ist. Darüber hinaus kann sie in verschiedenen verwandten Abscheidungsprozessen eingesetzt werden. Derzeit wird das Produkt so weiterentwickelt, dass es in 2-3 Jahren in den Markt eingeführt werden kann.

Wissenschaftliche Ansprechpartner:
Leonie Beek, M. Eng.,
Institut für Textiltechnik der RWTH Aachen,Otto-Blumenthal-Str. 1, Tel.: +49 241 80-23288
Tel.: +49 241 80-23288, leonie.beek@ita.rwth-aachen.de

Originalpublikation:
Beek, L.; Barthlott, W.; Mail, M.; Klopp, K.; Gries, T. Self-Driven Sustainable Oil Separation from Water Surfaces by Biomimetic Adsorbing and Transporting Materials. Separations 2023, 10, 592. https://doi. org/10.3390/separations10120592

Weitere Informationen:
https://www.ita.rwth-aachen.de/cms/ita/das-institut/aktuelle-meldungen/~bfbijr/automatische-und-nachhaltige-entfernung/

(nach oben)


Mit Ton gegen Ewigkeitsgifte: TU Freiberg klärt Grundlagen für innovativen PFAS-Filter aus Ton und organischen Zusätzen

Für Industrie-Abfälle erhältliche PFAS-Filter bestehen meist aus Aktivkohle (PFAS=per- und polyfluorierte Alkylverbindungen). Da diese vergleichsweise teuer ist, sucht die Forschung nach alternativen Filtermaterialien für die sogenannten „Ewigkeitsgifte“, deren gefährliche Rückstände sich in der Umwelt nur sehr langsam abbauen. Ein Team der TU Bergakademie Freiberg schlägt jetzt einen mit organischen Substanzen modifizierten Ton aus Bentonit als möglichen PFAS-Filter vor. Die Ergebnisse erscheinen in der in der aktuellen Ausgabe der Fachzeitschrift „Chemie Ingenieur Technik“.

In Laborversuchen erreichte das Team um Chemie-Professor Martin Bertau mit dem innovativen Material eine Filter-Leistung von bis zu 95 Prozent an Perfluorheptansäure (PFHpA). PFHpA ist ein prominenter Vertreter der PFAS und wird bei Umweltanalysen häufig nachgewiesen. „Die sogenannten Organoclays sind für ihre gute Filterwirkung bekannt. Neu untersucht haben wir die Modifizierung des Materials mit Hilfe von organischen Zusätzen, die darauf spezialisiert sind, die PFAS „einzufangen““, erklärt Prof. Martin Bertau.

Wie in einen Kartenstapel können die Chemikerinnen und Chemiker im Labor organische Zusätze zwischen die aufgespalteten Ton-Schichten einbringen. „Die organischen Bestandteile schauen dabei so aus den Ton-Bestandteilen heraus, dass die Kohlenstoff-Atome mit den PFAS wechselwirken können“, veranschaulicht Paul Scapan, der die Tonfilter für seine Doktorarbeit untersucht. „Diese Kohlenstoff-Atome haben die Fähigkeit, sich die PFAS-Moleküle herauszugreifen und zu binden.“ Der Organoclay mit den gebundenen PFAS kann dann bei mindestens 1.200 Grad verascht werden, wobei die Schadstoffe vollständig zerstört werden.

Umweltfreundlich und recyclingfähig
Doktorand Paul Scapan untersucht nun, welche biologisch gut abbaubaren Moleküle die Greifzangen-Funktion für die verschiedenen PFAS am besten wahrnehmen können. Sind die Zusätze umweltverträglich, kann der veraschte Ton-Filter vollständig wiederverwendet werden. „Das Material eignet sich beispielsweise für eine Weiterverarbeitung zu Geopolymeren als umweltfreundliche Zementalternative“, so Prof. Martin Bertau.

Welche Vorteile die Organoclays noch haben könnten
Mit den verschiedenen Zusätzen kann die Filterwirkung der innovativen Organoclays gezielt auf zahlreiche per- und polyfluorierte Alkylverbindungen zugeschnitten werden. „Im Vergleich zu derzeit auf dem Markt verfügbaren Filtern aus Aktivkohle würde sich bei den Organoclays bezogen auf die PFAS-Eliminierungsleistung rund ein Zehntel der Kosten ergeben, so unser aktueller Wissensstand“, berechnet Paul Scapan.

Hintergrund: Wo PFAS überall eingesetzt werden
PFAS steht für per- und polyfluorierte Alkylsubstanzen. Bei den industriell hergestellten organischen Verbindungen werden Wasserstoff- durch Fluoratome ersetzt. Das macht sie extrem widerstandsfähig. Mehr als 10.000 feste, flüssige und gasförmige Chemikalien gehören zu den PFAS, wobei einige krebserregend und gesundheitsschädlich sind. Eingesetzt werden sie beispielweise in Imprägnierungsspray, Funktionskleidung, Medizinprodukten oder Anti-Haft-Beschichtungen.

Weltweit werden gefährliche Rückstände von PFAS in der Umwelt nachgewiesen, die sich in Wasser, Böden, Pflanzen und Tieren ansammeln. PFAS finden sich selbst in den Polarregionen – und im Blut von Kindern. Auch mit einem geplanten künftigen Verbot von PFAS in der EU sind diese Stoffe heute schon in die Umwelt gelangt und bauen sich dort nur sehr langsam ab. EU-weit wurden in den vergangenen Jahren bereits die ersten Stoffe der Chemikaliengruppe verboten. In der Diskussion steht nun ein Verbot aller PFAS, das derzeit bei der Europäischen Chemikalienagentur ECHA erarbeitet wird.

Wissenschaftliche Ansprechpartner:
Prof. Martin Bertau, martin.bertau@chemie.tu-freiberg.de

Originalpublikation:
https://onlinelibrary.wiley.com/doi/full/10.1002/cite.202300097

(nach oben)


Digitale Lehrmaterialen für Energiewende und Betriebswirtschaft fertiggestellt

Freie Lehr- und Lernmaterialien für die Fächer Betriebswirtschaft und Energieinformatik sowie das Datemanagement in der Energieforschung: Zu diesen drei Themenfeldern haben Mitarbeitende des C3L – Center für lebenslanges Lernen der Universität Oldenburg gemeinsam mit Partnern sogenannte Open Educational Resources erstellt. Die Materialien sind über das niedersächsische Portal Twillo kostenfrei zugänglich.

Energieinformatik, Datenmanagement für die Energieforschung und Betriebswirtschaftslehre – für diese drei Themenfelder haben Lehrende mit Didaktikerinnen und Didaktikern der Universität Oldenburg freie Lehr- und Lernmaterialien erstellt. Dabei wechseln sich Texte, Podcasts und interaktive Elemente ab. Die sogenannten Open Educational Resources (OER) wurden am C3L – Center für lebenslanges Lernen der Universität Oldenburg gemeinsam mit Partnern erstellt und sind über das niedersächsische Portal Twillo zugänglich. Praxisrelevantes Wissen wird so für alle Interessierten kostenfrei verfügbar.

Mit den Materialien zur Energieinformatik vermittelt Prof. Dr. Astrid Nieße vom Department für Informatik Grundlagenwissen zu Energiesystemen, energiewirtschaftlich relevanten Akteuren und zu aktuellen Forschungsthemen wie der Anwendung von Künstlicher Intelligenz. An Hochschulen lassen sich die Materialien in Studiengängen wie Informatik, Energietechnik, Elektrotechnik, Maschinenbau und Wirtschaftsingenieurwesen einsetzen. An den Schnittstellen dieser Fachgebiete zur Energieinformatik wächst der Bedarf an Fachkräften, die zum Beispiel Geschäftsmodelle für Elektromobilität, Software für dezentrale Energieanlagen oder Prognoseverfahren für Energieerzeugung und -verbrauch entwickeln.

Die knapp 200 einzelnen Lehr- und Lernmaterialien für die Wirtschaftswissenschaften und Betriebswirtschaftslehre setzen auf einen vielfältigen didaktischen Mix. Dazu gehören Grafiken und Texte, exemplarische Tabellenkalkulationen und Quizelemente. Sie behandeln das Human Resources Management, Organisation sowie Finanzierung und Investition. Diese Themen sind Bestandteil fast jeden betriebs- oder wirtschaftswissenschaftlichen Studiengangs. Somit kann die Materialsammlung bundesweit eingesetzt werden. Sie eignet sich sowohl für die Lehre als auch für das Selbstlernen. An dem Projekt waren die Jade Hochschule und die Fakultät für Wirtschafts- und Rechtswissenschaften der Universität Oldenburg beteiligt.

Der englischsprachige Kursus zum Forschungsdatenmanagement vermittelt, wie sich Daten über die Grenzen von Forschungsprojekten und wissenschaftlichen Instituten hinweg langfristig nutzen lassen. Sie sollen auffindbar, erreichbar, interoperabel und wiederverwendbar sein. Damit können Datensätze in verschiedenen Kontexten wiederholt genutzt werden und müssen nicht aufwendig neu erstellt werden. Die Materialien richten sich insbesondere an Nachwuchsforschende, die sich zum Beispiel mit vernetzten Energiesystemen, Speichertechnologien oder Solar- und Windenergie beschäftigen.
Das Projekt zum Forschungsdatenmanagement wurde vom Energieforschungszentrum Niedersachsen (EFZN) mit rund 25.000 Euro unterstützt. Das Niedersächsische Wissenschaftsministerium (MWK) hat die beiden Projekte zur Energieinformatik und zur Betriebswirtschaftslehre mit rund 137.000 Euro gefördert.

Wissenschaftliche Ansprechpartner:
Annabelle Jandrich, Tel. 0441 798-4643, E-Mail: annabelle.jandrich@uol.de

Weitere Informationen:
https://uol.de/c3l/forschung

(nach oben)


So sieht die Weihnachtsgans 2033 aus

Ob tierfreundlich und regional oder aus kultiviertem Fleisch – knusprig wird sie in jedem Fall

Lebensmittelbiotechnologin Prof. Dr. Cornelia Rauh von der TU Berlin wirft im vorweihnachtlichen Interview einen Blick in die Zukunft unserer Festtagsbraten und verrät, welche Weihnachtsessen heute schon vegan aufgetischt werden können. Dabei erklärt sie auch, warum das Mitte November in Italien beschlossene Verbot von kultiviertem Fleisch ein wichtiges Signal ist

Wenn die dringend notwendige Ernährungswende gelingt, werden Weihnachtsgänse in zehn Jahren unter wesentlich besseren Bedingungen als heute üblich groß werden und von einem Betrieb in der Nähe stammen. Für die steigende Zahl an Vegetarierinnen und Veganerinnen stehen 2033 aber auch Fleischersatzprodukte zur Verfügung, die einen sehr ähnlichen Genuss möglich machen, ist Rauh überzeugt. Wichtig dafür wären allerdings noch weitere Innovationen bei der Produktion von kultiviertem Fleisch, an denen Cornelia Rauh bereits arbeitet und die sie im Interview erklärt.

Weiterführende Informationen:
Interview mit Prof. Dr. Cornelia Rauh https://www.tu.berlin/go245722/

„Wir müssen bei unserer Forschungsarbeit die Wünsche, Vorlieben und Gefühle der Verbraucherinnen mit einbeziehen“, sagt Rauh. Sonst könne die Forschung in die falsche Richtung laufen. In einem von der Berlin University Alliance, dem Verbund der drei großen Berliner Universitäten und der Charité, geförderten Projekt wird dieser transdisziplinäre Ansatz bereits umgesetzt. So kooperiert Rauh unter anderem mit Innovationsforscherinnen der FU Berlin. In einem sogenannten Innovationsradar wird dabei untersucht, wie technische Entwicklungen sich auf die Gesellschaft und den Zusammenhalt untereinander auswirken können.

Kontakt:
Prof. Dr. Cornelia Rauh
Fachgebiet Lebensmittelbiotechnologie und -prozesstechnik
Technische Universität Berlin
Tel.: +49 (0)30 314-71254
E-Mail: cornelia.rauh@tu-berlin.de

(nach oben)


Wie kann Europa seine Natur wiederherstellen? Das EU-Parlament stimmt Anfang 2024 ab

Anfang 2024 wird das Europäische Parlament endgültig über das „Gesetz zur Wiederherstellung der Natur“ abstimmen. Die international einzigartige und heiß diskutierte Verordnung hat das Ziel, den Verlust der biologischen Vielfalt in Europa aufzuhalten und umzukehren. Ein internationales Team von Wissenschaftler:innen unter Leitung der Universität Duisburg-Essen hat untersucht, wie erfolgsversprechend dieses Gesetz ist. Der Artikel wurde am 14.12.2023 in der Fachzeitschrift Science veröffentlicht.

Das „Gesetz zur Wiederherstellung der Natur“ (Nature Restoration Law, NRL) verpflichtet die EU-Mitgliedstaaten, bis 2030 wirkungsvolle Renaturierungsmaßnahmen zu ergreifen: bis 2030 auf mindestens 20 Prozent der Land- und Meeresflächen und bis 2050 in allen Ökosystemen, die einer Wiederherstellung bedürfen. Zentrale Punkte betreffen die Wiedervernässung entwässerter Moore sowie die Erholung von Bestäuberpopulationen. Das NRL hat im EU-Parlament bereits mehrere Hürden genommen: Zuletzt wurde es vom Umweltausschuss des EU-Parlaments gebilligt, nachdem Delegationen des Parlaments und des Rates den endgültigen Text verhandelt hatten. Für Anfang 2024 ist nun die Abstimmung des Europäischen Parlaments über das NRL geplant.

Aber wird die Verordnung ihre Ziele wirklich erreichen? Die Autor:innen der Studie sind ausgewiesene Expert:innen, die große europäische Projekte zur Renaturierung und zur biologischen Vielfalt leiten. Sie haben die Erfahrungen mit anderen europäischen Umweltrichtlinien und -strategien analysiert und darauf aufbauend die Erfolgsaussichten der NRL bewertet.

„Das NRL verfolgt viele erfolgsversprechende Ansätze und verdeutlicht, dass die EU Kommission von Erfahrungen mit ähnlichen Rechtsvorschriften gelernt hat. Ein zentraler Aspekt dabei: Mit der Konstruktion des NRL umgeht die EU-Kommission mehrere Fallstricke, die die Umsetzung europäischer Politiken und Verordnungen oft behindern“, sagt Prof. Dr. Daniel Hering von der Universität Duisburg-Essen, Erstautor der Studie. „Die Verordnung definiert klare Ziele und Zeitpläne und legt die Umsetzungsschritte fest. Sie muss zudem nicht, wie eine Richtlinie, formal in nationales Recht umgesetzt werden und spart damit Zeit.“ Dennoch wird die konkrete Umsetzung auf der Ebene der Mitgliedsstaaten für den Erfolg des NRL entscheidend sein. „Während die Ziele des EU-Gesetzes genau definiert und verbindlich sind, müssen die Schritte zu ihrer Erreichung im Detail von den europäischen Ländern entschieden und durchgeführt werden, und die meisten von ihnen sind freiwillig“, erläutert Prof. Dr. Josef Settele vom Helmholtz-Zentrum für Umweltforschung (UFZ), einer der Autoren der Studie.

Ein weiterer erfolgsentscheidender Aspekt: Die Zusammenarbeit der Politik mit den Landnutzer:innen, insbesondere mit der Landwirtschaft. „Die intensive Landwirtschaft ist nach wie vor eine der Hauptursachen für den Verlust der biologischen Vielfalt in Europa“, ordnet der Senior-Autor Guy Pe’er ein. „Aber die Ziele der Landwirtschaft und der Renaturierung könnten miteinander verknüpft werden, so dass beide Seiten davon profitieren können. Die Landwirtschaft profitiert direkt von gesunden Böden und sich erholenden Bestäuberpopulationen sowie von einem verbesserten Landschaftswasserhaushalt – das zeigt, wie sich die Ziele des NRL mit einem Nutzen für die Landwirtschaft verbinden lassen.“ Die Autor:innen kommen zu dem Schluss, dass ein Einsatz von Fördermitteln der Gemeinsamen Agrarpolitik der EU auch zur Zielerreichung des NRL entscheidend sein wird: eine in Fachwelt und Anwendung kontrovers diskutierte These.

Insgesamt bewerten die Autor:innen das NRL positiv. Sie machen jedoch deutlich, dass eine ehrgeizige nationale Umsetzung und die Zusammenarbeit mit Wirtschaftssektoren wie der Landwirtschaft letztlich über den Erfolg der Renaturierung in Europa entscheiden werden.

Redkation und Pressekontakt:
Astrid Bergmeister, Pressesprecherin und Leiterin Ressort Presse, Tel. 0203/37 9-2430, astrid.bergmeister@uni-due.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniel Hering, Lehrstuhl für Aquatische Ökologie,
Universität Duisburg-Essen. Telefon: ++49 201 1833084, daniel.hering@uni-due.de

Dr. Guy Pe’er, Helmholtz-Zentrum für Umweltforschung (UFZ) und Deutsches Zentrum für Integrative Biodiversitätsforschung (iDiv), guy.peer@ufz.de

Originalpublikation:
www.science.org/doi/10.1126/science.adk1658

(nach oben)


Mit künstlicher Intelligenz Patientinnen und Patienten mit Herzschwäche besser versorgen

Die Carl-Zeiss-Stiftung fördert ein gemeinsames Projekt der Medizinischen Fakultät Heidelberg und der Universitätsmedizin Mainz mit fünf Millionen Euro. Das interdisziplinäre Team will mittels umfangreicher Datenanalysen durch Künstliche Intelligenz individualisierte Therapien für Betroffene mit Herzschwäche entwickeln.​ Teil des Projektes ist eine Studie zur Robotik-unterstützten Bewegungstherapie. Gemeinsame Pressemitteilung des Universitätsklinikums Heidelberg und der Universitätsmedizin Mainz

Herzschwäche ist nicht gleich Herzschwäche: Zahlreiche mögliche Ursachen und Begleiterkrankungen bestimmen den individuellen Verlauf, lassen die Prognose schwer abschätzen und bedingen teils unbefriedigende Therapieoptionen. Juniorprofessorin Dr. Sandy Engelhardt, Medizinische Fakultät Heidelberg der Universität Heidelberg, und Prof. Dr. Philipp Wild, Universitätsmedizin Mainz der Johannes Gutenberg-Universität Mainz, möchten mit ihrem interdisziplinären Projektteam die Versorgung und Behandlung für die Patientinnen und Patienten mit Herzschwäche verbessern. Die Carl-Zeiss-Stiftung (CZS) fördert das Projekt mit ihrem Programm „CZS Durchbrüche“ ab Juli 2024 für sechs Jahre mit insgesamt fünf Millionen Euro. Ziel des Förderprogramms ist es, etablierte Forschungsschwerpunkte mit hoher Relevanz in Baden-Württemberg, Rheinland-Pfalz und Thüringen weiterzuentwickeln und international auszubauen. Projektpartner sind Arbeitsgruppen der Universitätsklinika sowie der Universitäten Heidelberg und Mainz aus den Fachbereichen Kardiologie, Bioinformatik, Sportmedizin, Epidemiologie, Medizintechnik, Pathologie und Rechtswissenschaften. Die Projektpartner sind zudem über das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) miteinander vernetzt.

Gesundheitsdaten von Tausenden Patienten trainieren die KI
Die Wissenschaftlerinnen und Wissenschaftler wollen eine Künstliche Intelligenz (KI) mit den umfassenden Gesundheitsdaten von mehreren tausend Patientinnen und Patienten mit Herzschwäche trainieren, um bisher verborgene Zusammenhänge zu erkennen und in personalisierte Therapieempfehlungen einfließen zu lassen. Als konkretes Anwendungsbeispiel für eine KI-gestützte Therapieempfehlung soll eine Bewegungstherapie-Studie angeboten werden, bei der die Teilnehmenden in ihrem Training von einem individuell angepassten Exoskelett unterstützt werden.

Die Patientengruppe, um die es im Projekt geht, leidet an einer häufigen Form der chronischen Herzschwäche, bei der die linke Herzkammer zunehmend versteift, aber noch ausreichende Mengen Blut ausstoßen kann (erhaltene Ejektionsfraktion). Unbehandelt kann dies langfristig zu Herzversagen führen. Derzeit gibt es keine einheitlichen medikamentösen oder operativen Therapien, die die Veränderungen des Herzmuskels rückgängig machen und die Prognose der Betroffenen verbessern können.

Viele verschiedene Faktoren beeinflussen den Krankheitsverlauf und das Therapieansprechen. Daher soll nun eine „multi-modale“ KI in der Fülle der Kombinationsmöglichkeiten nach wiederkehrenden Mustern und möglichen Zusammenhängen suchen, um Untergruppen mit möglichst einheitlichem Krankheitsverlauf zu identifizieren. „Multi-modal“ bedeutet, dass Patientendaten aus ganz unterschiedlichen Quellen zusammengeführt und als Trainingsmaterial für die KI verwendet werden. Dabei handelt es sich einerseits um klassische Patientendaten wie Alter, Geschlecht, Vorerkrankungen und Blutwerte, aber auch um digitale Daten aus der Bildgebung, Gewebeanalysen und – falls vorhanden – genetische Informationen. „Die medizintechnischen und bioinformatischen Fortschritte, insbesondere in der maschinellen Erhebung und Analyse genetischer Daten, erlauben es uns, Patientinnen und Patienten auf Mikro- und Makroebene individuell zu charakterisieren“, erläutert Projektsprecherin Professorin Sandy Engelhardt, Arbeitsgruppenleiterin an den Kliniken für Herzchirurgie sowie für Kardiologie, Angiologie und Pneumologie des Universitätsklinikums Heidelberg (UKHD).
Wer profitiert von einer Bewegungstherapie?
„In unserem Projekt geht es dabei konkret um die Frage, welche Betroffenen aufgrund welcher Merkmalskombination voraussichtlich von einer Bewegungstherapie profitieren werden. Wir hoffen, dass unser systemmedizinischer Ansatz mit vielen molekularen Daten es uns ermöglichen wird, den Verlauf der Erkrankung und die Mechanismen für den Erfolg einer Therapie besser zu verstehen“, ergänzt Professor Philipp Wild, Leiter der Präventiven Kardiologie und Präventiven Medizin im Zentrum für Kardiologie der Universitätsmedizin Mainz.

Wer an Herzschwäche leidet, kommt schnell in Atemnot und ist weniger leistungsfähig. Viele Betroffene vermeiden daher Anstrengungen und sind auch sportlich nicht aktiv, was wiederum ihre Herzgesundheit weiter verschlechtert. Die in der Studie angebotene Bewegungstherapie begegnet diesem Problem, indem die Teilnehmenden in ihrer körperlichen Aktivität von einem sogenannten Exosuit unterstützt werden, der von einem Team um Professor Lorenzo Masia, Leiter der Abteilung „Biorobotik und Medizintechnik“ am Institut für Technische Informatik der Universität Heidelberg, konzipiert wurde. Ähnlich einem Außenskelett werden die Roboterelemente während des Trainings beispielsweise an Armen, Beinen und Rumpf angelegt, übernehmen einen – flexibel einstellbaren – Teil des nötigen Kraftaufwands und steigern so die Mobilität. Das Bewegungsprogramm wird von Teams der sportmedizinischen Abteilungen der beiden Universitätsklinika entwickelt und betreut.

Während und nach Abschluss des Trainingsprogramms bewerten die Wissenschaftlerinnen und Wissenschaftler wiederholt Verbesserungen der Lebensqualität ebenso wie Effekte auf molekularer bis zur makroskopischen Ebene, was wiederum in das KI-System einfließt. „Wir erhoffen uns durch die KI-Unterstützung, zukünftig Therapien sehr viel gezielter als bisher auswählen und auf ihren Nutzen hin bewerten zu können“, so Professorin Engelhardt.

Über die Carl-Zeiss-Stiftung
Die Carl-Zeiss-Stiftung hat sich zum Ziel gesetzt, Freiräume für wissenschaftliche Durchbrüche zu schaffen. Als Partner exzellenter Wissenschaft unterstützt sie sowohl Grundlagenforschung als auch anwendungsorientierte Forschung und Lehre in den MINT-Fachbereichen (Mathematik, Informatik, Naturwissenschaften und Technik). 1889 von dem Physiker und Mathematiker Ernst Abbe gegründet, ist die Carl-Zeiss-Stiftung eine der ältesten und größten privaten wissenschaftsfördernden Stiftungen in Deutschland. Sie ist alleinige Eigentümerin der Carl Zeiss AG und SCHOTT AG. Ihre Projekte werden aus den Dividendenausschüttungen der beiden Stiftungsunternehmen finanziert.

Wissenschaftliche Ansprechpartner:
Juniorprofessorin Dr. Sandy Engelhardt, Medizinische Fakultät Heidelberg der Universität Heidelberg
Prof. Dr. Philipp Wild, Universitätsmedizin Mainz der Johannes Gutenberg-Universität Mainz

Weitere Informationen:
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/mu…

(nach oben)


Der Duft der Wälder – ein Risiko fürs Klima?

Leipzig. Pflanzen geben Duftstoffe ab, um zum Beispiel miteinander zu kommunizieren, Fressfeinde abzuwehren oder auf veränderte Umweltbedingungen zu reagieren. Ein interdisziplinäres Forschungsteam der Universität Leipzig, des Leibniz-Instituts für Troposphärenforschung (TROPOS) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) hat in einer Studie untersucht, wie die Artenvielfalt den Ausstoß dieser Stoffe beeinflusst. Erstmals konnte so gezeigt werden, dass artenreiche Wälder weniger von diesen Gasen in die Atmosphäre abgeben als Monokulturen. Bisher wurde angenommen, dass artenreiche Wälder mehr Emissionen abgeben.

Diese Annahme konnte das Leipziger Team jetzt experimentell widerlegen. Ihre Untersuchung ist in der Fachzeitschrift „Communications Earth & Environment“ erschienen.

Pflanzendüfte wirken bis in die Atmosphäre
Pflanzen produzieren eine Vielzahl organischer Verbindungen, um miteinander und mit ihrer Umwelt zu kommunizieren. Dabei handelt es sich um so genannte biogene flüchtige organische Verbindungen (BVOCs), wie zum Beispiel Terpene, die den Pflanzen ihren charakteristischen Duft geben und bei der Abwehr von Schädlingen helfen. Diese Stoffe wirken nicht nur als chemische Signale, sondern spielen auch eine Rolle bei der Regulation des Klimas, der Luftqualität und der Atmosphärenchemie. Denn aus diesen BVOCs, die die Pflanzen ausstoßen, entstehen in der Luft biogene sekundäre organische Aerosole (BSOAs), also Partikel in der Atmosphäre. Diese Aerosole haben wiederum Auswirkungen auf die Luftqualität, die Wolkenbildung und auf das Klima.

MyDiv-Experiment: Messungen in Parzellen mit verschiedenen Baumarten
Doch wie verändern sich Ausstoß und Konzentration von Aerosolen in der Luft, wenn die Artenvielfalt abnimmt oder die Pflanzen durch Trockenheit in Stress geraten? Diesen Fragen ist das interdisziplinäre Team um die Wissenschaftler:innen Dr. Anvar Sanaei und Prof. Dr. Alexandra Weigelt von der Universität Leipzig sowie weitere Forscher:innen des TROPOS und des iDiv nachgegangen. Die passenden Daten haben die Wissenschaftler:innen auf der MyDiv-Versuchsfläche für Baumvielfalt gewonnen. Auf der rund zwei Hektar großen Fläche bei Bad Lauchstädt in Sachsen-Anhalt wachsen auf 80 Parzellen 10 Baumarten in Monokulturen oder unterschiedlich artenreichen Mischungen zusammen. Für die Studie nahm das Team knapp zwei Wochen lang Luftproben aus zehn der 11×11 Meter großen Parzellen, auf denen vier Baumarten (Vogelbeere, Vogelkirsche, Gemeine Esche und Bergahorn) in unterschiedlichen Kombinationen wachsen.

Weniger Pflanzendüfte, weniger Risiken
„Vor Ort haben wir BVOC- und BSOA-Verbindungen in zehn Parzellen mit unterschiedlicher Baumvielfalt gemessen. Unsere Ergebnisse zeigen, dass die Menge der BVOC in den meisten Fällen bei höherer Biodiversität abnimmt“, sagt Dr. Anvar Sanaei, Erstautor der Studie und Postdoktorand am Institut für Biologie der Universität Leipzig. Schätzungen gehen davon aus, dass sich die globalen BVOC-Emissionen aus der Vegetation durch den Klimawandel und höhere Temperaturen um etwa ein Drittel erhöhen werden. „Damit sind große Unsicherheiten verbunden: Aus diesen Vorläufergasen können sich Partikel bilden, die wiederum zu Wolkentropfen werden können. Ob die BVOCs dann am Ende die Atmosphäre eher kühlen oder eher erwärmen, hängt von sehr vielen Faktoren ab und ist schwer vorherzusagen. Mehr Artenvielfalt und weniger BVOCs würden aber die Veränderungen in der Atmosphäre verringern und damit auch die Risiken des Klimawandels – einschließlich veränderten Niederschlägen“, fügt Prof. Dr. Hartmut Herrmann vom TROPOS hinzu. Wie schwer es ist, diese komplexen Prozesse im Freiland zu untersuchen, zeigt der zweite Teil der Studie: Für biogene sekundäre organische Aerosole (BSOA) konnte das Team keine eindeutigen Zusammenhänge feststellen, was unter anderem an den Einflüssen aus der Umgebung liegen könnte, denn die Umwandlung der BVOC-Gase in die BSOA-Partikel dauert eine gewisse Zeit. Mit knapp zwei Wochen war die Messkampagne außerdem vergleichsweise kurz. Das Team will die Untersuchungen daher fortsetzen – auch weil viele Fragen noch offen sind.

Mehr Stress, mehr Pflanzendüfte?
Bisher wurde angenommen, dass artenreiche Wälder und Wiesen mehr gasförmige Stoffe an die Atmosphäre abgeben als artenarme. Als Ursache wurde vermutet, dass artenreiche Systeme mehr Biomasse produzieren, weil sie Ressourcen wie Licht, Wasser und Nährstoffe effizienter nutzen können. Mehr Biomasse bedeutet dann auch mehr Blattoberfläche, von denen die Gase abgegeben werden können. „Unsere neuen Ergebnisse sprechen aber eher dafür, dass es daran liegen könnte, dass die Pflanzen in artenreichen Wäldern und Wiesen weniger Stress haben. Sie leiden unter weniger Fressfeinden, weniger Hitze oder Trockenheit als in Monokulturen. Aber das ist bisher nur eine Hypothese. Um besser zu verstehen, wie die Biodiversität die Atmosphäre beeinflusst, sind viele weitere Untersuchungen nötig, bei denen wir uns das Mikroklima, den ober- und unterirdischen Stress für die Pflanzen und viele andere Faktoren genauer per Langzeitexperiment ansehen müssen“, erklärt Prof. Dr. Nico Eisenhauer vom iDiv.

Biologie + Klimaforschung + Chemie = Team Zukunft
Das Besondere an der Studie ist, dass verschiedene Disziplinen hier zusammengearbeitet haben und atmosphärische und biologische Messungen kombiniert wurden. „Nur mit dem Wissen aus Biologie, Klimaforschung und Atmosphärenchemie können wir entschlüsseln, wie die Emissionen von Pflanzen mit der Biodiversität und der Atmosphäre zusammenhängen. Unsere Studie unterstreicht die Notwendigkeit von Experimenten auf lokaler und regionaler Ebene sowie die Entwicklung von Modellen, um unser Verständnis der Biosphäre-Atmosphäre-Wechselwirkungen zu verbessern“, sagt Studien-Letztautorin Prof. Dr. Alexandra Weigelt vom Institut für Biologie. Zudem sei es ein Paradebeispiel für das Forschungsvorhaben „Breathing Nature“, für das die Universität im Mai eine Skizze im Rahmen der Exzellenzstrategie eingereicht hat. Denn über die Fächer- und Institutionsgrenzen hinweg, könnten Antworten auf drängende Fragen unserer Zeit gefunden werden.
Katarina Werneburg / Tilo Arnhold

Publikation:
Anvar Sanaei, Hartmut Herrmann, Loreen Alshaabi, Jan Beck, Olga Ferlian, Khanneh Wadinga Fomba, Sylvia Haferkorn, Manuela van Pinxteren, Johannes Quaas, Julius Quosh, René Rabe, Christian Wirth, Nico Eisenhauer & Alexandra Weigelt: Changes in biodiversity impact atmospheric chemistry and climate through plant volatiles and particles. Commun Earth Environ 4, 445 (2023). https://doi.org/10.1038/s43247-023-01113-9

Die Studie wurde gefördert durch das Sächsische Staatsministerium für Wissenschaft, Kultur und Tourismus (SMWK; 3-7304/35/6-2021/48880), die Europäische Union (ACTRIS-IMP (871115), ATMO-ACCESS (101008004) und ACTRIS-D (01LK2001A)), dem Europäischen Forschungsrat (ERC) im Rahmen des Forschungs- und Innovationsprogramms Horizon 2020 der Europäischen Union (Grant Agreement No. 677232) und die Deutsche Forschungsgemeinschaft (DFG; via Gottfried Wilhelm Leibniz-Preis (Ei 862/29-1) und Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig (FZT 118, 202548816)).

Links:
Breathing Nature
https://www.uni-leipzig.de/forschung/exzellenz-in-der-forschung/breathing-nature
MyDiv Experiment
https://www.idiv.de/de/research/platforms-and-networks/mydiv.html
TROPOS-Abteilung Chemie der Atmosphäre
https://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere
Biogenes Aerosol
https://www.tropos.de/institut/abteilungen/modellierung-atmosphaerischer-prozess…

Kontakte:
Anvar Sanaei
Wiss. Mitarbeiter, Spezielle Botanik und funktionelle Biodiversität, Universität Leipzig
Telefon: +49-341-97-38587
https://www.lw.uni-leipzig.de/personenprofil/mitarbeiter/ph-d-anvar-sanaei
und
Prof. Dr. Alexandra Weigelt
Professorin, Spezielle Botanik und funktionelle Biodiversität, Universität Leipzig
Telefon: +49-341-97-38594
https://www.lw.uni-leipzig.de/personenprofil/mitarbeiter/prof-dr-alexandra-weige…
und
Prof. Dr. Hartmut Herrmann
Leiter der Abteilung Chemie der Atmosphäre, Leibniz-Institut für Troposphärenforschung (TROPOS)
Telefon: +49-341-2717-7024
https://www.tropos.de/institut/ueber-uns/mitarbeitende/hartmut-herrmann

oder
Medienredaktion, Stabsstelle Universitätskommunikation, Universität Leipzig
Tel.: +49-341-97-35025
https://www.uni-leipzig.de/universitaet/service/medien-und-kommunikation
und
Dr. Volker Hahn / Kati Kietzmann, Medien und Kommunikation, Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Tel.: +49-341-97-33154, -39222
https://www.idiv.de/de/gruppen-und-personen/zentrales-management/medienservice.h…
und
Tilo Arnhold, Öffentlichkeitsarbeit, Leibniz-Institut für Troposphärenforschung (TROPOS),
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 97 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler.
Das Finanzvolumen liegt bei 2 Milliarden Euro. Finanziert werden sie von Bund und Ländern gemeinsam. Die Grundfinanzierung des Leibniz-Instituts für Troposphärenforschung (TROPOS) wird vom Bundesministerium für Bildung und Forschung (BMBF) und dem Sächsischen Staatsministerium für Wissenschaft und Kunst (SMWK) getragen. Das Institut wird mitfinanziert aus Steuermitteln auf Grundlage des vom Sächsischen Landtag beschlossenen Haushaltes.
http://www.leibniz-gemeinschaft.de
https://www.bmbf.de/
https://www.smwk.sachsen.de/

Wissenschaftliche Ansprechpartner:
siehe Haupttext
Originalpublikation:
siehe Haupttext

Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/der-duft-der-waelder-…

(nach oben)


Stromampel-App zeigt an: So grün ist Europas Strommix

Viele Besitzerinnen und Besitzer von Elektroautos, Wärmepumpen oder Smart Homes möchten einen möglichst grünen Strommix nutzen. Die »Stromampel«- App des Fraunhofer-Instituts für Solare Energiesysteme ISE, die seit heute für Android-Geräte im App Store verfügbar ist, zeigt für zwölf europäische Länder den aktuellen Anteil Erneuerbarer Energien an der Stromerzeugung sowie für 34 Länder den Day-Ahead-Börsenstrompreis an. So können Nutzerinnen und Nutzer ihre Stromverbräuche entsprechend anpassen.

Der Anteil Erneuerbarer Energien an der öffentlichen Nettostromerzeugung nimmt stetig zu, in Deutschland lag er z.B. im ersten Halbjahr 2023 im Schnitt bereits bei 57,2 Prozent. Der Anteil an der Last lag im ersten Halbjahr bei 55,9 Prozent. »Um angesichts dieses wetterabhängigen grünen Stromangebots den Bedarf an Speichern zu minimieren, ist es sinnvoll, den Stromverbrauch an das Angebot anzupassen«, erklärt Prof. Bruno Burger, Senior Scientist am Fraunhofer ISE. Sein Team hat daher die Stromampel-App entwickelt, die den aktuellen Erneuerbare-Energien-Anteil an der Last anzeigt. Diese ist im Google Play Store für Android (ab Android 8) und als direkter Download auf der Webseite Energy-Charts.info verfügbar. An einer iOS-Version (ab iOS 16.2) arbeitet das Team ebenfalls. Die App ist aktuell in den Sprachen Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar.

Grundlage der Ampel-Anzeige ist die Relation zwischen dem aktuellen Erneuerbaren-Energien-Anteil und dem durchschnittlichen Angebot aus den letzten fünf Jahren für den jeweiligen Monat (z.B. 48,0 Prozent für den Monat Juni). Liegt der aktuelle Anteil zehn Prozent unter diesem Durchschnitt, zeigt die Ampel rot an, liegt er zehn Prozent darüber, wird grün angezeigt. Die Werte dazwischen sind gelb. Die Stromdaten liegen dabei im Viertelstunden-Takt vor. Die Daten werden in der Regel jede Stunde neu geladen, um immer die aktuelle Prognose zu zeigen. Als Vorhersage stehen die Daten in aller Regel ab 19:00 Uhr für den nächsten Tag zur Verfügung.
Wer es genauer wissen möchte, kann sich auch den aktuellen und prognostizierten Beitrag der einzelnen erneuerbaren Quellen an der Last betrachten.
Neben dem Anteil der Erneuerbaren Energien lässt sich auch der Day-Ahead-Börsenstrompreis für 34 europäische Länder als Grundlage für die Stromampel verwenden.

Daten offen für alle Interessenten zugänglich
Das Team des Fraunhofer ISE stellt die Daten auf der Webseite der Energy-Charts, in der App sowie über eine offene Schnittstelle (API) für alle Interessenten zur Verfügung.
So können Nutzerinnen und Nutzer ihre Smart Home-Geräte entsprechend starten, wenn die Ampel auf »grün« wechselt. Auch das Laden eines Elektrofahrzeugs an einer Ladestation oder andere stromfressende Prozesse (z.B. IT-Prozesse mit großen Daten-mengen) lassen sich so steuern. Ein Elektrofahrzeug fährt durchschnittlich 300 Kilometer in der Woche, der Ladevorgang lässt sich oft zeitlich schieben.
»Einen finanziellen Anreiz bietet unsere Stromampel im Gegensatz zu anderen Apps nicht. Sie soll in erster Linie die Nutzung erneuerbaren Stroms maximieren und mehr Transparenz in den Stromverbrauch bringen«, erklärt Leonhard Probst aus dem Team der Energy-Charts. Durch die Nutzung des Stroms in Zeiten mit einem hohen Angebot erneuerbaren Stroms können die Verbraucherinnen und Verbraucher selbst aktiv an der Energiewende teilnehmen.

Europäischer Marktführer BSH nutzt App zur Steuerung
Die BSH Hausgeräte GmbH, zu der Marken wie Bosch, Siemens, Gaggenau und Neff gehören, setzt die Daten der Stromampel bereits ein. Mittels der Home Connect-App des führenden europäischen Hausgeräteherstellers können Nutzer und Nutzerinnen ihre intelligenten Küchen- und Hausgeräte steuern. Sie können entsprechend des Stromangebots Programme automatisch dann starten lassen, wenn gerade besonders viel Erneuerbare Energien in das Stromnetz einspeisen.

Wissenschaftliche Ansprechpartner:
Prof. Bruno Burger: bruno.burger@ise.fraunhofer.de

(nach oben)


Kompetenzzentrum Wasser Hessen geht an den Start

Die Wasserwirtschaft in Hessen steht insbesondere durch den Klimawandel vor großen Herausforderungen, damit sie auch zukünftig die Wasserversorgung von Bevölkerung und Unternehmen nachhaltig sichern kann. Heute eröffnete die hessische Umweltministerin Priska Hinz an der Goethe-Universität Frankfurt das Hessische Kompetenzzentrum Wasser (KWH), in dem Akteure aus Wissenschaft und Bildung, Verwaltung, Politik und Wasserwirtschaft vernetzt sind. Die Ziele: Probleme sollen auf Systemebene angegangen, wissenschaftliche Erkenntnisse schneller in die wasserwirtschaftliche Praxis überführt und das Bildungsangebot erweitert werden.

FRANKFURT. Es sind gleich mehrere tiefgreifende Veränderungen, mit denen sich der Wassersektor in Hessen konfrontiert sieht: Der Klimawandel mit seinen häufigeren Extremwetterereignissen erhöht den Druck auf Wasserressourcen und Wasserökosysteme, was wiederum einen Verlust der Biodiversität nach sich zieht. Die Folgen für Mensch und Natur wurden in den Dürresommern der vergangenen Jahre deutlich sichtbar. Dann wiederum gab es vermehrt Starkregenereignisse mit Schäden an Gebäuden und Infrastruktur. Eine weitere Herausforderung für die Wasserwirtschaft ist der demografische Wandel. Die Zunahme der Bevölkerung in den Ballungsräumen führt zu einem steigenden Wasserbedarf in den kommenden Jahren, die Abnahme der Bevölkerung in Teilen des ländlichen Raums dagegen zu steigenden Kosten bei der Bereitstellung einer ausreichenden Wasser- und Abwasserinfrastruktur. Heute schon führen Einträge von Spurenstoffen zum Beispiel durch Arzneimittel im Abwasser zu Problemen in der Abwasserbehandlung und Trinkwasseraufbereitung.

Angesichts dieser Herausforderungen und damit verbundener Zielkonflikte zwischen Schutz und Nutzung der Ressource Wasser sind innovative und nachhaltige Umsetzungslösungen für die vielen beteiligten Akteure zu suchen und zu finden. Hessen geht diese Herausforderungen jetzt durch eine Stärkung der interdisziplinären Zusammenarbeit von Wissenschaft, Verwaltung, Politik, Praxis und Bildung an und gründet das Hessische Kompetenzzentrum Wasser (KWH), in dem das Hessische Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz (HMUKLV), das Hessische Landesamt für Naturschutz, Umwelt und Geologie (HLNUG), die Regierungspräsidien, alle hessischen Universitäten, viele hessische Hochschulen sowie die Senckenberg Gesellschaft für Naturforschung und das Institut für sozial-ökologische Forschung (ISOE) ihre jeweilige Expertise einbringen und kooperieren werden.

Umweltministerin Priska Hinz erläutert: „Mit dem Klimaplan und dem Zukunftsplan Wasser haben wir die Weichen für einen nachhaltigen Schutz und eine integrierte Bewirtschaftung der Wasserressourcen in Hessen gestellt. Das Hessische Kompetenzzentrum Wasser wird uns nun dabei unterstützen, die notwendigen Anpassungen an den Klimawandel umzusetzen und dabei neueste wissenschaftliche Erkenntnisse und innovative Lösungen zu berücksichtigen.“

Prof. Thomas Schmid, Präsident des HLNUG, ist überzeugt: „Das Hessische Kompetenzzentrum Wasser bietet die Chance, die unterschiedlichen und sehr umfassenden Expertisen im Wassersektor in Hessen zu bündeln, damit die wissenschaftlichen Erkenntnisse auch zu einer praxisnahen Entwicklung konkreter Lösungen mit nachhaltiger Nutzung der Ressource Wasser beitragen können.“

Prof. Enrico Schleiff, Präsident der Goethe-Universität, die die Gründung des KWH wesentlich begleitet hat, erklärt: „Es muss uns gelingen, ‚win-win-Situationen‘ zu schaffen, bei denen einerseits die Wasserressourcen erhalten bleiben und die aquatische Biodiversität geschützt wird, andererseits aber auch der Wasserbedarf der Bevölkerung und der Wirtschaft gesichert bleibt. Mit ihrer Forschung werden die hessischen Universitäten und Hochschulen zum Erreichen dieses Ziels beitragen.“ Auch die Gewinnung von Fachkräften könnten die Universitäten und Hochschulen befördern, so Präsident Schleiff: „Wir arbeiten stetig an der Weiter – und Neuentwicklung von Lehr- und Ausbildungskonzepten, um Expert:innen für Naturschutz und Wasserwirtschaft zu qualifizieren.“ Dabei befürworte er das aktive Mitwirken von Partnerinstitutionen aus Praxis und Behörden in Lehrveranstaltungen relevanter Fachbereiche von Universitäten und Hochschulen sowie beispielsweise die Vergabe externer Abschlussarbeiten: „Damit können wir einen Mehrwert auch aus Sicht der Wissenschaft generieren.“

Enrico Schleiff freut sich über den Auftakt zur Gründung des KWH in seinem Hause: “Die Wasserforschung ist schon seit vielen Jahren fester und wichtiger Bestandteil des Forschungsportfolios der Goethe-Universität. Gemeinsam mit unseren Kolleginnen und Kollegen der anderen hessischen Universitäten, Hochschulen und außeruniversitären Forschungseinrichtungen sehen wir uns in der Verantwortung, die Ziele des KWH voranzutreiben und unseren Beitrag zum Erhalt und zur nachhaltigen Nutzung der Ressource Wasser in Hessen zu leisten.“

Ziel des KWH ist es, praxistaugliche, wissenschaftlich fundierte, evidenzbasierte und innovative Lösungen entsprechend den Herausforderungen im Wassersektor zu entwickeln. Statt einzelner hydrologischer, ökologischer und technisch-ingenieurwissenschaftlicher Fragestellungen können im KWH die dringenden Probleme zu Prozessen und Dynamiken des Wasserressourcenmanagements interdisziplinär und integriert betrachtet werden. Soziale, ökonomische und politische Aspekte, als weitere wichtige Handlungsfelder in der Wasserwirtschaft, können durch diese übergreifende Zusammenarbeit ebenfalls berücksichtigt werden.

Eine solche Bündelung der hessischen Wasserkompetenz eröffnet neue Perspektiven für die Durchführung von angewandten Forschungsprojekten zu in Hessen relevanten Themen für eine nachhaltige Nutzung der Ressource Wasser, einschließlich der Vermittlung von entsprechenden Kompetenzen, sowie für die Politikberatung.

Über das Kompetenzzentrum Wasser Hessen (KWH)
Als hessisches Kompetenzzentrum Wasser ist das KWH ein Bindeglied zwischen Akteuren im Wasserbereich aus Wissenschaft, Verwaltung, Politik, Bildung und wasserwirtschaftlicher Praxis. Das KWH wird auch mit assoziierten Partnern kooperieren. Dies können nicht-behördliche Organisationen, Vereine oder im Wassersektor tätige Unternehmen sein. Ein Kooperationsvertrag regelt die künftige Zusammenarbeit der institutionellen Partner:

Hessisches Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz
Hessisches Landesamt für Naturschutz, Umwelt und Geologie
Regierungspräsidium Darmstadt
Regierungspräsidium Gießen
Regierungspräsidium Kassel
Goethe-Universität Frankfurt am Main
Justus-Liebig-Universität Gießen
Philipps-Universität Marburg
Technische Universität Darmstadt
Universität Kassel
Hochschule Darmstadt
Hochschule Fresenius
Hochschule Geisenheim University
Hochschule RheinMain
Technische Hochschule Mittelhessen
Senckenberg Gesellschaft für Naturforschung
Institut für sozial-ökologische Forschung (ISOE) GmbH

(nach oben)


Schwerer Corona-Verlauf nun vorhersagbar

Forschenden der Technischen Universität München (TUM) ist es gelungen, mithilfe der Anzahl und Struktur von Blutplättchen vorherzusagen, ob es zu einem schweren Corona-Verlauf kommen kann. Damit haben sie einen prognostischen Biomarker für den Schweregrad von COVID-19 identifiziert. So kann die Therapie nun frühzeitig angepasst werden. Methodisch griffen die Forschenden auf eine bildgebende Durchflusszytometrie zurück, die es ermöglicht, schnell und in großer Anzahl Interaktionen zwischen Blutzellen zu analysieren.

Sobald sich der Körper mit Sars-CoV-2 infiziert, laufen eine Reihe von Immunreaktionen ab. Eine dieser Reaktionen besteht darin, dass sich die Blutplättchen, auch Thrombozyten genannt, an den Immunzellen anlagern und dadurch Zellaggregate, also Verklumpungen, im Blutkreislauf entstehen. Eine Studie des Teams um Oliver Hayden, Professor für Biomedizinische Elektronik, hat mithilfe einer bildgebenden Durchflusszytometrie gezeigt, dass bei Intensivpatient:innen mit einem schweren Corona-Verlauf die Konzentration von Blutplättchen-Aggregaten sehr stark ansteigt.

Dem Forschungsteam ist es damit gelungen, einen prognostischen Biomarker für den Schweregrad von COVID-19 zu identifizieren. Möglich wurde dieses Ergebnis durch die optimalen interdisziplinären Bedingungen, die das Zentralinstitut TranslaTUM den Ingenieur:innen der TUM für die Zusammenarbeit mit Mediziner:innen am Klinikum München rechts der Isar bietet.

Patientennahe und unkomplizierte Messung
Für die Analyse wurde den Proband:innen zunächst Blut abgenommen. Wenige Tropfen Blut reichen aus, um mithilfe der bildgebenden Durchflusszytometrie innerhalb von Sekunden tausende Blutzellen abzuzählen und deren Aggregation zu analysieren. Der Leiter der Studie Prof. Hayden sagt: „Darüber hinaus hat diese Methode den großen Vorteil, dass wir die Proben weder aufbereiten noch markieren müssen, sondern sie direkt und standardisierbar untersuchen können, ohne die Aggregate durch Einwirkung hoher Scherkräfte zu verlieren. In Zukunft könnte diese kostengünstige Methode dabei helfen, Wechselwirkungen zwischen Gerinnungssystem und Immunsystem zu quantifizieren.“ Die patientennahe Messung erlaubt eine unmittelbare Untersuchung nach Blutabnahme, um Alterungseffekte der Blutproben, die selbst zu Aggregaten führen, auszuschließen.

Zwei Drittel der Blutplättchen von Erkrankten betroffen
Insgesamt untersuchte das Forschungsteam das Blut von 36 Intensiv-Patient:innen im Alter zwischen 32 und 83 Jahren, die mit einer Corona-Infektion ins Krankenhaus eingeliefert worden waren und einen mäßigen bis schweren Verlauf aufwiesen. Die Ergebnisse der Studie zeigen, dass bei schwer erkrankten Patient:innen die Anzahl an gebundenen Thrombozyten signifikant höher war, als bei mäßig erkrankten Patient:innen und erst recht im Vergleich zu gesunden Blutspender:innen.

In Bezug auf die Zusammensetzung der Zellaggregate konnten die Forschenden zeigen, dass in Abhängigkeit vom Schweregrad der COVID-19 Erkrankung die Anzahl der Zellaggregate und deren Zusammensetzung sich graduell und frühzeitig vor dem Auftreten einer Komplikation verändern. Die Verklumpungen waren typischerweise aus weniger als zehn Thrombozyten zusammengesetzt. In Extremfällen wurde dabei beobachtet, dass bis zu zwei Drittel aller Thrombozyten von Patient:innen aggregiert vorlagen.

Besseres Management von Patient:innen
Die hohe Konzentration an Zellaggregaten konnte bei allen COVID-19 erkrankten Proband:innen mit Einlieferung auf die Intensivstation nachgewiesen werden. Diese einfache Diagnostik von Blutplättchen-Aggregaten hat das Potential, Risikopatient:innen frühzeitig zu identifizieren und damit die Versorgung zu verbessern.

Das interdisziplinäre Team aus Ingenieur:innen und Medizinier:innen will nun die gesammelten Erkenntnisse auf andere Erkrankungen übertragen. Die Forschenden nehmen an, dass die hier beschriebene Methode zum Beispiel auch bei Herz-Kreislauf- oder Krebserkrankungen funktionieren könnte.

Weitere Informationen:
Prof. Oliver Hayden entwickelt im Rahmen seiner Forschung neuartige Verfahren für in-vitro diagnostische und biomedizinische Fragestellungen. Seit 2017 ist er Inhaber des Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik.

Der Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik der TUM School für Computation, Information and Technology entwickelt neue Diagnostikmethoden am Zentralinstitut für Translationale Krebsforschung der Technischen Universität München (TranslaTUM).

Das Projekt CellFACE hat das Ziel, bildgebende Durchflusszytometrie mit Hilfe der Phase des Lichtes als markierungsfreie Plattformtechnologie für die Akutversorgung zu validieren. Hierfür findet ein interdisziplinärer Austausch zwischen Forschenden aus München und Singapur statt.

Wissenschaftliche Ansprechpartner:
Prof. Oliver Hayden
Technische Universität München
Heinz-Nixdorf-Lehrstuhl für Biomedizinische Elektronik
Email: oliver.hayden@tum.de
Tel: +49 (89) 4140 – 9031

Originalpublikation:
Klenk, C., Erber, J., Fresacher, D., Röhrl, S., Lengl, M., Heim, D., Irl, H., Schlegel, M., Haller, B., Lahmer, T., Diepold, K., Rasch, S. and Hayden, O. Platelet aggregates detected using quantitative phase imaging associate with COVID-19 severity. Commun Med 3, 161 (2023). https://doi.org/10.1038/s43856-023-00395-6.

Weitere Informationen:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/schwerer-.

(nach oben)


Hochaufgelöste Niederschlagskarten mittels KI

Starke Niederschläge können Naturkatastrophen wie Hochwasser oder Erdrutsche auslösen. Um die durch den Klimawandel zu erwartenden Änderungen der Häufigkeit dieser Extreme vorherzusagen, sind globale Klimamodelle notwendig. In einer Studie zeigen Forschende des Karlsruher Instituts für Technologie (KIT) erstmals eine Methode auf Basis Künstlicher Intelligenz (KI), mit der sich die Genauigkeit der von globalen Klimamodellen erzeugten groben Niederschlagsfelder erhöhen lässt. Ihnen gelang es, die räumliche Auflösung von Niederschlagsfeldern von 32 auf zwei Kilometer und die zeitliche von einer Stunde auf zehn Minuten zu verbessern. (DOI 10.1029/2023EA002906)

Viele Naturkatastrophen wie Überschwemmungen oder Erdrutsche sind direkte Folgen von extremen Niederschlägen. Forschende erwarten, dass mit steigenden Durchschnittstemperaturen extreme Niederschläge weiter zunehmen werden. Um sich an ein sich änderndes Klima anzupassen und frühzeitig auf Katastrophen vorbereiten zu können, sind genaue lokale und globale Informationen über den aktuellen sowie zukünftigen Wasserkreislauf unerlässlich. „Niederschläge sind sowohl räumlich als auch zeitlich sehr variabel und daher schwer vorherzusagen – insbesondere auf lokaler Ebene“, sagt Dr. Christian Chwala vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT in Garmisch-Partenkirchen. „Deshalb wollen wir die Auflösung von Niederschlagsfeldern, wie sie zum Beispiel von globalen Klimamodellen erzeugt werden, erhöhen und damit vor allem ihre Einordnung bezüglich möglicher Bedrohungen wie Flutkatastrophen verbessern.“

Feinere Auflösung für genauere regionale Klimamodelle
Bisherige globale Klimamodelle verwenden ein Raster, das nicht fein genug ist, um die Variabilität der Niederschläge genau darzustellen. Hochaufgelöste Niederschlagskarten können nur mit extrem rechenintensiven und daher räumlich oder zeitlich begrenzten Modellen erzeugt werden. „Wir haben deshalb ein Generatives Neuronales Netz – GAN genannt – aus dem Bereich der Künstlichen Intelligenz entwickelt und es mit hochauflösenden Radarniederschlagsfeldern trainiert. Das GAN lernt dabei, wie es realistische Niederschlagsfelder und deren zeitliche Abfolge aus grob aufgelösten Daten generiert“, erklärt Luca Glawion vom IMK-IFU. „So ist das Netz in der Lage, aus den sehr grob aufgelösten Karten realistische hochaufgelöste Radarniederschlagsfilme zu erstellen.“ Diese verfeinerten Radarkarten zeigen nicht nur, wie sich Regenzellen entwickeln und bewegen, sondern rekonstruieren auch präzise die lokalen Regenstatistiken mit entsprechender Extremwertverteilung.

„Unsere Methode dient als Grundlage, um grob gerasterte Niederschlagsfelder auf eine Auflösung zu bringen, die der hohen raum-zeitlichen Variabilität von Niederschlag gerecht wird und die Untersuchung regionaler Auswirkungen erst ermöglicht“, sagt Julius Polz vom IMK-IFU. „Unsere Deep-Learning-Methode ist dabei um mehrere Größenordnungen schneller als die Berechnung solch hochaufgelöster Niederschlagsfelder mit numerischen Wettermodellen, die üblicherweise genutzt werden, um Daten von globalen Klimamodellen regional zu verfeinern.“ Die Methode generiere außerdem ein Ensemble verschiedener möglicher Niederschlagsfelder. Dies sei entscheidend, da für jedes grob aufgelöste Niederschlagsfeld eine Vielzahl an physikalisch plausiblen hochaufgelösten Lösungen existiert. Ein Ensemble ermögliche, ähnlich wie bei der Wettervorhersage, die damit einhergehende Unsicherheit genauer zu erfassen.

Höhere Auflösung ermöglicht Zukunftsprognosen in einer sich klimatisch verändernden Welt
Die Ergebnisse zeigen, dass mithilfe des von den Forschenden entwickelten KI-Modells und der geschaffenen methodischen Grundlage in Zukunft neuronale Netze eingesetzt werden können, um die räumliche und zeitliche Auflösung des von Klimamodellen berechneten Niederschlags zu verbessern. Damit könnten die Auswirkungen und Entwicklungen des Niederschlags in einem sich ändernden Klima genauer dargestellt und untersucht werden.

„Im nächsten Schritt werden wir die Methode auf globale Klimasimulationen anwenden, die spezifische Großwetterlagen in eine zukünftige, klimatisch veränderte Welt übertragen – etwa in das Jahr 2100. Durch die höhere Auflösung der mit unserer Methode simulierten Niederschlagsereignisse lässt sich dann besser abschätzen, wie sich beispielsweise die Wetterlage, die 2021 das Hochwasser an der Ahr verursacht hat, in einer zwei Grad wärmeren Welt ausgewirkt hätte“, erklärt Glawion. Solche Informationen seien entscheidend, um Maßnahmen für eine nachhaltige Klimaanpassung entwickeln zu können.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.

Wissenschaftliche Ansprechpartner:
Sandra Wiebe
Pressereferentin
Tel.: +49 721 608-41172
sandra.wiebe@kit.edu

Originalpublikation:
Luca Glawion, Julius Polz, Harald Kunstmann, Benjamin Fersch, Christian Chwala: spateGAN: Spatio-Temporal Downscaling of Rainfall Fields Using a cGAN Approach. Earth and Space Science, 2023. DOI 10.1029/2023EA002906.
https://doi.org/10.1029/2023EA002906

Weitere Informationen:
https://www.klima-umwelt.kit.edu/
Luca Glawion, Julius Polz, Harald Kunstmann, Benjamin Fersch, Christian Chwala: spateGAN: Spatio-Temporal Downscaling of Rainfall Fields Using a cGAN Approach. Earth and Space Science, 2023. DOI 10.1029/2023EA002906.
https://doi.org/10.1029/2023EA002906

Weitere Informationen:
https://www.klima-umwelt.kit.edu/

(nach oben)


Mit rückenschonender Haltung Schmerzen beim Schneeschippen vermeiden

Susanne Herda, Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e.V. (DGOU) rät zu schonenden Bewegungen beim Schneeräumen zur Vermeidung von Rückenschmerzen. Denn Muskeln und Gelenke werden bei den ungewohnten Bewegungsabläufen stark belastet. Die Folge können Rückenschmerzen sein. Der erste Schneefall im Jahr lässt viele zur Schaufel greifen, um Gehwege und Zufahrten frei zu räumen. Einfache Tipps helfen, Schmerzen zu vermeiden.

„Wir raten dazu, die körperliche Belastung an den eigenen Trainingszustand anzupassen, indem man zum Beispiel das Tempo und das Gewicht der Schaufel anpasst. Mit richtiger Körperhaltung und Krafteinsatz können damit auch untrainierte Menschen dem Schnee erfolgreich zu Leibe rücken“, sagt Prof. Dr. Bernd Kladny, DGOU-Generalsekretär und Chefarzt der Abteilung Orthopädie und Unfallchirurgie der m&i-Fachklinik Herzogenaurach.

Beim Schneeräumen wird der Rücken einer starken Belastung ausgesetzt, viele Menschen unterschätzen das. Sie machen sich beherzt an die Arbeit, häufig morgens mit noch steifen Gliedern und in leichter Bekleidung. Meist ist die Zeit knapp und alles muss schnell gehen. Untrainierte Muskeln können dabei im Kaltstart leicht verletzt werden, falsche Drehungen, ruckartige Bewegungen oder das Heben zu schwerer Schneelasten können zu Zerrungen bis hin zu Blockierungen von Wirbeln oder gar zum Hexenschuss führen. Das Arbeiten in gebückter Haltung führt zudem zu einer besonderen Belastung des Rückens. „Ich empfehle, auch in der kalten Jahreszeit für ausreichend Bewegung zu sorgen und Sport zu treiben. Denn das stärkt die Muskeln und bereitet auf ungewohnte Belastung wie das Schneeschieben vor“, sagt PD Dr. Christopher Spering, Leiter der DGOU-Sektion Prävention und Oberarzt an der Klinik für Unfallchirurgie, Orthopädie und Plastische Chirurgie an der Universitätsmedizin Göttingen (UMG).

Orthopäden und Unfallchirurgen geben 5 Tipps für rückenschonendes Schneeschippen:

  • Passende Schaufel auswählen: Eine leichte Schippe mit ergonomischer Form entlastet Wirbelsäule und Gelenke.
  • Schieben statt heben: Den Rücken möglichst nur gering belasten. Das geht, indem man den Schnee nicht hebt sondern schiebt.
  • Oberkörper gerade halten: Muss eine vollbeladene Schaufel doch einmal angehoben werden, dann sollte man den Oberkörper gerade halten. Dabei leicht in die Knie gehen.
  • Genügend Zeit einplanen: Bewegungsabläufe ruhig und kraftschonend durchführen.
  • Nicht im T-Shirt arbeiten: Die Rückenmuskulatur sollte warm eingepackt werden und vollständig bedeckt sein.

Vorsicht bei bereits rückenbelasteten Patienten:

  • Nach frischen Wirbelsäulen-OPs sollten mindestens 3 Monate rückenbelastende Tätigkeiten vermieden werden, dazu gehört auch Schneeschippen.
  • Chronisch Kranke sollten mit ihrem Arzt darüber sprechen.
  • Ist man wegen einer Rückenerkrankung körperlich nicht zum Schneeschippen in der Lage, sollte man sich Unterstützung in der Nachbarschaft oder Familie holen.

Hintergrund:
Ca. 80 bis 85 Prozent aller Menschen leiden irgendwann in ihrem Leben an Rückenschmerzen. Tritt ein heftiger, intensiver Schmerz im Lendenwirbelbereich ein, so spricht man im Volksmund von einem Hexenschuss. Dahinter verbirgt sich eine akute Lumbalgie. Es handelt sich dabei um eine Muskelverspannung nach einer plötzlichen Bewegung oder falschen Belastung. Typisch sind starke Schmerzen beim Aufrichten aus einer gebeugten Haltung. Zudem kommt es zu Bewegungseinschränkungen im Rückenbereich. Begünstigt wird ein Hexenschuss durch eine schwache Rücken- und Bauchmuskulatur und einen bewegungsarmen Lebensstil.

Ein sogenannter Hexenschuss ist zwar sehr schmerzhaft, aber meist harmlos. Wichtig ist, trotz der Schmerzen nicht in eine Schonhaltung zu verfallen, sondern sich weiter moderat zu bewegen. Körperliche Anstrengungen sind jedoch zu vermeiden. In den ersten zwei bis drei Tagen kann die Einnahme eines rezeptfreien Schmerzmittels für Linderung sorgen. Wärme durch ein heißes Bad oder Rotlichtanwendung ist wohltuend und fördert den Heilungsprozess. In der Regel verschwinden die Schmerzen dann nach wenigen Tagen von selbst.

Klingen die Schmerzen nach einigen Tagen nicht wieder ab, empfiehlt es sich, einen Facharzt aufzusuchen. Denn dann kann auch eine ernsthafte Erkrankung, wie ein Bandscheibenvorfall, hinter einem Hexenschuss stecken. Besonders bei sehr starken Schmerzen und insbesondere Gefühlsstörungen oder Lähmungserscheinungen ist ein Besuch beim Orthopäden und Unfallchirurgen dringend angeraten.

Grundsätzlich ist ein Hexenschuss auch Warnsignal, mehr für die Stärkung des eigenen Rückens zu tun. Die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie rät daher zu ausreichend Bewegung auch in der kalten Jahreszeit. Skilanglauf, Winterspaziergänge oder Nordic Walking stärken den Rücken, wie auch Schwimmen oder Treppen steigen.

Weitere Informationen:
Ein Schaubild der DGOU zeigt, wie man den Körper korrekt beim Schneeräumen einsetzt. Das Schaubild „Schneeräumen ohne Rückenschmerzen“ steht zur kostenfreien Nutzung unter Angabe des Copyrights (© DGOU) zum Download bereit unter: www.dgou.de

Kontakt für Rückfragen:
Susanne Herda, Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -16
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

(nach oben)


Wasseraufbereitung in Zeiten des Klimawandels – mehr Physik beim Umweltschutz

Frischwasser gehört zu den wertvollsten Ressourcen auf unserer Erde. Nur etwa drei Prozent des weltweit verfügbaren Wassers ist Süßwasser. Immer extremer werdende Wetterverhältnisse wie Hitze und Dürren zeigen, dass es ein kostbares Gut ist. Gleichzeitig steigt der Bedarf für Frischwasser seitens der Wirtschaft und der Industrie. Denn für die Herstellung von Lebensmitteln wird enorm viel Wasser benötigt, das dann als Ab- bzw. Prozesswasser aufwändig – meist chemisch und kostspielig – gereinigt werden muss.

Forscherinnen und Forscher im Projekt PHYSICS & ECOLOGY unter der Leitung von Dr. Marcel Schneider vom Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) in Greifswald haben nun sehr gute Ergebnisse erzielt: Physikalische Methoden wie Plasma sind in Bezug auf die Dekontamination von Ab- bzw. Prozesswasser konkurrenzfähig zu etablierten Methoden wie Ozonung, UV-Behandlung oder Aktivkohle. Die Konkurrenzfähigkeit bezieht sich sowohl auf ihre Behandlungseffektivität gegenüber Keimen und Pestiziden, als auch auf ihre Kosteneffizienz. Dr. Marcel Schneider erklärt hierzu: „Die Ergebnisse bestärken uns in unserer Annahme, dass innovative physikalische Verfahren wie zum Beispiel Plasma zur Dekontamination von Wasser eine Alternative zu herkömmlichen Methoden sein können. Wir sind damit dem Ziel, Wasser von Agrarchemikalien zu reinigen, aufzubereiten und wieder zurückzuführen, einen großen Schritt nähergekommen.“

Im Rahmen des durch das Bundesministerium für Bildung und Forschung geförderten Bündnisses PHYSICS FOR FOOD, das die Hochschule Neubrandenburg mit dem INP und Wirtschaftspartnern in insgesamt sieben Leitprojekten auf den Weg gebracht hat, wird an physikalischen Alternativen in der Land- und Ernährungswirtschaft geforscht. Das Ziel: In der Landwirtschaft und bei agrartechnischen Produktionsprozessen soll weniger Chemie gebraucht bzw. die Umwelt dadurch weniger belastet werden. Es geht um mehr Physik beim Klima- und Umweltschutz.

Seit Dezember 2021 ist das Projekt aus dem Labor in die Quasi-Wirklichkeit verlegt worden. Der Projektpartner Harbauer GmbH aus Berlin hat einen Demonstrator konstruiert, in dem sich 1:1 die Prozesse nachbilden lassen, die nötig sind, um durch verschiedene physikalische Verfahren aus Abwasser wieder Frischwasser zu machen.

Im Demonstrator wird mit acht Technologien gearbeitet. Dabei sind Spaltrohr, Kiesfilter, Ultrafiltration, UV-Behandlung, Ozon und Aktivkohlefilter die bereits für eine Wasseraufbereitung etablierten Technologien, während es den Einsatz von Plasma und zusätzlich Ultraschall – als insgesamt zwei vielversprechende Verfahren – noch weiter zu optimieren gilt. Mit diesen Methoden sollen neue Wege beschritten werden. Es gibt aktuell im Übrigen kaum Anlagen in der Größenordnung des Demonstrators, bei denen diese innovativen Technologien mit den etablierten Verfahren verglichen aber auch kombiniert werden können, und die bei einem hohen Durchsatz die Behandlung unter realistischen Bedingungen ermöglichen.

Seit kurzem steht dieser Demonstrator in Stralsund. Die Braumanufaktur Störtebeker GmbH hat hierfür einen Teil ihres Brauereigeländes und ihr Prozesswasser zur Verfügung gestellt. Dort sollen insgesamt ein Kubikmeter Wasser pro Stunde – also so viel wie fünf gefüllte Badewannen – durch den Demonstrator laufen, der in einem 20 Fuß-Schiffscontainer untergebracht ist. Thomas Ott, Betriebsleiter der Störtebeker Braumanufaktur, erklärt hierzu: „Unsere Brauerei zeichnet sich durch innovative Brauspezialitäten mit den besten Rohstoffen aus. Wasser spielt im gesamten Produktionsprozess eine herausragende Rolle. Wir sind sehr daran interessiert, unseren Beitrag für Nachhaltigkeit und Umweltschutz zu leisten und Frischwasser einzusparen, indem es insbesondere durch eine physikalische Aufbereitung wiederverwendet werden kann.“

Die Braumanufaktur in Stralsund ist dabei der zweite Standort des Demonstrators. Die ersten vielversprechenden Ergebnisse konnten auf dem Gelände der rübenverarbeitenden Fabrik in Anklam, der Cosun Beet Company GmbH & Co. KG (CBC Anklam), erzielt werden. Im Demonstrator ist das Prozesswasser behandelt worden, das nach dem Waschen der Zuckerrüben angefallen war. Miriam Woller-Pfeifer, Betriebsingenieurin bei der CBC Anklam, resümiert nach dem Einsatz des Demonstrators: „Unser Ziel ist eine komplette Kreislaufwirtschaft bei der Verarbeitung von Zuckerrüben. Wir wollen sämtliche Bestandteile optimal und nachhaltig nutzen. Die Wasseraufbereitung ist dabei ein zentraler Punkt in unserer Nachhaltigkeitsstrategie. Die erzielten Ergebnisse stimmen uns dahingehend sehr optimistisch.“

Über PHYSICS FOR FOOD
Die Hochschule Neubrandenburg, das Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP) und Wirtschaftsunternehmen starteten im Jahr 2018 das Projekt ‚PHYSICS FOR FOOD – EINE REGION DENKT UM!‘. Das Bündnis entwickelt seitdem gemeinsam mit zahlreichen weiteren Partnern neue physikalische Technologien für die Landwirtschaft und Lebensmittelverarbeitung. Dabei kommen Atmosphärendruck-Plasma, gepulste elektrische Felder und UV-Licht zum Einsatz.
Ziel ist es, Agrarrohstoffe zu optimieren und Schadstoffe in der Lebensmittelproduktion zu verringern, chemische Mittel im Saatgut-Schutz zu reduzieren und die Pflanzen gegenüber den Folgen des Klimawandels zu stärken. Es wird vom Bundesministerium für Bildung und Forschung im Rahmen der Initiative ‚WIR! – Wandel durch Innovation in der Region‘ gefördert (Förderkennzeichen 03WIR2810).

Weitere Informationen:
https://physicsforfood.org/

(nach oben)


Erhöht eine Allergie das Risiko für Long-COVID?

Wissenschaftler:innen der Universitätsmedizin Magdeburg untersuchen erstmals systematisch die Rolle von Allergien bei der Entwicklung von Long-COVID.

Welche Faktoren das Long-COVID-Risiko beeinflussen können, ist nach wie vor nicht vollständig geklärt. Wissenschaftler:innen am Institut für Sozialmedizin und Gesundheitssystemforschung der Otto-von-Guericke-Universität Magdeburg haben die Rolle von Allergien genauer untersucht und sind der Frage nachgegangen, ob allergische Erkrankungen das Risiko erhöhen können, Long-COVID nach einer SARS-CoV-2-Infektion zu entwickeln. Die Auswertung von 13 relevanten Studien mit insgesamt 9.967 Teilnehmenden, die zwischen dem 1. Januar 2020 und dem 19. Januar 2023 veröffentlicht wurden, zeigte, dass Menschen mit Asthma oder allergischer Rhinitis (Entzündung der Nasenschleimhaut) eine erhöhte Chance für Long-COVID haben könnten. Es handelt sich um die erste systematische Übersichtsarbeit, die Hinweise für eine Rolle allergischer Erkrankungen im Zusammenhang mit Long-COVID liefert. Die Ergebnisse wurden in dem Fachjournal Clinical & Experimental Allergy veröffentlicht.

Prof. Dr. Christian Apfelbacher (PhD), Institutsdirektor und korrespondierender Autor der Arbeit, betont: „Obwohl die Daten aus den Studien insgesamt darauf hindeuten, dass Personen mit Asthma oder Rhinitis nach einer SARS-CoV-2-Infektion ein erhöhtes Risiko für Long-COVID haben könnten, war die Beweislage für diesen Zusammenhang sehr unsicher.“ Daher sei eine solidere epidemiologische Forschung erforderlich, um die Rolle von Allergien bei der Entwicklung von Long-COVID zu klären. „Wir brauchen eine bessere, harmonisierte Definition dessen, was als Long-COVID für epidemiologische Studien dieser Art gilt. Unabhängig davon, werden wir unsere Analyse aktualisieren, sobald in den nächsten Monaten weitere Studien veröffentlicht werden“, erklärt der Epidemiologe.

In der Arbeit der Forschungsgruppe wurde wissenschaftliche Literatur systematisch nach prospektiven Kohortenstudien mit einer Nachbeobachtungszeit von mindestens 12 Monaten für Long-COVID durchsucht. Es wurden Personen mit einer bestätigten SARS-CoV-2-Infektion und Informationen über vorbestehende allergische Erkrankungen eingeschlossen.

Long-COVID ist ein Krankheitsbild, das weltweit eine große Anzahl von Menschen betrifft und durch eine Vielzahl an Symptomen gekennzeichnet ist. Die Ursachen von Long-COVID sind noch nicht genau geklärt. Derzeit geht man davon aus, dass hauptsächlich eine Störung des Immunsystems die Entwicklung beeinflusst. Häufige und teilweise über ein Jahr anhaltende Symptome von Long-COVID sind Atembeschwerden, Belastungsintoleranz und eine chronische Müdigkeit.

Die systematische Übersichtsarbeit ist als Teil des Projekts „egePan Unimed“ entstanden und wurde im Rahmen des Forschungsnetzwerks der Universitätsmedizin NUM vom Bundesministerium für Bildung und Forschung (BMBF) (Förderkennzeichen: 01KX2021) gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Apfelbacher (PhD), Direktor am Institut für Sozialmedizin und Gesundheitssystemforschung der Otto-von-Guericke-Universität Magdeburg, Telefon: +49-391-67-24316, christian.apfelbacher@med.ovgu.de

Originalpublikation:
Allergic diseases as risk factors for Long-COVID symptoms: Systematic review of prospective cohort studies, Clinical & Experimental Allergy 8.11.2023. https://doi.org/10.1111/cea.14391

(nach oben)


Neue Web-App: Maßgeschneiderte Wasserstands- und Abflussvorhersagen für Schifffahrt und Logistik an Rhein und Elbe

Gute Aussichten für Wasserstraßennutzer/-innen an Rhein und Elbe: Heute ging eine interaktive Web-App zur bestehenden 6-Wochen-Vorhersage vom Testbetrieb in den operationellen Dienst über. Die Anwendung versetzt die Nutzenden in die Lage, die Vorhersagen individuell zu analysieren und darstellen zu lassen.

Die Web-Anwendung ermöglicht es Binnenschifffahrt und Logistik an Rhein und Elbe, zukünftig noch effizienter auf Niedrigwassersituationen reagieren und Transporte einfacher planen zu können. Sie ist ein Zusatzangebot zur bereits seit einiger Zeit bestehenden 6-Wochen-Vorhersage in Form von PDF-Berichten und wird wie diese jeden Dienstag und Freitag aktualisiert.

Zur Web-Anwendung gelangen Sie hier: https://6wochenvorhersage.bafg.de
Neu ist, dass die Vorhersage nun direkt im Browser angezeigt werden kann – ohne vorherigen Download der PDF-Berichte. „Rückmeldungen der Nutzerinnen und Nutzer im Testbetrieb haben gezeigt, dass die interaktive Darstellung und der einfache Zugang sehr geschätzt werden“, sagt Barbara Frielingsdorf, die maßgeblich an der Entwicklung und dem Betrieb des Dienstes beteiligt ist.

Neue Funktionen ermöglichen individuelle Auswertungen der Wasser-stands- und Abflussvorhersage
In der Anwendung können Nutzende insbesondere einen individuell interessierenden Bezugswert des Wasserstandes oder Abflusses für den für sie relevanten Pegel angeben. Die App berechnet daraus anschließend die spezifischen Unterschreitungs-wahrscheinlichkeiten und stellt diese auch grafisch dar. „Schifffahrt und Logistik können mit den neuen Funktionen eine maßgeschneiderte Auswertung der Vorhersage für die eigenen Anforderungen generieren“, erklärt die Hydrologin den Nutzen.

Weitere Neuerungen der App im Überblick
– Rückschau: Die Vorhersagen der vergangenen vier Wochen sind verfügbar.
-Darstellung optimiert: Festgelegte Bezugswerte, wie der Gleichwertige Wasserstand (GlW) oder statistische Kennwerte, wie z. B. der mittlere Niedrigwasserabfluss (MNQ), können in der Darstellung ein- und ausgeblendet werden. Zu Vergleichszwecken lassen sich zudem die Ganglinien der Wasserstände bzw. Abflüsse der Niedrigwasserjahre 2018 und 2022 hinzufügen.
– Szenarien berechnen: In der Darstellung des Bündels individueller Ganglinien, die sich ausgehend vom derzeitigen Zustand infolge der meteorologischen Verhältnisse der Vergangenheit zu diesem Zeitpunkt im Jahr („auf Basis der Klimatologie“) einstellen würden, lassen sich einzelne Jahre hervorheben und identifizieren.

Web-App ergänzt bestehende Angebote an den Bundeswasserstraßen
Neben der 6-Wochen-Vorhersage ist seit Juli 2022 auch die sog. 14-Tage-Wasserstandsvorhersage für ausgewählte Rheinpegel verfügbar. Beide Vorhersagedienste schaffen mehr Planungssicherheit für die Wirtschaft und die Binnenschifffahrt an Rhein und Elbe und erfüllen damit den entsprechenden Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ des Bundesverkehrsministeriums.

Weitere Informationen:
https://6wochenvorhersage.bafg.de Link zur neuen Web-App

(nach oben)


Wie Schmutzwasser trinkbar wird

DBU-Projekt: umweltschonende Krisenhilfe – „Ohne Chlor“

Osnabrück. Bei Naturkatastrophen, Krieg oder Epidemien steht schnelle Hilfe für betroffene Menschen an oberster Stelle. Zentral ist die Bereitstellung von ausreichend sauberem Wasser, um Dehydrierungen, Durchfallerkrankungen und Cholera zu vermeiden. Das Startup Disaster Relief Systems (DRS) unter Professor Utz Dornberger an der Universität Leipzig entwickelt derzeit in einem von der Deutschen Bundesstiftung Umwelt (DBU) geförderten Projekt eine Anlage, die aus Schmutzwasser sauberes Trinkwasser herstellt. Sie funktioniert ohne Chemikalien, kann regenerativ angetrieben werden und ist recycelbar.

Trinkwasseraufbereitung: Chemikalien können Boden und Gewässer belasten
Zur Versorgung von in Not geratenen Menschen mit sauberem Wasser setzen Hilfsorganisationen in der Regel große mobile technische Anlagen zur Rohwasseraufbereitung ein. „Ökologisch und einsatztechnisch problematisch ist dabei oft das Verwenden von Chemikalien zum Beispiel zur Flockung von Schwebstoffen, Desinfektion des Wassers sowie Konservierung von Filtermembranen, bei deren unsachgemäßer Handhabung Gesundheitsgefährdungen und Schäden an der Umwelt entstehen können“, sagt Projektleiter John-Henning Peper. „Aus diesem Grund war eine der Hauptanforderungen, eine leistungsfähige Trinkwasseraufbereitungsanlage zu entwickeln, die auch ohne den Gebrauch von Chemikalien auskommt.“

Umweltschutz schon vor dem Krisenfall berücksichtigen
Nachhaltigkeit sowie Umwelt- und Naturschutz sind allerdings in Katastrophenfällen bislang eher zweitrangig, sodass diese Aspekte bei den großtechnischen Trinkwasseraufbereitungsanlagen der Hilfsorganisationen bisher keine oder eine nur geringe Rolle spielten. Um dieses Manko zu minimieren, hat Franz-Peter Heidenreich einen dringenden Rat. Der Leiter des DBU-Referats Wasser, Boden und Infrastruktur empfiehlt, „den Umweltschutz schon vor einem möglichen Krisenfall zu berücksichtigen“. Auch deshalb, so Heidenreich, weil es eben folgenden Zusammenhang gebe: „Der Klimawandel führt weltweit zu einer wachsenden Anzahl an Katastrophen, insbesondere zu Starkregenereignissen und Hochwassersituationen, auf die dann entsprechend reagiert werden muss.“ Bei der kompakten Trinkwasseraufbereitungsanlage haben die Tüftler Heidenreich zufolge auch den Umweltschutz-Aspekt schon eingebaut.

Ohne Chemie: Anlage kann bis zu 2.500 Liter Wasser pro Stunde aufbereiten
Einen der ersten serienreifen Prototypen der Anlage hat Peper mit seinem Team-Kollegen Sören Lohse nun in Osnabrück, dem Sitz der Deutschen Bundesstiftung Umwelt Referatsleiter Heidenreich vorgestellt. Zusammen platzierten sie das mit Tragegriffen versehene und 135 Kilogramm schwere Gerät namens „SAS-W2500“ auf dem DBU-Gelände. Die Abkürzung steht für „Standardized Aid System“, also: standardisiertes Hilfssystem. „Diese Anlage kann bis zu 2.500 Liter Wasser pro Stunde chemikalienfrei aufbereiten – ohne Chlor“, so Peper. Sie reinigt, indem das Schmutzwasser mit einem Druck von drei bis sieben bar durch Filter mit Mini-Poren im Nanometer-Bereich gepresst wird. Peper: „Druck und Filter halten nicht nur gefährliche Keime wie den Cholera-Erreger, sondern auch winzige bakterielle Giftstoffe und ein hohes Maß an Viren zurück.“ Bei einem Bedarf von drei Litern Trinkwasser pro Person könnten damit rein rechnerisch bis zu 830 Menschen pro Stunde und rund 20.000 Menschen täglich versorgt werden, so Peper.

Katastrophenschutz-Training: erfolgreicher Probe-Einsatz in Frankreich
Öffentlich wirksam präsentiert wurde die Anlage kürzlich in Villejust nahe Paris mit den Hilfsorganisationen @fire aus Deutschland, S.A.R.A.I.D. aus Großbritannien, SARDA aus Nord-Irland und einer kleinen ukrainischen Delegation bei einem viertägigen Katastrophenschutz-Trainingseinsatz, berichtet Peper. „Trotz des sehr stark verschmutzten Wassers haben wir mit einer Anlage ausreichend Wasser für alle fünfzig Einsatzkräfte bereitgestellt“, so Peper – komplett ohne externe Strom- und Wasserversorgung. Mit einem Feldlabor sind nach seinen Worten alle wichtigen chemischen und biologischen Parameter gemessen und die Reinheit sichergestellt worden.

Strom über erneuerbare Energien – Bauteile recyclingfähig
Die Entwickler denken ganzheitlich: „Die benötigte Energie liefert die Anlage mittels eines kleinen eingebauten Generators oder mittels Elektroantrieb, der wiederum mittels einer ausklappbaren Solar-matte gespeist werden kann“, sagt Lohse. Um auch die Einsatzfähigkeit der Solarmatte im Katastrophenfall zu gewährleisten wird derzeit am Standort Leipzig ein zweiter Prototyp mit einer ausklappbaren Photovoltaikanlage getestet. Zudem wird laut Lohse darauf geachtet, dass möglichst alle Bauteile recyclingfähig sind – eine technische Herausforderung.

Nächster Test: Abwurf aus Flugzeugen
Für die Erfinder steht neben Praktikabilität und schneller Hilfe auch der Umweltschutz im Vordergrund. Oft sind Katastrophengebiete nur schwer zugänglich. Deshalb sind für den Einsatz in Krisenregionen nicht nur Mobilität und Autonomie einer Anlage entscheidend. Wichtig ist auch, dass sie notfalls unbeschadet aus einem Flugzeug abgeworfen werden und dann ihre Dienste leisten kann. Entsprechende Tests wollen die Ingenieure als nächstes starten.

Weitere Informationen:
https://www.dbu.de/news/wie-schmutzwasser-trinkbar-wird/
http://Das Team Disaster Relief Systems (DRS) entwickelt in einem von der @umweltstiftung geförderten #DBUprojekt eine umweltfreundliche Trinkwasseraufbereitungsanlage für den Katastrophenfall. Mehr hier: https://www.dbu.de/news/

(nach oben)


Hochwasserereignisse bewältigen: RPTU schult gemeinsam mit Bundeswehr und THW Einsatzkräfte in neuem Planspiel-Format

Fit für den Ernstfall? Die Auswertung der Hochwasserkatastrophe in 2021 hat gezeigt, wie wichtig praktisches Training zur Bewältigung von Hochwasserereignissen ist. Vom 15. bis 18. November 2023 wird es in der Kurmainz-Kaserne in Mainz hierzu ein bis dato einmaliges Übungsformat für Einsatzkräfte geben: Bei einer Stabsrahmenübung simulieren Bundeswehr, Technisches Hilfswerk (THW) und das Fachgebiet Wasserbau und Wasserwirtschaft der RPTU eine komplexe Einsatzlage am Beispiel des katastrophalen Hochwassers in Neuwied. Das Planspiel ist Teil der Forschungsarbeit im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekt KAHR (Klima-Anpassung, Hochwasser, Resilienz).

Im operativen Hochwasserschutz ist es die Aufgabe professioneller Einsatzkräfte, darunter Feuerwehr, THW und Bundeswehr, die Bewältigung großer und katastrophaler Hochwasserereignisse durch konkrete Maßnahmen zu übernehmen. Infolge großflächiger Schadenslagen stehen sie dabei häufig vor komplexen Herausforderungen. Aufbauend auf dem hohen Ausbildungsstand und dem kontinuierlichen Training im Katastrophenschutz gilt es, spezifisches Fachwissen im Umgang mit seltenen oder außergewöhnlichen Hochwasserereignissen zu erwerben und weiterzuentwickeln – und für den Ernstfall zu trainieren. Genau hier setzt die Stabsrahmenübung an: „In den vier Übungstagen werden wir das innovative Planspiel-Format, welches alle Einsatzkräfte im operativen Hochwasserschutz zusammenbringt, mit wissenschaftlicher Begleitung erproben und evaluieren“, sagt Professor Dr. Robert Jüpner, Leiter des Fachgebiets Wasserbau und Wasserwirtschaft an der RPTU. Der Ingenieur war seit dem Hochwasserereignis an der Elbe 2002 regelmäßig selbst Mitglied in Katastrophenstäben. Seine Arbeitsgruppe befasst sich seit Jahren mit verschiedenen Aspekten des operativen Hochwasserschutzes.

Das Gesamtszenario trainieren
Die Teilnehmenden werden drei verschiedene Übungsszenarien bearbeiten, wobei die Komplexität durch das Einspielen zusätzlicher Problemlagen systematisch verschärft wird. Im Blick ist die gesamte Ablaufkette inklusive der notwendigen Interaktionen zwischen den verschiedenen Einsatzkräften: „Wir werden die Fachberater des THW im Katastrophenstab mit realitätsnahen Gefahrenlagen wie etwa dem plötzlichen Versagen einer mobilen Hochwasserschutzanlage konfrontieren“, erklärt Jüpner. „Sie sollen daraufhin fachliche Lösungsansätze erarbeiten, die der zuständige Stabsleiter bewertet und beschließt. Die ermittelten Anforderungen an Ressourcen werden nachfolgend an die Verbindungspersonen der Bundeswehr kommuniziert. Die Bundeswehrkräfte simulieren anschließend sowohl die konkreten Hilfeleistungen zur Umsetzung der Hochwasserbewältigungsmaßnahmen als auch die Funktionsfähigkeit der internen Strukturen. Im Zentrum des Übungsgeschehens steht jedoch die Optimierung der zivil-militärischen Zusammenarbeit. Dieser Ansatz einer gemeinsamen Stabsübung von Bundeswehr und THW und deren wissenschaftliche Begleitung und Evaluierung wurde bisher nicht praktiziert. Aus unserer Sicht das effektivste Training für den Ernstfall.“

Die Erkenntnisse aus der Evaluation werden Professor Jüpner und seine Arbeitsgruppe für ihre fortlaufende wissenschaftliche Arbeit nutzen – konkret für die Weiterentwicklung von Ausbildungsinhalten. Diese Bildungsmodule dienen sowohl dem THW als auch der Bundeswehr zum Trainieren ihrer jeweiligen Fähigkeiten. „Bei positiver Evaluation werden wir das Übungsformat auch auf andere Regionen und Hochwassersituationen sowie weitere Akteure der Katastrophenbewältigung wie etwa Feuerwehren und Deutsches Rotes Kreuz (DRK) übertragen“, so Jüpner.

KAHR spannt den Rahmen
Im Rahmen des Forschungsverbundvorhabens KAHR, das auf die wissenschaftliche Begleitung des Wiederaufbaus nach der Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen abzielt, hatten Jüpner und seine Arbeitsgruppe zunächst ein Aus- bzw. Weiterbildungsmodul für Einsatzkräfte im operativen Hochwasserschutz entwickelt. Ergänzend dazu rückte auch das praktische Erproben in der „hochwasserfreien Zeit“ im Rahmen eines simulierten Einsatzszenarios in den Fokus der Forschenden. Jüpner hierzu: „Durch unsere enge und langjährige Zusammenarbeit mit den Einsatzkräften wurde es möglich, neue Ideen für Übungsformate gemeinsam zu erörtern und gemeinsam in konkrete Angebote zu überführen. Der Besuch einer Bundeswehr-Übung zur zivil-militärischen Zusammenarbeit im April 2023 in Mainz hat dazu einen wesentlichen Impuls geliefert.“ Gemeinsam mit den Expertinnen und Experten des THW, die am THW-Ausbildungszentrum Hoya die „Technischen Berater Hochwasserschutz und Naturgefahren“ ausbilden, hat seine Arbeitsgruppe ein innovatives Format für eine gemeinsame Stabsrahmenübung zur Bewältigung von Hochwasserereignissen entwickelt.

Über KAHR
Das BMBF-geförderte Verbundprojekt KAHR soll mit neuesten wissenschaftlichen Erkenntnissen die Aufbaumaßnahmen in den von der Flutkatastrophe im Juli 2021 zerstörten Regionen in Nordrhein-Westfalen und Rheinland-Pfalz unterstützen. Bis Ende 2024 werden in dem Verbundprojekt mit insgesamt 13 Partnern aus Wissenschaft und Praxis Fragen zur Klimaanpassung, der risikobasierten Raumplanung und zum Hochwasserschutz erarbeitet. Ziel ist es, konkrete Maßnahmen für einen klimaresilienten und zukunftsorientierten Wieder- und Neuaufbau zu schaffen. Weiterführende Informationen unter: https://hochwasser-kahr.de/index.php/de/

Pressekontakt:
Prof. Dr. Robert Jüpner
RPTU Kaiserslautern-Landau, Fachgebiet Wasserbau und Wasserwirtschaft
Tel.: 0631/205-3805
E-Mail: robert.juepner@rptu.de

(nach oben)


Pneumokokken-Impfung: Aktualisierte STIKO-Empfehlung basiert auf Modellierung der Universitätsmedizin Halle

Der 2022 neu für Erwachsene zugelassene Pneumokokken-Impfstoff PCV20 ist den bisher empfohlenen Impfstoffen überlegen. Das zeigen Modellierungen der Universitätsmedizin Halle, die als Datengrundlage für die angepasste Empfehlung der Ständigen Impfkommission (STIKO) genutzt wurden. Der Gemeinsame Bundesausschuss hat nun beschlossen, die Änderungen in seine Schutzimpfungs-Richtlinie zu übernehmen.

Pneumokokken sind Bakterien, die Atemwegsinfektionen verursachen können und über Tröpfchen übertragen werden. Derzeit sind über 90 Varianten des Erregers bekannt, sogenannte Serotypen, die bei der Besiedelung des Nasen-Rachen-Raums untereinander konkurrieren. Wie sicher und wirksam ein Impfstoff gegenüber verschiedener Serotypen ist, wird im Rahmen von klinischen Studien ermittelt. Allerdings lassen sich diese Ergebnisse nur bedingt auf die gesamte Bevölkerung übertragen. Deshalb sind mathematische Modellierungen ein wichtiges Werkzeug in der Analyse neuer Impfstoffe, indem sie Schätzungen zu den Effekten auf der Bevölkerungsebene ermöglichen.

„Die Impfwirksamkeit alleine sagt noch nicht viel darüber aus, welche Krankheitslast sich damit in der Gesellschaft verhindern lässt, z.B. die Anzahl schwerer Infektionen, Sterbefälle oder entstehende Kosten. Dafür müsste man auch die Wirkdauer, Krankheitsinzidenzen und das Risiko für schwere Krankheitsverläufe sowie epidemiologische Trends berücksichtigen. Indirekte Impfeffekte wie die Herdenimmunität spielen dabei eine besondere Rolle und machen eine Analyse sehr komplex“, erklärt Juniorprofessor Dr. Alexander Kuhlmann, Gesundheitsökonom und Versorgungsforscher an der Universitätsmedizin Halle. Modellierungen seien deshalb ein wichtiges Instrument, um Informationen aus Studien und Datenbanken zusammenzuführen. Für die STIKO hat er die unterschiedlichen Impfstrategien zur Prävention von Pneumokokken-Infektionen bei älteren Erwachsenen untersucht.

Die Analyse berücksichtigte weitere Faktoren wie das Kontaktverhalten, die demografische Entwicklung und Eigenschaften der Erreger. Auch die Effizienz und Effektivität der Impfstrategie sowie die Wirtschaftlichkeit waren von Bedeutung. Der neu zugelassene Impfstoff PCV20 ist gegenüber den bisher empfohlenen Impfstoffen PPSV23 und PCV13 demnach effizienter. Im Vergleich zu PPSV23 müssten deutlich weniger Personen eine Impfung mit PCV20 erhalten, um eine Hospitalisierung oder einen Todesfall durch eine Pneumokokken-Erkrankung zu verhindern. Die Arbeit wurde durch das Robert Koch-Institut gefördert.

Wissenschaftliche Ansprechpartner:
Universitätsmedizin Halle
Arbeitsgruppe Gesundheitsökonomie/Versorgungsforschung
Jun.-Prof. Dr. Alexander Kuhlmann
alexander.kuhlmann@uk-halle.de

Originalpublikation:
https://www.rki.de/DE/Content/Infekt/Impfen/Forschungsprojekte/abgeschlossene_Pr… Modellierungsergebnisse

Weitere Informationen:
https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2023/Ausgaben/39_23.pdf?__b… Epidemiologischen Bulletin der STIKO zur angepassten Empfehlung der Pneumokokken-Impfung inkl. wissenschaftlicher Begründung
https://www.g-ba.de/presse/pressemitteilungen-meldungen/1145/ Meldung des Gemeinsamen Bundesausschuss mit Informationen zu den anspruchsberechtigten Personen der Pneumokokken-Impfung

(nach oben)


BLUE PLANET Berlin Water Dialogues 2023: Den Kreislauf schließen – Kreislaufwirtschaft im Wasser weltweit vorantreiben

Die BLUE PLANET Berlin Water Dialogues, eine internationale renommierte Konferenz im Wassersektor, verzeichneten am 8. November 2023 eine Rekordbeteiligung. Mit einer beeindruckenden Zahl von über 800 Anmeldungen aus mehr als 70 Ländern widmete sich die Veranstaltung dem Thema „Closing the Loop – Circular Water Economy“ und demonstrierte damit das konsequente Engagement für Nachhaltigkeit in der globalen Wasserlandschaft.

Nachhaltigkeit als Motor: Visionen und Realität
Die BLUE PLANET Berlin Water Dialogues, eine internationale renommierte Konferenz im Wassersektor, verzeichneten am 8. November 2023 eine Rekordbeteiligung. Mit einer beeindruckenden Zahl von über 800 Anmeldungen aus mehr als 70 Ländern widmete sich die Veranstaltung dem Thema „Closing the Loop – Circular Water Economy“ und demonstrierte damit das konsequente Engagement für Nachhaltigkeit in der globalen Wasserlandschaft. Seit ihrer Gründung im Jahr 2011 ist BLUE PLANET eine bekannte Veranstaltungsreihe, die den dynamischen Austausch von Wissen, Ideen und Erfahrungen fördert, um die globale Wassersituation zu verbessern. Die Konferenz, die als Reaktion auf die Covid-19-Pandemie in den Jahren 2020/2021 auf digitale Formate umgestellt wurde, hat sich zu einer wichtigen digitalen Austauschplattform für Fachleute der Wasserwirtschaft entwickelt und ihre globale Reichweite erweitert. Gefördert durch die Exportinitiative Umweltschutz – GreenTech „Made in Germany“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe (SenWEB) entwickeln sich die BLUE PLANET Berlin Water Dialogues weiter zu einem globalen Knotenpunkt für die Präsentation von Innovationen im Wassersektor.

Die Konferenz wurde mit Grußworten von Boris Greifeneder, Geschäftsführer von German Water Partnership (GWP) und Prof. Dr. Martin Jekel, Geschäftsführer des Kompetenzzentrums Wasser Berlin (KWB), eröffnet. Dr. Severin Fischer, Staatssekretär in der Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe, betonte die zentrale Rolle Berlins bei der Bewältigung der globalen Wasserprobleme und sprach sich für die Beseitigung von Ungleichheiten auf globaler Ebene aus.

Mit inspirierenden Keynotes, Projektpräsentationen, einer dynamischen Podiumsdiskussion und thematischen Break-Out-Sessions befasste sich die Veranstaltung mit wichtigen Themen wie dem Erreichen der Ziele für nachhaltige Entwicklung der Vereinten Nationen (SDGs), Prinzipien der Kreislaufwirtschaft, Wasserstress, Technologiepartnerschaften, Nährstoffrückgewinnung und Wärmerückgewinnung aus Abwasser.

Highlights:
Anna Delgado (World Bank) stellte das Dokument „Water in Circular Economy and Resilience“ (WICER) vor, das die Diversifizierung von Wasserquellen, die Rückgewinnung von Ressourcen und die Optimierung der Ressourcennutzung thematisiert.

Dr. Anne Kleyböcker (KWB) sprach das kritische Thema der Wasserknappheit an und stellte den Water Europe Marketplace als Lösung vor.

Dr. Christian Kabbe (EasyMining Deutschland) erörterte sektorübergreifende Partnerschaften für die Umsetzung einer groß angelegten Wasserkreislaufwirtschaft.

Timo Paul (Vattenfall Wärme Berlin) und Heinrich Gürtler (Berliner Wasserbetriebe) stellten das Potenzial der Wärmerückgewinnung aus Abwasser durch das Projekt InfraLab Berlin vor.

Samuela Guida (International Water Association IWA) stellte die IWA und deren aktuellen Aktivitäten vor.

Die Podiumsdiskussion, moderiert von Dr. Christian Remy (KWB), beleuchtete das Zusammenspiel von Wirtschaftlichkeit und Nachhaltigkeit und betonte die Notwendigkeit klarer Definitionen und Standards, wobei die Rolle des Gesetzgebers als treibender Faktor im Vordergrund stand.

Zusammenfassend unterstrichen die BLUE PLANET Berlin Water Dialogues 2023 die zentrale Rolle der Kreislaufwirtschaft bei der Bewältigung globaler Herausforderungen, wobei der Schwerpunkt auf der dringenden Notwendigkeit eines nachhaltigen Wassermanagements lag. Die vielfältigen Vorträge und Diskussionen der Veranstaltung boten eine umfassende Perspektive auf aktuelle Entwicklungen und zukünftige Herausforderungen in diesem wichtigen Sektor.

Alle Sessions der Veranstaltung sind als Video-on-Demand auf der BLUE PLANET Webseite abrufbar.

Die digitale Veranstaltung wurde auf Englisch und für Teilnehmende kostenfrei angeboten. Weitere Informati-onen zu den BLUE PLANET Berlin Water Dialogues erhalten Sie unter www.blueplanetberlin.de

Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen Politik, Wasserwirtschaft, Wissenschaftler:innen und Nicht-Regierungsorganisationen entwickelt und etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche und internationale Kompetenzen und Lösungsansätze vorgestellt und beworben. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern. Damit sollen praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und Künstliche Intelligenz, in der Wasserwirtschaft oder dem Umweltschutz, durch ressourceneffiziente Technologien vorangetrieben werden. BLUE PLANET Berlin Water Dialogues 2023 wird vom KWB Kompetenzzentrum Wasser Berlin gGmbH und German Water Partnership e.V. zusammen mit den Berliner Beratungsunternehmen T-Base Consulting GmbH and eclareon GmbH organisiert.
Anhang
Pressemitteilung_BLUE-PLANET_01-12-23

(nach oben)


Berufsbegleitend studieren: Infoveranstaltungen und Schnuppervorlesungen

5. Dezember 2023: Online-Infoveranstaltung zu allen berufsbegleitenden Studiengängen der Hochschule Heilbronn.
06. und 21. Dezember 2023: Präsenz-Schnuppervorlesungen im berufsbegleitenden Bachelorstudiengang Maschinenbau
09. Januar 2024: Online-Infoveranstaltung zu den berufsbegleitenden MBA Studiengängen Unternehmensführung und International Automotive Management

Berufsbegleitend Studieren – was kommt da auf einen zu? Im Dezember 2023 und Januar 2024 organisiert das Heilbronner Institut für Lebenslanges Lernen (HILL) zusammen mit der Hochschule Heilbronn (HHN) wieder einige Infoveranstaltungen, die genau das beantworten. Studieninteressierte erfahren dabei alles über die berufsbegleitenden Bachelor-, Master- und MBA-Studiengänge der HHN. Bei Schnuppervorlesungen am Campus Sontheim können Interessierte zudem in den berufsbegleitenden Bachelorstudiengang Maschinenbau eintauchen.

Hier die jeweiligen Termine im Überblick:

Info-Event zum gesamten berufsbegleitenden Studienangebot, online
Am Dienstag, 05. Dezember 2023, können sich Studieninteressierte bei der Infoveranstaltung um 18.30 Uhr „KarriereBoost ONLINE“ über die berufsbegleitenden Bachelor-, Master- und MBA-Studiengänge an der Hochschule informieren und ihre Fragen loswerden. Die Veranstaltung findet online statt. Weitere Informationen und Anmeldung unter http://www.hs-heilbronn.de/karriereboost.

Schnuppervorlesungen: Maschinenbau, Campus Sontheim
Wie läuft der berufsbegleitende Bachelorstudiengang Maschinenbau ab? Und wie lässt sich das Vorlesungsmodell mit dem Beruf vereinbaren? Bei den Schnuppervorlesungen können Studieninteressierte hautnah einen ersten Eindruck gewinnen. Am 06. und 21. Dezember finden diese je ab 17.45 Uhr am Campus Sontheim der HHN statt. Die Themen BWL oder Chemie sind frei wählbar. Weitere Informationen unter http://www.hs-heilbronn.de/weiterbildung-infoveranstaltungen.

Info-Event über MBA Studiengänge, online
Am Dienstag, 09. Januar 2024, 18.30 Uhr, informieren die beiden Professoren und Studiengangleiter Roland Alter und Ansgar Meroth über die berufsbegleitenden MBA Studiengänge Unternehmensführung und International Automotive Management. Weitere Informationen und Anmeldung unter https://www.hs-heilbronn.de/de/karriereboost-yia-yuf.


Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit ca. 8.000 Studierenden ist die Hochschule Heilbronn (HHN) eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt in den Bereichen Technik, Wirtschaft und Informatik. An ihren vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die HHN mehr als 60 zukunftsorientierte Bachelor- und Masterstudiengänge an, darunter auch berufsbegleitende Angebote. Die HHN bietet daneben noch weitere Studienmodelle an und pflegt enge Kooperationen mit Unternehmen aus der Region. Sie ist dadurch in Lehre, Forschung und Praxis sehr gut vernetzt. Das hauseigene Gründungszentrum unterstützt Studierende sowie Forschende zudem beim Lebensziel Unternehmertum.
Pressekontakt Hochschule Heilbronn: Vanessa Offermann, Pressesprecherin,
Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/kommunikation

Heilbronner Institut für Lebenslanges Lernen (HILL) – Berufsbegleitend studieren
Das Heilbronner Institut für Lebenslanges Lernen (HILL) gemeinnützige GmbH ist die zentrale Weiterbildungseinrichtung der Hochschule Heilbronn. HILL bündelt als Service- und Dienstleistungsunternehmen alle Qualifizierungs- und Weiterbildungsmaßnahmen der Hochschule im Bereich Technik, Wirtschaft und Informatik, organisiert Tagungen und unterstützt Fachseminare. Der Schwerpunkt des Portfolios liegt in berufsbegleitenden Studienangeboten auf Bachelor- und Masterniveau, die stark praxisorientiert und optimal auf die Bedürfnisse der berufstätigen Studierenden angepasst sind.
Pressekontakt HILL: Nina Kleiber, Marketing berufsbegleitende Studiengänge, Telefon: 07131-504-1232, E-Mail: nina.kleiber@hill-heilbronn.de, Internet: http://www.hs-heilbronn.de/hill

(nach oben)


Eine Impfung gegen kranke Äcker

Ackerböden beherbergen oft viele Krankheitserreger, die Pflanzen befallen und Erträge mindern. Ein Schweizer Forschungsteam hat nun gezeigt, dass eine Impfung des Bodens mit Mykorrhiza-Pilzen helfen kann, den Ertrag ohne zusätzliche Düngung und Pflanzen-schutzmittel zu halten oder gar zu verbessern. In einem gross angelegten Freilandversuch konnte die Ernte um bis zu 40 Prozent gesteigert werden.

Intensiver Einsatz von Dünger und Pflanzenschutzmitteln auf unseren Äckern verringert die Bio-diversität und belastet die Umwelt. Daher besteht ein grosses Interesse an nachhaltigen Möglich-keiten zur Ertragssicherung ohne Einsatz von Agrarchemikalien. Ein Beispiel von alternativen Biologicals sind Mykorrhiza-Pilze, welche als Nützlinge die Pflanzen bei der Nährstoffaufnahme unterstützen.

Eine Ertragsverbesserung um bis zu 40 Prozent
Ein Team von Forschenden der Universitäten Zürich und Basel, von Agroscope sowie dem For-schungsinstitut für biologischen Landbau FiBL hat nun erstmals grossflächig gezeigt, dass das Ausbringen von Mykorrhiza-Pilzen im Feld tatsächlich funktioniert. Auf 800 Versuchsflächen, be-ziehungsweise 54 Maisfeldern in der Nord- und Ostschweiz wurden die Pilze vor der Aussaat in den Boden eingearbeitet. «Die Mykorrhiza-Pilze ermöglichten auf einem Viertel der Äcker einen bis zu 40 Prozent besseren Ertrag. Das ist enorm», sagt der Co-Studienleiter Marcel van der Hei-jden, Bodenökologe an der Universität Zürich und Agroscope. Die Sache hat allerdings einen Haken: Auf einem Drittel der Äcker gab es keine Ertragssteigerung oder sogar einen Ertragsrück-gang. Das konnte sich das Team zunächst nicht erklären.

Krankheitserreger im Boden
Auf der Suche nach der Ursache analysierten die Forschenden eine Vielzahl chemischer, physi-kalischer und biologischer Bodeneigenschaften, darunter auch die Artenvielfalt der Bodenmikro-ben. «Wir haben herausgefunden, dass die Impfung vor allem dann gut funktioniert, wenn viele pilzliche Krankheitserreger im Boden vorhanden sind», sagt Co-Erstautorin Stefanie Lutz von Agroscope, dem Kompetenzzentrum des Bundes für Forschung in der Land- und Ernährungs-wirtschaft. «Die Mykorrhiza-Pilze wirken wie eine Art Schutzschild bei Krankheitserregern im Bo-den, welche die Pflanzen schwächen würden.» In der Folge bleibt der normal hohe Ertrag erhal-ten, während ohne Mykorrhiza-Pilze Ernteverlusten anfallen würden. Auf Äckern, die nicht mit Krankheitskeimen belastet sind, haben Mykorrhiza-Pilze dagegen nur einen geringen Effekt. «Dort sind die Pflanzen ohnehin schon stark und wachsen hervorragend. Das Ausbringen von Mykorrhiza bringt hier keinen zusätzlichen Nutzen», sagt Natacha Bodenhausen vom For-schungsinstitut für biologischen Landbau, ebenfalls Erstautorin.

Impferfolg ist vorhersagbar
Ziel der von der «Gebert Rüf Stiftung» finanzierten Studie war es, vorhersagen zu können, unter welchen Bedingungen eine Mykorrhiza-Impfungen funktioniert. «Mit wenigen Bodenindikatoren – hauptsächlich Bodenpilzen – konnten wir den Erfolg einer Impfung in 9 von 10 Feldern prognos-tizieren – und damit auch bereits vor der Feldsaison den Ernteertrag», sagt der Co-Studienleiter Klaus Schläppi von der Universität Basel. «Diese Vorhersagbarkeit erlaubt es, die Pilze dann gezielt in Äckern einzusetzen, wo diese auch funktionieren. Das wird entscheidend sein, damit sich diese Technologie zu einer zuverlässigen landwirtschaftlichen Methode entwickeln kann», so Schläppi.

Noch sind weitere Forschungen dazu nötig, wie sich die Pilze am einfachsten grossflächig aus-bringen lassen. «Die Ergebnisse dieses Feldversuches sind aber schon jetzt ein grosser Schritt in Richtung einer nachhaltigeren Landwirtschaft», erklärt Marcel van der Heijden.

Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Marcel van der Heijden
Institut für Pflanzen- und Mikrobenbiologie
Universität Zürich
E-Mail: marcel.vanderheijden@botinst.uzh.ch
Tel.: +41 44 63 48286

Prof. Dr. Klaus Schläppi
Universität Basel
E: klaus.schlaeppi@unibas.ch
T: +41 61 207 2310

Originalpublikation:
Literatur:
Stefanie Lutz et al. Soil microbiome indicators can predict crop growth response to large-scale inoculation with arbuscular mycorrhizal fungi. Nature Microbiology, 29. November 2023. DOI: 10.1038/s41564-023-01520-w
Weitere Informationen:
https://www.news.uzh.ch/de/articles/media/2023/Aecker.html

(nach oben)


Ein neues Zeitalter in der Medizin

MHH-Forschende schreiben Lancet-Übersicht zu den Erfolgen der Präzisionsgentherapie
„Für die Medizin hat eine neue Ära begonnen.“ Darüber sind sich Professorin Dr. Hildegard Büning und Professor Dr. Axel Schambach einig. Die Gentherapie-Experten aus dem Institut für Experimentelle Hämatologie der Medizinischen Hochschule Hannover (MHH) haben gemeinsam mit fünf weiteren Experten in einem jetzt erschienenen Übersichtsartikel für die Ärzteschaft in der renommierten Fachzeitschrift „The Lancet“ den aktuellen Stand der Gentherapie zusammengefasst. „Wir können heute extrem präzise, mikrochirurgische Eingriffe am Genom durchführen“, erläutert Professor Schambach. Möglich macht das die Methode des Genome-Editing, auch Genom-Chirurgie genannt.

Mikrochirurgie des Genoms
Bei der klassischen Gentherapie wird versucht, die Funktion eines defekten Gens zu ersetzen, indem zum Beispiel eine korrekte Version des Gens zusätzlich in die Zelle eingebracht wird. „Beim Genome-Editing hingegen können wir mit einer Art Skalpell direkt einzelne defekte Sequenzen aufspüren, herausschneiden und durch intakte ersetzen“, betont Professorin Büning. „Das kommt einer Mikrochirurgie des Genoms gleich und ermöglicht sprichwörtlich eine Genreparatur“, ergänzt Professor Schambach. „Dieselbe Technik kann auch verwendet werden, um Zelltherapeutika wie sie etwa im Bereich der Onkologie verwendet werden, in ihrer Aktivität zu verbessern, oder gezielt Gene auszuschalten, um uns vor dem Angriff bestimmter Viren zu schützen oder Transplantate für das Immunsystem des Empfängers unsichtbar zu machen“, sagt Professorin Büning. „Wir stehen tatsächlich an der Schwelle eines neuen Zeitalters: Dank der nun möglichen zielgerichteten Korrektur innerhalb des Genoms wird uns ein erweitertes Arsenal von Therapeutika zur Verfügung stehen.“

Erste Gentherapie auf Basis von CRISPR-Methode zugelassen
Ein Werkzeug, das den Fortschritt drastisch beschleunigt hat, ist die Genschere CRISPR, für die die frühere MHH-Professorin Emmanuelle Charpentier 2020 mit dem Medizin-Nobelpreis geehrt worden war. „Am 16. November, also vor nicht einmal zwei Wochen, ist in Großbritannien weltweit die erste Gentherapie zugelassen worden, die auf dieser Gentechnik beruht“, berichtet Professorin Büning. Menschen, die an den Bluterkrankungen Sichelzellenanämie und Beta-Thalassämie leiden, können damit therapiert werden. Diesen Meilenstein konnten die Autoren in allerletzter Minute noch in ihrem Übersichtartikel aufnehmen.

Für die beiden MHH-Professoren zeigt dieses Beispiel, wozu das „Feintuning in den Genen“ schon heute taugt. „Und es wird noch mehr können: Eine Idee ist, auch bei Volkskrankheiten wie etwa einem zu hohen Cholesterinspiegel mit Hilfe von genetischen Scheren oder Radiergummis‘ im Genom mögliche Fehlfunktionen aufzudecken und zu korrigieren“, meint Professor Schambach.

Zahl neu zugelassener Gentherapien wird drastisch steigen
Die Autoren haben für ihren Artikel 225 wissenschaftliche Publikationen ausgewertet. „Die Gentherapeutika erreichen zunehmend die Patientinnen und Patienten, wie die vielen klinischen Studien, die wir ausgewertet haben, zeigen“, erläutert Professorin Büning. Das sei aber erst der Anfang: Ab dem Jahr 2025 rechnet man in den USA mit 15 bis 20 neu zugelassenen Gentherapien – pro Jahr. Den Autoren ist ganz besonders wichtig, dass die zugelassenen Gentherapien dann auch für die Patientinnen und Patienten zugänglich sind. „Das ist leider bisher nicht sichergestellt“, betont Professor Schambach.

Erfolge beruhen auf interdisziplinären Teams
In ihrem Artikel betonen die Forschenden, dass eine Gentherapie ein extrem komplexes Arzneimittel ist. „Der Erfolg von Gentherapien beruht auf interdisziplinärer Zusammenarbeit von Ärztinnen, Ärzten, Forschenden, Ethikerinnen, Ethikern, regulatorischen Behörden und Patientenorganisationen“, ist sich Professor Schambach sicher. Dabei sei es auch immer wieder notwendig, eine kritische Bewertung des Benefits und Risikos für die Betroffenen durchzuführen und auch an Monitoring-Strategien zu arbeiten, um zu besseren Vorhersagen bzgl. möglicher Nebenwirkungen zu kommen.

Mit einem Ausblick beschließen die MHH-Autoren ihren Artikel. „Die in der Gentherapie angewendeten Methoden haben enorme Einflüsse auf die Medizin von morgen“, sind sich die beiden sicher, „denn mit derselben Strategie, wie wir Gendefekte suchen, können wir auch neue Diagnostika entwickeln.“

Wissenschaftliche Ansprechpartner:
Professorin Dr. Hildegard Büning, buening.hildegard@mh-hannover.de, Telefon (0511) 532-5106,
Professor Dr. Axel Schambach, schambach.axel@mh-hannover.de, Telefon (0511) 532-6067

Originalpublikation:
https://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(23)01952-9.pdf

(nach oben)


Post-Covid in Auswirkung auf Schlaf und Träume

Viele Dinge, die unser Leben beeinflussen, beeinflussen auch unseren Schlaf. So war es auch mit Corona. Schon im ersten Pandemie-Jahr stellten Schlafforscher auf der damals digitalen Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) erste Untersuchungen zum Einfluss von Covid-19 auf Schlaf und Träume vor. Dieses Jahr treffen sich die Experten in Berlin und auch dort werden die Nachwirkungen des Virus im Programm behandelt. Wir stellen Ihnen drei der Themen vor:

Eingesperrt in einer Kiste: Träume im Lockdown
Traumforscher wollen generell ergründen, wie sich das Wachleben auf die Traumwelt auswirkt. Und die Corona-Pandemie war ein Faktor, der sich sehr deutlich in den Träumen weltweit widerspiegelte. Dies zeigten internationale Studien, an denen der Mannheimer Traumforscher Prof. Michael Schredl beteiligt war, und über deren Ergebnisse er im Dezember auf dem Kongress der DGSM berichten wird. Einheitlich erwies es sich, dass diejenigen, die besonders stark unter den Coronamaßnahmen gelitten haben oder diejenigen, die sehr große Angst vorm Erkranken hatten, auch vermehrt Alpträume hatten. 10 und 15% der Befragten, gaben an, dass mit Beginn der Pandemie die Alpträume zugenommen haben. Die Inhalte der Träume gehen dabei von Sorgen, dass geliebte Menschen schwer erkranken oder dass trotz offenkundiger Gefahr keiner mehr Maske trägt, bis zum Szenario des Eingesperrtseins in einer Kiste als Sinnbild, dass man der Situation nicht entkommen kann. „Es ist typisch für mit Stress assoziierte Träume, dass diese nicht die eigentliche Situation wiedergeben, die den Stress auslöst. Hier wird dann oft metaphorisch geträumt“, erklärt Michael Schredl.
Eine spannende Erkenntnis seiner vielfältigen Alptraumforschungsprojekte ist, dass ein Großteil der Erwachsenen, die über viele Jahre schon Alpträume haben, diese nicht behandeln lassen, obwohl sie als belastend empfunden werden. Gründe hierfür könnten sein, dass man sich dafür schämt oder eine Auseinandersetzung damit vermeiden will. Woran es genau liegt, und wie man diese Menschen erreicht, damit beschäftigt sich aktuell die AG Traum der DGSM. An dieser Stelle gern der Hinweis, dass sich Betroffene jederzeit dorthin wenden können, wenn Sie Hilfe suchen! Auf der Homepage der DGSM (www.dgsm.de) finden sich Informationsmaterial, eine Liste mit Anlaufstellen in Deutschland und Fragebögen zum Thema. Prof. Schredl kann jedem nur raten, Alpträume auch als Chance zu verstehen: „Obwohl sie zunächst belastend sind, können Alpträume den Ausgangspunkt für die konstruktive Bewältigung von Ängsten bieten.“ Und die Therapie (Üben in der Vorstellung, die Alptraumsituation zu bewältigen) sei nicht nur kurz, sondern wirke schnell und gut.

Wirksame Behandlungen bei Post-COVID-Patienten sind da: die richtige Diagnose ist entscheidend
Auf Schlafveränderungen bei Post-COVID-Patienten bezieht sich der Vortrag zu „Schlafphänotypen und Biomarker bei Post-COVID-Syndrom“ von Neurologin und Psychiaterin Dr. Claudia Schilling. Die Leiterin des Schlaflabors am Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim untersuchte Patienten, die viele Monate nach einer SARS-CoV-2-Infektion noch an neuropsychiatrischen Beschwerden wie Fatigue, kognitiven Störungen, Schlafstörungen oder Kopfschmerzen leiden, im Schlaflabor. „Ein sehr großer Anteil der Post-COVID-Betroffenen zeigt Veränderungen des Schlaf-Wach-Verhaltens“, sagt Claudia Schilling, „Dabei fällt auf, dass es ein breites Spektrum an Schlafstörungen gibt, viel Insomnie, aber auch häufige schlafbezogene Atmungsstörungen, und dies auch bei Menschen, die nicht dem typischen Risikoprofil entsprechen. Außerdem sehen wir vermehrt Hypersomnien, also Betroffene, die trotz gesunden Nachtschlafs an messbar erhöhter Tagesschläfrigkeit leiden. Wichtig ist es daher, die Schlafstörungen gezielt zu diagnostizieren, denn es stehen wirksame Behandlungen zur Verfügung, nur ist die Behandlung je nach Diagnose eine andere“. Mit Biomarker-Untersuchungen will die Arbeitsgruppe von Claudia Schilling nun möglichen Ursachen und Einflussfaktoren der Schlafveränderungen auf den Grund gehen.

Starke Erschöpfung bei Post-Covid-Patienten erschwert schlafmedizinische Einschätzung
Zu Beginn der Pandemie war nicht klar, was für Langzeitfolgen sich daraus entwickeln würden. Betroffene von Long-Covid berichteten auch hier recht früh über Schlafstörungen und Tagesschläfrigkeit. Sehr schnell wurde dann klar, dass die Vielzahl der Post-Covid-Betroffenen in der Praxis nur mit Mühe versorgt werden kann. „Etwa zwei Drittel unserer Post-COVID-Patienten leiden unter chronischer Erschöpfung, medizinisch als Fatigue bezeichnet. Um darunter genau diejenigen Patienten zuverlässig filtern zu können, die aufgrund ihrer Tagesschläfrigkeit zur weiteren Diagnostik unbedingt ins Schlaflabor müssen, nutzten wir einen Fragebogen“, erklärt Solveig Menrad, wissenschaftliche Mitarbeiterin des Interdisziplinären Zentrums für Schlaf- und Beatmungsmedizin am Universitätsklinikum Jena. Dieses Vorgehen sollte die Diagnostik von Schlaferkrankungen, wie der Narkolepsie, verbessern, die nach einer SARS-CoV-2- Erkrankung auftreten könnten. Jedoch wurde die eigene Tagesschläfrigkeit im Fragebogen von ca. 50% der Teilnehmer als so hoch eingeschätzt, dass diese für eine Schlaflabordiagnostik in Frage gekommen wären. „Dazu hätten wir keine Kapazitäten gehabt, und so haben wir zum Gegenchecken den Pupillographischen Schläfrigkeitstest hinzugezogen, der eine objektive Erfassung erhöhter Tagesschläfrigkeit ermöglicht. Danach blieben nur noch etwa 2% der Patienten, die objektiv gesehen einer Testung im Schlaflabor bedurften“, so Solveig Menrad. Der hohe Leidensdruck der Patienten, die stark unter ihrer Erschöpfung leiden und viele Ruhephasen am Tag benötigen, könnte diese Abweichung erklären. In einem Vortrag berichtet Solveig Menrad von den praktischen Erfahrungen dieser Screenings, die mit Sicherheit auch anderen Behandlern von Post-Covid-Betroffenen bei der Diagnostik helfen können.
An eine Post-Covid-Ambulanz wird man vom Hausarzt überwiesen. Momentan gibt es aufgrund der hohen Patientenzahlen an vielen Orten lange Wartezeiten.

Das Motto der 31. Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM), die vom 07.-09.12. in Berlin stattfindet, lautet „Schlaf in Zeiten des Wandels“. Im Programm wird es Vorträge und Diskussionen zu den Themen Schlaf und Umwelt – Licht, Lärm, Schlafumgebung und Klima(wandel) geben, aber auch zum Schlaf in Krisenzeiten, zu den Herausforderungen des (Arbeits-)Lebens und des sozialen Miteinanders.

Weitere Pressemitteilungen finden Sie online unter https://dgsm-kongress.de/allgemeine-informationen/presse.

Medienvertreter sind herzlich zur Teilnahme am Kongress und der vorab am
4.12. 2023 um 11 Uhr stattfindenden Online-Pressekonferenz
eingeladen!
Zur Akkreditierung senden Sie bitte eine Mail an romy.held@conventus.de!

Weitere Informationen:
http://www.dgsm.de
http://www.dgsm-kongress.de/allgemeine-informationen/presse

(nach oben)


Verstärkung für das Themenfeld Künstliche Intelligenz

Prof. Dr. Michael Klesel ist neuer KI-Professor an der Frankfurt UAS/Finanzierung der Professur durch hochschulübergreifendes Zentrum hessian.AI

Künstliche Intelligenz (KI) ist heute allgegenwärtig und stellt Gesellschaft und Wirtschaft vor neue Herausforderungen. Wie können KI-basierte Lösungen effektiv und nachhaltig in Unternehmen eingeführt werden? Wie gelingt es Unternehmen, ihre Mitarbeitenden bei der Transformation abzuholen und mitzunehmen? Wie können Gründungspotenziale gehoben werden? Um zu erforschen, wie diese Fragestellungen beantwortet werden können, hat die Frankfurt University of Applied Sciences (Frankfurt UAS) zum Wintersemester 2023/2024 Prof. Dr. Michael Klesel berufen. Am Fachbereich Wirtschaft und Recht widmet er sich im Zuge seiner Professur dem Thema „Künstliche Intelligenz und Entrepreneurship“. Als Antwort auf die steigende Bedeutung von KI in Wissenschaft und Wirtschaft hat die Frankfurt UAS beschlossen, hochschulweit insgesamt vier KI-Professuren, die gemeinsam und mit weiteren Professor*innen der Hochschule interdisziplinär zu KI forschen werden. Die Einrichtung der ersten Professur, die nun von Klesel angetreten wurde, wird durch die Finanzierung des hochschulübergreifenden Zentrums hessian.AI ermöglicht.

„Künstliche Intelligenz ist der Schlüssel zur Lösung zahlreicher komplexer Herausforderungen unserer Zeit, und wir sind stolz darauf, diesen Weg mit einer herausragenden Persönlichkeit wie Prof. Dr. Michael Klesel zu beschreiten“, freut sich Prof. Dr. Susanne Rägle, Vizepräsidentin für Forschung, Weiterbildung, Transfer der Frankfurt UAS. „Die enge Partnerschaft zwischen der Frankfurt UAS und hessian.AI wird zudem gewährleisten, dass wir nicht nur unsere Studierenden auf die Herausforderungen und Chancen dieser zukunftsweisenden Technologie vorbereiten, sondern auch einen bedeutenden Beitrag zur Innovation und Wettbewerbsfähigkeit in der Region leisten.“

„Die Zusammenarbeit der 13 hessischen Hochschulen und Universitäten im Netzwerk von hessian.AI bildet eine Synergie aus akademischer Exzellenz und praktischer Anwendung, die für den KI-Standort Hessen von unschätzbarem Wert ist. Mit Prof. Dr. Michael Klesel gewinnen wir einen Experten, der die Brücke zwischen Forschung und realwirtschaftlicher Innovation verstärken und einen wichtigen Beitrag dazu leisten wird, dass die Entwicklung und Implementierung von KI-Lösungen vorangetrieben sowie der Wirtschaftsstandort Hessen gestärkt wird“, sind sich Prof. Dr. Dr. Mira Mezini und Prof. Dr. Kristian Kersting, Co-Direktor*innen von hessian.AI, einig.

Die Professur für Wirtschaftsinformatik, insbesondere Künstliche Intelligenz und Entrepreneurship
Die neu besetzte Professur für Künstliche Intelligenz beschäftigt sich mit aktuellen Fragestellungen aus einer sozio-technischen Perspektive. Im Zentrum der Forschungsaktivitäten stehen Forschungsfragen an der Schnittstelle von Mensch und Technik. Konkrete Herausforderungen, wie beispielsweise die Identifikation von Treibern und Hemmnissen bei der Nutzung von KI-Systemen, werden empirisch erforscht. Die Professur strebt einen starken Transfer zwischen wissenschaftlichem Erkenntnisgewinn und konkreten Anwendungen in Unternehmen an. Aus den Forschungsergebnissen können konkrete Empfehlungen und Maßnahmen für Unternehmen abgeleitet werden. Damit soll neben der wissenschaftlichen Arbeit auch ein spürbarer Nutzen für deutsche Unternehmen geschaffen werden. Möglichkeiten für neue Geschäftsmodelle und Chancen für Ausgründungen werden ausgelotet, um neue Konzepte und Ideen für die Wirtschaft nutzbar zu machen.

„Die aktuellen Entwicklungen im Bereich der KI sind für viele Menschen beeindruckend und herausfordernd zugleich. Mit dem Durchbruch von Large Language Modellen, kurz LLMs, wie beispielswese ChatGPT, wird das Potenzial erstmals auch für eine breite Nutzergruppe zugänglich und kann im Alltag angewandt werden. Mit dieser bemerkenswerten Entwicklung tauchen neue Problemstellungen auf, die erforscht und gelöst werden müssen“ betont Professor Klesel. Hierzu zählen etwa Fragen wie: Wie geht man am besten mit Halluzinationen von KI-Modellen um? Welche Möglichkeiten gibt es, das Vertrauen in KI-Systeme zu stärken? Welche Stellschrauben haben Unternehmen, um KI effektiv und effizient einzusetzen? „Die Herausforderungen lassen sich oft nur in interdisziplinären Teams und in der Zusammenarbeit zwischen Forschungseinrichtungen und Unternehmen bewältigen. Die Frankfurt UAS und hessian.AI sind dabei kompetente Ansprechpartner, um die spannenden und komplexen Fragestellungen im Kontext von KI zu beantworten.“

Zur Person Michael Klesel
Prof. Dr. Michael Klesel ist seit Oktober 2023 Professor für Wirtschaftsinformatik, insbesondere Künstliche Intelligenz und Entrepreneurship an der Frankfurt UAS. Zuvor war er als IT-Projektleiter und Customer Experience Scientist bei der R+V Versicherung in Wiesbaden tätig. Seine Promotion schloss er mit Auszeichnung (summa cum laude) an der Universität Siegen ab. Anschließend leitete er eine Forschungsgruppe zum Thema „Smart Work und Arbeit 4.0“. In dieser Zeit forschte er an renommierten Universitäten wie der Florida State University in Tallahassee und der Twente University in Enschede. Neben einem breiten Spektrum an wissenschaftlichen Methoden verfügt er über ein breites Portfolio an Erfahrungen aus der freiberuflichen Tätigkeit und der Zusammenarbeit mit Unternehmen.

Kontakt
Frankfurt University of Applied Sciences
Fachbereich 3: Wirtschaft und Recht
Prof. Dr. Michael Klesel
Telefon: +49 69 1533-3351
E-Mail: http://michael.klesel@fb3.fra-uas.de

Weitere Informationen zum Fachbereich Wirtschaft und Recht unter www.frankfurt-university.de/fb3. Mehr zu Hessian.AI unter https://hesian.ai.

(nach oben)


Zuckersteuer könnte bis zu 16 Milliarden Euro einsparen

Eine Simulationsstudie der Technischen Universität München (TUM) zeigt: Eine Softdrink-Steuer in Deutschland hätte deutliche positive Auswirkungen. Bei allen simulierten Varianten würde weniger Zucker konsumiert, Erkrankungen wären seltener. So ließen sich volkswirtschaftliche Kosten senken und das Gesundheitssystem entlasten. Dabei macht es einen Unterschied, ob die Abgabe darauf zielt, den Softdrink-Konsum zu senken oder Rezeptur-Änderungen herbeizuführen.

Gezuckerte Getränke erhöhen das Risiko für Übergewicht und Erkrankungen wie Diabetes. Einige Länder haben deswegen Steuern oder Abgaben auf Softdrinks eingeführt. In Deutschland gibt es seit 2018 eine Selbstverpflichtung der Getränkeindustrie, den Zuckergehalt in Softdrinks zu reduzieren. Wie eine Studie unter Mitwirkung von Michael Laxy, Professor für Public Health und Prävention an der TUM, Anfang 2023 gezeigt hat, bleiben die Auswirkungen bislang deutlich hinter den Erwartungen zurück.

Im Fachmagazin „PLOS Medicine“ hat ein Team um Michael Laxy und Chris Kypridemos von der University of Liverpool jetzt berechnet, welche Auswirkungen dagegen die Einführung einer sogenannten Zuckersteuer für Deutschland hätte. „Dabei haben uns kurz- und längerfristige Auswirkungen gleichermaßen interessiert. Wir haben deswegen simuliert, wie sich die gängigsten internationalen Besteuerungs-Ansätze im Zeitraum von 2023 bis 2043 auswirken würden“, sagt Michael Laxy. Die bestehenden Softdrink-Abgaben lassen sich grob in zwei Gruppen aufteilen. So müssen beispielsweise in Großbritannien Unternehmen Abgaben leisten, die sich nach der Zuckermenge in den Softdrink-Rezepturen richten. In Mexiko wird die Steuer dagegen unabhängig vom Zuckergehalt der Softdrinks erhoben. Ergebnisse aus internationalen Studien zeigen, dass letztere Variante vor allem zu einer verringerten Nachfrage nach Softdrinks führt, während erstere Variante zudem mit einer Änderung der Rezeptur hin zu weniger Zucker in den Softdrinks einhergeht.

Pro-Kopf-Konsum von Zucker gesenkt
Der Simulation zufolge würde bei einem pauschalen 20-prozentigen Aufschlag auf die Softdrink-Preise der Zuckerkonsum pro Tag und Person um ein Gramm sinken. Betrachtet man nur Männer zwischen 30 und 49 Jahren wären es sogar knapp drei Gramm. Noch stärker würde sich eine Reduktion des Zuckers in den Rezepturen um 30 Prozent auswirken, wie sie in Großbritannien nach Einführung der gestaffelten Hersteller-Abgabe verzeichnet wurde. Durch weniger Zucker in den Getränken würde der Pro-Kopf-Konsum in Deutschland um täglich 2,3 Gramm reduziert – beziehungsweise um 6,1 Gramm für Männer zwischen 30 und 49.

Das Modell des Teams simuliert die deutsche Gesellschaft für den untersuchten Zeitraum. Es nutzt Daten zur individuellen Ernährung, zu Erkrankungen wie Diabetes, zu gesundheitlichen Risikofaktoren und offizielle Bevölkerungsstatistiken. Menschen unter 30 wurden allerdings nicht berücksichtigt, da die meisten der modellierten Erkrankungen vor allem in der zweiten Lebenshälfte auftreten. „Aus nationalen und internationalen Studien wissen wir aber, dass der Softdrink-Konsum im Teenageralter am höchsten ist“, sagt Erstautor Karl Emmert-Fees. „Dementsprechend wäre die durchschnittliche Reduktion des Zuckerkonsums noch drastischer und der positive gesundheitliche Effekt noch größer, wenn wir jüngere Menschen mitberücksichtigen würden.“

Weniger Erkrankungen
„Eine Reduktion des Zuckerverbrauchs um wenige Gramm pro Person klingt nicht nach viel – rein statistisch liegt der Zuckerkonsum in Deutschland bei täglich etwa 95 Gramm pro Kopf. Die Weltgesundheitsorganisation und die Deutsche Gesellschaft für Ernährung empfehlen jedoch, dass maximal zehn Prozent des Energiebedarfs durch Zucker gedeckt werden soll, was in etwa 50 Gramm pro Kopf und Tag entspricht“, erläutert Michael Laxy. „Dabei muss man aber bedenken, dass es innerhalb der Bevölkerung große Unterschiede beim Konsum von Softdrinks gibt. Manche Menschen trinken sie in größeren Mengen, andere dafür nie. Entsprechend stärker wäre die Verringerung des Zuckerkonsums für die Menschen, die viel Softdrinks konsumieren.“

In Bezug auf die gesundheitlichen Auswirkungen sprechen die Modellierungen eine deutliche Sprache: Bei beiden Besteuerungsmodellen gäbe es deutlich weniger Fälle von Übergewicht, Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen. „Besonders eindrücklich sind die Zahlen für Typ-2-Diabetes“, sagt Karl Emmert-Fees. „Durch eine Besteuerung würden unseren Modellen zufolge innerhalb der nächsten 20 Jahre bis zu 244.100 Menschen später oder gar nicht an Typ-2-Diabetes erkranken.“

Einsparungen von mehreren Milliarden Euro
Die positiven Auswirkungen lassen sich den Forschenden zufolge auch als finanzielle Einsparungen ausdrücken: Mit einer Abgabe auf gezuckerte Getränke wären weniger Behandlungen nötig. Kosten durch Krankheitstage, Arbeitsunfähigkeit und ähnliches würden ebenfalls sinken. Für den simulierten Zeitraum hat das Team bei einer gestaffelten Herstellerabgabe volkswirtschaftliche Einsparungen von rund 16 Milliarden Euro errechnet, davon etwa 4 Milliarden Euro an Gesundheitskosten. Bei einer 20-prozentigen Steuer wären es immerhin insgesamt noch etwa 9,5 Milliarden Euro.

Debattenbeitrag für Politik
Folgt man den Ergebnissen der Simulation, die das Team anhand eines zweiten Modells replizieren konnte, hätte eine gestaffelte Herstellerabgabe stärkere positive Auswirkungen als eine pauschale Steuer. „Ob eine Besteuerung von Softdrinks für Deutschland sinnvoll ist, muss die Politik entscheiden“, sagt Michael Laxy. „Wir wollen mit unserer Studie sachliche Argumente für diese Debatte liefern. Unsere Studie zeigt, dass eine Abgabe beziehungsweise eine Steuer auf gezuckerte Getränke eine relevante Maßnahme zur Prävention von Übergewicht, Diabetes und Herzerkrankungen darstellt. Ansätze wie Informationskampagnen haben ihre Berechtigung, sind aber nicht ausreichend und können nur ein Baustein einer wirksamen Gesamtstrategie sein.“

Publikation:
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004311

Weitere Informationen:
Pressemitteilung zu früherer Studie („Zuckerreduktion kommt nicht voran“): https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/zuckerred…

Professur für Public Health und Prävention:
https://www.sg.tum.de/php/startseite/

Die Forschenden der TUM kooperierten für die Studie mit Prof. Peter Scarborough von der University of Oxford (https://www.oxfordmartin.ox.ac.uk/people/peter-scarborough) und Dr. Chris Kypridemos, Experte für dynamische stochastische Mikrosimulationen an der University of Liverpool (https://www.liverpool.ac.uk/population-health/staff/christodoulos-kypridemos/). Mit solchen Modellen lassen sich Vorhersagen über gesundheitliche und ökonomische Entwicklungen in Gesellschaften treffen. Man spricht von Mikrosimulation, weil die Gesellschaften und die wahrscheinlichste zukünftige Entwicklung anhand einer großen Zahl von Daten auf individueller Ebene nachgebildet werden. Dies bedeutet, dass Individuen mit realistischen Eigenschaften, etwa in Bezug auf Demographie, Ernährung oder Erkrankungen, simuliert werden und keine aggregierten Gruppen. Diese Modelle sind sehr datenhungrig, und basieren auf einer Vielzahl von Parametern, die aus unterschiedlichen Datenquellen berechnet werden.

Weitere wichtige Ergebnisse der Studie
Beide Varianten würden für den Modellierungszeitraum zu einem Gewinn an sogenannten qualitätskorrigierten Lebensjahren (QALYs) führen, eine Kennzahl aus der Gesundheitsökonomie, die Effekte auf die Lebensdauer und die Lebensqualität kombiniert. Bei der 20-prozentigen Steuer lägen diese bei 106.000 zusätzlichen QALYs, bei der gestaffelten Abgabe für Unternehmen bei 192.300.

Durch beide Varianten könnten im Modellierungszeitraum Todesfälle vermieden oder verzögert werden (unabhängig von der Todesursache). Bei der 20-prozentigen Steuer wären es 17.000, bei der gestaffelten Unternehmens-Abgabe 29.300. Für diesen Wert ist allerdings wichtig, dass „verhindert“ und „verzögert“ nicht getrennt modelliert werden.

Beide Varianten würden für den Modellierungszeitraum zu einem Gewinn an vermiedenen oder verzögerten Falljahren von Typ-2-Diabetes führen: 1.109.300 (20-prozentige Steuer) und 1.940.900 (gestaffelte Unternehmens-Abgabe). Auch hier gelten die oben genannten Einschränkungen.

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1727884

Diese Pressemitteilung auf tum.de: https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/zuckerste…

Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Laxy
Technische Universität München
Professur für Public Health und Prävention
Tel: +49 (89) 289 – 24977
michael.laxy@tum.de
Originalpublikation:
Emmert-Fees KMF, Amies-Cull B, Wawro, N, Linseisen J, Staudigel M, Peters A, et al. (2023). „Projected health and economic impacts of sugarsweetened beverage taxation in Germany: A crossvalidation modelling study“. PLoS Med 20(11): e1004311. DOI: 10.1371/journal.pmed.100431

(nach oben)


Startschuss für weltweit erste Pilotanlage zur kosteneffizienten Produktion von grünem Methanol

Inna Eck Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES

Bundesverkehrsminister Dr. Volker Wissing weihte heute die Pilotanlage im Chemiepark in Leuna im Rahmen des Projekts »Leuna100« ein: Der weltweit einzigartige und innovative Ansatz zur Methanolerzeugung mit neuartigem Katalyseverfahren ermöglicht den Markthochlauf von grünem Methanol. Grünes Methanol ist ein Schlüssel für die Energiewende und bietet der Schiff- und Luftfahrt eine klimaneutrale Kraftstoffalternative.

Berlin/Leuna, 20. November 2023 – Die weltweit erste Pilotanlage zur kosteneffizienten Herstellung von grünem Methanol ist heute im Chemiepark in Leuna im Rahmen des Projekts »Leuna100« eingeweiht worden. Dahinter steht ein Forschungskonsortium bestehend aus dem Climate-Tech-Start-up C1 Green Chemicals AG und seinen Partnern, dem Fraunhofer-Institut für Windenergiesysteme IWES, dem Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, der DBI-Gastechnologisches Institut gGmbH Freiberg sowie der Technischen Universität Berlin. Ziel ist es, mit einem fundamental neuen Herstellungsverfahren den kosteneffizienten Markthochlauf von grünem Methanol zu ermöglichen und damit der Containerschifffahrt eine klimaneutrale Kraftstoffalternative zu eröffnen.

Neuartiges Verfahren zur Herstellung von grünem Methanol
Grundlage für die Herstellung von grünem Methanol ist ein Synthesegas aus Kohlenmonoxid und grünem, also durch erneuerbaren Strom erzeugtem Wasserstoff. Die grüne Methanolherstellung im Projekt »Leuna100« besteht aus drei Schritten: der sogenannten Synthesegaserzeugung, der Methanolproduktion und der Aufreinigung des produzierten Rohmethanols. Die innovative Technologie von C1 ermöglicht eine effiziente niedertemperatur- und niederdruckbasierte Methanolproduktion. Möglich wird dieses Verfahren durch den Einsatz eines homogenen, Mangan-basierten Katalysatorsystems, welches C1 zusammen mit dem Leibniz-Institut für Katalyse e.V. entwickelt hat. Die strombasierte und lastflexible Nutzung der Synthesegaserzeugung sowie die homogene Katalyse für die Methanolerzeugung sind zusammen die zentrale Innovation.

In der Pilotanlage werden zwei unterschiedliche Technologien zur CO2-basierten Erzeugung von Synthesegas gekoppelt: Das Fraunhofer UMSICHT liefert eine neue Niedertemperatur-Co-Elektrolyse, DBI – Gastechnologisches Institut gGmbH Freiberg setzt eine Reverse-Water-Gas-Shift-Anlage ein. C1 liefert den neuen Katalysator sowie den eigens entwickelten Reaktor zur homogenen Katalyse von Methanol. Fraunhofer IWES stellt den Standort und die Infrastruktur im Hydrogen Lab Leuna zur Verfügung und evaluiert die Lastflexibilität. Die TU Berlin entwickelt ein effizientes, lastflexibles Betriebskonzept auf Basis eines dynamischen Gesamtprozessmodells.

Industriegeschichte im Chemiepark Leuna
Das Projekt wird vom Bundesministerium für Digitales und Verkehr (BMDV) über die nächsten drei Jahre mit insgesamt 10,4 Millionen Euro gefördert. Bundesverkehrsminister Dr. Volker Wissing sagte bei der Eröffnung vor Ort: »In Leuna wird heute Industriegeschichte geschrieben. Das Projekt bedeutet einen Meilenstein für das post-fossile Zeitalter in der Schiff- und Luftfahrt. Wir sind stolz darauf, dieses Forschungsprojekt ‘made in Germany‘ mit Mitteln im Rahmen des Gesamtkonzepts Erneuerbare Kraftstoffe zu fördern. Mit dem Gesamtkonzept unterstützt das BMDV die Weiterentwicklung und den Markthochlauf von erneuerbaren Kraftstoffen und damit auch das Erreichen der Klimaziele im Verkehrssektor.«

Die BASF erbaute 1923 die weltweit erste Methanolanlage in Leuna. Ministerpräsident des Landes Sachsen-Anhalt, Dr. Reiner Haseloff, betonte mit Blick auf diesen historischen Zusammenhang: »Der Chemiestandort Leuna blickt auf eine über hundertjährige Tradition zurück. Er hat sich in dieser Zeit selbstbewusst Herausforderungen gestellt und immer wieder seine Innovationskraft bewiesen. Nun bietet sich die Chance, abermals zum Schauplatz für den Beginn einer neuen Ära zu werden. Das Projekt ‘Leuna100’ leistet einen wichtigen Beitrag für den Einstieg in die zirkuläre Chemieproduktion nicht nur in Sachsen-Anhalt.«

Tanker, Containerfrachter und Kreuzfahrtschiffe sind derzeit für knapp drei Prozent des weltweiten jährlichen CO2-Ausstoßes verantwortlich. Die im Sommer 2023 verabschiedete neue Klimastrategie der internationalen Schifffahrtsorganisation IMO sieht vor, das Ziel der Klimaneutralität bis etwa 2050 zu erreichen. Bis 2030 sollen die Emissionen um mindestens ein Fünftel gegenüber 2008 verringert werden, bis 2040 sogar um mindestens 70 Prozent. Große Reedereien wie Maersk haben bereits Methanol-fähige Schiffe bestellt, von denen die ersten bereits in Betrieb genommen wurden. Auch für die Luftfahrtindustrie bieten regenerative Kraftstoffe auf Basis von grünem Wasserstoff und CO2 eine Alternative. Mit einem weiteren Verarbeitungsschritt lässt sich über das »Alcohol-to-jet«-Verfahren aus grünem Methanol potenziell Kerosin herstellen.

Christian Vollmann, Vorstand der C1 Green Chemicals AG: »Unser innovatives Verfahren bietet das Potenzial, grünes Methanol kostengünstiger herzustellen. Wir freuen uns über die Chance, unsere Technologie im Rahmen der Pilotanlage auf das nächste Level zu heben und damit der Markteinführung einen entscheidenden Schritt näherzukommen.«

Prof. Dr. Andreas Reuter, Institutsleiter Fraunhofer IWES sagt: »Mit unserer langjährigen wissenschaftlichen Expertise und einer komplexen Forschungsinfrastruktur für erneuerbare Energien, wie das Hydrogen Lab in Leuna, ist das Fraunhofer IWES der ideale Partner, um erfolgreich Projekte zur Erzeugung grüner Kraftstoffe für die Schiff- und Luftfahrt zu realisieren.«

Hintergrund:
Das Projekt »Leuna100« startete im August 2023 im Chemiepark Leuna und ist auf drei Jahre angelegt. Es wird im Rahmen des Gesamtkonzepts Erneuerbare Kraftstoffe mit insgesamt 10,4 Millionen Euro durch das Bundesministerium für Digitales und Verkehr gefördert. Die Förderrichtlinie für die Entwicklung regenerativer Kraftstoffe wird von der NOW GmbH koordiniert und durch die Projektträger VDI/VDE Innovation + Technik GmbH sowie die Fachagentur Nachwachsende Rohstoffe e. V. umgesetzt.

Die Arbeitsgruppe von Prof. Dr. Matthias Beller vom Leibniz-Institut für Katalyse e.V. (LIKAT), Rostock, unterstützt das Projekt »Leuna100« als Forschungspartner.

Pressekontakt C1
PIABO Communications
Ann-Kathrin Marggraf, Communications Director
leuna100@piabo.net
+49 172 575 6287

Pressekontakt DBI-Gastechnologisches Institut gGmbH Freiberg
Dipl.-Hdl. Emily Schemmel
emily.schemmel@dbi-gruppe.de
+49 3731 4195 339

Pressekontakt Fraunhofer UMSICHT
Stefanie Bergel
stefanie.bergel@umsicht.fraunhofer.de
+49 208 8598 1599

Pressekontakt Fraunhofer IWES
Lisa Bösch
lisa.boesch@iwes.fraunhofer.de
+49 471 14290-544

Pressekontakt TU Berlin
Prof. Dr.-Ing. habil. Jens-Uwe Repke
sekr@dbta.tu-berlin.de
+49 (0)30 314-26900

Über C1
C1 entwickelt neuartige chemische Produktionsprozesse, indem diese von der atomaren Ebene bis hin zum Produktionsmaßstab neu gedacht werden. Die chemischen Verfahren werden mit Hilfe quantenchemischer Simulationen konzipiert und zu firmeneigenen Produktionstechnologien umgesetzt. C1 hat eine grundlegend neue, homogene Katalyse zur Herstellung von Methanol entwickelt und patentiert. Das C1 Verfahren ist wesentlich selektiver, produktiver und effizienter als die bisher im Einsatz befindliche heterogene Katalyse, welche auf ein Patent aus dem Jahr 1921 zurückgeht. Das Berliner Unternehmen entwickelt und skaliert dabei ausschließlich auf Grundlage von regenerativen Rohstoffen und erneuerbarer Energie. Von den ersten Schritten der Entwicklung eines Produktionsprozesses an werden alle Prozesse so konzipiert, dass ein geschlossener Kohlenstoffkreislauf möglich ist. Damit unterstützt C1 die Industrie auf ihrem Weg aus der Abhängigkeit von fossilen Rohstoffen wie Öl, Gas und Kohle. Mehr Infos: https://www.carbon.one/

Über DBI-Gastechnologisches Institut gGmbH Freiberg
DBI-Gastechnologisches Institut gGmbH Freiberg ist als gemeinnützige Einrichtung im Bereich anwendungsorientierter Forschung aktiv. Insbesondere im Bereich des Transfers verfahrenstechnischer Prozesse vom Labor- in den Demonstrationsmaßstab ist das DBI-Gastechnologisches Institut gGmbH Freiberg in mehreren Projekten führend. Hierbei kann auf eine Vielzahl erfolgreich abgeschlossener und laufender Forschungsprojekte und ein breites Spektrum an fachlich versierten Mitarbeitern zurückgegriffen werden. Unterstützt wird dies durch Expertise im Bereich der Synthesegaserzeugung, wobei dem DBI-Gastechnologischen Institut gGmbH Freiberg mehrere Testanlagen zur Untersuchung reaktionstechnischer Prozesse sowie entsprechende Analysetechnik zur Verfügung stehen. Mehr Infos: https://www.dbi-gruppe.de/

Über Fraunhofer UMSICHT
Das Fraunhofer UMSICHT ist Wegbereiter in eine nachhaltige Welt. Mit unserer Forschung in den Bereichen klimaneutrale Energiesysteme, ressourceneffiziente Prozesse und zirkuläre Produkte leisten wir konkrete Beiträge zum Erreichen der 17 Sustainable Development Goals (SDGs) der Vereinten Nationen. Wir entwickeln innovative, industriell umsetzbare Technologien, Produkte und Services für die zirkuläre Wirtschaft und bringen diese mit aller Kraft zur Anwendung. Die Balance von wirtschaftlich erfolgreichen, sozial gerechten und umweltverträglichen Entwicklungen steht dabei im Fokus. Mehr Infos: https://www.umsicht.fraunhofer.de/

Über Fraunhofer IWES
Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Wind- und Wasserstofftechnologie. Mehr Infos: https://www.iwes.fraunhofer.de/

Über TU Berlin
Das Fachgebiet Dynamik und Betrieb technischer Anlagen der TUB beschäftigt sich intensiv mit der Modellierung, Simulation und der Optimierung für Design und Betrieb von vielfältigen Prozessen der Verfahrenstechnik. Dabei stehen Wirtschaftlichkeit, Energieeffizienz und Nachhaltigkeit im Fokus der Forschungsarbeiten. Neben der Systemverfahrenstechnik stellt die Grundlagenforschung auf dem Gebiet der Fluiddynamik und Trenneffizienz, wie in thermischen Trennverfahren anzutreffen, eine weitere Kernkompetenz dar. Am Fachgebiet werden vielfältige Anstrengungen im Bereich intensivierter Prozesse unternommen, wobei beispielsweise neuartige Konzepte zur homogenen Katalyse in innovativen schaltbaren Lösemittelsystemen (Mikroemulsionen) sowie neuartige Reaktor- und Betriebskonzepte für die heterogene Katalyse bis zur Prozessreife gebracht werden. Mehr Infos: https://www.tu.berlin/dbta

Über Leibniz-Institut für Katalyse e.V. (LIKAT)
Über 70 Jahre Katalyse-„Know How“ bildet die Basis des Leibniz-Instituts für Katalyse e.V. an der Universität Rostock (LIKAT). Das ursprünglich einzige ausschließlich der Katalyse gewidmete Institut, ist heute eines der größten öffentlich geförderten Forschungsinstitute im Bereich der angewandten Katalyse in Europa. Die Methoden- und Materialkompetenz der mehr als 300 Mitarbeiter konzentriert sich auf die Entwicklung ressourcenschonender Verfahren. Mehr Infos: https://www.catalysis.de/

Wissenschaftliche Ansprechpartner:
Fraunhofer IWES
Michael Seirig, Abteilungsleiter Wasserstofflabore und Feldtests
michael.seirig@iwes.fraunhofer.de
Telefon +49 471 14290-661

Weitere Informationen:
https://www.leuna100.de/ Mehr Informationen zum Projekt Leuna100
https://www.dropbox.com/scl/fo/ezeenjt10aj9dvllz0p7i/h?rlkey=6arqhv137f1bt7a0w4i… Bildmaterial

(nach oben)


Ergebnisse der gemeinsamen E-Scooter-Studie mit mehr als 8.000 Teilnehmenden

Die Studie, die analog im Juni 2023 mit Interviews von 373 Personen begann und im Juli und August 2023 digital mit 8.245 Teilnehmenden fortgesetzt wurde, bietet Einblicke in die öffentliche Meinung und die Herausforderungen im Umgang mit Sharing E-Scootern in Berlin. Durchgeführt wurden die Umfragen durch die Hochschule für nachhaltige Entwicklung Eberswalde (HNEE) in Zusammenarbeit mit dem Bürger*innenbeirat Berlin-Tourismus.

Prof. Dr. Nicole Häusler von der HNEE, die die wissenschaftliche Studie leitete, betont die Bedeutung dieser Zusammenarbeit: „Die Befragungen und die daraus resultierenden Empfehlungen bieten den Studierenden eine praxisnahe Anwendung ihrer wissenschaftlichen Arbeit. Die Unterstützung bürgerschaftlichen Engagements wie des Bürger*innenbeirats Berlin-Tourismus durch Hochschulen ist von entscheidender Bedeutung für ihre wertvolle Arbeit.“

Die Ergebnisse der Studie zeigen deutlich, dass sich über 80 % der Befragten aus beiden Umfragen eine Veränderung im Umgang mit E-Scootern wünschen. Das unkontrollierte Abstellen auf Geh- und Radwegen sowie die Gefährdung anderer Verkehrsteilnehmenden durch E-Scooter-Fahrer*innen wurden als größte Ärgernisse identifiziert. Vorrangig fordern die Befragten die Installation oder Ausweitung fester Abstellflächen.

Ein deutlicher Unterschied zwischen den Umfragen liegt in der Haltung zur flächendeckenden Abschaffung der E-Scooter in Berlin: Während bei der analogen Umfrage lediglich 19 % dafür sind, stimmten bei der digitalen Umfrage 58 % einer Abschaffung zu. Dieser Unterschied lässt sich teilweise auf eine bestimmte Altersgruppe zurückführen, da bei der digitalen Umfrage viele Personen teilnahmen, die das Sharing-Angebot kaum oder gar nicht nutzen und E-Scooter tendenziell kritisch sehen. 40 % der Befragten gaben an, dass sie schon einmal einen Sharing E-Scooter genutzt haben. Davon nutzen 74 % diese gelegentlich bis sehr häufig (mindestens ein bis zweimal pro Monat bis wöchentlich). Überwiegend werden sie für mittlere Distanzen von 1 bis 3 km als Alternative zum Laufen oder als Zubringer zum öffentlichen Nahverkehr verwendet, jedoch nicht als Ersatz für das eigene Auto. Besonders auffällig ist, dass rund 80 % der Altersgruppe der 18-20jährigen die E-Scooter nutzen.

Mehr als 7.000 Teilnehmende nutzten die Möglichkeit, eigene Verbesserungsvorschläge einzubringen. „Die hohe Anzahl an Vorschlägen unterstreicht die Bedeutung dieses Themas für die Berliner Bevölkerung“, betont Prof. Dr. Nicole Häusler. „Besonders bemerkenswert ist, dass viele der Vorschläge bereits umgesetzt oder in Planung sind, was auf eine Informationslücke zu diesem Thema hinweist“, fügt Dr. Häusler hinzu.
„Die Berücksichtigung dieser Thematik im Doppelhaushalt ist entscheidend. Insbesondere die angemessene Finanzierung von Abstellflächen ist von großer Bedeutung. Zudem bedarf es einer genauen Prüfung, wo diese Abstellmöglichkeiten sinnvoll platziert werden können und wo sie nicht zwingend erforderlich sind. Die Debatte rund um dieses Thema ist stark emotionalisiert und offenbart erhebliche Wissensunterschiede in der Bevölkerung bezüglich der Regeln und des aktuellen Standes der E-Scooter-Nutzung. Eine Informationskampagne, koordiniert zwischen sämtlichen E-Scooter-Anbietern, der Senatsverwaltung und dem Bürger*innenbeirat, wird dringend empfohlen. Diese Informationskampagne sollte darauf abzielen, einerseits für eine verantwortungsvolle Nutzung zu werben und andererseits sachliche Informationen in die Diskussion einzubringen.“

Der Bürger*innenbeirat ist für den 01. Dezember 2023 zu einem Austauschtermin mit der Senatsverwaltung für Mobilität, Verkehr, Klimaschutz und Umwelt sowie den E-Scooter-Anbietern eingeladen und wird dort die Umfrageergebnisse vorstellen sowie für die Idee einer Informationskampagne werben.

Bürgerinnen und Bürger haben beim zweiten Bürgerinnenforum am kommenden Donnerstag, den 23. November 2023, die Möglichkeit, sich in das Thema einzubringen. In der Dialogstation „Welche Zukunft haben E-Roller?“ werden die Ergebnisse und Empfehlungen der Studie vorgestellt und mit den Bürgerinnen diskutiert.

Bürger*innenforum: Hier steppt der Bär! Aber wohin? – Chancen des stadtverträglichen Tourismus
Datum: Donnerstag, 23. November 2023
Uhrzeit: Einlass ab 17:30 Uhr, Beginn um 18:00 Uhr bis 21:00 Uhr
Ort: Alte Münze, Molkenmarkt 2, 10179 Berlin (Loft)

Wissenschaftliche Ansprechpartner:
Prof. Dr. Nicole Häussler
<​​​​​​​Nicole.Haeusler@hnee.de>

(nach oben)


Spitzenforschung in den Pflanzenwissenschaften

Forschende des Max-Planck-Instituts für Molekulare Pflanzenphysiologie im Potsdam Science Park gehören zu den meist zitierten Wissenschaftlern der Welt!

Die Clarivate Group ermittelt jährlich die am häufigsten zitierten Wissenschaftler in verschiedenen Forschungsgebieten als wesentliches Merkmal für den wissenschaftlichen Einfluss und Erfolg der Forschenden. Dieses Jahr glänzt das Max-Planck-Institut für Molekulare Pflanzenphysiologie (MPI-MP) gleich mit 6 Kolleginnen und Kollegen, die es unter die 0.1% der weltweit am häufigsten zitierten Wissenschaftler geschafft haben.

Dabei stellt das MPI-MP, wie in den letzten Jahren, gleich fünf der 189 Ausgezeichneten im Forschungsfeld Pflanzen und Tierwissenschaften. Alisdair Fernie entschlüsselt, wie zentrale Stoffwechselwege in Pflanzen funktionieren. Ralph Bock, einer der Direktoren des Instituts, forscht an Pflanzenorganellen und verknüpft diese Arbeit mit biotechnologischen und ökophysiologischen Fragestellungen. John Lunn und Mark Stitt befassen sich intensiv mit der Regulation des pflanzlichen Stoffwechsels, der Photosynthese und des Pflanzenwachstums, während die assoziierte Forschungsgruppe des Potsdamer Universitätsprofessors Bernd-Müller Röber an pflanzlichen Signalnetzwerken arbeitet. Ganz besonders freuen wir uns über die Auszeichnung der gerade neu gewonnenen Direktorin des Instituts, Caroline Gutjahr im Bereich „Cross-Field“. Sie erforscht das komplizierte Zusammenleben zwischen Pflanzen und symbiontischen Pilzen im Boden. „Ich freue mich sehr über diese Nachricht und darüber Teil eines Pflanzenforschungsinstituts zu sein, das international solch hohe Anerkennung genießt. Natürlich gratulieren wir allen Kollegen im Haus und auch allen anderen Forschenden der Max-Planck-Gesellschaft, die sich über diese Auszeichnung freuen können,“ so Caroline Gutjahr.

Das Max-Planck-Institut für Molekulare Pflanzenphysiologie in Potsdam gehört zu den weltweit führenden Einrichtungen für Pflanzenforschung. Es betreibt Grundlagenforschung auf den Gebieten der Pflanzenphysiologie, Genetik, Epigenetik und Pflanzen-Mikroben Interaktion mit dem Ziel, das Wachstum und die Entwicklung von Pflanzen und das Zusammenspiel von Pflanze und Umwelt umfassend zu verstehen.

Im Jahr 2023 umfasst die Liste rund 7100 hoch zitierte Forscher aus mehr als 70 Ländern, die in verschiedenen Bereichen von der Agrar- bis zur Weltraumforschung arbeiten. Deutschland liegt mit 336 hochzitierten Forschern auf Platz 4 der Liste, davon sind 59 Mitglieder der Max-Planck-Gesellschaft, die weltweit Rang 10 der Wissenschaftsinstitutionen belegt. Damit stellt das MPI-MP rund 10% der Preisträger und Preisträgerinnen in der Max-Planck-Gesellschaft mit ihren 86 Instituten.

Wissenschaftliche Ansprechpartner:
Kontakt
Tobias Lortzing
Forschungskoordinator
Max-Planck-Institut für Molekulare Pflanzenphysiologie
Tel. 0331/567 8207
pr@mpimp-golm.mpg.de
http://www.mpimp-golm.mpg.de

Weitere Informationen:
http://Clarivate Liste meistzitierter Wissenschaftler:
https://clarivate.com/highly-cited-researchers/
http://Clarivate Analyse:
https://clarivate.com/highly-cited-researchers/analysis/

(nach oben)


Wie Mikroben den Klimawandel bekämpfen können

Prof. Michael Rother von der TU Dresden ist Experte für die Biologie methanbildender Mikroorganismen. Im Frühjahr dieses Jahres traf er sich auf Einladung der American Academy of Microbiology mit weiteren Expert:innen zu einem Kolloquium mit dem Ziel, eine Handlungsempfehlung zur kurzfristigen Reduktion von Methan-Emissionen im Kampf gegen den Klimawandel und die Erderwärmung zu erstellen. Nun ist der Bericht veröffentlicht und soll unter anderem als Entscheidungshilfe für den US-Kongress dienen.

Der globale Klimawandel zählt zu den größten Herausforderungen unserer Zeit. Expert:innen auf der ganzen Welt suchen nach Lösungen und Strategien, um ein ungehindertes Fortschreiten zu stoppen. Ein kürzlich erschienener Bericht der American Academy of Microbiology und der American Geophysical Union verweist nun auf die Nutzung von winzig kleinen Lebewesen, Mikroben, im Kampf gegen die Erderwärmung. Denn Mikroben sind wichtige Produzenten, zeitgleich aber auch Verbraucher, von Treibhausgasen, die als eine der Hauptursachen für den Klimawandel gelten. Ein besseres Verständnis der Mikroben und der mikrobiellen Prozesse, die der Atmosphäre Treibhausgase hinzufügen oder entziehen, kann helfen, die negativen Auswirkungen des Klimawandels abzumildern.

Der Hauptfokus liegt hierbei auf dem Treibhausgas Methan (CH4). Im Vergleich zu Kohlenstoffdioxid (CO2), sind die menschengemachten Methanausstöße zwar deutlich geringer, jedoch hat CH4 eine 80mal höhere Klimawirkung als CO2. In anderen Worten, Methan kann über einen Zeitraum von 20 Jahren 80mal mehr Wärme in der Atmosphäre binden, was erheblich zur Erwärmung des Planeten beiträgt. Methan entsteht überall dort, wo organisches Material unter Luftausschluss abgebaut wird, zum Beispiel in Reisfeldern, Mülldeponien sowie in der Land- und Forstwirtschaft, insbesondere bei der Massentierhaltung.

Michael Rother ist Professor für Mikrobielle Diversität an der TU Dresden. Als Experte für methanbildende Mikroorganismen wurde er als einziger Vertreter aus Deutschland von der American Academy of Microbiology zu einem Kolloquium mit Vertreter:innen zahlreicher renommierter US-amerikanischer Universitäten und Institutionen eingeladen, um gemeinsam konkrete Maßnahmen zur Reduzierung des Methanausstoßes vorzuschlagen. Die erarbeiteten Handlungsempfehlungen sind nun in einem ausführlichen Bericht erschienen und werden Entscheidungsorganen wie dem US-Kongress als Grundlage für die Politikgestaltung dienen. Zu den vorgelegten Empfehlungen zählen unter anderem die Erweiterung der grundlegenden Erkenntnisse über Mikroben, die Methan vermindern, z.B. durch den Ausbau der akademischen Ausbildung in (anaerober) Mikrobiologie, oder durch die Priorisierung der Forschung zur Charakterisierung von Pansenmikrobiomen, die für geringere Methanemissionen von Wiederkäuern sorgen könnten. Außerdem sollen die mikrobiellen Erkenntnisse direkt in methan-reduzierende, klimafreundliche Landwirtschaftspraktiken fließen und verstärkt über die Grenzen von Wissenschaft, Industrie, Kommunen und privaten Sektoren hinaus zusammengearbeitet werden.

Prof. Rother persönlich sieht über die abgegebenen Empfehlungen hinaus dringenden Handlungsbedarf: „Die Klimakrise ist in vollem Gange. Der globale Temperaturanstieg schadet nicht nur der menschlichen Gesundheit und der Nahrungsmittelproduktion. Es ist für die Menschheit sehr wichtig, schnell wirksame Maßnahmen zu ergreifen.“

Kontakt:
Prof. Michael Rother
Fakultät Biologie
TU Dresden
Tel.: +49 351 463-42611
Email: michael.rother@tu-dresden.de

Originalpublikation:
https://asm.org/getmedia/1c9ae3e1-9b40-4ad5-9526-4fed26bc8444/The-Role-of-Microb…

(nach oben)


Forscherin entdeckt Auslöser für Schlafstörungen bei Herzkranken

Dr. Karin Ziegler vom Institut für Pharmakologie und Toxikologie (IPT) an der Technischen Universität München erhält renommierten Forschungspreis der Deutschen Stiftung für Herzforschung – Preisgeld 15.000 Euro

Rund ein Drittel aller Menschen mit einer Herzerkrankung schlafen schlecht. Warum das so ist, wusste man bislang jedoch nicht. Länger bekannt ist, dass etliche am Herzen Erkrankte einen niedrigen Melatoninspiegel haben. Melatonin ist ein Hormon, das in der Zirbeldrüse (Epiphyse), einem Teil des Zwischenhirns, produziert wird. Melatonin steuert den Schlaf-Wach-Rhythmus. Sobald es dunkel wird, bildet die Epiphyse mehr von dem Schlafhormon und sorgt dafür, dass wir abends müde werden. Erstmals hat Dr. Karin Ziegler vom Institut für Pharmakologie und Toxikologie (IPT) an der Technischen Universität München (TUM) mit ihrem Team den Auslöser dafür entdeckt, warum Betroffene mit einer Herzerkrankung zu wenig Melatonin bilden.
Die Medizinerin und angehende Fachärztin für Pharmakologie hat mit ihrer Forschungsarbeit mögliche neue Ansätze zur Behandlung von Schlafstörungen geschaffen. Für ihre Ergebnisse ist sie mit dem renommierten August Wilhelm und Lieselotte Becht-Forschungspreis der Deutschen Stiftung für Herzforschung (DSHF) in Höhe von insgesamt 15.000 Euro ausgezeichnet worden. „Das sind vielversprechende Erkenntnisse, die neue Ausgangspunkte für die Entwicklung von Behandlungsoptionen für Betroffene mit Herzerkrankungen und Schlafstörungen eröffnen“, betont Prof. Dr. med. Armin Welz, Vorsitzender des Wissenschaftlichen Beirats der DSHF, die 1988 von der Deutschen Herzstiftung gegründet wurde. Die Arbeit wurde jüngst im Fachmagazin „Science“ publiziert (1). Über aktuelles zur Förderung der Herz-Kreislauf-Forschung informiert die Herzstiftung unter www.herzstiftung.de/herzstiftung-und-forschung

Entzündungsprozess zerstört Nervenzellen
Wie hängt die Epiphyse – diese winzig kleine Zirbeldrüse, die in ihrer Gestalt einem Pinienzapfen ähnelt – mit dem Herzen zusammen? Die Verbindung liegt in einem sogenannten Nervenknoten (Ganglion), und zwar im oberen Halsganglion. Dort befinden sich gebündelt Nervenzellen des vegetativen Nervensystems, das automatische Abläufe im Körper regelt – unter anderem reguliert es die Epiphyse und den Herz-Kreislauf. „Um herauszufinden, was genau in dem Nervenknoten passiert, haben wir das Feingewebe der Nervenknoten von verstorbenen herzgesunden und herzkranken Menschen untersucht“, erklärt Dr. Karin Ziegler. Das überraschende Ergebnis: Im Vergleich fanden sich in den Nervenknoten der herzkranken Menschen vermehrt bindegewebige Vernarbungen, stattdessen aber kaum noch Nervenzellen, die die Zirbeldrüse stimulieren können. Die Ursache für den Untergang der Nervenzellen liegt vermutlich in Fresszellen, sogenannten Makrophagen, die die Wissenschaftler gehäuft in den oberen Halsganglien der herzkranken Personen fanden. Diese rufen im Gewebe Entzündungen und Vernarbungen hervor. „Wahrscheinlich findet im oberen Halsganglion von Herzerkrankten ein Entzündungsprozess statt, der die Nervenzellen zerstört“, folgert die Forscherin.

Wirkstoff stoppt Fresszellen
Parallele Versuche im Tiermodell zeigten die gleichen Resultate. So sammelten sich im Halsganglion von Mäusen mit Herzschwäche (Herzinsuffizienz) ebenfalls Fresszellen, die zum Untergang von Nervenzellen führten. Infolgedessen wurde die Zirbeldrüse nur noch schwach angeregt, bildete wenig Melatonin, was zu einem gestörten Tag-Nacht-Rhythmus der Tiere führte. „Aber wir haben im Tiermodell herausgefunden, wie man die Nervenzellen schützen kann“, erklärt Dr. Ziegler. „Wenn man im frühen Krankheitsstadium einen Makrophagen-Hemmstoff gezielt in das Halsganglion injiziert, gehen die Fresszellen zurück und die Melatoninproduktion normalisiert sich wieder.“ Die Hoffnung ist, basierend auf diesen Ergebnissen Medikamente zu entwickeln, um die Schlafstörungen, die mit einer Herzerkrankung einhergehen, dauerhaft zu kurieren.

Biomarker für Herzerkrankung?
Doch das ist noch nicht alles. Die insgesamt über rund fünf Jahre laufenden Untersuchungen hielten eine weitere Verblüffung für die Wissenschaftler bereit. „Wir konnten schon mit bloßem Auge sehen, dass die oberen Halsganglien bei den Herzkranken stark angeschwollen waren“, sagt Dr. Ziegler. Kann somit die Größe des oberen Halsganglions ein erster Hinweis auf eine Herzerkrankung sein? Mit einem ganz normalen Ultraschall untersuchte das Team die Nervenknoten von Studienteilnehmern, die sie in ihrem Umfeld rekrutierten. „Das Ergebnis war eindeutig“, betont die Münchener Preisträgerin. „Bei den herzkranken Personen waren die Ganglien deutlich vergrößert.“

Umfassende klinische Studie geplant
Das heißt, Dr. Ziegler und ihre Kollegen haben erstens einen möglichen Biomarker gefunden, der ein Indiz für eine Herzerkrankung und einer damit einhergehenden Schlafstörung sein kann. Zweitens haben sie eine Option entdeckt, die Melatoninproduktion bei Herzkranken anzukurbeln, indem frühzeitig und gezielt ein Wirkstoff in das Halsganglion von Betroffenen gespritzt wird, der die zerstörerischen Fresszellen ausschaltet. Die Nerven erholen sich, die Zirbeldrüse produziert wieder ausreichend Melatonin und der Schlaf normalisiert sich. Ist die Herzerkrankung fortgeschritten, lässt sich die Schlafstörung möglicherweise mit einem Melatonin-Medikament in bestimmter Dosierung beheben. Spannende Ansatzpunkte, die Dr. Ziegler und ihre Forschergruppe in einer umfassenden klinischen Studie eingehend untersuchen wollen. „Doch bis betroffene Patienten von unseren Ergebnissen profitieren können, dauert es noch viele Jahre.“
(weg)

Literatur
(1) Ziegler et al., Immune-mediated denervation of the pineal gland underlies sleep disturbance in cardiac disease, Science 381, 285–290 (2023)

Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114. (Für Foto-Ansicht siehe PDF oder unter https://www.mynewsdesk.com/de/deutsche-herzstiftung-e-v/pressreleases/forscherin…).

Forschung nah am Patienten
Dank der finanziellen Unterstützung durch Stifterinnen und Stifter, Spender und Erblasser kann die Deutsche Herzstiftung gemeinsam mit der von ihr 1988 gegründeten Deutschen Stiftung für Herzforschung (DSHF) Forschungsprojekte in einer für die Herz-Kreislauf-Forschung unverzichtbaren Größenordnung finanzieren. Infos zur Forschung unter www.herzstiftung.de/herzstiftung-und-forschung

August Wilhelm und Lieselotte Becht-Forschungspreis
Jährlich vergibt die Deutsche Stiftung für Herzforschung einen Wissenschaftspreis, der in kardiologischen Kreisen hoch angesehen ist: den „August Wilhelm und Lieselotte Becht-Forschungspreis”. Der Preis ist mit 15.000 Euro dotiert und zählt zu den herausragenden Instrumenten der Nachwuchsförderung. Er wird für hervorragende Forschungsarbeiten auf dem Gebiet der patientennahen Herz-Kreislauf-Forschung verliehen. 1995 stiftete das Ehepaar Becht zum ersten Mal den Forschungspreis. Damit begann für die beiden eine regelmäßige Selbstverpflichtung, die bis heute andauert. Denn auch nach dem Tod ihres Mannes finanziert Lieselotte Becht den Preis weiter, der seit 2005 den Namen seiner Stifter trägt. So bleibt ein lebendiges Andenken an August Wilhelm Becht, der sich zusammen mit seiner Frau als großzügiger Förderer gezeigt hat.

Service-Tipp für Herzpatienten: Podcast „Warum wird unser Herz krank, wenn uns Schlaf fehlt?“ Ein Gespräch mit Prof. Anil-Martin Sinha: https://herzstiftung.de/service-und-aktuelles/podcasts/herz-gesund-durch-schlaf

2023
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert (Ltg:) / Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de

Originalpublikation:
Ziegler KA, Ahles A, Dueck A, Esfandyari D, Pichler P, Weber K, Kotschi S, Bartelt A, Sinicina I, Graw M, Leonhardt H, Weckbach LT, Massberg S, Schifferer M, Simons M, Hoeher L, Luo J, Ertürk A, Schiattarella GG, Sassi Y, Misgeld T, Engelhardt S. Immune-mediated denervation of the pineal gland underlies sleep disturbance in cardiac disease. Science. 2023 Jul 21;381(6655):285-290. doi: 10.1126/science.abn6366. Epub 2023 Jul 20. PMID: 37471539.

Weitere Informationen:
https://herzstiftung.de/herzstiftung-und-forschung
https://herzstiftung.de/service-und-aktuelles/podcasts/herz-gesund-durch-schlaf

Anhang
PM_DHS_Forschung-Auslöser-für-Schlafstörungen-bei-Herzkranken_2023-11-15_FIN

(nach oben)


Neue Sicherheitslücke in AMD-SEV-Technologie entdeckt

Mit Secure Encrypted Virtualization (SEV) will AMD vor allem Cloud-Dienste sicherer machen. Doch auch auf die aktuellsten Versionen des Sicherheitsfeatures, SEV-ES (Encrypted State) und SEV-SNP (Secure Nested Paging), war bis vor Kurzem noch ein softwarebasierter Fehler-Angriff möglich. Entdeckt hat das CISPA-Forscher Ruiyi Zhang, der im Team von CISPA-Faculty Dr. Michael Schwarz forscht. Die von ihm zusammen mit Kollegen des CISPA und der TU Graz konstruierte Angriffsart nennt sich CacheWarp und ermöglicht Angreifer:innen im schlimmsten Fall umfassende Zugriffsrechte auf Daten und sogar die Möglichkeit, sie zu verändern. AMD hat die Lücke nach eigenen Angaben durch ein Update geschlossen.

Die Nutzung großer Cloud-Plattformen boomt. „Cloud-Dienste erlauben es Unternehmen, flexibel Rechenpower und Speicherplatz einzukaufen, wann immer sie es brauchen“, erklärt Riuyi Zhang. Die Sicherheit der Dienste ist essentiell, wurde in der Vergangenheit aber bereits durch entdeckte Schwachstellen und potentielle Angriffsmöglichkeiten erschüttert. „Die Grundlage von Clouddiensten ist die sogenannte Virtualisierung, mit der sich Hardwarekomponenten und damit verbunden auch Personal einsparen lassen“, sagt Zhang. Bei der Virtualisierung werden laut dem Forscher innerhalb eines physischen Rechners mehrere virtuelle Maschinen erstellt. Virtuelle Maschinen sind quasi softwarebasierte Rechner, die alles haben, was ein normaler Computer auch hat: einen eigenen Arbeitsspeicher, eine CPU, ein eigenes Betriebssystem. Mit Virtualisierung lassen sich also aus einem Rechner mit entsprechender Rechenpower viele machen.

Sicherheitsfeature mit Schwächen
Für die Verteilung der Ressourcen und die entsprechende Trennung von Prozessen ist der sogenannte Hypervisor zuständig. Es handelt sich dabei um eine Software, die die Ressourcen wie Arbeitsspeicher und Rechenleistung verteilt und die Betriebssysteme isoliert. Der Hypervisor fungiert also als eine Art Host für die virtuellen Maschinen. Da dieser nicht zum Angriffspunkt werden darf, hat der Prozessorhersteller AMD die erste Generation von Secure Encrypted Virtualization (SEV) vorgestellt. Die Idee hinter SEV: Für jede laufende virtuelle Maschine wird der Arbeitsspeicher mit einem separaten Schlüssel verschlüsselt, was einen übergreifenden Datenzugriff und den Zugriff durch einen nicht-vertrauenswürdigen oder von Angreifer:innen übernommenen Hypervisor unmöglich machen soll. „Schnell wurden mehrere Sicherheitslücken bekannt. Zudem wurde Verschlüsselung bei SEV-ES und SEV anfänglich ohne Identitätsprüfung verwendet. Dadurch konnten Daten manipuliert werden. Und nicht alle Teile des Speichers waren verschlüsselt“, erklärt Michael Schwarz. Der CISPA-Faculty ist Experte für Sicherheitslücken in CPUs und war an der Entdeckung von mehreren solcher Lücken beteiligt, darunter Spectre, Meltdown und ZombieLoad. AMD reagierte auf die Probleme und entwickelte SEV weiter zu den Feautures SEV-ES (Encrypted State) und zuletzt SEV-SNP (Secure Nested Paging). Laut AMD verspricht SEV-SNP eine starke Speicherintegrität. Hypervisor-Attacken sollten damit unterbunden werden.

Ein paar Zeilen Code
Etwa eine halbe Minute, Zugang zu einem Serverraum und ein paar Zeilen Code bräuchte Zhang, um sich Zugang auf alle virtuellen Maschinen zu verschaffen und dort mit Administratorrechten alles einzusehen und zu verändern, was er möchte. Herauszufinden, wie genau das möglich ist, erforderte monatelange Arbeit. „Cache Warp ist unseres Wissens nach bislang der einzige softwarebasierte Angriff, mit dem SEV-SNP derartig ausgehebelt werden kann“, erklärt Zhang.

Ein Computer geht auf Zeitreise
„Zunächst müssen wir uns in ein System einloggen können. Dabei hilft uns eine Technik, die wir TimeWarp genannt haben“, sagt Schwarz. Sie nutzt laut dem Forscher aus, dass Computer sich in gewissen Situation im Speicher merken, welchen Code sie als nächstes ausführen müssen. „Wir können rückgängig machen, was der Computer sich als nächsten Schritt gespeichert hat. Dadurch führt der Computer Code aus, den er davor schon einmal ausgeführt hat, weil er eine veraltete sogenannte Rücksprungadresse aus dem Speicher liest. Der Computer reist somit in der Zeit zurück. Allerdings wird der alte Code mit neuen Daten ausgeführt, was zu unvorhergesehenen Effekten führt. Wenn man diese Technik clever einsetzt, kann man so die Programmlogik verändern“, erklärt Schwarz. Zhang fügt hinzu: „Mit Hilfe von TimeWarp ändern wir die Programmlogik einer virtuellen Machine also so, dass sie es uns erlaubt uns einzuloggen, ohne das Passwort zu kennen.“

Die 0 steht für Erfolg
Kombiniert mit der zweiten Technik, dem sogenannten „Dropforge“, ist es möglich, auch den Cache zu manipulieren und dort Veränderungen an Daten rückgängig machen. „Auch wenn es nicht intuitiv erscheint, kann man damit auch Administratorrechte bekommen. Dabei nutzt man Details in der Programmlogik aus“, sagt Schwarz. In der Informatik stehe eine „0“ oft dafür, dass etwas erfolgreich war. Andere Zahlen stehen hingegen für etwaige Fehlercodes. „0“ ist laut Schwarz jedoch auch der Standardwert von Daten, wenn nichts anderes gespeichert wird. „Wenn ein System testet, ob der jeweilige Nutzer Administrator ist oder nicht, dann liefert die Abfrage auch „0“ zurück, wenn man Administrator ist. Ist man kein Administrator, wird eine andere Zahl zurückgegeben. Mit „Dropforge“ kann man diese Antwort rückgängig machen. Egal, ob man Administrator ist oder nicht, es steht der initiale Wert „0“ im Speicher. Das System nimmt dann an, dass man Administrator ist“, erklärt Schwarz. „Mit dieser Kombination haben wir uneingeschränkten Zugriff auf die virtuelle Maschine“, ergänzt Zhang.

Vertrauen ist gut
In ihrem Paper „CacheWarp: Software-based Fault Injection Selective State Reset” haben die Forscher nicht nur die Angriffstechniken beschrieben, sondern auch eine compiler-basierte Lösung zur Entschärfung der Angriffsmöglichkeiten vorgeschlagen. Zudem wollen sie ein Testing-Tool für die Schwachstellen open source zur Verfügung stellen. „Wir wollen uns nicht auf die Aussage verlassen, dass etwas sicher ist. Wir wollen es prüfen können“, erklärt Schwarz. Seit Entdeckung von CacheWarp sind die Forschenden auch im Austausch mit AMD: Der Hersteller hat ihnen gegenüber angegeben, die Lücke inzwischen geschlossen zu haben.

Wissenschaftliche Ansprechpartner:
michael.schwarz@cispa.de

Originalpublikation:
“CacheWarp: Software-based Fault Injection using Selective State Reset” von Ruiyi Zhang (CISPA), Lukas Gerlach (CISPA), Daniel Weber (CISPA), Lorenz Hetterich CISPA, Youheng Lü (Independent), Andreas Kogler (Graz University of Technology), Michael Schwarz (CISPA)

Weitere Informationen:
http://cachewarpattack.com Das Forschungsteam unter der Leitung von Michael Schwarz vom CISPA Helmholtz-Zentrum für Informationssicherheit hat für Informationen zu CacheWarp eine eigene Website erstellt.

(nach oben)


Vielfältige Wälder könnten riesige CO2-Speicher sein – aber nur, wenn die Emissionen sinken

Laut einer neuen Studie könnte die Wiederherstellung natürlicher Wälder rund 226 Gigatonnen (Gt) Kohlenstoff binden – allerdings nur dann, wenn die Menschheit auch ihre Treibhausgasemissionen stark reduziert. Zudem braucht es gemeinsame Anstrengungen zum Erhalt und zur Wiederherstellung der biologischen Vielfalt.

Soeben wurde in der Fachzeitschrift „Nature“ eine neue Studie über das Kohlenstoffspeicherpotenzial von Wäldern veröffentlicht. Sie zeigt, dass Wälder weltweit rund 226 Gigatonnen (Gt) Kohlenstoff zusätzlich binden könnten. Die Studie unterstreicht die entscheidende Bedeutung der Erhaltung, Wiederherstellung und nachhaltigen Bewirtschaftung von Wäldern für das Erreichen der internationalen Klima-​ und Biodiversitätsziele. Die Forschenden betonen, dass dieses Potenzial durch Anreize für gemeinschaftliche Anstrengungen zur Förderung der Biodiversität erreicht werden kann. An der Studie waren Hunderte von Wissenschaftlern aus aller Welt beteiligt.

Kontroverses Thema
Das CO₂-Speicherpotenzial von Wäldern ist ein kontrovers diskutiertes Thema. Eine ähnliche Studie, die vor vier Jahren in der Fachzeitschrift Science veröffentlicht wurde, ergab, dass durch Wiederaufforstung über 200 Gt Kohlenstoff gebunden werden könnten – was etwa 30 Prozent des vom Menschen in die Atmosphäre freigesetzten Kohlenstoffs entspricht.

Damit entbrannte nicht nur eine wissenschaftliche Debatte über die Rolle der Natur im Kampf gegen den Klimawandel. Während weitere Studien die Ergebnisse bestätigten, warnten andere davor, dass das Speicherpotenzial um das Vier-​ bis Fünffache überschätzt worden sein könnte. Die Studie weckte zudem Bedenken bezüglich der negativen Auswirkungen von Massenaufforstungen, Kohlenstoffkompensationsprogrammen und Greenwashing.

Um dieses kontroverse Thema anzugehen, hat sich ein internationales Team von hunderten Forschenden unter der Leitung des Crowther Lab der ETH Zürich zusammengeschlossen und das Speicherpotenzial von Wäldern neu bewertet. Dazu verwendeten die Forschenden eine breite Palette von Ansätzen, einschliesslich umfangreicher bodengestützter Datenaufnahmen und Satellitendaten.

Wege zu vollem CO₂-Speicherpotenzial der Wälder
Aufgrund der fortschreitenden Entwaldung liegt das Kohlenstoff-​Speichervermögen der Wälder weltweit um etwa 328 Gt unter seinem natürlichen Potenzial. Einen Grossteil der gerodeten Flächen nutzt der Mensch mittlerweile für Siedlungen und die Landwirtschaft. Ausserhalb dieser Gebiete, in nur dünn besiedelten Regionen, könnte die Renaturierung von Wäldern den Forschenden zufolge noch rund 226 Gt Kohlenstoff binden. Etwa 61 Prozent dieses Potenzials können erreicht werden, indem bestehende Wälder geschützt werden und sich bis zur natürlichen Reife erholen können. Die restlichen 39 Prozent können durch die Wiedervernetzung fragmentierter Waldlandschaften, durch nachhaltiges Management und Wiederherstellung von Ökosystemen erreicht werden.

«Die meisten Wälder der Erde sind stark geschädigt. Die meisten Menschen waren noch nie in einem der wenigen Primärwälder, die es noch gibt», erklärt Lidong Mo, einer der Hauptautoren der Studie. «Um die Biodiversität weltweit wiederherzustellen, muss vor allem die Entwaldung gestoppt werden.»

Die neuen Daten zeigen weiter, dass ungefähr die Hälfte des globalen Speicherpotenzials von Wäldern von der Biodiversität abhängt. Daher betonen die Forschenden, dass Wiederherstellungsmassnahmen auf die natürliche Artenvielfalt abstützen müssen, um das volle Speichervermögen zu erreichen. Zudem liesse sich dieses durch nachhaltige Land-​ und Forstwirtschaft sowie Wiederherstellungsmassnahmen zur Förderung von Biodiversität maximieren.

Wiederherstellung neu definiert
Die Autorinnen und Autoren betonen, dass verantwortungsvolle Wiederherstellung von Ökosystemen eine grundlegend gesellschaftliche Aufgabe ist. Sie beinhaltet zahlreiche Massnahmen wie das Ausscheiden von Schutzgebieten, die natürliche Regenerierung, Renaturierung, Forstwirtschaft, Agroforstwirtschaft und alle anderen von der Gemeinschaft getragenen Bemühungen zur Förderung der Biodiversität. Nötig ist dazu eine gerechte Entwicklung, die durch Richtlinien vorangetrieben wird, welche die Rechte lokaler Gemeinschaften und indigener Völker priorisieren.

«Wir müssen bei vielen Menschen ein neues Verständnis von Wiederherstellung verankern», sagt Thomas Crowther, leitender Autor der Studie und Professor an der ETH Zürich. «Wiederherstellung bedeutet nicht, massenhaft Bäume zu pflanzen, um Kohlenstoffemissionen auszugleichen. Wiederherstellung bedeutet, den Wohlstand zu Millionen von lokalen Gemeinschaften, indigenen Völkern und Bauern umzulenken, die weltweit die biologische Vielfalt fördern. Nur wenn eine gesunde Artenvielfalt zur bevorzugten Wahl für lokale Gemeinschaften wird, erreichen wir langfristig als positiven Nebeneffekt das volle CO₂-Speicherpotenzial.»

Das Wissenschaftsteam kommt weiter zum Schluss, dass umweltgerechte Wiederherstellung nicht andere Ökosysteme, die von Natur aus waldfrei sind, wie Tundren oder Grasländer, umfassen darf. «Bei der globalen Wiederherstellung von Natur geht es nicht nur um Bäume», sagt Constantin Zohner, Senior Scientist an der ETH Zürich. «Wir müssen die natürliche Biodiversität aller Ökosysteme, die für das Leben auf der Erde wichtig sind, schützen – dazu zählen auch Wiesen, Moore oder Feuchtgebiete.»

Die Natur als Verbündete im Kampf gegen den Klimawandel
Die Studie beleuchtet die entscheidende Bedeutung natürlicher, vielfältiger Wälder, die bis zu 30 Prozent des vom Menschen verursachten Kohlenstoffs binden könnten. Wiederherstellungsmassnahmen ersetzen jedoch keine der Massnahmen zur Reduzierung der Emissionen aus fossilen Brennstoffen. Wenn der Treibhausgasausstoss weiter steige, so warnt die Studie, würden Wälder durch anhaltende Dürren, Waldbrände und die Erderwärmung bedroht. Dies würde auch ihr Kohlenstoff-​Speichervermögen massiv schmälern.

«Meine grösste Befürchtung ist, dass Unternehmen die Erkenntnisse unserer Studie missbrauchen, um ihre Treibhausgasemissionen nicht senken zu müssen. Aber je mehr Treibhausgase wir ausstossen, desto grösser ist die Gefahr für Mensch und Natur. Wir können allerdings nicht wählen, ob wir Emissionen senken oder die Natur schützen wollen – beides ist dringend nötig. Wir brauchen die Natur für das Klima und wir brauchen Klimaschutz für die Natur», betont Crowther.
Wissenschaftliche Ansprechpartner:

Crowther Lab, ETH Zürich; press@crowtherlab.com

Originalpublikation:
Mo L, Zohner CM, Reich PB, et al. Integrated global assessment of the natural forest carbon potential. Nature, 13. November 2023, DOI: 10.1038/s41586-​023-06723-z

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/11/vielfaeltige-w…

(nach oben)


Künstliche Intelligenz – Handlungsrahmen und Anwendungsfelder für Kommunen

Künstliche Intelligenz (KI) wird zunehmend in Bereichen der Stadtentwicklung eingesetzt. Die potenziellen Anwendungsfelder sind überaus vielfältig. Erfahrungen werden derzeit vor allem in Modellprojekten gesammelt.

Im Difu-Dialog mit Dr. Martin Memmel vom Deutschen Forschungszentrum für Künstliche Intelligenz und Dr. Jens Libbe vom Difu stehen die Potenziale von KI sowie zu beachtende Rahmenbedingungen für Kommunen im Fokus.
In der Veranstaltung besteht die Gelegenheit, im gemeinsamen Austausch die Wirkungen von KI auf die Stadtentwicklung zu diskutieren und Fragen zu stellen.

Ablauf:
Begrüßung
Prof. Dr. Carsten Kühl, Wissenschaftlicher Direktor und Geschäftsführer des Deutschen Instituts für Urbanistik (Difu)
Impuls und Podiumsdiskussion

  • Dr. Martin Memmel, Deutsches Forschungszentrum für künstliche Intelligenz (DFKI), Kaiserlautern
  • Dr. Jens Libbe, Deutsches Institut für Urbanistik (Difu), Berlin

  • Moderation- Jan Abt, Difu

Dramaturgie/Teilnehmende
Die Vortrags- und Dialogreihe widmet sich aktuellen Themen zur „Zukunft der Städte“. Je nach Schwerpunkt setzt sich der Teilnehmendenkreis aus Politik, Bundes- und Landesverwaltungen, Bezirksämtern, Stadtverwaltungen, Medien sowie anderen öffentlichen und privaten Einrichtungen unterschiedlich zusammen. Nach dem Input der jeweiligen Podiumsgäste ist Zeit für Fragen und Diskussion – auch mit dem Publikum.

Online-Anmeldung und weitere Infos: www.difu.de/18112

Eine Anmeldung ist erforderlich, um Zugangsdaten zu erhalten. Bitte beachten Sie die Informationen zum Datenschutz. Fragen zur Anmeldung: dialoge@difu.de. Presseanfragen: presse@difu.de.Teilnehmende können Fragen und Diskussionsbeiträge während der Veranstaltung in der Videokonferenz oder über die Chat-Funktion einbringen.


Vorschau: Für das „Wintersemester“ 2023/2024 sind folgende weitere Difu-Dialoge in Planung (die Titel sind noch Arbeitstitel – eine Anmeldung ist erst nach dem Versand der Einzelprogramme möglich):

•06. Dezember 2023: Fahrrad versus Auto: Vom Gegeneinander zum Miteinander?
•21. Februar 2024: Umgang mit anhaltender Trockenheit in Kommunen: Betroffenheiten, Partner und Lösungsstrategien
•13. März 2024: Teurer Wohnen
•17. April 2024: Zukunft findet Stadt – mit wem?

Kurzinfo: Deutsches Institut für UrbanistikDas Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Wissenschaftliche Ansprechpartner:
Difu-Pressestelle
Sybille Wenke-Thiem
pressestelle@difu.de
+49 30 39001-208/-209

(nach oben)


Umweltgiften auf der Spur

Nachweis von Per- und Polyfluoralkylsubstanzen (PFAS) durch unterbrochene Energieübertragung
PFAS, eine Gruppe stark fluorierter Substanzen, stellen eine Gefahr für Mensch und Umwelt dar. So scheinen besonders problematische Vertreter, wie Perfluoroktansulfonsäure (PFOS) und Perfluoroktansäure (PFOA), Organschäden und Krebs zu verursachen und das Hormonsystem durcheinander zu bringen. In der Zeitschrift Angewandte Chemie stellen Forscher jetzt einen neuen Ansatz für einen kostengünstigen, einfach zu handhabenden Fluoreszenz-Sensor für eine empfindliche Vor-Ort-Analytik von PFAS in Wasserproben vor.

Die Bezeichnung Per- und Polyfluoralkyl-Substanzen (PFAS) fasst eine Gruppe organischer Verbindungen zusammen, deren am Kohlenstoff gebundene Wasserstoffatome vollständig oder teilweise durch Fluoratome ersetzt sind. Eingesetzt werden sie u.a. für die Herstellung wasser-, fett- und schmutzabweisender Ausrüstungen vielfältiger Produkte, wie beschichteter Pfannen, Outdoortextilien und Verpackungen. Zudem können sie z.B. in Feuerlöschschäumen, Farben und Autopolituren enthalten sein. So nützlich diese Verbindungen sind, so schädlich sind sie, wenn sie in die Umwelt gelangen: Sie lassen sich nicht abbauen und reichern sich in Pflanzen, Tieren und Menschen an.

Für Trinkwasser wurden in der EU Grenzwerte von 100 ng/l für die Summe bestimmter PFAS-Einzelsubstanzen bzw. 500 ng/l für die Gesamtheit aller PFAS beschlossen. In Deutschland müssen Wasserversorger das Trinkwasser ab 2026 auf PFAS untersuchen lassen. Die Grenzwerte der US Environmental Protection Agency sind strenger: Für die verbreitetsten PFAS, PFOS und PFOA gelten jeweils 4 ng/l als Höchstgrenze.

Der übliche Nachweis solcher Spurenmengen durch Chromatographie/Massenspektrometrie ist zeitaufwendig, teuer und benötigt komplexe Geräte sowie erfahrenes Personal. Timothy M. Swager und Alberto Concellón vom Massachusetts Institute of Technology (MIT) in Cambridge, USA, stellen jetzt einen Ansatz für tragbaren, kostengünstigen Test vor, mit dem die selektive Detektion von PFAS in Wasserproben einfach anhand von Fluoreszenzmessungen möglich ist.

Der Test basiert auf einem Polymer in Form dünner Filme oder Nanopartikel mit fluorierten Seitengruppen, in das fluorierte Farbstoffmoleküle (Squarain-Derivate) eingebettet sind. Das spezielle Polymer-Rückgrat (Poly-Phenylen-Ethinylen) absorbiert violettes Licht und überträgt die Lichtenergie über einen Elektronenaustausch auf den Farbstoff (Dexter-Mechanismus), der daraufhin rötlich fluoresziert. Sind PFAS in einer Probe, dringen diese in das Polymer ein und verschieben die Farbstoffmoleküle um den Bruchteil eines Nanometers. Das genügt, um den Elektronenaustausch und damit den Energietransfer zu stoppen. Die rote Fluoreszenz des Farbstoffs wird „abgeschaltet“, dafür wird eine blaue Fluoreszenz des Polymers „angeschaltet“. Die Stärke dieser Änderung ist der Konzentration des PFAS proportional.

Der neue Ansatz, dessen Nachweisgrenze für PFOA und PFOS im µg/l-Bereich liegt, eignet sich für die Vor-Ort-Detektion in stark kontaminierten Regionen. Spuren-Verunreinigungen von Trinkwasserproben können nach einer Vorkonzentrierung durch Festphasenextraktion ausreichend genau erfasst werden.

Angewandte Chemie: Presseinfo 45/2023
Autor/-in: Timothy M. Swager, Massachusetts Institute of Technology, Cambrige (USA), https://swagergroup.mit.edu/

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202309928

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Schutz vor Atemwegserkrankungen: Medizinverbände empfehlen neue RSV-Impfung

Neuer Schutz vor schweren Atemwegserkrankungen: Expertinnen und Experten von elf medizinischen Fachgesellschaften und Institutionen rufen jetzt insbesondere Über-60-Jährige mit Vorerkrankungen auf, sich gegen das Respiratory Syncytial-Virus (RSV) impfen zu lassen. In einem heute gemeinsam veröffentlichten Positionspapier heißt es: „RSV-Infektionen gefährden nicht nur Neugeborene, Säuglinge und Kleinkinder, sondern können auch bei älteren und vorerkrankten Erwachsenen schwere Krankheitsverläufe und Komplikationen von vorbestehenden Erkrankungen auslösen.“

Erstmals überhaupt sind nun zwei Impfstoffe gegen das RS-Virus in der Europäischen Union zugelassen worden. Die konkrete Empfehlung: „Insbesondere Erwachsene mit deutlich eingeschränkter Immunabwehr oder schweren Lungen- sowie Herz-Kreislauf-Vorerkrankungen empfehlen wir eine Impfung“, sagt Co-Autor Professor Wolfram Windisch, Präsident der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin (DGP), unter deren Leitung das Empfehlungspapier entstanden ist.

Vor allem in den Wintermonaten treten RSV-Infektionen gehäuft auf. „In den Kliniken beobachten wir eine vergleichbare Krankheitslast und Sterberate wie bei Lungenentzündungen nach Influenza- oder Pneumokokken-Infektionen. Besonders gefährdet sind auch Menschen mit bösartigen Blutkrebserkrankungen wie Leukämie oder Multiples Myelom“, erklärt Professor Martin Witzenrath, federführender Autor des neuen Positionspapiers und Direktor der Klinik für Pneumologie, Beatmungsmedizin und Intensivmedizin an der Charité – Universitätsmedizin Berlin. Er warnt zudem vor dem Risiko schwerer Folgeerkrankungen, die durch eine RSV-Infektion ausgelöst werden können.

Nach Pandemie: RSV-Erkrankungen wesentlich häufiger – Oftmals unerkannt
Eine aktuelle Studie zeigt auf, dass insbesondere nach den ersten Wellen der COVID-19-Pandemie RSV-Erkrankungen wesentlich häufiger vorkommen. „Diese Erkrankungen sind aber nicht neu und waren schon vor COVID-19 häufig. Allerdings ist der Nachweis durch eine zusätzliche Laboruntersuchung aufwendig“, sagt Witzenrath. Daher werde beim Hausarzt nur selten eine entsprechende Untersuchung in die Wege geleitet, auch einen ausreichend sensitiven Schnelltest für Praxen gäbe es bisher nicht. „Deswegen ist der Anteil von unbekannten Virusinfektionen in der Bevölkerung recht hoch – oftmals kann dem eine RSV-Erkrankung zugrunde liegen, die auch im Krankenhaus in der klinischen Routine meist unerkannt bleibt.“

RSV-Impfung jetzt in der EU zugelassen – Kostenübernahme prüfen lassen
Die European Medicines Agency (EMA) hat in diesem Jahr erstmals zwei Impfstoffe für die EU zugelassen, die bereits in Apotheken erhältlich sind. Da die Ständige Impfkommission (STIKO) noch keine entsprechende Empfehlung für Deutschland ausgesprochen hat, sind die Kosten in der Regel privat zu tragen. Eine Kostenübernahme kann aber auch individuell bei der zuständigen Krankenkasse beantragt werden. Grundsätzlich gelte immer, erst das Beratungsgespräch mit dem eigenen Hausarzt zu suchen.


Weitere Informationen:
https://pneumologie.de/aktuelles-service/presse/pressemitteilungen/schutz-vor-at…

(nach oben)


Wie kann Künstliche Intelligenz den ÖPNV verbessern?

Ein Konsortium um die Leadpartner Fraunhofer-Institut für Materialfluss und Logistik IML sowie die DB Regio Bus forscht derzeit an der Entwicklung einer KI-basierten Lösung zur Planung und Steuerung des künftigen ÖPNV-Angebots. Mit dem Projekt KI4autoBUS soll in erster Linie die Mobilität durch autonome Shuttles verbessert werden. An dem seit Oktober 2021 und noch bis Ende des Jahres laufenden Projekt ist mit einem Teilauftrag auch das Institut für Informationssysteme (iisys) der Hochschule Hof beteiligt. Mit einem Audio-Guide und dessen akustischen Signalen möchte man künftig die barrierefreie Beförderung mobilitätseingeschränkter Personen erleichtern.

Seit Oktober 2017 ist Alexander Kern als wissenschaftlicher Mitarbeiter am Institut für Informationssysteme der Hochschule Hof (iisys) in der Forschungsgruppe „Multimediale Informationssysteme“ tätig. Er kümmert sich im Rahmen des Projektes KI4autoBUS und im direkten Auftrag der DB Regio Bus um den Hofer Teil der Entwicklungsarbeit.

Barrierefreie Mobilität
Er erläutert: „Die Effizienz des öffentlichen Personennahverkehrs (ÖPNV) kann unter Einsatz künstlicher Intelligenz (KI) für Nutzer und Anbieter merklich gesteigert werden. Das Projekt zeigt am Beispiel Bad Birnbach, dass die KI Buchungsanfragen antizipiert (Predictive Demand) und die autonomen Shuttles vorzeitig an geeigneten Haltestellen platziert. Der Hofer Anteil besteht darin, die schon fahrenden Shuttles so zu ergänzen, dass auch die barrierefreie Beförderung von mobilitätseingeschränkten Personen verbessert wird“, so Kern. Geschehen soll dies durch einen Audio-Guide, der durch akustische Signale die Nutzung der Shuttles für die entsprechende Zielgruppe erleichtert:
„Der von uns erstellte Prototyp wird dazu genutzt, in einem Feldtest auch akustische Informationen zu testen. Dabei soll herausgefunden werden, wie die akustischen Signale angenommen werden und zu welchem Grad sie den Probanden helfen. Akzeptanz für die autonom fahrenden Shuttles spielt hier auch eine wichtige Rolle, denn: je mehr nützliche Informationen Passagiere bekommen, desto abgeholter fühlen sie sich, wodurch eventuell ein Grundmisstrauen gegenüber der Technik abnimmt. Ein Shuttle, das kommuniziert und sein Handeln erläutert und Passagiere bestmöglich informiert, ist darum ein wichtiger Schritt für die Akzeptanz.“

Erleichterungen durch akustische Signale
„Durch die Buchungsdaten der Reisenden und die Möglichkeit erweiterte Profilangaben (z.B. Seheinschränkungen) zu machen, kann ein Bedarf für Sprachinformationen entstehen, um im autonomen Shuttle Reise- und Umgebungsinformationen angesagt zu bekommen.“ So werden bspw. Informationen zum barrierefreien Einsteigen abgespielt, wenn eine Person mit Rollstuhl an einer Haltestelle erwartet wird. Ähnlich wie bei Bus- oder Zugfahrten werden natürlich auch die nächsten Haltestellen angesagt. Zusätzlich gibt es in Bad Birnbach die sogenannte „Kennenlernfahrt“, die den Passagieren Informationen zur Region gibt: „Wir sind aktuell dabei, diese Texte einzubauen – wir können sie dann anschließend an der richtigen GPS-Position über den Audio-Guide abspielen“, so Alexander Kern.

Komponenten aus dem „MakerSpace“ der Hochschule Hof
Die für den Audio-Guide benötigten Komponenten wurden eigens im MakerSpace der Hochschule Hof produziert und werden reversibel in den Bussen verbaut – sie können bei Bedarf also auch wieder deinstalliert und ausgetauscht werden. Doch es gibt noch weitere Anforderungen an das Gerät: So müssen Updates der Routen und der Audiodateien leicht durchgeführt werden können. Und auch die Möglichkeit zur Fernwartung ist ganz wesentlich: „Wir können uns im Betrieb auf das Gerät schalten und alle internen Prozesse genau nachverfolgen und notfalls Änderungen direkt einpflegen“, so Kern. Der Audio-Guide bezieht über eine GPS-Antenne selbst die aktuelle Position, über eine LTE-Antenne wird dann eine Verbindung zum Backend erstellt, wodurch jegliche Updates jederzeit während des Betriebes durchgeführt werden können (OTA).
Als besonders anspruchsvoll gestaltete sich beim Prototyp die 3D-Modellierung des Gehäuses, so dass alle Bauteile auf möglichst wenig Raum ihren Platz finden. Zudem ist das Gehäuse mit austauschbaren Seitenteilen konzipiert – somit ist je nach Anforderungen eine Erweiterung mit weiterer Peripherie leicht möglich. Auch ein Mini-Computer, Verstärker, Lüfter, GPS + LTE-Modul mit den jeweiligen Antennen, Lautsprecher sowie Peripherie (Status-LED, Lautstärke-Regler, drei programmierbare Knöpfe) sind im Gerät verbaut.

Daten für den Lernprozess der KI
Im Wesentlichen soll die KI dafür sorgen, dass die Shuttles effizienter eingesetzt werden. Das bedeutet: Alle Fahrtwünsche in Bad Birnbach werden berücksichtigt, Personen mit besonderen Mobilitätsanforderungen (z.B. Rollstuhlfahrer:innen) werden bei mehreren Buchungsanfragen bevorzugt bedient und Leerfahrten sowie lange Wartezeiten werden vermieden. Letzteres bedeutet, dass die KI Buchungsanfragen antizipiert (Predictive Demand) und die Shuttles vorzeitig an geeigneten Haltestellen platziert. Um das zu erreichen, wird im KI4autoBUS Projekt Reinforcement Learning (RL), also bestärkendes Lernen, eingesetzt und auf Funktionsfähigkeit getestet. Bei RL handelt es sich um einen Bereich des maschinellen Lernens, der darauf abzielt, dass ein Agent (beispielsweise ein Shuttle) durch Interaktion mit seiner Umgebung selbstständig lernt, eine bestimmte Aufgabe zu lösen. Vorbereitend auf den Einsatz der KI im realen Betrieb, wird der Agent derzeit in der Simulationsumgebung trainiert, getestet und weiter angepasst. Die Auswertungen zeigen, dass der Agent sich mit fortschreitendem Training immer weiter verbessert. Der Agent lernt, seine Aktionen so zu wählen, dass seine Belohnung maximiert wird, was zu reduzierten Wartezeiten der Passagiere und gleichzeitiger Bedingung aller Fahrtanfragen führt.

Im nächsten Schritt soll der Agent im Realbetrieb eingesetzt werden und im Feldtest unter Beweis stellen, welche Fähigkeiten er im Training in der Simulationsumgebung gelernt hat. Dazu erhält der Agent über eine Schnittstelle aus dem Dispositionssystem Echtzeitdaten zu den Fahrtanfragen und den Positionen der Shuttles und soll damit eine Entscheidung treffen, welches Shuttle zu welcher Haltestelle delegiert werden soll,“ erklärt Nicole Wagner-Hanl, Senior Consultant für Mobilität und Digitalisierung am Fraunhofer IML.

Deutliche Effizienzsteigerungen
Das Gesamtvorhaben hat zum Ziel, die Effizienz des Gesamtsystems des öffentlichen Personennahverkehrs unter Einsatz künstlicher Intelligenz (KI) signifikant zu steigern. Der eigenständige Entscheidungsprozess der KI ermöglicht eine optimale Verkehrsmittel-Planung, zugeschnitten auf die mitunter besonderen Anforderungen jedes einzelnen Nutzers. Zudem verfügt die KI über die Fähigkeit, die individuellen Mobilitätsbedarfe vorherzusehen und den einzelnen Nutzern situativ die besten Mobilitätsangebote aktiv zu kommunizieren. Um die Projekt- und Entwicklungsressourcen optimal zu nutzen, werden die bestehenden autonome Kleinbusse, die seit längerer Zeit in Bad Birnbach im Betrieb sind, für die Erweiterungen und Tests in diesem Vorhaben genutzt. Die modifizierten Kleinbusse sollen in erster Linie für die Bedarfe Mobilitätseingeschränkter eingesetzt werden.

Praxistests starten
Wagner-Hanl weiß: „Insbesondere mobilitätseingeschränkte Personen stehen vor der Herausforderung eigenständig mobil zu sein. Die knappe Ressource an Fahrzeugen, die den Anforderungen bezüglich einer besseren Barrierefreiheit gerecht werden, könnte durch eine automatisierte Einsatzplanung mithilfe einer KI ideal zum Einsatz gebracht werden. Dies ermöglicht die differenzierte Zuordnung von modifizierten und konventionellen Fahrzeugen an verschiedene Nutzergruppen. Zusätzlich entstehen Vorteile für Reisende, indem durch eine Vorhersage der Fahrtanfragen bzw. eine Vorhersage der günstigsten Wartehaltestelle lange Wartezeiten vermieden werden. Gleichzeitig profitieren auch die Mobilitätsanbieter, indem Leerfahrten minimiert werden, die Flottengröße optimiert werden kann und Betriebskosten durch den verbesserten Einsatz der Shuttles gesenkt werden.“
Sofern keine Nachfrage mobilitätseingeschränkter Reisender besteht, wird das modifizierte Shuttle auch für den Normalbetrieb eingesetzt, um eine möglichst hohe Auslastung zu erreichen. Starten soll der Feldtest mit mehreren Probanden Ende Oktober 2023. Wenn die Tests des Audioguides der Hochschule Hof erfolgreich verlaufen, ist eine Integration in den regulären Fahrbetrieb möglich. „Mit dem Vorhaben kann ein effizienter und smarter Beitrag für das Programm »Bayern barrierefrei« geleistet werden, welches die barrierefreie Gestaltung des ÖPNV bis 2023 zum Ziel hat“, so Alexander Kern abschließend.

Die Förderung
Das Projekt wird vom Bayerischen Staatsministerium für Wirtschaft, Landesentwicklung und Energie (StMWi) im Rahmen der Förderlinie Digitalisierung, Förderbereich Informations- und Kommunikationstechnik gefördert.

Das Konsortium
Das Projektkonsortium besteht aus Forschungs-, Entwicklungs- und Anwendungspartnern. Es werden im Verbund die Kompetenzen aus Mobilität & Personenverkehr, Softwareentwicklung und Forschung synergetisch gebündelt.

o Fraunhofer IML, Projektzentrum Verkehr Mobilität und Umwelt in Prien am Chiemsee
o DB Regio Bus Bayern
o FMS Future Mobility Solutions GmbH
o Q_PERIOR AG
o qdive GmbH

Wissenschaftliche Ansprechpartner:
Alexander Kern
Alexander.Kern@iisys.de
Tel: +49 9281 409-6318

(nach oben)


Herzgesundheit: Mit welchem Blutdruck lebt Frau am längsten?

Kardiologen aus Deutschland und Nordamerika haben die Blutdruckdaten von Frauen aus einer Langzeitstudie ausgewertet. Ihr Ziel war es herauszufinden, welche Blutdruckwerte bei Frauen über 65 Jahren mit einem langen Leben assoziiert werden können.

Wie lange ein Mensch lebt, hängt von vielen Begleitumständen ab: Ausreichende Bewegung, gute Ernährung, und ein rundum gesunder Lebensstil, aber auch genetische Veranlagung können dazu beitragen, ein hohes Lebensalter zu erreichen. Jetzt haben die Kardiologen PD Dr. Bernhard Haring aus Homburg an der Saar und Prof. Dr. Michael LaMonte aus Buffalo (USA) den systolischen Blutdruck bei Frauen als Faktor unter die Lupe genommen – mit eindeutigen Ergebnissen.

Was sagen Blutdruckwerte überhaupt aus?
Der Blutdruck eines Menschen ergibt sich aus zwei Werten, die in mmHg (Millimeter/Quecksilbersäule) angegeben werden. Der erste, höhere Wert ist der systolische Blutdruck, um den es in der Studie geht. Er gibt den Maximaldruck an, mit dem das Blut bei der Kontraktion des Herzmuskels durch die Hauptschlagader gepumpt wird. Der zweite, niedrigere Wert ist der diastolische Blutdruck. Er misst den Minimaldruck, mit dem das Blut im Körper noch unterwegs ist, wenn sich das Herz wieder entspannt. Laut den aktuellen europäischen Leitlinien liegt ein optimaler Blutdruck leicht unter 120/80 mmHg (sprich: 120 zu 80), normale Werte liegen im Bereich 120-129/80-84 mmHg. Mit zunehmendem Alter werden die Gefäße unelastischer, was in der Regel zur Folge hat, dass der Blutdruck ansteigt. Bei Seniorinnen und Senioren gelten daher auch leicht höhere Werte als normal. Ein dauerhafter Bluthochdruck kann das Risiko für Herzkreislauf-Erkrankungen erhöhen. Dann können blutdrucksenkende Medikamente helfen, die Werte wieder in den Griff zu bekommen.

Women’s Health Initiative – die amerikanische Langzeitstudie
In den Jahren 1993 bis 2005 wurden im Rahmen der US-amerikanischen Women’s Health Initiative in regelmäßigen Abständen über 16.000 Frauen medizinisch untersucht. Zusätzlich wurden die Teilnehmerinnen in den vergangenen 18 Jahren nachbeobachtet. Die Frauen waren zu Beginn der Studie 65 Jahre alt oder älter und hatten anfangs keine Herz-Kreislauf-Erkrankungen, Diabetes oder Krebs.
Haring und LaMonte sahen sich speziell die Werte für den systolischen Blutdruck der Probandinnen an sowie ihr jeweiliges Alter zum Testzeitpunkt. Anschließend ermittelten die Kardiologen die Überlebenswahrscheinlichkeit aus den Daten mithilfe von logistischer Regression, einem speziellen statistischen Verfahren.

120 mmHG Systole: Der Wunschwert für ein langes Leben
Während der Nachbeobachtungszeit von 2005 bis 2023 erlebten 9.723 (59 %) der 16.570 teilnehmenden Frauen das 90. Lebensjahr. Für alle Frauen, unabhängig vom Alter, war die Überlebenswahrscheinlichkeit bei einem systolischen Wert von 120 mmHg am höchsten – egal, ob der Blutdruck mittels Medikamente reguliert wurde oder nicht. Von denjenigen Frauen, deren systolischer Blutdruck zwischen 110 und 130 mmHg lag, hatten diejenigen mit einem Wert größer als 120 mmHg im direkten Vergleich eine geringere Überlebenswahrscheinlichkeit.

Haring und LaMonte kommen zu dem Ergebnis, dass die Regulierung des Blutdrucks im Alter eine wichtige Säule ist, um ein langes Leben zu ermöglichen. Das Ziel sollte es sein, den systolischen Blutdruckwert zwischen 110 und 130mmHg zu halten, wobei 120 mmHg einen optimalen Wert darstellt. Das bedeutet hingegen nicht, dass man andere Faktoren, wie eine gesunde Ernährung und ausreichende körperliche Betätigung vernachlässigen sollte. Vielmehr handelt es sich um einen einzelnen Baustein im Gefüge eines großen Ganzen – wenn auch einen wichtigen.

Zum Weiterlesen für Ärztinnen und Ärzte sowie Fachpersonal kann das Original-Abstract unter folgender URL gefunden werden:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

Originalpublikation:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

Weitere Informationen:
https://herzmedizin.de/meta/presse/dgk-herztage-2022/Systolischer-Blutdruck-und-…

(nach oben)


Studie: Tiefgaragen erwärmen das Grundwasser

Automotoren heizen durch ihre Abwärme Tiefgaragen derart auf, dass die Wärme über den Boden ins Grundwasser gelangt. Dabei geht allein in Berlin so viel Energie ins Grundwasser über, dass damit 14.660 Haushalte mit Wärme versorgt werden könnten. Das hat ein Team der Martin-Luther-Universität Halle-Wittenberg (MLU), des Karlsruher Instituts für Technologie und der Universität Basel herausgefunden. Den Forschenden zufolge könnte diese Erwärmung auf Dauer die Qualität des Grundwassers beeinträchtigen. In ihrer Studie im Fachjournal „Science of The Total Environment“ schlagen sie auch eine Lösung vor: Mit Geothermie und Wärmepumpen könnte die Wärme dem Boden entzogen und sogar genutzt werden.

Die Forschenden untersuchten die Temperatur in 31 Tiefgaragen in verschiedenen Städten in Deutschland, Österreich und der Schweiz. In sechs von ihnen konnten sie zudem die Temperatur des Grundwassers in der direkten Umgebung messen. So ließ sich für alle Standorte ein Wärmeprofil erstellen. Die Untersuchungen ergaben, dass Tiefgaragen über das gesamte Jahr betrachtet das Grundwasser erwärmen. Den größten Einfluss hatten dabei das Verkehrsaufkommen in den Tiefgaragen, ihre Nähe zum Grundwasser und die vorherige Grundwassertemperatur. „Da öffentliche Tiefgaragen häufig tiefer sind und mit kürzeren Standzeiten genutzt werden, erwärmen sie das Grundwasser stärker als private Anlagen“, sagt der Geowissenschaftler Maximilian Noethen von der MLU.

Die überschüssige Wärme im Boden könnte dem Team zufolge mithilfe von Geothermie und Wärmepumpen genutzt werden. „Der Vorteil davon wäre, dass dem Grundwasser Energie entzogen wird und es so abkühlt.“, sagt Noethen. Anhand von Modellierungen für 5.040 Tiefgaragen in Berlin berechnete das Team die Grundwassererwärmung durch Tiefgaragen für die Stadt. Da in den zentralen Bezirken der Hauptstadt viele Tiefgaragen im oder nahe am Grundwasser liegen, wird dort besonders viel Wärme an das Grundwasser abgegeben. Rund 0,65 Petajoule Energie kommen den Berechnungen zufolge jährlich in Berlin zusammen. Damit könnten theoretisch etwa 14.660 Haushalte mit Wärme versorgt werden. „Natürlich reicht allein die Wärme aus dem Grundwasser nicht aus, um den Wärmebedarf einer Stadt wie Berlin oder gar eines Landes wie Deutschland zu decken. Auch ist das Temperaturniveau des oberflächennahen Grundwassers nicht hinreichend, um ohne Wärmepumpe zu heizen. Aus früheren Arbeiten wissen wir jedoch, dass das Potenzial für Geothermie deutlich darüber hinaus geht und sie einen wesentlichen Anteil an einer nachhaltigen Wärmeversorgung haben könnte“, sagt Prof. Dr. Peter Bayer vom Institut für Geowissenschaften und Geographie der MLU.

Die Grundwassertemperatur steigt seit Jahrzehnten infolge der globalen Erwärmung an. In Städten wird dies durch dichte Bebauung, Versiegelung, fehlende Vegetation sowie direkte Wärmeeinstrahlung aus Tunneln und Tiefgaragen verstärkt. Da die Organismen im Grundwasser an konstante Temperaturen angepasst sind, könnte sich so auch die Artenzusammensetzung verändern. „Dadurch könnte sich auch die Qualität des Grundwassers verändern, aus dem wir große Teile unseres Trinkwassers beziehen. Diese Entwicklung gilt es durch vielfältige Maßnahmen zu kontrollieren“, so Bayer abschließend.

Die Studie wurde gefördert durch die Deutsche Bundesstiftung Umwelt (DBU) und das Margarete von Wrangell-Programm des Ministeriums für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg.

Originalpublikation:
Studie: Noethen M. et al. Thermal impact of underground car parks on urban groundwater. Science of The Total Environment (2023).
doi: 10.1016/j.scitotenv.2023.166572
https://www.sciencedirect.com/science/article/pii/S0048969723051975

(nach oben)


Biomüllverwertung: BAW-Sammelbeutel aktuell nicht empfehlenswert

Zum Sammeln von organischen Haushaltsabfällen sind seit einigen Jahren Tüten aus biologisch abbaubaren Werkstoffen, sogenannte BAW-Beutel, am Markt verfügbar. Jetzt wurde erstmals in einem groß angelegten Modellversuch wissenschaftlich untersucht, ob diese Beutel sich wie beabsichtigt komplett in bestehenden Bioabfallverwertungsanlagen zersetzen und wie groß das Interesse der Bevölkerung an BAW-Beuteln wirklich ist. Koordiniert wurde das Projekt vom Fraunhofer ICT mit Forschungspartnern der Universitäten Bayreuth und Hohenheim sowie der BEM Umweltservice GmbH. Das Ergebnis: Die Forschenden empfehlen die Nutzung von BAW-Beuteln derzeit aus mehreren Gründen nicht.

Das Ziel des Projekts »BabbA – Biologisch abbaubare Beutel in der Bioabfallverwertung« lag darin, das Abbauverhalten von BAW-Beuteln in bestehenden Bioabfallverwertungsanlagen zu analysieren und mögliche Auswirkungen auf die Umwelt zu beleuchten. Zusätzlich wurde im Modellversuch untersucht, ob Bürgerinnen und Bürger diese BAW-Beutel zum Sammeln organischer Abfälle annehmen und somit das Potenzial besteht, die konventionellen Kunststoffbeutel aus Polyethylen (PE) zu verdrängen. Zudem verfolgten die Forschenden die Frage, ob sich durch den Einsatz von BAW- und Papiersammelbeuteln der Anteil an Gesamtfremdstoffgehalt im Bioabfall verringert. Die Forschungsansätze lassen sich in einer alltagsnahen Fragestellung zusammenfassen: Stellen BAW-Beutel eine gute Alternative zur Sammlung von Bioabfällen im Haushalt dar? Die Arbeiten des Forschungsprojekts wurden mit dem Programm »Lebensgrundlage Umwelt und ihre Sicherung (BWPLUS)« aus Mitteln des Landes Baden-Württemberg finanziert.

Energielieferant Biomüll
In Deutschland werden trotz Mülltrennungsmandat noch immer signifikante Mengen an Kunststoffen mit dem Biomüll in Bioabfallverwertungsanlagen angeliefert – vermutlich, weil die Sammlung in Wohnung oder Haus mit Plastiktüten schlicht bequemer ist und als hygienischer empfunden wird. Diese Tüten – konventionelle Kunststoff- wie auch BAW-Beutel – müssen allerdings vor der Weiterverwertung der Bioabfälle aufwendig aussortiert werden, damit sie nicht im Kompost landen. Dabei geht immer auch wertvolles organisches Material verloren. Papiertüten werden häufig nicht als Alternative wahrgenommen, da sie als weniger feuchtigkeitsbeständig gelten und schon auf dem Weg zur Biotonne reißen können – nur einer der Gründe, warum etwa ein Drittel der deutschen Haushalte Bioabfall einfach im normalen Restmüll entsorgt. Dabei steckt in organischen Abfällen großes Potenzial in Form von wertvoller Energie und wichtigen Pflanzennährstoffen: Aus den Bioabfällen kann Biogas und dann Strom erzeugt werden; Endprodukte wie Kompost lassen sich als organische Dünger einsetzen und reduzieren damit den Einsatz von Kunstdünger. So leistet die Verwertung von Biomüll einen wichtigen Beitrag zu Energiewende und Nachhaltigkeit und vermindert zugleich Abhängigkeiten von internationalen Lieferketten.

Bioabbaubares Plastik: Zersetzung nicht gesichert
Die Verwendung von BAW-Beuteln könnte also eine praktikable Lösung zur Sammlung von Bioabfall sein, die einerseits das Hygienebedürfnis der Bevölkerung befriedigt und andererseits den Anteil der Bioabfallmenge ressourcennutzend steigert. Aber ist ihr Einsatz wirklich unbedenklich? Das Wissen und Bewusstsein darüber, welche potenziellen Risiken Mikro- und Nanoplastik für das Ökosystem darstellen, ist parallel zu den Möglichkeiten der Analyse von Mikroplastik in den vergangenen Jahren stark angestiegen. Mittlerweile steht fest, dass die potenziellen ökologischen Effekte zunehmen, je kleiner die Partikel sind. »In den aktuelle Qualitätskriterien für Komposte sind bei den festgelegten Grenzwerten nur Kunststoff-Fragmente über einem Millimeter Größe berücksichtigt. Kleinere Partikel werden nicht betrachtet. Wenn BAW-Beutel innerhalb der
Bioabfallverwertungsanlagen nicht komplett abgebaut werden, sondern lediglich zu Mikro- und Nanoplastik-Partikeln zerfallen, könnten sie mit dem Kompost in die Umwelt gelangen. Und das ist bei den aktuellen Verweilzeiten von Biomüll in den Verwertungsanlagen ein realistisches Szenario«, fasst BabbA-Projektleiter Jens Forberger vom Fraunhofer ICT zusammen.

Pionierarbeit im Modellversuch
Um eine verlässliche Aussage über die Sinnhaftigkeit der Verwendung von BAW-Beuteln treffen zu können, wurden seit 2019 im Projekt BabbA erstmals alle Aspekte von der Nutzung durch die Bürgerinnen und Bürger bis hin zum Abbau in den Verwertungsanlagen unter realen Bedingungen wissenschaftlich untersucht. In groß angelegten Sommer- und Winterexperimenten verteilten die Projektpartner etwa 400 000 Beutel unterschiedlicher Ausgangsstoffe (Ecovio®, Mater-Bi® sowie wachsbeschichtete Papiertüten) und Informationsmaterial an zehntausende Haushalte. In den ausgewählten Landkreisen organisierte die BEM Umweltservice GmbH mit den Forschenden die Abholung und Untersuchung des Biomülls vor und nach der Informationskampagne. Anschließend untersuchten Wissenschaftlerinnen und Wissenschaftler den entstehenden Kompost auf das Vorkommen von Kunststofffragmenten. Möglich machten diese Pionierarbeit im Rahmen von BabbA die Vorarbeiten des ebenfalls vom Fraunhofer ICT koordinierten Projekts MiKoBo, in dem an der Universität Bayreuth die analytische Grundlage dafür geschaffen wurde, Mikroplastik in Komposten, Gärresten und Böden nachzuweisen.

Innovativer Ansatz unter realen Bedingungen
Der innovative Projektansatz von BabbA wurde vom Fraunhofer ICT als Verbundkoordinator vorangetrieben. Im Aufgabenbereich des Instituts lag gemeinsam mit der BEM Umweltservice GmbH auch die Chargenanalyse – also die Untersuchung der Zusammensetzung der Biomüll-Sammlungen aus den Modellregionen hinsichtlich Fremdstoff- und Grüngutanateil sowie Feuchtigkeit. »Eine sogenannte Nullcharge haben wir genommen, bevor die Haushalte über das Projekt informiert und die BAW-Beutel verteilt wurden. So konnten wir die beiden Versuchschargen, die nach der Informationskampagne einmal im Sommer und einmal im Winter gewonnen wurden, mit dem damaligen Ist-Zustand vergleichen«, erläutert Jens Forberger.

Entscheidend für den Erfolg des Projekts war, dass über den Projektpartner BEM Umweltservice GmbH im Betrieb befindliche Bioabfallverwertungsanlagen für die Forschenden zugänglich waren: So konnten Fragmentierung und Abbau der BAW-Beutel unter realen Bedingungen beobachtet werden. In sogenannten Stoffstromanalysen betrachteten Wissenschaftlerinnen und Wissenschaftler der Universität Bayreuth alle Kunststofffragmente in Proben, die an verschiedenen Stationen der Bioabfallverwertung (also vom angelieferten Bioabfall bis zum Fertigkompost) genommen wurden. Zusätzlich zu den Versuchen in den Anlagen untersuchten Forschende der Universität Hohenheim die im Projekt verwendeten Sammelbeutel auf ihre Abbaubarkeit im Boden.

Keine Empfehlung für BAW-Beutel
Im aktuell erschienenen Abschlussbericht des Projekts BabbA präsentieren die Forschenden nun ihre Ergebnisse: In den Versuchen konnten sie zeigen, dass größere Mengen an Mikroplastik mit Abmessungen unter einem Millimeter in Komposten vorhanden sind und auch über längere Zeiträume im Boden verbleiben können. Auf die Einbringung von BAW-Beuteln in reale großtechnische Bioabfallverwertungsanlagen sollte nach erster Einschätzung der Projektgruppe daher verzichtet werden, solange nicht gewährleistet werden kann, dass sich die Beutel vollständig abbauen. Der Einsatz von BAW- und Papiertüten hatte im Modellversuch zudem keinen positiven Einfluss auf das Sammelverhalten der Bürgerinnen und Bürger: Die gesammelte Menge an Biomüll erhöhte sich mit Einführung der Beutel nicht, auch der Fremdstoffgehalt im untersuchten Bioabfall war laut Chargenanalyse nicht geringer als vor dem Modellversuch. Der Einsatz von BAW-Sammelbeuteln ist laut BabbA-Projektgruppe auch aus diesem Grund nicht empfehlenswert, jedoch bieten Papiertüten eine vielversprechende Alternative, welche noch genauer erforscht werden sollte. Die Forschenden plädieren mit Blick auf die gefundenen hohen Mengen von BAW-Fragmenten unter einem Millimeter Größe zudem für eine kritische Revision der aktuell gültigen DIN-Normen zur Kompostierbarkeit eines »kompostierbaren Materials«. Insgesamt liefert der Bericht damit konkrete Entscheidungshilfen für Politik, Entsorgungsunternehmen sowie für Bürgerinnen und Bürger und leistet einen wertvollen Beitrag dazu, die Ressource Bioabfall zukünftig noch besser zu nutzen.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2023/oktober-2023/baw-sa…

(nach oben)


Neuer BZgA-Grippe-Impfcheck gibt Auskunft, ob eine Grippeschutzimpfung empfohlen ist

Mit ihrer Kampagne „Wir kommen der Grippe zuvor“ rufen die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und das Robert Koch-Institut (RKI) zur jährlichen Grippeschutzimpfung auf. Eine Impfung ab Oktober und bis Mitte Dezember ist wichtig, um rechtzeitig vor der nächsten Grippewelle bestmöglich vor Influenzaviren geschützt zu sein. Ob eine Grippeschutzimpfung empfohlen wird, dazu gibt der neue BZgA-Grippe-Impfcheck Auskunft unter https://www.impfen-info.de/grippeimpfung/grippe-impfcheck. Zudem bietet der Grippe-Impfcheck Informationen rund um die Grippeschutzimpfung.

Mit ihrer Kampagne „Wir kommen der Grippe zuvor“ rufen die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und das Robert Koch-Institut (RKI) zur jährlichen Grippeschutzimpfung auf. Eine Impfung ab Oktober und bis Mitte Dezember ist wichtig, um rechtzeitig vor der nächsten Grippewelle bestmöglich vor Influenzaviren geschützt zu sein.

Die Ständige Impfkommission (STIKO) empfiehlt die Grippeschutzimpfung für Personen ab 60 Jahren, chronisch kranke Menschen aller Altersstufen und Schwangere sowie Bewohnerinnen und Bewohner von Alten- und Pflegeheimen – denn vor allem bei diesen Gruppen kann die Grippe zu ernsthaften Komplikationen wie einer Lungenentzündung führen und schwer oder sogar tödlich verlaufen. Auch Medizin- und Pflegepersonal, das häufig engen Kontakt zu gesundheitlich besonders gefährdeten Gruppen hat, sollte sich impfen lassen. Ob eine Grippeschutzimpfung empfohlen wird, dazu gibt der neue BZgA-Grippe-Impfcheck Auskunft unter https://www.impfen-info.de/grippeimpfung/grippe-impfcheck. Zudem bietet der Grippe-Impfcheck Informationen rund um die Grippeschutzimpfung.

Grippeschutzimpfung und Corona-Auffrischimpfung an einem Termin
Für viele Gruppen mit erhöhtem gesundheitlichem Risiko empfiehlt die STIKO zudem die Corona-Auffrischimpfung mit einem Varianten-angepassten Impfstoff. Dazu gehören Personen ab 60 Jahre, Menschen mit bestimmten Vorerkrankungen ab einem Alter von sechs Monaten, Pflege- und Gesundheitspersonal sowie Angehörige von gesundheitlich besonders gefährdeten Personen. Gut zu wissen: Die Grippeschutzimpfung kann meist am gleichen Termin wie die Auffrischimpfung gegen COVID-19 durchgeführt werden. Laut STIKO sollen in der Regel zwölf Monate seit der letzten COVID-19-Impfung oder Infektion mit dem Coronavirus vergangen sein. Wenn dieser Abstand unterschritten wird, ist nicht mit vermehrten Nebenwirkungen zu rechnen. Der Corona-Impfcheck der BZgA informiert, ob eine Corona-Schutzimpfung empfohlen ist: https://www.infektionsschutz.de/coronavirus/schutzimpfung/der-corona-impfcheck/.

Zu wenige Menschen mit erhöhtem gesundheitlichem Risiko befolgen Impfempfehlung gegen Influenza
Nach ausgewählten Ergebnissen der BZgA-Repräsentativbefragung 2022 zum Infektionsschutz lassen sich nur 58 Prozent der über 60-Jährigen, 50 Prozent der chronisch Kranken und lediglich ein Drittel der im medizinischen Bereich mit Patientenkontakt Tätigen jedes Jahr gegen Grippe impfen. Zwar wissen die meisten Befragten mit erhöhtem Risiko, dass sie sich jedes Jahr gegen Grippe impfen lassen sollten und über 60-Jährige schätzen die Grippeimpfung häufiger als „besonders wichtig“ oder „wichtig“ ein. Doch immer noch denken viele, dass die Grippe keine schwere Krankheit sei. Einige wissen zudem nicht, dass sie zu einer Gruppe mit erhöhtem gesundheitlichem Risiko gehören oder haben Zweifel an der Wirksamkeit der Impfung. Angst vor Nebenwirkungen oder fehlende Hinweise auf die Notwendigkeit der Impfung waren weitere Gründe, die Befragte von einer Impfung abhielten.
Für die BZgA-Repräsentativbefragung „Einstellungen, Wissen und Verhalten hinsichtlich der Impfung gegen saisonale Grippe (Influenza) von Personen mit erhöhtem gesundheitlichen Risiko“ wurden 5.000 Personen im Alter von 16 bis 85 Jahren von Juli bis August 2022 befragt. Ein besonderer Schwerpunkt der Befragung lag auf den Gruppen mit erhöhtem gesundheitlichem Risiko, für die eine Grippeimpfung gemäß STIKO empfohlen ist.

„Wir kommen der Grippe zuvor”
Um bundesweit auf die Bedeutung der Grippeschutzimpfung hinzuweisen, Wissenslücken der Bevölkerung zu schließen und Vorbehalte gegenüber der Impfung abzubauen, starten die BZgA und das RKI im Oktober ihre Kampagne „Wir kommen der Grippe zuvor” mit ihren großflächigen Plakatmotiven für die öffentliche Wahrnehmung. Ergänzend sollen Poster und Broschüren in Arztpraxen sowie Anzeigen in Zeitschriften zur Impfung motivieren. Die Informationsmaterialien zur Grippeschutzimpfung sowie Broschüren und Poster können online abgerufen oder kostenfrei im BZgA-Shop bestellt werden: https://shop.bzga.de/alle-kategorien/impfungen-und-persoenlicher-infektionsschut…

Weitere Informationen zum Thema Grippeschutz:
https://www.impfen-info.de/grippeimpfung/
https://www.infektionsschutz.de/erregersteckbriefe/grippe-influenza/
https://www.impfen-info.de/grippeimpfung/grippe-impfcheck

Information des Paul-Ehrlich-Instituts zu Grippeimpfstoffen:
https://www.pei.de/DE/newsroom/hp-meldungen/2023/230926-influenzasaison-2023-202…

Pressemotive „Wir kommen der Grippe zuvor”:
https://www.bzga.de/presse/pressemotive/impfaufklaerung-und-hygiene/

Weiterführende Informationen zum Thema Corona-Schutzimpfung:
https://www.infektionsschutz.de/coronavirus/schutzimpfung/impfung-gegen-covid-19…
https://www.infektionsschutz.de/coronavirus/schutzimpfung/der-corona-impfcheck/

Infoblatt der BZgA-Repräsentativbefragung 2022 zum Infektionsschutz „Einstellungen, Wissen und Verhalten zur Impfung gegen saisonale Grippe (Influenza) von Personen mit erhöhtem gesundheitlichen Risiko“:
https://www.bzga.de/presse/daten-und-fakten/infektionsschutz/

Bestellung der kostenlosen BZgA-Materialien unter:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: https://shop.bzga.de/
Fax: 0221/8992257
E-Mail: bestellung@bzga.de

(nach oben)


Der Klimawandel und das Wasser: Neuer Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“

Das Wintersemester hat begonnen und mit ihm ein neues Studienangebot in Koblenz. Der Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“ ist das jüngste Angebot der Hochschule Koblenz und richtet sich an Studierende, die sich für Klimaanpassung, Umweltschutz und eine nachhaltige Wasserwirtschaft einsetzen möchten. Mit einem breiten Spektrum an praxisnahen Inhalten aus der Naturwissenschaft und den Ingenieurwissenschaften werden die Studierenden in die Lage versetzt, sich den aktuellen und zukünftigen Herausforderungen im Umgang mit der lebenswichtigen Ressource Wasser zu stellen.

KOBLENZ. Das Wintersemester hat begonnen und mit ihm ein neues Studienangebot in Koblenz. Der Bachelorstudiengang „Gewässerkunde und Wasserwirtschaft“ ist das jüngste Angebot der Hochschule Koblenz und richtet sich an Studierende, die sich für Klimaanpassung, Umweltschutz und eine nachhaltige Wasserwirtschaft einsetzen möchten. Mit einem breiten Spektrum an praxisnahen Inhalten aus der Naturwissenschaft und den Ingenieurwissenschaften werden die Studierenden in die Lage versetzt, sich den aktuellen und zukünftigen Herausforderungen im Umgang mit der lebenswichtigen Ressource Wasser zu stellen.

Wasserwirtschaftliche Herausforderungen gibt es viele. Starkregen und daraus resultierende Überschwemmungen traten in den letzten Jahren nicht nur in Deutschland, sondern weltweit vermehrt auf und bedingen eine umfassende und weitblickende Hochwasservorsorge. Auf der anderen Seite sind langanhaltende Hitze und Trockenheit Auslöser für sinkende Grundwasserspiegel und Ernteausfälle und könnten in Zukunft die Trinkwasserversorgung auch in Deutschland gefährden. Der Studiengang Gewässerkunde und Wasserwirtschaft vermittelt praxisbezogen natur- und ingenieurwissenschaftliche Grundlagen zu allen relevanten Gebieten der Hydrologie, Gewässerkunde und Wasserwirtschaft und zielt darauf ab, Expertinnen und Experten für die komplexen Problemstellungen in der Wasserwirtschaft auszubilden.

Der Bachelorstudiengang zeichnet sich durch eine Kooperation der Hochschule Koblenz mit der Universität Koblenz und der Bundesanstalt für Gewässerkunde (BfG) in Koblenz aus und ist damit bundesweit einmalig. Der Abschluss ermöglicht einen direkten Berufseinstieg bei Ingenieurbüros, Versorgern und Verbänden oder in den einschlägigen Behörden im Wassersektor. Darüber hinaus eröffnet er den Zugang zum konsekutiven Masterstudiengang „Gewässerkunde und Wasserwirtschaft“, der von der Universität Koblenz in Kooperation mit der Hochschule Koblenz und der BfG angeboten wird.

In diesem Semester haben 13 Studierende das Bachelorstudium an der Hochschule Koblenz aufgenommen. Die Studierenden werden in Themen wie Gewässerökologie, Wasserqualität, Wasserwirtschaft, Hydrologie und Umweltschutz ausgebildet. Darüber hinaus werden sie Gelegenheiten haben, ihre Kenntnisse durch Praktika und Projektarbeiten in der realen Welt anzuwenden.

Prof. Dr. Karl Stoffel, Präsident der Hochschule Koblenz, zeigt sich begeistert über den gelungenen Start des Studiengangs: „Unser neuer Bachelorstudiengang ist ein wichtiger und notwendiger Schritt, um die großen wasserwirtschaftlichen Herausforderungen, vor der unsere Gesellschaft steht, zu meistern.“ Die Wasserwirtschaft muss das ökologische Gleichgewicht von Gewässern gewährleisten, eine zuverlässige Wasserversorgung von Bevölkerung und Wirtschaft sichern und dabei zugleich das Thema Nachhaltigkeit in den Fokus rücken.

„Wasser ist sowohl ökologisch als auch ökonomisch von fundamentaler Bedeutung und mit Blick auf die Klimakatastrophe gewinnt das Thema Wasserwirtschaft auch für Deutschland rasant an Bedeutung“, betont Studiengangsleiter Prof. Dr. Lothar Kirschbauer, Experte für Siedlungswasserwirtschaft und Wasserwesen an der Hochschule Koblenz und wissenschaftlicher Leiter des Kompetenznetzwerks Wissenschaft für den Wiederaufbau. „Niedrigwasser, Hochwasser, Trinkwasserknappheit, Wasserverschmutzung, Verlust der Biodiversität und dazu eine veraltete Infrastruktur im Bereich der Bundeswasserstraßen – dass ein Umgang mit den Folgen des Klimawandels gefunden werden muss, steht außer Frage“.

Im Bereich der Wasserwirtschaft besitzt die Hochschule Koblenz eine große Expertise. Bereits seit zehn Jahren bildet sie im Studiengang Umwelt-, Wasser- und Infrastrukturmanagement Bauingenieurinnen und Bauingenieure für das Thema aus. Die Hochschule Koblenz ist zudem für das landesweite Kompetenzzentrum „Wissenschaft für den Wiederaufbau“ verantwortlich, das nach der Flutkatastrophe 2021 ins Leben gerufen wurde, und engagiert sich im Projekt des Bundesministeriums für Bildung und Forschung (BMBF) „Impulse für Resilienz und Klimaanpassung – Klima-Anpassung, Hochwasser und Resilienz“ (KAHR). Die Initiativen verfolgen das Ziel, Hochwasserereignisse wissenschaftlich zu untersuchen und bedarfsorientierte Vorsorgemaßnahmen zu entwickeln. Insbesondere sollen neueste wissenschaftliche Erkenntnisse zum Klimawandel und zur Klima-Anpassung für die Prozesse des Wiederaufbaus zur Verfügung gestellt werden, damit die betroffenen Regionen zukunftssichere, resiliente und klimafeste Strukturen gestalten können. Ein weiteres Forschungsvorhaben der Hochschule – „Urban Flood Resilience – Smart Tools“ (FloReST) – beschäftigt sich mit der Bestimmung von Wasser-Fließwegen und der Ausweisung von Notabflusswegen. Darüber hinaus ist die Hochschule Koblenz einer der Projektpartner im Projekt CapTain Rain, das die Wassersammlung und -ableitung sowie die Verbesserung der Methoden zur Sturzflutvorhersage und -vermeidung bei Starkregenereignissen in Jordanien zum Forschungsgegenstand hat. Die wissenschaftliche Expertise der Hochschule fließt nun in den neuen Bachelorstudiengang Gewässerkunde und Wasserwirtschaft ein, der das Studienangebot um einen wichtigen Baustein ergänzt.

Weitere Informationen über den neuen Studiengang, seine Inhalte und den Bewerbungsprozess finden Interessierte auf der Homepage der Hochschule unter www.hs-koblenz.de/gewaesserkunde.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lothar Kirschbauer
kirschbauer@hs-koblenz.de
02619528631

(nach oben)


Fast die Hälfte der Stellen für Fachkräfte konnten 2022 nicht besetzt werden

Die Betriebe konnten im ersten Halbjahr 2022 rund 45 Prozent der Stellen für Fachkräfte nicht besetzen. Damit hat sich die Quote in den vergangenen 10 Jahren nahezu verdoppelt. Das geht aus dem IAB-Betriebspanel, einer jährlichen Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Insbesondere Kleinstbetriebe sind von der Entwicklung betroffen. Diese konnten 62 Prozent ihrer Fachkraftstellen nicht besetzen. Bei Großbetrieben lag der Anteil bei 24 Prozent.

Über die Branchen hinweg zeigen sich ebenso deutliche Unterschiede. Im Baugewerbe konnten knapp zwei Drittel der Stellen nicht besetzt werden. Dort ist der Fachkräftebedarf aber auch besonders hoch. 12 Prozent aller Fachkräfte in Deutschland werden im Baugewerbe nachgefragt. IAB-Forscherin Barbara Schwengler erklärt: „Beim Baugewerbe dürfte der Boom der vergangenen Jahre eine Rolle gespielt haben. Da konnte das Angebot an Fachkräften einfach nicht mit der Nachfrage mithalten.“ Eine hohe Nichtbesetzungsquote zeigt sich auch bei den Übrigen personennahe Dienstleistungen sowie der Beherbergung und Gastronomie. Am niedrigsten ist die Nichtbesetzungsquote in der Öffentlichen Verwaltung. Hier bleibt jede zehnte Fachkraftstelle unbesetzt. Auch in den Bereichen Erziehung und Unterricht sowie Bergbau, Energie, Wasser und Abfall lagen die Nichtbesetzungsquoten mit rund einem Drittel unterhalb des Durchschnitts.

Insgesamt zeigte sich der Fachkräftebedarf so hoch wie seit 10 Jahren nicht mehr. 40 Prozent der Betriebe vermeldeten im ersten Halbjahr 2022 einen Bedarf an Fachkräften. Vor 10 Jahren lag die Quote noch bei 28 Prozent. Im Vorjahr war neben dem Baugewerbe der Fachkräftebedarf besonders hoch in den Bereichen Gesundheits- und Sozialwesen sowie Erziehung und Unterricht.

In der Studie wird die Bedeutung der Weiterbildung für Betriebe betont, damit die Fachkräftelücke künftig nicht noch größer wird. IAB-Forscherin Ute Leber unterstreicht: „Die Fachkräfte von heute müssen teils völlig neue Fertigkeiten erlernen, um auch morgen als Fachkräfte eingesetzt zu werden. Die Betriebe sehen angesichts von Digitalisierung und Dekarbonisierung einen erhöhten Weiterbildungsbedarf.“

Die Studie beruht auf den Daten des IAB-Betriebspanels, einer repräsentativen Befragung, an der jährlich gut 15.000 Betriebe teilnehmen.

Die IAB-Studie ist online abrufbar unter: https://doku.iab.de/forschungsbericht/2023/fb1523.pdf. Ein begleitendes Interview zum Forschungsbericht mit Emanuel Bennewitz und den IAB-Forscherinnen Ute Leber und Barbara Schwengler finden Sie hier: https://www.iab-forum.de/interview-betriebspanel.

(nach oben)


Start-up für grundlegend neue Antibiotika

Am Anfang stand Grundlagenforschung: Bei Experimenten im Labor stieß ein Team der Technischen Universität München (TUM) auf einen Wirkstoff gegen multiresistente Bakterien, der sich grundlegend von bisherigen Antibiotika unterscheidet. Mittlerweile haben die Forschenden ein Start-up für die Entwicklung eines neuartigen Medikaments gegründet. Beim internationalen Falling-Walls-Treffen sind die Gründer für den „Science Breakthrough of the Year“ in der Kategorie Science Start-Up nominiert.

Immer mehr Bakterien sind resistent gegen Antibiotika. Hunderttausende Menschen sterben laut Studien jedes Jahr an Infektionen mit Antibiotika-resistenten Erregern. Allein der Krankenhauskeim Methicillin-resistenter Staphylococcus aureus (MRSA) verursacht zehntausende Todesfälle im Jahr.

Ein Forschungsteam der TUM hat einen Wirkstoff entdeckt, gegen den Resistenzen der MRSA-Keime äußerst unwahrscheinlich sind. „Während klassische Antibiotika entweder die Zellwand oder den Stoffwechsel von Bakterien angreifen, zielen wir darauf ab, Proteintransport und Energiehaushalt der Keime nachhaltig zu schädigen, sodass sie keine Möglichkeit mehr haben, sich zu vermehren und Resistenzen auszubilden“, erklärt Stephan Sieber, Professor für Organische Chemie. Zusammen mit seinem ehemaligen Doktoranden Dr. Robert Macsics hat er ein Start-up gegründet, das den neuen Wirkstoff weiterentwickelt.

Bakterien-Zellwand verdaut sich selbst
Der Grundstein wurde in den Laboren der TUM gelegt. „Das war zunächst mal reine Grundlagenforschung“, betont Sieber. „Wir haben in Kulturen mit Staphylococcus aureus hunderte verschiedener Wirkstoffe getestet und sind dabei auf ein Molekül gestoßen, das diese Bakterien sehr effizient abtötet. Bei diesem Molekül, wir nennen es PK150, haben wir dann im nächsten Schritt die Wirkungsweise untersucht.“ Das Ergebnis: Der Wirkmechanismus von PK150 unterscheidet sich grundlegend von dem herkömmlicher Antibiotika. Statt die biochemischen Prozesse zu unterdrücken, stimuliert PK150 die Ausscheidung von Proteinen in der Zellwand. Wichtige Enzyme werden aus der Zelle herausgeschleust, die Wand beginnt sich selbst zu verdauen. Gleichzeitig wird der Stoffwechsel blockiert, die Zelle kann keine Energie mehr speichern und stirbt. Mutationen mit Resistenzen gegen den Wirkstoff sind aufgrund dieser dualen Wirkweise äußerst unwahrscheinlich.

„Als klar war, dass dieses Molekül ein erfolgversprechender Kandidat für die Entwicklung eines neuen Antibiotikums ist, waren wir uns einig, dass wir den Wirkstoff weiterentwickeln wollten“, erinnert sich Sieber. „Er eignet sich für die Bekämpfung von Staphylococcus aureus und anderer multiresistenter Keime, die eine grampositive, also einlagige Zellwand haben.“ Die Struktur des optimierten Moleküls meldete die TUM 2017 erstmalig zum Patent an, während Sieber und Macsics auf Investor:innensuche gingen. Noch während der Corona-Pandemie gewannen die beiden Forscher nach einem virtuellen Pitch den Boehringer Ingelheim Venture Fonds als Investor.

Unterstützung im TUM Venture Lab
Kurz darauf, 2021, gründeten sie smartbax, eines der ersten Start-ups, das in das neue TUM Venture Lab ChemSPACE aufgenommen wurde. Die TUM Venture Labs sind auf je ein bedeutendes Technologiefeld spezialisiert. Den Gründungsteams bieten sie auf diesem Gebiet spezifische technische Infrastruktur, maßgeschneiderte Ausbildungsprogramme, Expertise für den jeweiligen Markt und eine globale Vernetzung mit der Branche. „Die Möglichkeit, Infrastruktur und Laborfläche des Venture Labs zu nutzen, hat uns sehr dabei geholfen, die ersten Schritte als eigenständiges Unternehmen zu machen“, sagt Macsics, der nach Abschluss seiner Promotion CEO des Start-ups wurde. „Hinzu kommt das Netzwerk des Venture Labs, das uns kontinuierlich hilft, Kontakte aufzubauen.“

Mittlerweile hat smartbax drei feste Mitarbeiter, Stephan Sieber fungiert als wissenschaftlicher Berater. Neben der Weiterentwicklung des Wirkstoffes arbeitet das Unternehmen an weiteren Strategien, um resistente Bakterien auszuschalten. In einigen Jahren sollen die ersten Wirkstoffkandidaten bereit sein für klinische Studien.

25 Nominierte aus aller Welt
Als einen der möglicherweise wichtigsten wissenschaftlichen Durchbrüche des Jahres sieht die Jury von Falling Walls die Arbeit des Teams. Zum Jahrestag des Berliner Mauerfalls richtet die gemeinnützige Falling Walls Foundation immer am 9. November in Berlin den gleichnamigen Science Summit aus, um einer breiten Öffentlichkeit zu zeigen, welche Mauern von der Wissenschaft niedergerissen werden. Die Veranstaltung gilt als eines der wichtigsten Austauschformate zwischen Forschung und Gesellschaft sowie innerhalb der Wissenschaft.

In fünf Forschungsfeldern und in der Kategorie Science Start-Ups wählt Falling Walls den “Science Breakthrough of the Year”. Smartbax ist mit 24 anderen Start-ups aus Europa, Amerika, Asien und Australien nominiert.

Weitere Informationen:
Neben smartbax ist eine zweite Ausgründung der TUM beim Falling-Walls-Treffen für den „Science Breakthrough of the Year“ in der Kategorie Science Start-Up nominiert: Reverion hat Mikrokraftwerke entwickelt, die zum einen Biogas effizienter nutzen als herkömmliche Anlagen. Zum anderen können sie bei einem Überschuss an Sonnen- und Windenergie im Netz automatisch auf die Produktion von grünem Wasserstoff oder Methan umschalten. Das Start-up ist aus dem Forschungsprojekt „BioCORE“ eines Teams des Lehrstuhls für Energiesysteme und der Professur für Regenerative Energiesysteme am TUM Campus Straubing für Biotechnologie und Nachhaltigkeit hervorgegangen. Es wurde im TUM Venture Lab ChemSPACE gefördert.

Jedes Jahr werden an der TUM mehr als 70 technologieorientierte Unternehmen gegründet. TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, unterstützen Start-ups mit Programmen, die exakt auf die einzelnen Phasen der Gründung zugeschnitten sind – von der Konzeption eines Geschäftsmodells bis zum Management-Training, vom Markteintritt bis zum möglichen Börsengang. Die TUM Venture Labs bieten Gründungsteams aus je einem bedeutenden Technologiefeld ein ganzes Ökosystem in unmittelbarer Anbindung an die Forschung. Bis zu 30 Teams können den TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit einem eigenen Venture Capital Fonds in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau.

Weitere Informationen:
Jedes Jahr werden an der TUM mehr als 70 technologieorientierte Unternehmen gegründet. TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, unterstützen Start-ups mit Programmen, die exakt auf die einzelnen Phasen der Gründung zugeschnitten sind – von der Konzeption eines Geschäftsmodells bis zum Management-Training, vom Markteintritt bis zum möglichen Börsengang. Die TUM Venture Labs bieten Gründungsteams aus je einem bedeutenden Technologiefeld ein ganzes Ökosystem in unmittelbarer Anbindung an die Forschung. Bis zu 30 Teams können den TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit einem eigenen Venture Capital Fonds in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau.

Weitere Informationen:
https://falling-walls.com/science-summit/winners/ Nominierte für „Science Breakthrough of the Year“
https://www.tum.de/innovation/entrepreneurship Gründungsförderung an der TUM

(nach oben)


Operativer Hochwasserschutz beginnt bei der Qualifizierung von Einsatzkräften: RPTU entwickelt Weiterbildungsprogramm

Wie lassen sich Hochwasser- und Starkregenereignisse bewältigen? Hierzu forscht das Fachgebiet Wasserbau und Wasserwirtschaft an der RPTU – aktuell im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekts KAHR (Klima-Anpassung, Hochwasser, Resilienz) zur wissenschaftlichen Begleitung des Wiederaufbaus nach der Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen. Ein Weiterbildungsprogramm für Einsatzkräfte ist bereits entstanden. Ebenso hat Fachgebietsleiter Professor Dr. Robert Jüpner gemeinsam mit Partnern im Ahrtal wie THW und Feuerwehr das Katastrophenschutz-Netzwerk „H-Kat-Net“ gegründet, um den Wissenstransfer zu fördern.

Das Weiterbildungsprogramm, welches das Fachgebiet Wasserbau und Wasserwirtschaft im Rahmen des KAHR-Forschungsverbundvorhabens bereitgestellt hat, befasst sich mit dem operativen Hochwasserschutz.

Hierzu Professor Jüpner, der seit dem Hochwasserereignis an der Elbe 2002 regelmäßig selbst Mitglied in Katastrophenstäben war: „Operativer Hochwasserschutz vereint alle vorbereitenden und durchführenden Maßnahmen und Planungen an der Schnittstelle zwischen Katastrophenschutz und Wasserwirtschaft mit dem Ziel, Risiken vorzubeugen und Schäden durch Hochwasser und Starkregen – über die rein wasserwirtschaftliche Hochwasservorsorge hinaus – zu reduzieren. So richtet sich unser Bildungsmodul insbesondere an Personen aus THW-Ortsverbänden, Berufsfeuerwehren, freiwilligen Feuerwehren sowie weitere Behörden und Organisationen mit Sicherheitsaufgaben und ebenso an Verantwortliche in Kommunen und Städten. Wir sind überzeugt, dass eine intensive und fachlich fundierte Vorbereitung der Schlüssel für effektives, koordiniertes und zielführendes Handeln im Einsatzfall ist.“

Dabei spielt der Umgang mit Hochwasser- und Starkregengefahrenkarten zur Lagebeurteilung ebenso eine Rolle wie das Vermitteln von Wissen und Erfahrungen aus der Einsatzpraxis.

Erfahrung mit Bildungsprojekten vorhanden
Es handelt sich dabei nicht um das erste Bildungsmodul, welches Professor Jüpner und seine Arbeitsgruppe konzipiert haben. Bereits seit 2021 bieten sie gemeinsam mit dem Fachgebiet Siedlungswasserwirtschaft an der RPTU und dem Landesfeuerwehrverband Rheinland-Pfalz „BiWaWehr“ als festes Weiterbildungsangebot an. Über 500 Einsatzkräfte von Feuerwehr und THW haben das Training bereits absolviert.

Auf Vorschlag des Umweltbundesamts bewarben sich die Forschenden mit ihrem Bildungsprojekt für die Feuerwehr um den Bundespreis „Blauer Kompass“ 2022 und erreichten die Endausscheidung (20 aus 240 Bewerbungen; Beschreibung der Maßnahme einsehbar in der KomPass-Tatenbank des Umweltbundesamtes).

Regionales Wissen aktivieren
Bilateraler Erfahrungsaustausch zwischen Wissenschaft und Praxis ist ein weiterer Aspekt, der für Professor Jüpner mit Blick auf die Katastrophenvorsorge in Risikogebieten entscheidend ist. Mit „H-Kat-Net“ hat er den Anstoß für ein Katastrophenschutz-Netzwerk für das Ahrtal gegeben, welches er gemeinsam mit zwei THW-Ortsverbänden, dem Kreisverbindungskommando Ahrweiler der Bundeswehr sowie der Feuerwehr Sinzig und dem Brand- und Katstrophenschutz des Landkreises Ahrweiler gegründet hat.

„Mit dem Netzwerk schlagen wir die Brücke zwischen Wissenschaft und Praxis. Wir lernen aus dem Wissen der Einsatzkräfte für die Forschung und können andererseits unsere Forschungsergebnisse direkt dorthin bringen, wo sie gebraucht werden“, unterstreicht der Wissenschaftler. Dabei unterstützen ihn die Partner aus dem KAHR-Projekt – wie etwa der Sprecher des Forschungsverbundvorhabens Professor Dr.-Ing. Jörn Birkmann, der bei der Auftaktveranstaltung am 17. Oktober ein Grußwort sprach und über seine Forschung berichtete.

Über KAHR
Das vom BMBF geförderte Projekt KAHR soll mit neuesten wissenschaftlichen Erkenntnissen die Aufbaumaßnahmen in den von der Flutkatastrophe im Juli 2021 zerstörten Regionen in Nordrhein-Westfalen und Rheinland-Pfalz unterstützen. Bis Ende 2024 werden in dem Verbundprojekt mit insgesamt 13 Partnern aus Wissenschaft und Praxis Fragen zur Klimaanpassung, der risikobasierten Raumplanung und zum Hochwasserschutz erarbeitet. Ziel ist es, konkrete Maßnahmen für einen klimaresilienten und zukunftsorientierten Wieder- und Neuaufbau zu schaffen. Weiterführende Informationen unter: https://hochwasser-kahr.de/index.php/de/

Pressekontakt:
Prof. Dr. Robert Jüpner
RPTU Kaiserslautern-Landau, Fachgebiet Wasserbau und Wasserwirtschaft
Tel.: 0631/205-3805
E-Mail: robert.juepner@rptu.de

(nach oben)


Klicken Sie mal vorbei!

„mikroco-wissen.de“ informiert über Vitamine, Mineralstoffe und Co.

Vitamin E, Folsäure oder Eisen – diese und weitere Vitamine und Mineralstoffe sind lebenswichtig für unseren Körper und müssen mit der Nahrung aufgenommen werden. Aber in welchen Lebensmitteln stecken diese Stoffe überhaupt? Welche Folgen hat ein Mangel und welche gesundheitlichen Risiken bringt eine Überversorgung mit sich? Brauche ich vielleicht Nahrungsergänzungsmittel, um mich ausreichend mit allen Mikronährstoffen zu versorgen? Bergen Nahrungsergänzungsmittel vielleicht auch Risiken? Bei Fragen wie diesen hilft mikroco-wissen.de weiter – das neue Informationsangebot des Bundesinstituts für Risikobewertung (BfR). „Bei einer abwechslungsreichen Ernährung erhält der Körper in der Regel alle Nährstoffe, die er braucht“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Die Einnahme von Nahrungsergänzungsmitteln ist nur in bestimmten Fällen angeraten, etwa bei Folsäure in der Schwangerschaft. Grundsätzlich ist wichtig zu verstehen: Eine Mehraufnahme von Vitaminen oder Mineralstoffen über den physiologischen Bedarf hinaus bringt keinen Zusatznutzen, aber teils gesundheitliche Risiken mit sich.“ Vor diesem Hintergrund möchte das Informationsangebot Orientierung geben und neue wissenschaftliche Erkenntnisse mit der Öffentlichkeit teilen.
Das Portal liefert kurz und bündig grundlegende Informationen über die einzelnen Vitamine und Mineralstoffe und ihre Wirkungen im Körper. Es wird erläutert, welche Lebensmittel gute Quellen für einzelne Stoffe sind und wie sie zur Versorgung beitragen. So wird zum Beispiel erklärt, dass Provitamin A – auch Beta-Carotin genannt – nur in pflanzlichen Lebensmitteln vorkommt und was bei zusätzlicher Aufnahme über Nahrungsergänzungsmittel oder angereicherte Lebensmittel zu beachten ist. Oder dass Vitamin C die Eisenaufnahme verbessert, aber eine dauerhaft hohe zusätzliche Eisenaufnahme über Nahrungsergänzungsmittel möglicherweise Risiken birgt. Zusätzlich zu den Mikronährstoffen (Vitaminen und Mineralstoffen) werden weitere Stoffe mit ernährungsspezifischer oder physiologischer Wirkung vorgestellt – eben „Mikro“ und „Co.“ oder kurz: mikroco. Vorliegende Risikobewertungen des BfR zu diesen Stoffen werden aufgeführt. Dazu gehören zum Beispiel Aminosäuren, Fettsäuren oder Pflanzenextrakte.
Viele der portraitierten Substanzen werden auch in isolierter Form als Nahrungsergänzungsmittel angeboten – und beworben: Vitamin C für das Immunsystem, Magnesium für die Muskeln oder Vitamin D für die Knochen, um nur einige Beispiele zu nennen. Ob und wann die Einnahme einer Extra-Portion Vitamine oder Mineralstoffe sinnvoll sein kann und welche Risiken damit gegebenenfalls verbunden sein können, wird ebenfalls erläutert. So etwa, dass ein Vitamin E-Mangel nach aktuellem wissenschaftlichen Kenntnisstand beim Menschen selten ist, eine dauerhafte Einnahme von Dosen oberhalb des physiologischen Bedarfs aber das Risiko für Schlaganfälle (Hirnblutungen) erhöhen könnte. Oder, was vielleicht wenig bekannt ist: dass die Einnahme von Biotinpräparaten die Ergebnisse von wichtigen Labortests verfälschen kann.
Ein weiterer Schwerpunkt des Informationsangebots liegt auf den vom BfR erarbeiteten Höchstmengenempfehlungen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln und angereicherten Lebensmitteln. Sie sollen zu einer europaweit einheitlichen Höchstmengenregelung für diese Produkte beitragen, können aber bis dahin auch Verbraucherinnen und Verbrauchern bei der Produktwahl unterstützen. Die Höchstmengenempfehlung für Vitamin D zum Beispiel liegt bei 20 Mikrogramm pro Tagesdosis eines Nahrungsergänzungsmittels, weil diese Menge ausreicht, um selbst bei Menschen mit einem erhöhten Risiko für eine unzureichende Versorgung einen angemessenen Versorgungsstatus zu erreichen – ohne dass gesundheitliche Beeinträchtigungen zu erwarten sind.
Die Inhalte auf mikroco-wissen.de werden in Übersichtsgrafiken zusammengefasst; Illustrationen zeigen, welche Lebensmittel zur Versorgung mit essentiellen Nährstoffen beitragen. Das Angebot wird laufend erweitert und um neue Erkenntnisse ergänzt.
Klicken Sie mal vorbei auf: https://www.mikroco-wissen.de

Weitere Informationen:
https://www.mikroco-wissen.de

(nach oben)


Wie organische Solarzellen deutlich effizienter werden könnten

ie Sonne schickt enorme Energiemengen auf die Erde. Doch in Solarzellen geht ein Teil davon verloren. Gerade bei organischen Solarzellen, die für innovative Anwendungen in Frage kommen, ist das eine Hürde für ihre Nutzung. Ein Schlüssel, um sie leistungsfähiger zu machen: Ein verbesserter Transport der im Material zwischengespeicherten Sonnenenergie. Dass sich durch bestimmte organische Farbstoffe regelrechte Autobahnen ausbilden können, hat eine Forschungsgruppe der Technischen Universität München (TUM) nun gezeigt.

Diese Energiesammler sind leicht, hauchdünn und schmiegen sich als flexible Beschichtung auf fast jede Oberfläche: Solarzellen, die auf organischen Halbleitern basieren, eröffnen für die Anwendung ganz neue Möglichkeiten. Beispielsweise als rollbare Solarpaneele und -folien oder für die Ausstattung von Smart Devices. Doch ein Handicap für viele Anwendungen ist der vergleichsweise schlechte Transport der gewonnenen Energie innerhalb des Materials. Um diesen zu verbessern, untersuchen Forschende die elementaren Transportprozesse von organischen Solarzellen.

Anregende Sonnenkraft
Einer von ihnen ist Frank Ortmann, Professor für Theoretical Methods in Spectroscopy an der TUM. Für ihn und seine Kolleg:innen aus Dresden steht unter anderem die Wechselwirkung zwischen Licht und Materie im Fokus – und insbesondere das Verhalten der sogenannten Exzitonen. „Exzitonen sind so etwas wie der Kraftstoff der Sonne, den es optimal zu nutzen gilt“, erklärt Ortmann, der auch Mitglied im Exzellenzcluster e-conversion ist. „Trifft Lichtenergie als Photon auf das Material einer Solarzelle, wird es absorbiert und als angeregter Zustand zwischengespeichert. Diesen Zwischenzustand beschreibt man als Exziton.“ Erst wenn die Ladungen an eine speziell designte Grenzfläche gelangen, werden sie als elektrische Energie nutzbar. Ortmann und sein Team konnten nun zeigen, dass sich mit organischen Farbstoffen sogenannte Exzitonen-Autobahnen kreieren lassen.

Farbstoff mit Turboeffekt
Warum es wichtig ist, dass die Exzitonen so schnell wie möglich die Grenzfläche erreichen, lässt sich auf ihre kurze Lebenszeit zurückführen. „Je schneller und gezielter der Transport abläuft, desto besser ist die Energieausbeute – und damit die Effizienz der Solarzelle“, so Ortmann. Die organischen Farbstoff-Moleküle – sogenannte chinoide Merocyanine – ermöglichen dies. Das verdanken sie ihrem chemischen Aufbau und ihrer Fähigkeit, das sichtbare Licht sehr gut zu absorbieren. Deswegen würden sie sich auch als aktive Schicht in einer organischen Solarzelle eignen.

Energiepakete auf der Überholspur
Mithilfe von spektroskopischen Messungen und Modellen konnten die Forschenden den Exzitonen sozusagen bei ihrem Sprint durch die Farbstoffmoleküle zuschauen. „Mit Werten von 1,33 Elektronenvolt übertrifft unser Design die Werte in organischen Halbleitern bei weitem – die organischen Farbstoff-Moleküle bilden sozusagen eine Autobahn“, sagt Ortmann. Diese grundlegend neuen Erkenntnisse könnten den Weg für einen gezielten, effizienteren Exzitontransport in organischen Feststoffen ebnen – und so die Entwicklung leistungsfähigerer organischer Solarzellen oder organischer Leuchtdioden beschleunigen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Frank Ortmann
Technische Universität München
Tel. +49 (89) 289 – 13611
frank.ortmann@tum.de
www.ch.nat.tum.de/tms/startseite/

Originalpublikation:
Directed Exciton Transport Highways in Organic Semiconductors, Kai Müller, Karl S. Schellhammer, Nico Gräßler, Bipasha Debnath, Fupin Liu, Yulia Krupskaya, Karl Leo, Martin Knupfer, Frank Ortmann,
DOI: 10.1038/s41467-023-41044-9
www.nature.com/articles/s41467-023-41044-9

Weitere Informationen:
https://mediatum.ub.tum.de/1721598 Foto zum Download
Prof. Dr. Frank Ortmann
Technische Universität München
Tel. +49 (89) 289 – 13611
frank.ortmann@tum.de
www.ch.nat.tum.de/tms/startseite/

Originalpublikation:
Directed Exciton Transport Highways in Organic Semiconductors, Kai Müller, Karl S. Schellhammer, Nico Gräßler, Bipasha Debnath, Fupin Liu, Yulia Krupskaya, Karl Leo, Martin Knupfer, Frank Ortmann,
DOI: 10.1038/s41467-023-41044-9
www.nature.com/articles/s41467-023-41044-9

Weitere Informationen:
https://mediatum.ub.tum.de/1721598 Foto zum Download

(nach oben)


Wie Spurenelemente die CO2-Speicherung im Ozean verändern

Der richtige Mix von Spurenelementen ist entscheidend für eine gesunde Ernährung. Diese Devise gilt auch für das Phytoplankton. Die winzigen Algen im Südpolarmeer haben als Kohlendioxid-Speicher maßgebliche Effekte auf das Weltklima. So zeigt eine neue Studie des AWI und der Uni Bremen einen interessanten Zusammenhang: Wenn das Phytoplankton gleichzeitig mehr Eisen und Mangan bekommt, verändert sich seine Lebensgemeinschaft. Die Algen können dann mehr CO2 binden und bilden mehr klebrige, kohlenstoffreiche Kolonien, die besser auf den Meeresgrund sinken. Dadurch holen sie den Kohlenstoff effizienter aus der Atmosphäre, berichtet das Forschungsteam im Fachjournal Current Biology.

Da das Südpolarmeer reich an Nährstoffen wie Nitrat und Phosphat ist, sollte man dort eigentlich auch ein üppiges Algenwachstum erwarten. Doch in den meisten Regionen gibt es erstaunlich wenig Phytoplankton. Schon länger ist bekannt, dass hinter dieser Wachstumsschwäche vor allem ein kräftiger Eisen-Mangel steckt, teilweise ist aber auch Mangan knapp. Ob das auch für das südliche Weddellmeer gilt, wusste bisher allerdings niemand. Nun aber haben Forschende des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) sowie der Universität Bremen nicht nur die Mengen beider Elemente in den abgelegenen und schwer erreichbaren Gewässern am 77. Breitengrad untersucht. Zum ersten Mal haben sie während der COSMUS-Expedition im Jahr 2021 auch getestet, welchen Einfluss beide Spurenmetalle auf die dortigen Algengemeinschaften haben.

Dabei hat sich herausgestellt, dass im Vergleich zu ihrer möglichen Photosynthese-Leistung die Algen im gesamten südlichen Weddellmeer erstaunlich schlecht wachsen und somit auch weniger Kohlenstoff zum Meeresgrund transportieren als eigentlich möglich wäre. Dieses Ergebnis passt zu der ebenfalls schlechten Versorgung mit Spurenelementen: „Tatsächlich haben wir überraschend geringe Konzentrationen von Eisen und Mangan gefunden“, berichtet Erst-Autorin Jenna Balaguer, deren Doktorarbeit von Scarlett Trimborn betreut und am AWI und der Universität Bremen durch das Schwerpunktprogramm Antarktisforschung von der Deutschen Forschungsgemeinschaft (DFG) gefördert wurde. „Für manche Phytoplankter scheinen beide Substanzen sehr knapp zu sein, während andere nur Eisen benötigen.“ Und das hat offenbar weitreichende Folgen.

Diese wurden deutlich, als die Gruppe Meerwasser aus der Region in Behälter füllte und dann entweder Eisen oder Mangan oder beides dazugab. „Dabei hat sich gezeigt, dass die Eisenversorgung tatsächlich nicht der einzige entscheidende Faktor ist“, sagt AWI-Forscher und Studienmitautor Florian Koch. „Erst durch die Kombination von Eisen und Mangan konnten wir das Wachstum der Algen so richtig ankurbeln.“ Damit aber nicht genug: Da die einzelnen Arten durchaus unterschiedliche Ansprüche an die Versorgung mit Spurenelementen haben, veränderte sich mit den Zugaben auch die Zusammensetzung der Lebensgemeinschaft.

Das aber ist nicht nur ökologisch interessant, sondern hat auch weitreichende Konsequenzen für das Kohlenstoffbudget der Erde und damit für das Klimagleichgewicht. Denn das Phytoplankton hat einen wichtigen Einfluss auf den Kohlenstoff-Transport im Meer. Sobald die grünen Winzlinge per Photosynthese Energie gewinnen, setzen sie nämlich nicht nur große Mengen Sauerstoff frei. Gleichzeitig nehmen sie auch das Treibhausgas Kohlendioxid auf und bauen den darin enthaltenen Kohlenstoff in ihre Zellen ein. Wenn sie dann absterben und auf den Meeresgrund sinken, nehmen sie diesen Kohlenstoff mit. Statt in der Atmosphäre für weiter steigende Temperaturen zu sorgen, wird er durch diese biologische Pumpe also in die Tiefsee exportiert.

Gerade die Vorgänge im Untersuchungsgebiet der Studie sind in dieser Hinsicht besonders interessant. Immerhin geht etwa ein Viertel des insgesamt von den Organismen des Südpolarmeers aufgenommenen Kohlenstoffs auf das Konto des Phytoplanktons, das südlich des 55. bis 60. Breitengrades im Weddellmeer treibt. „Zum ersten Mal haben wir deshalb auch untersucht, wie der Eisen- und Mangan-Mangel dort den Kohlenstoff-Export beeinflusst“, sagt Jenna Balaguer.

Tatsächlich zeigen die Experimente, dass schon relativ kleine Veränderungen in der Artenzusammensetzung einen unerwartet großen Effekt auf diesen Prozess haben können. Denn je nach Größe, Form und sonstigen Eigenheiten sinken manche Zellen schneller und häufiger auf den Meeresgrund als andere. So führte die Zugabe von Spurenelementen zu einem starken Wachstum der Alge Phaeocystis antarctica. Diese gesellige Art bildete größere und mehr kohlenstoffreiche Kolonien, die dann zusammen mit den örtlichen Kieselalgen auch besonders gut absanken. Reicherte das Forschungsteam das Wasser nur mit Eisen an, verdoppelte sich dadurch das Export-Potential für Kohlenstoff. Eine Kombination von Eisen und Mangan ließ es um das Vierfache ansteigen.

Was aber bedeutet das für die Zukunft des Südpolarmeeres? Momentan lässt sich laut dem Studienteam nicht genau vorhersagen, welche Phytoplankton-Arten vom höheren CO2-Gehalt profitieren werden und wieviel mehr CO2 der Ozean dann aufnehmen kann als heute. Allerdings zeigt die Studie klar, dass ein zusätzlicher Eintrag von Eisen und Mangan durch Eisschmelze und Sedimente das Algenwachstum drastisch ankurbeln und die biologische Kohlenstoffpumpe auf Hochtouren arbeiten lassen könnte. Was der Klimawandel tatsächlich bewirken wird, lässt sich nur mithilfe von Modellen einigermaßen abschätzen. Und die sollten die neuen Erkenntnisse nun unbedingt integrieren, schließen die AWI-Forschenden, denn die Auswirkungen von Mangan auf die Kohlenstoffpumpe hatten die Modelle bisher nicht auf der Rechnung.

Originalveröffentlichung:
Jenna Balaguer et al. 2023. Iron and manganese availability drive primary production and carbon export in the Weddell Sea. Current Biology. DOI: https://dx.doi.org/10.2139/ssrn.4342993

Informationen für Redaktionen:
Druckbare Bilder finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Pressemitteilung unter: https://www.awi.de/ueber-uns/service/presse.html

Ihre Ansprechpartnerinnen am Alfred-Wegener-Institut sind Jenna Balaguer (E-Mail: Jenna.Balaguer@awi.de) und Dr. Scarlett Trimborn (Tel.: 0471 4831-1407; E-Mail: Scarlett.Trimborn@awi.de).

In der AWI-Pressestelle unterstützt Sie Nils Ehrenberg (Tel.: 0471 4831-2008; E-Mail: medien@awi.de).

Folgen Sie dem Alfred-Wegener-Institut auf Twitter (https://twitter.com/AWI_de), Instagram (https://www.instagram.com/awiexpedition/) und Facebook (https://www.facebook.com/AlfredWegenerInstitut).

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

(nach oben)


Die mysteriöse Wissenschaft

Forensik und ihre Relevanz für die Digitale Zukunft

„In der diesjährigen Kampagne zum Europäischen Monat der Cybersicherheit tauchen wir tief in die Welt des Social Engineering ein, in der Cyberkriminelle clevere Manipulationstaktiken anwenden, um unsere Sicherheitsvorkehrungen zu durchbrechen.“ So wirbt die Europäische Union im Internet für den diesjährigen Cybersicherheitsmonat. Wenn es um das Wissen und die Werkzeuge geht, die wir benötigen, um uns vor Cyberkriminellen zu schützen, dann spielt die Digitale Forensik bei der Aufklärung von Straftaten im Cyberraum eine wichtige Rolle.

Eine Begriffserklärung von Lars-Martin Knabe, Forschungsreferent Sichere Gesellschaft der Cyberagentur.
Der Cyberraum ist keine rechtsfreie Zone, deshalb ist es wichtig, dass kriminelle Handlungen auch in Verbindung mit der virtuellen Welt aufgeklärt werden können. Dafür gibt es eine junge und spannende Disziplin: die digitale Forensik! Diese junge Wissenschaft hat ihren Ursprung in der realen (analogen) Welt:

England, 19. September 1987, Colin Pitchfork wurde für den Mord an zwei Mädchen verhaftet. Das Besondere an diesem Fall ist, dass Pitchfork die erste Person war, die mit Hilfe eines DNA-Tests überführt wurde. Seine Spur wurde mit Hilfe einer DNA-Reihenuntersuchung gefunden. Die hier zum ersten Mal angewandte Untersuchungsmethode ist heute Standard für den Nachweis einer Personenidentität. Dieser Fortschritt hat dazu beigetragen, das Bewusstsein für die Notwendigkeit und den Wert forensischer Wissenschaften im Bereich der Kriminalermittlung zu schärfen.

Eine beträchtliche Zeit ist seitdem vergangen und die herkömmliche Forensik hat Fortschritte gemacht und gehört zum Standardwerkzeug der kriminalistischen Arbeit. Ein Blick in die jüngere Geschichte aber zeigt, wie sich mit der Digitalisierung auch die Verbrechensbekämpfung wandeln muss. So haben sich ehemals leere Briefkästen zu Online-Marktplätzen entwickelt.

Im April/Mai 2019 wurde beispielsweise die Darknet-Plattform „Wall Street Market“ vom BKA in Kooperation mit dem FBI ausgehoben. Auf dem zweitgrößten kriminellen Online- Marktplatz wurden gestohlene Daten, Drogen, Schadsoftware und gefälschte Dokumente zum Verkauf angeboten. Zugänglich war diese Plattform ausschließlich über das TOR-Netzwerk im sogenannten Darknet. Es war auf illegale und kriminelle Güter ausgerichtet. Die Bezahlung der Ware erfolgte durch BITCOIN. Auf der Online-Plattform wurden 63.000 Verkaufsangebote eingestellt und 1.150.000 Kundenkonten mit über 5.400 Verkäufern angemeldet.

Dies ist lediglich ein Beispiel dafür, wie sich Kriminelle im Internet organisieren und agieren, um Cyberkriminalität zu verschleiern und ihre Kunden zu schützen. Um lokale und globale Cyberkriminalität rechtskonform nachzuweisen, bedarf es der IT-Forensik, um Straftäter für ihre Handlungen verantwortlich zu machen.

Die Forensik umfasst interdisziplinär alle Wissenschaften, die zur kriminalistischen Aufklärung einer Straftat beitragen können. Beispiele dafür sind die Erfassung biometrischer Tatortspuren wie Fingerabdrücke, die Auswertung von Tatortfotos oder das Rekonstruieren von Daten auf beschlagnahmten Festplatten. Ein essenzielles Prinzip der Forensik (Locardsches Austauschprinzip) besagt, dass bei jeder Interaktion zwischen zwei Objekten Spuren ausgetauscht werden. Dafür müssen Forensiker unter anderem auf die Wissenschaften der Medizin, Chemie und Informatik zurückgreifen. Eine Spur muss dabei immer so gesichert werden, dass sie vor Gericht Bestand hat und zweifelsfrei korrekt gewonnen wurde. Aus diesem Grund und dem ständigen technischen Fortschritt ist die Forensik eine spannende Wissenschaft mit vielen offenen Forschungsfragen.

Ein Beispiel für eine neu entstandene Forschungslücke ist der Übergang der klassischen Forensik auf digitale Fragestellungen, z. B. wie können Verbrechen, die mit moderner künstlicher Intelligenz, wie dem bekannten Chatbot „ChatGPT“ oder dem Bildgenerator „DALL-E“ oder autonomen Fahrzeugen begangen werden könnten, auch nachgewiesen werden. Genau hierfür ist die IT-Forensik mit ihren Eigenschaften Objektivität und Rechenschaftspflicht prädestiniert und grenzt sich dadurch als anerkannte Wissenschaft von dem Versuch, KI erklärbar zu machen (XAI) ab.

Um solche Systeme in der digitalen Forensik zu untersuchen, müssen zahlreiche Eigenschaften erfüllt sein. Sollte ein Gericht Zweifel an der Transparenz, Integrität, Glaubwürdigkeit, Wiederholbarkeit oder Akzeptanz forensischer Methoden sowie an der Dokumentation der Beweiskette hegen (Chain of Custody), kann dies dazu führen, dass der Wert eines Beweises herabgesetzt oder für unzulässig erklärt wird.

Welche Rolle spielt die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) in der digitalen Forensik? Die Cyberagentur beschäftigt sich mit Fragestellungen, die in voraussichtlich 10 bis 15 Jahren für die Cybersicherheit eines digital vernetzten Deutschlands relevant sind. Die Abteilung „Sichere Gesellschaft“ setzt in der Cyberagentur den Fokus auf die digitale Souveränität im Rahmen einer sozio-technischen Perspektive. In dem am 08.09.2023 ausgeschriebenen Forschungsprojekt „Forensik intelligenter Systeme“ (FIS) sollen Methoden und Tools gefunden werden, um komplexe Systeme künstlicher Intelligenz gerichtsfest auswerten zu können (https://www.cyberagentur.de/fis/). Da es bisher fast keine Forschungsansätze in diesem Bereich gibt und die Fragestellung der gerichtsfesten Überprüfbarkeit möglicher Verbrechen im Cyberraum für die zukünftige Sicherheit unserer Gesellschaft immens wichtig ist, kann dieses Projekt einen erheblichen Erkenntnisgewinn beisteuern, in dem die technische mit der juristischen Perspektive verbunden wird.

Als Vorgabe soll es dabei um die KI-Systeme gehen, die eine hohe Anzahl an Parametern haben. Sie werden als „tiefe neuronale Netze“ bezeichnet und können in ihren Entscheidungen nicht mehr ohne Weiteres nachvollzogen werden (Blackbox Charakter). Durch die forensische Auswertung soll es zukünftig möglich sein, Angriffe zu erkennen, die gegen diese Systeme ausgeübt wurden. Beispiele für das Ziel solcher Angriffe sind der unautorisierte Zugriff auf die Daten, die zum Trainieren der KI verwendet wurden oder eine Manipulation der KI mit „falschen“ Trainingsdaten (Data Poisoning). Die Folgen können gravierend sein, weil z. B. fehlerhafte Fahrzeuge zu Unfällen führen oder vertrauliche Daten von Chatbots gestohlen werden können. Dieses Projekt könnte die Grundlage für zukünftiges Patchen der dadurch erkennbaren Schwachstellen sein.

Hintergrund des Forschungsprojektes FIS der Cyberagentur ist die Tatsache, dass etwa 87 % der deutschen Unternehmen intelligente Systeme als entscheidenden Faktor für ihren wirtschaftlichen Erfolg betrachten . Unternehmer erhoffen sich durch KI-Anwendungen Zeit- und Kostenersparnisse. Durch das fehlende Fachwissen folgen aber Risiken der Manipulation.

Das Mysterium um die Wissenschaft der digitalen Forensik ist aufgeklärt. Viele Fälle von Cyberkriminalität noch nicht. Zusammenfassend soll jedoch durch das Forschungsprojekt der Cyberagentur der rasanten Verbreitung von KI-Systemen begegnet werden, um einem Missbrauch vorzubeugen und Strafverfolgungsbehörden im Zeitalter der Digitalisierung weitreichendere und rechtssichere kriminalistische Werkzeuge an die Hand zu geben.

Kontakt:
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de

Hintergrund: Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.

Die Cyberagentur ist Bestandteil der Nationalen Sicherheitsstrategie der Bundesrepublik Deutschland.

Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.

Wissenschaftliche Ansprechpartner:
Lars-Martin Knabe

Originalpublikation:
https://www.cyberagentur.de/die-mysterioese-wissenschaft/

Weitere Informationen:
https://www.cyberagentur.de/fis/
https://www.cyberagentur.de/forschungsprojekt-zur-digitalen-forensik-ausgeschrie…

(nach oben)


Wie erkennen Pflanzen, wann Wasser knapp wird?

Der Europäische Forschungsrat (ERC) hat der Biophysikerin Professorin Dr. Christine Ziegler von der Universität Regensburg und den Biologen Professor Dr. Malcolm Bennet von der Universität Nottingham, Professor Dr. Eilon Shani von der Universität Tel Aviv und Professor Dr. Thorsten Hamann von der Norwegischen Universität für Wissenschaft & Technologie für die Erforschung der Wasserstress-Wahrnehmung in Pflanzen eine der höchsten europäischen Auszeichnungen zugesprochen. Für das auf sechs Jahre angelegte Projekt HYDROSENSING stellt der ERC 10 Millionen Euro in einem sogenannten Synergy Grant bereit.

Diese besondere Auszeichnung des Europäischen Forschungsrates ist nur im Team zu gewinnen und fördert etablierte Spitzenforscher*innen mit wissenschaftlich bahnbrechenden Vorhaben, die von einer Arbeitsgruppe allein nicht adressiert werden können.

Universitätspräsident Professor Dr. Udo Hebel gratulierte zum ERC Synergy Grant: „Das Forschungsprojekt HYDROSENSING ist nicht nur inhaltlich und methodisch einzigartig – es unterstützt in direkter Weise die globalen Nachhaltigkeitsziele.“

Pflanzen brauchen genau wie Menschen Wasser zum Überleben und Gedeihen. Die verheerenden Auswirkungen des Klimawandels verstärken die Wasserknappheit auf der Erde mit dramatischen Folgen für die globale Landwirtschaft und Ernährungssicherheit. Um eine notwendige Klima-Resistenz in Pflanzen zu erreichen, ist es wichtig, zu verstehen, wie Pflanzen erkennen, ob genügend Wasser vorhanden ist. Das internationale HYDROSENSING-Team hat es sich zur Aufgabe gemacht, diese grundlegende Fragestellung zu beantworten. Zu verstehen, wie Pflanzen Wasserstress wahrnehmen, ist eine Grundvoraussetzung für die nachhaltige Entwicklung klimaresistenter Nutzpflanzen.

Das HYDROSENSING-Team will untersuchen, wie Pflanzen Wasser – das wichtigste Molekül auf unserem Planeten – auf molekularer Ebene wahrnehmen können. Mit Hilfe einer einzigartigen Methodenkombination aus innovativer CRISPR-Technologie und Multi-Skalen-Mikroskopie will Biophysikerin Ziegler gemeinsam mit ihren Kollegen die Schlüsselproteine in der Wasserstress-Wahrnehmung identifizieren, hochaufgelöste Bilder von den Vorgängen während des Wassertransports im Inneren von Pflanzen generieren und die regulatorische Interaktion der Wasserstress-detektierenden Proteinkomplexe auf molekularer Ebene aufklären. Dabei streben die Wissenschaftler*innen die Aufdeckung grundlegender Mechanismen an, die erklären, wie Pflanzen erkennen, wann Wasser „knapp“ wird.

Dramatische Dürren in Europa
„Europa hat in den Jahren 2022 und 2023 schwere Dürren erlebt,“ erläutert Forscher Malcolm Bennet. „Trotz der dramatischen Auswirkungen auf die Umwelt, die Wirtschaft und die Gesellschaft bleibt es unklar, wie Pflanzen Wasserstress wahrnehmen. Die wissenschaftlichen und technologischen Expertisen, um dies herauszufinden, liegen außerhalb der Grenzen eines einzelnen Forschers und erfordern stattdessen eine Partnerschaft zwischen mehreren weltweit führenden Gruppen.“

„Um herauszufinden, wie Pflanzen Wasserstress wahrnehmen, ist Interdisziplinarität und Methodenentwicklung unabdingbar,“ ergänzt Forscherin Christine Ziegler. „Dies erfordert eine intensive wissenschaftliche Partnerschaft. Wir haben bereits während der Antragsstellung unglaublich synergetisch zusammengearbeitet, um unsere Hypothese auszuarbeiten, dass Wasserstress durch mechanische Stimuli über die Zellwand den Transport des Wasserstress-Hormons Abscisin-Säure (ABA) steuert.“

Die Strukturbiologin Christine Ziegler, Leiterin des Lehrstuhl Biophysik II und Direktorin am neuen Regensburger Zentrum für Ultraschnelle Nanoskopie (RUN), forscht seit langem, wie Transport-Vorgänge über die Zellmembran unter Stress reguliert werden. Dazu nutzt sie u. a. Kryo-Elektronenmikroskopie zur Bestimmung von atomaren Strukturen von Membranproteinen in unterschiedliche Transportzuständen. „Pflanzen sind wahre Überlebenskünstler, wenn es um Stress-Adaptation geht, aber wegen ihrer grossen genetischen Redundanz sind molekulare Mechanismen für Pflanzenproteine schwer zu formulieren,“ führt sie weiter aus. „Erst die bahnbrechenden Arbeiten von Eilon Shani, der mittels CRISPR-Technologien gleichzeitig ganze Gen-Familien gezielt ausschalten kann, erlauben eine eindeutige Zuordnung von Wasserstress-Proteinen zu einem Phänotyp der Pflanze. Die Zusammenarbeit mit meinen Partnern im HYDROSENSING-Team stellt eine einzigartige Chance dar, molekulare Mechanismen im zellulären Kontext zu untersuchen.“

Beitrag zu globaler Ernährungssicherheit
Der Multi-Skalen-Mikroskopie-Ansatz des HYDROSENSING-Teams umfasst neben der Kryo-Elektronenmikroskopie konfokale Brillouin-Mikroskopie, welche es erlaubt, mechanische Stress-Signalleitung über die Pflanzenzellwand im Detail zu untersuchen. Diese Expertise bringt der norwegische Partner Thorsten Hamann ins Team, dessen Arbeiten an der Zellwand-Rezeptor-Kinase THESEUS 1 maßgeblich zur Idee des mechanischen Wasserstress-Signalling beigetragen hat.

Die innovative Stimulated-Raman-Scattering-Technologie zur Abbildung von Wasserbewegungen in der Pflanze wird im Labor des britischen Partners Malcolm Bennet entwickelt, dessen jüngste Untersuchungen zeigten, dass die Wurzeln von Pflanzen eine entscheidende Rolle haben, wenn es darum geht, die Auswirkungen von Wasserstress zu reduzieren. Malcolm Bennett erklärt: „Wir verwenden modernste Bildgebungstechniken, um die Wasserbewegung im Inneren von Pflanzenzellen zu verfolgen. Dies sind die ersten Bilder dieser Art, die jemals erstellt wurden. Diese Bilder ermöglichen es, den Prozess des Wassertransports in Echtzeit zu beobachten.“

Der Koordinator des Teams, Eilon Shani, ergänzt: „Mit unserem Projekt wollen wir universelle Designprinzipien aufdecken, die den Kernmechanismus für die Signalisierung von Wasserstress in Pflanzen erklärt. Dieses neue Wissen ist von entscheidender Bedeutung für die internationalen Bemühungen, klimaresistente Nutzpflanzen zu entwickeln und die globale Ernährungssicherheit zu stärken. Möglich wird das nur dank der Synergie im HYDROSENSING-Team“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christine Ziegler, Lehrstuhl für Biophysik II, Direktorium RUN, Universität Regensburg, Telefon: +49 941 943-3030, -3004, E-Mail: christine.ziegler@ur.de

Weitere Informationen:
https://www.uni-regensburg.de/newsroom/presse/mitteilungen/index.html?tx_news_pi…

(nach oben)


Risiko für plötzlichen Herztod: Wie können Warnzeichen bedrohten Menschen helfen?

So unerwartet der Sekundenherztod eintritt: Das Wissen über die Risikofaktoren und Warnzeichen kann bei der Identifizierung von Gefährdeten helfen. Kardiologen sehen zusätzlich Chance in Laienschulungsprogramm

Jedes Jahr sterben in Deutschland 65.000 Menschen am plötzlichen Herztod. Das müsste aber nicht sein. So unerwartet der vorzeitige plötzliche Herztod über Betroffene hereinbricht, so gehen ihm in den meisten Fällen Herzerkrankungen und andere Risikofaktoren voraus, die auf eine Gefährdung zumindest hindeuten. „Deshalb ist der vorzeitige Herztod in aller Regel kein schicksalhaftes Ereignis, von dem es kein Entkommen gibt. Das medizinische Ziel sollte sein, die entsprechenden Risikopersonen frühzeitig zu identifizieren, bevor ein bedrohliches kardiales Ereignis auftritt“, betont Herzspezialist Prof. Dr. med. Tienush Rassaf, Mitglied des Wissenschaftlichen Beirats der Deutschen Herzstiftung, anlässlich der bundesweiten Herzwochen. „Die Therapie besteht somit im Kern darin, den vorzeitigen Herztod zu verhindern“, so der Direktor der Klinik für Kardiologie und Angiologie am Westdeutschen Herz- und Gefäßzentrum des Universitätsklinikums Essen. Die Herzwochen 2023 stehen unter dem Motto „Herzkrank? Schütze Dich vor dem Herzstillstand!“ mit einem umfangreichen Informationsangebot unter https://herzstiftung.de/herzwochen

Senkung der Sterblichkeit durch plötzlichen Herztod: Suche nach weiteren Hebeln
Zwar wird der plötzliche Herztod überwiegend durch schnelle Rhythmusstörungen aus den Herzkammern (Kammertachykardie) oder Kammerflimmern (schnelle und zusätzlich unkoordinierte Rhythmusstörungen aus den Kammern) ausgelöst, die das Herz von einer Sekunde auf die andere komplett aus dem Takt und so zum Stillstand bringen und den Blutfluss zum Gehirn beenden. Die Ursachen dieser Rhythmusstörungen (als „Trigger“) liegen jedoch meistens in strukturellen Herzerkrankungen, die im Herzmuskel Funktionsstörungen des Herzens verursachen und dadurch Komplikationen wie akuten Herzinfarkt hervorrufen, die zum plötzlichen Herztod führen. „Sobald eine Herzerkrankung mit Hilfe der Herz-Diagnostik wie EKG, Ultraschall (Echokardiografie), Computertomografie, kurz CT, oder mittels Blutuntersuchungen festgestellt wurde, kann eine gezielte Therapie dabei helfen das Risiko für plötzlichen Herztod zu senken“, erklärt Rassaf. Dafür stehen Medikamente zur Verfügung, die das Herz schützen, sowie Therapien zur Behandlung von Herzgefäßverengungen (Stents, Bypassoperation), implantierbare Defibrillatoren gegen bösartige Rhythmusstörungen sowie Klappentherapien (Ersatz, Korrektur, Rekonstruktion). „Zwar konnte mit Hilfe der kardiologischen und herzchirurgischen Therapien in den vergangenen Jahrzehnten die Sterblichkeit durch Herzkrankheiten wie KHK und Herzschwäche erheblich gesenkt werden. Jedoch konnte diese positive Entwicklung den vorzeitigen Herztod noch nicht eliminieren. Wir müssen daher zusätzlich auf weitere Hebel wie Prävention, Sensibilisierung für frühzeitige Warnzeichen und richtiges Verhalten bei Herzinfarkt und beobachtetem Herzstillstand zurückgreifen“, betont der Essener Kardiologe.

US-Laienschulungsprogramm „Early Heart Attack Care“: Tauglich für Deutschland?
Mit dem Ziel, durch öffentliche Aufklärung über Herzinfarkt-Symptome und Risikofaktoren die Infarktsterblichkeit zu senken, könnten zusätzlich zu den etablierten bundesweiten Aufklärungskampagnen flächendeckende Schulungsprogramme effektiv sein. Ein Vorbild dafür könnte das Early Heart Attack Care (EHAC)-Programm aus den USA sein. „EHAC zielt auf das schnelle Reagieren Betroffener und ihres Umfelds bereits frühe Symptome des Herzinfarkts zu erkennen, um Verzögerungen bis zur medizinischen Versorgung des potenziellen Infarktpatienten auf ein Minimum zu reduzieren“, erklärt Prof. Dr. med. Frank Breuckmann, Chefarzt der Abteilung für Kardiologie, Pneumologie, Neurologie und Internistische Intensivmedizin an der Klinik Kitzinger Land in Kitzingen. „Neben Herzpatienten schult EHAC auch gesunde Menschen als potenzielle Ersthelfer darin, die Symptome eines Herzinfarkts erkennen und bewerten zu können und in der Lage zu sein, eine sofortige medizinische Abklärung in die Wege zu leiten“, erklärt der Kardiologe Prof. Breuckmann. Kernbotschaften des EHAC-Programms decken sich auch mit denen der Aufklärungsarbeit der Deutschen Herzstiftung, beispielsweise:

  • Bei Verdacht auf Herzinfarkt sofort den Rettungsdienst mit dem Notruf 112 rufen.
  • Niemals Zögern und warten, bis die Symptome wieder verschwinden.
  • Bei Verdacht auf Herzinfarkt zählt jede Minute („Time is Muscle“), hier kommt es auf die sofortige medizinische Versorgung des Infarktpatienten an.

Für eine flächendeckende Implementierung eines deutschen EHAC-Programms mit einheitlicher Zertifizierungs- und Schulungsstruktur – etwa angedockt an das Netzwerk von Chest Pain Units in Deutschland – sehen Prof. Breuckmann und Prof. Rassaf zunächst medizinische Fachgesellschaften wie die Deutsche Gesellschaft für Kardiologie (DGK) und die Deutsche Herzstiftung als Patientenorganisation gefragt. „Ein Netzwerk speziell geschulter Laien in Symptomatik und Risikofaktoren von KHK und Herzinfarkt sowie die flächendeckende Schulung in Maßnahmen zur Wiederbelebung könnten die Lage maßgeblich verbessern und zahlreiche Leben retten“, betonen die beiden Herzspezialisten.
Eine Chest Pain Unit (CPU, „Brustschmerzambulanz“) ist eine spezialisierte Abteilung in einem Krankenhaus, die sich auf die schnelle Diagnose und Behandlung von Patienten mit akuten Brustschmerzen konzentriert. Die CPU ist Anlaufstelle für alle Patientinnen und Patienten mit akuten Brustkorbbeschwerden, sie ist rund um die Uhr geöffnet und mit allen modernen Geräten für die Notfallversorgung ausgerüstet. „Wesentliche Aufgabe einer CPU ist akute oder drohende Herzinfarkte zu erkennen und zu behandeln“, erklärt Prof. Breuckmann. Insgesamt gibt es rund 360 zertifizierte CPUs in Deutschland. Infos unter https://herzstiftung.de/herznotfallambulanz-suche

Diese Vorboten sollten herzkranke Menschen, Angehörige (und ihre Ärzte) kennen
Herzkrankheiten und ihre Komplikationen können sich Tage bis Wochen vor dem Infarkt oder Herzstillstand durch Warnzeichen bemerkbar machen. „Für diese Warnzeichen müssen wir Betroffene mit einer Herz-Kreislauf-Erkrankung und ihre Angehörigen oder noch weitere Personen im Umfeld wie den Hausarzt frühzeitig noch mehr sensibilisieren“, so der Essener Kardiologe Prof. Rassaf. Häufigste Ursache des plötzlichen Herztods sind Durchblutungsstörungen des Herzmuskels aufgrund von Ablagerungen an den Wänden der Herzkranzgefäße. Diese sogenannte koronare Herzkrankheit (KHK), die bei vollständigem Verschluss eines Herzkranzgefäßes zum Herzinfarkt führt, liegt in ca. 80 Prozent der Fälle eines plötzlichen Herztods vor (weitere Herzkrankheiten, die zu den häufigsten Ursachen eines plötzlichen Herztods zählen, sind Herzinsuffizienz, Herzmuskelerkrankungen (Kardiomyopathien), Rhythmusstörungen, Herzmuskelentzündung (Myokarditis) und Herzklappenerkrankungen.). Beim Herzinfarkt können Tage bis Wochen vor dem Infarktereignis folgende Warnzeichen auftreten:

  • Brustschmerzen,
  • Kurzatmigkeit, Übelkeit und Erbrechen,
  • unregelmäßiger Herzschlag bzw. Herzrasen,
  • Schweißausbrüche oder vorahnende Angst.

Beim akuten Herzinfarkt sind typische Beschwerden:

  • Plötzlich einsetzende starke Schmerzen, die länger als fünf Minuten in Ruhe anhalten und die überwiegend im Brustkorb oder häufig auch ausschließlich hinter dem Brustbein auftreten,
  • in andere Körperteile wie Arme, Oberbauch, Rücken, Hals, Kiefer oder Schulterblätter ausstrahlen können.
  • Ein massives Engegefühl, heftiger Druck oder ein sehr starkes Einschnürungsgefühl im Brustkorb („Elefant auf der Brust“),
  • heftiges Brennen im Brustkorb.

Andere Herzinfarkt-Symptome können sein:

  • Kurzatmigkeit und Atemnot,
  • Schwindel oder Schwäche,
  • Kaltschweißigkeit und Herzklopfen.

Weitere Infos zu den Herzinfarkt-Warnzeichen unter https://herzstiftung.de/herzinfarkt-anzeichen

Unspezifische Herzinfarkt-Symptome bei Frauen, älteren Menschen und Diabetikern
„Nicht alle Herzinfarktpatienten erleben die gleichen Symptome“, betont der Herzstiftungs-Experte Rassaf. Insbesondere bei Frauen, älteren Menschen und Diabetikern könnten die Symptome anders oder unspezifisch sein, „wie etwa Schmerzen im oberen Bauchbereich oder allgemeines Unwohlsein“. Bei Diabetikern führt die lang bestehende Überzuckerung zur Störung des Nervensystems und dazu, dass sie die typischen Brustschmerzen als Folge der Durchblutungsstörung des Herzmuskels nicht spüren. „Dadurch fehlt ihnen das entscheidende Warnzeichen für ihre lebensbedrohliche Situation. Die Folge sind stumme Infarkte, Herzrhythmusstörungen oder plötzlicher Herztod.“ Auch ältere Menschen verfügten nicht selten über ein verringertes Schmerzempfinden für Herzinfarkt-Symptome. Bei Frauen kommen Symptome wie Übelkeit und Erbrechen neben Oberbauchbeschwerden hinzu.

Beide Herzstiftungs-Experten weisen darauf hin, dass diese Symptome einzeln für sich auch auf eine andere Ursache als Herzinfarkt hindeuten können. „Wenn jedoch eine Kombination dieser Symptome auftritt, insbesondere bei Menschen mit bekannten Risikofaktoren für Herzkrankheiten, dann sollte dies Betroffene wie umgebende Personen sofort sensibilisieren, und es sollte rasch ärztliche Hilfe aufgesucht werden.“ Bei solchem Verdacht auf Herzinfarkt ist sofort der Notruf 112 zu wählen!
(wi)

Service-Tipps zu den Herzwochen
Die Deutsche Herzstiftung informiert in den bundesweiten Herzwochen 2023 (1.-30. November) unter dem Motto „HERZKRANK? Schütze Dich vor dem HERZSTILLSTAND!“ darüber, wie Vorbeugung, Erkennung und konsequente Behandlung von Herzerkrankungen helfen, das Risiko auf ein Minimum zu reduzieren, dass das Herz plötzlich stillsteht. Infos zur Kampagne mit kostenfreien Präsenz- und Online-Veranstaltungen, Herzseminaren, Broschüren sowie Podcasts und Video-Clips unter https://herzstiftung.de/herzwochen und über die sozialen Medien instagram, facebook, YouTube, Linkedin und X (Twitter).

Der Ratgeber „Herzkrank? Schütze Dich vor dem Herzstillstand!“ (158 S.) kann kostenfrei per Tel. unter 069 955128-400 (E-Mail: bestellung@herzstiftung.de) angefordert werden. Leicht verständlich informieren Herzexperten über die wichtigsten Ursachen des Herzstillstands und wie Vorbeugung, Diagnose und konsequente Behandlung von Herzerkrankungen helfen, das Risiko eines plötzlichen Herztods auf ein Minimum zu reduzieren. Überlebende eines plötzlichen Herztods berichten eindrücklich in Patientenportraits. Weitere Infos unter https://herzstiftung.de/herzwochen

Experten-Videos und Podcasts zu Themen der Herzwochen bietet die Herzstiftung unter:
https://herzstiftung.de/herzwochen

Service für Medien
Die vollständige Pressemappe zu den Herzwochen 2023 mit Text- und Bildmaterial erhalten Sie direkt im Pressebereich unter https://herzstiftung.de/herzwochen-pressemappe (oder bei der Pressestelle unter presse@herzstiftung.de).

Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle:
Michael Wichert (Ltg.)/ Pierre König
Tel. 069 955128-114 / -140,
E-Mail: presse@herzstiftung.de
https://herzstiftung.de

Weitere Informationen:
https://herzstiftung.de/herzwochen
https://herzstiftung.de

Anhang
Risiko für plötzlichen Herztod: Wie können Warnzeichen bedrohten Menschen helfen?

(nach oben)


Isolierende Metalle

Forschende der FAU nutzen Lichträume, um die elektrische Leitfähigkeit von Materialien zu steuern

Werden Materialien zur Interaktion mit Licht gezwungen, können sich ihre Eigenschaften grundlegend ändern. Forschende der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und der Universität Triest haben in einer Studie gezeigt, dass Tantalsulfid, ein metallisches Quantenmaterial, in einem optischen Hohlraum von einem elektrischen Leiter zu einem Isolator werden kann. Da dieser Prozess reversibel ist und kontaktlos gesteuert werden kann, eröffnet er völlig neue Perspektiven für Elektronik, Energiespeicherung und Quantencomputing. Seine Ergebnisse hat das Forschungsteam im renommierten Fachjournal „Nature“ veröffentlicht.*

Es ist der Traum eines jeden Materialforschers: die Eigenschaften eines Stoffes so zu kontrollieren, dass er völlig unterschiedliche Funktionen erfüllt. Und zwar innerhalb geschlossener Systeme – als umkehrbarer, präziser und kontaktlos steuerbarer Prozess. Der Verwirklichung dieses Traums sind deutsche, italienische und slowenische Forschende einen großen Schritt nähergekommen. „Wir konnten Tantalsulfid, ein Quantenmaterial mit metallischen Eigenschaften, so manipulieren, dass es sowohl als elektrischer Leiter als auch als Isolator fungiert“, erklärt Prof. Dr. Daniele Fausti, Inhaber des Lehrstuhls für Festkörperphysik an der FAU und außerordentlicher Professor für Materialphysik an der Universität Triest, Italien.

Das Forschungsteam nutzt dafür einen sogenannten optischen Hohlraum – einen engen Raum zwischen zwei Spiegeln, in dem Atome und Moleküle in eine Wechselwirkung mit Licht gezwungen werden. Optische Hohlräume verändern die elektromagnetische Umgebung eines Materials und erlauben es, seine Eigenschaften präzise und kontaktlos zu steuern. Im Experiment mit Tantalsulfid wurde ein reversibler Übergang zwischen der isolierenden und der metallischen Phase erreicht, indem die Position der Spiegel, die das Material umgeben, mechanisch verändert wurde. „Die Möglichkeit, die Leitfähigkeit eines Materials auf diese Weise zu modulieren, birgt ein ungeahntes Potenzial für die Präzisionssensorik und die Steuerung elektronischer Prozesse“, sagt Fausti.

Vor allem bei der weiteren Entwicklung der Quantentechnologien könnte die Entdeckung eine wichtige Rolle spielen: Quantenchips etwa sind zwar extrem leitungsfähig, aber auch sehr anfällig für Störungen. Sollte es gelingen, die elektromagnetischen Eigenschaften von Bauteilen in Quantencomputern kontaktlos zu verändern, könnten Schaltvorgänge stark vereinfacht und der Einfluss von Störfaktoren wesentlich reduziert werden. Zugleich wäre es möglich, Quantencomputer noch kompakter zu konstruieren. Mit ihrer Entdeckung dringen die Forschenden auch in den Bereich der supraleitenden Materialien vor: Viele Quantentechnologien sind auf Supraleiter angewiesen, die elektrischen Strom ohne Verlust leiten. Dafür müssen sie jedoch fast auf den absoluten Temperaturnullpunkt gekühlt werden – ein ebenso aufwändiger wie energieintensiver Vorgang.

„Das Einbringen in optische Hohlräume könnte ein Weg sein, Quantenmaterialien bei Temperaturen zu Supraleitern zu machen, die immer näher an der Raumtemperatur liegen“, erklärt Daniele Fausti. „Wir sind sehr neugierig darauf, diesen Weg in den kommenden Jahren weiter zu erforschen.“

https://www.nature.com/articles/s41586-023-06596-2

Anprechpartner für Medien:
Prof. Dr. Daniele Fausti
Lehrstuhl für Festkörperphysik
Tel.: 09131/85-28401
daniele.fausti@fau.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniele Fausti
Lehrstuhl für Festkörperphysik
Tel.: 09131/85-28401
daniele.fausti@fau.de

Originalpublikation:
https://www.nature.com/articles/s41586-023-06596-2

(nach oben)


Ein Schritt auf dem Weg zum Feststoff-Akku

Sintern überflüssig: Niedertemperatursynthese von Lithium-Keramik für Akkus
Eine Lithium-Keramik könnte als fester Elektrolyt einer leitungsfähigeren und kostengünstigeren Generation von Lithiumionen-Akkus zum Durchbruch verhelfen. Die Voraussetzung: Eine Herstellmethode, die ohne Sintern bei hohen Temperaturen auskommt. In der Zeitschrift Angewandte Chemie stellt ein Forschungsteam jetzt einen „sinterungsfreien“ alternativen Weg für die effiziente Niedertemperatursynthese der Keramik in ihrer leitfähigen kristallinen Form vor.

Bei der Entwicklung von Akkus für Elektro-Fahrzeuge stehen zwei Faktoren im Vordergrund: Die Leistungsfähigkeit, die die Reichweite der Fahrzeuge bestimmt, und die Kosten, die ausschlaggebend für die Wettbewerbsfähigkeit gegenüber Verbrennerfahrzeugen sind. Das US-Energieministerium will den Übergang von Verbrennern zu E-Fahrzeugen beschleunigen und hat ehrgeizige Ziele für Produktionskosten und Energiedichten von Akkus bis 2030 gesetzt. Mit konventionellen Lithiumionen-Akkus sind diese nicht zu schaffen.

Ein vielversprechender Ansatz für kleinere, leichtere, deutlich leistungsstärkere und sicherere Akkus sind Festkörper-Zellen mit Anoden aus metallischem Lithium – statt aus Graphit. Anders als bei konventionellen Lithiumionen-Akkus, die einen flüssigen organischen Elektrolyten und eine Polymerfolie zur Trennung von Anoden- und Kathodenraum enthalten, sind bei Festkörperzellen alle Bestandteile Feststoffe. Eine dünne keramische Schicht fungiert gleichzeitig als Festelektrolyt und Separator. Sie wirkt sehr effektiv gegen gefährliche Kurzschlüsse durch das Wachstum von Lithium-Dendriten und thermisches Durchgehen. Zudem enthält sie keine leicht entflammbaren Flüssigkeiten.

Als keramischer Elektrolyt/Separator für Zellen mit hoher Energiedichte eignet sich der Lithium-Granat Li7La3Zr2O12−d (LLZO). Das Material muss allerdings gemeinsam mit der Kathode bei mehr als 1050 °C gesintert, werden, um das LLZO in die schnell Lithium-leitende und benötigte kubisch-kristalline Phase zu überführen, ausreichend zu verdichten und fest an die Elektrode zu binden. Temperaturen ab 600 °C destabilisieren jedoch nachhaltige Kobalt-reduzierte und -freie Kathoden-materialien und treiben zudem Produktionskosten sowie Energieverbrauch in die Höhe. Neue kostengünstigere, nachhaltigere Herstellwege sind für eine Kommerzialisierung unabdingbar.

Einen solchen hat das Team um Jennifer L. M. Rupp vom MIT (Cambridge, USA) und der TU München in einem neuen Syntheseverfahren jetzt entwickelt. Der neue Ansatz geht nicht von einer keramischen, sondern von einer flüssigen Vorläuferverbindung aus, die in einer sequenziellen Zersetzungssynthese eine direkte Verdichtung zu LLZO erlaubt. Um die Bedingungen für den Syntheseweg zu optimieren, analysierten Rupp und ihr Team die mehrstufige Phasenumwandlung des LLZO von einer amorphen in die benötigte kristalline Form (cLLZO) mittels mehrerer Methoden (Raman-Spektroskopie, dynamische Differenzkalorimetrie) und stellten ein Zeit-Temperatur-Umwandlungs-Diagramm auf. Auf Basis der gewonnen Einblicke in den Kristallisationsprozess entwickelten sie eine Route, mit der durch zehnstündiges Glühen bei vergleichsweise niedrigen Temperaturen von 500 °C cLLZO als dichter, fester Film erhalten wird – ganz ohne Sintern. Für zukünftige Batteriedesigns erlaubt dies erstmalig die Integration der Feststoff-LLZO Elektrolyte mit nachhaltigen Kathoden, die auf sozio-ökonomisch kristische Elemente wie Kobalt verzichten könnten.

Angewandte Chemie: Presseinfo 43/2023

Autor/-in: Jennifer L. M. Rupp, Technische Universtiät München (Germany), https://www.professoren.tum.de/rupp-jennifer

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.

Originalpublikation:
https://doi.org/10.1002/ange.202304581

Weitere Informationen:
http://presse.angewandte.de

(nach oben)


Warum Tuberkulosebakterien lange Ketten bilden

Ein Forscherteam der Ecole Polytechnique Federal de Lausanne unter der Leitung von Dr. Vivek Thacker, jetzt Gruppenleiter am Zentrum für Infektiologie des Universitätsklinikums Heidelberg, hat untersucht, warum sich Tuberkulosebakterien zu langen Strängen aneinanderlagern und wie dies ihre Infektionsfähigkeit beeinflusst. Ihre Erkenntnisse könnten zu neuen Therapien führen und wurden nun in der Zeitschrift Cell veröffentlicht.

Mycobacterium tuberculosis, der Erreger der Tuberkulose, verursacht weltweit jährlich geschätzte 1,6 Millionen Todesfälle. Der Ausgang einer Infektion reicht von Abwehr ohne jedwede Erkrankung bis hin zu chronischer Infektion mit Auszehrung und Tod. Diese große Variabilität ist wesentlich von der Immunabwehr des infizierten Wirts abhängig. Die Analyse des Erreger-Wirt Wechselspiels ist zentrales Forschungsthema der Abteilung Medizinische Mikrobiologie und Hygiene im Zentrum für Infektiologie im Universitätsklinikum Heidelberg (UKHD) und an der Medizinischen Fakultät Heidelberg (MFHD).

Lange bekannt ist, dass Mycobacterium tuberculosis den Cordfaktor ausbildet, der für die krankmachenden Eigenschaften des Erregers, seine Virulenz, wichtig ist, und der außerdem zu einem besonderen Wachstumsverhalten führt: Mycobacterium tuberculosis kann dichtgepackte Stränge aus vielen Bakterien produzieren, die sich lichtmikroskopisch beobachten lassen. Wie diese Stränge zu den krankmachenden Eigenschaften von Mycobacterium tuberculosis beitragen, war bislang im Wesentlichen unverstanden.

Lebendzellmikroskopie und „lung-on-chip“

Wissenschaftler und Wissenschaftlerinnen um Dr. Vivek Thacker, bis vor kurzem tätig an der EPFL in Lausanne und nun Gruppenleiter im Zentrum für Infektiologie des Universitätsklinikums Heidelberg, haben in der aktuellen Arbeit erstmals einen Zusammenhang zwischen diesem“ mechanischen“ Wachstumsverhalten und der Infektionsbiologie von Mycobacterium tuberculosis hergestellt. In einem interdisziplinären Forschungsansatz nutzten sie Lebendzellmikroskopie und synthetische Organmodelle („lung-on-chip“).
Wissenschaftler und Wissenschaftlerinnen um Dr. Vivek Thacker, bis vor kurzem tätig an der EPFL in Lausanne und nun Gruppenleiter im Zentrum für Infektiologie des Universitätsklinikums Heidelberg, haben in der aktuellen Arbeit erstmals einen Zusammenhang zwischen diesem“ mechanischen“ Wachstumsverhalten und der Infektionsbiologie von Mycobacterium tuberculosis hergestellt. In einem interdisziplinären Forschungsansatz nutzten sie Lebendzellmikroskopie und synthetische Organmodelle („lung-on-chip“).

Bakterienstränge schnüren Zellkern ein
„Wir konnten zeigen, dass die Kompression von Bakterien zur Speicherung von Energie über den Cordfaktor in der Membran des Erregers führt“, berichtet Thacker. „Dadurch können Erreger, die von Fresszellen in der Lunge aufgenommen wurden und eigentlich vernichtet werden sollten, auch innerhalb dieser Abwehrzellen strangförmig wachsen.“ Das Team um Dr. Vivek Thacker beobachtete, dass dieses Wachstum den Zellkern der Wirtszelle einschnürt und stranguliert. Dadurch kann die Zelle weniger Abwehr- und Botenstoffe bilden und deshalb den Erreger nicht eindämmen. Weiterhin führt das strangförmige Wachstumsverhalten außerhalb von Zellen dazu, dass sich der Erreger zwischen den Epithelzellen, welche die Lungenbläschen auskleiden, und in andere Organe des Körpers ausbreiten kann. Schließlich konnte das Forscherteam beobachten, dass Bakterien in solchen Strängen unempfindlich gegen die Wirkung von Antibiotika werden und nach Beendigung einer Antibiotikatherapie erneut wachsen können.

Neues Forschungsfeld „Mechanopathologie“
„Es ist uns gelungen, mechanisches Wachstumsverhalten auf zellulärer Ebene mit biologischen Funktionen zu verknüpfen“, sagt Dr. Vivek Thacker. „Diese Mechanopathologie ist ein neues, vielversprechendes Forschungsfeld.“ Einige Aspekte dieses mechanischen Wachstumsverhaltens erinnern an Biofilme, die andere wichtige Erreger von Infektionskrankheiten, z. B. Staphylokokken und Pseudomonaden, ausbilden und die ebenso zur Unempfindlichkeit gegen Antibiotika und Hemmung der Wirtsabwehr beitragen. Die Verknüpfung von physikalischem Wachstumsverhalten und Infektionsbiologie ist damit ein höchst interessantes Forschungsgebiet, welches neue Erkenntnisse für die Entwicklung von dringend benötigten Therapien schaffen könnte.

„Ich bin froh, dass wir mit Dr. Vivek Thacker einen exzellenten Wissenschaftler für die Arbeit hier in Heidelberg gewinnen konnten“ sagt Professor Dr. Alexander Dalpke, der Ärztliche Direktor der Abteilung Medizinische Mikrobiologie und Hygiene. „Dr. Vivek Thacker ergänzt die Forschungsschwerpunkte des Instituts und des Zentrums für Infektiologie in idealer Weise. Insbesondere schlägt er, ganz im Geiste der Ruperto Carola, Brücken zu benachbarten Forschungsgebieten, z. B. der neuen Fakultät für Ingenieurwissenschaften. Seine anspruchsvollen Arbeiten mit der Lebendzellmikroskopie und synthetischen Organmodellen sind zukunftsweisend und stärken die Infektionsmedizin in Heidelberg.“

Wissenschaftliche Ansprechpartner:
Dr. Vivek Thacker
Professor Dr. Alexander Dalpke

Originalpublikation:
Richa Mishra , Melanie Hannebelle , Vishal P. Patil et al. (2023) Mechanopathology of biofilm-like Mycobacterium tuberculosis cords. Cell DOI: 10.1016/j.cell.2023.09.016

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/zentrum-fuer-i…

(nach oben)


Impulse für die Züchtung von Kulturpflanzen angesichts des Klimawandels

Mithilfe neuer statistischer Verfahren ergründen Forschende das komplexe Wechselspiel zwischen Lebenszyklus, Umweltfaktoren und Erbinformation am Beispiel von Weizen.

Getreidepflanzen wie Weizen reagieren empfindlich auf den Klimawandel.
Viele Studien zeigen, dass ihr Ertrag mit steigenden Temperaturen und zunehmenden Extremwetterereignissen sinkt. Ein Team um den Agrarwissenschaftler Prof. Dr. Tsu-Wei Chen von der Humboldt-Universität zu Berlin hat ein neues statistisches Verfahren entwickelt, mit dem die Forschenden nachweisen konnten, dass es bestimmte Zeitfenster im Lebenszyklus der Pflanzen gibt, in denen Umweltfaktoren wie Temperaturen oder Niederschläge besonders großen Einfluss auf die späteren Erträge haben. Wie hoch die Ertragseinbußen bei ungünstigen Umweltbedingungen sind, ist auch von der genetischen Ausstattung einzelner Sorten abhängig. Daher können die Erkenntnisse wichtige Impulse für die künftige Züchtung von stressresistenten Weizensorten liefern. Ihre Ergebnisse veröffentlichten die Forschenden in der renommierten Fachzeitschrift Nature Plants.

Klimawandel verändert Anbaubedingungen und führt schon heute zu Ernteausfällen
Winterweizen gehört zu den wichtigsten Kulturpflanzen weltweit und ist damit entscheidend für die Ernährungssicherheit. Viele Faktoren, wie etwa die Höhe der Temperaturen und Niederschläge, die Bodenqualität, die Art der Bewirtschaftung oder die verwendete Sorte bestimmen darüber, wie groß die Ernte am Ende ausfällt. Der Klimawandel verändert die Anbaubedingungen und führt bereits heute zu großen Ernteausfällen. Landwirtinnen und Landwirte müssen sich darauf einstellen und brauchen neue Lösungen.

Wichtige Zeitfenster im Lebenszyklus der Pflanze
„Es ist bereits bekannt, dass Winterweizen in der Blütezeit von etwa Ende Mai bis Anfang Juni sehr empfindlich gegenüber hohen Temperaturen ist“, erklärt Tsu-Wei Chen. Steigen die Temperaturen in dieser Zeit auf über 30 Grad Celsius, sinkt die Befruchtungsrate rapide, da der Pollen Schaden nimmt. Die Pflanze bildet dann nur wenige Körner und der Ertrag bleibt gering. Im Lebenszyklus der Weizenpflanze gibt es sehr viele dieser speziellen Zeitfenster, in denen sie empfindlich auf verschiedene Umwelteinflüsse reagiert. Das Zusammenspiel von Umwelt, Erbgut und Entwicklungsphase in diesen Zeitfenstern zu untersuchen ist schwierig.

Komplexe Zusammenhänge werden mit neuer Methode sichtbar
„Es gibt Hunderte Weizensorten allein in Deutschland und alle haben unterschiedliche Eigenschaften“, erklärt Tsu-Wei Chen. „Es ist nahezu unmöglich, alle Sorten in Feldversuchen detailliert zu charakterisieren, um sämtliche Stärken und Schwachstellen und die Wechselwirkungen mit der Umwelt zu ermitteln.“ Um diese Zusammenhänge trotzdem besser zu verstehen, entwickelten die Forschenden ein statistisches Verfahren und wendeten es auf Daten aus Feldversuchen mit 220 unterschiedlichen Winterweizensorten an, die an sechs Versuchsstandorten in ganz Deutschland in drei aufeinanderfolgenden Saisons angebaut wurden. Für jeden Standort, jede Sorte und jedes Versuchsjahr wurden Bodendaten und die entscheidenden Ertragskomponenten, also Kornzahl pro Ähre, Ährenzahl und Tausendkorngewicht, ermittelt. Diese Daten kombinierte das Forschungsteam mit Wachstumsmodellen und ausgewählten Wetterdaten der jeweiligen Region zu insgesamt 81 verschiedenen Zeitfenstern pro Saison.

Durch das neue statistische Verfahren haben die Forschenden nicht nur alle bereits bekannten empfindlichen Entwicklungsphasen identifiziert, sondern auch neue Schlüsselmomente des pflanzlichen Lebenszyklus erkannt. Sie konnten ebenfalls ermitteln, welche Umwelteinflüsse zu diesen Zeitpunkten entscheidend sind und wie stark die einzelnen Sorten darauf reagieren. So entdeckten sie etwa, dass die Nachttemperatur vor der Blüte die Korngröße steuert, dass Niederschläge auch noch nach der Blüte die Anzahl der Ähren erhöhen oder dass während der späten Kornfüllungsphase Ende Juli die Intensität der Sonnenstrahlung das Gewicht der reifen Körner beeinflusst.

Züchtung stressresistenter Sorten
„Wir haben nicht nur neue sensitive Zeitfenster entdeckt, sondern auch Stressresistenzen in bestimmten Sorten“, betont Tsu-Wei Chen. Diese Erkenntnisse sind für die zukünftige Züchtung besonders wichtig, um Sorten und genetische Ressourcen identifizieren zu können, die weniger empfindlich gegenüber Umweltschwankungen sind und daher zuverlässig stabile Erträge liefern können. Außerdem erlauben die neuen Methoden, Getreideerträge unter zukünftigen Klimabedingungen vorherzusagen. „Unsere Ergebnisse eröffnen neue Forschungsfelder für die Zukunft und werfen auch zahlreiche unbeantwortete Fragen auf. Zum Beispiel müssen wir untersuchen, welche physiologischen Prozesse und Mechanismen die Sensitivität regulieren und welche genetischen Regionen und Gene damit verbunden sind“, erklärt der Forscher.

Beteiligte Institutionen
Leibniz Universität Hannover, Christian-Albrechts-Universität Kiel,
Justus-Liebig-Universität Gießen, Julius Kühn-Institute, Universität Bonn

Zur Person
Prof. Dr. Tsu-Wei Chen ist seit 2020 Professor für Intensive Plant Food Systems an der Fakultät für Lebenswissenschaften der Humboldt-Universität zu Berlin. Im Jahr 2020 wurde er in das renommierte Emmy Noether-Programm der Deutschen Forschungsgemeinschaft (DFG) aufgenommen. Er erforscht die physiologischen Funktionen gärtnerischer und landwirtschaftlicher Kulturpflanzen (Getreide und Gemüse) und wie diese Funktionen durch Pflanzenzüchtung verbessert werden können.

Weitere Informationen zur Professur Intensive Plant Food Systems: https://www.agrar.hu-berlin.de/de/institut/departments/dntw/gpfs

Publikation
Khadija Sabir, Till Rose, Benjamin Wittkop, Andreas Stahl, Rod J. Snowdon, Agim Ballvora, Wolfgang Friedt, Henning Kage, Jens Léon, Frank Ordon, Hartmut Stützel, Holger Zetzsche and Tsu-Wei Chen. 2023. Stage-specific genotype-by-environment interactions determine yield components in wheat.

Zum Artikel in Nature Plants: https://doi.org/10.1038/s41477-023-01516-8

Bild zum Download: https://www.hu-berlin.de/de/pr/nachrichten/oktober-2023/natur-plants-weizenkoern…

Wissenschaftliche Ansprechpartner:
Prof. Dr. Tsu-Wei Chen

Ein Institut der Humboldt-Universität zu Berlin
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften
Fachgebiet Intensive Plant Food Systems
Lentzeallee 75, 14195 Berlin

Tel.: 030 2093 46295
tsu-wei.chen@hu-berlin.de
ORCID iD: https://orcid.org/0000-0001-6698-563X

(nach oben)


Künstliche Intelligenz sagt die Zukunft der Künstlichen Intelligenz Forschung voraus

Allein die unübersehbare Fülle wissenschaftlicher Veröffentlichung im Forschungsbereich zur künstlichen Intelligenz zu überblicken und mit dem Fortschritt mitzuhalten, ist für die menschlichen Forscherinnen kaum noch möglich. Wissenschaftlerinnen in einem internationalen Team unter Leitung von Mario Krenn vom Max-Planck-Instituts für die Physik des Lichts konnten nun einen KI-Algorithmus entwickeln, der Forscher*innen nicht nur unterstützt, sich systematisch zu orientieren, sondern zielführend voraussagt, in welche Richtung sich das eigene Forschungsgebiet entwickeln wird. Die Arbeit wurde im renommierten Fachjournal Nature Machine Intelligence veröffentlicht.

Auf dem Gebiet der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) wächst die Zahl der wissenschaftlichen Veröffentlichungen exponentiell und verdoppelt sich etwa alle 23 Monate. Für menschliche Forscher*innen ist es schwierig bis kaum möglich, den Fortschritt zu verfolgen und einen gesamten Überblick zu behalten. Mario Krenn, Forschungsgruppenleiter am Max-Planck-Institut für die Physik des Lichts in Erlangen, nähert sich der Lösung dieser Herausforderung auf unkonventionelle Weise und hat mit seinem neuen graphenbasierten „Science4Cast“ ein Werkzeug entwickelt, mit dem sich Fragen zur zukünftigen Entwicklung der KI-Forschung stellen lassen.

Im Vorfeld hatte die internationale Forschungsgruppe den „Science4Cast“-Wettbewerb ausgeschrieben, mit der Zielsetzung, die Entwicklung wissenschaftlicher Konzepte im Bereich KI-Forschung zu erfassen und vorherzusagen, welche Themen Gegenstand künftiger Forschung sein werden. Mehr als 50 Beiträge mit unterschiedlichen Herangehensweisen wurden im Wettbewerb eingereicht. Krenn hat jetzt gemeinsam mit den bestplatzierten Teams die verschiedenen angewendeten Methoden untersucht, welche von rein statistischen bis hin zu reinen Lernmethoden reichten, und kam zu überraschenden Ergebnissen. „Die leistungsstärksten Methoden verwenden einen sorgfältig kuratierten Satz von Netzwerkmerkmalen und nicht einen durchgängigen KI-Ansatz.“, so Mario Krenn. Dies deutet auf ein großes Potenzial hin, das bei reinen ML-Ansätzen ohne menschliches Wissen freigesetzt werden kann.

Science4Cast ist eine graphbasierte Darstellung von Wissen, das über die Zeit komplexer wird, je mehr wissenschaftliche Artikel veröffentlicht werden. Ein Knotenpunkt des Graphen repräsentiert jeweils ein KI-Konzept, und die Verbindungen zwischen den Knoten geben an, ob und wann zwei Konzepte gemeinsam erforscht wurden. Beispielsweise kann die Fragestellung „Was wird passieren“ dadurch in eine mathematische Frage zur weiteren Entwicklung des Graphen beschrieben werden. Science4Cast ist mit realen Daten aus über 100.000 wissenschaftlichen Publikationen gefüttert aus einem Zeitraum von 30 Jahren mit insgesamt 64.000 Knoten.

Die Vorhersage, woran Forscherinnen in der Zukunft arbeiten werden ist aber nur ein erster Schritt. Die Forscherinnen beschreiben in ihrer Arbeit wie eine Weiterentwicklung von Science4Cast bald personalisiert Vorschläge für die jeweiligen Wissenschaftler*innen zu ihren zukünftigen Forschungsprojekten geben könnte. „Unsere Ambition ist, eine Methode zu entwickeln, die für Wissenschaftler als Inspirationsquelle dient – quasi als künstliche Muse. Damit könnte der Fortschritt der Wissenschaft in der Zukunft beschleunigt werden“, erklärt Mario Krenn.

Wissenschaftliche Ansprechpartner:
Dr. Mario Krenn
Leiter der Forschungsgruppe ›Artificial Scientist Lab‹ am Max-Planck-Institut für die Physik des Lichts.
www.mpl.mpg.de / mario.krenn@mpl.mpg.de

Originalpublikation:
Krenn, M., Buffoni, L., Coutinho, B. et al. „Forecasting the future of artificial intelligence with machine learning-based link prediction in an exponentially growing knowledge network“
DOI: 10.1038/s42256-023-00735-0

www.nature.com/articles/s42256-023-00735-0

(nach oben)


Global Upskill – mit Weiterbildung gegen den Fachkräftemangel

Global Upskill – mit Weiterbildung gegen den Fachkräftemangel
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

Welche Kompetenzen benötigen Mitarbeitende in Zukunft und welche innovativen Weiterbildungsformate sind notwendig, um dem weltweiten Fachkräftemangel entgegenzuwirken? Mit diesen Fragestellungen beschäftigt sich die Initiative »Global Upskill« des Fraunhofer IAO. Das Projekt analysiert Trends und Technologien der beruflichen Weiterbildung und bringt neue didaktische Formate in die Praxis.

Nicht nur der allgegenwärtige Fachkräftemangel, sondern auch die digitale Transformation der Organisationen und der Wandel der Märkte hin zu mehr Nachhaltigkeit erfordern heutzutage neue Kompetenzen der Mitarbeitenden. Lebenslanges Lernen durch Coaching und Schulungen wird damit zum Schlüssel für eine erfolgreiche Zukunft von Organisationen. Mit »Global Upskill« bietet das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO ein Projekt, das mit seinen anwendungsorientierten Formaten die berufliche Weiterbildung und deren Zukunft maßgeblich mitgestaltet. Damit trägt die Initiative dazu bei, dem Fachkräftemangel in der neuen, dynamischen Arbeitswelt entgegenzuwirken.

Zukunftskompetenzen identifizieren und neue Lernformate entwickeln
Das von der Dieter Schwarz Stiftung geförderte Projekt arbeitet in vier Handlungsfeldern. Zunächst analysieren die Expertinnen und Experten des Fraunhofer IAO Trends und Technologien, welche die berufliche Weiterbildung beeinflussen, und leiten daraus zukünftige Kompetenzen und Weiterbildungsinhalte ab. Anschließend identifizieren und entwickeln sie neue didaktische Lernformate. Im vierten Schritt kreieren sie daraus konkrete Anwendungen für die Praxis, mit denen Inhalte und Kompetenzen vermittelt werden können.

»Ziel unserer Initiative ist es, eine echte Veränderung in der beruflichen Weiterbildung und in der Lernkultur der Unternehmen zu bewirken. Daher entwickeln und erproben wir auch innovative Lernformate«, erklärt Tim Beichter, der als wissenschaftlicher Mitarbeiter am Fraunhofer IAO gemeinsam mit seinem Kollegen Manuel Kaiser das Projekt leitet. Neben dem Fraunhofer IAO ist auch der LearnTech Hub Heilbronn an der Initiative beteiligt.

»Global Upskill Summit« vernetzt und diskutiert Lösungen
Das Projekt Global Upskill ist ursprünglich aus der Initiative »Forschung zur beruflichen Weiterbildung – Business Education & Innovation« hervorgegangen. Im Rahmen dieser Initiative wurde bereits im Herbst 2022 ein »Leitfaden zur Identifikation und Analyse von technologischen Trends für die berufliche Weiterbildung« veröffentlicht. Im Kontext von Global Upskill entstehen nun weitere Publikationen und Demonstratoren zu verschiedenen Teilprojekten, die die Zukunft der beruflichen Weiterbildung voranbringen. Zur stärkeren Vernetzung von Unternehmen, Start-ups und Forschung wurde zudem ein jährliches Gipfeltreffen zur beruflichen Weiterbildung ins Leben gerufen. »Mit dem ›Global Upskill Summit‹ wollen wir Erfahrungen austauschen und aktuelle Handlungsfelder der beruflichen Weiterbildung aus verschiedenen Blickwinkeln betrachten«, erläutert Manuel Kaiser. Der Summit wird erstmals am 8. November 2023 stattfinden.

Weitere Informationen zum Projekt finden Sie auch in diesem Video: https://www.youtube.com/watch?v=Bbxm5MXC3FA

Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
E-Mail: presse@iao.fraunhofer.de

Wissenschaftliche Ansprechpartner:
M.A. Manuel Kaiser
Business Education u. Innov.
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5137
E-Mail: manuel.kaiser@iao.fraunhofer.de

M.A. Tim Beichter
Business Education u. Innov.
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5136
E-Mail: tim.beichter@iao.fraunhofer.de

Originalpublikation:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/technologische-tren…

Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/global-upskill.html

(nach oben)


Funktionsweise des Gedächtnisses dank KI entschlüsseln

Eine Symphonie von elektrischen Signalen und ein dynamisches Geflecht von Verbindungen zwischen Gehirnzellen helfen uns, neue Erinnerungen zu bilden. Mit Hilfe von KI-gestützten Modellen neuronaler Netzwerke arbeiten Forschende des FMI daran, zu entschlüsseln, wie das Gehirn diesen Tanz orchestriert. Ihre jüngste Studie hat einen grossen Fortschritt erzielt bei der genauen Simulation der Veränderungen in den Verbindungen zwischen Neuronen, die die äussere Umgebung wahrnehmen. Somit hat sie die Tür zu einem besseren Verständnis dafür geöffnet, wie unzählige Gehirnzellen Empfindungen in Wahrnehmungen und Gedanken umwandeln. Hier hilft KI, die Funktionsweise echter Gehirne besser zu verstehen.

In den letzten Jahren hat die künstliche Intelligenz – oder KI – begonnen, die Welt, wie wir sie kennen, zu revolutionieren: Einige Menschen bitten nun KI-basierte Chatbots, Aufsätze zu schreiben und Dokumente zusammenzufassen, andere nutzen KI-gestützte virtuelle Assistenten, um Nachrichten zu versenden und Smart-Home-Geräte zu steuern, wieder andere setzen die Technologie für die Entdeckung und Entwicklung von Medikamenten ein. Der Experte für computergestütze Neurowissenschaften Friedemann Zenke nutzt KI, um die Funktionsweise des Gehirns zu erforschen.

In einer Studie, die in Nature Neuroscience veröffentlicht wurde, untersuchten Forschende unter der Leitung von Zenke – einem Forschungsgruppenleiter am FMI – wie bestimmte Gruppen von Neuronen ihre Verbindungen als Reaktion auf äussere Reize anpassen. Die Arbeit könnte Neurowissenschaftlerinnen und –wissenschaftlern helfen zu verstehen, wie sensorische neuronale Netze, die Informationen der Umwelt verarbeiten, die Aussenwelt wahrnehmen.

Zenke und seine Gruppe verwenden mathematische Werkzeuge und Theorien, um zu untersuchen, wie Gruppen von Neuronen im Gehirn beim Lernen und Abspeichern von Erinnerungen zusammenarbeiten. Durch die Entwicklung von Ansätzen, die der Komplexität des menschlichen Gehirns gerecht werden, erstellt Zenkes Team KI-basierte Modelle von neuronalen Netzwerken, die uns nützliche Informationen über das reale Organ liefern können.

«Jeder Mensch hat ein Gehirn, aber wir verstehen nicht wirklich, wie es funktioniert», sagt Zenke. «Unser Ziel ist es, ein gewisses Verständnis dafür zu erlangen, denn bevor wir uns mit Krankheiten befassen können, müssen wir verstehen, wie das gesunde System funktioniert.»

MODELLE DES GEHIRNS
Zenke hatte schon jung eine Vorstellung davon, wie eine wissenschaftliche Laufbahn aussehen würde. Sein Vater, ein Zellbiologe, machte ihn schon früh mit der Umgebung eines biomedizinischen Labors vertraut. An den Wochenenden und in den Schulferien begleitete Zenke seinen Vater bei der Arbeit. «Ich erinnere mich gerne daran, wie ich als Kind meinen Finger in den Vortex steckte», sagt Zenke. «Aber schon damals haben mich die Computer im Labor am meisten fasziniert.»

Zenke entschied sich schliesslich für ein Physikstudium, und Ende 2000 begann er, in dem Zweig der Physik, der sich mit den grundlegenden Bausteinen der Materie beschäftigt, zu arbeiten. Ob-wohl Zenke das Gebiet faszinierend fand, waren die Zeiträume der Experimente zu lang. Er hoffte, dass seine Forschung eine unmittelbarere Wirkung haben würde. Er erkannte, dass das aufblü-hende Gebiet der computergestützte Neurowissenschaft unser Verständnis des Gehirns mit rasan-ter Geschwindigkeit vorantreibt. «Das war es, was mich zum Wechsel bewogen hat», sagt er. Ein weiterer Aspekt, der Zenke zu den Neurowissenschaften geführt hat, ist ihre Komplexität. «Es ist wahrscheinlich eines der kompliziertesten Forschungsthemen, die es derzeit gibt, und es erfordert einen interdisziplinären Ansatz».

Nachdem er seine eigene Gruppe am FMI gegründet hatte, begann Zenke zu untersuchen, wie einzelne Neuronen zur Bildung von Erinnerungen beitragen – ein Prozess, der eine wichtige Rolle beim Lernen, bei der Problemlösung, und bei der persönlichen Identität spielt. Wenn wir zum Beispiel jemanden zum ersten Mal sehen, aktiviert das Gehirn bestimmte Gruppen von Neuronen. Dies führt zu einem einzigartigen Muster neuronaler Aktivität, das hilft, eine Erinnerung zu schaffen. Doch die einzigen Informationen, die ein einzelnes Neuron über die Aussenwelt hat, sind elektrische Impulse, die es von anderen Neuronen empfängt und an diese weiterleitet. «Wie trägt ein einzelnes Neuron zu dieser Berechnung des Gedächtnisses und der Erkennung von zum Beispiel einer Person bei?» fragt sich Zenke.

Die Zenke Gruppe geht dieser Frage mit verschiedenen Ansätzen aus der Mathematik, Informatik und Physik nach. Erinnerungen werden durch Veränderungen in Gruppen von Neuronen und den Verbindungen – oder Synapsen – zwischen ihnen gebildet. Die Forschenden simulieren also diese Gruppen von Neuronen – oder neuronale Netzwerke – am Computer. Dann nutzen sie Ansätze aus der Physik, um ein theoretisches Verständnis der Vorgänge in den Netzwerken zu erhalten. «Die Physik bringt die Kraft der Abstraktion mit – sie versucht, ein Problem auf das absolute Minimum zu reduzieren, auf die einfachsten Teile, die man verstehen kann», sagt Zenke.

Im Gehirn arbeiten jedoch Hunderte oder Tausende von Neuronen zusammen, um Erinnerungen zu bilden und manchmal reichen rein analytische Ansätze nicht aus, um zu verstehen, wie diese Zellen Informationen berechnen. In diesem Fall wenden sich die Forschenden Methoden des maschinellen Lernens zu, um gross angelegte Simulationen zu erstellen. Eine solche Technologie ist das Deep Learning, das bei vielen neueren Fortschritten im Bereich der KI, einschliesslich des autonomen Fahrens, eingesetzt wird.
Deep Learning basiert auf neuronalen Netzwerken, die die Informationsverarbeitung des menschlichen Gehirns nachahmen und so aus grossen Datenmengen «lernen» können. «Ein neuronales Netzwerk an sich macht nichts Sinnvolles. Es fängt erst an, etwas Sinnvolles zu tun, wenn man es mit einem Algorithmus trainiert», sagt Zenke.
Wenn der Algorithmus das neuronale Netzwerk mit Daten «füttert», verändern sich die Verbindungen innerhalb des Netzwerkes, was zu einem komplexeren Modell führt. Mit solchen Computermodellen neuronaler Netzwerke können Neurowissenschaftler Fragen zur Funktionsweise des Gehirns erforschen, ähnlich wie Biologen es mit lebenden Tieren tun.

IN-SILIKO NEURONALE SCHALTKREISE
Wenn es den Forschenden gelingt, Modelle für neuronale Netzwerke zu entwerfen, die ähnlich funktionieren wie das Gehirn, könnte dies eine Erklärung dafür liefern, wie das reale Organ Informationen berechnet und Erinnerungen speichert, sagt Zenke.
In den letzten Jahren hat sein Team mathematische Beschreibungen dafür entwickelt, wie sich Synapsen durch Erfahrung verändern. Die Forschenden trainierten ein pulsgekoppeltes neuronales Netzwerk, das die elektrischen Spikes nachahmt, mit denen Neuronen miteinander kommunizieren. Sie stellten fest, dass dieses Netzwerk einige bemerkenswerte Ähnlichkeiten mit der Funktionsweise echter Gehirne aufweist.

So haben Experimente an Tiermodellen gezeigt, dass das richtige Gleichgewicht zwischen erregenden und hemmenden elektrischen Signalen es den Neuronen ermöglicht, unter bestimmten Umständen aktiv und unter anderen stumm gestalten zu sein. Als Zenkes Team das pulsgekoppelte neuronale Netzwerk darauf trainierte, eine bestimmte Aufgabe auszuführen – zum Beispiel gesprochene Wörter aus einem Satz zu erkennen – entwickelten die künstlichen Neuronen in dem Netzwerk ein Gleichgewicht zwischen erregenden und hemmenden synaptischen Strömen, ohne dass dies explizit vom Modell verlangt wurde. «Hier schliesst sich der Kreis: Das Modell erreicht ein Gleichgewicht, das wir auch in der Biologie finden können», sagt er.

In ihrer jüngsten Studie untersuchten Zenke und sein Team, wie sensorische Netzwerke die Aussenwelt in neuronaler Aktivität darstellen. Sensorische Netzwerke im Gehirn aktualisieren ihre Verbindungen in der Regel als Reaktion auf äussere Reize ohne initiales Verständnis, was diese Reize verkörpern. Bei künstlichen neuronalen Netzwerken ist das anders. Ihre Lernalgorithmen werden mit spezifischen Daten, deren Inhalt oder Bedeutung bekannt ist, gefüttert. Die Forschenden fanden eine einfache Lösung für dieses Problem, indem sie die Lernregeln abänderten, die helfen die Bedeutung zukünftiger Reize zu erraten oder vorherzusagen. Bisherige Lernregeln wurden aus experimentellen Daten abgeleitet, aber ihnen fehlte ein grundlegender Aspekt: die Vorhersage zukünftiger Ereignisse. Also entwickelte Zenkes Team Lernregeln, die versuchen, zukünftige sensorische Eingaben jedes Neurons vorherzusagen. «Das ist die Schlüsselkomponente, die alles zu verändern scheint, was diese Netzwerke tun können», sagt Zenke. Die Erkenntnisse könnten Neurowissenschaftlern helfen, viele experimentelle Ergebnisse aus Tiermodellen zu verstehen.

Für die Zukunft plant Zenke, grössere Netzwerke aus zusammenhängenden neuronalen Schaltkreisen zu schaffen – ein Konstruktionsprinzip, das vom Gehirn verwendet wird –, um zu untersuchen, wie das reale Organ die Aussenwelt modelliert, zum Beispiel um Entscheidungen zu treffen oder die Handlungen anderer Menschen zu bewerten.

Durch die Kombination neuronaler Schaltkreise zu grossen Netzwerken erhalten die künstlichen Modelle eine rudimentäre Form des Verhaltens, die es Zenke ermöglichen, diese mit experimentellen Ergebnissen anderer Forschenden zu vergleichen, einschliesslich der Neurobiologen am FMI, die mit Tiermodellen arbeiten. Die von den KI-gestützten Modellen erstellten Vorhersagen könnten auch an lebenden Tieren getestet werden, was den Neurowissenschaftlern zusätzliche Werkzeuge für die Erforschung der Funktionsweise des Gehirns bieten könnte und Durchbrüche fördern würde, die sonst Jahrzehnte dauern würden.

«Am FMI und in Basel haben wir eine exzellente Gemeinschaft von Neurowissenschaftlerinnen und –wissenschaftlern, die eine lebendige, kollaborative Atmosphäre schaffen», sagt Zenke. «Es ist ein fantastischer Ort, um diese Art von Forschung zu betreiben.»

Wissenschaftliche Ansprechpartner:
Prof. Dr. Friedemann Zenke, friedemann.zenke@fmi.ch

Originalpublikation:
Manu Srinath Halvagal and Friedemann Zenke. The combination of Hebbian and predictive plasticity learns invariant object representations in deep sensory networks Nature Neuroscience (2023)
https://www.nature.com/articles/s41593-023-01460-y

(nach oben)


Brasilianischer Regenwald 2050: Frösche oder Immobilien?

Senckenberg-Forschende haben gemeinsam mit einem brasilianisch-deutschen Team die Auswirkungen des Klimawandels auf die taxonomische und funktionale Diversität von Amphibien in der „Mata Atlântica“ untersucht. Der Regenwald an der Ostküste Südamerikas zählt zu den am stärksten bedrohten tropischen Waldgebieten und beherbergt über 50 Prozent der in Brasilien vorkommenden Amphibienarten. Die Wissenschaftler*innen zeigen in ihrer Studie, dass selbst eine moderate Entwicklung des Klimawandels enorme Auswirkungen auf die zukünftige Amphibienvielfalt hat – zusätzlich geraten Frosch und Co. durch wirtschaftliche Interessen in Bedrängnis.

Die Auswirkungen des Klimawandels machen sich weltweit bemerkbar: Waldbrände, trockenfallende Gewässer oder Extremwetterereignisse sind an der Tagesordnung. „In unserer neuesten Studie haben wir untersucht wie sich der Klimawandel zukünftig auf die Amphibienwelt der ‚Mata Atlântica‘, eines der am stärksten bedrohten tropischen Waldgebiete, auswirkt“, erklärt PD Dr. Raffael Ernst von den Senckenberg Naturhistorischen Sammlungen Dresden und fährt fort: „Amphibien sind in hohem Maß abhängig von bestimmten mikroklimatischen Parametern und besetzen sehr unterschiedliche ökologische Nischen. Sie sind daher ideale Modellorganismen, um die Auswirkungen des anthropogenen Klimawandels auf die biologische Vielfalt zu untersuchen.“

Der Atlantische Regenwald an der Ostküste Brasiliens steht unter massivem Druck, welcher in den letzten Jahrzehnten zu einer beispiellosen Entwaldung und Degradierung geführt hat. Ursprünglich bedeckte die „Mata Atlântica“ eine Fläche von etwa 150 Millionen Hektar und erstreckte sich vom Süden bis zum Nordosten Brasiliens. Neben dichten Wäldern finden sich in dem Gebiet auch offene Bereiche wie Lichtungen, Felder, Sümpfe und Teiche. „Gegenwärtig sind nur noch 12 bis 16 Prozent des ursprünglichen Ökosystems vorhanden, das zudem stark fragmentiert ist. Dennoch beherbergt dieser Lebensraum fast 20 Prozent aller bekannten südamerikanischen und über 50 Prozent der in Brasilien vorkommenden Amphibienarten“, erläutert Dr. Paula Ribeiro Anunciação, Erstautorin der Studie an der brasilianischen Universität Federal de Lavras. Ribeiro Anunciação hat im Rahmen eines zweijährigen, von der Alexander von Humboldt-Stiftung geförderten „Research Fellowships“ gemeinsam mit Ernst und weiteren Forschenden die Zukunft von Amphibien, Vögeln und Dungkäfern – ökologisch bedeutsame Indikatorgruppen – im Untersuchungsgebiet in den Blick genommen. Für Amphibien untersuchte das Team je zwei Szenarien für deren Entwicklung bis zu den Jahren 2050 und 2070: Das Szenario RCP 4.5 des Weltklimarats (IPCC) rechnet mit einem gemäßigten Klimawandel, RCP 8.5 geht dagegen von einer weitgehend ungebremsten Erwärmung aus.

„Für beide Szenarien und Zeiträume sehen wir zukünftig einen signifikanten Rückgang sowohl der taxonomischen als auch der funktionalen Amphibienvielfalt – das heißt wir werden nicht nur einzelne Arten unwiederbringlich verlieren, sondern auch das gesamte Ökosystem wird sich verändern“, so Ernst. Laut den Modellergebnissen sind hiervon sowohl Arten betroffen, die sich in geschlossenen Wäldern wohlfühlen, als auch Tiere, die Offenland bevorzugen.

Einzig in der östlichen Küstenregion und in hochgelegenen Lebensräumen sei davon auszugehen, dass die ursprüngliche Vielfalt bei Frosch und Co. – trotz Klimawandel – in großen Teilen erhalten bleibt. „Genau diese Gebiete stehen aber – aufgrund ihrer Nähe zu den am besten entwickelten städtischen und industriellen Standorten Brasiliens – im Zentrum aktueller Immobilienspekulationen“, warnt der Dresdner Herpetologe und fährt fort: „Es reicht daher nicht, solche Biodiversitätsrefugien zu identifizieren und dann zu hoffen, dass diese zur langfristigen Erhaltung von biologischer Vielfalt in Zeiten des globalen Klimawandels beitragen. Vielmehr ist es wichtig, die Ursachen – also den Klimawandel als solchen – nachhaltig und wirksam zu bekämpfen. Nur so können wir auch das einzigartige Ökosystem und die Amphibienvielfalt der ‚Mata Atlântica‘ bewahren!“

Wissenschaftliche Ansprechpartner:
PD Dr. Raffael Ernst
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351-7958 41-4315
Raffael.ernst@senckenberg.de

Dr. Paula Ribeiro Anunciação
Universidade Federal de Lavras
Senckenberg Naturhistorische Sammlungen Dresden
paula.ribeiro-anunciacao@senckenberg.de

Originalpublikation:
Paula Ribeiro Anunciação, Raffael Ernst, Felipe Martello, Maurício Humberto Vancine, Luis Marcelo Tavares de Carvalho, Milton Cezar Ribeiro (2023): Climate-driven loss of taxonomic and functional richness in Brazilian Atlantic Forest anurans,Perspectives in Ecology and Conservation,

https://doi.org/10.1016/j.pecon.2023.09.001

(nach oben)


2023 – ein wegweisendes Jahr für globale Gesundheit

World Health Summit in Berlin offiziell eröffnet

Am Sonntagabend ist in Berlin der World Health Summit offiziell eröffnet worden. Das vorherrschende Thema der Eröffnungsveranstaltung: “A Defining Year for Global Health Action” (Ein wegweisendes Jahr für globale Gesundheitsmaßnahmen) – das Motto des WHS 2023.

Bei der Eröffnungsveranstaltung sagte Bundesgesundheitsminister Karl Lauterbach: „Es ist dringend notwendig, dass die Weltgemeinschaft zusammenkommt und sich gemeinsam den Herausforderungen der globalen Gesundheit stellt. Globale Gesundheit ist eine gemeinschaftliche Aufgabe, die nur dann wirksam angegangen werden kann, wenn wir unsere Kräfte bündeln und zusammenarbeiten.”

Die EU-Gesundheitskommissarin Stella Kyriakides kommentierte in ihrer Video-Rede: “In echtem Team-Europe-Geist und in enger Zusammenarbeit mit unseren Mitgliedstaaten ist die neue globale Gesundheitsstrategie der EU bereits auf dem Weg zur Umsetzung.” Die EU Kommission sei entschlossen, den Worten Taten folgen zu lassen.

WHO-Generaldirektor Tedros Adhanom Ghebreyesus, der live zugeschaltet wurde, betonte: „Die Menschheit steht heute vor so vielen gesundheitlichen Herausforderungen, vom Krieg bis zur Klimakrise, von zunehmender Armut und wachsendem Hunger, von der raschen Erschöpfung der natürlichen Ressourcen und Naturkatastrophen und natürlich von globalen und regionalen Krankheitsausbrüchen.“

Die Premierministerin von Barbados Mia Mottley gab in ihrer vorab aufgezeichneten Rede zu Bedenken: “Wenn wir bessere Gesundheitsergebnisse für die Armen in der Welt, zu denen nur etwa die Hälfte der Bevölkerung gehört, erreichen wollen, müssen wir wirksamere Finanzierungsmechanismen entwickeln, die dem globalen Süden helfen, seine öffentlichen Gesundheitssysteme aufzubauen und eine robuste und reaktionsfähige nationale Infrastruktur zu schaffen.”

World Health Summit Präsident Axel R. Pries rief zu globaler Kooperation auf: Die weltweite Global Health Community habe eine Verantwortung: “Wir müssen die Idee der internationalen Zusammenarbeit für das Leben und den Humanismus auf der Erde stärken.”

Weitere Sprecher:innen der Eröffnungsveranstaltung:

  • Aurélien Rousseau, Minister for Solidarity and Health, France
  • Keizo Takemi, Minister of Health, Labour and Welfare, Japan
  • Bharati Pravin Pawar, Minister of State of Health & Family Welfare, India
  • Ina Czyborra, Berlin Senator for Higher Education and Research, Health and Long-Term Care, Germany
  • Heyo Kroemer, CEO, Charité – Universitätsmedizin Berlin, Germany
  • Rose Gana Fomban Leke, Director Biotechnology Centre, Cameroon & Virchow Prize for Global Health Laureate
  • Omnia El Omrani, Youth Envoy to the President of the UN 27th Climate Change Conference (COP27), Egypt
  • Sunao Manabe, Executive Chairperson and CEO, Daiichi Sankyo, Japan
  • Bernd Montag, CEO, Siemens Healthineers, Germany
  • Christina Chilimba, Founder and Executive Director, All for Youth, Malawi

Mehr zur Eröffnungsveranstaltung: https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/KEY-01

Im Mittelpunkt des WHS 2023 stehen Themen wie Klimawandel und Gesundheit, Pandemieprävention, digitale Technologien, die Rolle der G7 und G20 in der globalen Gesundheit und 75 Jahre WHO. Erwartet werden weit über 300 Sprecher:innen aus allen Regionen der Welt: Zahlreiche Regierungsverantwortliche, rund 20 internationale Minister:innen, Vertreter:innen aus Wissenschaft, Wirtschaft, Zivilgesellschaft und internationalen Organisationen sowie mehrere tausend Teilnehmer:innen vor Ort und online.

Um Interessierten aus aller Welt, die nicht anreisen können, ebenfalls eine Teilnahme zu ermöglichen, ist das gesamte Programm online verfügbar.

Am zweiten Tag des WHS 2023 sprechen unter anderem (alle Zeiten in CEST):

-Tedros Adhanom Ghebreyesus, Director-General, World Health Organization (WHO) (9:00, 14:00)

  • Karl Lauterbach, Federal Minister of Health, Germany (9:00, 18:00)
  • Christian Drosten, Director, Institute of Virology, Charité – Universitätsmedizin Berlin (11:00)
  • Joy Pumaphi, Co-Chair, Global Preparedness Monitoring Board (GPMB) (11:00, 16:00)
  • Inger Ashing, CEO, Save the Children International (14:00)
  • Christopher Elias, President of the Global Development Division, Bill & Melinda Gates Foundation (11:00, 14:00)
  • Natalia Kanem, Executive Director, United Nations Population Fund (UNFPA) (12:45, 14:00)
  • Wilhelmina S. Jallah, Minister of Health, Liberia (14:00)
  • Catherine Russel, Executive Director, United Nations Children’s Fund (UNICEF) (14:00, 16:00)
  • Svenja Schulze, Federal Minister of Economic Cooperation and Development, Germany (14:00, 16:00)
  • Heyo Kroemer, CEO, Charité – Universitätsmedizin Berlin (9:00)
  • Lariba Zuweira Abudu, Minister for Gender, Children and Social Protection, Ghana (12:45)
  • Ayoade Alakija, World Health Summit Ambassador & WHO Special Envoy for the ACT-Accelerator (14:00)
  • Frederik Kristensen, Deputy CEO, Coalition for Epidemic Preparedness Innovations (CEPI) (16:00)
  • Ilona Kickbusch, Founding Director, Global Health Center, Graduate Institute of International and Development Studies (9:00, 12:45)

Mehr Sprecher:innen: https://www.worldhealthsummit.org/summit/speakers.html
Programm Details: https://www.conference.worldhealthsummit.org/Program/WHS2023

Bitte beachten Sie auch die folgenden Termine am Montag, 16.10.:

12:45 Uhr: Launch of the Equity 2030 Alliance: Vorstellung einer neuen globalen Partnerschaft für gerechte und frauenorientierte Forschung.
Mehr Info:
https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/PD-13a

14:00 Uhr: Global Financing Facility (GFF) Pledging Event: Eine hochrangige Geberveranstaltung um mehr als 250 Millionen Frauen, Kindern und Jugendlichen in den ärmsten Ländern der Welt eine gesündere Zukunft zu sichern.

Mehr Info:
https://www.conference.worldhealthsummit.org/Program/Session/WHS2023/KEY-04

Der gesamte World Health Summit 2023 ist presseöffentlich.
Informationen für Medienvertreter:innen sowie eine Übersicht besonderer presserelevanter Veranstaltungen auf dem WHS 2023 finden Sie im Press Kit:
https://www.worldhealthsummit.org/media/presskit.html

Die Livestream-Links für die online Teilnahme finden Sie in der jeweiligen Session im Programm oder direkt auf https://www.worldhealthsummit.org. Bild und Ton können nach Absprache genutzt werden. Quelle: World Health Summit

Die Aufzeichnungen aller Sessions stehen anschließend hier zur Verfügung:
https://www.youtube.com/worldhealthsummit

Der World Health Summit ist die weltweit führende internationale Konferenz zu globaler Gesundheit. Der WHS 2023 steht erneut unter der Schirmherrschaft von Bundeskanzler Olaf Scholz, Frankreichs Präsident Emmanuel Macron und WHO-Generaldirektor Tedros Adhanom Ghebreyesus. Ziele des WHS sind, innovative Lösungen zur Verbesserung der globalen Gesundheit zu entwickeln, Austausch zu fördern, globale Gesundheit als zentrales politisches Thema zu implementieren, sowie die globale Gesundheitsdebatte im Sinne der UN-Ziele für nachhaltige Entwicklung (SDGs) voranzutreiben. Präsident des World Health Summit ist Prof. Dr. Axel R. Pries, Internationaler Jahrespräsident 2023 ist Prof. Dr. Adnan Hyder, George Washington University, USA.

World Health Summit
15.-17. Oktober, 2023
JW Marriott Hotel Berlin
Stauffenbergstraße 26
10785 Berlin, Germany & Digital
https://www.worldhealthsummit.org

WHS2023

Twitter: @WorldHealthSmt
LinkedIn, Facebook, Instagram: @worldhealthsummit
Pressekontakt
Alida Tiekötter
communications@worldhealthsummit.org

(nach oben)


Volkswirtschaftlich brisant: Wechseljahre am Arbeitsplatz

Die Ergebnisse der ersten deutschlandweiten Befragung von Frauen über Auswirkungen von Wechseljahresbeschwerden am Arbeitsplatz liegen vor. Ein Interview mit Studienleiterin Prof. Dr. Andrea Rumler von der Hochschule für Wirtschaft und Recht Berlin.

Am 18. Oktober ist Welt-Menopausetag. Ziel ist es, das Thema Klimakterium mit seinen medizinischen Implikationen und Auswirkungen auf das Wohlbefinden und die Arbeitsfähigkeit von Frauen stärker in den Fokus von Öffentlichkeit und Politik zu rücken.

Zur Person
Prof. Dr. Andrea Rumler ist Professorin für allgemeine Betriebswirtschaftslehre und Marketing an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin). Ihre Forschungsschwerpunkte liegen aktuell in den Bereichen Frauengesundheit, Nachhaltigkeitskommunikation und gendergerechte Finanzierung von Startups. Die Expertin für Marketing fokussiert in der Lehre außerdem auch auf Corporate Social Responsibility (CSR) und Compliance, der gesellschaftlichen Verantwortung von Unternehmen im Sinne eines nachhaltigen Wirtschaftens.

Prof. Rumler, Gesundheitsmanagement am Arbeitsplatz ist allgegenwärtig. Wechseljahresbeschwerden von Frauen werden dabei kaum bis gar nicht öffentlich thematisiert. Weshalb?

Frauengesundheit fand lange Zeit kaum Beachtung im Forschungskontext und ist auch im Betrieblichen Gesundheitsmanagement erst seit wenigen Jahren wirklich ein Thema. Dabei werden allerdings oft nur die Bedürfnisse junger Frauen adressiert, das Thema Wechseljahre ist weitgehend noch ein Tabuthema im betrieblichen Arbeitskontext. Das bestätigen auch die von uns erhobenen Daten in der ersten deutschlandweiten Befragung von berufstätigen Frauen zum Thema Wechseljahre am Arbeitsplatz.

Wie sind Sie auf das Thema gekommen?

Ich wurde 2021 von der Unternehmerin und Wechseljahresexpertin Peggy Reichelt auf die Thematik aufmerksam gemacht und begann zu recherchieren. Frau Reichelt baute zu der Zeit gerade ein Start-up auf, das sich mit den Bedürfnissen von Frauen in der Menopause beschäftigt und ihre Kundinnen berichteten immer wieder von Schwierigkeiten mit ihren Wechseljahressymptomen im Arbeitskontext.

Bis dato gab es zu dieser Thematik allerdings nur eine große Studie im englischsprachigen Raum, und darauf aufbauend auch Empfehlungen, wie Frauen in der Menopause am Arbeitsplatz unterstützt werden könnten. So etwas wollten wir auch für Deutschland realisieren – die Idee für das Forschungsprojekt MenoSupport war geboren und seit 2022 forsche ich gemeinsam mit meinem Team an der HWR Berlin und den Projektpartnerinnen an der HTW Berlin dazu.

Inwiefern ist dieses Thema für Unternehmen und Verwaltungen, für die Volkswirtschaft insgesamt von Relevanz?

Volkswirtschaftlich gesehen ist das Thema hoch brisant. Schon heute klagen zwei Drittel aller deutschen Unternehmen über Fachkräftemangel. Und obwohl in vielen Unternehmen Frauen in den Wechseljahren einen bedeutenden Teil der Belegschaft ausmachen, gibt es in Deutschland kaum Angebote zur betrieblichen Gesundheitsförderung für Frauen in der Zeit der Menopause. Dabei könnten passgenaue Angebote die berufserfahrenen und oft gut ausgebildeten Frauen dabei unterstützen, länger im Unternehmen zu bleiben und die Zufriedenheit der Mitarbeitenden steigern.

Wir haben in Deutschland dieses Jahr 2119 Frauen zwischen 28 und 67 Jahren befragt und 10 Prozent der Befragten mit Wechseljahresbeschwerden gaben an, auf Grund der Menopause früher in Rente gehen zu wollen oder schon gegangen zu sein. Bei den Befragten, die älter als 55 Jahre alt waren, gab sogar fast jede Fünfte (19,4 Prozent) an, früher in Rente gehen zu wollen.

Darüber hinaus bestätigt fast ein Viertel aller Befragten mit Wechseljahressymptomen, auf Grund der Menopause bereits Arbeitsstunden reduziert zu haben. Fast ein Drittel war auf Grund von Wechseljahressymptomen schon einmal krankgeschrieben oder hat unbezahlten Urlaub genommen. Mehr als jede sechste Befragte hat auf Grund ihrer Wechseljahressymptome schon einmal die Stelle gewechselt. Diese Zahlen machen deutlich, wie relevant das Thema für Unternehmen ist.

Welche Symptome haben die befragten Frauen angeführt, die sie während der Menopause in ihrer Arbeit besonders einschränken?

Viele der Teilnehmerinnen unserer Befragung gaben an, dass sie durch körperliche und geistige Erschöpfung, Schlafstörungen, erhöhte Reizbarkeit, depressive Verstimmung sowie Hitzewallungen negativ am Arbeitsplatz beeinflusst werden. Aber auch Gelenk- und Muskelbeschwerden, Augentrockenheit und Migräne wurden häufig als Beeinträchtigung genannt.

Die Arbeitsfähigkeit der Befragten wurde durch die Wechseljahre in ähnlicher Weise wie in der vom House of Commons (Women and Equalities Committee) 2021 durchgeführten Studie in Großbritannien beeinträchtigt. Die Top 4 der sowohl in Deutschland als auch in UK genannten Beeinträchtigungen sind erhöhter Stress, geringere Konzentrationsfähigkeit, erhöhte Ungeduld und Gereiztheit gegenüber anderen und ein geringeres Selbstbewusstsein bezüglich der eigenen Fähigkeiten.

Wie wirken sich die Wechseljahresbeschwerden auf das Wohlbefinden der Frauen am Arbeitsplatz aus?

Das ist sehr individuell, hier spielen Symptomlage und -stärke sicherlich eine große Rolle, aber auch psychologische Faktoren. Über die Hälfte unserer Befragten gab an, sich mit dem Thema Wechseljahre am Arbeitsplatz alleine gelassen zu fühlen. Die Mehrheit der Befragten wünscht zudem eine offene Kommunikation zum Thema Wechseljahre. Allerdings wird das Thema im Arbeitskontext bisher kaum thematisiert und viele Frauen befürchten, benachteiligt zu werden, wenn andere im Unternehmen wissen, dass sie Wechseljahresbeschwerden haben.

Ist das Thema in Deutschland schon bei der Politik angekommen?

Jain – ich würde sagen, das rollt gerade erst an. Aktuell gibt es eine kleine Anfrage der Fraktion der CDU/CSU zur Politik der Bundesregierung zur Menopause, welche noch unbeantwortet ist. Außerdem lud im März dieses Jahres die Bundestagsabgeordnete Dorothee Bär (CSU) zur Veranstaltung „Oh Meno – Warum die Wechseljahre uns alle etwas angehen“ in den Deutschen Bundestag ein – das war meines Wissens nach das erste Mal, dass das Thema im Bundestag größer diskutiert wurde. Am 18. Oktober („Tag der Menopause“) findet nun ein fraktionsübergreifender parlamentarischer Abend dazu statt und es bleibt zu hoffen, dass das Thema zukünftig mehr Aufmerksamkeit erhält.

Was hoffen Sie mit Ihrer Studie, der Sie den Titel MenoSupport gegeben haben, zu erreichen?

Mit dem Projekt MenoSupport wollen wir zum einen die Relevanz der Thematik für Deutschland herausstellen und zum anderen ganz konkret die betroffenen Frauen unterstützen, indem wir für Unternehmen innovative Maßnahmen zur betrieblichen Gesundheitsförderung für Frauen in den Wechseljahren entwickeln und den Austausch darüber anstoßen.

In Großbritannien verpflichten sich aktuell immer mehr Unternehmen dazu, für ein wechseljahresfreundliches Arbeitsumfeld zu sorgen. Dort hat man bereits erkannt, dass es auch aus wirtschaftlicher Sicht Sinn macht, Frauen in ihrer Lebensmitte mit dem Thema Wechseljahre zu unterstützen. Wir hoffen, dass diese Entwicklung auch nach Deutschland überschwappt.

Frau Prof. Rumler, ich danke Ihnen für das Gespräch.

Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin).

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

http://www.hwr-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andrea Rumler
Tel.: +49 173 925 9446
E-Mail: andrea.rumler@hwr-berlin.de

Weitere Informationen:
http://“MenoSupport“ – Ergebnisse der ersten deutschlandweiten Befragung zum Thema
http://Wechseljahre am Arbeitsplatz
https://blog.hwr-berlin.de/menosupport/ergebnisse/

(nach oben)


Was Phytoplankton-Physiologie mit dem Klima zu tun hat: Neue Studie zum Stickstoff-Phosphor-Verhältnis im Ozean

Pflanzliches Plankton spielt eine entscheidende Rolle im globalen Kohlenstoffkreislauf. Eine neue GEOMAR-Studie, die jetzt in der Fachzeitschrift Science Advances veröffentlicht wurde, zeigt, wie Änderungen in den Körperfunktionen des Phytoplanktons, insbesondere bei der Nährstoffaufnahme, die chemische Zusammensetzung des Ozeans und sogar der Atmosphäre beeinflussen können. Dies legt nahe, dass Veränderungen in der Physiologie des marinen Phytoplanktons einen Einfluss auf das globale Klima haben können.

Das Phytoplankton im Ozean ist von zentraler Bedeutung für den globalen Kohlenstoffkreislauf. Während der Photosynthese nimmt es Kohlenstoff (C) auf, der die Basis der marinen Nahrungsnetze bildet und mit sinkenden Partikeln in die Tiefsee gelangt. Dieser Prozess, „biologische Kohlenstoffpumpe“ genannt, fungiert somit als eine Art Kohlenstoffsenke, indem atmosphärisches Kohlendioxid (CO2) in den Ozeanen aufgenommen und dort gespeichert wird. Das Wachstum des Phytoplanktons hängt aber nicht nur von Kohlenstoff ab, sondern auch von den Nährstoff-Elementen Stickstoff (N) und Phosphor (P). Das Mengenverhältnis, in dem die verschiedenen Elemente in den Organismen vorkommen, wird in der Chemie als Stöchiometrie bezeichnet. Die Stöchiometrie des Phytoplanktons stellt ein zentrales Steuerungselement dar für die Wechselwirkungen zwischen der ozeanischen Kohlenstoffpumpe, den Nährstoff-Kreisläufen und klimabezogenen Faktoren wie der atmosphärischen CO2-Konzentration und der Temperatur.

In den 1930er Jahren machte der US-amerikanische Ozeanograph Alfred C. Redfield eine wichtige Entdeckung: Er fand heraus, dass die Elemente Kohlenstoff (C), Stickstoff (N) und Phosphor (P) im marinen Phytoplankton etwa in einem festen Verhältnis von 106:16:1 vorliegen – dem nach ihm benannten Redfield-Verhältnis. Überraschenderweise ergab Redfields Forschung, dass auch in Meerwasserproben die Konzentration von Nitrat (Stickstoffquelle) im Durchschnitt 16 Mal höher war als die von Phosphat. Die Verhältnisse von Stickstoff zu Phosphor (N:P) sind also im Phytoplankton und im Meerwasser bemerkenswert ähnlich, was auf eine enge Verbindung zwischen den partikulären (in Planktonorganismen und unbelebten Partikeln enthaltenen) und den im Meerwasser gelösten Nährstoffen hinweist.

Die Frage, ob das N:P-Verhältnis der gelösten Nährstoffe das Verhältnis im partikulären Material steuert oder umgekehrt, beschäftigt die marine Wissenschaftsgemeinschaft seit langem, vor allem wegen der Bedeutung für die Biogeochemie. „Es ist eine Henne-Ei-Frage“, sagt Dr. Chia-Te Chien, der in der Forschungseinheit Biogeochemische Modellierung am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel die Rolle der variablen Stöchiometrie des Phytoplanktons für die marine Biogeochemie untersucht. Zusammen mit seinen Mitarbeitenden hat er eine Modellstudie durchgeführt, die die Beziehung zwischen den N:P-Verhältnissen in gelösten Nährstoffen im Meerwasser untersucht. Die Studie, die jetzt in der Fachzeitschrift Science Advances veröffentlicht wurde, unterstreicht die Bedeutung variabler C:N:P-Verhältnisse des Phytoplanktons für die Regulierung gelöster mariner Nährstoff-Verhältnisse auf globaler Ebene und hebt den marinen Sauerstoffgehalt als entscheidend hervor.

Um diese Zusammenhänge zu untersuchen, wurde ein Erdsystemmodell mit einem Computermodell namens Optimality-based Plankton-Ecosystem Model (OPEM) gekoppelt. Das OPEM berücksichtigt Faktoren wie Nährstoffverfügbarkeit, Lichtintensität, Temperatur und Konkurrenz zwischen verschiedenen funktionalen Plankton-Gruppen, um die Wechselwirkungen zwischen Plankton und Umweltbedingungen zu simulieren und zu analysieren. „Optimality-based“ deutet dabei darauf hin, dass das Phytoplankton in diesem Modell sein C:N:P-Verhältnis optimal auf unterschiedliche Umgebungsbedingungen anpasst. So konnten die Forschenden im Modell die Eigenschaften des Phytoplanktons verändern und beobachten, wie sich dies auf die Stickstoff- und Phosphorverhältnisse im Wasser auswirkt. Sie führten eine Serie von 400 Simulationen durch, die sich im minimalen Phosphor- und Stickstoff-Gehalt unterschieden, der für das Wachstum des Phytoplanktons erforderlich ist.

Die Gesamtheit der Simulationen offenbart komplexe Rückkopplungsmechanismen, die Änderungen im C:N:P-Verhältnis des Phytoplanktons, die Umwandlung von molekularem Stickstoff (N2) in Nitrat durch stickstofffixierendes Phytoplankton und die Denitrifizierung – die bakterielle Umwandlung von Nitrat und Nitrit zu N2 in sauerstoffarmen Umgebungen – einschließen. Die Modellergebnisse stellen die allgemein angenommene enge Verbindung zwischen Phytoplankton und N:P-Verhältnissen im Meerwasser in Frage. Chia-Te Chien: „Diese Verhältnisse sind nicht von Natur aus ähnlich. Die Ähnlichkeit, wie sie heutzutage beobachtet wird, ist ein spezifischer Zustand, und dieser Zustand kann sich im Laufe der Zeit verändern, zumindest auf Zeitskalen, die über die vielen Jahrzehnte der direkten Ozeanbeobachtung hinausgehen.“

Darüber hinaus unterstreicht die Analyse den potenziell erheblichen Einfluss der Physiologie des Phytoplanktons auf den atmosphärischen CO2-Gehalt auf geologischen Zeitskalen. Bisher wurde davon ausgegangen, dass stöchiometrische Variationen innerhalb des marinen Ökosystems einen relativ geringen Einfluss auf die marine Biogeochemie und folglich auf den atmosphärischen CO2-Gehalt haben. Diese Ansicht könnte nun in Frage gestellt werden, da diese Studie auf die mögliche Bedeutung eines physiologischen Details für das Klima hinweist.

Chia-Te Chien: „Unsere Ergebnisse zeigen, dass die Konzentration des atmosphärischen CO2 sowie die Temperatur des Ozeans und der Luft bemerkenswert empfindlich auf Variationen der Stöchiometrie im Plankton reagieren, die durch Veränderungen in der Physiologie des Phytoplanktons hervorgerufen werden.“ Das Verständnis dieser Zusammenhänge könnte helfen, genauere Vorhersagen darüber zu treffen, wie sich die Ökosysteme und das Klima unseres Planeten in Zukunft entwickeln werden.

Förderung:
Diese Arbeit wurde von der Deutschen Forschungsgemeinschaft (DFG) gefördert.

Originalpublikation:
Chia-Te Chien et al.: „Effects of phytoplankton physiology on global ocean biogeochemistry and climate“ Science Advances 9, eadg1725 (2023).
DOI: 10.1126/sciadv.adg1725

Weitere Informationen:
http://www.geomar.de/n9156
Bildmaterial zum Download

(nach oben)


Umweltfreundliche Antihaftbeschichtung ersetzt per- und polyfluorierte Chemikalien (PFAS) auf Alltagsprodukten

Ob Pfannen, Schneidwaren oder Verpackung – per- und polyfluorierte Chemikalien (PFAS) werden seit Jahren in verschiedensten Alltagsprodukten und Prozessen zur Beschichtung eingesetzt. Aufgrund bekannter Risiken dieser Substanzen für Mensch und Umwelt wird ein zumindest teilweises Verbot für die Herstellung und Verwendung von PFAS in naher Zukunft erwartet. Der Einsatz vergleichbarer Alternativen ist deshalb für zahlreiche Unternehmen essenziell. Das Fraunhofer IFAM ist spezialisiert auf fluorfreie Beschichtungen und hat mit der PLASLON®-Technologie eine PFAS-freie Antihaftbeschichtung entwickelt, die das geforderte Eigenschaftsprofil erfüllt und sofort einsetzbar ist.

Unter PFAS⁠ versteht man eine Gruppe von mehreren tausend einzelnen Chemikalien. Sie kommen in der Natur ursprünglich nicht vor, sind äußerst stabil und reichern sich dadurch stetig in der Umwelt an. Die auch als »Ewigkeitschemikalien« bekannten Fluor-Verbindungen können im Blutserum vom Menschen vorkommen und zu gesundheitlichen Effekten führen [1]. Aus diesem Grund erwägt die Europäische Chemikalienagentur (ECHA) ein Verbot der Herstellung, Verwendung und des Inverkehrbringens von PFAS. Eine Entscheidung der Europäischen Kommission darüber ist laut Umweltbundesamt voraussichtlich 2025 zu erwarten.

Unternehmen, die PFAS verwenden, werden durch ein Verbot vor größere Herausforderungen gestellt. Um Prozesse und Produktion aufrechtzuerhalten, müssen alternative Lösungen gefunden werden. Die Plasmatechnik bietet hierfür ideale Voraussetzungen. Die Plasmaschichten, die am Fraunhofer IFAM entwickelt wurden, sind nicht nur fluorfrei (Zero-F), sondern auch frei von Additiven. Sie lassen sich auf nahezu allen Werkstoffen aufbringen. Einige der Schichten eignen sich aufgrund ihres Eigenschaftsprofils besonders gut als PFAS-freie Antihaftbeschichtung, Gleitbeschichtung und hydrophobe Ausrüstung.

PLASLON® – PFAS-freie Antihaftbeschichtung
Die Forscherinnen und Forscher am Fraunhofer IFAM haben mit der PLASLON®-Beschichtung eine PFAS-freie Alternative entwickelt, die sich durch hervorragende Antihafteigenschaften in Kombination mit hoher mechanischer Beständigkeit auszeichnet. Die mittels Plasmatechnik hergestellte Beschichtung ist als Gradientenschicht ausgeführt, um einerseits eine exzellente Haftung zum Produktkörper zu ermöglichen und andererseits optimale Antihafteigenschaften auszuprägen. Die Schicht zeichnet sich weiterhin durch eine gute Easy-to-clean-Eigenschaft aus und ist schneid- und abriebfest. Sie ist porenfrei und lebensmittelecht. Zudem zeigt sie ein oleophiles Verhalten in Bezug auf Speiseöle und -fette.

Ein Alleinstellungsmerkmal der PLASLON®-Beschichtung liegt darin, dass sie – im Gegensatz zu anderen Antihaftbeschichtungen – aufgrund ihrer guten Haftung und ihrer herausragenden Härte auch für Emaille, Glas, Steinzeug und Porzellan geeignet ist. Gerade Produkte aus diesen Werkstoffen sind zwar sehr kratzfest, weisen aber eine schlechte Antihaftwirkung auf.

Die Wissenschaftlerinnen und Wissenschaftler des Instituts verfügen zudem über das notwendige Know-how entsprechender Fertigungsprozesse, um Produkte in großen Stückzahlen wirtschaftlich veredeln zu können. Dafür bieten sich je nach Kundenbedarf unterschiedliche Konzepte, wie XXL-Anlagen oder insbesondere auch Durchlaufanlagen, an. Verbunden mit einem geringen Energieverbrauch bei der Herstellung, einer ungehemmten Wärmeübertragung beim Gebrauch und einer langen Lebensdauer der Beschichtung ist PLASLON® besonders nachhaltig und somit richtungsweisend.

[1] Quelle Umweltbundesamt

Wissenschaftliche Ansprechpartner:
Dr. Ralph Wilken | Telefon +49 421 2246-448 | ralph.wilken@ifam.fraunhofer.de | Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM | Wiener Str. 12 | 28359 Bremen | www.ifam.fraunhofer.de

Weitere Informationen:
http://www.ifam.fraunhofer.de

(nach oben)


Arbeitsmarkt: Nachrichten beeinflussen, welche Einkommensentwicklung Beschäftigte erwarten

Auch auf dem Arbeitsmarkt spielen Erwartungen eine wichtige Rolle für wirtschaftliche Entscheidungen. Eine neue RWI-Studie zeigt: Beschäftigte in den USA haben ihre Erwartungen über ihre Einkommensentwicklung und Jobsuche angepasst, nachdem sie Nachrichten über den Arbeitsmarkt konsumiert hatten. Positive Nachrichten führten demnach zu einem Anstieg des erwarteten Einkommens. Infolgedessen erhöhten die Beschäftigten zudem ihr Konsumniveau. Um die Auswirkungen der Nachrichten auf die Erwartungen zu ermitteln, wurden Meldungen zu Investitionsplänen bzw. deren späterer Absenkung analysiert. Für die Studie wurden Umfragedaten der Federal Reserve Bank of New York ausgewertet.

Das Wichtigste in Kürze:

  • Arbeitnehmerinnen und Arbeitnehmer passen ihre Erwartungen über ihre Chancen auf dem Arbeitsmarkt und ihre Einkommensentwicklung an, nachdem sie Nachrichten über den Arbeitsmarkt konsumiert haben: Positive Nachrichten führen zu einem Anstieg des erwarteten Einkommens im aktuellen Beschäftigungsverhältnis – ohne erkennbare Unterschiede zwischen Beschäftigten, die optimistisch sind, in Zukunft ein externes Angebot zu erhalten, und solchen, die dies nicht sind. Im untersuchten Szenario führen positive Arbeitsmarktnachrichten zu einem erwarteten Anstieg des eigenen Einkommens um durchschnittlich 3 Prozentpunkte.
  • Änderungen des erwarteten zukünftigen Einkommens erhöhen außerdem das aktuelle Konsumniveau. Die Konsumausgaben der befragten Arbeitnehmerinnen und Arbeitnehmer in den USA erhöhten sich infolge der positiven Arbeitsmarktnachrichten um etwa 2,3 Prozentpunkte.
  • Beschäftigte passen ihre Erwartungen über ihre Chancen auf dem Arbeitsmarkt auch bei negativen Arbeitsmarktnachrichten an. Wenn bestehende Investitionspläne der Unternehmen zurückgenommen oder reduziert werden, korrigieren die Arbeitnehmer ihre Erwartungen in Richtung der Basiswerte.
  • Um die Auswirkungen von Nachrichten auf die individuellen Arbeitsmarkterwartungen zu ermitteln, hat RWI-Wissenschaftler Bernhard Schmidpeter eine unerwartete Ankündigung auf dem amerikanischen Markt analysiert: Foxconn, einer der größten Auftragsfertiger der Welt, hat im Jahr 2017 zunächst angekündigt, eine neue Fabrik in Racine County (Wisconsin) zu bauen. Dadurch sollten bis zu 13.000 Arbeitsplätze mit einem Durchschnittslohn von etwa 54.000 US-Dollar entstehen. Diese Investitionspläne wurden 2021 stark reduziert. Zum Vergleich: Zum Zeitpunkt der Ankündigung im Jahr 2017 lag die Gesamtbeschäftigung vor Ort bei rund 77.000 Personen – mit einem durchschnittlichen Jahreseinkommen von ca. 43.000 US-Dollar. Das erwartete Lohnwachstum um etwa 3 Prozentpunkte entspricht einem Anstieg um ca. 20 Prozent. Dieser Anstieg gleicht der Differenz zwischen dem Durchschnittslohn in Racine County (ca. 43.000 US-Dollar) und dem von Foxconn veröffentlichten Lohn (ca. 54.000 US-Dollar). Das bedeutet: Beschäftigte orientieren sich in ihren Erwartungen an den veröffentlichten Lohninformationen.
  • Für die Studie wurden Daten des New York Fed’s Survey of Consumer Expectations (SCE) ausgewertet. Dabei handelt es sich um landesweit repräsentative, internetgestützte Umfragedaten der Federal Reserve Bank of New York. Sie umfassen etwa 1.300 Haushalte.

„Nachrichten über den Arbeitsmarkt beeinflussen unsere Erwartungen an die Jobsuche und die Einkommensentwicklung“, sagt RWI-Wissenschaftler Bernhard Schmidpeter. „Die Veröffentlichung von Informationen kann dazu beitragen, Einkommen zu erhöhen und Lohnungleichheiten zu verringern. Dabei entscheidet die Qualität der Informationen über deren Wirksamkeit“, so Schmidpeter. „Die Lohntransparenzgesetze sollten so angepasst werden, dass sie eine breitere Öffentlichkeitswirkung entfalten können“, schlägt er vor.
Wissenschaftliche Ansprechpartner:

Bernhard Schmidpeter, bernhard.schmidpeter@rwi-essen.de, Tel.: (0201) 8149-342

Originalpublikation:
https://www.rwi-essen.de/fileadmin/user_upload/RWI/Publikationen/Ruhr_Economic_P…

Weitere Informationen:
https://www.rwi-essen.de/presse/wissenschaftskommunikation/pressemitteilungen/de…

(nach oben)


Die Giftigkeit von Mikro- und Nanoplastik auf Ökosysteme bewerten

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Für die meisten Schadstoffe gibt es Standardprotokolle, um bewerten zu können, welche Risiken sie für natürliche Ökosysteme bergen. Auch von Mikro- und Nanoplastik (MNP) gehen Gefahren aus. Allerdings gibt es für diese Stoffe noch keine harmonisierten Richtlinien für die zuverlässige Prüfung ihrer Ökotoxizität. Forschende mit Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben neue Protokolle entwickelt, mit denen sich die Giftigkeit dieser Substanzen auf Boden- und Gewässerökosysteme standardisiert bewerten lässt.

Studien zur Bestimmung der Ökotoxizität werden in der Regel nach festgelegten Protokollen in Expositionsexperimenten durchgeführt, in denen die Organismen verschiedenen Substanzen unter möglichst realitätsnahen Umweltbedingungen ausgesetzt werden.

Unzulänglichkeit bisheriger Bewertungsmethoden:
Bisherige Ökotoxizitätsstudien zu Mikro- und Nanoplastik (MNP) verwenden handelsübliche kugelförmige Partikel als Modelle für MNPs, doch in der Natur kommen Kunststoffpartikel in unterschiedlichsten Formen, Größen und chemischen Zusammensetzungen vor. „Jede dieser Eigenschaften kann ihr dynamisches Verhalten und ihre Toxikologie beeinflussen und sollte bei der Durchführung ökotoxikologischer Experimente zur Bewertung potentieller Risiken berücksichtigt werden“, sagt Dr. Fazel A. Monikh, Erstautor der Studie und derzeit Wissenschaftler am IGB in Neuglobsow.
Außerdem werden zur Bewertung der Ökotoxizität von MNPs derzeit Protokolle verwendet, die für Chemikalien entwickelt wurden, die sich auflösen oder stabile Mischungen bilden. Kunststoffpartikel hingegen lösen sich nicht auf und zeigen auch keine regelmäßige Durchmischung in der Flüssigkeit in der sie schwimmen.

Das Untersuchungsprotokoll berücksichtigt die spezifischen Eigenschaften von MNPs:
Die Forschenden beschreiben in der Fachzeitschrift Nature Protocols Expositionsprotokolle für Boden- und Gewässerökosysteme, welche die partikelspezifischen Eigenschaften von MNPs und ihr dynamisches Verhalten in Expositionssystemen berücksichtigen. Darüber hinaus wird eine Methode vorgestellt, mit der realistische Mikro- und Nanopartikel für Experimente künstlich hergestellt werden können. Das Protokoll wurde für Toxizitätstests von MNPs unter kontrollierten Bedingungen im Labor, Meso- oder Makrokosmen entwickelt, und ist nicht für das Monitoring unter Feldbedingungen geeignet.

„Das neue Protokoll ist eine wichtige Grundlage für Forschende in der Ökotoxikologie, um die Dosis-Wirkungs-Beziehungen nach der Exposition von Organismen gegenüber MNPs zu verstehen; aber auch für die Industrie, um sicherere Kunststoffe zu entwickeln und Toxizitätstests an Kunststoffen durchzuführen und um regulatorische Anforderungen zu erfüllen“, nennt Fazel A. Monikh die Anwendungszwecke.

Kleiner ist nicht gleich weniger giftig:
Die Protokolle berücksichtigen auch die Unterschiede zwischen Mikro- und Nanoplastik. Nanokunststoffe sind in Größe und Form mit großen Proteinen vergleichbar. Daher verhalten sie sich von Natur aus anders als ihre Pendants aus Mikroplastik und sind möglicherweise in der Lage, in Zellen einzudringen. Außerdem befindet sich ein größerer Anteil der Moleküle in Nanoplastik auf der Oberfläche der Partikel, was die Wechselwirkungen mit Zellbestandteilen erhöhen kann. „Es ist daher wichtig, die Unterschiede zwischen Mikroplastik und Nanoplastik zu berücksichtigen, wenn Toxizitätstests mit diesen Partikeln durchgeführt werden“, sagt Hans Peter Grossart, IGB-Forscher und Mitautor der Studie.

Wissenschaftliche Ansprechpartner:
Prof. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Originalpublikation:
Abdolahpur Monikh, F., Baun, A., Hartmann, N.B. et al. Exposure protocol for ecotoxicity testing of microplastics and nanoplastics. Nat Protoc (2023). https://doi.org/10.1038/s41596-023-00886-9

Weitere Informationen:
https://www.igb-berlin.de/news/die-giftigkeit-von-mikro-und-nanoplastik-auf-oeko…

(nach oben)


Gesundheitsrisiko Klimawandel: Warum wir uns auf eine veränderte Welt einstellen müssen

Nachhaltigkeitskongress 2023: Klima und Gesundheit am 25. Oktober 2023 in Wuppertal mit Dr. Eckart von Hirschhausen

Hitzestress, neue Krankheitserreger, psychische Belastung: Der Klimawandel beeinflusst nicht nur die Umwelt, sondern hat auch Auswirkungen auf unsere Gesundheit. Das ist das Thema des diesjährigen Nachhaltigkeitskongresses, den das Wuppertal Institut gemeinsam mit der Stadtsparkasse Wuppertal und der Neuen Effizienz organisiert. Die Abendveranstaltung findet am 25. Oktober in Wuppertal statt und richtet sich an alle interessierten Bürger*innen.

Wuppertal, 9. Oktober 2023: Programminhalte des Kongresses sind, neben den direkten gesundheitlichen Folgen der Erderwärmung für den Menschen, die Auswirkungen auf die Artenvielfalt, auf den Lebensraum heimischer Tiere sowie Möglichkeiten zur Anpassung an die veränderten Bedingungen. Dabei geht es auch um die Frage, wie sich Klima-Angst in Klima-Mut verwandeln lässt.

„Die Folgen des Klimawandels spüren wir schon heute ganz konkret. An das geänderte Klima müssen wir uns anpassen, das gehört zur Daseinsvorsorge: bei der Stadtplanung, in der Kranken- und Altenpflege oder auch bei der Wasserversorgung. Auf dem Nachhaltigkeitskongress wollen wir Wege zum Wandel aufzeigen“, erklärt Jochen Stiebel, Geschäftsführer der Neue Effizienz gemeinnützige GmbH.

Gesundheitsrisiken: Nicht nur zunehmende Hitze
Belastend für die Gesundheit sind nicht nur die zunehmenden Hitzewellen: Der Klimawandel bringt auch neue Krankheitserreger zu uns, Pollenallergien nehmen messbar zu, ebenso wie psychische Beeinträchtigungen. „Die Weltgesundheitsorganisation WHO hat den Klimawandel als die größte Gesundheitsbedrohung für die Menschheit eingeordnet. Das betrifft auch uns in Deutschland. Auf diese Veränderungen müssen wir uns einstellen“, erklärt Prof. Dr.-Ing. Manfred Fischedick, Präsident und wissenschaftlicher Geschäftsführer des Wuppertal Instituts.

Der Nachhaltigkeitskongress findet in diesem Jahr zum zweiten Mal statt. Nach dem Erfolg der ersten Veranstaltung soll der Nachhaltigkeitskongress, als jährlich fester Termin, Lösungen für den gesellschaftlichen Wandel bei den aktuellen Herausforderungen aufzeigen.

Auch in diesem Jahr gehört die Stadtsparkasse Wuppertal zu den Unterstützern und Mitveranstaltern des Kongresses. „Wir dürfen beim Klimawandel nicht nur auf die Kosten und Probleme schauen. Dann vergessen wir den Nutzen und die Chancen, die eine nachhaltigere Gesellschaft bietet. Als Stadtsparkasse unterstützen wir die Transformation in eine nachhaltigere Gesellschaft. Wir freuen uns, dass wir auch in diesem Jahr wieder Partnerin des Nachhaltigkeitskongresses sind“, erklärt Gunther Wölfges, Vorstandsvorsitzender der Stadtsparkasse Wuppertal.

Die Referierenden auf dem Nachhaltigkeitskongress 2023:
Moderation: Anja Backhaus – Reporterin, Autorin und Sprecherin, bekannt aus TV und Radio
Keynote: Dr. Eckart von Hirschhausen – Arzt, Wissenschaftsjournalist und Gründer der Stiftung „Gesunde Erde – Gesunde Menschen“
Prof. Dr.-Ing. Manfred Fischedick – Präsident und wissenschaftlicher Geschäftsführer des Wuppertal Instituts
Jochen Stiebel – Geschäftsführer Neue Effizienz
Axel Jütz – Vorstand Stadtsparkasse Wuppertal
Dr. Neele Meyer – Referentin für Wissenschaftskommunikation am Klimahaus Bremerhaven
Dr. Arne Lawrenz – Direktor Grüner Zoo Wuppertal
Dipl.-Psychologin Pia Falkenberg und Dipl.-Psychologin Nele Kühn
Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut

Nachhaltigkeitskongress 2023 – Klima und Gesundheit

Wann: Mittwoch, 25. Oktober 2023
17:00 – 21:00 Uhr

Wo: Glashalle Stadtsparkasse Wuppertal
Johannisberg 1
42103 Wuppertal

Programm: https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…

Anmeldung: https://www.wuppertal-live.de/?470792
Wissenschaftliche Ansprechpartner:

Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/5189

Weitere Informationen:
https://wupperinst.org/a/wi/a/s/ad/8309
https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…
https://www.wuppertal-live.de/?470792
Constanze Schmidt – Wissenschaftliche Referentin Strategische Themenfeldentwicklung Klimaanpassung am Wuppertal Institut: https://wupperinst.org/c/wi/c/s/cd/5189

Weitere Informationen:
https://wupperinst.org/a/wi/a/s/ad/8309
https://wupperinst.org/fa/redaktion/downloads/news/2023_Programm-Nachhaltigkeits…
https://www.wuppertal-live.de/?470792

(nach oben)


Datenschutzkonforme Datenbereitstellung für SIEM-Systeme – Fraunhofer IDMT präsentiert Software-Prototyp auf it-sa 2023

Auf der it-sa 2023, Europas führender Fachmesse für IT-Sicherheit in Nürnberg, präsentiert das Ilmenauer Fraunhofer-Institut für Digitale Medientechnologie IDMT vom 10. bis 12. Oktober einen Software-Prototypen aus dem öffentlich geförderten Projekt DA3KMU. Die Software ermöglicht es kleinen und mittleren Unternehmen (KMU), ihre gespeicherten Daten so zu anonymisieren, dass sie besser genutzt und für Datenanalysen zur Verfügung gestellt werden können, z. B. im Kontext von SIEM-Systemen (Security Information and Event Management). Ziel ist es hierbei, KMU bei der datenschutzkonformen Weitergabe und langfristigen Speicherung von Logdaten zur Prüfung von Sicherheitsvorfällen zu unterstützen.

+++ Sicherheitsvorfall im KMU: Das Dilemma der Datenauswertung +++

Ein kleines mittelständisches Unternehmen wird von einer Malware-Attacke getroffen. Die entscheidende Frage: Woher kam die Attacke und welche Systeme sind betroffen? Eine effektive Reaktion erfordert eine tiefgehende Analyse der Log-Daten der gesamten IT-Infrastruktur. Dies kann komplex sein, insbesondere wenn im Unternehmen kein IT-Sicherheitsexperte vorhanden ist. Oft werden deshalb externe Dienstleister einbezogen.
Die Herausforderung: Diese Log-Daten können persönliche Informationen über Nutzende sowie Nutzungsverhalten und sensible Geschäftsdaten enthalten. Die Weitergabe und längerfristige Speicherung solcher Daten kann gegen Datenschutzvorgaben verstoßen. Zumal externe Dienstleister die personenbezogenen Informationen oft gar nicht für die Analyse benötigen.

+++ Die DA3KMU-Software: Datenanonymisierung für SIEM-Analyse +++

Hier kommt die DA3KMU-Software ins Spiel. Sie ermöglicht eine datenschutzkonforme Bearbeitung und Weitergabe der Daten. Dafür werden die Daten gezielt identifiziert, klassifiziert und entsprechend anonymisiert, ohne dass sie ihren Analysewert verlieren.

+++ Prototyp-Vorstellung und Beta-Tester gesucht +++

Auf der it-sa in Nürnberg wird der Prototyp der DA3KMU-Software vorgestellt. Die Entwickler suchen KMUs für eine Beta-Testphase. »Unsere Hoffnung ist es, auf der IT-Messe Unternehmen für eine Zusammenarbeit zu gewinnen und gemeinsam die Software weiter zu optimieren«, so Stefan Sachse vom Fraunhofer IDMT, der die Entwicklung des Prototyps leitet.

Nach Abschluss der Testphase im Frühjahr 2024 soll die Software als Open-Source-Lösung frei verfügbar werden. Die Software richtet sich dabei nicht nur an IT-Verantwortliche von KMU, sondern auch an IT-Dienstleister, die spezifische Lösungen für kleine und mittlere Unternehmen anbieten.

+++ Kostenloser Messeeintritt – Kommen Sie vorbei! +++
Sie wollen Beta-Tester im Rahmen des DA3KMU-Projekts werden? Sie möchten sich informieren, wie unsere Open Source Lösung auch Ihrem Unternehmen nützen kann? Dann besuchen Sie uns am Mittelstand-Digital Stand in Halle 6, Standnummer 6-135. Unsere Experten freuen sich auf den Austausch mit Ihnen und stehen bereit, um Ihre Fragen zu beantworten und Möglichkeiten zur Zusammenarbeit zu besprechen.

Mit dem Code 521947itsa23 können Sie unter folgendem Link Ihr Ticket kostenlos beziehen: https://www.messe-ticket.de/Nuernberg/it-sa2023/Register

+++ DA3KMU steht für »Datenschutz durch statistische Analyse und Adaptive Anonymisierung von personenbezogenen Daten für KMU« +++
Das Projekt DA3KMU wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) im Rahmen der Initiative IT-Sicherheit in der Wirtschaft gefördert und durchgeführt.

+++ Digitalisierungsunterstützung für den Mittelstand +++

Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren, der Initiative IT-Sicherheit in der Wirtschaft und Digital Jetzt umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ermöglicht die kostenfreie Nutzung und stellt finanzielle Zuschüsse bereit. Weitere Informationen finden Sie unter www.it-sicherheit-in-der-wirtschaft.de
Wissenschaftliche Ansprechpartner:
Stefan Sachse stefan.sachse@idmt.fraunhofer.de

Weitere Informationen:
https://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2023/Datenanony… – Pressemeldung und Informationen zur Datenschutzkonformen SIEM-Analyse mit DA3KMU

(nach oben)


Nierenkrankheiten: Häufig, teuer und unterschätzt

Nierenkrankheiten sind häufig und gefährlich, bekommen gesamtgesellschaftlich aber kaum die Aufmerksamkeit, die es benötigt, um die Forschung, Versorgung und vor allem die Prävention zu verbessern. Dabei würden davon alle profitieren: Die Betroffenen, denen viel Leid erspart bliebe, den Kostenträgern, da eine kostenintensive Therapie deutlich seltener zum Einsatz kommen müsste, – und die Umwelt, da die Dialyse viel Energie und Wasser erfordert und viel Abfall verursacht. Die Deutsche Gesellschaft für Nephrologie (DGfN) plädiert daher für mehr gesamtgesellschaftlichen Einsatz zur Prävention von Nierenkrankheiten.

Nierenerkrankungen sind sehr häufig, gut 10% der Bevölkerung leidet an einer chronischen Nierenerkrankung – die meisten Betroffenen, ohne es zu wissen. Zwar sind „nur“ gut 90.000 Menschen auf eine regelmäßige Dialysetherapie angewiesen, weil ihre Nieren komplett den Dienst versagt haben, doch schätzungsweise sind insgesamt über 9 Mio. Menschen in Deutschland von einer chronischen Nierenkrankheit betroffen. Dabei handelt es sich um eine langsame, schleichende Erkrankung. Die Organfunktion nimmt über die Jahre ab, bei einigen schneller, bei einigen langsamer. Meistens ist es so, dass dieser Prozess von den Betroffenen über eine lange Zeit gar nicht bemerkt wird. Stellen sich Symptome ein (Unwohlsein/Übelkeit, körperliche Schwäche, Müdigkeit etc.), ist die Erkrankung oft schon sehr weit fortgeschritten, so dass die Notwendigkeit einer Nierenersatztherapie häufig nicht mehr abgewendet werden kann.

Hinzu kommt: Eine chronische Nierenkrankheit (CKD) zieht viele Folgekomplikationen nach sich. Es kommt zu Bluthochdruck und Urämie (was bedeutet, dass harnpflichtige Stoffe nicht ausgeschieden werden, sondern im Blut vorhanden sind). Das schädigt die Gefäße und das Risiko für Herzinfarkte oder Schlaganfälle steigt. Eine CKD gehört daher zu den Hauptrisikofaktoren für kardiovaskuläre Erkrankungen. Hinzu kommen viele andere Begleit- und Folgeerkrankungen (z. B. Anämie, Elektrolytstörungen, Juckreiz, Krämpfe, auch Depression).

Die anteilsmäßig häufigsten Ursachen für eine chronische Nierenkrankheit sind der Diabetes mellitus und Bluthochdruck. Zusammen sind diese Volkskrankheiten für mehr als die Hälfte aller „Dialysefälle“ verantwortlich. Da die Zahlen der Menschen mit Diabetes und Bluthochdruck steigen, ist auch von einer noch weiter zunehmenden Zahl CKD-Betroffener auszugehen. Daraus entstehen enorme Belastungen für den einzelnen und exorbitante sozioökonomische Belastungen für die Gesellschaft. Insgesamt werden schon heute 24 Mrd. Euro für die Versorgung von CKD-Patientinnen und -Patienten ausgegeben, das sind knapp 12 Prozent der Gesundheitsausgaben.

Die Prävention von Nierenkrankheiten hat damit nicht nur eine persönliche Dimension, die einzelnen Betroffenen viel Leid ersparen kann, sondern auch eine gesellschaftliche: Neben den ökonomischen Aspekten spielen auch zunehmend ökologische eine Rolle. Der geschätzte Verbrauch für die Behandlung von weltweit 2 Millionen Dialysepatientinnen und -patienten pro Jahr beläuft sich auf 156 Mrd. Liter Wasser, 1,62 Mrd. kWh Stromverbrauch und führt zu 625.000 Tonnen Plastikmüll.

Was muss aus Sicht der Deutschen Gesellschaft für Nephrologie geschehen? „Wir brauchen ein Deutsches Nieren-Gesundheitszentrum (DNGZ), das Forschung fördert, so dass neue zielgerichtete Therapien entwickelt werden können, um Nierenkrankheiten zu stoppen“, erklärt Prof. Dr. Hermann Pavenstädt, Präsident der Deutschen Gesellschaft für Nephrologie (DGfN). „Außerdem benötigt unser Fach eine bessere Sichtbarkeit in der Bevölkerung und Politik, um wichtige Präventionsmaßnahmen bekannter zu machen und umzusetzen. Wir müssen zudem die optimale Versorgung unserer Patientinnen und Patienten sicherstellen und mehr in die Entwicklung neuer, ‚grünerer‘ Dialysetechnologien investieren.“ Die Fachgesellschaft wünscht sich dafür einen engen Schulterschluss mit Politik und Gesellschaft.

Pressekontakte
Pressestelle der DGfN
Dr. Bettina Albers
presse@dgfn.eu
Tel. 03643/ 776423

Weitere Informationen:
https://www.nephrologie2023.de/

(nach oben)


Neue Analyse zur aktuellen und zukünftigen globalen Wasserqualität

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Weltweit werden noch immer etwa 40% des häuslichen Abwassers ungeklärt abgeleitet. Gleichzeitig fehlen insbesondere in Entwicklungs- und Schwellenländern verlässliche Informationen zur Wasserqualität von Flüssen und Seen. Deshalb setzt sich die World Water Quality Alliance, ein vom UN-Umweltprogramm ins Leben gerufenes Konsortium, dafür ein, der Wasserqualität die notwendige Aufmerksamkeit zu verleihen. Das vom UFZ koordinierte und vom BMBF geförderte Verbundprojekt GlobeWQ konnte auf globaler Skala zeigen, wie durch die Kombination von in-situ-Messdaten, Fernerkundungsdaten und Modellierungen die Wasserqualität und die von ihr ausgehenden Risiken besser bestimmt werden können als bisher.

Wasser ist die Grundlage allen Lebens. Die ausreichende Verfügbarkeit von Wasser guter Qualität für Mensch und Natur ist daher unabdingbar. „Sauberes Wasser und sanitäre Einrichtungen für alle“ – so lautet deshalb das Ziel Nummer 6 von insgesamt 17 Nachhaltigkeitszielen (SDGs) der Vereinten Nationen, die im Rahmen der Agenda 2030 umgesetzt werden sollen. „Das sechste Nachhaltigkeitsziel beinhaltet auch den Schutz wasserabhängiger Ökosysteme sowie die Sicherung der Wasserqualität für Mensch und Umwelt“, sagt Prof. Dietrich Borchardt, Leiter des UFZ-Themenbereichs Wasserressourcen und Umwelt. „Doch dafür fehlt es vielerorts – insbesondere in Entwicklungs- und Schwellenländern – an Informationen, mit denen die Wasserqualität überhaupt eingeschätzt werden kann. Zudem ist ein regelmäßiges Gewässermonitoring mit Probenahmen und Laboranalysen aufwendig und teuer – und daher nicht an allen Orten der Welt durchführbar.“

Das Projekt GlobeWQ füllt diese globalen Daten- und Informationslücken im Bereich der Wasserqualität. „Durch die Kombination von Daten aus Freilandmessungen, Fernerkundung und Wasserqualitätsmodellierung wollten wir ein flächendeckendes und kohärentes Bild über den Zustand von Gewässern gewinnen sowie Erkenntnisse über ihre wichtigsten Einflussfaktoren“, sagt Projektleiter Dietrich Borchardt. Gemeinsam mit Nutzerinnen und Nutzern vor Ort entwickelten und erprobten die Forschenden verschiedene regionale Anwendungsbeispiele für die Analyse- und Service-Plattform GlobeWQ: den Victoriasee in Afrika, den Sewansee in Armenien und die Elbe in Deutschland. Dafür kombinierten die Forschenden jeweils Vor-Ort-Messdaten aus der globalen Datenbank GEMStat mit Aufnahmen der Sentinel-2-Satelliten und Modellrechnungen. „Mithilfe der Fernerkundung sind optische Messungen wie die Erfassung von Trübung, Sichttiefe und des Gehalts an Chlorophyll-a als Anzeiger für das Algenvorkommen im Gewässer möglich“, sagt Hydrogeologe Dr. Christian Schmidt, der das Projekt am UFZ koordiniert. Für den Victoriasee, wo es immer wieder zu schädlichen Algenblüten kommt, die sich negativ auf die Fischerei auswirken, liefert GlobeWQ zeitnahe und flächige Informationen zu Chlorophyll-a-Konzentrationen. Sie ermöglichen, Gefahren durch Algenblüten frühzeitig zu erkennen. Das Risiko schädlicher Algenblüten besteht auch in der Elbe. „Gemeinsam mit der Flussgebietsgemeinschaft Elbe haben wir im Projekt den Prototyp für eine Plattform erstellt, der zuverlässige Informationen zu zeitlichen Abläufen und räumlichen Mustern von Algenblüten innerhalb des Flusssystems liefert“, sagt der UFZ-Forscher.

Bislang wurden Daten aus Vor-Ort-Messungen für die Bewertung der Wasserqualität als Goldstandard angesehen. Doch mit den Anwendungsbeispielen aus dem GlobeWQ-Projekt können die Forschenden zeigen, dass Fernerkundungsdaten und Modellierung diese sinnvoll ergänzen können, um die Datenlücken zu schließen und die Wasserqualität von Gewässern einzuschätzen. „Vom Prinzip her ist es genauso wie bei der Wettervorhersage“, sagt Hydrobiologe Dietrich Borchardt. „Die zusätzlichen und hochaufgelösten Informationen haben einen großen Mehrwert, den wir nutzen sollten – um künftig die Wasserqualität räumlich und zeitlich besser einschätzen und vorhersagen zu können und sie durch zielgenauere Maßnahmen nachhaltig zu verbessern.“ Die Methode wurde auch von am Projekt beteiligten deutschen Firmen aufgegriffen und weiterentwickelt. Erfolgreich angewandt wurde sie beispielsweise bei der Aufklärung der Ursachen für das Fischsterben in der Oder im Sommer 2022.

Neben den regionalen Anwendungsbeispielen wurde im GlobeWQ-Projekt das Wasserqualitätsmodell WorldQual der Ruhr-Universität Bochum ausgebaut. „Mit dem WorldQual-Modell ist es möglich, in monatlicher Auflösung zu simulieren, wie sich bestimmte Parameter, die für die Einschätzung der Wasserqualität wichtig sind, entwickeln“, erklärt Christian Schmidt. Dazu zählen etwa der biologische Sauerstoffbedarf, das Vorkommen von Indikatorkeimen für fäkale Verunreinigungen oder der Phosphorgehalt. „Bislang waren mit WorldQual solche Simulationen ausschließlich für Flüsse in Südamerika, Afrika oder Teilen Asiens möglich. Im Rahmen von GlobeWQ konnten wir das Modell so erweitern, dass es nun weltweit funktioniert.“ Dietrich Borchardt ergänzt: „Damit gibt es für ehemals weiße Flecken auf der Wasserqualitäts-Weltkarte erstmalig Modelldaten, die es ermöglichen, die Wasserqualität von Flüssen flächendeckend einzuschätzen. So ist schneller erkennbar, wo es besonders wichtig ist, Einträge aus der Landwirtschaft zu reduzieren oder Kläranlagen zu bauen.“ Die Wasserqualitätsmodellierung erlaubt darüber hinaus Prognosen zur zukünftigen Entwicklung der globalen Wasserqualität unter den Bedingungen des Bevölkerungswachstums und des Klimawandels. Die Analyse gibt vorsichtigen Anlass zur Hoffnung, dass die Belastung durch coliforme Bakterien (in Folge fäkaler Verunreinigungen) wegen der verbesserten Abwasserbehandlung bis 2040 weltweit sinkt – mit Ausnahme von Afrika. Dort dürfte die Belastung noch bis 2060 steigen, danach aber ebenso kontinuierlich sinken.

Das Forschungsprojekt GlobeWQ wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der BMBF-Fördermaßnahme „Globale Ressource Wasser (GRoW)“ gefördert. Das Projektkonsortium bilden das UFZ, das Umweltprogramm der Vereinten Nationen (UNEP), die Ruhr-Universität Bochum, das International Centre for Water Resources and Global Change (ICWRGC) sowie die Firmen Earth Observation & Environmental Services (EOMAP) und terrestris GmbH & Co. Das Umweltbundesamt (UBA) und die Europäische Umweltagentur (EEA) unterstützen das Projekt beim Anschluss an die Bewirtschaftungspraxis als strategische Partner.

Wissenschaftliche Ansprechpartner:
Dr. Christian Schmidt
UFZ-Department Aquatische Ökosystemanalyse und Management
Christian.schmidt@ufz.de

Prof. Dr. Dietrich Borchardt
Leiter UFZ-Themenbereich Wasserressourcen und Umwelt
Dietrich.borchardt@ufz.de
Originalpublikation:
https://www.globewq.info/assets/globewq_quality_known_300dpi.pdf

Weitere Informationen:
http://www.globewq.info

(nach oben)


Vermögensunterschiede beeinflussen Bildungschancen

Neue Studie zeigt: Betrachtung des Nettovermögens führt zu falschen Vorhersagen

Vermögen spielt eine wichtige Rolle bei der Analyse sozialer Ungleichheit. Dennoch hängt der Einfluss des Faktors Vermögen bei den Ergebnissen davon ab, wie man den Zusammenhang modelliert. Eine neue Studie von Forscher*innen des GESIS – Leibniz-Institut für Sozialwissenschaften und der Universität Strathclyde zeigt, dass die Betrachtung des Nettovermögens zu einer falschen Vorhersage führt, welche Kinder sehr gute und sehr schlechte Bildungsaussichten haben.

Die Autor*innen der Studie, Dr. Jascha Dräger, Dr. Klaus Pforr und Dr. Nora Müller, konstatieren, dass in der Forschung bislang Vermögen häufig als Nettobetrag operationalisiert wird, obwohl es aus mehreren Komponenten mit unterschiedlichen Eigenschaften besteht. Sie schlagen vor, 1) den Nettobetrag in Bruttovermögen und Schulden aufzuspalten und ihre gemeinsame Wirkung zu betrachten und 2) „Generalized Additive Models“ zur Analyse von Vermögenseffekten zu verwenden.

„In einer Simulationsstudie konnten wir zeigen, dass dieser Ansatz systematische Vermögensunterschiede genauer beschreibt und gleichzeitig vermeidet, Muster in den Daten zu finden, die nicht da sind“, erklärt Dr. Nora Müller den innovativen Ansatz ihrer Forschungsarbeit.

Anschließend wenden die Autor*innen den Ansatz an, um Vermögensunterschiede beim Bildungsniveau in den Vereinigten Staaten neu zu analysieren. So kommen sie zu dem Schluss, dass die Betrachtung des Nettovermögens zu einer falschen Vorhersage führt, welche Kinder sehr gute und welche Kinder sehr schlechte Bildungsaussichten haben.

Ihre Analysen zeigen: Nicht Kinder mit hohem Nettovermögen, sondern Kinder mit hohem Bruttovermögen, unabhängig von der Höhe der Verschuldung, haben die besten Bildungsaussichten. Sie haben eine höhere Chance, einen höheren Bildungsabschluss zu erreichen als Kinder mit geringem Bruttovermögen und geringer Verschuldung.

Nicht Kinder mit niedrigem Nettovermögen, sondern Kinder mit geringem Bruttovermögen und geringer Verschuldung haben die schlechtesten Bildungsaussichten. Sie haben ein höheres Risiko, keinen Schulabschluss zu erreichen als Kinder mit hohem Bruttovermögen und hoher Verschuldung.

Die Ergebnisse der Studie sind wichtig für die Analyse sozialer Ungleichheit und für die Entwicklung von Maßnahmen zur Förderung von Bildungschancen für alle Kinder und Jugendlichen.

Wissenschaftliche Ansprechpartner:
Dr. Sophie Zervos
Pressesprecherin
sophie.zervos@gesis.org

Originalpublikation:
Dräger, Jascha, Klaus Pforr, and Nora Müller. 2023. „Why Net Worth Misrepresents Wealth Effects and What to Do About It.“ Sociological Science 10 534-558. doi: https://doi.org/10.15195/v10.a19

(nach oben)


Grüner Wasserstoff aus Solarenergie

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Forschungsteam der Universität Tübingen entwickelt neuartige Solarzelle, die dezentrale Her-stellung von Grünem Wasserstoff mit sehr hohem Wirkungsgrad ermöglicht

Weltweit arbeiten Forschende an effizienteren Methoden zur Wasserstoffproduktion. Wasserstoff könnte entscheidend dazu beitragen, den Verbrauch fossiler Rohstoffe zu reduzieren, vor allem, wenn er mit erneuerbaren Energien hergestellt wird. Bereits existierende Technologien zur Herstellung von klimaneutralem Wasserstoff sind für eine breitere Anwendung noch zu ineffizient oder zu teuer. Ein Forschungsteam der Universität Tübingen präsentiert nun die Entwicklung einer neuartigen Solarzelle mit bemerkenswert hohem Wirkungsgrad. Sie ermöglicht eine dezentrale Herstellung von grünem Wasserstoff und hat das Potenzial für Anwendungen im industriellen Maßstab. Die Ergebnisse wur-den kürzlich im Fachmagazin Cell Reports Physical Science veröffentlicht.

Eine Solarzelle auf Tauchgang
Wird Wasserstoff über die sogenannte Elektrolyse mit erneuerbaren Energien aus Wasser hergestellt, bezeichnet man ihn wegen der klimafreundlichen Herstellung als grünen Wasserstoff. Bei der solaren Wasserspaltung, häufig auch als künstliche Photosynthese bezeichnet, wird Wasserstoff mit Energie aus der Sonne hergestellt. Ein Forschungsteam um Dr. Matthias May vom Institut für Physikalische und Theoretische Chemie der Universität Tübingen hat eine Solarzelle entwickelt, die integraler Be-standteil der photoelektrochemischen Apparatur ist und direkt mit den Katalysatoren für die Wasser-spaltung zusammenarbeitet. Das Besondere der Tübinger Entwicklung: Ein zusätzlicher externer Stromkreis, wie etwa bei einem Photovoltaik-Solarpanel, ist nicht mehr nötig.

Dieser innovative Ansatz macht die Technologie kompakter, flexibler und potenziell kosteneffizienter. Aber mit diesem Aufbau werden auch die Anforderungen an die Solarzelle größer. „Unter Forschen-den auf dem Gebiet ist die Realisierung von stabiler und effizienter photoelektrochemischer oder di-rekter Wasserspaltung so etwas wie der ‚heilige Gral`“, sagt May.
Das Besondere am Aufbau der Solarzelle ist die hohe Kontrolle der Grenzflächen zwischen den ver-schiedenen Materialien. Die Oberflächenstrukturen werden hier auf einer Skala von wenigen Nano-metern, also millionstel Millimetern, hergestellt und überprüft. Besonders schwierig sind kleine Kris-talldefekte, die beispielsweise beim Wachstum der Solarzellenschichten entstehen. Diese verändern auch die elektronische Struktur und können damit einerseits die Effizienz und andererseits die Stabili-tät des Systems senken.

May ergänzt: “Insgesamt bleibt die Korrosion und somit die Langzeitstabilität der sich im Wasser be-findenden Solarzelle aber die größte Herausforderung. Hier haben wir nun große Fortschritte im Ver-gleich zu unseren früheren Arbeiten gemacht.“

Der technische Aufbau der neuen Zelle ist innovativ und besonders wirkungsvoll zugleich. Die Effizi-enz der solaren Wasserspaltung wird in Form des Wirkungsgrades gemessen. Der Wirkungsgrad zeigt dabei an, wieviel Prozent der Energie des Sonnenlichts in nutzbare Energie des Wasserstoffs (Heizwert) umgewandelt werden kann. Mit einem Wirkungsgrad von 18% präsentiert das For-schungsteam den zweithöchsten je gemessenen Wert für die direkte solare Wasserspaltung und so-gar einen Weltrekord, wenn man die Fläche der Solarzelle berücksichtigt. Die ersten etwas höheren Wirkungsgrade für die Solare Wasserspaltung wurden 1998 mit 12% vom NREL in den USA präsen-tiert. Erst 2015 folgte der Sprung auf 14% (May et al.) und 2018 auf 19% (Cheng et al).

Anwendung in großem Maßstab denkbar
Dass die Technologie kommerzialisierbar ist, zeigen inzwischen mehrere Ausgründungen an anderen Universitäten mit deutlich geringeren Effizienzen. Erica Schmitt, Erstautorin der Studie, erklärt: „Was wir hier entwickelt haben, ist eine Technologie der solaren Wasserstofferzeugung, die keine leis-tungsstarke Anbindung an das Elektrizitätsnetz erfordert. Dadurch sind auch dauerhafte kleinere In-sellösungen zur Energieversorgung denkbar.“

Die Tübinger Arbeiten sind eingebettet in das Verbundprojekt H2Demo, an dem unter anderem das Fraunhofer Institut für Solare Energiesystem (ISE) beteiligt ist. Die nächsten Schritte umfassen die Verbesserung der Langzeitstabilität, den Transfer auf ein kostengünstigeres Materialsystem auf Silizi-umbasis und die Skalierung auf größere Flächen. Die Forschungsergebnisse könnten einen bedeu-tenden Beitrag zur Energieversorgung und zur Reduzierung von CO2-Emissionen leisten.

Wissenschaftliche Ansprechpartner:
Dr. Matthias May
Universität Tübingen
FB Chemie, Institut für Physikalische und Theoretische Chemie
Telefon +49 7071 29-76392
matthias.may@uni-tuebingen.de

Originalpublikation:
Schmitt EA, Guidat M, Nusshör M, Renz A-L, Möller K, Flieg M, Lörch D, Kölbach M & May, MM. (2023). Photoelectrochemical Schlenk cell functionalization of multi-junction water-splitting photoelec-trodes. Cell Reports Physical Science 4 (2023), 101606, https://doi.org/10.1016/j.xcrp.2023.101606.

(nach oben)


Unternehmens-Leitbilder: Emotional und gendersensibel, aber schwer verständlich

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim

Studie von Uni Hohenheim und Agentur Communication Lab analysiert Sprache und Inhalt der Leitbilder der 120 umsatzstärksten Unternehmen in Deutschland, Österreich und Schweiz.

Viele Unternehmen im deutschsprachigen Raum verspielten die Chance, durch ihre Leitbilder ein klares Bild von sich selbst zu vermitteln. Zu diesem Ergebnis kommt eine gemeinsame Studie der Universität Hohenheim in Stuttgart und der Ulmer Agentur Communication Lab, die die Leitbilder der 120 umsatzstärksten Unternehmen in Deutschland, Österreich und der Schweiz auswertet.

Demnach seien die meisten Leitbilder zwar sprachlich emotional und gendersensibel geschrieben, dafür jedoch eher schwer verständlich als klar und transparent. Für ihre Auswertung stützten sich die Forscher:innen auf computergestützte Sprachauswertungen. Positive Ausnahme unter den untersuchten Firmen ist der deutsche Großhändler Lekkerland. Die Studie im Detail unter www.uni-hohenheim.de/presse.

„Leitbilder sind wichtig, weil sie Orientierung geben – sowohl den Mitarbeitenden als auch Kund:innen und Partner:innen. Ihren Zweck können Leitbilder aber nur erfüllen, wenn sie konkret sind, echte Substanz haben und ihre Zielgruppen ansprechen“, erklärt Oliver Haug, Geschäftsführer der Agentur Communication Lab in Ulm.

Diesen Anspruch würden Großunternehmen im DACH-Raum jedoch nur teilweise erfüllen, so das Fazit von Dr. Claudia Thoms, wissenschaftliche Mitarbeiterin am Fachgebiet Kommunikationstheorie der Universität Hohenheim

Ihre Einschätzung stützen die Wissenschaftler:innen auf eine Text-Analyse mit Hilfe einer speziellen Software. Diese durchsuchte die Leitbilder unter anderem nach überlangen Sätzen, Fachbegriffen und zusammengesetzten Wörtern. Anhand solcher Merkmale bilden sie den „Hohenheimer Verständlichkeits-Index“ (HIX). Er reicht von 0 (schwer verständlich) bis 20 (leicht verständlich).

Nur elf von 120 Unternehmen erreichten das empfohlene Verständlichkeits-Niveau
Die Leitbilder erreichen durchschnittlich einen HIX-Wert von 8,5 Punkten. Nur elf der 120 untersuchten Leitbilder erreichen den empfohlenen Zielwert von mindestens 16 Punkten.

Das verständlichste Leitbild des deutschen Großhändlers Lekkerland erreicht sogar 18,3 Punkte. Weitere Positiv-Beispiele sind die Unternehmen Porr (18,0 Punkte), Nestlè (17,9), Hilti (17,5), Rewe International (17,0), Hapag-Lloyd (16,8), Boehringer Ingelheim Pharma (16,7), Amprion (16,6), Globus (16,5), BP Europa (16,4), Beiersdorf (16,3).

Die Mehrzahl der Unternehmen ist jedoch eher am unteren Ende der HIX-Skala angesiedelt: 52 % der Unternehmensleitbilder erreicht weniger als acht Punkte. 13 Leitbilder unterschreiten sogar die durchschnittliche Verständlichkeit einer politikwissenschaftlichen Doktorarbeit von 4,3 Punkten.

Das unverständlichste Leitbild des österreichischen Maschinen- und Anlagenbauers Andritz liegt bei 0,6 Punkten. „Die Unternehmen verspielen so eine Chance, ihren Zielgruppen ein klares Bild von sich zu vermitteln“, so das Fazit von Dr. Thoms, wissenschaftliche Mitarbeiterin am Fachgebiet Kommunikationstheorie der Universität Hohenheim.

Die Unterschiede zwischen den Unternehmen aus Deutschland mit durchschnittlich 8,7 Punkten, Österreich (7,5 Punkte) und der Schweiz (8,9 Punkte) sind minimal. Beim Vergleich der Branchen fällt auf: Die Bauindustrie (10,4 Punkte), Konsumgüter und Handel (9,8 Punkte) sowie Transport und Logistik (8,7 Punkte) haben überdurchschnittlich verständliche Leitbilder. Dagegen kommen die unverständlichsten Leitbilder aus der Automobilindustrie – mit durchschnittlich nur 6,3 Punkten.

Gendersensible Sprache: wichtig, aber uneinheitlich in der Umsetzung
Die Mehrheit der Unternehmen (58 %) hat sich in ihren Leitbildern zum Gendern entschieden. Allerdings gendern nur 12 % der Unternehmen konsequent. Die meisten gendern nur vereinzelt und nicht durchgängig.

Am häufigsten kommen die Paarform (z. B. „Kundinnen und Kunden“; 33 % der Leitbilder) und neutrale Begriffe (z. B. Kundschaft; 32 % der Leitbilder) vor. Unterschiedliche Formen werden aber zum Teil auch in ein und demselben Text gemischt. „Die Vielfalt beim Gendern ist weniger überraschend – den einen Standard gibt es eben noch nicht“, erläutert Oliver Haug.

Emotionales Sprachklima macht Unternehmen erlebbar
Die Studie untersuchte auch die Zusammensetzung der Sprache in den Leitbildern. Dafür setzten die Wissenschaftler:innen die 4-Farben-Sprachmethode ein: Danach gestalten bestimmte Wörter „zwischen den Zeilen“ ein bestimmtes Sprachklima. Grundlage für die Sprachklima-Analyse ist die Klassifizierung des Wortschatzes in die vier Grundtypen Konservativ, Rational, Innovativ und Emotional. Die Wissenschaftler:innen analysierten den Anteil der einzelnen Worttypen im Text und leiteten daraus das Sprachklima ab.

Das Ergebnis der Analyse: In den Leitbildern dominieren zwar absolut gesehen rationale und konservative Wörter. Da die in der deutschen Sprache insgesamt verhältnismäßig selten vorkommenden emotionalen und innovativen Wörter allerdings einen relativ starken Einfluss auf das Sprachklima nehmen, lässt sich dennoch sagen: Mit den verwendeten emotionalen Begriffen schaffen es die Unternehmen, ihre Leitbilder zu emotionalisieren.

„Was interessant ist, denn in Deutschland dominiert eher das rationale Sprachklima“, kommentiert Andreas Förster, Spezialist für die 4-Farben-Sprachmethode am Ulmer Communication Lab. Für die Wirksamkeit von Leitbildern als Steuerungsinstrument ist dies von Vorteil: Es macht das Unternehmen, seine Ziele und Werte erlebbar und greifbar.

Zusätzlich zum Sprachklima wurde in der 4-Farben-Sprachanalyse auch die Verwendung von Wertebegriffen untersucht. Die Top-5-Wertbegriffe in den Leitbildern sind: „Nachhaltigkeit“ (in 67 Leitbildern), „Zukunft“ (in 54 Leitbildern), „Verantwortung“ (in 53 Leitbildern), „Menschen“ (in 51 Leitbildern) sowie „Erfolg“ (in 48 Leitbildern).

„Leitbilder brauchen klare Kommunikation, um die Menschen zu erreichen“
„Wenn Unternehmen in Zeiten von Dauerkrisen und ausdifferenzierten Märkten ihre Zielgruppen erreichen wollen, brauchen sie eines mehr denn je: eine klare Kommunikation, die die Menschen erreicht“, meint Haug. Dazu gehöre auch eine wirksame Selbstdarstellung in Form von Leitbildern.

„In Leitbildern kommunizieren Unternehmen schließlich ihr Selbstverständnis und die angestrebte Unternehmenskultur. Aber: Die schönsten Werte nutzen nichts, wenn sie bei den Adressat:innen nicht ankommen“, so Dr. Thoms.

HINTERGRUND: Verständlichkeitsforschung an der Universität Hohenheim
Das Fachgebiet für Kommunikationswissenschaft, insbesondere Kommunikationstheorie, an der Universität Hohenheim untersucht seit 16 Jahren die formale Verständlichkeit zahlreicher Texte: Wahlprogramme, Medienberichterstattung, Kunden-Kommunikation von Unternehmen, Verwaltungs- und Regierungskommunikation, Vorstandsreden von DAX-Unternehmen.

HINTERGRUND: H&H Communication Lab
Die H&H Communication Lab GmbH ist ein Institut für Verständlichkeit mit Sitz in Ulm und langjähriger Kooperationspartner der Universität Hohenheim. H&H Communication Lab und die Universität Hohenheim haben gemeinsam die Verständlichkeitssoftware TextLab entwickelt.

Wissenschaftliche Ansprechpartner:
Dr. Claudia Thoms, Universität Hohenheim, Lehrstuhl für Kommunikationswissenschaft, Tel.: 0711 459-24031, E-Mail: claudia.thoms@uni-hohenheim.de
Oliver Haug, H&H Communication Lab GmbH, Tel. 0731 93284-11, E-Mail: o.haug@comlab-ulm.de

Weitere Informationen:
http://Studie im Detail unter www.uni-hohenheim.de/presse
http://Textanalyse durch TextLab: www.text-lab.de
http://Die 4-Farben-Sprachmethode: https://www.comlab-ulm.de/leistungen/corporate-wording/

(nach oben)


Das Wasser macht den Unterschied

Das Wasser macht den Unterschied
Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Für die Funktion biologischer Zellen ist es wichtig, in unterschiedliche Reaktionsräume unterteilt zu sein. Das geht mittels Membranen, aber auch ohne: Die spontane Entmischung bestimmter Arten von Biomolekülen führt zur Bildung sogenannter Kondensate. Warum und unter welchen Umständen sie sich bilden, ist Gegenstand der Forschung. Durch Computersimulationen konnten Prof. Dr. Lars Schäfer und Dr. Saumyak Mukherjee aus der Theoretischen Chemie der Ruhr-Universität einen oft übersehenen Mitspieler identifizieren: Wasser. Ihre Ergebnisse beschreiben die Forscher in Nature Communications.

Erst neuere Untersuchungen haben die Existenz der Kondensate als Reaktionsräume in Zellen belegt. „Das Innere dieser Kondensate ist unheimlich dicht gepackt, das heißt, es herrscht ein molekulares Gedränge biologischer Makromoleküle wie zum Beispiel Proteine und Nukleinsäuren“, erklärt Lars Schäfer. Da nur bestimmte Makromoleküle miteinander solche Kondensate ausbilden, können diese als spezifische Mikroreaktoren für ganz bestimmte biochemische Reaktionen fungieren, die in der Zelle ablaufen. „Daher überrascht es nicht, dass Störungen dieser Prozesse mit verschiedenen Krankheiten in Verbindung stehen“, sagt Schäfer.

David und Goliath

Warum aber bilden sich diese Kondensate in der Zelle aus, und unter welchen Umständen? „Die zu Grunde liegenden Triebkräfte liegen letzten Endes verborgen in den chemischen Wechselwirkungen zwischen den verschiedenen Molekülen in der Zelle“, sagt Saumyak Mukherjee. „Computersimulationen können da Licht ins Dunkel bringen, sogar in atomarem Detail.“ Dabei stellte sich heraus, dass ein bisher oft übersehener Mitspieler im molekularen Wechselspiel eine wichtige Rolle spielt: Wasser.

Die Wassermoleküle, die sich im dichten Gedränge im Inneren der Kondensate befinden, haben andere Eigenschaften als die Wassermoleküle außerhalb. „Die Beschränkung der Wassermoleküle im Kondensat ist eine ungünstige Triebkraft, die Freiheit der Wassermoleküle außerhalb hingegen günstig. Letztere gewinnen dieses molekulare Tauziehen – wenn auch nur knapp“, erklärt Schäfer. Die Wassermoleküle spielen also eine wichtige Rolle für die Ausbildung von biomolekularen Kondensaten in Zellen, zusätzlich zu den oft beschriebenen Wechselwirkungen zwischen den Makromolekülen wie den Proteinen. „Es ist ein bisschen wie David und Goliath“, schmunzelt Mukherjee. „Hier sind die kleinen Wassermoleküle und dort die großen Proteinmoleküle – jedoch gibt es halt sehr viele Wassermoleküle, und gemeinsam leisten sie einen Beitrag zur Triebkraft, der genauso groß ist wie der der großen Proteine.“

Förderung

Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft im Rahmen des Cluster of Excellence RESOLV (EXC 2033) sowie durch die Europäische Union im Rahmen des EU Horizon 2020 Programm /Marie Skłodowska-Curie Grant 801459 – FP-RESOMUS.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Lars Schäfer
Arbeitsgruppe Molekulare Simulation
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21582
E-Mail: lars.schaefer@ruhr-uni-bochum.de

Originalpublikation:
Saumyak Mukherjee, Lars Schäfer: Thermodynamic forces from protein and water govern condensate formation of an intrinsically disordered protein domain, in: Nature Communications, 2023, DOI: 10.1038/s41467-023-41586-y

(nach oben)


Mit Mikro-Ultraschall Prostatakrebs präzise erkennen

Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
An der Universitätsmedizin Magdeburg wird im Rahmen einer internationalen klinischen Studie eine neuartige ultraschallbasierte Bildgebungsmethode zur frühzeitigen Erkennung von Prostatakrebs untersucht.

Prostatakrebs frühzeitiger erkennen – das ist das Ziel einer weltweiten klinischen Studie mit 1.200 Betroffenen, an der auch die Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg beteiligt ist. Die Studie untersucht die Effektivität eines innovativen Mikro-Ultraschallgerätes im Vergleich zur MRT-basierten Standardmethode zur Diagnose von Prostatakarzinomen. Das neuartige ExactVu™-System verspricht in kürzerer Zeit eine genauere Unterscheidung zwischen gut- und bösartigem Gewebe. Besonders Männer ab 50 Jahren, die sich in der Prostatakrebs-Vorsorge befinden, würden von dieser Entwicklung profitieren. Die Studie wird an 13 nationalen und internationale Kliniken durchgeführt.

Prostatakrebs ist in Deutschland die häufigste Krebserkrankung des Mannes. Laut Robert-Koch-Institut erkranken pro Jahr bundesweit fast 70.000 Männer neu an dieser Krebsform. Früh erkannt, kann das die Heilungschancen verbessern und das Risiko für Metastasen senken. Neben einer Tastuntersuchung ab 45 Jahren kommt bei Verdacht auf Prostatakrebs ein Test auf das Prostata-spezifische Antigen (PSA) zum Einsatz. Ein erhöhter PSA-Wert kann einen frühzeitigen Hinweis auf Prostatakrebs geben, aber auch andere Ursachen haben. „Die herkömmliche PSA-Blutwertbestimmung reicht für die Prostatakrebsfrüherkennung nicht mehr aus. Um möglichst genau sagen zu können, ob eine aggressive Prostatakrebserkrankung vorliegt, nutzen wir moderne bildgebende Verfahren, um den Krebs sichtbar zu machen“, erklärt Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg und Studienleiter in Deutschland.

Im Fokus der Studie unter dem Titel „OPTIMUM“ steht eine Bildgebungsmethode der neuesten Generation – das hochauflösende ExactVu™-System, ein innovatives 29 MHz Mikro-Ultraschallgerät, zur Diagnose von Prostatakarzinomen. „Das System arbeitet mit einer dreifachen Auflösung im Vergleich zu herkömmlichen Geräten“, so Schostak. Damit sei man in der Lage, in kürzerer Zeit auch kleinste Veränderungen in der Prostata zu erkennen und eine genauere Diagnose zu stellen. „Dieses innovative Gerät hilft, überflüssige Biopsien zu vermeiden und gleichzeitig eine besonders präzise Diagnose zu ermöglichen. Besonders im Kontext einer sogenannten fokalen Therapie spielt dies eine entscheidende Rolle und verbessert die Patientenversorgung erheblich.“ Im Rahmen der Studie wird die Effektivität dieses Verfahrens im Vergleich zur MRT-basierten Standardmethode evaluiert.

Weitere Informationen sind unter https://urologie.med.uni-magdeburg.de/ zu finden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie der Otto-von-Guericke-Universität Magdeburg, martin.schostak@med.ovgu.de, Telefon: +49-391/67 15036

(nach oben)


Bis zu 40 Prozent produktiver: Beim Güterumschlag auf die Schiene zeigen autonome Lkw großes Potenzial

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
• ANITA-Projektziele erreicht: Entwicklung, digitale Integration und Praxistests eines autonomen Lkw im Containerumschlag von DB IS-Depot und DUSS-Terminal in Ulm erfolgreich
• ANITA-Praxistestfahrten zeigen Potenzial für bis zu 40 Prozent Effizienzgewinn und erhöhte Prozessstabilität
• ANITA liefert übertragbare Erkenntnisse für die künftige Integration autonomer Lkw in die Prozesse von Logistikhubs und fahrerlose Lkw-Verkehre zwischen Logistikknoten

MAN Truck & Bus, Deutsche Bahn, Hochschule Fresenius und Götting KG haben gemeinsam wegweisende Forschungsergebnisse beim Einsatz eines autonomen Lkw in der Container-Logistik erzielt. Im Rahmen des Forschungsprojekts „Autonome Innovation im Terminal Ablauf“ (ANITA) zeigten sie erfolgreich, wie selbstfahrende Lkw mit der passenden Einbindung in die Infrastruktur den kombinierten Güterverkehr auf Straße und Schiene zukünftig leistungsfähiger, planbarer und zugleich flexibler machen können.

Die Projektpartner haben dafür einen autonom fahrenden Lkw auf die Räder gestellt, der Containerverladungen von der Straße auf die Schiene mit Hilfe einer digitalen Missionsplanung selbständig erledigen kann. Das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Forschungsprojekt lief insgesamt drei Jahre, rund sechs Monate davon haben die Experten das Fahrzeug im DB Intermodal Services Container-Depot und DUSS Container-Terminal in Ulm im Praxiseinsatz getestet.

„Bei der Entwicklung autonomer Fahrsysteme stehen konkrete Logistikanwendungen und der Kundennutzen für uns von Anfang an im Fokus. Deshalb haben wir bei ANITA nicht nur an der Entwicklung des automatisierten Fahrens in einem Container-Terminal gearbeitet, sondern gleichzeitig, zusammen mit den Partnern, die digitale Einbindung der Technologie in den Logistikprozess vorangetrieben. Nur so können wir künftig die Vorteile autonomer Lkw sinnvoll nutzen: den Sicherheitsgewinn, die höhere Flexibilität – gerade auch mit Blick auf den zunehmenden Fahrermangel – die gute Kombinierbarkeit mit anderen Verkehrsträgern und natürlich auch die optimale Energieeffizienz im Einsatz, was besonders in Verbindung mit der Elektromobilität wichtig wird. ANITA ist für MAN eine wichtige Grundlage, um autonome Lkw ab 2030 in den Verkehren zwischen Logistikhubs wie Ulm als Serienlösungen auf die Straße zu bringen“, so Dr. Frederik Zohm, Vorstand für Forschung & Entwicklung bei MAN Truck & Bus.

Die intensiven Testfahrten mit Sicherheitsfahrern und Entwicklungsingenieuren lieferten dabei nicht nur umfassende Erkenntnisse für die kontinuierliche Verfeinerung der autonomen Fahrfunktion und deren Zusammenspiel mit der Missionsplanung, sondern auch für die notwendige Vorbereitung der Terminals für die Integration der neuen Technologie.

“Der Kombinierte Verkehr wird in den kommenden Jahren weiter wachsen und eine wichtige Rolle bei der Verlagerung von Verkehren auf die umweltfreundliche Schiene spielen. Dafür müssen die komplexen Abläufe in den Terminals effizienter gestaltet und beschleunigt werden. Das gelingt nur, wenn wir Logistikprozesse weiter automatisieren und digitalisieren. Wie die Zukunft in den Terminals aussehen kann, hat der Projektabschluss von ANITA heute eindrucksvoll gezeigt. Der autonome Lkw funktioniert im realen Terminalbetrieb und kann so einen entscheidenden Beitrag zur Zukunftsfähigkeit des Kombinierten Verkehrs leisten“, so Dr. Martina Niemann, Vorständin der DB Cargo AG für Finanzen, Controlling und Angebotsmanagement.

Damit der autonome Lkw des ANITA-Projektes seine Transportaufgabe im Containerumschlag erfüllen kann, muss er mit der Infrastruktur von DB IS- Depot und DUSS-Terminal kommunizieren können. Dafür haben die Wissenschaftler der Hochschule Fresenius in der ersten Projektphase die bestehenden Prozesse, Abläufe und Verhaltensweisen von Menschen und Maschinen vor Ort analysiert und in ein digitales Regelwerk übertragen.

Als gemeinsame Sprache für die eindeutige und vollständige Kommunikation aller beteiligter Systeme dient die Contract Specification Language (CSL) von Deon Digital. Entstanden ist so eine komplette Missionsplanung, die sowohl das Fahrzeug als auch die IT-Systeme von DB IS-Depot und DUSS-Terminal miteinander verbindet. Wie ein Universal-Dolmetscher spricht die Lösung die Sprachen aller heterogenen Systeme und leitet den automatisierten Lkw durch den Prozess des Containerumschlags, wie Prof. Dr. Christian T. Haas, Direktor des Instituts für komplexe Systemforschung an der Hochschule Fresenius, erklärt: „Wir haben hier ein kommunikationsintensives Multi-Agenten-System d.h. verschiedene Akteure wie Lkw-Fahrer, Kran-Führer, Stapler-Fahrer nutzen unterschiedliche Kommunikationsformen wie Sprache, Gesten etc. und übertragen dabei die von ihnen als relevant eingestuften Informationen. Da sich bei autonomen Umfuhren nicht der Fahrer mit dem Disponenten, sondern der Lkw mit Datenbanken bzw. anderen Maschinen ,unterhält‘, musste ein digitales – also für Maschinen verständliches – Kommunikationssystem entwickelt werden, damit die Mission funktioniert. Dies war ein hoher Entwicklungsaufwand, der jetzt allerdings auch zum Erfolg und den entsprechenden Produktivitätsgewinnen geführt hat.“

Die Götting KG brachte ins Projekt in Ergänzung zu MAN ihre Expertise im Bereich der Objektortung und Umgebungserfassung ein, um die künftige Übertragbarkeit auf andere Logistikhubs und Erweiterungsfähigkeit für zusätzliche Einsatzszenarien zu ermöglichen. „Damit fahrerlose Fahrzeuge noch attraktiver werden, arbeiten wir weiter an sicherer Hinderniserkennung für größere Reichweiten und Geschwindigkeiten“, so Hans-Heinrich Götting, Geschäftsführer der Götting KG, zum Abschluss des ANITA-Projektes.
Die detaillierten Projektergebnisse werden in einem ausführlichen Projektbericht zusammengefasst und nach Projektende veröffentlicht.

Mehr zu ANITA: https://www.anita.digital

Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Idstein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den ältesten, größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine 175-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbildung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfältiges Fächerangebot und bietet in den Fachbereichen Che-mie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studien-gänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovatives Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbe-zug“ vom Wissenschaftsrat gewürdigt.

Weitere Informationen finden Sie auf unserer Website:
www.hs-fresenius.de

Weitere Informationen:
http://www.hs-fresenius.de

(nach oben)


Mainzer Wissenschaftler:innen entdecken bisher unbekannte Ursache für die Entstehung der Lungenfibrose

Natkritta Hüppe Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende des Centrums für Thrombose und Hämostase der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Histonen einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift PNAS veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes.

Neue Erkenntnisse bieten Ansatz für innovative Medikamente
Forschende des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Vernarbung der Lunge und damit die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Proteinen der Histonfamilie einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes beim experimentellen Modell einer Lungenfibrose.

Die Lungenfibrose ist eine bisher nicht heilbare und oft tödlich verlaufende Erkrankung. Bei den Betroffenen kommt es zu einer unkontrollierten Vermehrung von Narbengewebe in der Lunge, die durch chronische Entzündungen ausgelöst wird. Die Lunge ist dadurch weniger elastisch und kann sich beim Atmen nicht hinreichend ausdehnen. Die Patient:innen haben schon bei geringen Anstrengungen Atemnot – im fortgeschrittenen Erkrankungsstadium sogar im Ruhezustand. Die genauen Ursachen für die Entstehung der Erkrankung sind bisher noch unzureichend aufgeklärt.

„Unser Ziel ist es, die molekularen Zusammenhänge der Lungenfibrose genauer zu verstehen, um die Therapiemöglichkeiten verbessern zu können. Wir haben einen bisher unbekannten Mechanismus identifiziert, der darauf hinweist, dass Proteine der Histonfamilie beim Krankheitsprozess eine entscheidende Rolle spielen, wenn sie von Immunzellen freigesetzt werden. Histone bilden deshalb eine potentielle Zielstruktur, um neue Medikamente zur Behandlung der Lungenfibrose entwickeln zu können“, erläutert Prof. Dr. Markus Bosmann, Arbeitsgruppenleiter am Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz.

Histone sind Proteine im Zellkern, die dazu dienen, die DNA zu verpacken. Werden Histone zum Beispiel durch eine fehlgeleitete Abwehrreaktion oder einen Zelltod freigesetzt, können sie in immunologische Prozesse eingreifen. Bei ihren vorklinischen Untersuchungen stellten die Mainzer Forschenden fest, dass in Proben von Betroffenen mit Lungenfibrose eine deutlich höhere Konzentration an Histonen vorlag als bei gesunden Probanden. Sie konnten zeigen, dass die freigesetzten Histone ein Wechselspiel zwischen Botenstoffen aus den Blutplättchen und den Immunzellen auslöste. Die Folge: Ein Sicherheitsmechanismus, der die unkontrollierte Gewebsbildung und Vernarbung in der Lunge verhindern soll, schaltet sich aus.

Die derzeit verfügbaren Medikamente zur Therapie der Lungenfibrose hemmen zwar die Vernarbung, können diesen Prozess aber nicht vollständig aufhalten. Die Mainzer Wissenschaftler:innen haben auf Basis von Antikörpern einen innovativen Wirkstoff getestet, der die freigesetzten Histone blockieren kann. Im experimentellen Modell zeigte dieser eine hohe Wirksamkeit gegen die Fibrosierung der Lunge.

„Es ist denkbar, dass ein Antikörper-basierter Wirkstoff mit den aktuell eingesetzten Medikamenten kombiniert werden kann, um bessere Behandlungsergebnisse zu erzielen. Bevor dieses innovative Wirkprinzip jedoch klinisch eingesetzt werden kann, müssen noch weitere Optimierungen und vorklinische Tests erfolgen. Auch wenn es noch viele Jahre dauern wird, sind wir zuversichtlich auf dem richtigen Weg zu sein“, so Professor Bosmann.

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.

DOI:
https://doi.org/10.1073/pnas.2215421120

Kontakt:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Pressekontakt:
Dr. Natkritta Hüppe, Stabsstelle Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon 06131 17-7771, E-Mail pr@unimedizin-mainz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 345.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Mehr als 3.500 Studierende der Medizin und Zahnmedizin sowie rund 670 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.700 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter https://www.unimedizin-mainz.de.

Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de

Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.
DOI: https://doi.org/10.1073/pnas.2215421120

(nach oben)


Blutprodukte retten Leben

Nora Domschke Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Uniklinikum Dresden benötigt mehr Thrombozytenpräparate und ruft zur Spende auf. Die Transfusionsmedizinerinnen und -mediziner betonen die Wichtigkeit der lebensrettenden Spezialpräparate. Aus den Spenden werden überwiegend lebensrettende Spezialpräparate gewonnen. Die Apherese-Spenden, also Blutprodukte, die an einem Zellseparator gewonnen werden, spielen für die Versorgung schwer kranker Menschen eine entscheidende Rolle und werden am Uniklinikum in großem Umfang benötigt. Peter Escher macht an diesem Donnerstag (28. September) mit einer öffentlichkeitswirksamen Spende auf diese Notwendigkeit aufmerksam.

Thrombozytenpräparate gehören zu den Spezialprodukten der Blutspende. Die in ihnen enthaltenden Blutplättchen sind wichtig für die Blutgerinnung. Daher sind sie bei der Behandlung von Leukämie- und Tumorpatienten sowie bei großen Operationen notwendig, da es ohne eine ausreichende Anzahl von Thrombozyten im Blut der Patientinnen und Patienten zu lebensbedrohlichen Blutungen kommen kann. Journalist und Moderator Peter Escher hat heute am Dresdner Universitätsklinikum öffentlichkeitswirksam Thrombozyten gespendet und ruft auf, es ihm gleich zu tun: „Ich bin seit vielen Jahren Blutspender“, erklärt er. „Mit der heutigen Spende möchte ich Zögerer zum Spenden des überlebenswichtigen Blutes motivieren und kann aus eigener Erfahrung sagen, dass das regelmäßige Spenden sogar zu meinem Wohlbefinden beiträgt.“ Prof. Michael Albrecht, Medizinischer Vorstand des Uniklinikums, betont, wie wichtig die Bereitschaft der Bevölkerung zum Spenden in der Versorgung der Patientinnen und Patienten ist. „Peter Escher ist hierbei ein echtes Vorbild“, so Prof. Albrecht. „Blutprodukte sind rar und wir sind im Sinne der Versorgung auch schwerst kranker Patientinnen und Patienten auf diese speziellen Thrombozytenpräparate angewiesen.“

Bevor gespendet werden kann, ist eine Voruntersuchung erforderlich, bei der die Eignung der Spenderin oder des Spenders ermittelt wird. „Im Rahmen dessen erfolgt ein ärztliches Aufklärungsgespräch“, so Privatdozentin Dr. Kristina Hölig, Leiterin der Transfusionsmedizin am Uniklinikum Dresden. „Darüber hinaus werden die Venen an den Armen beurteilt und eine kleine Blutprobe zu Testzwecken entnommen.“ Dazu gehört ein umfangreiches Blutbild, bei dem die Thrombozytenzahl sowie die Blutgruppe bestimmt wird. Außerdem wird das Blut auf verschiedene Infektionskrankheiten untersucht.

Thrombozyten kann man, ähnlich wie Blut, auch in regelmäßigen Abständen spenden. Blutplättchen spielen in der Blutgerinnung und Blutstillung eine wesentliche Rolle und werden daher besonders bei Patientinnen und Patienten mit bösartigen Erkrankungen unter Chemotherapie und insbesondere nach einer Stammzelltransplantation benötigt. Auch ein hoher Blutverlust, etwa bei einem schweren Unfall oder bei einer großen Operation können ein Grund für die Substitution sein. Bei der Thrombozytenspende werden dem Körper über einen so genannten Thrombozyt-Apherese-Apparat ausschließlich Blutplättchen entnommen, die restlichen Blutbestandteile und das Plasma zurückgeführt. Thrombozyten sind nicht lange haltbar und müssen in Bewegung gelagert werden.

Nach der Entnahme sind die Spenderinnen und Spender vier Tage von anderen Spenden ausgeschlossen. Bis zur nächsten Thrombozyt-Apherese müssen sie gesetzlich vorgeschrieben zwei Wochen warten. Eine Thrombozytenspende dauert zwischen 60 und 90 Minuten. Dabei werden maximal 750 Milliliter Thrombozyten entnommen. Es gelten die Anforderungen wie bei anderen Spende-Arten. Grundsätzlich gibt es keine obere Altersgrenze, aber der Spender darf keine schwerwiegenden Vorerkrankungen haben. Weitere Voraussetzungen sind eine stabile Gesundheit, ein Mindestgewicht von 50 Kilogramm sowie eine ärztliche Zulassung – die Spendentauglichkeit wird von den Ärztinnen und Ärzten der Transfusionsmedizin beurteilt und bescheinigt.

Spendenwillige wenden sich gern an die Transfusionsmedizin des Universitätsklinikums Dresden unter 0351 458-2581 und vereinbaren einen Termin.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik und Poliklinik I
PD Dr. med. Kristina Hölig
Bereichsleiterin Transfusionsmedizin
Tel.: 0351 458 2910
E-Mail: Kristina.Hoelig@ukdd.dex

www.uniklinikum-dresden.de/de/das-klinikum/kliniken-polikliniken-institute/mk1/fachabteilungen/transfusionsmedizin

(nach oben)


Wichtiger zusätzlicher Treiber des Insektensterbens identifiziert

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Treten ungünstige Witterungsbedingungen kombiniert und über Jahre auf, kann das Insektenbiomassen langfristig schrumpfen lassen. Das zeigt ein Team um Professor Jörg Müller im Journal „Nature“.

Insekten reagieren empfindlich, wenn Temperatur und Niederschläge vom langjährigen Mittel abweichen. Bei einem ungewöhnlich trockenen und warmen Winter sind ihre Überlebenswahrscheinlichkeiten verringert, bei einem nasskalten Frühjahr ist der Schlupferfolg reduziert. Ein kühler, feuchter Sommer setzt Hummeln und andere Fluginsekten bei der Fortpflanzung und der Nahrungssuche unter Druck.

Treten mehrere solcher Witterungs-Anomalien in Kombination und über mehrere Jahre auf, kann dies die Insektenbiomasse großräumig und langfristig reduzieren. Das zeigt ein neuer Report im Journal „Nature“.

Demnach können die Witterung und Häufungen ungünstiger Witterungsanomalien im Zuge des Klimawandels wichtige Treiber des weltweiten Insektensterbens sein. Nur individuenreiche Insektenpopulationen, wie man sie in ausreichend großen und hochwertigen Lebensräumen findet, erscheinen unter solch widrigen Bedingungen überlebensfähig.

Wegen dieser neuen Erkenntnisse plädieren die Autorinnen und Autoren des Nature-Reports für mehr hochwertige Lebensräume. Diese zeichnen sich aus durch Pflanzen, die typisch für naturnahe Habitate sind, durch hohen Strukturreichtum oder extensive Nutzung. Der Report stammt vom Forschungsteam Jörg Müller (Universität Würzburg und Nationalpark Bayerischer Wald) in Kooperation mit der TU Dresden (Sebastian Seibold) und dem Nationalpark Berchtesgaden sowie der TU München (Annette Menzel, Ye Yuan) und der Universität Zürich (Torsten Hothorn). Die beteiligten Forschenden suchen gemeinsam nach neuen Erkenntnissen und Gegenstrategien zum Insektensterben.

So sind die neuen Erkenntnisse entstanden
Im Frühjahr 2022 fiel dem Würzburger Ökologieprofessor Jörg Müller auf, dass in Wald und Flur erstaunlich viele Insekten unterwegs waren. Das machte ihn stutzig – schließlich sind in den vergangenen Jahren immer mehr wissenschaftliche Studien erschienen, die ein weltweites Insektensterben belegten.

Die Studie, die für das größte Aufsehen sorgte, stammt von einer Gruppe um den niederländischen Forscher Caspar A. Hallmann aus dem Jahr 2017. Darin wurden Daten des Entomologischen Vereins Krefeld analysiert. Die Studie zeigte auf, dass die Insektenbiomasse in deutschen Naturschutzgebieten in den Jahren von 1989 bis 2016 um mehr als 75 Prozent abgenommen hat.

„Die Daten aus der Studie zeigen, dass es 2005 einen dramatischen Einbruch und in den Jahren danach keine Erholung mehr gab“, sagt Jörg Müller, der Professor für Tierökologie und ökologische Freilandforschung am Biozentrum der Julius-Maximilians-Universität Würzburg (JMU) ist. Konnte die von ihm „gefühlte“ große Insektenmenge des Jahres 2022 also real sein?

2022 ging es vielen Insekten relativ gut
Müller beschloss, der Sache auf den Grund zu gehen. Dafür tat sich sein Team mit Forscherkolleginnen und -kollegen der TU Dresden, der TU München und der Universität Zürich zusammen.

Zuerst galt es zu klären, ob es 2022 tatsächlich viel mehr Insektenbiomasse gab als üblich. Das bestätigte sich: „Wir fanden eine Biomasse, die im Mittel fast so hoch war wie die Maximalwerte aus der Hallmann-Studie. Und unser 2022er Maximalwert war höher als alle Werte, die Hallmann je ermittelt hatte – dieser Wert stammt übrigens aus dem Wald der Universität Würzburg“, sagt der JMU-Professor.

Daten der Hallmann-Studie neu analysiert
Diese Beobachtung veranlasste das Forschungsteam, die Daten aus der Hallmann-Studie neu zu analysieren. Dabei flossen neu aufbereitete Witterungsdaten ein, darunter Informationen über Temperaturen und Niederschläge während der Beprobung. Berücksichtigt wurden auch Witterungsanomalien (Abweichungen vom langjährigen Mittel) während der verschiedenen Phasen eines Insektenlebens – vom Ei über die Larve und die Puppe bis zu den erwachsenen Tieren.

Das Team stellte fest, dass für die Jahre ab 2005 für Insekten überwiegend negative Witterungseinflüsse herrschten. Mal war der Winter zu warm und trocken, mal das Frühjahr oder der Sommer zu kalt und nass. Dagegen war das Wetter 2022 durchgehend günstig für Insekten, und auch der Sommer davor war gut. Folglich erklärt dies die relativ hohe Insektenbiomasse von 2022.

Konsequenzen für die Zukunft
„Wir müssen uns viel stärker bewusstmachen, dass der Klimawandel bereits jetzt ein wichtiger Treiber für den Niedergang von Insektenpopulationen ist. Das muss in Wissenschaft und Naturschutzpraxis viel stärker mitgedacht werden“, sagt Annette Menzel, Professorin für Ökoklimatologie von der Technischen Universität München (TUM).

Um das Aussterberisiko bedrohter Arten unter diesen Rahmenbedingungen abzuschwächen, müssen die Flächen hochwertiger Lebensräume vergrößert werden. Daher sind die aktuellen Bestrebungen zum Insektenschutz noch dringender als bisher gedacht. Diese Gemeinschaftsaufgabe betreffe sowohl die Landwirtschaft als auch Verkehrs- und Siedlungsräume – also alle Gebiete, in denen hochwertige Lebensräume reduziert oder beeinträchtigt werden.

JMU-Professor Jörg Müller schlägt außerdem vor, ein Biomasse-Monitoring für ganz Deutschland zu etablieren. Damit könne man kontinuierlich messen, welchen Auf- und Ab-Trends die Insektenpopulationen unterworfen sind, und diese bei weiteren Analysen miteinbeziehen.

Förderer
Die beschriebenen Arbeiten wurden finanziell gefördert von der Deutschen Forschungsgemeinschaft, dem Bayerischen Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks bayklif, dem Bayerischen Staatsministerium für Umwelt und Verbraucherschutz im Projekt „Die Auswirkungen des Baumsterbens in Bayern 2018-2019 auf die Resilienz der Wälder und die biologische Vielfalt“ und dem Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten im Projekt „Auswirkungen waldbaulicher Eingriffe auf die Biodiversität – Neue Methoden erlauben neue Einblicke (L062)“.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Müller, Universität Würzburg und Nationalpark Bayerischer Wald, joerg.mueller@uni-wuerzburg.de

Originalpublikation:
Weather explains the decline and rise of insect biomass over 34 years. Nature, 27. September 2023, DOI: 10.1038/s41586-023-06402-z

(nach oben)


DIW- und TU-Forschende: Das LNG-Terminal vor Rügen ist überflüssig und klimaschädlich

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Experten des Deutschen Instituts für Wirtschaftsforschung (DIW) und der Technischen Universität Berlin kritisieren das geplante Rügener Terminal für Flüssigerdgas (LNG) in einer aktuellen Analyse als überflüssig und klimaschädlich.

Es gebe weder energiewirtschaftliche noch industriepolitische Argumente für die Entwicklung des LNG-Projekts Mukran. Die Landesregierung Mecklenburg-Vorpommern solle sich gegen das Industrieprojekt Mukran aussprechen, welches energiewirtschaftlich nicht notwendig sei, keine alternativen ökonomische Perspektiven im Bereich Wasserstoffwirtschaft biete und gleichzeitig die nachhaltige Wirtschaftsentwicklung auf Rügen gefährde, so das Fazit der wissenschaftlichen Studie, die die Deutsche Umwelthilfe in Auftrag gab. „Die Bundesregierung sollte den Ausbau der LNG-Infrastruktur stoppen und die verfügbaren Finanzmittel stattdessen für energiewende-kompatible Projekte verwenden“, sagt Mitautor Prof. Dr. Christian von Hirschhausen von der TU Berlin und dem DIW Berlin. Er und seine wissenschaftlichen Mitarbeitenden werden am 22. September 2023 auch vor Ort bei einer Infoveranstaltung auf der Insel Rügen sein.

Die Studie „Energiewirtschaftliche und industriepolitische Bewertung des Energie- und Industrieprojekts Mukran mit dem Bau von LNG-Infrastruktur und Pipelineanbindung nach Lubmin“:
https://www.diw.de/de/diw_01.c.881106.de/publikationen/politikberatung_kompakt/2…

Pressemitteilung der Deutschen Umwelthilfe:
https://www.duh.de/presse/pressemitteilungen/pressemitteilung/deutsche-umwelthil…

Weitere Informationen erteilt Ihnen gerne:
Stefanie Terp
Pressesprecherin der TU Berlin
Tel.: 030 314-23922
E-Mail: pressestelle@tu-berlin.de

(nach oben)


Neuer Ansatz für Test auf Long Covid: Blutgefäße im Auge verändert

Paul Hellmich Corporate Communications Center
Technische Universität München
Eine standardisierte Augenuntersuchung könnte in Zukunft verraten, ob Menschen unter dem Long-Covid-Syndrom beziehungsweise Post Covid leiden. Ein Team der Technischen Universität München (TUM) konnte einen deutlichen Zusammenhang zwischen der Erkrankung und bestimmten Veränderungen der Äderchen im Auge zeigen.

Zwischen zehn und 35 Prozent der Betroffenen leiden auch lange nach einer Corona-Erkrankung an Symptomen wie Atemproblemen oder Erschöpfung (Fatigue). Bislang sind keine körperlichen Merkmale, sogenannte Biomarker, bekannt, anhand derer sich eine Long-Covid-Erkrankung sicher diagnostizieren lässt.

Eines der Merkmale von Covid-19 sind Veränderungen der Blutgefäße. Betroffen ist hier insbesondere das Endothel, die Gefäßinnenwand. Durch die Veränderungen werden Organe nicht ausreichend mit Blut versorgt.

Kleine Blutgefäße wenig erforscht
Bislang wurden vor allem große Blutgefäße erforscht. „90 Prozent der Endothelzellen des Körpers befinden sich aber in kleinen und kleinsten Äderchen. Was mit diesen Blutgefäßen bei Long Covid geschieht, ist kaum bekannt“, sagt Studienleiter Prof. Christoph Schmaderer, Geschäftsführender Oberarzt in der Abteilung für Nephrologie des Klinikums rechts der Isar, Universitätsklinikum der TUM.

„Blutgefäße im Auge könnten einen Hinweis auf den Zustand der kleinen Blutgefäße im gesamten Körper bieten“, sagt Schmaderer. Sie seien für Untersuchungen leicht zugänglich, die notwendigen Verfahren und Geräte sind erprobt und erfordern keinen Eingriff in den Körper.

Äderchen sind verengt oder erweitern sich weniger
Im Fachmagazin „Angiogenesis“ schildern Schmaderer, Co-Studienleiter Dr. Timon Kuchler und ihr Team ihre Ergebnisse. Besonders zwei Werte zeigten einen starken Zusammenhang mit Long-Covid-Erkrankungen: Zum einen waren Arteriolen, also kleinste Arterien, im Vergleich zur gesunden Kontrollgruppe deutlich verengt. Zum anderen zeigten Venolen – nicht aber die Arteriolen – eine veränderte Reaktion auf Lichtreize. Leuchtet man mit einem flackernden Licht ins Auge, erweitern sich die Blutgefäße. Bei Patient:innen mit Long Covid war diese Reaktion deutlich verringert.

Je mehr Entzündungsmarker im Blut der Studienteilnehmenden gemessen wurden, desto ausgeprägter waren die Veränderungen. Anhaltende Entzündungsreaktionen sind Studien zufolge vermutlich ein weiterer wichtiger Faktor für Long Covid.

Weitere Studien notwendig
Da die Studie mit 41 teilnehmenden Erkrankten vergleichsweise klein ist und nur in einer einzelnen Klinik durchgeführt wurde, lässt sich aus den Ergebnissen noch kein zuverlässiger Test auf Long Covid ableiten. Aus Sicht der Forschenden sind weitere Studien notwendig um die Ergebnisse zu verifizieren. „Ich bin zuversichtlich, dass auf Grundlage unserer Ergebnisse ein Werkzeug entwickelt werden kann, um Long Covid sicher zu diagnostizieren“, sagt Christoph Schmaderer. „Wir gehen zudem davon aus, dass die Mikrozirkulation nicht nur im Auge, sondern auch in anderen Teilen des Körpers eingeschränkt ist. Dadurch könnte die Methode insbesondere dafür geeignet sein, um die Wirksamkeit zukünftiger Therapien für Long Covid zu beurteilen.“

Weitere Informationen:
Die Studie wurde unter dem Titel „All Eyes on PCS – Analyse der retinalen Mikrogefäßstruktur bei Patienten mit Post-COVID-19-Syndrom“ registriert und durch das Bayerische Staatsministerium für Wissenschaft und Kunst finanziert.

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1721005

Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Schmaderer
Klinikum rechts der Isar der Technischen Universität München
Abteilung für Nephrologie
christoph.schmaderer@mri.tum.de

Originalpublikation:
Kuchler, T., Günthner, R., Ribeiro, A. et al. Persistent endothelial dysfunction in post-COVID-19 syndrome and its associations with symptom severity and chronic inflammation. Angiogenesis (2023). https://doi.org/10.1007/s10456-023-09885-6

(nach oben)


Klimawandel und seine Bedeutung für unsere Flüsse: Infotag am 30. September in Eußerthal

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Der Klimawandel hinterlässt in Fließgewässern spürbare Auswirkungen. Dürren und Starkregen führen zu Wasserknappheit und Überschwemmungen, bedrohen die Biodiversität und beeinträchtigen Wasserressourcen für Mensch und Natur. Wie kann das Management der Fließgewässer aussehen, um sich diesen Veränderungen anzupassen und die Gewässer zu schützen? Einblick in diese Thematik gibt es beim Infotag „Klima. Wasser. Fisch.“ der Rheinland-Pfälzischen Technischen Universität (RPTU) an der Ökosystemforschung Anlage Eußerthal (EERES) am Samstag, den 30. September, von 11 bis 16 Uhr bei Vorträgen und Mitmachangeboten. Das Angebot ist kostenfrei. Bei schlechtem Wetter wird die Veranstaltung verschoben.

In Vorträgen stellen Experten der RPTU sowie der beteiligten Projektpartner aus den Bereichen Klimawandelforschung und Gewässerökologie aktuelle Forschungsthemen vor: Dabei geht es unter anderem um die Gesundheit von Gewässern und um das Vorkommen und den Einfluss von Schadstoffen darin, um die Austrocknung von Flüssen und die schwindende Verfügbarkeit von Wasser sowie um die Zunahme von Klimaextremen. Zudem spricht Sarah Oexle von der Fischereiforschungsstelle Baden-Württemberg (LAZ BW) über „Fische in der Klimakrise“ und darüber, wie unserer Gewässer „fit für die Zukunft“ gemacht werden. Die Veranstaltung richtet sich aber auch an Kinder verschiedener Altersstufen, die die Möglichkeit haben, sich bei einem Gewässer-Lauf mit der Ökologie von Fließgewässern zu befassen und bei einer Rallye heimische Fischarten kennenzulernen.

Die Veranstaltung findet im Rahmen des EU-Interreg-Projekt „RiverDiv“ statt, das sich mit den Auswirkungen des Klimawandels auf Fließgewässer befasst. Ziel ist es, ein nachhaltiges und im Zuge des Klimawandels angepasstes Management für die Wieslauter zu entwickeln, einem deutsch-französischen Grenzfluss, der im Pfälzer Wald entspringt und bei Lauterburg in den Rhein mündet. Eingebunden in das Vorhaben sind Partner aus Wissenschaft, Wasserversorgung und Angelfischerei.

„Mit dem Projekt möchten wir zudem die Öffentlichkeit für dieses wichtige Thema sensibilisieren, um in der Gesellschaft ein Bewusstsein für die bestehenden Herausforderungen des Klimawandels zu schaffen. Dazu werden wir auch künftig ähnliche Veranstaltungen wie den Infotag anbieten“, sagt Dr. Tanja Joschko, Projektleiterin und Geschäftsführerin von der Ökosystemforschung Anlage Eußerthal (EERES). Die Forscherinnen und Forscher von EERES befassen sich mit Gewässern und Biodiversität unter dem Einfluss des globalen Wandelns.

Beim Infotag gibt das Team auch Einblick in das RiverDiv-Projekt. Besucher können sich über die verschiedenen Inhalte des Vorhabens informieren und sich direkt vor Ort mit den Wissenschaftlern austauschen.

Infotag „Klima. Wasser. Fisch.“
Wann?: 11 bis 16 Uhr am Samstag, den 30. September
Wo?: Ökosystemforschung Anlage Eußerthal, Birkenthalstraße 13, 76857 Eußerthal
Weitere Infos unter: https://nuw.rptu.de/projekte/riverdiv/teilprojekte/wissensdialog-vernetzung-umse…

Kontakt
Dr. Hannah Chmiel
RiverDiv – Projektkoordination / RPTU in Landau
Telefon: +49 6341 280 32239
Email: hannah.chmiel@rptu.de

(nach oben)


Wie Kläranlagen zur Energiewende beitragen können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Versorgt man die Mikroorganismen, die in Kläranlagen das Wasser aufbereiten, zusätzlich mit etwas Wasserstoff und Kohlendioxid, stellen sie reines Methan her. Damit kommen Erdgasheizungen und -fahrzeuge klar, ohne dass es technischer Anpassungen bedarf. Die beiden Arbeitsgruppen der Ruhr-Universität Bochum von Dr. Tito Gehring bei Prof. Dr. Marc Wichern und Prof. Dr. Ulf-Peter Apfel haben gemeinsam ein technisches Zusatzmodul entwickelt, dass im Prinzip jede Kläranlage auf umweltfreundliche Weise zu einer CO2-Senke und dezentralen Methan-Erzeugungsanlage machen kann. Sie berichten in der Zeitschrift Cell Reports Physical Science vom 16. August 2023.

Schlechter Ruf, gute Eigenschaften
Methan hat als klimaschädliches Gas einen schlechten Ruf. Es bringt aber einige gute Eigenschaften mit, die es dazu befähigen, ein Baustein der Energiewende zu werden: Es ist leichter zu handhaben und besser zu speichern als Wasserstoff, weil die Moleküle größer sind und es daher weniger leicht flüchtig ist. Seine Energiedichte ist viermal höher als die von Wasserstoff, und es lässt sich ohne Anpassung in die vorhandene Erdgasinfrastruktur einspeisen. „Erdgasfahrzeuge oder -heizungen können ohne Schwierigkeiten mit Methan betrieben werden“, verdeutlicht Tito Gehring vom Lehrstuhl Siedlungswasserwirtschaft und Umwelttechnik. Er führt noch einen weiteren Vorteil des Gases gegenüber Wasserstoff an, der in südlichen, wasserarmen Gegenden hergestellt wird: Exportiert man ihn und nutzt ihn hier, hat man gleichzeitig auch Wasser exportiert. Dieses Problem hat man mit Methan nicht.

Methan kann durch Bakterien sehr effizient hergestellt werden und fällt zum Beispiel in Kläranlagen als Bestandteil von Biogas an. „Manche Kläranlagen gewinnen dadurch ihren eigenen Energiebedarf und sind somit energetisch autark“, erklärt Tito Gehring. Das Biogas enthält allerdings nur 60 Prozent Methan und verschiedene andere Stoffe. Hier kommt das Konzept der Bochumer Arbeitsgruppen ins Spiel: Damit hochkonzentriertes Methan entsteht, brauchen die Mikroorganismen neben CO2 auch Wasserstoff, der dem System zugeführt werden muss. Um ihn herzustellen, entwickelte die Gruppe um Ulf-Peter Apfel von der Arbeitsgruppe Technische Elektrochemie und der Abteilung Elektrosynthese des Fraunhofer UMSICHT eigens einen Elektrolyseur mit einem edelmetallfreien Katalysator, der langlebig und energieeffizient für die Wasserstoffzufuhr sorgt.

Einen Teil des benötigten Erdgases ersetzen
So versorgt produzieren die Bakterien in einem Zusatzmodul, das im Prinzip an jeder beliebigen Kläranlage funktioniert, ein Molekül Methan pro Molekül Kohlendioxid. Dabei verstoffwechseln sie nebenbei auch noch verschiedene Inhaltstoffe des Abwassers und benötigen dabei keine weiteren Nährstoffe. „Viele Kläranlagen sind ans Erdgasnetz angeschlossen und könnten das so erzeugte Methan einfach in die Versorgung einspeisen“, erklärt Tito Gehring.

Er sieht in Grünem Methan aus Kläranlagen einen von mehreren Bausteinen der Energiewende: „Erste Abschätzungen haben ergeben, dass allein durch die CO2-Bindung aus den Abgasen der Schlammbehandlung in Kläranlagen etwa 20 Liter Methan pro Tag und pro Einwohner gewonnen werden könnten.“ Würde man das tun, würde man auch dafür sorgen, dass weniger Methan als schädliches Klimagas in die Atmosphäre gelangt. Denn die Methanfreisetzung bei der Förderung von Erdgas, Öl und Kohle ist eine sehr wichtige Emissionsquelle für dieses Treibhausgas.

Förderung
Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft (Projektkennziffer: 445401355 – Etablierung einer nachhaltigen methanogenen Kohlendioxidreduktion in bioelektrochemischen Systemen und Identifizierung kinetischer und thermodynamischer Restriktionen).

Wissenschaftliche Ansprechpartner:
Dr. Tito Gehring
Siedlungswasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaft
Ruhr-Universität Bochum
Tel.: +49 234 32 22736
E-Mail: tito.gehring@ruhr-uni-bochum.de

Prof. Dr. Ulf-Peter Apfel
Technische Elektrochemie – Aktivierung kleiner Moleküle
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21831
E-Mail: ulf.apfel@ruhr-uni-bochum.de

Originalpublikation:
Ramineh Rad, Tito Gehring, Kevinjeorjios Pellumbi, Daniel Siegmund, Edith Nettmann, Marc Wichern, Ulf-Peter Apfel: A hybrid bioelectrochemical system coupling a zero-gap cell and a methanogenic reactor for carbon dioxide reduction using a wastewater-derived catholyte, in: Cell Reports Physical Science, 2023, DOI: 10.1016/j.xcrp.2023.101526, https://www.sciencedirect.com/science/article/pii/S2666386423003107?via%3Dihub

(nach oben)


Long-COVID: Besserung ist erreichbar, aber nicht bei allen Betroffenen

Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena
In einer Langzeitauswertung des Post-COVID-Zentrums am Universitätsklinikums Jena zeigten über 90% der mehr als 1000 betrachteten Patienten vielfache Langzeitsymptome nach einer COVID-19-Erkrankung. Weit über die Hälfte berichtete von Erschöpfung und Konzentrationsschwäche, die über die Zeit leicht abnahmen. Auch nach über einem Jahr leidet etwa ein Fünftel der Betroffenen an ME/CFS, einer durch Infektionen ausgelösten schweren neuroimmunologischen Erschöpfungserkrankung. Das Autorenteam betont, dass spezifische interdisziplinäre Therapiekonzepte und deren Evaluierung dringend notwendig sind.

Etwa fünf bis zehn Prozent der Menschen, die sich mit Sars-CoV2 infiziert hatten, leiden auch nach Monaten und sogar Jahren noch an Langzeitfolgen. Als eine der ersten Kliniken bundesweit richtete das Universitätsklinikum Jena (UKJ) eine spezielle Ambulanz für diese Patientinnen und Patienten ein. Mit Förderung des Freistaates Thüringen ist daraus ein interdisziplinäres die Post-COVID-Zentrum entstanden. „Mittlerweile haben sich knapp 3000 Erwachsene zu einer umfassenden Eingangsdiagnostik vorgestellt“, so PD Dr. Philipp Reuken, Oberarzt in der Klinik für Innere Medizin IV des UKJ. „Mit vielen vereinbaren wir in Abhängigkeit der Beschwerden und Vorbefunde Folgetermine, im Schnitt nach einem halben Jahr.“

Das Jenaer Post-COVID-Zentrum stellte jetzt eine Langzeitauswertung vor, in die die Daten von 1022 Patientinnen und Patienten aufgenommen werden konnten. Bei knapp der Hälfte davon wurde auch die Entwicklung bis zum Folgetermin betrachtet. Fast alle Betroffenen in der Studie beklagten mehrere Langzeitsymptome als Folge der Sars-CoV-2-Infektion. Am häufigsten gaben die Betroffenen neuropsychologische Symptome an: 80 Prozent litten an Fatigue, einer schweren Erschöpfung, zwei Drittel berichteten von Konzentrationsschwäche und über die Hälfte von Gedächtnisstörungen. Bei den körperlichen Symptomen überwogen Kopf- und Muskelschmerzen, Schlafstörungen, Kurzatmigkeit, Riech- und Schmeckstörungen.

Ein Fünftel der Long-COVID-Betroffenen leidet auch nach über einem Jahr an ME/CFS
Beim Folgetermin bekundeten viele Patientinnen und Patienten eine leichte Verbesserung, die bei Fatigue und der Konzentrationsfähigkeit am deutlichsten war. Die objektiven Screeningergebnisse für Fatigue, Depressionsanzeichen und Gedächtnisvermögen ergaben bei der zweiten Visite jedoch kaum Verbesserungen im Vergleich zum ersten Besuch. Aber 30 Prozent der Betroffenen erfüllten die vollständigen Kriterien für ME/CFS. Das Kürzel steht für das Krankheitsbild einer schweren neuroimmunologischen Erschöpfungserkrankung, die durch Virusinfektionen ausgelöst werden kann, und deren Krankheitsmechanismen kaum verstanden sind. Auch bei der zweiten Visite litt noch jeder fünfte unter ME/CFS, dabei lag die Infektion bereits deutlich über ein Jahr zurück.

Typisch für ME/CFS ist, dass sich der Zustand der Betroffenen nach Anstrengung deutlich verschlechtert. „Deshalb ist es für diese Patienten besonders wichtig, ihre physischen und mentalen Kräfte konsequent einzuteilen. Das als Pacing bezeichnete Konzept spielt eine zentrale Rolle bei der Therapie“, betont Philipp Reuken. „Long-COVID ist eine langwierige Erkrankung, eine Verbesserung ist erreichbar, aber nur langsam.“

Ein großes Problem ist, dass ein relevanter Anteil der Patienten nicht mehr arbeiten gehen kann bzw. in der Versorgungsarbeit in der Familie deutlich eingeschränkt ist. Das macht die soziale Dimension der Erkrankung deutlich. „Wir benötigen spezifische interdisziplinäre Therapiekonzepte und müssen diese in Studien evaluieren, um den Patientinnen und Patienten eine zielgerichtete, aber eben auch wirksame Behandlung anbieten zu können“, sagt Prof. Dr. Andreas Stallmach, der Leiter des Post-COVID-Zentrums am UKJ. Er ist einer der Tagungspräsidenten des 2. Long-COVID-Kongresses in Jena, der sich im November neben neuen Forschungsergebnissen zur Erkrankung vor allem mit der Teilhabe der Betroffenen am sozialen und Arbeitsleben beschäftigt.

Wissenschaftliche Ansprechpartner:
PD Dr. Philipp Reuken, Prof. Dr. Andreas Stallmach
Klinik für Innere Medizin IV, Post-COVID-Zentrum, Universitätsklinikum Jena
Tel.: +49 3641 9234504
E-Mail: Philipp.Reuken@med.uni-jena.de, Andreas.Stallmach@med.uni-jena.de

Originalpublikation:
Reuken, P.A., Besteher, B., Finke, K. et al. Longterm course of neuropsychological symptoms and ME/CFS after SARS-CoV-2-infection: a prospective registry study. Eur Arch Psychiatry Clin Neurosci (2023). https://doi.org/10.1007/s00406-023-01661-3

Weitere Informationen:
https://www.uniklinikum-jena.de/Post_COVID_Zentrum.html Interdisziplinäres Post-COVID-Zentrum am UKJ
https://long-covid-kongress.de 2. Long COVID-Kongress am 24.-25. November in Jena

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Glücklich durch den Job? Wie sich das Wohlbefinden beim Einstieg ins und Austritt aus dem Berufsleben verändert.

Lisa Schimmelpfennig Pressestelle
HMU Health and Medical University GmbH
Junge Erwachsene sind nach dem Berufseinstieg glücklicher, aber auch gestresster, während das Wohlbefinden bei älteren Personen nach dem Renteneintritt zunimmt. Das fanden die Psychologieprofessorinnen Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin in einer aktuellen Studie heraus.

Die Arbeit verleiht unserem Alltag Struktur und Sinn, kann aber auch stressig sein und unser Wohlbefinden belasten. Haben der Einstieg in und der Austritt aus dem Berufsleben also positive oder negative Folgen für unser Wohlbefinden? Das haben Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin untersucht.
Die Psychologinnen analysierten die Daten von über 2.700 jungen Erwachsenen und über 2.000 älteren Personen aus dem Sozio-oekonomischen Panel (SOEP), einer repräsentativen Langzeitstudie aus Deutschland. Ihre Ergebnisse zeigen, wie sich einzelne Facetten des Wohlbefindens in den fünf Jahren vor und fünf Jahren nach dem Einstieg in und Austritt aus dem Berufsleben verändern.
Die Wissenschaftlerinnen fanden heraus, dass Berufseinsteigende in den ersten fünf Jahren im Job glücklicher wurden, sich gleichzeitig aber auch häufiger ärgerten, vermutlich aufgrund von vermehrtem Stress. Bei älteren Erwachsenen nahm das Wohlbefinden in den fünf Jahren vor dem Ruhestand zunächst ab. In den Jahren danach waren sie jedoch zufriedener, glücklicher, weniger ängstlich und weniger oft verärgert als zuvor, was für eine Entlastung nach dem Renteneintritt spricht.
Zusammengefasst untermauern die Befunde, dass das Arbeitsleben tatsächlich ein zweischneidiges Schwert ist, das unser Wohlbefinden sowohl verbessern als auch verschlechtern kann.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Asselmann
Professur für Differentielle und Persönlichkeitspsychologie
E-Mail: eva.asselmann@health-and-medical-university.de

Originalpublikation:
Asselmann, Eva und Specht, Jule (2023): “Working life as a double-edged sword: Opposing changes in subjective well-being surrounding the transition to work and to retirement”, Emotion, DOI: https://doi.org/10.1037/emo0001290

(nach oben)


Wasser mit intelligentem Rost und Magneten reinigen

Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Neue Methode für Schadstoffe wie Rohöl, Glyphosat, Mikroplastik und Hormone

Wird Rost ins Wasser geschüttet, wird es normalerweise schmutziger. Forscher/-innen der FAU haben spezielle Eisenoxid-Nanopartikel entwickelt, die es tatsächlich sauberer machen, sozusagen „intelligenter Rost“. Dieser Rost kann je nach Beschichtung der Partikel viele Stoffe anziehen, darunter Öl, Nano- und Mikroplastik sowie das Herbizid Glyphosat. Und weil die Nanopartikel magnetisch sind, können sie mit einem Magneten ganz einfach zusammen mit den Schadstoffen aus dem Wasser entfernt werden. Jetzt berichtet das Forschungsteam, dass sie die Partikel so verändert haben, dass sie Östrogenhormone einfangen, die potenziell schädlich für Wasserlebewesen sind.

Ihre Ergebnisse haben die Forscher auf der Herbsttagung der American Chemical Society (ACS) vorgestellt, die rund 12.000 Präsentationen zu einem breiten Spektrum wissenschaftlicher Themen bietet.

„Unser intelligenter Rost ist billig, ungiftig und recycelbar“, sagt Prof. Dr. Marcus Halik, Lehrstuhl für Werkstoffwissenschaften (Polymerwerkstoffe). „Und wir haben den Einsatz bei allen Arten von Verunreinigungen nachgewiesen und das Potenzial dieser Technik für eine drastische Verbesserung der Wasseraufbereitung aufgezeigt.“

Nanopartikel fangen Schadstoffe ein
Seit vielen Jahren erforscht Haliks Forschungsteam umweltfreundliche Möglichkeiten, Schadstoffe aus Wasser zu entfernen. Als Grundmaterial dienen Eisenoxid-Nanopartikel in superparamagnetischer Form: Das heißt, sie werden von Magneten angezogen, nicht aber voneinander, so dass die Partikel nicht verklumpen.

Um sie „intelligent“ zu machen, entwickelte das Team eine Technik, um Phosphonsäuremoleküle an die nanometergroßen Kügelchen zu binden. „Nachdem wir eine Schicht der Moleküle auf die Eisenoxidkerne aufgetragen haben, sehen sie aus wie Haare, die aus der Oberfläche dieser Partikel herausragen“, sagt Halik. Indem die Wissenschaftler/-innen dann ändern, was an der anderen Seite der Phosphonsäuren gebunden ist, können sie die Eigenschaften der Nanopartikeloberflächen so anpassen, dass sie verschiedene Arten von Schadstoffen stark adsorbieren.

Frühe Versionen des intelligenten Rosts fingen Rohöl aus Wasser aus dem Mittelmeer und Glyphosat aus Teichwasser ein, das die Forscherinnen und Forscher in der Nähe der Universität sammelten. Darüber hinaus zeigte das Team, dass der smarte Rost Nano- und Mikroplastik entfernen kann, das Labor- und Flusswasserproben zugesetzt wird.

Nach Rohöl, Glyphosat und Mikroplastik nun Hormone
Bisher konzentrierte sich die Gruppe auf Schadstoffe, die meist in großen Mengen vorhanden sind. Lukas Müller, ein Doktorand, der auf der Tagung seine neuen Arbeiten vorstellte, wollte wissen, ob er die Rost-Nanopartikel so modifizieren könnte, dass sie Spurenverunreinigungen wie Hormone anziehen.

Wenn einige unserer körpereigenen Hormone ausgeschieden werden, werden sie ins Abwasser gespült und gelangen schließlich in die Gewässer. Natürliche und synthetische Östrogene sind eine solche Gruppe von Hormonen, und die Hauptquellen dieser Schadstoffe sind Abfälle von Menschen und Nutztieren. Die Mengen an Östrogenen seien in der Umwelt sehr gering, so Müller, daher seien sie nur schwer zu entfernen. Doch selbst diese Konzentrationen beeinflussen nachweislich den Stoffwechsel und die Fortpflanzung einiger Pflanzen und Tiere, obwohl die Auswirkungen niedriger Konzentrationen dieser Verbindungen auf den Menschen über lange Zeiträume noch nicht vollständig erforscht ist.

Östrogene haften an Rostpartikeln an
„Ich habe mit dem häufigsten Östrogen Östradiol begonnen und dann vier weitere Derivate mit ähnlichen Molekülstrukturen untersucht“, sagt Müller. Östrogenmoleküle haben einen sperrigen Steroidkörper und Teile mit leicht negativen Ladungen. Um beide Eigenschaften zu nutzen, beschichtete er Eisenoxid-Nanopartikel mit zwei Gruppen von Verbindungen: einer langen und einer positiv geladenen. Die beiden Moleküle organisierten sich auf der Oberfläche der Nanopartikel, und die Forschungsgruppe geht davon aus, dass sie zusammen viele Milliarden winziger Taschen bilden, die das Östradiol ansaugen und an Ort und Stelle festhalten.

Da diese Taschen für das bloße Auge unsichtbar sind, hat Müller High-Tech-Instrumente verwendet, um die Existenz dieser Östrogen-einschließenden Taschen zu überprüfen. Vorläufige Ergebnisse zeigen eine effiziente Extraktion der Hormone aus Laborproben, aber die Forschenden müssen zusätzliche Experimente abwarten, um die Taschenhypothese zu überprüfen. „Wir versuchen anhand verschiedener Puzzleteile zu verstehen, wie sich die Moleküle tatsächlich auf der Oberfläche der Nanopartikel anordnen“, erklärt Müller.

Ansprechpartner für Medien:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de

Weitere Informationen:
http://www.fau.de/2023/08/news/wissenschaft/wasser-mit-intelligentem-rost-und-ma… Video zu den Forschungsergebnissen (Simulation von Prof. Dr. Dirk Zahn und Dr. Dustin Vivod vom Computer Chemistry Center der FAU)

(nach oben)


Forschungsprojekt für nachhaltigen Wasserverbrauch sucht Testhaushalte

Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT
Die Nutzung von Wasser überwachen, Sparpotenziale aufzeigen und die Verwendung von Regenwasser erforschen: Mit diesen Zielen leitet Fraunhofer FIT das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Projekt CrowdWater. Zweck des Projekts ist die Entwicklung einer regionalen Wasser-Datenplattform für die private, öffentliche sowie gewerbliche Nutzung. Für die Erarbeitung praxisnaher Lösungen werden aktuell etwa 30 Testhaushalte gesucht.

>>Wasser bewusst nutzen
Noch gibt es in Deutschland ausreichend Trinkwasser. Doch das Land trocknet infolge der globalen Erderwärmung langsam aus. Die Grundwasserbestände sinken. Ein Grund dafür ist nach Einschätzung des Umweltbundesamts die abnehmende Aufnahme- und Speicherfähigkeit des Erdbodens infolge von starken Klimaereignissen. Die genaue Entwicklung und ihre Folgen für bestimmte Gebiete lassen sich aktuell noch schwer abschätzen, da es keine präzise Informationslage über Wassermengen und den Einfluss von Sparmaßnahmen auf ausgewählte Regionen gibt.

Hier setzt das Projekt CrowdWater (Crowdbasiertes Monitoring und Vorhersage für nachhaltige Regen- & Trinkwassernutzung) an, indem es Sensordaten zum Kreislauf der Wassernutzung erfasst und verarbeitet. Ein umfassendes Monitoring in Echtzeit ermöglicht, dass Haushalte ihren Wassereinsatz erfolgreich planen und Wartungsarbeiten in Versorgungsunternehmen nutzengerechter durchgeführt werden können. Mit einem Angebot an Veranstaltungen und Lehrmaterialien wird CrowdWater darüber hinaus ein Grundverständnis von nachhaltiger Wassernutzung vermitteln, welche auch verfügbares Regenwasser mit einbezieht.

Zur Strategie des Projekts gehört die Verknüpfung intelligenter Messgeräte mit digitalen Werkzeugen. Innerhalb eines vielfältigen IoT-Netzwerks (Internet of Things oder Internet der Dinge) sollen zukünftig der genaue Bedarf an Wasser bestimmt und eventuelle Verluste identifiziert werden können. Dies gelingt unter anderem durch die Berücksichtigung aktueller Wetterdaten. Um den Verbrauch der lebenswichtigen Ressource in betrieblichen Prozessen zu ermitteln, sollen mobile Messkoffer zum Einsatz kommen.

>>Interaktiver Lösungsansatz dank Living Lab
Das Erfahrungswissen und die Lebenswirklichkeit von Verbraucherinnen und Verbrauchern spielen eine zentrale Rolle in der Erforschung ihrer Wassernutzung. CrowdWater möchte deshalb rund 30 Testhaushalte und drei bis sechs Unternehmen in einem Living Lab vernetzen. Ein Living Lab ist ein virtuelles Labor zur Forschung unter Realbedingungen. Die ausgewählten Haushalte werden mit entsprechender Sensorik ausgestattet, um Daten über die Umsetzbarkeit der Werkzeuge zu erheben und Anreizmechanismen zum Wassersparen zu testen.

Als Teilnehmende am Living Lab sollten Sie sich idealerweise für die Erforschung nachhaltiger Regen- und Trinkwassernutzung interessieren und zu einer aktiven Mitgestaltung bereit sein. Weiterhin werden vorwiegend Haushalte aus dem Rhein-Sieg-Kreis oder Nordrhein-Westfalen gesucht. Bei Interesse oder auch allgemeinen Fragen zum Projekt können Sie sich an unsere Living Lab Koordinatorin Anika Martin (anika.martin@fit.fraunhofer.de) wenden.

>>Breit gefächerte Beteiligung
Sowohl kommunale als auch wirtschaftliche Projektpartnerschaften bereichern CrowdWater mit Expertise und Ressourcen. Um das wichtige Thema Datenschutz sowie die Organisation der Living Labs kümmert sich das Fraunhofer-Institut für Angewandte Informationstechnik FIT. Die Stadtwerke Troisdorf, die Stadt Hennef und die Verbandsgemeindewerke Kirchen stellen sich für die praktische Umsetzung der Wassersparmaßnahmen zur Verfügung. Daran beteiligt ist auch die Biesenthal Wasserzähler GmbH, die mit den behördlichen Partnern technische Anforderungen herausarbeitet. Sie unterstützt deren Machbarkeitsuntersuchung und kooperiert so mit Fraunhofer FIT und der si-automation GmbH. Ebenfalls im Aufgabenbereich der si-automation GmbH liegt die Entwicklung und Testung vorläufiger Lösungen.

Weitere Informationen zum Projekt und aktuelle Infos finden Sie unter https://crowdwater.info

(nach oben)


Babyboomer arbeiten im Alter länger – aber noch Potenzial ab Alter 63

Dr. Christian Fiedler Pressestelle
Bundesinstitut für Bevölkerungsforschung (BiB)
Ältere Menschen länger im Erwerbsleben zu halten ist eine wesentliche Stellschraube, um dem Arbeitskräftemangel in Deutschland zu begegnen. Eine aktuelle Studie im renommierten Fachjournal Demography aus dem Bundesinstitut für Bevölkerungsforschung (BiB) in Zusammenarbeit mit dem Max-Planck-Institut für demografische Forschung (MPIDR) hat jetzt neue Berechnungen zur tatsächlich geleisteten Arbeitszeit älterer Personen vorgelegt. Das Ergebnis: In der Altersspanne zwischen 55 und 64 Jahren verbringen die Babyboomer deutlich mehr Zeit in bezahlten Jobs als dies in früheren Generationen der Fall war.

Bei einer für diese Altersgruppe rechnerisch maximal möglichen Erwerbsdauer von 10 Jahren in durchgehender Vollzeitbeschäftigung waren 1941 geborene Männer im Durchschnitt 5,3 Jahre erwerbstätig. Beim Geburtsjahrgang 1955, der zu den Babyboomern gehört, lag der entsprechende Wert mit 7,3 Jahren bereits zwei Jahre höher. Bei Frauen gab es fast eine Verdopplung von 2,6 auf 4,8 Jahre. In der ebenfalls betrachteten Altersspanne 65 bis 74 Jahre wurden ausgehend von einem niedrigen Niveau ebenfalls Anstiege verzeichnet. „Ein Großteil der in den letzten Jahrzehnten erfolgten Zuwächse konzentriert sich allerdings in den Altern 55 bis 63 Jahre“, erklärt Sebastian Klüsener, Forschungsdirektor am BiB. „Ab 64 Jahren sind die Anstiege deutlich geringer gewesen.“

Steigende Erwerbslebensdauer in allen betrachteten Gruppen
Wie aus der Studie weiter hervorgeht, ist die Erwerbslebensdauer bei allen untersuchten Gruppen gestiegen: bei Männern und Frauen, über alle Bildungs- und Berufsgruppen hinweg sowie für Erwerbstätige in Ost- und in Westdeutschland. Die geringsten Zuwächse wurden bei niedrigen Bildungs- und Berufsgruppen verzeichnet, die stärksten bei Fachkräften und gehobenen Fachkräften. Vor allem bei Menschen, die nach 1946 geboren wurden, hat sich die Erwerbslebensdauer kräftig verlängert. „Diese Entwicklung wird durch verschiedene Faktoren beeinflusst“, so Klüsener. „Hierzu zählen politische Reformen im Bereich von Arbeitsmarkt und Rente. Ein weiterer Faktor ist, dass die Babyboomer als Profiteure der nach 1970 erfolgten Bildungsexpansion ein höheres Bildungsniveau aufweisen und gesünder altern als vorherige Generationen.“

Bei den Geschlechtern gibt es starke Ost-West-Unterschiede
Bei einem Ost-West-Vergleich fallen deutliche Unterschiede zwischen Männern und Frauen auf: Bei den 1955 geborenen Personen hatten westdeutsche Männer mit 7,4 Jahren die höchste Erwerbslebensdauer im Alter zwischen 55 und 64 Jahren. Dagegen war diese bei westdeutschen Frauen mit 4,6 Jahren am niedrigsten. Zwischen den beiden Extremen lagen ostdeutsche Männer mit 6,8 Jahren und ostdeutsche Frauen mit 5,5 Jahren. „Die Unterschiede zwischen west- und ostdeutschen Männern gehen hauptsächlich auf abweichende Erwerbstätigenquoten zurück“, sagt Elke Loichinger, Forschungsgruppenleiterin am BiB. „Die Differenzen bei den Frauen erklären sich hingegen vorrangig durch Unterschiede bei den geleisteten Arbeitsstunden.“ So haben ältere westdeutsche Frauen zwar ähnlich hohe Erwerbstätigenquoten wie ältere ostdeutsche Frauen, letztgenannte absolvieren aber durchschnittlich deutlich mehr Stunden pro Woche. Hier scheint sich positiv auszuwirken, dass in den betrachteten Generationen ostdeutsche Frauen schon von einer gut ausgebauten Kinderbetreuung profitieren konnten, während viele westdeutsche Frauen mit der Mutterschaft ihre Arbeitszeit erheblich reduzierten.

Weiteres Potenzial für Anstiege vorhanden
Die ermittelten Werte zur durchschnittlichen Erwerbslebensdauer zeigen aber auch, dass weitere Potenziale für die Ausdehnung der Erwerbslebensdauer bestehen. Dies gilt allgemein für Erwerbstätigkeit im Alter von 63 und mehr Jahren und besonders für Frauen, gerade in Westdeutschland. „Ob diese Potenziale erschlossen werden können, hängt davon ab, inwieweit ein Verbleib im Arbeitsmarkt attraktiv und möglich ist“, so Loichinger. „Dabei spielt eine Vielzahl an Faktoren eine Rolle. Hierzu zählen beispielsweise arbeitsmarktpolitische Anreize, die Art der Tätigkeit oder die Flexibilität der Arbeitszeitgestaltung. Auch die Ausübung unbezahlter Sorgearbeiten innerhalb der Familie kann bezahlter Erwerbsarbeit entgegenstehen.“

Zur Methode
Das in Deutschland bisher nur selten verwendete Maß „Erwerbslebensdauer“ basiert auf einer Kombination von Erwerbstätigkeit und geleisteter Arbeitszeit – es gibt die Anzahl der Jahre an, in denen jemand einer bezahlten Tätigkeit nachgegangen ist. Ob Voll- oder Teilzeit gearbeitet wird, macht hier einen wichtigen Unterschied. Das Maß erlaubt, die Dauer des Erwerbslebens für den gesamten Lebensverlauf (in diesem Fall ist auch von „Lebensarbeitszeit“ die Rede) oder nur für bestimmte Altersabschnitte zu berechnen. Dies ermöglicht Einsichten zur Verlängerung des Erwerbslebens, die über die übliche Betrachtung der reinen Erwerbstätigenquoten hinausgehen. Für die Untersuchung wurden Daten des Mikrozensus der Geburtsjahrgänge 1941 bis 1955 analysiert.

Wissenschaftliche Ansprechpartner:
Dr. Sebastian Klüsener
Sebastian.Kluesener@bib.bund.de

Dr. Elke Loichinger
Elke.Loichinger@bib.bund.de

Originalpublikation:
Dudel, Christian; Loichinger, Elke; Klüsener, Sebastian; Sulak, Harun; Myrskylä, Mikko (2023): The Extension of Late Working Life in Germany: Trends, Inequalities, and the East–West Divide.Demography.
https://doi.org/10.1215/00703370-10850040

(nach oben)


Dieselabgase schädigen Insekten: Bayreuther Tierökolog*innen erforschen erstmals die Auswirkungen auf Hummeln

Christian Wißler Pressestelle
Universität Bayreuth
Der Rückgang der Insekten bedroht weltweit viele Ökosysteme. Während die Auswirkungen von Pestiziden gut erforscht sind, fehlte es bisher an Erkenntnissen über die Folgen anderer anthropogener Schadstoffe. Tierökolog*innen der Universität Bayreuth haben jetzt erstmals die Auswirkungen von Dieselabgaspartikeln auf Hummeln untersucht. In zwei neuen Studien zeigen sie, dass diese Feinstaubpartikel den Organismus der Hummeln erheblich schädigen können, wenn sie dauerhaft über die Nahrung aufgenommen werden. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat die Forschungsarbeiten im Rahmen des Projektverbunds BayÖkotox gefördert.

Abgaspartikel von Diesel-Kraftfahrzeugen können beim Menschen zu Atemwegs- oder Lungenerkrankungen führen. In der freien Natur gelangen sie oftmals in den Nektar von Pflanzenblüten, von dem sich Hummeln und andere Insekten ernähren. Die Wissenschaftler*innen am Lehrstuhl für Tierökologie der Universität Bayreuth haben diese Konstellation im Labor nachgestellt. Als Modellorganismus wählten sie Hummeln der weit verbreiteten Art Bombus terrestris (Dunkle Erdhummel). In Kooperation mit dem Lehrstuhl für Technische Thermodynamik und Transportprozesse der Universität Bayreuth erzeugten sie in einem Vierzylinder-Dieselmotor, wie er häufig in PKWs vorkommt, Abgaspartikel, die durch Verbrennungsprozesse entstehen. Diese Partikel wurden dem Zuckerwasser beigemischt, mit dem die Hummeln im Labor täglich gefüttert wurden. Die Menge entsprach dabei der Menge von Dieselabgaspartikeln, wie sie bereits in Böden in der Nähe vielbefahrener Landstraßen nachgewiesen worden waren. Die Analyse der Partikel in den Bayreuther Laboratorien zeigte jetzt, dass sie teilweise aus elementarem Kohlenstoff bestehen, aber auch Schwermetalle und weitere organische Substanzen, wie polyzyklische aromatische Kohlenwasserstoffe (PAKs), enthalten. PAKs stehen im Verdacht, für den Menschen toxisch zu sein und die Entstehung von Krebs zu fördern.

Veränderungen des Mikrobioms im Darm: Indizien für eine Schwächung des Immunsystems
Nachdem die Hummeln sieben Tage lang bei jeder Mahlzeit auch Abgaspartikel zu sich genommen hatten, stellten die Wissenschaftler*innen eine erheblich veränderte Zusammensetzung des Darmmikrobioms fest: Von den Bakterienarten, welche normalerweise die hauptsächlichen Bestandteile der Darmflora von Hummeln bilden, waren einige viel häufiger, andere dagegen seltener anzutreffen. Insbesondere das Bakterium Snodgrassella, das für die Bildung eines den Darm schützenden Biofilms wichtig ist, war nur noch in sehr geringer Anzahl vorhanden. Derartige Veränderungen im Darmmikrobiom sind in der Forschung dafür bekannt, dass sie bei Insekten die Immunität und die Resistenz gegen Krankheitserreger schwächen können und damit deren Sterblichkeit erhöhen.

Sinkender Fettgehalt des Körpers und erhöhte Sterblichkeit
In einer weiteren Studie stand die Frage im Fokus, wie sich die Partikel auf das Immunsystem der Insekten auswirken. Zehn Tage lang nahmen die Hummeln Abgaspartikel zu sich, die dem Zuckerwasser in unterschiedlich hohen Konzentrationen beigemischt waren. Danach war ihr Fettgehalt im Vergleich mit Hummeln, die normales Futter erhielten, erheblich gesunken. „Der verringerte Fettgehalt ist ein Indiz dafür, dass die Partikel im Körper der Hummeln Entgiftungsprozesse auslösen, die mit einem erhöhten Energieverbrauch verbunden sind. Auch diese Untersuchungen legen die Schlussfolgerung nahe: Die tägliche Aufnahme von Abgaspartikeln über die Nahrung versetzt den Organismus der Hummeln in Stress. Wir haben beobachtet, dass sich ihre Sterblichkeit signifikant erhöht“, sagt der Erstautor Frederic Hüftlein M.Sc., Doktorand am Lehrstuhl für Tierökologie.

Veränderungen der Genexpression: Weiteres Indiz für eine energieintensive Stressreaktion
Ebenso zeigten sich deutliche Veränderungen der Genexpression, der von Genen gesteuerten Herstellung lebenswichtiger Proteine. Die Analyse des Transkriptoms – dies ist die Gesamtheit der zu einem bestimmten Zeitpunkt erzeugten RNA-Moleküle – ergab, dass sich die Expression von 324 Genen verändert hatte. Die Produktion von RNA-Molekülen wurde bei 165 Genen intensiviert, bei 159 Genen hingegen verringert. Die beobachteten Veränderungen können als Indizien dafür gewertet werden, dass die über einen längeren Zeitraum mit der Nahrung aufgenommenen Abgaspartikel Abbauprozesse im Organismus der Hummeln fördern, Prozesse der Biosynthese hingegen verlangsamen.

„Vieles spricht dafür, dass es sich bei der veränderten Genexpression um eine Stressreaktion handelt, welche die Energieressourcen der Insekten angreift und schwächt. An der Universität Bayreuth planen wir in nächster Zeit weitere Untersuchungen, um diese Zusammenhänge noch genauer aufzuklären. Dabei wollen wir nicht nur einzelne Insekten, sondern ganze Kolonien betrachten und zusätzlich zu den Dieselabgasen noch andere anthropogene Stressfaktoren in die Forschungsarbeiten einbeziehen“, sagt Prof. Dr. Heike Feldhaar, Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“ im Bayerischen Projektverbund BayÖkotox.

Schädigende Auswirkungen nur bei chronischer Aufnahme der Partikel über die Nahrung
Die Autor*innen der neuen Studien betonen, dass sich erhebliche Beeinträchtigungen der Hummeln durch Dieselabgase nur dann feststellen ließen, wenn die Partikel über die Nahrung aufgenommen wurden. Experimente, bei denen die Partikel von den Hummeln eingeatmet wurden, ergaben keine Hinweise auf gesundheitliche Schäden. „Wenn die Hummeln einmalig oder nur im Verlauf von 48 Stunden mehrmals mit den Partikeln gefüttert wurden, blieben messbare signifikante Reaktionen aus. Auch der Fettgehalt im Körper der Hummeln änderte sich kaum. Entscheidend für eine Schädigung der Hummeln ist, dass die Aufnahme der Abgaspartikel chronisch ist, sich also innerhalb eines längeren Zeitraums wiederholt. Wenn Pflanzen und Böden belastet sind, ist eine chronische Exposition mit den Schadstoffen denkbar“, berichtet Dr. Matthias Schott vom Lehrstuhl für Tierökologie.

Die Autor*innen weisen zudem darauf hin, dass unter natürlichen Bedingungen auch eine nicht-tödliche Wirkung der Abgaspartikel für Hummeln problematisch sein kann. Denn meistens sind Hummeln in der Umwelt mehreren Stressfaktoren gleichzeitig ausgesetzt, beispielsweise weiteren Umweltschadstoffen wie Pestiziden oder auch hohen Tagestemperaturen im Sommer.

Interdisziplinäre Zusammenarbeit in Bayreuth
„Seit etwa zehn Jahren ist in zahlreichen Regionen der Erde ein rascher Rückgang der Insekten zu beobachten. Diese Entwicklung ist besorgniserregend, weil Insekten viele wichtige Ökosystemfunktionen wie Bestäubung, Zersetzung von organischem Material und Schädlingsbekämpfung erfüllen oder dazu beitragen. Sie bilden zudem ein unentbehrliches Glied in den Nahrungsnetzen. Mittlerweile ist klar, dass die Umweltverschmutzung einer der Hauptgründe für diesen Rückgang ist. An der Universität Bayreuth wollen wir mit unseren Kompetenzen dazu beitragen, die Zusammenhänge von Ursachen und Wirkungen auch auf molekularer und zellbiologischer Ebene aufzuklären“, sagt Prof. Dr. Christian Laforsch vom Lehrstuhl für Tierökologie und verweist auf die enge interdisziplinäre Zusammenarbeit im Projekt BayÖkotox.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Heike Feldhaar
Lehrstuhl für Tierökologie I
Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“
im Projektverbund BayÖkotox
Universität Bayreuth
Telefon: +49 (0)921 / 55-2645
E-Mail: heike.feldhaar@uni-bayreuth.de

Dr. Matthias Schott
Lehrstuhl für Tierökologie I
Universität Bayreuth
Telefon: +49 (0)921 / 55-2654
E-Mail: matthias.schott@uni-bayreuth.de

Originalpublikation:
Dimitri Seidenath et al.: Diesel exhaust particles alter gut microbiome and gene expression in the bumblebee Bombus terrestris. Ecology and Evolution (2023), DOI: https://doi.org/10.1002/ece3.10180

Frederic Hüftlein et al.: Effects of diesel exhaust particles on the health and survival of the buff-tailed bumblebee Bombus terrestris after acute and chronic oral exposure. Journal of Hazardous Materials (2023), DOI: https://doi.org/10.1016/j.jhazmat.2023.131905

(nach oben)


Pflege vor dem Kollaps? – 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege

Dr. Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Pflege vor dem Kollaps? PRO*PFLEGE und die Digitalisierung stehen bei der 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege am 6. und 7. November an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen als Lösungen für die Gesundheit von Pflegefachpersonen zur Diskussion.

Die pflegerische Versorgung ist deutschlandweit gefährdet. Oft gehen Pflegefachpersonen bis an ihre Grenzen, um den verbreiteten Personalmangel aufzufangen. Dabei sind sie hohen gesundheitlichen Belastungen ausgesetzt. Innovative und professionelle Lösungen, die Handlungswege aufzeigen und ihre Gesundheit stärken, sind zwingend erforderlich.

Die 3. Fachtagung Gesundheitsförderung und Prävention stellt erneut Wege für die Pflege vor. Unter dem Motto ‚Wollen wir Treiber oder Getriebene sein?‘ wird am 6. und 7. November 2023 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen (HWG LU) gezeigt, dass Pflegeethik, Gesundheitsförderung und Professionalität im Zusammenspiel mit der Digitalisierung helfen können. Sie ermöglichen Pflegefachpersonen, ihren Heilberuf Pflege selbst zu gestalten. Das Forschungsnetzwerk Gesundheit der HWG LU hat Expert*innen aus Politik, Wissenschaft, Management und IT eingeladen, mit den Pflegefachpersonen in die Diskussion zu gehen.

Die Tagungsreihe ist ein Beitrag zur Fachkräfte- und Qualifizierungsinitiative Pflege 2.1 des Landes Rheinland-Pfalz, angesiedelt im Ministerium für Arbeit, Soziales, Transformation und Digitalisierung. Staatsminister Alexander Schweizer wird sich in seinem Grußwort der Digitalisierung in der Pflege widmen. Staatssekretär Dr. Fedor Ruhose wird zum Abschluss des vom Land geförderten Pilotprojektes PRO*PFLEGE sprechen. „Wir freuen uns sehr, dass die Fachtagung wieder an unserer Hochschule stattfindet und Innovation und Wertschätzung für die Pflege in den Fokus stellt“, betont Prof. Dr. Gunther Piller, Präsident der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen.

Die beiden Tage zeigen zwei eng miteinander verwobene Bausteine zur Förderung der Gesundheit. Am ersten Tag liegt der Fokus auf PRO*PFLEGE. Die Ergebnisse der erfolgreichen Fachtagungen 2019 und 2020 ergaben den dringenden Bedarf eines passgenauen Bildungsformats. PRO*PFLEGE verbindet Pflegeethik, Gesundheitsförderung und Professionalität. Der Zertifikatskurs bietet Pflegefachpersonen mannigfaltige Ressourcen zur Steigerung ihrer Handlungsfähigkeit und der Resilienz im Pflegeunternehmen. Gefördert vom Land Rheinland-Pfalz, der Unfallkasse RLP und der Franziskusstiftung für Pflege entwickelte das Forschungsnetzwerk Gesundheit mit Unterstützung der Graduate School Rhein-Neckar PRO*PFLEGE. Im April 2023 startete der Pilotdurchlauf, hochqualifizierte Expert*innen konnten als Kooperationspartner gewonnen werden. An diesem Tag geben sie Einblicke in Instrumente zum Umgang mit psychischer Belastung und Gewalt in der Pflege und zeigen die Ressourcen, die Pflegeethik, Personal- und Organisationsentwicklung und das Betrieblichen Gesundheitsmanagement bieten. Kursteilnehmende stellen ihre entwickelten Konzepte zum Gesundheitsförderung im Pflegeunternehmen vor.

Der zweite Tag schließt unmittelbar an den Unterstützungsgedanken an: Beleuchtet wird das Megathema Digitalisierung in der Pflege und hinterfragt, ob sie Herausforderung oder Chance für die Gesundheit von Pflegefachpersonen ist. Förderer ist die Unfallkasse Rheinland-Pfalz. Fachleute aus Pflegewissenschaft, Pflegepädagogik und IT in der Pflege werden Projekte, Studien und Tools für die Pflege vorstellen. Zur Diskussion stehen, inwiefern die Digitalisierung Einfluss auf Arbeitszufriedenheit und Berufsverbleib von Pflegefachpersonen hat; ob digitale Technologien die Pflegepraxis beispielsweise bei der Versorgung vom Menschen mit Demenz unterstützen können, ohne die Beziehungsarbeit zu verdrängen; ob digitale Lernformate die Pflegebildung fördern können und ob die Pflegebeziehung durch die Nutzung digitaler Instrumente im Pflegeprozess gestärkt wird. Auf dem Marktplatz der Möglichkeiten können die digitalen Lösungen ausprobiert und mannigfaltige Informationen rund um die Themen Gesundheitsförderung, Prävention und Digitalisierung eingeholt werden.

„Mit dieser dritten Fachtagung geben wir der professionellen und gesunden Pflege die verdiente Bedeutung, greifen die Sorgen der Pflegefachpersonen auf, die Personalmangel, Pandemie und Digitalisierung bringen und zeigen konkrete Beispiele und Methoden für ihre jeweilige Praxis auf“, erläutert Organisatorin Dr. Andrea Kuhn vom Forschungsnetzwerk Gesundheit der Hochschule das Tagungskonzept.

Die Veranstaltung beginnt am 6. November um 11.30 Uhr, am 7. November um 9.00 Uhr und endet um circa 17.30 Uhr. Sie findet in der Aula der Hochschule im A-Gebäude, Ernst-Boehe-Straße 4, 67059 Ludwigshafen, statt. Die Anmeldung erfolgt unter https://www.veranstaltungen.hwg-lu.de/event/3-fachtagung-gesundheitsforderung-un…

Aus organisatorischen Gründen ist diese bis zum 27. Oktober 2023 möglich.

Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsnetzwerk Gesundheit
Dr. Andrea Kuhn – Projektleitung
E-Mail: andrea.kuhn@hwg-lu.de
Tel.: +49 621 5203 244

Weitere Informationen:
https://forschungsnetzwerk-gesundheit.hwg-lu.de/kommunikation/gesundheitsfoerder…

Anhang
Programm Fachtagung Gesundheitsförderung und Prävention in der Pflege

(nach oben)


Künstliche Intelligenz an menschliche Bedürfnisse anpassen

Lena Bender Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Pierre-Alexandre Murena ist neuer Professor an der TU Hamburg.

„Meine Vision im Umgang mit Künstlicher Intelligenz (KI) ist, den Menschen und das KI-System als ein Team zu betrachten, das ein gemeinsames Ziel anstrebt. Sie sollen sich im Umgang miteinander als Partner verstehen, die sich gegenseitig Hinweise geben, sich korrigieren und relevante Informationen austauschen.“ Das sagt Pierre-Alexandre Murena, neuer Juniorprofessor an der TU Hamburg. Seine Arbeit zielt genau auf die Schnittstelle zwischen dem maschinellen Lernen in seiner jetzigen Form und seinen Nutzerinnen und Nutzern ab. Der Mathematiker und Informatiker befasst sich mit menschenzentrierter Künstlicher Intelligenz. Was heute in aller Munde ist, hatte vor zehn Jahren noch einen Exotenstatus. Murena berichtet: „Als ich damals mein Interesse an KI erwähnte, fragten mich die Leute nach Terminator und Science-Fiction-Szenarien. Heute erzählen sie mir von ihren Versuchen, Künstliche Intelligenzen wir ChatGPT oder Midjourney zu nutzen. Das ist eine enorme Entwicklung, und ich denke, es ist wichtig, die Menschen dabei zu begleiten.“ Murenas Ziel ist, die KI stärker auf den Menschen auszurichten, um die Nutzung von KI-Tools für Wissenschaftler und Ingenieure zu erleichtern, die maschinelle Lernmodelle für ihre Forschung benötigen. All dies ist in der Praxis äußerst komplex: weil Interaktionen eher kurz sind und der KI nicht genügend Zeit gegeben wird, etwas zu lernen; und weil kognitive Modelle komplex sind und das Erlernen ihrer Parameter oft schwierig bis unmöglich ist.

„Die KI zu trainieren ist manchmal frustrierend“
In einer Beziehung unterscheidet sich der Mensch von der KI: Menschen interpretieren, was andere sagen, dadurch können Aussagen ungenau oder sogar falsch werden. „Sich anzupassen ist eine Fähigkeit, die wir haben, sie fehlt der KI. Diese Lücke soll eine menschenzentrierte KI einmal schließen. Aber der Weg dahin ist manchmal frustrierend, weil es so einfach zu sein scheint, aber schwierig zu erreichen ist!“, so Murena. „Obwohl die Frage der menschenzentrierten KI meiner Meinung nach in den kommenden Jahren eine große Herausforderung darstellen wird, liegt der Fokus der meisten Universitäten und Forschungszentren nach wie vor auf der Entwicklung starker autonomer maschineller Lernsysteme. Die Tatsache, dass die TU Hamburg eine Stelle zu diesem Thema eingerichtet hat, war für mich ein gutes Zeichen, dass die Universität diesen wichtigen Wandel voraussieht.“

KI für die Kunst
Prof. Murena studierte Angewandte Mathematik und Informatik an der Ecole Polytechnique und der Ecole Normale Supérieure in Cachan (Frankreich) und er promovierte an der Université Paris-Saclay. Danach zog es ihn als Postdoc für drei Jahre nach Finnland, an die Aalto University und die Universität Helsinki. Dort wirkte er an verschiedenen Projekten im Bereich des maschinellen Lernens mit Menschen mit und leitete eine Forschungsgruppe am Finnish Center for Artificial Intelligence (FCAI). „Ich habe mich schon immer für Naturwissenschaften interessiert, vor allem für die Mathematik. Aber ich habe noch eine andere Leidenschaft, nämlich die Kunst.“, so Murena. Beides versucht er zu verbinden und unterstützt Kunst Schaffende, mit KI zu arbeiten. Außerhalb der Universität kann man Murena im Hafengebiet antreffen, wo er alte Industriebeuten fotografiert. Daneben geht er gerne ins Kino, spielt Klavier, kocht oder bereitet mit seiner Eismaschine leckere Sorten zu.

(nach oben)


Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren

Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.

Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.

Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.

Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.

Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.

Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.

Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.

Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu

Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de

Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800

Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802

(nach oben)


Start für europaweites Projekt zur Verbesserung der Patientenversorgung in Mitteleuropa

Annechristin Bonß Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden und die Carus Consilium Sachsen GmbH haben sich mit neun internationalen Experten aus sechs europäischen Ländern zusammengeschlossen, um gemeinsam in den nächsten drei Jahren patientenorientierte digitale Lösungen im Gesundheitssektor voranzutreiben.

Mit Unterstützung des Programms Interreg Central Europe werden im Rahmen des Projekts „Health Labs4Value“ fünf nationale Living Labs in Ungarn, Slowenien, der Tschechischen Republik, Deutschland und Polen eingerichtet. Diese Living Labs werden als Kooperationsräume dienen, in denen Gesundheitsorganisationen, Unternehmen, politische Entscheidungsträgerinnen und -träger, Patientinnen und Patienten sowie ihre Familien gemeinsam digitale Lösungen zur Verbesserung der Patientenversorgung entwickeln und testen können. Alle Living Labs werden ein länderübergreifendes Netzwerk bilden, um den Wissens- und Erfahrungsaustausch unter der Leitung des österreichischen Wissenspartners zu erleichtern. „Das Projekt Health Labs4Value ist eine einzigartige Gelegenheit, alle wichtigen Akteure im Gesundheitswesen zusammenzubringen, um gemeinsam an der Verbesserung der Patientenversorgung zu arbeiten“, so der Projektkoordinator István Hegedűs von CTRIA (Central Transdanubian Regional Innovation Agency) aus Ungarn. Die internationale Zusammenarbeit verschiedener Expertenteams aus Mitteleuropa bringt viele Vorteile mit sich. „Die Hochschulmedizin Dresden setzt schon lange auf die Vernetzung mit Akteurinnen und Akteuren der Krankenversorgung. Dies machen wir nicht nur in der Region, sondern auch über die Grenzen Sachsens und Deutschland hinaus. Mit diesen wertvollen Kooperationen kommen wir mit guten Partnern zusammen, nutzen Synergien und schaffen die Voraussetzung für eine moderne Patientenversorgung“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Carl Gustav Carus Dresden.

Vorteile der interdisziplinären Zusammenarbeit
– Entwicklung kosteneffektiver und nachhaltiger Versorgungsstrategien, um sicherzustellen, dass Patientinnen und Patienten sowie ihre Familien Zugang zu angemessener Behandlung erhalten.
– Verbesserung der Patientensicherheit
– Übergang von einem krankheitszentrierten zu einem personenzentrierten Ansatz – mit hohem Nutzen für die Patientinnen und Patienten.
– Verbesserung der Zusammenarbeit entlang der Wertschöpfungskette des Gesundheitssystems.

Nationale Living Labs
Auf nationaler Ebene werden die Living Labs spezifische Herausforderungen identifizieren und lokale Bedürfnisse ansprechen.
– Slowenien: Das Living Lab in Slowenien soll es Patientinnen und Patienten mit konservativ behandelten Verletzungen ermöglichen, die Qualität ihrer Rehabilitation in ihrer häuslichen Umgebung zu verbessern.
– Deutschland: Das Living Lab in Deutschland wird sich mit der Unterstützung älterer Menschen befassen, damit diese so lange wie möglich selbständig und (fast) unabhängig in ihrer häuslichen Umgebung leben können.
– Polen: Das Living Lab in Polen zielt darauf ab, die Arbeit des medizinischen und nicht-medizinischen Personals in der Verwaltung und im Patientenservice durch Digitalisierung und den Einsatz neuer Technologien wie biometrischer Unterschriften zu rationalisieren.
– Ungarn: Das Living Lab in Ungarn zielt darauf ab, die Abläufe in der ambulanten und stationären Versorgung, einschließlich der ärztlichen Untersuchung sowie der prä- und postoperativen Verfahren, durch Automatisierung des Fallmanagements und innovative digitale Systeme zu optimieren.
– Tschechische Republik: Das Living Lab in der Tschechischen Republik wird sich auf neue Technologien konzentrieren, die die Kommunikation über die Langzeitbehandlung, die Aufklärung und die häusliche Pflege chronischer Patientinnen und Patienten mit Technologien unterstützen, die helfen, den Zustand der Patientinnen und Patienten in einer häuslichen Umgebung zu überwachen und bei Bedarf direkten Kontakt mit medizinischem Fachpersonal aufzunehmen.

Über Health Labs4Value
Das Projekt Health Labs4Value hat eine Laufzeit von drei Jahren und verfügt über ein Budget von 2,19 Mio. EUR. Das Ziel des Innovationsprojektes ist die Verbesserung der Patientenversorgung, die Sicherheit und die Effizienz. Die neu eingeführten digitalen Versorgungslösungen werden so auch erhebliche Auswirkungen auf den Gesundheitssektor in Europa und Deutschland haben.

Über das Universitätsklinikum Carl Gustav Carus Dresden
Als Krankenhaus der Maximalversorgung deckt das Universitätsklinikum Dresden das gesamte Spektrum der modernen Medizin ab. 26 Kliniken und Polikliniken, vier Institute und 17 interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten ermöglichen medizinische Versorgung auf höchstem Niveau. Mit 1.410 Betten und 210 Plätzen für die tagesklinische Behandlung von Patienten ist es das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 1.000 Ärztinnen und Ärzte sowie 2.000 Schwestern und Pfleger kümmern sich um das Wohl der Patientinnen und Patienten.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Projektmanagerin: Ulrike Sobczak
Tel.: 0351 458 3729
E-Mail: ulrike.sobczak@ukdd.de
www.uniklinikum-dresden.de

Weitere Informationen:
http://Weitere Informationen zum Projekt Health Labs4Value:
http://www.interreg-central.eu/projects/health-labs4value
http://www.facebook.com/HealthLabs4Value
http://www.linkedin.com/groups/9346332/

(nach oben)


Wie Bäume die Wolkenbildung beeinflussen

Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Im Rahmen des internationalen CLOUD-Projekts am Kernforschungszentrum CERN haben Forschende des PSI sogenannte Sesquiterpene – gasförmige Kohlenwasserstoffe, die von Pflanzen emittiert werden – als wesentlichen Faktor der Wolkenbildung identifiziert. Die Erkenntnis könnte helfen, die Unsicherheiten von Klimamodellen zu reduzieren und präzisere Vorhersagen zu treffen. Die Studie erscheint jetzt im Fachmagazin Science Advances.

1,5 bis 4,4 Grad Celsius globale Klimaerwärmung bis 2100 im Vergleich zur vorindustriellen Zeit – so lautet die aktuelle Prognose des Weltklimarates IPCC. Sie basiert auf verschiedenen Szenarien, wie sich die Treibhausgasemissionen der Menschheit entwickeln. Im besten Fall, wenn wir die Emissionen schnell und radikal eindämmen, erreichen wir also noch das 1,5-Grad-Ziel des Pariser Klimaabkommens. Im schlechtesten Fall liegen wir weit darüber. Wobei auch diese Aussagen jeweils mit Unsicherheiten behaftet sind. So könnte der Temperaturanstieg im ungünstigsten Fall mit weiterhin stark ansteigenden Emissionen anstatt bei 4,4 Grad auch nur bei 3,3 oder aber sogar bei 5,7 Grad Celsius liegen.

Diese Unsicherheiten der Klimavorhersagen, wie sich die Temperatur bei konkreter Entwicklung der Treibhausgase verändern wird, liegen im Wesentlichen daran, dass die Wissenschaft noch nicht alle Vorgänge in der Atmosphäre – das Zusammenspiel der verschiedenen in ihr enthaltenen Gase und Schwebstoffe – im Detail verstanden hat. Dies aufzuklären ist das Ziel des CLOUD-Projekts (Cosmics Leaving Outdoor Droplets), das Atmosphärenforschende in einer internationalen Kooperation am Kernforschungszentrum CERN in Genf durchführen. Das PSI hat die CLOUD-Kammer mit gebaut und gehört zum Lenkungsausschuss des Projekts.

Mysterium Wolkenbildung
Vor allem, wie sich die Bedeckung mit Wolken in Zukunft entwickeln wird, bleibt bislang noch weitgehend nebulös. Sie ist jedoch ein wesentlicher Faktor für das Klima, da mehr Wolken mehr Sonnenstrahlung reflektieren und dadurch einen kühlenden Effekt auf die Erdoberfläche haben.
Um die Wassertröpfchen, aus denen Wolken bestehen, zu bilden, braucht Wasserdampf feste oder flüssige Partikel, an denen er kondensieren kann, sogenannte Kondensationskeime. Das sind komplexe Aerosole, winzig kleine, feste oder flüssige Partikel mit einem Durchmesser zwischen 0,1 und 10 Mikrometern, die sowohl durch Prozesse in der Natur als auch durch uns Menschen verursacht und in die Luft emittiert werden. Diese Partikel können Salz aus dem Meer, Sand aus der Wüste, Schadstoffe aus Industrie und Verkehr oder Russpartikel von Feuern enthalten. Etwa die Hälfte der Kondensationskeime aber entsteht erst in der Luft, indem sich verschiedene gasförmige Moleküle verbinden und dabei in den festen Aggregatzustand übergehen, ein Phänomen, das Fachleute „Nukleation“ oder „New Particle Formation“ (NPF) nennen, also auf Deutsch Partikelneubildung. Solche Partikel sind zu Anfang noch winzig, kaum grösser als ein paar Nanometer, können mit der Zeit aber durch die Kondensation gasförmiger Moleküle wachsen und Kondensationskeime werden.

Klimagase, die man riechen kann
Der Hauptteil der vom Menschen emittierten Gase, die zur Partikelneubildung beitragen, ist Schwefeldioxid in Form von Schwefelsäure, das vor allem aus der Verbrennung von Kohle und Öl stammt. Zu den wichtigsten natürlichen Gasen, die eine Rolle spielen, gehören sogenannte Isoprene, Monoterpene und Sesquiterpene. Das sind Kohlenwasserstoffe, die vor allem von der Vegetation freigesetzt werden. Sie sind wesentliche Bestandteile der ätherischen Öle, die wir riechen, wenn zum Beispiel Gras geschnitten wird oder wir im Wald spazieren gehen. Wenn diese Substanzen in der Luft oxidieren, bilden sie Partikel.
„Zu beachten ist, dass die Konzentration des Schwefeldioxids in der Luft in den letzten Jahren durch strengere Umweltgesetze deutlich geringer geworden ist und auch weiterhin abnehmen wird“, sagt Lubna Dada, Atmosphärenwissenschaftlerin am PSI. „Die Konzentration der Terpene dagegen nimmt zu, weil Pflanzen unter Stress mehr davon freisetzen – beispielsweise wenn Temperaturen und Wetterextreme zunehmen und die Vegetation häufiger Dürren ausgesetzt ist.“ Die grosse Frage für die Verbesserung der Klimaprognosen ist also, welcher Faktor überwiegt, sodass die Wolkenbildung zunehmen oder abnehmen wird. Und dazu müsste man bei jeder dieser Substanzen wissen, welchen Beitrag sie bei der Partikelneubildung leisten. Zu Schwefelsäure weiss man schon viel, und auch die Rolle von Monoterpenen und Isopren ist dank Feldmessungen und Kammerversuchen wie CLOUD, an denen das PSI beteiligt war, inzwischen besser bekannt.

Sesquiterpene sind selten, aber effektiv
Sesquiterpene befanden sich bislang noch nicht im Fokus der Forschung. „Das liegt daran, dass sie recht schwer zu messen sind“, erklärt Dada. „Zum einen, weil sie sehr schnell mit Ozon reagieren, und zum anderen, weil sie viel seltener vorkommen als die anderen.“ Während pro Jahr rund 465 Millionen Tonnen Isopren und 91 Millionen Tonnen Monoterpene ausgestossen werden, kommen Sesquiterpene nur auf 24 Millionen Tonnen. Dennoch – das hat die neue Studie, deren Hauptautorin Dada ist, ergeben – spielen diese Verbindungen bei der Wolkenbildung eine wichtige Rolle. Laut der Messungen bilden sie bei gleicher Konzentration zehnmal mehr Partikel als die anderen beiden organischen Substanzen.

Um das herauszufinden, hat Dada mit ihren Koautoren die einzigartige CLOUD-Kammer am Kernforschungszentrum CERN genutzt. Dabei handelt es sich um einen abgeschotteten Raum zur Simulation verschiedener atmosphärischer Bedingungen. „Mit fast 30 Kubikmetern ist diese Klimakammer im Vergleich zu anderen ähnlichen Einrichtungen weltweit die reinste ihrer Art“, sagt Dada. „So rein, dass sie die Untersuchung von Sesquiterpenen auch dann ermöglicht, wenn die geringe Konzentration in der Atmosphäre nachgestellt wird.“

Genau das war das Ziel der Studie. Sie sollte die biogene Partikelbildung in der Atmosphäre simulieren. Und zwar so, wie sie in vorindustrieller Zeit stattfand, als es noch keine menschlichen Schwefeldioxid-Emissionen gab. Im Vergleich zu heute lässt sich so der menschliche Einfluss klarer herausarbeiten und in die Zukunft projizieren. In der Natur ist das Schwefeldioxid des Menschen jedoch längst überall. Auch deswegen kam nur die CLOUD-Kammer infrage. Zudem lässt sich dort unter kontrollierten Bedingungen eine vorindustrielle Mischung herstellen.

Dauerhafte Partikel führen zu mehr Wolken
Und so zeigte sich bei den Versuchen, dass in reiner Luft die Oxidation einer natürlichen Mixtur von Isopren, Monoterpenen und Sesquiterpenen eine grosse Vielfalt von organischen Verbindungen produziert – sogenannte ULVOC (Ultra-Low-Volatility Organic Compounds). Diese Moleküle sind wenig flüchtig und bilden daher sehr effizient Partikel. Der enorme Effekt der Sesquiterpene offenbarte sich, als die Forschenden ihnen Isopren und Monoterpene hinzumischten: Schon bei nur zwei Prozent Zugabe verdoppelte sich die Rate der Partikelneubildung. „Erklären lässt sich das damit, dass ein Sesquiterpen-Molekül 15 Kohlenstoffatome enthält, während Monoterpene nur zehn und Isopren fünf enthalten“, sagt Dada.

Die Studie offenbart einerseits einen weiteren Faktor, mit dem die Vegetation Wetter und Klima beeinflussen kann. Vor allem aber schlagen die Forschenden aufgrund ihrer Ergebnisse vor, neben Isopren und Monoterpenen künftig auch die Sesquiterpene als eigenen Faktor in die Klimamodelle aufzunehmen, um die Prognosen zu verbessern. Zumal mit der Abnahme der Schwefeldioxid-Konzentration in der Atmosphäre und gleichzeitig steigenden biogenen Emissionen infolge von Klimastress die Rolle letzterer für das Klima der Zukunft immer wichtiger werden dürfte. Allerdings sind für die weitere Verbesserung der Vorhersagen zur Wolkenbildung auch noch andere Studien notwendig. Diese sind am Labor für Atmosphärenchemie bereits in Planung. „Als Nächstes“, sagt Imad El Haddad, Gruppenleiter für Molekulare Prozesse in der Atmosphäre, „wollen wir mit unseren CLOUD-Partnern schauen, was damals im Zuge der Industrialisierung genau geschah, als die natürliche Atmosphäre zunehmend mit anthropogenen Gasen wie Schwefeldioxid, Ammoniak und anderen anthropogenen organischen Verbindungen vermischt wurde.“

Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Zukunftstechnologien, Energie und Klima, Health Innovation und Grundlagen der Natur. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2200 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 420 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL. Einblick in die spannende Forschung des PSI mit wechselnden Schwerpunkten erhalten Sie 3-mal jährlich in der Publikation 5232 – Das Magazin des Paul Scherrer Instituts.

Wissenschaftliche Ansprechpartner:
Dr. Lubna Dada
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 53 17, E-Mail: lubna.dada@psi.ch [Englisch]

Dr. Imad El Haddad
Gruppenleiter für Molekulare Prozesse in der Atmosphäre
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 95, E-Mail: imad.el-haddad@psi.ch [Englisch/Französisch]

Originalpublikation:
Role of sesquiterpenes in biogenic new particle formation
Lubna Dada et al.
Science Advances, 08.09.2023
DOI: 10.1126/sciadv.adi5297

Weitere Informationen:
https://www.psi.ch/de/node/59053?access-token=3CsVBZFi88essJqk

(nach oben)


Weltrekord: Reichweitenstärkstes Elektroauto der Welt kommt aus München

Andreas Huber Corporate Communications Center
Technische Universität München
Studierende der Technischen Universität München (TUM) haben das reichweitenstärkste Elektroauto der Welt entwickelt. Das Team fuhr über 2573 Kilometer mit einer Akkuladung. Im Zuge der IAA Mobility kämpfte das Team am Flughafen München um den neuen Weltrekord und konnte den Titel erfolgreich nach München holen. Ganze sechs Tage dauerte der Versuch, für den das Team auf Feldbetten im Flughafenhangar schlief.

Es war ein Marathon und kein Sprint, der dem TUfast Eco Team bevorstand, um einen neuen Weltrekord an die TUM zu holen. Sechs Tage sollte es schließlich dauern, bis feststand: Das reichweitenstärkste Elektroauto der Welt kommt aus München. Für den Guinness-Weltrekord modifizierte die Studierendeninitiative den „muc022“, mit dem das Team bereits an Wettbewerben für effiziente Elektroautos teilnahm. Dabei setzen die Studierenden vor allem auf eine durchdachte Aerodynamik und auf Leichtbau. Damit das Fahrzeug weltrekordtauglich wurde, bauten die jungen Ingenieur:innen einen größeren Akku ein, der 15,5 Kilowattstunden leistet.

Um die Rekordfahrt zu ermöglichen, stellte der Flughafen München einen leeren Flugzeughangar zur Verfügung. Der Hangar garantierte dem Team, auch bei schlechten Wetterbedingungen den Rekord einzufahren. Die Messlatte des bisherigen Rekordhaltenden lag bei 1608,54 Kilometern. Diese Strecke konnten die Münchner bereits nach vier Tagen zurücklegen. Da der Akku des muc022 aber noch nicht leer war, fuhr das Team weiter. Am Ende standen nach 99 Stunden Fahrzeit 2.573,79 Kilometer auf dem Tacho. Übersetzt bedeutet das Resultat auch, dass das TUfast Eco Team einen Verbrauch von 0,6 Kilowattstunden auf 100 Kilometer verzeichnen kann. Zum Vergleich: Extrem sparsame Serienfahrzeuge verbrauchen rund 13 kWh auf 100 Kilometer.

Wissenschaftsminister und TUM-Präsident gratulieren
Wissenschaftsminister Markus Blume gratuliert: „Weltrekord für die TUM! Herzlichen Glückwunsch an das TUfast Eco Team zu diesem grandiosen Erfolg. Wir sind stolz auf die Studentinnen und Studenten. Sie machen den einzigartigen TUM-Spirit aus. Und wir sind stolz auf unsere Spitzenuniversität, die Pioniergeist fordert und fördert. An der TUM gilt: Studieren und Probieren. Das Ergebnis: Internationale Ingenieurskunst made in Bavaria. Mit dem Weltrekord beweisen unsere Studentinnen und Studenten nicht nur sportlichen Ehrgeiz. Dahinter steckt mehr: Sie wollen die Zukunft der Mobilität nachhaltig gestalten.“

TUM-Präsident Thomas F. Hofmann gratuliert zum Weltrekord: „Das reichweitenstärkste Elektroauto der Welt kommt aus München! An der TUM fördern wir studentische Initiativen unterschiedlichster Fachrichtungen und bieten Raum für Kreativität neben dem Studium. Dass unsere Teams dabei immer wieder Spitzenleistungen erbringen, macht mich besonders stolz. Es bestätigt aber auch, dass wir in der Lehre vieles richtig machen. Studentische Gruppen bringen zusätzliches Leben auf den Campus und fördern Talente zum Teil schon während des Bachelorstudiums. Meine Gratulation an das TUfast Eco Team zu diesem Weltrekord!“

TUfast Eco Team erfolgreich in internationalen Wettbewerben
Neben Rekordversuchen nimmt das TUfast Eco Team regelmäßig an internationalen Wettbewerben wie dem Shell Eco Marathon teil. Hier misst sich die Gruppe mit Teams anderer Universitäten in unterschiedlichen Disziplinen. Dabei spielen unter anderem auch die Möglichkeiten des autonomen Fahrens eine Rolle. „Unzählige Stunden Arbeit neben dem Studium sind in die Vorbereitung des Rekords geflossen. Umso mehr freuen wir uns, dass wir den Weltrekord nun halten können. Der muc022 war schon bei einigen Wettbewerben erfolgreich, nun folgte der Ritterschlag. Vielen Dank an alle, die uns unterstützt haben“, freut sich das TUfast Eco Team.
Studentische Forschungsgruppen und Studierendeninitiativen haben an der TUM eine lange Tradition. Teams wie TUfast bieten den Studierenden die Möglichkeit, das im Studium erarbeitete Wissen direkt in die Praxis umzusetzen und selbstständig zu forschen. Dabei können die Gruppen regelmäßig in Wettbewerben überzeugen und standen oft an der Spitze.

Weitere Informationen:
Technische Daten des muc022 für den Weltrekord:
• Antrieb: Ein permanent erregter Synchronmotor (PSM)
• Leistung: 400 Watt
• Widerstandsbeiwert (cW): 0,159
• Gewicht: 170 Kilogramm ohne Fahrer:in

Der volle Titel des Rekords lautet: Greatest distance by electric vehicle, single charge (non-solar)

Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1718820

Wissenschaftliche Ansprechpartner:
Linus Simons
Teammitglied bei TUfast Eco
l.simons@tufast.de

(nach oben)


Neues Alzheimer-Medikament Leqembi: Die wichtigsten Fragen und Antworten

Astrid Marxen Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.
Düsseldorf, 7. September 2023 – In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Dann kann der Wirkstoff unter dem Namen Leqembi zur Behandlung der Alzheimer-Krankheit verschrieben werden. In den USA wird Leqembi schon eingesetzt. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des DZNE am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.

Wie funktioniert Leqembi?
Leqembi wirkt auf Grundlage einer passiven Immunisierung. Es ist ein Antikörper, der sich gegen Ablagerungen aus dem Protein Beta-Amyloid richtet. Diese Ablagerungen tragen mutmaßlich zum Absterben von Nervenzellen im Gehirn bei. Leqembi entfernt diese Ablagerungen im Gehirn. In der Zulassungsstudie hat der Antikörper nach 18 Monaten den geistigen Abbau von Patientinnen und Patienten um 27 Prozent verlangsamt.

Kann Leqembi Alzheimer heilen?
Leqembi wäre in Deutschland das erste Medikament, das an einer der grundlegenden Krankheitsursachen ansetzt. Trotzdem kann es die Alzheimer-Krankheit weder stoppen noch heilen. Der Krankheitsverlauf kann verzögert werden. Die Wirkung bei Erkrankten wird von vielen Alzheimer-Expertinnen und -Experten aber als eher gering eingestuft. „Mit Leqembi kann man einen Krankheitsaufschub von fünf bis sieben Monate erreichen. Es gibt die Hoffnung, dass sich der Effekt mit längerer Einnahme noch erhöht. Dafür haben wir aber bisher keine Daten. Ob diese Wirkung für Patientinnen und Patienten im Alltag spürbar sein wird, ist daher aktuell noch unklar“, erklärt Teipel.

Welche Nebenwirkungen können auftreten?
In der Zulassungsstudie sind bei 17 Prozent der Probandinnen und Probanden lokale Hirnschwellungen und Mikroblutungen aufgetreten. In den meisten Fällen verliefen diese symptomlos, aber einige Erkrankte hatten einen schwerwiegenden Verlauf. „Die Behandlung mit Leqembi kann gravierende Nebenwirkungen haben. Deshalb ist eine engmaschige
Kontrolle bei einer Behandlung sehr wichtig“, betont Teipel.

Für welche Erkrankten ist Leqembi geeignet, für welche nicht?
Nur Alzheimer-Patientinnen und -Patienten in einem frühen Krankheitsstadium kommen für eine Behandlung mit Leqembi in Frage. Erkrankte mit bereits fortgeschrittenen Symptomen oder einer anderen Form der Demenz werden nicht von einer Behandlung profitieren. Bei bestimmten Gruppen ist die Gefahr von Nebenwirkungen besonders groß. Deshalb müssen Aufwand, Nutzen und Risiken vor Behandlungsbeginn individuell überprüft werden.

„Es muss im Einzelfall immer genau abgewogen werden, wer mit Leqembi behandelt werden kann. Bei Erkrankten, die Blutverdünner nehmen, und solchen, die eine zweifache Kopie des ApoE4-Gens tragen, wäre ich eher zurückhaltend. Die Gefahr von Hirnblutungen ist für diese Patientinnen und Patienten erhöht“, so Teipel. ApoE4 ist ein Gen, dass das Risiko einer Alzheimer-Erkrankung erhöht. Da die Behandlung zeitintensiv und mit aufwändigen Untersuchungen verbunden ist, müssen Patientinnen und Patienten außerdem noch mobil und ausreichend belastbar sein.

„Wie viele Erkrankte für eine Behandlung geeignet sind, ist noch unklar. Das hängt unter anderem davon ab, mit welchen Auflagen eine EMA-Zulassung verbunden sein wird. Aktuell gibt es jährlich rund 200.000 Neuerkrankungen und eine ähnlich hohe Zahl von Menschen, die an einer leichten kognitiven Störung leiden, also an einer Vorstufe der Alzheimer-Krankheit. Von diesen beiden Gruppen wird aber nur ein geringer Prozentsatz für eine Behandlung in Frage kommen.“

Wie wird eine Behandlung mit Leqembi konkret aussehen?
Weil nur bestimmte Erkrankte für eine Behandlung geeignet sind, ist zunächst eine gründliche Diagnostik wichtig. Dazu kommt unter anderem entweder eine Liquor-Untersuchung, also eine Untersuchung des Nervenwassers, oder ein bildgebendes Verfahren namens Positronen-Emissions-Tomographie (PET) zum Einsatz. Damit wird nachgewiesen, ob schädliche Amyloid-Ablagerungen vorliegen. Teipel empfiehlt außerdem einen Test zum Nachweis des Alzheimer-Risikogens ApoE4. „Ein ApoE-Gentest sollte gemacht werden, weil das wichtig ist für die Risikoabschätzung von Nebenwirkungen.“

Wird eine Behandlung von dem oder der Erkrankten gewünscht und vom Facharzt befürwortet, dann wird Leqembi alle zwei Wochen durch eine Infusion verabreicht. Nach Angaben der Hersteller Biogen und Eisai dauert eine Behandlung ca. 1 Stunde. „Wegen der Gefahr von Hirnschwellungen und -blutungen müssen die Patientinnen und Patienten innerhalb der ersten 15 Behandlungsmonate alle drei Monate zur Magnetresonanztomographie kommen. Treten Unregelmäßigkeiten oder Beschwerden auf, dann muss die Kontrolle durch MRTs engmaschiger erfolgen, zum Beispiel wöchentlich oder zweiwöchentlich“, sagt Teipel.

Wo kann eine Behandlung stattfinden? Gibt es genügend Behandlungskapazitäten?
Eine Behandlung kann nur in spezialisierten Praxen oder Einrichtungen stattfinden, die über die nötigen diagnostischen, therapeutischen und personellen Ressourcen verfügen. „Eine Behandlung können hierzulande universitäre und nicht universitäre Gedächtnissprechstunden aber auch Schwerpunktpraxen anbieten. Nicht alle diese Einrichtungen haben aber aktuell die nötigen Kapazitäten, um Nervenwasseruntersuchungen durchzuführen. Außerdem fehlen in der Regel Infusionsplätze. Da müsste bei einer Zulassung von Leqembi nachgerüstet werden“, erklärt Teipel.

Für die Kontrolle der Nebenwirkungen werden Magnetresonanztomographen und vor allem erfahrene Radiologinnen und Radiologen gebraucht. „Hier sehe ich einen möglichen Engpass. Eine lokale Hirnschwellung oder Mikroblutung auf einem MRT-Bild zu erkennen und zu beurteilen, ob diese Veränderungen im Verlauf zugenommen haben, ist sehr anspruchsvoll, zugleich aber wichtig für die Sicherheit der Patienten. Radiologinnen und Radiologen müssten im Falle einer Zulassung entsprechend geschult werden.“

Wie hoch sind die Kosten? Bezahlen die Krankenkassen die Behandlung?
Wie teuer eine Behandlung mit Leqembi sein wird, ist noch nicht bekannt. In den USA betragen die Kosten für das Medikament alleine 26.500 Dollar im Jahr, das sind umgerechnet knapp 25.000 Euro. Das beinhaltet noch nicht die Kosten für die Durchführung der Infusionen und der Sicherheits-MRTs. Fachleute rechnen damit, dass eine Behandlung auch hierzulande ähnlich teuer sein wird. Der Preis für ein neu zugelassenes Medikament wird für das erste Jahr vom Hersteller festgesetzt. Die Kosten werden von den Krankenkassen übernommen.

Über die Alzheimer Forschung Initiative e.V.
Die Alzheimer Forschung Initiative e.V. (AFI) ist ein gemeinnütziger Verein, der das Spendenzertifikat des Deutschen Spendenrats e.V. trägt. Seit 1995 fördert die AFI mit Spendengeldern Forschungsprojekte engagierter Alzheimer-Forscher*innen und stellt kostenloses Informationsmaterial für die Öffentlichkeit bereit. Bis heute konnte die AFI 360 Forschungsaktivitäten mit 14,5 Millionen Euro unterstützen und über 925.000 Ratgeber und Broschüren verteilen. Interessierte und Betroffene können sich auf www.alzheimer-forschung.de fundiert über die Alzheimer-Krankheit informieren und Aufklärungsmaterial anfordern. Ebenso finden sich auf der Webseite Informationen zur Arbeit des Vereins und allen Spendenmöglichkeiten. Botschafterin der AFI ist die Journalistin und Sportmoderatorin Okka Gundel.

Pressekontakt
Alzheimer Forschung Initiative e.V.
Astrid Marxen
Kreuzstr. 34
40210 Düsseldorf
0211 – 86 20 66 28
presse@alzheimer-forschung.de
www.alzheimer-forschung.de/presse

Weitere Informationen:
https://www.alzheimer-forschung.de/presse/pressemitteilungen/meldung/leqembi-die… – Pressemeldung als pdf
http://www.alzheimer-forschung.de/presse/fotos-videos/ – Kostenfreies Fotomaterial
http://www.alzheimer-forschung.de/alzheimer – Weitere Informationen zur Alzheimer-Krankheit

(nach oben)


Energiesparend: Pumpen sollten Herzschlag folgen

Andreas Rothe Communications and Events
Institute of Science and Technology Austria
Das Pumpen von Flüssigkeiten scheint ein gelöstes Problem zu sein, aber die Optimierung dieses Prozesses ist immer noch ein aktives Forschungsgebiet. Jede Anwendung – von Industrie bis Haushalt – würde von Energieeinsparungen profitieren. Forscher des Institute of Science and Technology Austria (ISTA) haben nun gezeigt, wie gepulstes Pumpen die Reibung und den Energieverbrauch beim Pumpen verringern kann. Dabei ließen sie sich von einem Pumpsystem inspirieren, das jeder Mensch kennt: dem Herz.

Laut einer internationalen Studie werden fast zwanzig Prozent des weltweiten Stromverbrauchs für das Pumpen von Flüssigkeiten verwendet – von industriellen Anwendungen, die Öl und Gas transportieren, bis hin zu Heizungsanlagen, die Warmwasser in Privathaushalten pumpen. Ein Forscherteam um Davide Scarselli und Björn Hof vom Institute of Science and Technology Austria (ISTA) suchte nach einer Möglichkeit, diesen Energiebedarf zu reduzieren und ließ sich dabei von der Natur inspirieren. In einer neuen Studie in der Fachzeitschrift Nature zeigten sie, dass das pulsierende Pumpen von Flüssigkeiten durch ein Rohr, ähnlich wie das menschliche Herz Blut pumpt, die Reibung im Rohr reduzieren kann – und damit auch den Energieverbrauch.

Turbulente Reibung
„Im Laufe der Jahre versuchten Forscher:innen und Ingenieur:innen, das Pumpen von Flüssigkeiten effizienter zu machen“, sagt Davide Scarselli, Erstautor der Studie. „Zwar wurden viele Lösungen simuliert oder in Laboren getestet, doch sie sind oft zu komplex und daher zu kostspielig, um in realen industriellen Anwendungen eingesetzt zu werden. Wir suchten nach einem Ansatz, der keine komplizierten strukturellen Änderungen an der Infrastruktur, wie Sensoren und Motoren, erfordert.“

Anstatt die Beschaffenheit der Rohre zu verändern, um die Reibung zwischen der fließenden Flüssigkeit und den Rohrwänden zu verringern, versuchten die Wissenschafter einen anderen Ansatz. „Wie jeder Teil unseres Körpers wurde auch das menschliche Herz durch Millionen von Jahren der Evolution geformt“, erklärt Björn Hof, Professor am ISTA. „Im Gegensatz zu herkömmlichen mechanischen Pumpen, die einen gleichmäßigen Strom von Flüssigkeit erzeugen, pulsiert das Herz. Wir waren neugierig, ob diese besondere Antriebsform einen Vorteil bietet.“

Zu diesem Zweck schufen Scarselli und sein Kollege Atul Varshney mehrere Versuchsaufbauten mit durchsichtigen Rohren unterschiedlicher Länge und Durchmesser, durch die sie Wasser pumpten. „Die Ausgangsbasis für unsere Experimente war ein gleichmäßiger Wasserfluss, in dem sich Wirbel chaotisch bewegten, während sie durch das Rohr gedrückt wurden“, erklärt Scarselli. Diese Wirbel werden als Turbulenzen bezeichnet und verursachen einen Großteil der Reibung zwischen der Flüssigkeit und den Wänden des Rohrs. Die Überwindung eben dieser Reibung kostet Energie.

Die Forscher machten die Turbulenzen sichtbar, indem sie dem Wasser winzige reflektierende Partikel hinzufügten und mit einem Laser durch das durchsichtige Rohr schienen. Scarselli fügt hinzu: „Der Laser schießt Licht in einem horizontalen Bogen durch das Rohr und wird von den Partikeln reflektiert. Wir machten Bilder davon, anhand derer wir erkennen konnten, ob die Strömung turbulent oder laminar war, wobei letzteres bedeutet, dass es keine Wirbel gab.“

Weniger Reibung durch Ruhephase
Als nächstes probierten die Forscher verschiedene Arten des pulsierenden Pumpens aus. Bei einigen Pulsformen wurde das Wasser zunächst langsam beschleunigt und dann schnell gestoppt, bei anderen war es umgekehrt. Hof erklärt die Ergebnisse: „Normalerweise erhöht das pulsierende Pumpen den Widerstand und die benötigte Energie, was nicht das war, was wir suchten. Als wir jedoch eine kurze Ruhephase zwischen den Impulsen einfügten, in der die Pumpe das Wasser nicht antreibt – so wie es das menschliche Herz tut –, erzielten wir viel bessere Ergebnisse.“

Durch diese Ruhephasen zwischen den Pumpphasen wird die Menge der Turbulenzen im Rohr drastisch reduziert. „Während der Ruhephase nehmen die Turbulenzen ab und es lässt die anschließende Beschleunigungsphase die Reibung viel effektiver reduzieren“, so Scarselli weiter.

Für eine optimierte pulsierende Pumpbewegung, die der des menschlichen Herzens ähnelt, fanden die Forscher eine Verringerung der mittleren Reibung von 27 Prozent und eine Reduzierung des Energiebedarfs um 9 Prozent. „Eine Verringerung der Reibung und der turbulenten Fluktuationen ist im biologischen Kontext eindeutig von Vorteil, da sie Schäden an den Zellen in der innerste Schicht unserer Blutgefäße verhindert, die empfindlich auf Scherstress reagieren. Daraus könnten wir möglicherweise lernen und dies in zukünftigen Anwendungen nutzen“, erklärt Hof.

Scarselli fügt hinzu: „Während wir im Labor vielversprechende Ergebnisse gezeigt haben, ist die Anwendung unserer Forschung in der realen Welt weniger einfach. Um diese pulsierenden Bewegungen zu erzeugen, müssten die Pumpen umgerüstet werden. Dies wäre jedoch immer noch viel günstiger als Änderungen an den Rohrwänden oder der Einbau von Motoren. Wir hoffen, dass andere Wissenschafter:innen auf unseren Ergebnissen aufbauen werden, um diese von der Natur inspirierten Lösungen für industrielle Anwendungen zu erforschen.“

Projektförderung
Diese Arbeit wurde unterstützt durch das Grant 662962 der Simons-Stiftung und durch den Österreichischen Wissenschaftsfonds, Grant I4188-N30, im Rahmen der Forschungseinheit FOR 2688 der Deutschen Forschungsgemeinschaft.

Originalpublikation:
D. Scarselli, J. M. Lopez, A. Varshney, and B. Hof. 2023. Turbulence suppression by cardiac cycle inspired pulsatile driving of pipe flow. Nature. DOI: https://doi.org/10.1038/s41586-023-06399-5 / https://www.nature.com/articles/s41586-023-06399-5

Weitere Informationen:
https://ista.ac.at Institute of Science and Technology Austria (ISTA)
https://ista.ac.at/de/forschung/hof-gruppe/ Hof Gruppe am ISTA

Anhang
Laser enthüllt Turbulenzen. Ein Laserstrahl scheint in einer horizontalen Ebene durch das durchsichtige Rohr, wird von winzigen Partikeln im Wasser reflektiert und zeigt so wirbelnde Strömungen.

(nach oben)


Unterschätzte Gefahr und Ressource am Meeresgrund

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Neues Dinoflagellaten-Bestimmungsbuch beleuchtet Bedeutung der marinen Einzeller.
Heute legt die Meeresbiologin Dr. Mona Hoppenrath von Senckenberg am Meer in Wilhelmshaven gemeinsam mit internationalen Kolleg*innen die zweite, erweiterte Auflage des weltweit umfassendsten Bestimmungsbuchs für marine, benthisch lebende Dinoflagellaten vor: „Marine benthic dinoflagellates – their relevance for science and society“. Neben der Beschreibung zahlreicher neuer Arten, erstmals auch anhand molekulargenetischer Daten, ordnet das Buch die weltweiten Gefahren durch die oftmals toxischen Einzeller ein – aber auch ihren Nutzen für die Wissenschaft und als potenzielle Nährstoff- und Energielieferanten.

Die mikroskopisch kleinen Dinoflagellaten sind in der breiten Öffentlichkeit kaum bekannt, dabei ist ihr Einfluss auf Natur und Mensch beträchtlich. Weltweit in Salz- und Süßgewässern verbreitet spielen die winzigen Einzeller eine wichtige Rolle in aquatischen Nahrungsnetzen – die meisten Arten als Teil des Planktons, die benthischen in den Sedimenten am Meeresgrund oder epiphytisch auf Algen, Seegras oder Korallen. „Einige Arten produzieren Toxine, die beim Menschen ernsthafte Vergiftungen hervorrufen können und auch für andere Meeresorganismen schädlich sind“, erläutert Dr. Mona Hoppenrath, Wissenschaftlerin bei Senckenberg am Meer in Wilhelmshaven und Erstautorin des Buchs. „Durch den Verzehr von Fisch und anderen Meeresfrüchten können etwa über die Nahrungskette angereicherte Giftstoffe von Gambierdiscus-Arten die Ciguatera-Krankheit auslösen, eine der häufigsten Fischvergiftungen.“ Eine Algenblüte der Gattung Ostreopsis wiederum brachte in den 1990er-Jahren Hunderte von Urlauber*innen an der ligurischen Küste ins Krankenhaus. „Als Folge des Klimawandels werden solche Fälle wahrscheinlich immer häufiger vorkommen“, ergänzt Hoppenrath.

Der vorliegende Band zeigt eindrucksvoll den Artenreichtum der marinen Einzeller, sein größter Teil ist der Taxonomie benthischer Dinoflagellaten in ihrer erstaunlichen Formenvielfalt gewidmet. 242 Arten in 63 Gattungen werden im Detail vorgestellt, illustriert mit mehr als 240 Farbabbildungen, etwa 250 elektronenmikroskopischen Aufnahmen und mehr als 330 Zeichnungen. Seit dem Vorgänger „Marine benthic dinoflagellates – unveiling their worldwide biodiversity“ sind 64 neue Arten, 20 neue Gattungen und 19 neue Kombinationen – also Umbenennungen – hinzugekommen. „Gleichzeitig zeigen wir sicherlich nur die ‚Spitze des Eisbergs‘“, so Hoppenrath, „Es ist davon auszugehen, dass neben den etwa 2.500 bekannten lebenden Dinoflagellaten-Arten viele weitere existieren, die noch nicht beschrieben sind!“ Parallel zur Neuauflage werden über die Website des „Centre of Excellence for Dinophyte Taxonomy“ (CEDiT) Bestimmungshilfen und Matrixschlüssel zur Gattungs- und Art-Bestimmung abrufbar sein: www.dinophyta.org/identification-keys.

Neu ergänzt ist ein Kapitel zur Relevanz der Dinoflagellaten für Wissenschaft und Gesellschaft, das die Gefahren durch die Einzeller, aber auch ihren möglichen Nutzen beleuchtet. „Dass beispielsweise einige Arten der Gattung Gambierdiscus über den Verzehr bestimmter tropischer und subtropischer Fische und Meeresfrüchte die lebensbedrohliche Ciguatera-Vergiftung auslösen können, wissen wir seit den 1970er-Jahren. Viele Küstenländer haben in der Folge Überwachungsprogramme eingeführt. Weltweit werden jährlich circa 20.000 bis 60.000 Fälle registriert“, berichtet Hoppenrath. „Dabei ist die Dunkelziffer groß: Schätzungsweise gibt es allein in den USA knapp 16.000 Vergiftungen im Jahr – möglicherweise werden weltweit nur 10 Prozent der Fälle den Gesundheitsbehörden gemeldet.“ Der fortschreitende Klimawandel scheint das Problem noch zu verstärken: Korallenbleichen infolge steigender Meerestemperaturen und andere Beeinträchtigungen von Korallen-Ökosystemen führen offenbar zu einem verstärkten Vorkommen von Gambierdiscus, weshalb der Weltklimarat davon ausgeht, dass Ciguatera-Vergiftungen weiter zunehmen werden. Gleichzeitig gibt es Hinweise, dass sich Gambierdiscus inzwischen auch in gemäßigte Regionen ausgebreitet hat.

Neben den gesundheitlichen Gefahren verursachen die toxischen Einzeller auch beträchtliche wirtschaftliche Schäden. In den USA entstehen durch Ciguatera schätzungsweise 17 Millionen US-Dollar Gesundheitskosten im Jahr. Von Einfuhrverboten für Riff-Fische infolge gemeldeter Vergiftungen werden insbesondere kleine tropische und subtropische Inselstaaten empfindlich getroffen, die stark von der Fischerei abhängig sind.

Auf der anderen Seite können Dinoflagellaten aber auch eine für den Menschen nützliche Ressource sein, beispielsweise als Lieferanten von wichtigen ungesättigten Fettsäuren für eine ausgewogene Ernährung. „Die planktische Art Crypthecodinium cohnii wurde bereits in der industriellen Produktion von Omega-3-Fettsäure als Nahrungsergänzungsmittel verwendet“, erzählt Hoppenrath. „Größtenteils sind die Möglichkeiten der industriellen Verwendung benthischer Dinoflagellaten, die Omega-3-Fettsäuren in großen Mengen produzieren, aber noch weitgehend unerforscht – hier gibt es großes Potenzial.“ Auch Biokraftstoffe könnten möglicherweise aus bestimmten Arten gewonnen werden. In der medizinischen Forschung haben sich einige der toxischen Verbindungen wiederum als vielversprechend für die Entwicklung von Therapeutika, beispielsweise in der Krebstherapie, gezeigt.

„Nicht zuletzt und überraschenderweise haben sich benthische Dinoflagellaten in der Naturwissenschaft für die evolutionäre Grundlagenforschung als sehr nützlich und wichtig erwiesen – zum Beispiel bei der Erforschung der Photosynthese und verschiedener Prozesse in Zellkernen. Es sind faszinierende Lebewesen, die wir aus vielen Gründen weiter erforschen müssen!“, schließt Hoppenrath.

Publikation: Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

Presseexemplare können unter pressestelle@senckenberg.de bestellt werden!

Wissenschaftliche Ansprechpartner:
PD Dr. Mona Hoppenrath
Senckenberg am Meer Wilhelmshaven
Tel. 04421 9475 116
mhoppenrath@senckenberg.de

Originalpublikation:
Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240

(nach oben)


Invasive Arten bedrohen die globale Vielfalt und Lebensgrundlage

Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
In Österreich gibt es mehr als 2.000 nicht-heimische Arten – Neobiota sind für 60 Prozent der ausgestorbenen Arten weltweit mitverantwortlich

Invasive nicht-heimische Arten sind eine der Hauptursachen des weltweiten Artenverlusts und bedrohen die menschliche Lebensgrundlage und Gesundheit. Ein neuer Bericht des Weltbiodiversitätsrats IPBES fasst erstmals den aktuellen Stand der Forschung weltweit zusammen und beschreibt, welche Handlungsoptionen zur Verfügung stehen. Bernd Lenzner und Franz Essl von der Universität Wien waren Teil des internationalen Expert*innenteams, das über die vergangenen Jahre Informationen aus über 13.000 Fachartikeln zusammengetragen hat.

Nicht-heimische Arten (auch Neobiota genannt) sind mittlerweile auf allen Kontinenten zu finden, sogar in der abgeschiedenen Antarktis. Mit Beginn der kolonialen Expansion und der daraus folgenden wirtschaftlichen und politischen Vernetzung über Kontinente hinweg begann der Siegeszug der Neobiota. „Mehr als die Hälfte dieser Neobiota wurde aber erst seit der Mitte des 20. Jahrhunderts verschleppt. Wir haben es also mit einer rasanten Zunahme von Neobiota zu tun“, erläutert Bernd Lenzner, Mitautor des Berichts des Weltbiodiversitätsrates.

37.000 Neobiota wurden weltweit bereits durch den Menschen verschleppt
„Insgesamt kommen mittlerweile weltweit mehr als 37.000 Arten als Neobiota vor – in Österreich alleine sind es mehr als 2.000“, so Lenzner. Auch heute werden immer noch Arten absichtlich (z.B.: als Gartenpflanzen oder Haustiere) oder unabsichtlich (z.B.: als Saatgutverunreinigungen oder blinde Passagiere beim Transport von Waren) weltweit verschleppt. Ein Rückgang dieses Trends ist trotz steigender Importbeschränkungen nicht abzusehen. So wurden beispielsweise in den letzten zwei Jahrzehnten der Asiatische Marienkäfer oder der Erreger des Eschentriebsterbens in Österreich eingeschleppt.

60 Prozent der ausgestorbenen Arten geht teilweise oder ganz auf das Konto von Neobiota
Invasive Arten können erheblichen Schaden anrichten: Sie führen als Schädlinge zu Ertragsausfällen in der Landwirtschaft, wie der Maiswurzelbohrer, oder sie können Krankheiten übertragen, wie etwa die Tigermücke. „Andere Neobiota wiederum verdrängen heimische Arten – mit massiven Folgen für die globale Artenvielfalt“, erläutert Franz Essl, Biodiversitätsforscher an der Uni Wien und ebenfalls Mitautor des Berichts. Und er ergänzt: „Bei 60 Prozent der ausgestorbenen Arten waren Neobiota maßgeblich beteiligt. Besonders auf Inseln oder abgelegenen Kontinenten wie Australien waren vom Menschen neu eingeführte Arten die Hauptursache des Aussterbens.“

Viele Arten wie der Dodo auf Mauritius wurden durch Räuber wie Ratten ausgerottet. In Österreich stehen heute alle heimischen Flusskrebsarten am Rande des Aussterbens als Folge der Krebspest; eine Krankheit, die durch nordamerikanische Flusskrebse übertragen wird. Besorgniserregend sind die wirtschaftlichen Schäden durch Neobiota – der aktuelle Bericht beziffert sie auf $ 423 Milliarden US-Dollar (400 Mrd. €) jährlich, eine Vervierfachung pro Jahrzehnt seit 1970.

Handlungsoptionen für die Zukunft: Prävention und Früherkennung
Einen besonderen Schwerpunkt legt der Bericht auf die Handlungsoptionen, um künftige Schäden durch invasive Neobiota zu vermeiden. Eine Vielzahl an Beispielen illustriert, dass invasive Arten erfolgreich bekämpft und somit ihre negativen Effekte stark reduziert werden können. „Der kosteneffektivste Weg ist jedoch die Prävention, Früherkennung und schnelle Bekämpfung von Neobiota“, betont Bernd Lenzner. Effektives Management ist aber nur durch gut koordinierte nationale und internationale Anstrengungen möglich. Internationale Abkommen wie die kürzlich von der Staatengemeinschaft verabschiedeten Kunming-Montreal-Biodiversitätsziele sind ein wichtiger Schritt in die richtige Richtung. Entscheidend ist aber, dass jedes Land, auch Österreich, rasch Maßnahmen setzt – dazu gehört auch eine bessere Umsetzung der EU-Invasionsverordnung.

Wissenschaftliche Ansprechpartner:
Dr. Bernd Lenzner
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-680-327-8884
bernd.lenzner@univie.ac.at

Assoz.-Prof. Mag. Dr. Franz Essl
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-676-609-1638
franz.essl@univie.ac.at

Originalpublikation:
Bericht zu invasiven gebietsfremden Arten des Weltbiodiversitätsrats IPBES:
IPBES (2023). Summary for Policymakers of the Thematic Assessment Report on Invasive Alien Species and their Control of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services. Roy, H. E., Pauchard, A., Stoett, P., Renard Truong, T., Bacher, S., Galil, B. S., Hulme, P. E., Ikeda, T., Sankaran, K. V., McGeoch, M. A., Meyerson, L. A., Nuñez, M. A., Ordonez, A., Rahlao, S. J., Schwindt, E., Seebens, H., Sheppard, A. W., and Vandvik, V. (eds.). IPBES secretariat, Bonn, Germany.
https://doi.org/10.5281/zenodo.7430692

Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…

(nach oben)


Nachhaltig leben: Je geringer der Aufwand, desto mehr Menschen tun es

Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Studierenden-Projekt der Universität Hohenheim zeigt: Beim ressourcenschonenden Verhalten deckt sich die Einstellung nicht immer mit der tatsächlichen Umsetzung

Auch Menschen, die einen ressourcenschonenden Lebensstil befürworten, schaffen es nicht immer, ihrem eigenen Anspruch gerecht zu werden. Wie leicht oder wie schwer ihnen dies fällt, hängt vor allem vom Aufwand ab, den sie dafür betreiben müssen. Zu diesem Schluss kommt ein Studierenden-Projekt an der Universität Hohenheim in Stuttgart. Dort spielt forschendes Lernen eine große Rolle. So können Studierende schon im Grundstudium in den Forschungsalltag eintauchen und eigene Projekte realisieren.

Vor allem in den westlich orientierten Ländern treffen Menschen jeden Tag Milliarden von Konsumentscheidungen – mit entsprechenden Auswirkungen für Klima, Umwelt und Natur. Dass es eines Umdenkens im Umgang mit den natürlichen Ressourcen bedarf, dürfte den meisten Menschen klar sein. Doch das eigene Verhalten in Frage zu stellen, fällt vielen schwer: Den Gedanken, den eigenen Lebensstil zu ändern und auf Waren und Dienstleistungen zu verzichten, empfinden viele als Rückschritt und Verzicht.

„Dabei ist der Verzicht beim Kauf von Konsumgütern alles andere als ein Rückschritt oder ein Zeichen von Mangel. Auch mit einem geringen Verbrauch von Ressourcen kann man gut leben “, sagt Jun.-Prof. Dr. Laura Henn vom Fachgebiet Nachhaltiges Handeln und Wirtschaften. Die dahinterstehende Einstellung bezeichnen Fachleute als Suffizienz.

Suffizienz: Ressourcenschonender Lebensstil ohne Einbußen an Lebensqualität
„Suffizienz bedeutet, das eigene Handeln bewusst danach auszurichten, nicht mehr Ressourcen zu verbrauchen als unbedingt nötig – ohne dabei an Lebensqualität einzubüßen“, erklärt die Wissenschaftlerin. „Oder vereinfacht ausgedrückt: Suffizient leben bedeutet eigentlich gut leben – gut für einen selbst und gut für die Umwelt.“

Suffizient lebende Menschen kaufen bewusster, teilen, tauschen oder reparieren, um ihre Bedürfnisse mit weniger Ressourcenverbrauch genauso gut zu befriedigen. Praktisch kann dies heißen, dass sie weniger Flugreisen unternehmen, weniger Energie verbrauchen oder weniger Fleisch essen, aber auch, dass diese Menschen auf den Besitz von Gegenständen verzichten oder zumindest möglichst langlebige Produkte kaufen. So sparen sie Ressourcen und halten ihren eigenen ökologischen Fußabdruck möglichst klein.

Decken sich Anspruch und tatsächliches Verhalten?
Doch wie sieht es im Alltag aus? Folgen Menschen im Alltag ihrer Einstellung und achten jene Personen, die besonders suffizienzorientiert sind, auch verstärkt auf den Ressourcenverbrauch ihres Verhaltens? Dieser Frage sind Studierende im vierten Semester des Studiengangs „Sustainability & Change“ an der Universität Hohenheim in einem Forschungspraktikum nachgegangen.

Unter Anleitung von Jun.-Prof. Dr. Henn beschäftigten sich die Studierenden in sechs Kleingruppen damit, wie die Suffizienzorientierung von Menschen erfasst werden kann. Sie untersuchten anhand von selbstgewählten Beispielen, ob Menschen, die darin besonders hohe Werte aufweisen, auch ein nachhaltigeres Verhalten zeigen.

Aufwand entscheidet über tatsächliches Einkaufsverhalten
Ein Ergebnis der Studierenden: Je weniger aufwändig ressourcenschonendes Verhalten, desto eher und häufiger wird es umgesetzt. So haben Menschen, die in Unverpacktläden einkaufen, um möglichst viel Müll zu vermeiden, nicht nur eine höhere Suffizienzeinstellung. Sie kaufen dort auch umso häufiger ein, je höher diese ist.

Für die Studierenden ein Hinweis darauf, dass vor allem Personen mit einer hohen Motivation bereit sind, einen höheren Aufwand zu betreiben. „Einkaufen in einem Unverpacktladen ist anders als in einem Supermarkt“, erläutert Janne Hoefer. „Die Menschen müssen viel stärker im Voraus planen, was und wie viel sie einkaufen wollen, und entsprechende Gefäße mitbringen.“

„Auffällig war auch, dass die Einkaufshäufigkeit mit steigendem Alter zunahm“, ergänzt Luis Nollenberger. Generell sind nach den Beobachtungen der Studierenden die häufigsten Kunden in Unverpacktläden junge Familien.

Foodsharing benötigt hohe Motivation
Zu einem ähnlichen Ergebnis kam eine andere Gruppe von Studierenden. Sie untersuchten, wie wichtig es Menschen ist, die Verschwendung von Lebensmitteln zu vermeiden. Also beispielsweise ihre Einkäufe bzw. Mahlzeiten zu planen, Lebensmittel nicht wegzuschmeißen, Reste zu verwerten oder sich beim Foodsharing zu engagieren. Auch hier zeigte sich: Je höher die Suffizienzeinstellung einer Person, desto höher ist auch ihr Einsatz beim Lebensmittel-Management.

Besonders auffällig war dies beim Foodsharing. Die Erklärung der Studierenden: Foodsharing ist mit einem hohen Aufwand verbunden. So müssen die Personen aktiv nach Informationen über Foodsharing Angebote suchen, eventuell eine App installieren und die Lebensmittel meist zu bestimmten Zeiten abholen. Dies setzt eine besonders hohe Motivation voraus.

Suffiziente Personen kaufen seltener neue Möbel
Personen, die über viel Suffizienz verfügen, verlängern nach den Ergebnissen der Studierenden auch eher die Lebensdauer ihrer Möbel und kaufen seltener neue Möbel. Dafür bevorzugen sie Reparaturen oder gebrauchte Alternativen. Allerdings gilt hier einschränkend: In der untersuchten Stichprobe waren vor allem jüngere Menschen enthalten, die noch bei Familienangehörigen oder in Wohnheimen bzw. Wohngemeinschaften wohnten.

Bei To-Go-Getränken und auf Partys spielt Suffizienz eine untergeordnete Rolle
Wenig Einfluss der Suffizienz auf das Verhalten fanden die Studierenden hingegen bei der Verwendung von Getränkebechern und auf Partys. So untersuchte eine Gruppe, ob Kund:innen bei To-Go-Getränken die angebotenen Einweg-Becher nutzen, Wert auf wiederverwendbare Becher legen oder sogar selbst solche Behältnisse mitbringen. Zwar wiesen Personen, die Mehrwegbechern positiv gegenüber standen, auch eine höhere Suffizienzeinstellung auf. Statistisch gesehen gab es jedoch keinen Zusammenhang mit der tatsächlichen Wahl des Bechers.

Auch bei Partys konnten die Studierenden keine Verbindung zwischen der Suffizienz und dem tatsächlichen Verhalten feststellen. Dies deckt sich mit ihren eigenen subjektiven Erfahrungen, wonach bei geselligen Veranstaltungen öfter mal die eigene Einstellung zum nachhaltigen Konsum über Bord geworfen wird. „Partys sind kein klassisches Nachhaltigkeitsthema – selbst bei Studierenden, denen dies wichtig ist“, sagt Marie Fankhänel. „Hier stehen die Geselligkeit und der Spaß im Vordergrund.“

Die Studierenden fanden allerdings andere statistische Beziehungen: So kaufen Menschen mit einer höheren Suffizienz seltener neue Kleidung für eine Party – und sie bestellen sich seltener im betrunkenen Zustand Dinge im Internet.

Verzicht auf Flugreisen steht oft im Konflikt mit anderen Zielen
Nur einen geringen Zusammenhang mit der Suffizienzeinstellung konnten die Studierenden auch bei der Frage finden, wie oft Menschen das Flugzeug tatsächlich nutzen, obwohl sie grundsätzlich Flugreisen nicht befürworten.

Laut Jun.-Prof. Dr. Henn könnte eine Ursache darin liegen, dass persönliche Normen und Einstellungen zu Nachhaltigkeit das Fernreiseverhalten nicht vorhersagen können: „Der völlige Verzicht auf Flugreisen erfordert ein starkes Engagement und steht oft im Konflikt mit anderen Lebenszielen, wie beispielsweise dem Sammeln von Reiseerfahrungen.“

Studierenden-Projekt bestätigt wissenschaftliche Studien
„Auch wenn die Ergebnisse der Studierenden nicht repräsentativ sind, so zeigen sie doch ein paar Aspekte auf, die sich auch in wissenschaftlichen Veröffentlichungen finden“, erklärt Jun. Prof. Dr. Henn: „So wird die Wahrscheinlichkeit, dass eine Person einen stärker suffizienzorientierten Lebensstil führt, vor allem durch zwei Faktoren bestimmt: Einerseits dadurch, wie stark sie einen solchen Lebensstil befürwortet, und andererseits durch die Frage, welche Hindernisse sie hat das entsprechende Verhalten auch umzusetzen.“

Dazu kämen laut der Wissenschaftlerin noch Faktoren, die außerhalb des Einflussbereiches der Betreffenden lägen: „Wenn die Infrastruktur und die Politik ein suffizientes Verhalten unterstützen, ist die Wahrscheinlichkeit relativ groß, dass Menschen dies auch tun.“
Text: Stuhlemmer

Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Laura Henn, Universität Hohenheim, Fachgebiet Nachhaltiges Handeln und Wirtschaften, +49 (0)711 459-24945, laura.henn@uni-hohenheim.de

Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim

(nach oben)


Seltene Mutation ist mögliches Angriffsziel für Krebsmedikament

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Mutationen im BRAF-Gen machen Tumoren oft besonders aggressiv. Seit einigen Jahren sind Medikamente zugelassen, die das mutierte BRAF blockieren. Sie richten sich allerdings nur gegen eine bestimmte, häufige Form der BRAF-Mutationen. Ein Forscherteam unter der Federführung von Wissenschaftlern im Deutschen Konsortium für Translationale Krebsforschung (DKTK), Standort Freiburg, und von der Universität Freiburg analysierte nun die Empfindlichkeit seltener Varianten der BRAF-Mutationen auf diese Medikamente. Die Forschenden konnten die molekularen Hintergründe für die Wirksamkeit der BRAF-Hemmstoffe entschlüsseln und damit möglicherweise die Entwicklung präziserer Wirkstoffe anstoßen.

Im DKTK verbindet sich das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg als Kernzentrum langfristig mit onkologisch besonders ausgewiesenen universitären Partnerstandorten in Deutschland.

Bei etwa acht Prozent aller Krebsfälle liegen Mutationen in dem Gen vor, das für das Enzym BRAF kodiert. BRAF-Mutationen fördern die unkontrollierte Teilung und Ausbreitung der Krebszellen. Sie werden häufig u. a. in Melanomen, bestimmten Hirntumoren und Schilddrüsenkarzinomen gefunden. Seltener treten sie auch in verbreiteten Krebsarten wie Dickdarmkrebs, nicht-kleinzelligem Lungenkrebs oder Bauchspeicheldrüsenkrebs auf.

Die Aktivität von Proteinkinasen, zu denen auch BRAF gehört, kann durch Medikamente aus der Gruppe der Kinase-Inhibitoren unterdrückt werden. Diese Wirkstoffe zielen speziell darauf ab, die häufigste krebstreibende BRAF-Mutation, BRAFV600E, abzuschalten.

Nachdem Krebsgewebe zunehmend auf BRAF-Mutationen getestet werden, entdeckten Forschende, dass neben der bekannten bekannten V600-Mutation ein breites Spektrum weiterer Veränderungen des BRAF-Gens in den Tumorzellen vorkommt. „Bislang ist jedoch wenig darüber bekannt, ob die ursprünglich für BRAFV600E entwickelten Kinase-Inhibitoren auch bei Krebsarten mit anderen BRAF-Mutationen wirksam sind,“ sagt Tilman Brummer, DKTK Freiburg und Universität Freiburg, der Seniorautor der aktuellen Arbeit, die in enger Zusammenarbeit mit den DKTK-Standorten Dresden, Heidelberg und Tübingen entstanden ist.

Zu diesem Spektrum an Mutationen zählen auch Verluste einiger Aminosäuren in einem für die Funktion von BRAF kritischen Teil des Enzyms. Solche „Deletions-Mutationen“ finden sich in vielen Krebsarten, besonders bei bestimmten Formen von Bauchspeicheldrüsenkrebs. „In der molekularbiologischen Standard-Diagnostik werden diese Bereiche von BRAF nicht erfasst, wodurch diese Mutationen bei den fünf bis 10 Prozent von Pankreas-Tumoren ohne KRAS-Mutationen vermutlich übersehen werden. Bei den umfangreichen molekularen Analysen von Tumorbiopsien, wie wir sie im DKTK MASTER-Programm* durchführen, um klinische Entscheidungen auf einer umfassenden molekularen Informationsbasis zu treffen, fallen uns diese Deletions-Mutationen jedoch immer häufiger auf“, sagt Stefan Fröhling, geschäftsführender Direktor am NCT Heidelberg und Leiter des DKTK MASTER-Programms.

„Ob BRAF-Deletions-Mutanten durch für BRAFV600E entwickelte Kinase-Inhibitoren wie Dabrafenib blockiert werden können, ist nach wie vor unklar. Strategien gegen diese Mutanten könnten neue zielgerichtete Behandlungsoptionen aufzeigen“, sagt Manuel Lauinger von der Universität Freiburg, Erstautor der aktuellen Arbeit, und ergänzt: „Tatsächlich deuten Fallberichte darauf hin, dass das Medikament Dabrafenib, ein Kinase-Inhibitor, der zur Behandlung von durch BRAFV600E-getriebenen Krebsarten entwickelt wurde, auch gegen Tumoren wirkt, die bestimmte Varianten der Deletions-Mutanten tragen.“

Ausgelöst durch die Entdeckung von zwei neuen Varianten der BRAF-Deletions-Mutante an den DKTK-Standorten Heidelberg und Tübingen, führte Manuel Lauinger einen detaillierten Vergleich der verschiedenen Deletions-Mutanten in Bezug auf ihre biochemischen und pharmakologischen Eigenschaften durch. Er fand heraus, dass sie sich überraschenderweise trotz ihrer sehr ähnlichen genetischen Veränderung in ihrer Empfindlichkeit gegenüber Dabrafenib deutlich unterscheiden. Darüber hinaus konnte Lauinger ein molekulares Detail identifizieren, das bestimmten Deletions-Mutanten Resistenz gegen Dabrafenib verleiht. Diese Erkenntnisse können neue Ansätze für die Entwicklung zukünftiger Arzneimittel für die Präzisionsonkologie liefern.

Während vor einer Behandlung mit Dabrafenib die genauen molekularen Details der jeweiligen BRAF-Deletions-Mutante beachtet werden müssen, gilt dies offenbar nicht für die so genannte dritte Generation an BRAF-Inhibitoren. Diese Wirkstoffe, die derzeit in klinischen Studien geprüft werden, erwiesen sich als wirksam gegen alle Mitglieder der Gruppe der BRAF-Deletions-Mutanten. Diese Untersuchungen wurde in Krebszelllinien sowie auch in Tumor-Organoiden („Mini-Tumoren“), die aus den Krebszellen individueller Patienten gezüchtet worden waren, durchgeführt.

* MASTER = Molecularly Aided Stratification for Tumor Eradication Research: Dieses Programm wurde ursprünglich am NCT Heidelberg und am NCT Dresden etabliert und stellt seit 2016 eine gemeinsame Aktivität aller DKTK-Standorte dar.
Originalveröffentlichung:
Lauinger, M., Christen, D., Klar, R.F.U., Roubaty, C., Heilig, C.E., Stumpe, M., Knox, J, Radulovich, N., Tamblyn, L., Xie, I., Horak, P., Forschner, A., Bitzer, M., Wittel, U.A., Boerries, M., Ball, C.R., Heining, C., Glimm, H., Fröhlich, M., Hübschmann, D., Gallinger, S., Fritsch, R., Fröhling, S., O’Kane, G., Dengjel, J. und T. Brummer (2023). BRAFΔβ3-αC in-frame deletion mutants differ in their dimerization propensity, HSP90 dependence and druggability.
Science Advances 2023, DOI: 10.1126/sciadv.ade7486

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

(nach oben)


Wie Windturbinen auf Turbulenzen reagieren

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Sprunghafte Leistungsänderungen von Windkraftanlagen könnten sich mit Hilfe einer neuen stochastischen Methode abschwächen lassen. Ein deutsch-iranisches Team zeigt in einer neuen Studie, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die in der Zeitschrift PRX Energy veröffentlichten Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren.

Die Leistung von Windkraftanlagen kann innerhalb von Sekunden um die Hälfte schwanken. Solche Fluktuationen im Megawattbereich belasten sowohl die Stromnetze als auch die Anlagen selbst. Einen möglichen Ansatz, um diese sprunghaften Änderungen zu vermeiden, zeigt nun eine neue Studie von Forschern der Universität Oldenburg und der Sharif Universität in Teheran (Iran) auf. Das Team berichtet, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren. Die Studie ist in der Zeitschrift PRX Energy erschienen.

Das Team um Hauptautor Dr. Pyei Phyo Lin von der Universität Oldenburg analysierte Daten mehrerer Anlagen in einem Windpark. „Weil Windkraftanlagen unter turbulenten Windbedingungen arbeiten – ähnlich wie ein Flugzeug, das bei starkem Wind landet – schwanken alle Messdaten sehr stark, es ist kein klares Signal zu erkennen. Wir sprechen von Rauschen“, berichtet Lin. Der Physikingenieur und seine Kollegen untersuchten Zeitreihen der Windgeschwindigkeit, der elektrischen Leistung der Anlagen und der Drehgeschwindigkeit des Generators mit stochastischen Methoden.

Mit ihrem neuen mathematischen Ansatz gelang es den Forschern, das Rauschen in den Daten in zwei verschiedene Anteile aufzuspalten, von denen einer auf den Wind zurückzuführen ist und der andere auf die Reaktion des Kontrollsystems der Anlage. „Meist wird das Rauschen als lästiger Effekt betrachtet, der die Messungen stört“, sagt Lin. „Jetzt liefert uns das Rauschen neue Informationen über das System – das ist eine neue Qualität“, ergänzt Ko-Autor Dr. Matthias Wächter, der an der Universität Oldenburg die Arbeitsgruppe Stochastische Analyse leitet.

Wie das Team berichtet, deuten die Ergebnisse darauf hin, dass die Kontrollsysteme von Windkraftanlagen häufig nicht optimal auf kurzfristige Schwankungen des Windes reagieren: Meist wechseln sie die Kontrollstrategie, was zu den beobachteten starken Schwankungen der elektrischen Leistung führen kann. Durch die neuen Forschungsergebnisse sei es nun jedoch möglich, turbulente Windphänomene und die Reaktion der Kontrollsysteme zu entkoppeln. „Auf diese Weise wird es möglich, die Kontrollsysteme zu verfeinern, damit Windkraftanlagen gleichmäßiger Strom erzeugen“, so der Turbulenzexperte Prof. Dr. Joachim Peinke von der Universität Oldenburg, der an der Studie beteiligt war. Gleichzeitig lasse sich so die Effizienz von Windkraftanlagen verbessern und ihre Lebenszeit verlängern.

Prof. Dr. Mohammad Reza Rahimi Tabar, der zum Forschungsteam der aktuellen Studie gehörte, ist derzeit Fellow am Hanse-Wissenschaftskolleg in Delmenhorst.

Wissenschaftliche Ansprechpartner:
Dr. Pyei Phyo Lin (für Anfragen auf Englisch), Tel.: 0441/798-5052, E-Mail: pyei.phyo.lin@uol.de
Prof. Dr. Joachim Peinke, Tel.: 0441/798-5050, E-Mail: peinke@uol.de

Originalpublikation:
Pyei Phyo Lin, Matthias Wächter, M. Reza Rahimi Tabar und Joachim Peinke: „Discontinuous Jump Behavior of the Energy Conversion in Wind Energy Systems“, PRX Energy 2, 033009, https://doi.org/10.1103/PRXEnergy.2.033009

Weitere Informationen:
https://uol.de/twist

(nach oben)


Zukünftig künstliche Hüften für ein ganzes Leben?

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Interdisziplinäres Forschungsteam der Uni Magdeburg entwickelt haltbare und biokompatible Materialien für dauerhafte Implantate

Ein interdisziplinäres Forschungsteam aus Werkstoffingenieurinnen und -ingenieuren sowie Biologinnen und Medizinstudierenden der Otto-von-Guericke-Universität Magdeburg entwickelt neue Materialien für langlebige Implantate. Biokompatible und antibakterielle Legierungen mit speziellen biomechanischen Eigenschaften sollen künftig schädliche Wechselwirkungen der Implantate mit dem umliegenden menschlichen Gewebe und dadurch entstehende Entzündungsreaktionen beziehungsweise Infektionen verhindern. Dadurch können die Haltbarkeit und Verträglichkeit künstlicher Gelenke verlängert und der Austausch des Implantats, eine sogenannte Implantatrevision, vermieden werden. Speziell Revisionsoperationen stellen eine enorme Belastung für die Patientinnen und Patienten dar und verursachen erhebliche Mehrkosten für das Gesundheitssystem.

„Durch die gestiegene Lebenserwartung und anhaltende Aktivität der Zielgruppe, erhöht sich die Belastung der Gelenke enorm, was wiederum zu einem vermehrten Verschleiß führt“, erklärt die Projektleiterin Prof. Dr. Manja Krüger vom Institut für Werkstoff- und Fügetechnik der Universität Magdeburg. „Die Folge ist eine Zunahme von Implantationen künstlicher Gelenke bei Patientinnen und Patienten und damit verbunden ein steigender Bedarf an besonders haltbaren und verträglichen Werkstoffen für diese Implantate.“ Aktuell eingesetzte Implantatwerkstoffe seien zwar prinzipiell schon von sehr hoher Qualität, aufgrund von Lockerungen, bedingt durch Abrieb und Korrosion, kann es dennoch zu postoperativen Komplikationen kommen, so die Ingenieurin weiter. Um diese Probleme zu beheben, würden für die Patienten und Patientinnen belastende und teure Revisionsoperationen nötig. „Vor allem während der Nutzung im Organismus entstehender Abrieb und resultierende Infektionen führen häufig dazu, dass Endoprothesen, also Implantate, wieder entfernt oder ausgetauscht werden müssen.“

Damit diese Revisionsoperationen in Zukunft nur noch selten nötig werden, forschen die Wissenschaftlerinnen und Wissenschaftler der Universität Magdeburg in zwei Teilbereichen: Zum einen befassen sich Ingenieure und Ingenieurinnen des Lehrstuhls für Hochtemperaturwerkstoffe mit der Materialentwicklung, also dem Design der Legierung sowie mit den mikrostrukturellen und mechanischen Eigenschaften der Materialien und deren Herstellung. Zum anderen arbeiten Biologinnen und Medizin-Studierende aus der Experimentellen Orthopädie des Universitätsklinikums daran, die Verträglichkeit des neuen Werkstoffs für den Organismus zu verstehen und zu optimieren.

„Uns interessieren dabei besonders sogenannte biokompatible Werkstoffe“, erklärt die Materialwissenschaftlerin Manja Krüger, „also im weiteren Sinne für das biologische System verträgliche Materialien.“ Biokompatibel seien, beispielsweise refraktärmetallbasierte Multikomponenten-Werkstoffsysteme, so Krüger. „Diese sogenannten Hoch- und Mediumentropie-Werkstoffe ermöglichen eine große Vielfalt von Kombinationen, was zu völlig neuen Werkstoffen mit außergewöhnlichen Eigenschaften führt. Kürzlich entwickelte Materialien dieser Art zeigen zum Beispiel hervorragende mechanische Eigenschaften, verbesserte Abriebfestigkeit und sowohl korrosive als auch thermische Beständigkeit, die denen von aktuellen Legierungen überlegen sind.“ Diese Legierungen hätten gegenüber den im Moment eingesetzten silberbeschichteten Implantaten den Vorteil, dass bei ihnen noch keine Resistenzen bekannt seien. „Wir wissen, dass Bakterien im Laufe der Jahre einen Resistenzmechanismus gegen Silber entwickeln können, sodass die ursprüngliche antibakterielle Wirkung des Elements abgeschwächt wird. Das wiederum bedeutet, dass auch Silberimplantate irgendwann nicht mehr antibakteriell wirken und periprothetische Infekte, also Infektionen, die sich um eine künstliche Implantation im Körper herum entwickeln, auftreten können“, fügt die Biologin Prof. Jessica Bertrand von der Experimentellen Orthopädie des Universitätsklinikums an.

Langfristiges Ziel der Forscherinnen und Forscher ist es, ein passendes Legierungssystem als neuartigen Implantatwerkstoff zu identifizieren, zu entwickeln und im Labor zu erproben. „Konkret heißt das: Die zugrundeliegenden materialwissenschaftlichen Zusammenhänge sind geklärt, die mechanischen Eigenschaften sind bekannt und übertreffen die branchenüblichen Anforderungen aktuell im Einsatz befindlicher Werkstoffe für Endoprothesen beziehungsweise sind entsprechend patientenspezifisch einstellbar und für die Biokompatibilität beziehungsweise die antibakterielle Wirkung des Systems ist der Nachweis erbracht“, so Prof. Krüger.

Das Forschungsteam besteht aus Prof. Dr. Manja Krüger, Maximilian Regenberg, Dr. Georg Hasemann und Dr. Janett Schmelzer von der Fakultät für Maschinenbau sowie Prof. Dr. Jessica Bertrand, Caroline Grimmer und Munira Kalimov von der Experimentellen Orthopädie. Das Team wurde für seine interdisziplinäre Forschung mit dem zweiten Platz in der Kategorie „Innovativste Vorhaben der Grundlagenforschung“ des Hugo-Junkers-Preises 2023 ausgezeichnet.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manja Krüger, Institut für Werkstoff- und Fügetechnik, Fakultät für Maschinenbau, Tel.: +49 391 67-54516, E-Mail: manja.krueger@ovgu.de

(nach oben)


Nord- und Ostsee im Spannungsfeld von Meeresnutzung und Meeresschutz

Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Jahrestagung der DAM-Forschungsmission sustainMare an der Uni Kiel stellt Handlungswissen für Politik und Gesellschaft in den Mittelpunkt

• 280 Wissenschaftlerinnen und Wissenschaftler aus 28 Institutionen und 40 Arbeitsgruppen forschen erstmals gemeinsam in sieben Projekten zu Zukunftsthemen der Nord- und Ostsee
• Transdisziplinäre Forschungsagenda mit Akteurinnen und Akteuren aus Politik, Wirtschaft und Zivilgesellschaft
• Mehr als 170 Forschende zu Gast an der Christian-Albrechts-Universität zu Kiel (CAU) thematisieren multiple ökologische, ökonomische und gesellschaftliche Auswirkungen der Nutzung von Nord- und Ostsee

Die Nordsee und die Ostsee und ihre Küsten beherbergen eine einzigartige Vielfalt an Lebewesen. Der Druck auf diese Lebensräume steigt allerdings. Der Klimawandel und der für die kommenden Jahre geplante Ausbau der Offshore-Energiegewinnung werden die Nord- und Ostsee stark verändern. In dieser Situation benötigen wir neue Maßnahmen zum Schutz der Natur und den Erhalt der biologischen Vielfalt. Ansprüche, beispielsweise aus der Industrie, der Fischerei, dem Tourismus oder der Landwirtschaft müssen mit europäischen Naturschutzabkommen wie der Biodiversitätsstrategie 2030 oder politischen Vorgaben zum Ausbau der Offshore-Windenergie in Einklang gebracht werden. In diesem komplexen Spannungsfeld gilt es, Handlungswissen für Politik und Gesellschaft bereitzustellen, das zu einem nachhaltigen Umgang mit dem Meeresraum und seinen Ökosystemleistungen bei gleichzeitiger Mehrfachnutzung beitragen kann. Erstmals forschen dazu Wissenschaftlerinnen und Wissenschaftler aus 28 Partnerinstitutionen interdisziplinär und transdisziplinär mit Expertinnen und Experten aus der Praxis in der Forschungsmission „Schutz und nachhaltige Nutzung mariner Räume – sustainMare“ der Deutschen Allianz Meeresforschung (DAM). Heute (Mittwoch, 30. August) beginnt an der Christian-Albrechts-Universität zu Kiel (CAU) die zweite Jahrestagung der Mission, an der mehr als 170 Wissenschaftlerinnen und Wissenschaftler sowie Vertreterinnen und Vertreter verschiedener Interessengruppen teilnehmen.

Karin Prien, Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, begrüßte die Teilnehmenden zu Beginn der Konferenz: „Der Schutz der Meere und der Küstenregionen ist nicht nur für Norddeutschland, sondern für die gesamte Welt von hoher Relevanz und der Arbeit der Forscherinnen und Forscher auf diesem Gebiet kann nicht genug Bedeutung beigemessen werden. Ich bin stolz darauf, dass sich das Land Schleswig-Holstein durch die Förderung der DAM inklusive der Forschungsmissionen aktiv beteiligen kann.“

Der Vorsitzende der DAM, Dr. Jochen Harms, betont zusätzlich: „Unsere größte Herausforderung ist, die unterschiedlichen Nutzungsinteressen mit dem Schutz unserer beiden Meere in Einklang zu bringen – um sie auch für künftige Generationen als Lebensgrundlage zu bewahren. Wissenschaftliche Erkenntnisse dafür zu erarbeiten, steht im Fokus der Mission sustainMare.“

Erhöhter Forschungsbedarf durch massive Veränderungen im System Nord- und Ostsee
„Die Nord- und Ostsee werden sich in den nächsten 25 Jahren gravierend verändern. Nicht nur die Folgen des Klimawandels werden die die Regionen weiter belasten. Auch die verstärkte Nutzung durch Industrie, Schifffahrt, Militär und für die Energieerzeugung wird sich massiv auf die Ökosysteme auswirken. Das ist eine Herausforderung für die Fischerei und den Meeresschutz, aber auch für die Forschung. Unser Verständnis der Systeme Nordsee und Ostsee wie wir sie kennen wird durch diese Veränderungen an Bedeutung verlieren und neue Forschungsfragen werden aufgeworfen, die nur im breiten Verbund der wissenschaftlichen Institutionen bearbeitet werden können“, sagt Professorin Corinna Schrum vom Helmholtz-Zentrum Hereon und Sprecherin der DAM-Forschungsmission sustainMare.

Forschende ziehen Bilanz aus den Ergebnissen von insgesamt sieben Projekten
Im Rahmen der dreitägigen Konferenz werden nun die ersten Ergebnisse nach eineinhalb Jahren Forschung von insgesamt fünf Verbundprojekten und zwei Pilotmissionen zusammengetragen und die Weichen für die zukünftige wissenschaftliche Agenda gestellt. Dabei konzentrieren sich die Forscherinnen und Forscher auf drei thematische Schwerpunkte: Biodiversität und die Auswirkungen anthropogener Belastungen und Nutzungen auf marine Ökosysteme, Schadstoffbelastungen mit dem Schwerpunkt auf Munitionsaltlasten aus den Weltkriegen sowie die Entwicklung von Modellierungsinstrumenten zur Erstellung von Zukunftsszenarien, insbesondere unter Berücksichtigung der Klimaveränderungen und des Nutzungsdrucks durch Offshore-Windenergie, Fischerei oder Sedimentmanagement.

Gerade im Hinblick auf die zunehmende Mehrfachnutzung von Nord- und Ostsee ist es wichtig, solche Modelle zu entwickeln, in denen klassische Auswertungsmethoden durch neue molekulare und semi-autonome Methoden ergänzt werden. Ziel ist es, Lücken in der Datenerhebung zu schließen, um wissensbasierte Managementoptionen abzuleiten.

Transdisziplinärer Forschungsansatz mit Akteuren außerhalb der Wissenschaft
Dafür wählt sustainMare einen besonderen Ansatz: Akteure aus Politik und Behörden, aus Fischerei, Tourismus, Umweltverbänden und Wirtschaft werden aktiv in die Forschung eingebunden. Dabei setzen die Wissenschaftlerinnen und Wissenschaftler auf etablierte transdisziplinäre Methoden wie Reallabore und Dialogformate, um Fragestellungen und Ergebnisse mit betroffenen Stakeholdern hin zu tragfähigen Konzepten weiterzuentwickeln. So wurden beispielsweise für die Zukunft der Küstenfischerei in der westlichen Ostsee Reallabore in Schleswig-Holstein und Mecklenburg-Vorpommern aufgebaut. „Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Sie soll möglichst erhalten bleiben. Mit dem Instrument der Reallabore wächst der Austausch zwischen den Akteuren und das gemeinsame Verständnis über die Funktionsweise des Ökosystems, aber auch über die Rolle der Küstenfischerei für die lokalen Gemeinschaften. Gemeinsam können wir hier lokale Lösungsansätze für eine nachhaltige Fischerei entwickeln und ausprobieren“, erklärt CAU-Professorin Marie-Catherine Riekhof, Mitorganisatorin der sustainMare-Tagung.

Auch in der Nordsee werden die Mehrfachnutzungen und die Biodiversität in Meeresschutzgebieten mit einem Reallabor-Ansatz und mit neuartigen Methoden erforscht, die nicht mehr in die Ökosysteme eingreifen. Indikatoren zur Bewertung des ökologischen Zustands von Küstenökosystemen und deren Anwendung in der Naturschutzpraxis werden darüber hinaus in den Nationalparks Schleswig-Holsteins und Niedersachsens entwickelt.

Akutes Umweltproblem: Bergung von Nachkriegsmunition
Ein akutes Umweltproblem, auf das die Mission ihr Augenmerk richtet, sind die erheblichen Munitionsaltlasten, die in der deutschen Nordsee und Ostsee nach dem Zweiten Weltkrieg verklappt wurden. Auch hier wurde im Rahmen der Forschungsmission sustainMare ein transdisziplinärer Ansatz gewählt. „Der Handlungsdruck ist groß. Die Munition liegt dort teilweise seit mehr als 100 Jahren im Salzwasser, so dass sich die Metallhüllen zersetzen. Wir konnten Schadstoffe wie TNT in marinen Lebewesen nachweisen. Es gibt bereits weit fortgeschrittene Konzepte für die Beseitigung der Nachkriegsmunition, die nun in den kommenden Jahren umgesetzt werden sollen. Glücklicherweise existiert ein breiter gesellschaftlicher und politischer Konsens darüber, endlich mit der Problemlösung zu beginnen“, sagt Professor Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Mitorganisator der Jahrestagung.

Erstmalig ganzheitlicher Zustand von Schutzgebieten in Nord- und Ostsee erfasst
Wertvolle Erkenntnisse für die gesamte Mission sustainMare wurden zudem in den beiden Pilotmissionen „Ausschluss mobiler, grundberührender Fischerei in Schutzgebieten der Deutschen ausschließlichen Wirtschaftszone (AWZ) von Nord- und Ostsee“ gewonnen. Hierbei ist die zentrale Frage, wie sich ein Ausschluss der Schleppnetzfischerei auf die Lebensgemeinschaften, die Beschaffenheit des Meeresbodens, die Biogeochemie der Sedimente und auf die Austauschprozesse zwischen Sediment und Wassersäule auswirken wird. Erstmalig wurde dafür ein ganzheitlicher Basiszustand der Schutzgebiete erfasst, um verfolgen zu können, wie sich Ökosysteme ohne Schleppnetzstörung entwickeln. Auf der Grundlage dieser Datenerhebung wird nun mit neuen und traditionellen Methoden ein Monitoring entwickelt, das dazu beiträgt, Zustandsveränderungen rechtzeitig zu erkennen und Gegenmaßnahmen einzuleiten.

Folgen mehrfacher Nutzung der Küstengewässer im Fokus zukünftiger Forschung
Die Energiewende und besonders die Notwendigkeit der Sicherung der Energieerzeugung hat im vergangenen Jahr zu einer erheblichen Beschleunigung des Ausbautempos der Offshore-Energiegewinnung geführt. Das ist eine Entwicklung, der sich die Forschungsmission sustainMare nicht verschließen kann. Schon heute sind Auswirkungen auf die Strömungsverhältnisse und den Meeresboden sowie Veränderungen der Lebensräume für Fische, Meeressäuger oder Seevögel zu beobachten. Die Folgen der intensiven Nutzung unserer Küstengewässer, die Untersuchung von wirksamen Schutzkonzepten und Konzepten zur besseren Ausnutzung des Meeresraumes werden deshalb im weiteren Verlauf der Forschungsmission noch zentraler für die Forschung werden.

Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-baumkurre-nordsee.jpg
Baumkurre im Einsatz in der Nordsee.
© AWI; Hermann Neumann, Thünen-Institut für Seefischerei

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-gruppenfoto-auftakt.jpg
Auftakt zur sustainMare-Jahrestagung an der Uni Kiel zu Zukunftsthemen der Nord- und Ostsee: Karin Prien (4.v.l.), Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, CAU-Präsidentin Prof. Simone Fulda (5.v.r.), Tobias Goldschmidt (4.v.r.), Minister für Energiewende, Klimaschutz, Umwelt und Natur des Landes Schleswig-Holstein (MEKUN), Prof. Corinna Schrum (3.v.r.) vom Helmholtz-Zentrum Hereon, Sprecherin der DAM-Forschungsmission sustainMare und Leiterin des sustainMare-Projektes CoastalFutures, Dr. Joachim Harms (2.v.r.), Vorsitzender des DAM-Vorstands, im Kreis der Projektleitenden und Organisatorinnen und Organisatoren der Konferenz.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-simone-fulda.jpg
Professorin Simone Fulda, Präsidentin der Christian-Albrechts-Universität zu Kiel (CAU), begrüßte die Teilnehmenden der sustainMare-Jahrestagung.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-marie-catherine-riekhof.j…
Prof. Dr. Marie-Catherine Riekhof vom Center for Ocean and Society im CAU-Forschungsschwerpunkt Kiel Marine Science (KMS), leitet sustainMare-Projekt SpaceParti mit Fokus Fischerei, räumliche Nutzung, Biodiversität und Reallabore.
© Jürgen Haacks, Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-fischerei-hafen.jpg
Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Mit dem Instrument der Reallabore sollen lokale Lösungsansätze für eine nachhaltige Fischerei entwickelt und ausprobiert werden.
© Heike Schwermer, CeOS/Uni Kiel

https://www.uni-kiel.de/de/pressemitteilungen/2023/209-jens-greinert.jpg
Im Projekt CONMAR, das Professor Dr. Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel leitet, wird zum Thema Munition im Meer geforscht.
© Jürgen Haacks, Uni Kiel

Weiteres Bildmaterial ist verfügbar unter:
Zu Projektbildern von sustainMare (abrufbar bis einschließlich 11. September 2023), https://cloud.rz.uni-kiel.de/index.php/s/tFQXysyzggSWykb
Zum Bildarchiv der DAM, https://www.allianz-meeresforschung.de/download

Ein Video steht zur Ansicht bereit:
https://videoportal.rz.uni-kiel.de/Mediasite/Play/8e31813a4cc44590a08ad1601f9e4a… (abrufbar bis einschließlich 11. September 2023)
Videobotschaft von Bettina Stark-Watzinger, Bundesministerium für Bildung und Forschung (BMBF), zum Auftakt der sustainMare-Jahrestagung. Die DAM Forschungsmission sustainMare wird vom BMBF und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
© Bundesministerium für Bildung und Forschung (BMBF)

Über sustainMare
In der Forschungsmission „sustainMare – Schutz und nachhaltige Nutzung mariner Räume“ der DAM untersuchen rund 250 Forschende in zwei Pilot- und fünf Verbundprojekten, wie zukünftig eine nachhaltige Nutzung bei gleichzeitigem Schutz der Meere gewährleistet werden kann. Durch inter- und transdisziplinäre Forschungsansätze sollen das Wissen über multiple Stressoren und die Auswirkungen des Klimawandels auf das Ökosystem Meer erhöht und mithilfe von Zukunftsszenarien konkrete Handlungsempfehlungen für und mit verschiedenen Zielgruppen erarbeitet werden. Übergreifend koordiniert wird sustainMare am Helmholtz-Zentrum Hereon. Seit Dezember 2021 wird sustainMare in seiner ersten dreijährigen Phase vom Bundesministerium für Bildung und Forschung (BMBF) mit 25 Mio. Euro gefördert. Die DAM erarbeitet mit ihren 22 Mitgliedseinrichtungen lösungsorientiertes Wissen und Handlungsoptionen für einen nachhaltigen Umgang mit den Küsten, Meeren und dem Ozean.
Die sustainMare-Forschungsmission ist eine Aktivität im Rahmen der UN Ozeandekade für Ozeanforschung und Teil des Dekadenprogramms „smartNet“. Die sustainMare-Konferenz ist gleichzeitig als Veranstaltung unter dem Dach des „European Maritime Day in my Country“ anerkannt, einer Kampagne der Europäischen Kommission zu Stärkung des Meeresschutzes als auch der wirtschaftlichen Bedeutung der Meere für eine nachhaltige Blaue Wirtschaft in Europa.
https://www.sustainmare.de/

Über die Deutsche Allianz Meeresforschung
Die Deutsche Allianz Meeresforschung (DAM) wurde 2019 vom Bund und den norddeutschen Ländern gegründet, um den nachhaltigen Umgang mit Küsten, Meeren und dem Ozean zu stärken. Mit ihren 24 Mitgliedseinrichtungen und den eigenen Forschungsmissionen CDRmare und sustainMare erarbeitet die DAM lösungsorientiertes Wissen und vermittelt Handlungsoptionen in Politik, Wirtschaft und Zivilgesellschaft. Sie wird vom Bund, vertreten durch das Bundesministerium für Bildung und Forschung (BMBF), und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
https://www.allianz-meeresforschung.de/
https://cdrmare.de/
https://www.sustainmare.de/

Wissenschaftliche Kontakte:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Pressekontakte:
Friederike Balzereit
Wissenschaftskommunikation | Öffentlichkeitsarbeit
Kiel Marine Sciences (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: fbalzereit@uv.uni-kiel.de
Telefon: 0431/880-3032, 0160/9726-2502

Christoph Wöhrle
Helmholtz-Zentrum Hereon
Kommunikation und Medien ℓ Communication and Media
E-Mail: christoph.woehrle@hereon.de
Telefon: 04152/87-1648, 0171/8064-979

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Eva Sittig, Text/Redaktion: Friederike Balzereit Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: https://www.uni-kiel.de Twitter: https://www.twitter.com/kieluni Facebook: https://www.facebook.com/kieluni Instagram: https://www.instagram.com/kieluni

Wissenschaftliche Ansprechpartner:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de

Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de

Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/209-sustainmare-jahrestagung

(nach oben)


Frauen im Fokus

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen
Eine neue Nachwuchsforschungsgruppe an der Uni Siegen untersucht die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts. Ein Ziel des Projektes ist auch, zu einem neuen Verständnis von Wissenschaftsphilosophie und -geschichte beizutragen.

Die Kernspaltung, die DNA-Doppelhelix-Struktur, die Radioaktivität: Viele bahnbrechende wissenschaftliche Entdeckungen gehen maßgeblich auf die Forschungsleistungen von Frauen zurück. Auch zahlreiche Ansätze und Theorien, die heute zum Grundbestand der mathematischen Physik zählen, wurden von Wissenschaftlerinnen (mit)entwickelt. Zu ihren Lebzeiten wurden sie jedoch häufig kaum für ihre Errungenschaften gewürdigt. Bis heute sind ihre Namen vielen Menschen unbekannt – während berühmte Physiker wie Albert Einstein, Max Planck oder Werner Heisenberg in aller Munde sind. Eine Nachwuchsforschungsgruppe am Department Mathematik der Universität Siegen hat es sich zum Ziel gesetzt, die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts zu erforschen – und sogenannte „Gender Biases“ im Schnittfeld von Wissenschafts- und Philosophiegeschichtsschreibung zu analysieren.

„Gender Biases sind systematische Verzerrungseffekte, die durch geschlechtsbezogene Vorurteile geprägt sind und zu Benachteiligungen führen“, erklärt die Leiterin der Siegener Nachwuchsforschungsgruppe, Dr. Andrea Reichenberger: „Gender Biases wirken nicht nur in unserer alltäglichen Kommunikation und Interaktion, sondern eben auch in der Wissenschaft und Forschung – und nicht zuletzt in der Wissenschaftsphilosophie und -geschichte. Uns geht es deshalb zum einen darum, den Anteil von Frauen an der Entstehung wichtiger Erkenntnisse in der mathematischen Physik neu zu bewerten. Zum anderen möchten wir neue Ansätze einer Philosophie und Geschichte der Wissenschaften vorstellen, indem wir innovative Perspektiven auf das Thema Gleichstellung aufzeigen.“

Ein Beispiel für die Unterbewertung der wissenschaftlichen Beiträge von Frauen ist die amerikanische Mathematikerin Christine Ladd-Franklin: Bis kurz vor ihrem Tod im Jahr 1930 wurde ihr von der John Hopkins University trotz erreichter Qualifikation der Doktortitel vorenthalten, weil sie eine Frau war. Dennoch waren ihre Beiträge in Philosophie, Logik, Mathematik und Psychologie sehr einflussreich und führten dazu, dass Ladd-Franklin in zahlreichen Publikationen zitiert wurde. Nach ihrem Tod geriet die Wissenschaftlerin jedoch rasch in Vergessenheit, stattdessen wurde ihr Lehrer, der Mathematiker und Philosoph Charles Sanders Peirce, als herausragender Logiker seiner Zeit gefeiert.

„Zu ihren Lebzeiten waren Christine Ladd-Franklins Arbeiten zur Algebra der Logik einflussreich und wichtig, das lässt sich auch statistisch nachweisen. Ihr Einfluss auf die Geschichte und Philosophie der Logik sollte daher angemessener eingeordnet werden“, sagt Jasmin Özel von der Siegener Forschungsgruppe.

Weitere Wissenschaftlerinnen, mit denen sich Andrea Reichenberger und ihr Team beschäftigen, sind unter anderen die französische Logikerin und Physikerin Paulette Destouches-Février oder auch die deutsch-australische Physikerin und Philosophin Ilse Rosenthal-Schneider. Rosenthal-Schneider promovierte 1920 an der Universität Berlin zum Thema „Das Raum-Zeit-Problem bei Kant und Einstein“, Albert Einstein begleitete die Arbeit in Gesprächen und Diskussionen. Doch trotz Empfehlungsschreiben von Einstein, Max Planck und Max von Laue erhielt die Wissenschaftlerin nach ihrer Emigration nach Australien nie mehr als eine Tutorenstelle. Und dennoch lieferte Rosenthal-Schneider mit ihrer unermüdlichen Lehr- und Publikationstätigkeit wichtige Impulse für das später gegründete Institut für „History and Philosophy of Science“ an der Universität Sydney.

Archivmaterial wie Briefe oder wissenschaftliche Aufsätze sind eine wichtige Quelle für die Siegener Forscher*innen. Neben der qualitativen Analyse solcher Texte erheben sie auch quantitative Daten, beispielsweise zur Anzahl der Zitierungen in wissenschaftlichen Publikationen. „Die Kombination von qualitativen und quantitativen Forschungsmethoden ist sehr gewinnbringend, wenn es darum geht, sich dem tatsächlichen Anteil von Frauen in der Geschichte der Physik und Mathematik anzunähern“, erklärt Reichenberger. Der Blick auf die Historie habe zudem direkte Bezüge zu Gegenwart und Zukunft, betont sie: „Wird die scheinbare Abwesenheit von Frauen im wissenschaftlichen Kanon unhinterfragt fortgeschrieben, dann bleiben tief liegende, stereotype Denkmuster erhalten und werden von Generation zu Generation weitervererbt. Auf diese Machtstrukturen möchten wir aufmerksam machen.“

Hintergrund:
Die Nachwuchsforschungsgruppe „Geschichte und Philosophie neu denken: Frauen im Fokus“ wird von der Universität Siegen im Rahmen des Professorinnen-Programms von Bund und Ländern mit 420.000 Euro gefördert. Neben Dr. Andrea Reichenberger und Jasmin Özel gehören Julia Franke-Redding und Dr. Rudolf Meer zu der Siegener Nachwuchsforschungsgruppe. Meer ist mit einem Marie Curie STAR Fellowship aus Österreich an die Universität Siegen gekommen, um in der Gruppe zu forschen. Alle vier Wissenschaftler*innen sind ausgebildete Philosophie-Historiker*innen mit einem Schwerpunkt auf den Fächern Physik und Mathematik.

Wissenschaftliche Ansprechpartner:
Dr. Andrea Reichenberger (Leiterin der Nachwuchsforschungsgruppe)
E-Mail: andrea.reichenberger@uni-siegen.de
Tel.: 0271 740 5601

(nach oben)


Meereisrückgang lässt Zooplankton künftig länger in der Tiefe bleiben

Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Sonnenlicht kann wegen der zunehmenden Meereisschmelze in der Arktis immer tiefer in den Ozean eindringen. Weil sich das Zooplankton im Meer an den Lichtverhältnissen orientiert, verändert sich dadurch auch sein Verhalten – vor allem dabei der Auf- und Abstieg der winzigen Tiere innerhalb der Wassersäule. Wie ein internationales Forschungsteam unter Leitung des Alfred-Wegener-Instituts nun zeigt, könnte dies in Zukunft zu häufigeren Hungerphasen beim Zooplankton und zu negativen Effekten bis hin zu Robben und Walen führen. Die Studie ist im Fachmagazin Nature Climate Change erschienen.

Ausdehnung und Dicke des Meereises in der Arktis schwinden in Folge des menschengemachten Klimawandels deutlich. So schrumpft die durchschnittliche Fläche des Eises derzeit um etwa 13 Prozent pro Dekade. Schon 2030 – so zeigen es aktuelle Studien und Modellrechnungen – könnte der Nordpol im Sommer erstmals eisfrei sein. Die physikalischen Umweltbedingungen für das Leben im Nordpolarmeer ändern sich dadurch ebenso deutlich. Das Sonnenlicht etwa kann bei schrumpfender und dünnerer Eisdecke viel tiefer in das Wasser des Ozeans eindringen. In der Folge kann etwa die Primärproduktion – also das Wachstum – von Mikroalgen in Wasser und Eis unter bestimmten Bedingungen stark ansteigen. Wie sich die veränderten Lichtbedingungen auf höhere trophische Ebenen der Nahrungskette – wie beispielsweise das sich unter anderem von Mikroalgen ernährende Zooplankton – auswirken, ist bislang noch nicht gut verstanden. Ein internationales Forschungsteam um Dr. Hauke Flores vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) hat nun einen wichtigen wissenschaftlichen Baustein für ein besseres Verständnis geliefert.

„In den Ozeanen findet jeden Tag die gewaltigste synchrone Massenbewegung von Organismen auf dem Planeten statt“, sagt Hauke Flores. „Und das ist die tägliche Wanderung des Zooplanktons, zu dem etwa die winzigen Copepoden, auch bekannt als Ruderfußkrebse, und der Krill zählen. Nachts kommt das Zooplankton nah an die Wasseroberfläche, um zu fressen. Tagsüber wandert es wieder in die Tiefe, um sich vor Fressfeinden zu schützen. Einzelne Organismen des Zooplanktons sind zwar winzig, in der Summe aber ergibt sich so eine enorme tägliche Vertikalbewegung von Biomasse in der Wassersäule. In den Polargebieten sieht diese vertikale Wanderung allerdings anders aus. Sie ist hier saisonal, das heißt, dass das Zooplankton einem jahreszeitlichen Zyklus folgt. In der monatelangen Helligkeit des Polartags im Sommer bleibt das Zooplankton dauerhaft in größeren Tiefen, in der monatelangen Dunkelheit der Polarnacht im Winter kommt ein Teil des Zooplanktons dann dauerhaft in das oberflächennahe Wasser direkt unter dem Eis.“

Ganz wesentlich bestimmt werden sowohl die tägliche Wanderung in niedrigen Breiten als auch die saisonale Wanderung in den Polargebieten vom Sonnenlicht. Die winzigen Tiere mögen es meist dämmrig. Sie bleiben gern unterhalb einer bestimmten Lichtintensität (kritisches Isolumen), die meist sehr niedrig ist und weit im dunklen Dämmerlichtbereich liegt. Wenn sich im Laufe des Tages oder der Jahreszeiten die Sonnenlichtintensität ändert, folgt das Zooplankton dem Isolumen, was letztlich dann zum Auf- und Absteigen in der Wassersäule führt. „Speziell im Bereich der oberen 20 Meter Wassersäule direkt unter dem Meereis fehlten bislang Daten zum Zooplankton“, erläutert Hauke Flores. „Genau dieser schwer für Messungen erreichbare Bereich ist aber der spannendste, weil genau hier im und unter dem Eis die Mikroalgen wachsen, von denen sich das Zooplankton ernährt.“ Um hier zu messen, konstruierte das Team ein autonomes biophysikalisches Messobservatorium, das sie am Ende der MOSAiC-Expedition des AWI-Forschungseisbrechers Polarstern im September 2020 unter dem Eis verankerten. Das Gerät konnte hier – fernab jeder Lichtverschmutzung durch menschliche Aktivitäten – kontinuierlich die Lichtintensität unter dem Eis und die Bewegungen des Zooplanktons messen.

„Im Ergebnis konnten wir ein sehr niedriges kritisches Isolumen für das Zooplankton von 0,00024 Watt/Quadratmeter bestimmen“, sagt der AWI-Forscher. „Diesen Wert haben wir dann in unsere Computermodelle integriert, die das Meereissystem simulieren. So haben wir dann für verschiedene Klimaszenarien berechnet, wie sich die Tiefe dieses Isolumens bis zur Mitte dieses Jahrhunderts verändert, wenn das Meereis in Folge des fortschreitenden Klimawandels immer dünner wird.“ Dabei zeigte sich, dass das kritische Isolumen wegen der immer weiter abnehmenden Eisdicke immer früher im Jahr in größere Tiefen absinkt und immer später im Jahr wieder die Oberflächenschicht erreicht. Da das Zooplankton grundsätzlich unterhalb des kritischen Isolumens bleibt, wird es dieser Bewegung folgen. Deshalb hält es sich in den Zukunftsszenarien immer länger in größeren Tiefen auf und seine Zeit im Winter unter dem Eis wird immer kürzer.

„Künftig wird sich in einem wärmeren Klima das Eis im Herbst später bilden, was zu einer geringeren Eisalgenproduktion führt“, erklärt Hauke Flores. „In Kombination mit dem späteren Aufstieg kann das beim Zooplankton im Winter häufiger zu Nahrungsmangel führen. Im Gegenzug kann ein früherer Abstieg des Zooplanktons im Frühjahr eine Gefährdung für tiefer lebende Jungstadien von ökologisch wichtigen Zooplanktonarten bewirken, die dann vermehrt von den ausgewachsenen Tieren gefressen werden könnten.“

„Insgesamt zeigt unsere Studie einen bisher nicht beachteten Mechanismus auf, über den sich die Überlebenschancen des Zooplanktons in der Arktis in naher Zukunft weiter verschlechtern könnten“, sagt der AWI-Forscher. „Dies hätte fatale Auswirkungen auf das ganze Ökosystem bis hin zu Robben, Walen und Eisbären. Unsere Modellsimulationen zeigen aber auch, dass sich die Vertikalwanderung bei Einhaltung des 1,5 Grad-Ziels wesentlich weniger verschiebt als bei einem ungebremsten Fortschreiten der Treibhausgasemissionen. Deswegen ist für das arktische Ökosystem jedes Zehntel Grad weniger menschengemachte Erwärmung von entscheidender Bedeutung.“

SPERRFRIST: Montag, 28. August 2023 um 17:00 Uhr MESZ (16:00 London Time, 11:00 (US Eastern Time)

Wissenschaftliche Ansprechpartner:
https://www.awi.de/ueber-uns/service/expertendatenbank/hauke-flores.html

Originalpublikation:
H. Flores, G. Veyssiere, G. Castellani, J. Wilkinson, M. Hoppmann, M. Karcher, L. Valcic, A. Cornils, M. Geoffroy, M. Nicolaus, B. Niehoff, P. Priou, K. Schmidt, J. Stroeve: Sea-ice decline makes zooplankton stay deeper for longer; Nature Climate Change (2023). DOI: 10.1038/s41558-023-01779-1

Weitere Informationen:
http://multimedia.awi.de/medien/pincollection.jspx?collectionName=04b0ddd9f0d0c7… weitere Bilder

(nach oben)


Schutzschild gegen Coronaviren

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Gute Neuigkeiten für Patientinnen und Patienten mit einer erworbenen oder angeborenen Immunschwäche: Die Ergebnisse einer klinischen Phase II Studie am Universitätsklinikum Tübingen unter Leitung von Prof. Dr. Juliane Walz und Prof. Dr. Helmut Salih zeigen eine wirksame Aktivierung der T-Zellen gegen das Coronavirus. Nach positiven Ergebnissen der vorangegangen Phase I bei gesunden Probandinnen und Probanden konnte der T-Zell-Aktivator „CoVac-1“ diese Effekte nun erstmalig bei Krebspatientinnen und Krebspatienten reproduzieren. Die Ergebnisse wurden aktuell in der renommierten Fachzeitschrift Nature communications publiziert.

Tübinger T-Zell-Aktivator bietet immungeschwächten Patientinnen und Patienten Schutz
Auch nach Ende der COVID-19-Pandemie sind virale Infektionen wie SARS-CoV-2 für Patientinnen und Patienten mit geschwächtem Immunsystem eine ernst zu nehmende Bedrohung. Zu dieser Gruppe gehören insbesondere an Krebs erkrankte Menschen, die durch die Erkrankung selbst oder aufgrund der Tumortherapie keine ausreichende Immunantwort nach einer natürlichen Infektion oder einer Impfung mit herkömmlichen Impfstoffen bilden können. Bei diesen Personen entwickeln sich häufig keine Antikörper gegen die Viruserkrankung. Für diese immungeschwächten Menschen hat das Tübinger Team einen Impfstoff entwickelt, mit dem Ziel, sie besser vor Infektionserkrankungen zu schützen. Dieser aktiviert gezielt T-Zellen, die ein wichtiger Bestandteil unseres Immunsystems sind und in der Abwehr von Infektionserkrankungen eine entscheidende Rolle einnehmen.

Die Forschenden haben dafür den neuartige T Zell Aktivator CoVac-1 verwendet, der für die Krebsimmuntherapie entwickelt wird. Dies ist der Hauptforschungsschwerpunkt der Tübinger Immunologinnen und Immunologen. CoVac-1 wurde schon 2022 erfolgreich an gesunden Probandinnen und Probanden erprobt und zeigte eine gute Verträglichkeit bei sehr guter Immunstimulation, also einer sehr starken Aktivierung der T-Zellen.

Ergebnisse der Phase-II-Studie
Insgesamt wurden 54 Patienten und Patientinnen im Rahmen der Studie einmalig geimpft. Die meisten Studienteilnehmenden litten an Blutkrebserkrankungen und zeigten aufgrund ihrer Erkrankung selber oder aber der Tumortherapie ein deutlich geschwächtes Immunsystem. Es traten so gut wie keine Nebenwirkungen auf.
Nur vereinzelt wurde über leichte Beschwerden wie Kopfschmerzen und Müdigkeit berichtet.

Bei allen Probandinnen und Probanden entwickelte sich an der Impfstelle eine lokale Verhärtung. „Diese Lokalreaktion wird für unseren T-Zell-Aktivator erwartet und gewünscht. Sie ist Ausdruck der Bildung eines Depots an der Impfstelle, das einen schnellen Abbau der T-Zell-Reaktion verhindert und so eine langanhaltende Immunreaktion ermöglicht“, erklärt Dr. Jonas Heitmann, einer der Erstautoren der Studie.
Besonders hervorzuheben ist die langanhaltende Wirkung. Noch vier Wochen nach Impfung wurde eine breite und starke T-Zell-Immunantwort nachgewiesen. In ersten Folgeuntersuchungen blieben diese Immunantworten in unveränderter Stärke bestehen. Selbst in stark immungeschwächten Patientinnen und Patienten waren die durch CoVac-1 aktivierten T-Zell-Antworten deutlich stärker ausgeprägt als bei Genesenen nach natürlicher Infektion und auch potenter als die T-Zell-Immunität, die durch zugelassene mRNA- oder Vektorimpfstoffe erzeugt wird.

Eigene Impfstoffentwicklung, Herstellung und Erprobung
CoVac-1 wird im Wirkstoffpeptidlabor und der sogenannten GMP-Einheit des Universitätsklinikums und der Medizinischen Fakultät Tübingen hergestellt. Auch hier wird auf die langjährige Erfahrung und Expertise bei der Produktion von Impfstoffen für Krebserkrankte zurückgegriffen. Die klinische Evaluation des T-Zell-Aktivators erfolgt in der KKE Translationale Immunologie, einer deutschlandweit einzigartigen Einrichtung im Department Innere Medizin des Universitätsklinikums. Diese wurde etabliert, um innovative Immuntherapiekonzepte möglichst rasch in ersten klinischen Studien erproben zu können, damit Patienten und Patientinnen schnellstmöglich von neuen Erkenntnissen der Forschung profitieren. Die Studie wurde unter Leitung des Tübinger Universitätsklinikums in Tübingen und an Kliniken in Frankfurt am Main und der Berliner Charité durchgeführt.

Weitere Entwicklung von T-Zell-Aktivatoren
Basierend auf diesen ermutigenden Ergebnissen arbeitet das Team bereits an der Entwicklung von Impfungen unter Verwendung von T-Zell-Aktivatoren gegen zahlreiche weitere Infektionserkrankungen, die eine Bedrohung für immungeschwächte Tumorpatienten und -patientinnen darstellen. Zudem liefert diese Studie einen wichtigen Beitrag für die Entwicklung von therapeutischen Impfungen für Betroffene. Dies wird derzeit in Patientinnen und Patienten mit verschiedenen soliden Tumoren und Blutkrebserkrankungen untersucht.

Originalpublikation:
Phase I/II trial of a peptide-based COVID-19 T-cell activator in patients with B-cell deficiency; doi: https://doi.org/10.1038/s41467-023-40758-0

(nach oben)


Emissionsgutschriften durch vermiedene Entwaldung halten oft nicht, was sie versprechen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Projekte, die die Abholzung von Wäldern reduzieren, verkaufen oft Emissionsgutschriften – zum Beispiel an Verbraucher, die Flugtickets erwerben. Über 90 Prozent dieser Projektgutschriften gleichen jedoch die Treibhausgasemissionen nicht wirklich aus. Zu diesem Schluss kommt eine Studie der Vrije Universiteit Amsterdam (Niederlande), der Universität Bonn, der University of Cambridge (Vereinigtes Königreich) und des European Forest Institutes in Barcelona (Spanien). Sie wurde beispielhaft für 26 Projekte in sechs Ländern durchgeführt. Die Ergebnisse sind nun im renommierten Journal Science erschienen.

Weltweit gibt es ein wachsendes Interesse an Kompensationsmechanismen für den Klimaschutz. Emissionsgutschriften erreichten im Jahr 2022 einen Marktwert von insgesamt 2 Milliarden Dollar. Darüber hinaus wird die Übertragung von Emissionsgutschriften als handelbare finanzielle Einheiten, die Treibhausgasemissionen kompensieren, im Pariser Klima-Abkommen von 2015 gefördert. Das internationale Forschungsteam untersuchte insgesamt 26 Projekte in Peru, Kolumbien, Kongo, Tansania, Sambia und Kambodscha. Die meisten dieser Schutzprojekte haben kaum zum Waldschutz beigetragen. Darüber hinaus waren die Treibhausgas-Reduktionen durch den Waldschutz geringer als angegeben.

West und seine Forscherkollegen bewerteten die Wirkung von freiwilligen REDD+-Projekten: Reducing Emissions from Deforestation and forest Degradation (Minderung von Emissionen aus Entwaldung und Schädigung von Wäldern) in Entwicklungsländern. Dabei handelt es sich um ein freiwilliges Klimaschutzinstrument, das es ermöglicht, Treibhausgasemissionen durch Waldschutz zu kompensieren.

Die Forscher sammelten Daten über freiwillige REDD+-Projekte und Projektregionen, einschließlich der historischen Entwaldung, um kontrafaktische Szenarien für die Projektgebiete zu erstellen: Szenarien darüber, was ohne das REDD+-Programm geschehen wäre. Anschließend verglichen sie diese Referenzszenarien mit den Berechnungen der Projektentwickler.

Für die meisten dieser Projekte fanden die Forscher keine Belege dafür, dass sie die Entwaldung verringern. Sie schätzen, dass 90 Prozent der Gutschriften aus den REDD+-Projekten die Treibhausgasemissionen nicht tatsächlich ausgleichen. Die Projekte, die die Abholzung reduzieren, überschätzen ihre Auswirkungen. Das führt dazu, dass die Projekte mehr Kohlenstoffgutschriften ausstellen, als sie sollten.

Den Forschern zufolge bedeutet dies, dass die von Einzelpersonen und Organisationen zur Reduzierung ihrer eigenen Emissionen gekauften Emissionsgutschriften größtenteils “heiße Luft” sind und in Wirklichkeit nicht ausgleichen. “Wir machen uns selbst etwas vor, wenn wir diese Kompensationen kaufen”, sagt Dr. Thales A. P. West vom Institut für Umweltstudien der Vrije Universiteit Amsterdam. “Einzelpersonen und Organisationen geben Milliarden von Dollar für eine Strategie zur Eindämmung des Klimawandels aus, die nicht funktioniert, anstatt dieses Geld in etwas zu investieren, das tatsächlich etwas bewirken kann, zum Beispiel in saubere Energie.”

An der Studie ist auch Prof. Dr. Jan Börner vom Institut für Lebensmittel- und Ressourcenökonomik (ILR) sowie vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn beteiligt. “Emissionsgutschriften aus dem REDD+-Programm können ein Weg zur Reduzierung des Kohlendioxid-Ausstoßs sein. Die Ergebnisse der Studie sehe ich als einen dringenden Aufruf dafür zu sorgen, dass die Methoden zur Verifizierung und Evaluierung der emittierten Zertifikate verbessert werden”, sagt Börner. Der Professor für Ökonomie der nachhaltigen Landnutzung & Bioökonomie ist auch Sprecher des Transdisziplinären Forschungsbereichs “Sustainable Futures” an der Universität Bonn.

Beteiligte Institutionen und Finanzierung:
Neben der Vrije Universiteit Amsterdam (Niederlande) und der Universität Bonn sind an der Studie die University of Cambridge (Vereinigtes Königreich), das European Forest Institute in Barcelona (Spanien), das Center for International Forestry Research in Lima (Peru), die North Carolina State University in Raleigh (USA) und die University of New South Wales in Sydney (Australien) beteiligt. Die Forschung wurde von der Internationalen Klima- und Waldinitiative Norwegens (NICFI), dem Meridian Institute, der Global Comparative Study on REDD+ des Center for International Forestry Research und dem Bundesministerium für Ernährung und Landwirtschaft sowie der Deutschen Forschungsgemeinschaft gefördert.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Börner
Institut für Lebensmittel- und Ressourcenökonomik (ILR)
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel. +49 228 73-3548
E-Mail: jborner@uni-bonn.de

Originalpublikation:
Thales A. P. West, Sven Wunder, Erin O. Sills, Jan Börner, Sami W. Rifai, Alexandra N. Neidermeier, Gabriel Frey, Andreas Kontoleon: Action needed to make carbon offsets from forest conservation work for climate change mitigation, Science, DOI: 10.1126/science.ade3535; https://www.science.org/doi/10.1126/science.ade3535

(nach oben)


Viele Kinder meiden die Schultoiletten

Dr. Inka Väth Kommunikation und Medien
Universitätsklinikum Bonn
Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn leitet wissenschaftliche Auswertung einer umfassenden Studie zu Sanitäranlagen an Berliner Schulen

Zusammen mit dem Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn (UKB) hat die German Toilet Organization (GTO) mit Sitz in Berlin eine wissenschaftliche Studie zu Schultoiletten an 17 weiterführenden Schulen aus 11 Berliner Bezirken durchgeführt. Heute wurde sie im Rahmen einer Pressekonferenz der Öffentlichkeit vorgestellt. Aus den Studienergebnissen geht klar hervor, dass die Mehrheit der Schülerinnen und Schüler die Schultoiletten als einen negativen Ort wahrnimmt und daher die Nutzung von vielen vermieden wird. Funktionelle Schäden, fehlende Privatsphäre, Gestank und eine unzureichende Versorgung mit Füllgütern wie Toilettenpapier und Seife sind weitere Beanstandungen, die sich mit Berichten aus anderen Städten decken. Es wurde aber auch deutlich, dass einfache Maßnahmen signifikante Verbesserungen erzielen können. Dazu gehören die strukturell verankerte Partizipation der Schülerinnen und Schüler in die Gestaltung und Nutzung von Sanitärräumen, ein gut organisiertes und sichtbares Mängelmanagement durch die Schule sowie die Umsetzung von zwei Reinigungszyklen pro Tag, wovon mindestens eine im Tagdienst durchgeführt werden sollte.

Ziel der Berliner Studie [1] war es, valide Daten zur subjektiven Wahrnehmung und dem Nutzungsverhalten aus der Perspektive der Schülerinnen und Schüler bezüglich ihrer Schultoiletten zu erheben und gleichzeitig eine Bestandsaufnahme zur Funktionsfähigkeit und Ausstattung sowie zu wichtigen strukturellen Prozessen wie Reinigung, Wartung und Instandhaltung der Schultoiletten durchzuführen. Darüber hinaus war es den Autorinnen und Autoren der Studie in der Konzeption und Auswertung besonders wichtig, mögliche Zusammenhänge zwischen einzelnen Messgrößen zum Zustand der Toiletten, strukturellen Maßnahmen der Schule und der Wahrnehmung der Schülerinnen und Schüler zu ermitteln. Aus den Ergebnissen konnten Handlungsempfehlungen für Schulen und Politik abgeleitet werden, verbunden mit einer klaren Aufforderung, jetzt zu handeln.

Die Ergebnisse bestätigen die Erfahrungen, die sowohl die GTO als auch das IHPH in vielfältigen Projekten gesammelt haben: Sanitärräume sind dann ein Ort, an dem sich die Schulkinder gerne aufhalten, wenn sie in ihrer Komplexität erfasst und so gestaltet werden, dass sie nicht allein auf das Merkmal „Ausstattung“ oder „Fehlverhalten der Schülerinnen und Schüler“ reduziert werden. Die Vermeidung des Toilettengangs während des Schulaufenthalts aufgrund der negativen Wahrnehmung der Sanitärräume führt zu einer Reihe vielfach belegter gesundheitlicher Risiken, angefangen von Konzentrationsstörungen bis hin zu Blasenentzündungen, Verstopfung mit Bauchschmerzen und sogar Infektionskrankheiten. Aus diesem Grunde drängen das IHPH und auch die GTO schon lange darauf, den Ort endlich aus der Tabuzone herauszuholen und anstelle von Schuldzuweisungen eine konstruktive, gemeinschaftliche Herangehensweise für eine nachhaltige Besserung der Zustände voranzutreiben.

Dr. Andrea Rechenburg, die die Auswertung der Daten am IHPH leitete, betonte, dass das Monitoring des Nachhaltigkeitsziels Nr. 6 „Verfügbarkeit und nachhaltige Bewirtschaftung von Wasser und Sanitärversorgung für alle gewährleisten“ in Deutschlands Schulen lückenhaft ist, auch wenn national die Versorgung als gesichert gilt. Hier entsteht der Eindruck, dass im Grunde kein Handlungsbedarf bestehe, dabei sind aktuell keine Daten für weiterführende Schulen und den städtischen und ländlichen Raum vorhanden, und die tatsächliche Funktionalität von Sanitärräumen wird nicht dokumentiert. Zukünftig müsse mit erweiterten Indikatoren gearbeitet werden, die abbilden, welche Bedarfe es für die Schülerinnen und Schüler heute wirklich gibt und wo diese im Sinne des Nachhaltigkeitsziel 6 für alle und zu jeder Zeit erfüllt werden.

Das Institut für Hygiene und öffentliche Gesundheit (IHPH) beschäftigt sich mit seiner Initiative „Hygiene-Tipps für Kids“ bereits seit 20 Jahren mit Themen der Infektionsprävention und Hygiene im direkten Lebensumfeld von Kindern. Der schlechte Zustand der Schultoiletten ist immer wieder Ausgangspunkt von Anfragen aus der Schulgemeinschaft. Innovative, partizipative Elemente wie die Ausbildung von „Junior-Hygieneinspektoren“ und der Blick auf die strukturellen Prozesse von Reinigung und Wartung sind von Beginn an Teil des Konzepts. Wasser, Sanitärversorgung und Hygiene (WASH) in Schulen ist ein Themenkomplex zu dem das IHPH in seiner Funktion als Kollaborationszentrum der Weltgesundheitsorganisation (WHO) auch international schon seit 2015 arbeitet. Es war u. a. maßgeblich beteiligt an der Erstellung des in 2019 von der WHO herausgegebenen Informationspakets zur Verbesserung von WASH in Schulen für das Schulpersonal [2].

Quellen
[1] German Toilet Organization, Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn. Toiletten machen Schule® – Studie zu Sanitäranlagen an Berliner Schulen, Berlin: 2023. germantoilet.org/de/ [Letzter Zugriff 25.8.2023], www.ukbonn.de/ihph, www.hygiene-tipps-fuer-kids.de.
[2] Improving health and learning through better water, sanitation and hygiene in schools: An information package for school staff. Copenhagen: WHO Regional Office for Europe;2019. www.who.int/europe/publications/i/item/9789289054508 [Letzter Zugriff 18.8.2023]
Weiterführende Informationen auf folgenden Webseiten:
www.ukbonn.de/ihph/

Pressekontakt:
Daria Siverina
Stellv. Pressesprecherin am Universitätsklinikum Bonn
Stabsstelle Kommunikation und Medien am Universitätsklinikum Bonn
Tel. +49 228 287-14416
E-Mail: daria.siverina@ukbonn.de

Dr. Andrea Rechenburg
Geschäftsführerin WHO Kollaborationszentrum
Institut für Hygiene und Öffentliche Gesundheit
WHO Kollaborationszentrum für Wassermanagement und Risikokommunikation zur Förderung der Gesundheit
Universitätsklinikum Bonn
Tel.: +49 228 287-19518
E-Mail: Andrea.Rechenburg@ukbonn.de

Zum Universitätsklinikum Bonn: Im UKB werden pro Jahr etwa 500.000 Patient*innen betreut, es sind ca. 9.000 Mitarbeiter*innen beschäftigt und die Bilanzsumme beträgt 1,6 Mrd. Euro. Neben den über 3.300 Medizin- und Zahnmedizin-Studierenden werden pro Jahr weitere 585 Personen in zahlreichen Gesundheitsberufen ausgebildet. Das UKB steht im Wissenschafts-Ranking sowie in der Focus-Klinikliste auf Platz 1 unter den Universitätsklinika (UK) in NRW und weist den dritthöchsten Case Mix Index (Fallschweregrad) in Deutschland auf. Das F.A.Z.-Institut hat das UKB 2022 und 2023 als Deutschland begehrtesten Arbeitgeber und Ausbildungs-Champion unter den öffentlichen Krankenhäusern bundesweit ausgezeichnet.

(nach oben)


Hitzewellen werden häufiger und tödlicher

Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Hitzewellen mit vermehrten Todesfällen aufgrund von Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps nehmen zu. Die Übersterblichkeit eines heissen „Jahrhundertsommers“ wie 2003 ist heute alle zehn bis zwanzig Jahre zu erwarten, und in einer Zwei-​Grad-Welt alle zwei bis fünf Jahre. Südeuropa ist besonders von zunehmenden Hitzewellen bedroht, ebenso die Golf-​ und Atlantikküsten der USA, die Pazifikküste Lateinamerikas, der Mittlere Osten und Südostasien.

Hitzewellen, wie wir sie aktuell erleben, sind besonders für ältere, kranke und arme Menschen tödlich. Die Hitzewelle von 2003 mit Temperaturen in Europa bis zu 47,5 Grad, gehörte mit geschätzten 45’000 bis 70’000 Todesopfern innert weniger Wochen zu den schlimmsten Naturkatastrophen der vergangenen Jahrzehnte. Wälder standen in Flammen, Felder verdorrten und in den Städten füllten sich die Notfallstationen. Die weltweiten Kosten beliefen sich auf rund 13 Milliarden US-​Dollar. Trotzdem ist die öffentliche Aufmerksamkeit für die Risiken solcher Hitzewellen im Vergleich zu anderen klimabedingten Extremen noch gering. Das ist riskant, wie eine aktuell im Fachmagazin «Nature Communications» erschienene externe SeiteStudiecall_made zeigt. Hitzewellen wie diejenige von 2003 könnten in den kommenden Jahren zur neuen Norm werden.

Epidemiologie und Klimamodellierung kombiniert
Forschende des Instituts für Umweltentscheidungen der ETH Zürich haben für die Studie mit einer internationalen Gruppe von Epidemiologinnen und Epidemiologen zusammengearbeitet. Diese sammelt seit 2013 systematisch Daten zur täglichen hitzebedingten Übersterblichkeit für 748 Städte und Gemeinden in 47 Ländern Europas, Südostasiens, Lateinamerikas, in den USA und Kanada. Mit diesem Datensatz haben die Forschenden die Beziehung zwischen täglicher Durchschnittstemperatur und Mortalität für sämtliche 748 Orte berechnet. Daraus ergibt sich für jeden Ort eine Idealtemperatur, bei der es zur geringsten Übersterblichkeit kommt. In Bangkok zum Beispiel liegt dieser Wert bei 30 Grad, in São Paulo bei 23, in Paris bei 21 und in Zürich bei 18 Grad.

Physikalisch plausible Wetterextreme modelliert
Jedes Zehntelgrad über diesem Idealwert vergrössert die Übersterblichkeit. «Hitze ist nicht gleich Hitze», sagt Samuel Lüthi, Erstautor der Studie und Doktorand an der Professur für Wetter-​ und Klimarisiken von David Bresch. «Dieselbe Temperatur wirkt sich in Athen und Zürich komplett unterschiedlich auf die hitzebedingte Übersterblichkeit in der Bevölkerung aus.» Diese hängt nicht nur von der Temperatur ab, sondern auch von der Physiologie (Gewöhnung), Verhalten (lange Siestas über Mittag), Städteplanung (Grünflächen vs. Beton), der demographischen Bevölkerungsstruktur und dem jeweiligen Gesundheitssystem.

Mit den Idealwerten berechneten die Forschenden, wie sich die Übersterblichkeit bei einer durchschnittlichen globalen Erhitzung von 0.7 Grad (Wert für das Jahr 2000), 1.2 Grad (Wert für das Jahr 2020), 1.5 und 2 Grad entwickelt. Dafür nutzten sie fünf besonders leistungsstarke Klimamodelle, sogenannte SMILEs (Single-​Model Initial-​condition Large Ensembles). «Wir haben dasselbe Modell bis zu 84-​mal mit jeweils leicht veränderten Wetterbedingungen laufen lassen. Das ergibt eine Vielzahl möglicher Wettersysteme, die bei einem bestimmten CO2-​Gehalt in der Atmosphäre wahrscheinlich sind», erklärt Lüthi. Diese Daten koppelten die Forschenden anschliessend mit einem epidemiologischen Model, um die entsprechende Hitzemortalität zu berechnen.

Bisherige Prognosen zu Hitzemortalität basierten meist auf Berechnungen mit einem Klimamodell für einen bestimmten Zeitraum. «Mit unserer Methode können wir Extreme im Klimasystem viel besser quantifizieren und Unsicherheiten aufgrund von Eigenheiten bestimmter Modelle reduzieren.» Mittels Supercomputern hat Lüthi die Hitze-​Mortalitätsauswirkungen von über 7000 Jahren physikalisch möglicher Wetterphänomene berechnet. Der entsprechende Datensatz beläuft sich auf über ein Terrabyte.

Bis zu 15 Prozent hitzebedingte Todesfälle
Die Ergebnisse zeigen, dass das Risiko von Hitzewellen mit grosser Übersterblichkeit bereits in den vergangenen 20 Jahren stark zugenommen hat. «Die Übersterblichkeit eines Hitzesommers wie 2003, der früher als extremes Ereignis galt, das alle 100 Jahre vorkommt, erwarten wir heute alle 10 bis 20 Jahre», sagt Lüthi, «und in einer um zwei Grad wärmeren Welt an vielen Orten sogar alle zwei bis fünf Jahre». Hitzemortalitätswerte, die noch im Jahr 2000 als sehr unwahrscheinlich galten (einmal alle 500 Jahre), werden in einer Zwei-​Grad-Welt 14-​mal alle 100 Jahre auftreten. Unter der Annahme, dass keine Anpassung an die Hitze geschieht, erhöht sich damit die Wahrscheinlichkeit der Mortalität bei solch extremen Hitzewellen um den Faktor 69.

Manche Regionen sind besonders von zunehmenden Hitzewellen bedroht, darunter die Golf-​ und Atlantikküsten in den USA, die Pazifikküste Lateinamerikas, der Mittlere Osten, Südostasien und die Mittelmeerregion. Selbst in moderaten Klimaszenarien kann in diesen Gebieten ein heisser Sommer dazu führen, dass zehn Prozent der gesamten Todesfälle in einem Land durch Hitze bedingt sind. In Paris, das 2003 besonders von der Hitzewelle betroffen war, waren es damals fünf bis sieben Prozent. Das sind rund 2700 Menschen, die allein in der französischen Metropole aufgrund der Klimaerhitzung frühzeitig gestorben sind. An Dehydrierung, Hitzeschlag oder Herz-​Kreislaufkollaps. «In Zukunft könnten laut unseren Berechnungen in Paris bis zu 15 Prozent der Todesfälle hitzebedingt sein», sagt Lüthi. Europa und insbesondere Südeuropa gehörten zu den «Hotspots». Zwei Faktoren kämen dort zusammen: Die Temperaturen steigen doppelt so schnell wie im globalen Mittel, und die Bevölkerung ist überdurchschnittlich alt.

Beängstigender Ausblick
«Die Resultate haben mich erschreckt», sagt der 30-​jährige Klimawissenschaftler. «Ich habe während der Studie immer wieder versucht, hinter den Zahlen die betroffenen Menschenleben zu sehen. Das ist beängstigend.» Dabei seien die den Modellierungen zugrunde liegenden Annahmen eher konservativ. Mit den aktuellen Treibhausgasemissionen ist die Welt nicht auf dem Pfad zu einer maximalen Erhitzung von 1.5 bis 2 Grad Celsius, wie in der Studie angenommen, sondern zu 2.6 Grad. Zudem sind das Bevölkerungswachstum, die Migration in die Städte und die Zunahme von älteren Menschen nicht in den Zukunftsszenarien berücksichtigt – alles Faktoren, welche die hitzebedingte Übersterblichkeit weiter erhöhen dürften. Schliesslich fehlten für die Studie epidemiologische Daten zu Afrika und Indien, beides Regionen, die stark von der Klimakrise und von Armut betroffen sind.

Die Forschenden schreiben, dass die Resultate die Dringlichkeit zum Handeln verdeutlichen. Um zunehmende Hitzewellen zumindest einzudämmen, sei der wichtigste Schritt, so schnell wie möglich aus den fossilen Energien auszusteigen, sagt Lüthi. Die Studie zeige, dass das Risiko bei 1.5 Grad zwar bereits hoch ist, aber immer noch deutlich geringer als bei zwei Grad. Allerdings kann sich die Gesellschaft auch teilweise an höhere Temperaturen anpassen, um die Auswirkungen künftiger Hitzewellen zu vermindern. «Wir sollten uns nun schnellstmöglich auf das Unabwendbare vorbereiten und Situationen, die nicht mehr kontrollierbar sind, um jeden Preis verhindern», rät Lüthi.

Wissenschaftliche Ansprechpartner:
Samuel Lüthi

Originalpublikation:
Lüthi S, Fairless C, Fischer EM et al. Rapid increase in the risk of heat-​related mortality. Nature Communications 14, 4894 (2023). Doi: 10.1038/s41467-​023-40599-x

Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/08/hitzewellen-we…

(nach oben)


Meere geben Mikroplastik an die Atmosphäre ab

Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Winzige Plastikteilchen sind selbst fernab von Küsten in der Meeresluft zu finden. Deutsche und norwegische Forschende präsentieren erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Luft über dem Nordatlantik ist und woher die Partikel stammen. Demnach werden sie nicht nur vom Wind transportiert, sondern gelangen zum Teil auch aus dem Meerwasser in die Atmosphäre. Die Ergebnisse sind kürzlich im Fachjournal Nature Communications erschienen.

Die Meeresluft enthält selbst in entlegenen Teilen der Welt Mikroplastikteilchen. Die winzigen Kunststoffpartikel stammen nicht nur von Quellen an Land, sondern gelangen auch über das Meerwasser in die Atmosphäre. Das ermittelten deutsche und norwegische Forschende unter Leitung von Dr. Barbara Scholz-Böttcher von der Universität Oldenburg. Für ihre Studie analysierten sie Luftproben, die sie entlang der norwegischen Küste bis in die Arktis genommen hatten. Die Ergebnisse sind jetzt im Fachjournal Nature Communications publiziert.

„Mit unserer Studie präsentieren wir erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Meeresluft ist“, so Isabel Goßmann, Doktorandin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Erstautorin. Das Forschungsteam sammelte die Proben 2021 während einer Exkursion des Forschungsschiffs Heincke. Der nördlichste Punkt der Fahrt war die Bäreninsel, die südlichste Insel des Svalbard-Archipels, die auf halbem Weg zwischen dem Festland und der Hauptinsel Spitzbergen liegt. Das Team verwendete zwei unterschiedliche Vorrichtungen, um Luftproben zu sammeln. Die Geräte saugten aktiv Luft an und waren in zwölf Metern Höhe am Bug des Forschungsschiffs montiert.

Diese Luftproben analysierten die Forschenden mit Hilfe der Pyrolyse-Gaschromatographie-Massenspektrometrie. Dieses Verfahren ermöglicht es, die verschiedenen Kunststoffsorten durch thermische Spaltung und selektive Analyse nachzuweisen und zu quantifizieren. Anschließend führte das Team Modellrechnungen durch und rekonstruierte so Quellen und Verbreitungswege der nur wenige Tausendstel Millimeter großen Teilchen.

Das Ergebnis: In allen Proben tauchten Mikroplastikteilchen aus Polyester auf, außerdem Polyethylenterephthalate (PET), die vermutlich als Textilfasern in die Atmosphäre gelangt waren. Auch weitere Kunststoffe ließen sich nachweisen, unter anderem Polypropylen (PP), Polycarbonat und Polystyrol. Eine weitere wichtige Quelle stellte Reifenabrieb dar, also kleine Gummipartikel, die sich bei der Fahrt und vor allem beim Bremsen von Autoreifen ablösen. Die Forschenden ermittelten Konzentrationen von bis zu 37,5 Nanogramm – also Milliardstel Gramm – Mikroplastik pro Kubikmeter Luft. „Diese Schadstoffe sind omnipräsent. Wir finden sie selbst in abgelegenen polaren Regionen“, sagt Hauptautorin Goßmann.

Bisher war kaum etwas darüber bekannt, wie stark die Meeresluft mit Mikroplastik inklusive Reifenabrieb verschmutzt ist. „Es gibt insgesamt nur wenige Untersuchungen zur Konzentration dieser Schadstoffe in der Luft“, so Studienleiterin Scholz-Böttcher vom ICBM. „Unsere Modellrechnungen deuten darauf hin, dass das Mikroplastik in der Meeresluft sowohl direkt von Quellen an Land als auch aus dem Meer stammt“, berichtet die Forscherin. Das Team geht davon aus, dass Plastikteilchen, die nahe der Meeresoberfläche schwimmen, zum Beispiel bei stürmischem Wetter über die Gischt oder durch platzende Luftbläschen in die Atmosphäre gelangen.

Ins Meerwasser gelangt das Mikroplastik wiederum über Flüsse, aber auch aus der Atmosphäre, aus der die Partikel etwa durch Regen herausgewaschen werden. Eine weitere mögliche Quelle sind Schiffe: In einer früheren Studie hatte ein Team um Scholz-Böttcher nachgewiesen, dass Schiffsanstriche in der offenen Nordsee die größte Quelle für Mikroplastik darstellen. In der aktuellen Studie fanden sich Inhaltsstoffe von Farben wie Polyurethane oder Epoxidharze auch in den Luftproben.

Neben Forschenden des ICBM waren an der Studie auch Forscherinnen und Forscher des Alfred-Wegener-Instituts, Helmholz-Zentrum für Polar und Meeresforschung (AWI) in Bremerhaven, der TU Berlin, des Norwegischen Instituts für Luftuntersuchungen (NILU) und des Norwegischen Instituts für Öffentliche Gesundheit (NIPH) beteiligt.

Wissenschaftliche Ansprechpartner:
Dr. Barbara Scholz-Böttcher, Tel.: 0441/798-5362, E-Mail: barbara.scholz.boettcher@uol.de

Originalpublikation:
Isabell Goßmann et al: “Occurrence and backtracking of microplastic mass loads including tire wear particles in northern Atlantic air”, Nature Communications 14, 3707 (2023). https://doi.org/10.1038/s41467-023-39340-5

Weitere Informationen:
https://uol.de/icbm/ogc

(nach oben)


Niedrigere Entzündungsmarker unter Vitamin D-Supplementierung

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Nach derzeitiger Studienlage geht die Vitamin D-Einnahme mit einer verringerten Krebssterblichkeit einher. Könnten entzündungshemmende Effekte des Vitamins die Ursache dafür sein? Eine am Deutschen Krebsforschungszentrum (DKFZ) durchgeführte Metaanalyse ergab nun: Die Vitamin D-Einnahme senkt bei Menschen, die an Krebs oder Krebsvorstufen leiden, die Serumspiegel eines wichtigen Entzündungsmarkers.

Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Ob eine Vitamin D-Supplementierung die Entstehung von Krebs verhindern bzw. die Prognose von Krebskranken verbessern kann, wurde bereits in zahlreichen Studien untersucht. Nach derzeitiger Studienlage senkt eine regelmäßige Vitamin D3-Einnahme die Wahrscheinlichkeit, an einer Krebserkrankung zu versterben, um ca. zwölf Prozent.

Die biologischen Mechanismen, über die Vitamin D den Ausgang einer Krebserkrankung beeinflusst, sind noch weitgehend ungeklärt. Es gibt Hinweise auf einen Einfluss des Vitamins auf entzündungsfördernde Signalwege. „Hohe Spiegel an Entzündungsmarkern sind bei Krebspatienten häufig mit einem ungünstigen Ausgang der Erkrankung verbunden. Dies gilt insbesondere für Darm-, Brust-, Pankreas-, Leber- und Prostatakrebs. Es erscheint daher plausibel, dass eine Vitamin D-Supplementierung den entzündungsfördernden Prozessen entgegenwirkt und damit den Verlauf der Erkrankung günstig beeinflussen kann“, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.

Um diese Vermutung zu prüfen, führten Wissenschaftler um Brenner nun erstmals eine systematische Literaturrecherche durch, bei der sie Studien zur Wirkung einer Vitamin D-Supplementierung auf verschiedene Entzündungsmarker zusammenfassten. Die Forscherinnen und Forscher berücksichtigten dabei acht Studien. Die insgesamt 592 eingeschlossenen Teilnehmer, die an Krebs oder an Krebsvorstufen litten, waren per Zufall dem Vitamin D-Arm oder dem Placebo-Arm zugewiesen worden.

Die DKFZ-Forscher fanden bei Studienteilnehmern unter Vitamin D-Substitution deutlich niedrigere Serumspiegel des entzündungsfördernden Tumor-Nekrosefaktors alpha (TNF alpha). Dieser Botenstoff wird bei so gut wie allen Entzündungen ausgeschüttet und aktiviert eine Vielzahl verschiedener Immunzellen. Für zwei weitere wichtige Botenstoffe, Interleukin 6 und CRP, beobachteten die Forscher ebenfalls niedrigere Spiegel unter Vitamin D-Substitution, jedoch waren die Effekte bei den insgesamt noch sehr begrenzten Patientenzahlen nicht statistisch signifikant.

Eine Einschränkung bisheriger Studien ist, dass alle Patienten die gleiche Dosis erhielten unabhängig von ihrem Ausgangs-Vitamin D-Spiegel. In einer gezielten, dem individuellen Bedarf angepassten Vitamin D-Supplementierung sieht Hermann Brenner ein noch deutlich größeres Potenzial. Hierzu führt sein Team derzeit in Zusammenarbeit mit zahlreichen Kliniken in Deutschland eine große randomisierte Studie durch. Erste Ergebnisse haben bereits gezeigt, dass mit einer solchen personalisierten Vitamin D-Supplementierung der Vitamin D-Mangel sehr zuverlässig ausgeglichen werden kann.

Durch sorgfältige längerfristige Nachbeobachtung einer noch deutlich größeren Zahl von Patienten untersuchen die Forscher nun, wie sich dieser neue Ansatz auf das Entzündungsgeschehen, die Lebensqualität und die Prognose der Patienten auswirkt. Erste Ergebnisse hierzu werden im kommenden Jahr vorliegen.

* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.

Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.

Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:

Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)

Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de

Originalpublikation:
Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009

(nach oben)


Neue Studie der Goethe-Universität zeigt: Auch gereinigtes Abwasser wirkt sich auf Flüsse aus

Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Kläranlagen sind ohne Zweifel eine große Errungenschaft, haben sie doch erheblich zur Verbesserung der Wasserqualität in natürlichen Gewässern beigetragen. Eine im Fachjournal „Water Research“ veröffentlichte Studie zeigt aber, dass noch immer Substanzen in den Wasserkreislauf gelangen, die sich auf die Zusammensetzung der darin lebenden Organismen auswirken.

Die Einleitungen aus Kläranlagen bewirken einerseits, dass manche Arten verloren gehen, andere wiederum profitieren. Dezimiert werden vor allem bestimmte Insektenordnungen, wie die Larven von Steinfliegen und Köcherfliegen. Bestimmte Würmer und Krebstiere hingegen können in ihrer Anzahl hingegen zunehmen. Dies weist ein Team der Goethe-Universität um Daniel Enns und Dr. Jonas Jourdan in einer im Fachjournal „Water Research“ veröffentlichten großangelegten Studie nach. Sie haben insgesamt 170 Kläranlagen in Hessen auf die Artenzusammensetzung von Wirbellosen untersucht.

Kläranlagen gehören unverzichtbar zur Infrastruktur der modernen Welt; sie haben einen wesentlichen Beitrag zur Verbesserung der Wasserqualität in unseren Oberflächengewässern geleistet. Allerdings sind sie meist nur eingeschränkt in der Lage, sogenannte Spurenstoffe, zu denen auch Wirkstoffe aus Medikamenten und Körperpflegeprodukten, Pestizide und andere synthetische Substanzen gehören, vollständig aus dem Abwasser zu entfernen. So gelangen diese Stoffe in behandeltem Abwasser zurück in die Gewässer und stellen eine zusätzliche Belastung für Flüsse und Bäche dar, die die Wasserfauna und die bereits anfälligen Insektengemeinschaften weiter unter Druck setzt. Bisherige Studien – die sich zumeist auf einzelne Kläranlagen konzentrierten – haben bereits gezeigt, dass die Gemeinschaften der wirbellosen Organismen unterhalb der Einleitungen im Allgemeinen von verschmutzungstoleranten Artgruppen dominiert werden.

Bisher war jedoch unklar, wie allgegenwärtig diese Veränderungen sind. Deshalb hat nun ein Team von Biologinnen und Biologen der Goethe-Universität Frankfurt umfassend untersucht, wie sich die Abwässer aus 170 hessischen Kläranlagen auf die Artenzusammensetzung von Wirbellosen auswirkt. Dabei erfolgte eine Anpassung der herkömmlichen Vorstellung, dass durch den Menschen verursachter Stress die Anzahl der Arten und somit die Vielfalt in Lebensräumen verringert: Die Befunde deuten darauf hin, dass vielmehr ein Artenaustausch beobachtet wird. Manche Arten gehen durch Einleitungen aus Kläranlagen durchaus verloren – das betrifft zum Beispiel die Larven von Steinfliegen und Köcherfliegen, sie verschwinden durch die Abwassereinleitungen vielerorts völlig. Andere Artgruppen, etwa bestimmte Würmer und Krebstiere hingegen profitieren und lassen sich vermehrt nachweisen. Diese Veränderung ist vor allem in Bächen und kleineren Flüssen zu beobachten. Es konnten deutliche Veränderungen in der Zusammensetzung der Artgemeinschaft zwischen den Standorten flussaufwärts und flussabwärts der Kläranlagen festgestellt werden. Insgesamt verändern Kläranlagen die Bedingungen flussabwärts zugunsten von toleranten und zum Nachteil der empfindlichen Artgruppen.

Wie lässt sich die Belastung der Gewässer reduzieren?
Moderne Reinigungstechniken wie Ozonung oder Aktivkohle können die Wasseraufbereitung in Kläranlagen effizienter machen, so dass eine breitere Palette von Schadstoffen, einschließlich zahlreicher Spurenstoffe, aus dem Abwasser entfernt werden kann, bevor es wieder in die Gewässer gelangt. Auch die Zusammenlegung kleinerer Kläranlagen kann zu einer Entlastung der Umwelt beitragen. Bei allen Maßnahmen ist wichtig zu beachten, dass stromaufwärts gelegene Abschnitte nicht bereits beeinträchtigt sind und sich in einem guten chemischen und strukturellen Zustand befinden.

Bilder zum Download: https://www.uni-frankfurt.de/141365425

Wissenschaftliche Ansprechpartner:
Dr. Jonas Jourdan
Wissenschaftlicher Mitarbeiter
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt am Main
Telefon 069 798-42149
E-Mail: jourdan@bio.uni-frankfurt.de
Twitter: @Jourdan_Jonas

Originalpublikation:
Enns D, Cunze S, Baker NJ, Oehlmann J, Jourdan J (2023) Flushing away the future: The effects of wastewater treatment plants on aquatic invertebrates. Water Research, 120388. doi.org/10.1016/j.watres.2023.120388

(nach oben)


Nachhaltiger Umgang mit Regen- und Siedlungsabwasser: Software plant und optimiert Entwässerungssysteme automatisch

Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Um Regen- und Abwasser aufzusammeln, gibt es in Deutschland eine gut ausgebaute Infrastruktur mit Kanalnetzen und Kläranlagen. Anders sieht es in Entwicklungsländern aus, in denen dies oft fehlt. Ein Start-up der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) will hier Abhilfe schaffen. Es bietet dazu seine Software „ZIGGURAT“ an, die automatisch Entwässerungssysteme nachhaltig planen und optimieren kann. Die Technik berücksichtigt auch die blau-grüne Infrastruktur, das heißt, mögliche Wasserspeicher und technische Maßnahmen zur Versickerung und Verdunstung von Regenwasser. Die Gründer werden mit einem EXIST-Stipendium vom Bundeswirtschaftsministerium gefördert.

Slums, in denen Wellblechhütten dicht an dicht nebeneinanderstehen; direkt daneben Müllberge und stehende Abwässer – solche Zustände gibt es in vielen Gegenden der Welt. Rund die Hälfte der Weltbevölkerung lebt nach wie vor ohne Kanalisationsanschluss und stetig entstehen neue städtische Flächen ohne geordnete Entwässerung. Dabei haben sich die Vereinten Nationen in ihren Nachhaltigkeitszielen auf die Fahne geschrieben, den Zugang zu sauberem Wasser und sanitäre Anlagen für alle Menschen zu ermöglichen. Um dies zu erreichen, braucht es allerdings eine entsprechende Infrastruktur.

Die Planung solcher Kanalnetze für Schmutz-, Regen- oder Mischwasser ist jedoch aufwendig und bedarf einer großen Expertise. „Dabei spielen verschiedene Parameter wie Layout, der Grad der De- oder Zentralisierung, die Kanaldurchmesser und das Gefälle, die Verlegetiefen, die Pump- und Speicheranlagen eine Rolle“, sagt Timo Dilly vom Gründerteam.

Eine Software, mit der sich städtische Entwässerungssysteme automatisch nachhaltig planen lassen, entwickelt derzeit das Team um Dilly von der RPTU in Kaiserslautern. „Sie basiert unter anderem auf der Verknüpfung einer Vielzahl allgemein gültiger technischer Regeln der Tiefbauplanung und mathematischer Methoden, mit denen sich sinnvolle Lösungsvarianten generieren lassen“, sagt Dilly weiter. „Dafür haben wir eigene Algorithmen entwickelt. All dies beruht auf aktuellen Erkenntnissen aus eigenen Forschungsarbeiten in der Siedlungsentwässerung und Hydroinformatik.“

Auch der Klimawandel spielt bei den Planungen solcher Entwässerungssysteme eine Rolle, wie Dilly erläutert: „Der Umgang mit Regenwasser muss komplett neu gedacht werden, wenn man sich zunehmende Wetterextreme vor Augen führt. Wir brauchen Möglichkeiten zum Speichern von Regenwasser, aber auch naturnahe Elemente wie ausreichend Grünflächen. Dadurch lässt sich in heißen Sommermonaten das Stadtklima verbessern.“ In diesem Zusammenhang spricht man auch von blau-grüner Infrastruktur, die bei der Planung neuer Siedlungsentwässerungssysteme eine immer wichtigere Rolle spielt und auch bei ZIGGURAT eingeplant ist. „Mit diesen Maßnahmen erhöhen Städte die Resilienz gegenüber Extremen, senken Kosten und reduzieren negative Auswirkungen auf die Umwelt“, betont Dilly.

In diesem Punkt eignet sich die Software auch für hiesige Städte und Gemeinden, die ihre Entwässerungssysteme künftig anpassen wollen.

Am jungen Unternehmen beteiligt sind neben Dilly seine Kollegen Dr. Amin E. Bakhshipour, Professor Dr. Ulrich Dittmer und Ralf Habermehl aus dem Lehrgebiet Siedlungswasserwirtschaft an der RPTU in Kaiserslautern. Unterstützt werden sie von Marius Lauer, der betriebswirtschaftliche Kenntnisse miteinbringt.

Ihre Software ZIGGURAT möchten sie in Zukunft in einer Online-Plattform zur Verfügung stellen, auf der sich Interessierte einen kostenpflichtigen Account erstellen können. Das Team aus Kaiserslautern stellt neben der Software auch seine Expertise zur Verfügung und bietet etwa Unterstützung bei der Planung an.

Bei seinem Weg in die Selbstständigkeit wird das Unternehmen mit einem „EXIST-Gründerstipendium“ des Bundesministeriums für Wirtschaft und Klimaschutz und dem Europäischen Sozialfonds zur „Existenzgründung aus der Wissenschaft“ gefördert.

Mehr unter ziggurat.ai

Fragen beantwortet:
Timo Dilly
Ziggurat
E-Mail: timo.dilly@rptu.de
Tel.: 0631-205-4643

(nach oben)


Neuer Infektionsmechanismus beim Coronavirus entdeckt

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Forschende der Medizinischen Fakultät Heidelberg und des Universitätsklinikums Heidelberg erforschen molekulare Zusammenhänge, die Infektion und Ausbreitung des Coronavirus SARS-CoV-2 begünstigen / Ergebnisse bieten Ansatzpunkt für die Entwicklung antiviraler Therapien

Das Virus SARS-CoV-2, das für die COVID-19-Pandemie verantwortlich ist, löst in den infizierten Zellen eine Stressreaktion aus, die das Eindringen des Virus in die Zellen erleichtert. Auf der Suche nach dem zugrundeliegenden molekularen Mechanismus identifizierten Forschende der Medizinischen Fakultät Heidelberg der Universität Heidelberg und des Universitätsklinikums Heidelberg (UKHD) in Zusammenarbeit mit dem Deutschen Krebsforschungszentrum (DKFZ) sowie der Universität Bristol einen zellulären Faktor mit dem Namen NUAK2. Dessen Menge wird durch die SARS-CoV-2 vermittelte Stressreaktion erhöht und er begünstigt den Eintritt und die Ausbreitung des Coronavirus in menschlichen Zellen. Damit könnte NUAK2 neuer Ansatzpunkt für die Entwicklung antiviraler Wirkstoffe sein.

Das Forschungsteam um Professor Dr. Dr. h.c. Ralf Bartenschlager, Leiter der Abteilung Molekulare Virologie am Zentrum für Infektiologie am UKHD und Dr. Vibhu Prasad, Wissenschaftler in der Molekulare Virologie hat nun die molekularen Wege, die beteiligt sind, wenn SARS-CoV-2 die Zelle infiziert, analysiert. Das zelluläre Eiweißmolekül NUAK2 spielt dabei eine zentrale Rolle.

In Experimenten blockierten die Heidelberger Wissenschaftlerinnen und Wissenschaftler das NUAK2 in den Zellen. Dadurch wurde das Eindringen von SARS-CoV-2-Partikeln in die Zelle vermindert, weil NUAK2 die Menge an ACE2, der Rezeptor für das Virus, reguliert. „Darüber hinaus zeigten unsere Untersuchungen, dass eine erhöhte NUAK2-Konzentration in infizierten Zellen die Anzahl an Rezeptoren auch in nicht infizierten Zellen erhöhte. Dadurch wurden auch diese Zellen verstärkt mit dem SARS-CoV-2 infiziert“, berichtet Dr. Vibhu Prasad.

Und nicht nur bei SARS-CoV-2 ließen sich diese Zusammenhänge nachweisen, sondern auch bei anderen Coronavirus-Arten wie beispielsweise dem humanen Coronavirus-229E – dem „Erkältungsvirus“ – und dem sehr gefährlichen MERS-Coronavirus, das von Kamelen auf den Menschen übertragen werden kann.

„Die Forschungsergebnisse liefern wertvolle Einblicke in die komplizierten Mechanismen der SARS-CoV-2-Infektion und -Ausbreitung. Das Verständnis der Rolle von NUAK2 eröffnet neue Wege für therapeutische Maßnahmen. Indem wir den NUAK2-regulierten Viruseintritt unterbrechen, können wir möglicherweise die Ausbreitung des Virus verhindern und dadurch die Auswirkungen von Coronaviren abmildern“, sagt Professor Ralf Bartenschlager.

Wissenschaftliche Ansprechpartner:
Professor Dr. Dr. h.c. Ralf Bartenschlager, Dr. Vibhu Prasad

Originalpublikation:
Prasad V, Cerikan B, Stahl Y, et al. Enhanced SARS-CoV-2 entry via UPR-dependent AMPK-related kinase NUAK2. Mol Cell. 2023;S1097-2765(23)00467-7. doi:10.1016/j.molcel.2023.06.020

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/molecular-viro…

(nach oben)


Unit Dose: Mehr Sicherheit in der Arzneimitteltherapie

Anna Reiss Presse- und Öffentlichkeitsarbeit
Universitätsklinik der Ruhr-Universität Bochum – Herz- und Diabeteszentrum NRW Bad Oeynhausen
HDZ NRW etabliert mit „Unit Dose“ jetzt modernste Technik zur Medikamentenversorgung

Die Unit-Dose-Herstellung der Zentralapotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen, ist der erste große Baustein verschiedener Digitalisierungs-vorhaben, die im Sinne des Krankenhauszukunftsgesetzes am Bad Oeynhausener Spezialklinikum bis Ende 2024 umgesetzt werden. Von dieser neuen automatisierten Medikamentenversorgung profitieren vor allem die Patienten und das Pflegepersonal. Die Innovation wurde über ein Jahr lang sorgfältig vorbereitet.

„Die Maschine verpackt lückenlos, detailliert und zuverlässig für jeden Patienten zu jedem Einnahmezeitpunkt die genau für ihn richtigen Medikamente – insgesamt etwa 4.000 Stück am Tag“, sagt Anke Möller, Leiterin der Apotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen. Bisher einmalig ist diese Form der sogenannten Unit-Dose-Versorgung in Ostwestfalen-Lippe aufgrund eines optischen Kontrollgeräts, mit dem Mensch und Maschine gemeinsam einen zusätzlichen Sicherheitscheck ausführen.

Auf den Pflegestationen im HDZ NRW sehen sich vier Apothekerinnen und Apotheker die ärztliche Verordnung der Medikamente an. Wenn zum Beispiel die Medikamente untereinander Wechselwirkungen aufweisen oder die Arzneimitteltherapie im Abgleich mit den Diagnosen optimiert werden kann, besprechen sie dies unter Berücksichtigung aktueller Laborwerte der Patienten mit den Ärztinnen und Ärzten. Die Daten werden anschließend aus der digitalen Patientenakte für den computergesteuerten Automaten freigegeben. Gibt das System grünes Licht und die Medikamentenzuordnung stimmt, startet die Anlage die einzelnen Packaufträge zur hygienischen Verblisterung der Tabletten. „Das erspart unseren Pflegekräften die früher übliche Sortierung per Hand und im Vier-Augen-Prinzip. Hier ist Unit Dose so enorm schnell und präzise im Einsatz, dass die ohnehin schon sehr hohe Patientensicherheit im HDZ noch weiter gesteigert werden kann.“

Bevor die Tütchen die Apotheke verlassen, scannt ein Kontrollgerät die darin enthaltenen Arzneimittel und gleicht Form, Größe und Farbe mit einer hinterlegten Datenbank ab. Jede Abweichung bei dieser Identitätskontrolle wird durch pharmazeutisches Fachpersonal begutachtet und, wenn notwendig, korrigiert.

In den kleinen Blistertüten, die jeder Patient auf seiner Station erhält, befinden sich seine verordneten Tabletten. Persönliche Angaben wie Name, Geburtsdatum, Krankenhaus, Station, Zimmer und die genaue Bezeichnung der Medikamente können darauf abgelesen werden. Über einen kleinen QR-Code-Aufdruck können Hinweise zum jeweiligen Arzneimittel im Beipackzettel mit dem Smartphone digital abgelesen werden.

Wochentags erhalten die Pflegestationen im HDZ NRW zwei Mal täglich die ihnen zugeordneten Blistertütchen. Samstags erfolgt die Ausgabe für das Wochenende. Das Pflegepersonal auf der Station überprüft dann nochmals jede einzelne Medikamentenzuteilung vorab darauf, ob es sich um den richtigen Patienten, das richtige Arzneimittel, die richtige Dosierung, Verabreichungsform und den richtigen Einnahmezeitpunkt handelt. Anschließend wird die Einnahme überprüft und in der digitalen Patientenakte dokumentiert. Diese sechsmalige Prüfung auf Richtigkeit bezeichnet man als 6-R-Regel. Dank der jetzt vom Automaten vorbereiteten beschrifteten Einzelverpackungen ist auch diese standardmäßige Überprüfung sicherer und einfacher geworden.

„Unsere neue digitale Unterstützung in der Medikamentenversorgung steigert die Arzneimitteltherapiesicherheit, entlastet die Pflegekräfte und macht damit auch den Pflegeberuf attraktiver“, fasst Anke Möller die Vorteile der Unit-Dose-Versorgung im HDZ NRW zusammen, die bis Ende September auf allen Normalstationen des Klinikums etabliert sein wird. Nicht zu vergessen sei auch der ökologische Aspekt des Projekts: Weil der Automat mit Tabletten-Schüttware arbeitet, spart man bereits jetzt im HDZ NRW trotz des zusätzlichen Folienmaterials erhebliche Mengen von Verpackungsmüll ein.

Hintergrundinformation: Zukunftsweisende Technik
Mit „Unit Dose“ wird die sogenannte Verblisterung bezeichnet, indem Tabletten, Kapseln und Dragees durch digitale Anbindung an die Patientenakte automatisch für jeden Patienten individuell in hoher Geschwindigkeit in kleine Folienbeutel verpackt, beschriftet und zugeordnet werden. Als Alternative zur traditionellen Stationsversorgung wird Unit-Dose zunehmend in Konzepte zur Verbesserung der Arzneimitteltherapiesicherheit im klinischen Bereich aufgenommen, insbesondere mit der Einführung elektronischer Verordnung und digitaler Patientenakten. Tatsächlich ist eine zentral über die Klinikapotheke gesteuerte Unit-Dose-Versorgung deutschlandweit jedoch erst in wenigen Krankenhäusern etabliert. Als Gesamtlösung aus elektronischer Verschreibung, Dosier- und Interaktionsprüfungen durch Stationsapothekerinnen und Stationsapotheker, automatisierter patientenbezogener Kommissionierung von Einzeldosen und IT-gestützter Verabreichungsdokumentation bietet sie bei entsprechender Ablauforganisation nachweislich Vorteile hinsichtlich der Arzneimittel- und Patientensicherheit, der Verbesserung von medikamentösen Therapien, Transparenz von Fallkosten und einer möglichen Senkung des Arzneimittelbudgets. Am HDZ NRW zieht man in Erwägung, eine Medikamentenversorgung nach Unit-Dose-Prinzip zukünftig auch auf andere von der Zentralapotheke mitversorgte Kliniken und Einrichtungen auszuweiten.

Bildmaterial finden Sie zum Download bereitgestellt unter
https://cloud.hdz-nrw.de/d/e1cef7cd5285429495f0/

Hinweis zur Verwendung von Bildmaterial: Die Verwendung des Text- und Bildmaterials zur Pressemitteilung ist bei Nennung der Quelle vergütungsfrei gestattet. Das Bildmaterial darf nur in Zusammenhang mit dem Inhalt dieser Pressemitteilung und namentlicher Nennung des Herz- und Diabeteszentrum NRW, Bad Oeynhausen, verwendet werden.

Als Spezialklinik zur Behandlung von Herz-, Kreislauf- und Diabeteserkrankungen zählt das Herz- und Diabeteszentrum Nordrhein-Westfalen (HDZ NRW), Bad Oeynhausen, mit 36.000 Patientinnen und Patienten pro Jahr, davon 14.800 in stationärer Behandlung, zu den größten und modernsten Zentren seiner Art in Europa. Unter einem Dach arbeiten fünf Universitätskliniken und drei Universitäts-Institute seit mehr als 30 Jahren interdisziplinär zusammen. Das HDZ NRW ist seit 1989 Universitätsklinik der Ruhr-Universität Bochum. Die Professorenschaft des HDZ NRW ist zusätzlich seit 2023 Mitglied der Medizinischen Fakultät OWL der Universität Bielefeld. Die Einrichtung ist bekannt als größtes Herztransplantationszentrum in Deutschland.

In der Zentralapotheke des HDZ NRW unter der Leitung von Anke Möller sind aktuell 30 Mitarbeitende, darunter 8 Apotheker/innen und 13 Pharmazeutisch-Technische Assistenten/Assistentinnen (PTA) beschäftigt. Neben den Kliniken des HDZ NRW versorgt die Apotheke 18 weitere Einrichtungen (über 4.500 Betten) in der Region. Zur Ausstattung zählen unter anderem eine halbautomatische Kommissionieranlage für Arzneimittel, Medizinprodukte und apothekenübliches Nebensortiment sowie Laborräume auf über 200 Quadratmetern zur Herstellung von parenteralen Arzneimitteln und Zytostatika.

Weitere Informationen:
Herz- und Diabeteszentrum Nordrhein-Westfalen
Universitätsklinik der Ruhr-Universität Bochum
Presse- und Öffentlichkeitsarbeit
Leitung: Anna Reiss
Georgstr. 11
32545 Bad Oeynhausen
Tel. 05731 97-1955
Fax 05731 97-2028
E-Mail: info@hdz-nrw.de

Weitere Informationen:
http://www.hdz-nrw.de

Anhang
Pressemitteilung HDZ NRW vom 09.08.2023

(nach oben)


Tiefengeothermie: NRW hat günstige Voraussetzungen für den Ausbau der Geothermie

Kosta Schinarakis Pressestelle
Fraunhofer-Einrichtung für Energieinfrastrukturen und Geothermie IEG
Nordrhein-Westfalen will das Potenzial der Geothermie heben und damit einen wichtigen Schritt in Richtung klimaneutrale Industrieregion gehen. Der Landtag NRW bat das Fraunhofer IEG um eine Stellungnahme, zur Rolle von tiefer, mitteltiefer und oberflächennaher Geothermie in der Wärmewende des Landes. Anlässlich der gestrigen Sachverständigenanhörung im zuständigen Ausschuss unterstrich Fraunhofer IEG die günstigen geologischen Bedingungen für die Tiefengeothermie, aber auch die Markt-Hemmnisse, die nur politisches Handeln ausräumen kann.

»Zwei zentrale Faktoren behindern den Ausbau der Tiefen Geothermie«, unterstreicht Rolf Bracke, Leiter des Fraunhofer IEG. »Das Fündigkeitsrisiko bei gleichzeitig erheblichen Investitionskosten für Projektentwickler sowie die unzureichende Datenlage zum tiefen Untergrund jenseits von 1000 Metern.« Ein hohes Potenzial für die Wärmewende in einem der größten europäischen Ballungsräume stelle dagegen die Grubenwassernutzung und Wärmespeicherung im Steinkohlengebirge dar. Zur Beseitigung der Hemmnisse und Nutzung der Potenziale sei nun politisches Handeln angezeigt.

Die Hälfte des Energieumsatzes in Deutschland geht in die Wärmeversorgung von Gebäuden und Industrieprozessen. Doch noch immer ist der Anteil von alternativer Wärme bei unter 20 Prozent. Die nachhaltige Geothermie hat genug Potenzial um den Wärmebedarf NRWs großteils zu decken. Erdwärme steht ganzjährig und verlässlich zur Verfügung, ist wetterunabhängig, CO2-frei und lokal. In Kombination mit Hochtemperaturwärmepumpen könnte Geothermie auch ein Viertel des Wärmebedarfes der Industrie decken, etwa in den Sektoren Nahrungsmittel, Papier, Zement, Gewächshaus oder Chemie. Vor allem in Süd-Deutschland arbeiten derzeit rund 40 geothermische Anlagen mit einer installierten Wärmeleistung von ca. 400 MW. Die Herstellungskosten liegen bei ca. 2-2,5 Mio. Euro pro installierte Leistung von 1 MW und die Erzeugungskosten bei wettbewerbsfähigen 30 Euro/MWh.

Aus Sicht der Fraunhofer IEG sollte ein ambitionierter »Masterplan Geothermie NRW« alle Optionen der geothermischen Nutzung adressieren und ambitionierte, landesbezogene Ausbauziele benennen. Ein Handlungsfeld eines solchen Masterplans ist sicherlich die Bildung einer verlässlichen Datengrundlage. Hier bietet sich eine Kombination aus den Methoden geophysikalische Erkundung und Tiefbohrung an, die den Kern einer landesweiten Explorationsstrategie bilden sollten. Die gewonnenen Rohdaten und Erkenntnisse sollen den Marktteilnehmer – etwa Projektentwicklern und Stadtwerken – unverzüglich digital zu Verfügung stehen.

Da Geothermie im überragenden öffentlichen Interesse liegt, sollten Förder- und Finanzinstrumente des Landes das Fündigkeitsrisiko der oftmals mittelständigen Wärmeversorger senken. Solche Instrumente könnten das Erreichen der strategischen Ziele des Landes innerhalb der Wärmewende massiv beschleunigen.

Darüber hinaus können Vereinfachungen bzw. Bündelungen von Genehmigungsverfahren nach dem Wasser-, Umweltverträglichkeitsprüfungs-, Naturschutz- und im Vergaberecht Projekte wesentlich beschleunigen. Eine Option kann die Ausweisung sog. »Go-to-Gebiete« für Heiz(kraft)werke in der Landesentwicklungs- und Bauleitplanung sein.

Um den ambitionierten geothermischen Zubau gewährleisten zu können, müssen auch Fachkräfte- und Schulungskapazitäten entlang der gesamten Planungs-, Administrations- und Installationskette aufgebaut werden. Dem Anspruch des Industrielandes NRW auf Technologieführerschaft entsprechend sollten vorhandene Branchen und Unternehmen mit Schlüsseltechnologien der Geothermie durch gezielte Wirtschaftsförderungsmaßnahmen für den Transformationsprozess »Geothermische Wärmewende« gestärkt werden.

Weitere Informationen:
http://Tagesordnung: https://www.landtag.nrw.de/home/der-landtag/tagesordnungen/WP18/300/E18-388.html
http://Videostream: https://www.landtag.nrw.de/home/mediathek/video.html?kid=b8084895-03a4-4b92-83ba…
http://Sitzungmappe: https://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/Dokument/esm/MME18-388.pd…

(nach oben)


Wie durcheinander gewürfelte Daten unsere Sicherheit verbessern können

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Riesige Datenströme durchlaufen täglich unsere Computer und Smartphones. Um diese zu verarbeiten, bestehen technische Geräte vereinfacht gesagt aus zwei wesentlichen Einheiten: Einem Prozessor, also einer Art Schaltzentrale und dem Arbeitsspeicher (RAM), den man mit einem Gedächtnis vergleichen kann. Da der Speicher um ein Vielfaches langsamer darin ist, Daten bereitzustellen als der Prozessor in der Lage ist, diese Daten zu verarbeiten, arbeiten moderne Prozessoren mit einem Zwischenspeicher, dem so genannten Cache, der eine Art Brücke zwischen den beiden bildet. In diesem Zwischenspeicher befinden sich oftmals private Daten, die für Angreifer ein attraktives Ziel darstellen könnten.

Ein Team aus Bochumer Wissenschaftlern hat nun in Kooperation mit Forschern aus Japan eine innovative Verschlüsselung designt, die nicht nur eine größere Sicherheit bietet als die bisherigen Ansätze, sondern auch effizienter und schneller ist. Die Arbeit dazu stellen sie auf der renommierten Konferenz „Usenix Security Symposium“ in Anaheim, Kalifornien (USA), vor.

Beteiligt daran sind Dr. Federico Canale und Prof. Dr. Gregor Leander vom Lehrstuhl für Symmetrische Kryptographie, Jan Philipp Thoma und Prof. Dr. Tim Güneysu vom Lehrstuhl für Security Engineering, alle von der Ruhr-Universität Bochum, sowie Yosuke Todo von NTT Social Informatics Laboratories und Rei Ueno von der Tohoku University (Japan).

Cache bisher nicht gut gegen Seitenkanal-Angriffe geschützt
Dass der Cache gegen eine bestimmte Art von Angriffen nicht gut geschützt ist, hat CASA-Forscher Prof. Dr. Yuval Yarom, der seit April 2023 an der Ruhr-Universität tätig ist, schon vor Jahren aufgedeckt. Die schweren Sicherheitslücken Spectre und Meltdown hatten damals für Wirbel gesorgt, weil sie alle gängigen Mikroprozessoren sowie Cloud-Dienste betrafen. Ein Cache ist ein eher unscheinbares Element, leistet aber eine wichtige Arbeit: In ihm lagern Daten zwischen, die sehr oft abgerufen werden. Seine Hauptfunktion liegt darin, Zugriffszeiten zu verringern – denn würden die Daten jedes Mal vom Prozessor (CPU) beim langsameren Arbeitsspeicher abgerufen werden, würde dies die Schnelligkeit verringern. Also holt sich die CPU bestimmte Daten aus dem Cache. Bei dieser Kommunikation zwischen CPU und Cache können allerdings Angreifer ansetzen. Ihre Methode: Sie überschreiben die recht ungesicherten Daten im Cache. Das System kann die Daten nicht mehr im Cache finden und fordert sie deshalb aus dem Hauptspeicher an. Dieser Vorgang ist messbar langsamer. „In sogenannten Timing-Seitenkanalangriffen können Angreifer die Zeitunterschiede messen und dazu nutzen Speicherzugriffe von anderen Programmen zu beobachten. Dadurch lassen sich zum Beispiel private Schlüssel für Verschlüsselungsalgorithmen stehlen“, erklärt Jan Philipp Thoma vom Lehrstuhl für Security Engineering.

Innovative Lösung mit mathematischem Hintergrund
Zwar wurden für manche Angriffe Patches entwickelt, die die Lücke schließen sollten, aber eine beweisbare Sicherheit konnten diese nicht bieten. Nun hat das Team aus Bochum und Japan jedoch eine innovative Lösung gefunden: „Unsere Idee besteht darin, dass wir die Daten im Cache mithilfe mathematischer Prozesse durcheinanderwürfeln“, erklärt Gregor Leander, der vor kurzem einen ECR Advanced Grant für seine Forschung erhalten hat. Durch diese Randomisierung in den Caches des CPUs können die Angriffe abgewehrt werden, da sie verhindert, dass Angreifer die Daten aus dem Cache entfernen können.

„Der interdisziplinäre Ansatz aus Überlegungen der Kryptografie und der Hardware-Sicherheit stellt ein Novum innerhalb der Computersicherheit dar. Zwar gab es zuvor schon Ideen zu randomisierten Cache-Architekturen, allerdings waren diese nicht sehr effizient und nicht in der Lage, starke Angreifer vollständig abzuhalten“, sagt Tim Güneysu, der den Lehrstuhl für Security Engineering innehat. Das neue Modell SCARF arbeitet mit einer Blockverschlüsselung, die für diesen Bereich ganz neu von den Wissenschaftlern gedacht wurde. „Normalerweise verschlüsseln wir Daten mit 128 Bit, im Cache arbeiten wir teilweise mit 10 Bit. Das ist ein komplexer Vorgang, weil es viel länger dauert, diese Daten mit einem großen Schlüssel zu mischen“, so Gregor Leander. Der große Schlüssel wird benötigt, weil eine kürzere Verschlüsselung solch kleiner Datenmengen leichter von Angreifern gebrochen werden könnte.

Die oben beschriebene Randomisierung benötigt normalerweise viel Zeit, was die Arbeitsweise des Cache einschränken würde. SCARF hingegen arbeitet dank der Blockchiffrierung schneller als alle bisher designten Lösungen. „SCARF kann als Modulbaustein in Cache Architekturen eingesetzt werden und sorgt automatisch für sichere – das heißt nicht vorhersagbare – Randomisierung bei gleichzeitig niedriger Latenz, also Reaktionszeit“, führt Jan Philipp Thoma aus und fasst zusammen: „Mit SCARF bieten so wir eine effiziente und sichere Lösung für die Randomisierung.“

Doppelter Schutz durch Kombination mit ClepsydraCache
Somit könnte die Arbeit der Forscher einen elementaren Einfluss auf den Schutz von sensiblen Daten innerhalb der digitalen Gesellschaft leisten. Darüber hinaus stellen die Forscher in Zusammenarbeit mit anderen Kollegen eine weitere Arbeit auf dem diesjährigen „Usenix Security Symposium“ vor, die mit SCARF kombiniert werden kann. Das Paper „ClepsydraCache – Preventing Cache Attacks with Time-Based Evictions“ zeigt ebenfalls eine neue Idee für die Sicherheit des Zwischenspeichers auf. Daran beteiligt sind ebenfalls Jan Philipp Thoma, Gregor Leander und Tim Güneysu sowie CASA-Forscher Lucas Davi von der Uni Duisburg-Essen. Es ist außerdem in enger Zusammenarbeit mit Forschern des Lehrstuhls für Integrierte Systeme an der Ruhr-Universität Bochum entstanden. „ClepsydraCache setzt auf sogenanntes Cache Decay in Kombination mit der Randomisierung des Indexes. Cache Decay bedeutet, dass Daten, die längere Zeit nicht verwendet werden, automatisch aus dem Cache entfernt werden“, beschreibt Jan Philipp Thoma den Prozess.

Für die Sicherheit der Daten ist ein solcher Vorgang wichtig, weil er weniger Cache-Konflikte entstehen lässt. Diese Konflikte führen zur Verlangsamung des Prozesses und könnten ebenfalls mithilfe der oben beschriebenen Seitenkanalangriffe zu Rückschlüssen auf Daten führen. Die Wissenschaftler konnten beweisen, dass ihr Vorschlag bekannten Angriffsvektoren standhält und sich problemlos in bestehende Architekturen einbauen lässt.

Interdisziplinäre Arbeit führt zu erfolgreicher Forschung
Durch die Vereinbarkeit der beiden Arbeiten „SCARF“ und „Clepsydracache“ könnten künftige Generationen von Caches sicherer werden als je zuvor – und müssten dabei keinerlei Einbußen in ihrer Schnelligkeit verzeichnen. Das Teamwork zeigt somit, dass der interdisziplinäre Ansatz, den das Exzellenzcluster CASA „Cybersecurity in the Age of Large-Scale Adversaries“ verfolgt, zu richtungsweisenden Forschungsergebnissen führen können.

Redaktion: Christina Scholten
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tim Güneysu
Lehrstuhl für Security Engineering
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 24626
E-Mail: tim.gueneysu@ruhr-uni-bochum.de

Prof. Dr. Gregor Leander
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 28402
E-Mail: gregor.leander@ruhr-uni-bochum.de

Jan Philipp Thoma
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 27891
E-Mail: jan.thoma@ruhr-uni-bochum.de

Originalpublikation:
Federico Canale, Tim Güneysu, Gregor Leander, Jan Philipp Thoma, Yosuke Todo, Rei Ueno: SCARF – A low-latency block cipher for secure cache-randomization, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/usenixsecurity23-canale.pdf

Jan Philipp Thoma, Christian Niesler, Dominic Funke, Gregor Leander, Pierre Mayr, Nils Pohl, Lucas Davi, Tim Güneysu: ClepsydraCache – Preventing cache attacks with time-based evictions, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/sec23summer_48-thoma-prepub.pdf

(nach oben)


Kartografie der Mobilfunk-Sicherheit

Annabelle Theobald Unternehmenskommunikation
CISPA Helmholtz Center for Information Security
„Als Mobilfunkforscher ist man in gewisser Weise Gefangener seiner geografischen Position“, sagt CISPA-Forscher Dr. Adrian Dabrowski. Was er damit meint ist, dass Mobilfunkforschende wegen der großen Zahl von Anbietern und Netzen bislang nur mit großem Aufwand Tests in ausländischen Mobilfunknetzen vornehmen können. Zusammen mit Gabriel Gegenhuber von der University Vienna und weiteren Kollegen hat Dabrowski deshalb MOBILEATLAS entwickelt, eine Infrastruktur, die die Testung quer durch Europa erlaubt – egal von wo aus. Sein Paper „Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research” stellt er auch auf der Top-IT-Sicherheitskonferenz USENIX vor.

2G, 3G, 4G, 5G – Was sich anhört wie die Ziehung beim Bingo bezeichnet die aktuell verwendeten Mobilfunkstandards. Der jüngste Standard der 5. Generation – dafür stehen all die Gs – ist noch im Aufbau. Der älteste, 2G, wurde schon in den 1990er-Jahren Jahren eingeführt und ist noch immer in Verwendung. „2G wird vor allem für Sprachübertragung oder für einfache smarte Geräte verwendet; etwa ein Getränkeautomat, der anzeigt, dass er nachgefüllt werden muss“, erklärt Dabrowski. Das darauffolgende 3G wurde 2021 in Deutschland abgeschaltet und durch 4G, auch LTE genannt, ersetzt. Mit 4G lassen sich unterwegs auch zum Beispiel Streamingdienste nutzen oder Videotelefonie durchführen. Mittlerweile gelten diese Mobilfunkstandards, die nebeneinander existieren, weltweit. Durch das sogenannte Roaming sollen Mobilfunk-Kund:innen auch im Ausland die mit ihrem Mobilfunkanbieter vereinbarten Services nutzen können und den versprochenen Sicherheits- und Privatsphäreschutz genießen. Sollen.

Ist das „Roam-Like-At-Home-Prinzip“ ein leeres Versprechen?
Die Rede ist hier vom sogenannten Roam-Like-At-Home-Prinzip, das EU-Bürger:innen in der 2022 neugefassten EU- Roamingverordnung versprochen wird. Die Bundesnetzagentur schreibt dazu: „Durch die Neufassung der Roaming-Verordnung gilt auf Reisen in der EU nicht nur der gleiche Preis wie zuhause, sondern auch grundsätzlich die gleiche Qualität.“ Dabrowski bezweifelt, dass dieses Versprechen eingehalten werden kann. „Beim Roaming arbeiten das Heimatnetzwerk und das Netzwerk des Landes, in dem ich zu Gast bin, zusammen. Sie wollen einen Service anbieten, der auch hinsichtlich Privatsphäre und Sicherheit so konsistent ist wie der im Heimatnetz. Die technische Umsetzung ist dabei aber komplett verschieden.“ So werde zum Beispiel bei einem Urlaub in der Schweiz die Telefonieverbindung direkt übers Schweizer Netz hergestellt, während die Internetverbindung den Umweg über Deutschland nehme. Im Heimnetzwerk ginge beides den direkten Weg. „Wenn man genau hinschaut gibt es keine Konsistenz zwischen Roaming- und Nicht-Roaming-Verbindungen“, erklärt der Forscher. Die Mobilfunk-Anbieter hätten extrem viel Gestaltungsspielraum und seien bislang kaum zu kontrollieren. Das gilt laut Dabrowski auch hinsichtlich der Sicherheit der Netze.

Grenzüberschreitende Tests bislang kaum möglich
Das Problem: Bislang sind Tests und Messungen über die Grenzen hinweg extrem aufwendig. „Europa ist extrem zersplittert. In jedem Land gibt es viele Mobilfunkanbieter. Deutschland ist mit seinen nur drei Anbietern die Ausnahme. Wenn ich feststelle, dass in einem unserer inländischen Mobilfunknetze eine Sicherheitslücke ist und prüfen will, ob das in anderen Netzen auch der Fall ist, hab‘ ich derzeit zwei Möglichkeiten: Entweder ich reise viel herum und teste jedes Netz in jedem Land in jeder Konstellation, oder ich statte in jedem Land möglichst viele Geräte mit möglichst vielen verschiedenen SIM-Karten von unterschiedlichen Anbietern aus. In kürzester Zeit habe ich so 1000 SIM-Karten, 1000 Verträge und eine Privatinsolvenz.“

„Entkoppelte Messungen“ sind die Lösung
Die Lösung könnte ein von den Forschenden entwickeltes Framework sein, das die geografische Trennung der SIM-Karte vom Mobilfunkmodem erlaubt. Das Modem ist eine Komponente in mobilen Endgeräten wie etwa Smartphones, das die Verbindung zwischen den Geräten und einem Mobilfunknetz herstellt. Seine Aufgabe ist es, die Funkdaten in die richtige Form zu bringen und an die Sendemasten senden und von dort zu empfangen. Die SIM-Karte dient zur Identifikation der Nutzer:innen und ordnet das Smartphone einem bestimmten Netz zu. Dabrowski erklärt, was das alles mit seinem Framework zu tun hat: „Normalerweise sind SIM-Karte und Telefon eine Einheit. Wir trennen diese Einheit auf und entfernen die SIM-Karte aus dem Telefon. Wir simulieren das Kommunikationsprotokoll übers Internet und können so quasi virtuell reisen. Nochmal einfacher an einem Beispiel erklärt: Wir verbinden einmal die SIM-Karte mit unserer Messstation in Deutschland und können so tun, als wären wir in Deutschland. Dann trennen wir sie und verbinden sie zu unserer Messstation in Frankreich und können so tun als seien wir da. Wir brauchen dafür nur noch ein Endgerät in Deutschland oder eben in Frankreich.“

Kostengünstig und Open Source
Die daraus resultierende Mess- und Testplattform, die für die Standards 2G bis 4G funktioniert, bietet laut Dabrowski eine kontrollierte Experimentierumgebung die erweiterbar und kostengünstig ist. „Zudem ist unser Ansatz Open Source, sodass andere Forscher Standorte, SIM-Karten und Messskripte dazu beitragen können.“ Die Forschenden machen die Plattform unter dem Namen MobileAtlas zugänglich und nutzbar. Das Tool dürfte dabei nicht nur für Wissenschaftler:innen interessant sein. „Mobilfunkanbieter:innen könnten damit auch erstmals prüfen, ob ihre Roamingpartner ihre Versprechen halten.“ Der Name Mobile Atlas kommt dabei nicht von Ungefähr. Er wurde laut Dabrowski abgeleitet vom Namen der seit 2010 existierenden Internet-Testplattform RIPEATLAS. „RIPE NCC ist die Europäische Internetverwaltung. Der RIPE Atlas ist ein globales Netz von Messgeräten, die die Konnektivität und Erreichbarkeit des Internets messen.“

Die Grenzen der Grenzenlosigkeit
Mit dem MOBILEATLAS gibt es bislang in zehn Ländern Messstationen und die für die Messungen geeignete Infrastruktur. Dabrowski hofft, dass sich das Messnetzwerk durch die Hilfe anderer Forschender schnell vergrößert. „Allerdings werden wir auch schauen müssen, dass kein Unfug mit den SIM-Karten getrieben wird, damit uns keine Kosten entstehen. Ob wir MOBILEATLAS so umfänglich anbieten können wie RIPE NCC ihre Plattform muss sich noch zeigen. Dass sich mit ihrem Ansatz interessante Informationen zu Tage fördern lassen, haben Dabrowski und seine Kollegen bewiesen: „Wir haben zum Beispiel entdeckt, dass sich in einigen Mobilfunknetzen bestimmte Dienste so tarnen lassen, dass der dafür anfallende Datenverkehr nicht vom im Tarif enthaltenen Datenvolumen abgezogen wird. Für Endnutzer:innen schlimmer sind allerdings die Sicherheitsproblematiken, die wir ebenfalls nachweisen konnten. So haben wir zum Teil problematische Firewall-Konfigurationen gefunden oder versteckte SIM-Kartenkommunikation mit dem Heimnetzwerk aufgedeckt.“ Allzu beunruhigend sind die Befunde dabei nicht. Eine Ausnutzung dieser Probleme würde sehr gezielte Angriffe und versierte Angreifer:innen voraussetzen. „Aber solche Lücken sind nie gut. Und jetzt haben wir die Möglichkeit, die Anbieter darauf hinzuweisen.“

Originalpublikation:
Gegenhuber, Gabriel Karl and Mayer, Wilfried and Weippl, Edgar and Dabrowski, Adrian
(2023) MobileAtlas: Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research. In: USENIX Security Symposium 2023, August 9-11, 2023, Anaheim, California, United State. Conference: USENIX-Security Usenix Security Symposium

Weitere Informationen:
https://www.mobileatlas.eu/

(nach oben)


10 Millionen Euro für die Erzeugung erneuerbarer, flüssiger Energieträger aus Kohlenstoffdioxidemissionen

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis Europa Zentrum
Das Innovationsprojekt CAPTUS zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien. Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern in CAPTUS beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Am 15. und 16. Juni 2023 feierten die Projektpartner, darunter das Steinbeis Europa Zentrum, den Auftakt des EU-Projekts CAPTUS in Zaragoza, Spanien. Das Innovationsprojekt zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien; darunter die Nutzbarmachung und Wertsteigerung von Kohlenstoffemissionen und deren Integration in erneuerbare Energiequellen.

Aufgrund ehrgeiziger klimapolitischer Maßnahmen stehen energieintensive Industrien heute vor einer großen Herausforderung. Sie müssen auf den globalisierten Märkten wettbewerbsfähig bleiben und gleichzeitig Maßnahmen zur drastischen Reduzierung ihrer Kohlenstoffemissionen ergreifen. In diesem Szenario des Übergangs spielt die Kohlenstoffabscheidung, -nutzung und -speicherung eine Schlüsselrolle , und es werden Technologien mit unterschiedlichem Reifegrad und unterschiedlicher Leistung erforscht. Die Umwandlung von Kohlenstoffdioxid in hochwertige erneuerbare Energieträger mit regenerativen Energien ist eine vielversprechende Strategie, um den anthropogenen Kohlenstoffkreislauf zu schließen, um auf diese Weise die Einsparziele bei Treibhausgasen und Energiebedarf zu erfüllen. Es gibt zwar bereits verschiedene Umwandlungsverfahren, aber die meisten sind noch sehr material- und energieaufwändig, kostspielig und ineffizient.

Im EU-Projekt CAPTUS werden hierzu neue innovative Lösungen erarbeitet. CAPTUS wird nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien aufzeigen, indem industrielle Kohlenstoffemissionen aufgewertet und Stromüberschüsse aus erneuerbaren Energien integriert werden. Es werden drei vollständige Wertschöpfungsketten für erneuerbaren Energieträgern an drei verschiedenen Demonstrationsstandorten demonstriert.
1. Aus Abgasen eines Stahlwerks werden durch eine zweistufige Fermentation mikrobiologisch Triglyceride hergestellt.
2. Zur Herstellung von Bio-Ölen in einer Chemieanlage werden Lipid-produzierende Mikroalgen kultiviert und dann gefolgt von hydrothermal verflüssigt.
3. Auf der Basis einer elektrochemischen Reduktion von CO2 aus Zementwerkabgasen wird Ameisensäure erzeugt.

Die vorgeschlagenen Technologien werden vom Labor- bis zum Pilotmaßstab geprüft, und die gewonnenen erneuerbaren Energieträger werden durch Qualitätsbewertungen und Veredelungsstudien für die Herstellung von Hochleistungskraftstoffen validiert. Darüber hinaus wird CAPTUS die Integration der validierten Lösungen für energieintensive Industrien hinsichtlich wirtschaftlicher, ökologischer, gesellschaftlicher, regulatorischer und geopolitischer Kriterien analysieren. Ebenso werden Richtlinien und Strategien für einen Dekarbonisierungsplan entwickelt, das Bewusstsein und die Akzeptanz von Kohlenstoffbindungs und -speicherungstechnologien wird erhöht und die gewonnenen erneuerbaren Energieträger werden verbessert. Schließlich geht es auch darum, geeignete Geschäftsmodelle und Replikationsmöglichkeiten zu schaffen.

Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.

Das Innovationsprojekt CAPTUS wird von der EU im Rahmen des Forschungs- und Innovationsprogramm Horizon Europe mit 10 Millionen Euro finanziert. Das Konsortium besteht aus 18 Partnern aus 8 Ländern, die multidisziplinäre Kompetenzen und Ressourcen aus Wissenschaft, Forschung, Technik, Industrie und Universitäten vereinen:
1. Fundación circe centro de investigación de recursos y consumos energéticos (Koordinator) – Spanien
2. Sintef AS – Norwegen
3. Universidad de Cantabria – Spanien
4. Agencia estatal consejo superior de investigaciones cinefíficas – Spanien
5. Universita degli studi di Genova – Italien
6. Steinbeis Europa Zentrum/ Steinbeis Innovation gGmbH – Deutschland
7. Ethniko kentro erevnas kai technologikis anaptyxis – Greece
8. Bio base europe pilot plant VZW – Belgien
9. Novis GmbH – Deutschland
10. Apria systems SL – Spanien
11. Draxis environmental SA – Griechenland
12. A4f algafuel SA – Portugal
13. Goodfuel BV – Niederlande
14. Rina consulting SPA – Italien
15. Arcelormittal Belgium NV- Belgien
16. Hychem, química sustentável SA – Portugal
17. Cementos portland valderrivas SA – Spanien
18. Energy efficiency in industrial processes asbl – Belgien

Das Projekt mit einer Dauer von 48 Monaten (Juni 2023- Mai 2027) und einem Gesamtbudget von 10 Millionen Euro, feierte das Auftakttreffen am 15. und 16. Juni 2023 in Zaragoza, Spanien.

Kontakt:
Für zusätzliche Informationen wenden Sie sich bitte an den Projektkoordinator bei der Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

Kontakt am Steinbeis Europa Zentrum
Dr. Frederick von Netzer, eMail: frederick.vonnetzer@steinbeis-europa.de

Wissenschaftliche Ansprechpartner:
Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es

(nach oben)


Nach anfänglicher Erholung: Artenvielfalt in europäischen Flüssen stagniert

Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Langzeitstudie zeigt, dass der Aufschwung der europäischen Süßwasser-Biodiversität seit den 2010er Jahren ins Stocken geraten ist.
Senckenberg-Forschende haben gemeinsam mit einem großen internationalen Team anhand wirbelloser Tiere den Zustand und die Entwicklung der Biodiversität in europäischen Binnengewässern im renommierten Fachjournal „Nature“ vorgestellt. In ihrer heute erschienenen Studie zeigen sie, dass die biologische Vielfalt in Flusssystemen aus 22 europäischen Ländern über einen Zeitraum von 1968 bis 2020 deutlich angestiegen ist. Das Wissenschaftler*innen-Team warnt jedoch, dass dieser positive Trend seit 2010 stagniert und fordern daher zusätzliche Maßnahmen.

Auch wenn Eintags-, Stein-, und Köcherfliegen zu den Fluginsekten zählen – den Großteil ihres Lebens verbringen sie als Larve im Wasser. „Diese und viele weitere wirbellose Tiere tragen zu wichtigen Ökosystemprozessen in Süßgewässern bei. Sie zersetzen organische Stoffe, filtern Wasser und transportieren Nährstoffe zwischen aquatischen und terrestrischen Bereichen. Darüber hinaus sind solche Invertebraten seit langem ein Eckpfeiler zur Überwachung der Wasserqualität“, erläutert Erstautor der Studie Prof. Dr. Peter Haase vom Senckenberg Forschungsinstitut und Naturmuseum Frankfurt und fährt fort: „Solch eine Kontrolle ist immens wichtig, denn Flüsse und Seen sind großen anthropogenen Belastungen ausgesetzt und gehören zu den am stärksten vom Verlust der biologischen Vielfalt bedrohten Ökosystemen.“

Binnengewässer sind durch die landwirtschaftliche und städtische Flächennutzung verschiedenen anthropogenen Belastungen ausgesetzt. Sie akkumulieren Schadstoffe, organisch belastete Abwässer, Feinsedimente und Pestizide und sind darüber hinaus durch Veränderungen, wie beispielsweise Dämme, Wasserentnahme, invasive Arten und den Klimawandel bedroht. „Als Reaktion auf den schlechten Zustand der Gewässer in den 1950er und 1960er Jahren wurden zur Wiederherstellung von Süßwasserlebensräumen beispielsweise mit dem ‚US Clean Water Act‘ von 1972 und der EU-Wasserrahmenrichtlinie von 2000 wichtige Gegenmaßnahmen ergriffen“, erklärt Senior-Autorin Dr. Ellen A.R. Welti, vormals Senckenberg-Wissenschaftlerin und nun Forschungsökologin in den USA am Smithsonian’s Conservation Ecology Center und spricht weiter: „Diese Maßnahmen führten zu einem deutlichen Rückgang der organischen Verschmutzung und der Versauerung ab etwa 1980. In den letzten 50 Jahren haben diese Schritte zur Eindämmung der Abwasserbelastung und so zu den aufgezeigten Verbesserungen der biologischen Vielfalt im Süßwasser beigetragen. Dennoch nehmen die Anzahl und die Auswirkungen der Stressfaktoren, welche diese Ökosysteme bedrohen, weltweit weiter zu, und die biologische Qualität der Flüsse ist nach wie vor vielerorts unzureichend.“

Gemeinsam mit einem großen internationalen Team haben Haase und Letztautorin Welti einen umfassenden Datensatz von 1.816 Zeitreihen analysiert, die zwischen 1968 und 2020 in Flusssystemen in 22 europäischen Ländern gesammelt wurden und 714.698 Beobachtungen von 2.648 Arten aus 26.668 Proben umfassen. Die Auswertungen zeigen, dass sowohl die Artenvielfalt mit 0,73 Prozent pro Jahr als auch die funktionelle Diversität mit jährlichen 2,4 Prozent und die Häufigkeit der Arten mit 1,17 Prozent im Jahr über den Zeitraum der 53 Jahre deutlich angestiegen ist. „Diese Zuwächse traten jedoch hauptsächlich vor 2010 auf und haben sich seitdem leider auf einem mehr oder weniger gleichbleibenden Niveau eingependelt. Während die Zunahme der biologischen Vielfalt in den 1990er und 2000er Jahren wahrscheinlich die Wirksamkeit von Wasserqualitäts- verbesserungen und Renaturierungsprojekten widerspiegelt, deutet die sich anschließende stagnierende Entwicklung auf eine Erschöpfung der bisherigen Maßnahmen hin“, ergänzt Haase.

Laut den Studienergebnissen erholten sich Süßwassergemeinschaften flussabwärts von Staudämmen, städtischen Gebieten und Ackerland weniger schnell. Die Fauna an Standorten mit schnellerer Erwärmung verzeichneten zudem geringere Zuwächse in der Artenvielfalt, der Häufigkeit der Individuen und der funktionellen Diversität. Welti fügt hinzu: „Basierend auf einem Teildatensatz – 1299 von 1816 – konnten wir zeigen, dass rund 70 Prozent der Flussabschnitte nicht-heimische Arten aufweisen mit einem durchschnittlichen Anteil von 4,9 Prozent der Arten und 8,9 Prozent der Individuen. Es ist außerdem zu beobachten, dass sich die eingewanderten Tiere in städtischen Gebieten und stärker belasteten Lokalitäten besser zurechtfinden als die heimische Fauna. Dies könnte zu einem Verlust seltener und empfindlicher einheimischer Arten führen“.

Erhebliche Investitionen seien erforderlich, um die Abwassernetze auszubauen und die Kläranlagen zu verbessern. Das Überlaufen von Kläranlagen bei Starkregen könnte verhindert und Mikroverunreinigungen, Nährstoffe, Salze sowie andere Schadstoffe wirksamer entfernt werden, so die Autor*innen. Darüber hinaus plädiert das Forschungsteam für weitere Maßnahmen, insbesondere die Reduktion von Einträgen von Dünge- und Pflanzenschutzmitteln aus landwirtschaftlichen Flächen, die Anbindung von Überschwemmungsgebieten zur Reduktion zerstörerischer Überschwemmungen sowie zur Anpassung unserer Flusssysteme an künftige klimatische und hydrologische Bedingungen.

„Künftig sollte zudem die Überwachung der biologischen Vielfalt in Verbindung mit der parallelen Erhebung von Umweltdaten erfolgen. Nur so können wir die zeitlichen Veränderungen innerhalb der Artenvielfalt wirksam beschreiben, umweltbedingte Faktoren und stark gefährdete Gebiete ermitteln und den Schutz der biologischen Vielfalt maximieren!“, schließt Haase.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Haase
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051 61954-3114
peter.haase@senckenberg.de

Originalpublikation:
Haase, P., D.E. Bowler, N.J. Baker, …, E.A.R. Welti (2023) The recovery of European freshwater biodiversity has come to a halt. Nature 620 (Issue 7974)
https://www.nature.com/articles/s41586-023-06400-1
DOI: 10.1038/s41586-023-06400-1

(nach oben)


Wann digitaler Stress auch positiv sein kann

Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Stress durch Apps, E-Mails, ständige Benachrichtigungen – die Universitäten Augsburg, Bamberg, Erlangen-Nürnberg, München (LMU) und Würzburg haben in einem gemeinsamen Forschungsverbund vier Jahre lang zum gesunden Umgang mit digitalen Technologien und Medien geforscht. ForDigitHealth präsentiert seine Ergebnisse sowohl in wissenschaftlichen Publikationen wie auch einem verständlichen Online-Wegweiser für die Öffentlichkeit.

Digitale Technologien und Medien sind tief in unseren Alltag integriert. Sie halten uns in Verbindung, sind die Voraussetzung für Arbeitsprozesse, ermöglichen schnelle Abstimmungen, Inspiration, Unterhaltung, Lernen, Unterstützung und vieles mehr. Gleichzeitig entsteht dadurch digitaler Stress, den wir nicht immer gut handhaben können und der zu negativen gesundheitlichen Folgen führen kann.

Bayerns Wissenschaftsminister Markus Blume betont: „Interdisziplinär, hochaktuell und mit Mehrwert für uns alle: Der Ansatz des Forschungsverbunds ForDigitHealth war und ist mustergültig. Digitale Technologien und Medien bestimmen unseren Alltag – die Auswirkungen müssen fundiert untersucht werden, deshalb haben wir den Forschungsverbund mit insgesamt rd. 3,4 Millionen Euro gefördert. Die Ergebnisse geben uns nun wichtige Hinweise, wie wir – jeder einzelne und als Gesellschaft – mit dem Phänomen ‚Digitaler Stress‘ umgehen können. Ganz besonders freut mich, dass die Ergebnisse auch in einem Online-Wegweiser für alle zugänglich gemacht werden.“

Verschiedene Facetten erforscht
Vier Jahre lang hat der Bayerische Forschungsverbund ForDigitHealth zum gesunden Umgang mit digitalen Technologien und Medien geforscht und herausgefunden: Es kommt auf die Einstellung zum Stress an. Wenn er durch ein Individuum als Herausforderung statt als Belastung eingestuft wird, kann sich der Stress auch positiv auf eine bessere Leistung und Wohlbefinden auswirken. Hierfür müssen aber die Bedingungen stimmen: eine ausgebildete Medienkompetenz oder die Unterstützung durch Kolleginnen und Kollegen bzw. eines IT-Helpdesks, das Hilfesuchende zur Problemlösung befähigt und nicht nur das Problem selbst löst. In einer solchen Situation wird der Körper kurzfristig in Alarmbereitschaft versetzt, um die Situation bewältigen zu können. Langfristig kann dieser Stress aber auch mit Erkrankungen wie z. B. Herz-Kreislauf-Erkrankungen und Depression in Verbindung gebracht werden. Grund dafür sind langanhaltende Entzündungsprozesse, die der Körper im Rahmen der Stressreaktion durchläuft, wenn der Mensch über einen langen Zeitraum Stress ausgesetzt ist. So die Aussagen der beteiligten Wissenschaftler Dr. Manfred Schoch und Prof. Dr. Nicolas Rohleder (Co-Sprecher, Friedrich-Alexander-Universität Erlangen-Nürnberg). „Wiederholte Stresssituationen über den Arbeitstag hinweg können langfristig chronischen Stress auslösen, der krank macht. Insbesondere die Menge der digitalen Arbeit ist Treiber von chronischem digitalem Stress am Arbeitsplatz.“

ForDigitHealth hat auch erforscht, wie digitale Technologien mithilfe nutzerzentrierter Designprozesse gestaltet werden müssen, um digitalen Stress zu verringern. Die Informatik ging neue Wege und entwickelte z.B. Technologie für die Arbeit im Gehen, da sich Bewegung zum Stressabbau sehr gut eignet. Auch wurde bearbeitet, wie man mithilfe von Apps digitalen Stress besser bewältigen kann und erste Prototypen vorgestellt.

Prof. Dr. Elisabeth André (Universität Augsburg) als Co-Sprecherin des Verbunds, unterstreicht: „Wir haben Ernst gemacht mit dem Anspruch unseres Geldgebers, wirklich interdisziplinär zu arbeiten, also Methoden, Theorien, Perspektiven aus den fünf vertretenen Fachdisziplinen zu integrieren und neue Erkenntnisse zu erreichen. Neben dem Anspruch an Interdisziplinarität hatten wir den Auftrag, uns in den gesellschaftlichen Diskurs zum Thema digitaler Stress einzubringen.“

Online-Wegweiser gibt Tipps
Der Bayerische Forschungsverbund hat mögliche Lösungsansätze im Umgang mit digitalem Stress aufbereitet. In „Digitaler Stress: Der Wegweiser“ wurden Informationen und Hinweise zu Ursachen, Folgen und Wirkweisen für die Öffentlichkeit auf der Webseite des Verbunds festgehalten. Auch die zugrundeliegenden Publikationen können im Wegweiser leicht nachgelesen werden. Der Verbund ist mit ausgewiesenen Expertinnen und Experten aus den fünf Fachdisziplinen Medizin, Psychologie, Informatik, Wirtschaftsinformatik und Kommunikationswissenschaft besetzt. Im Rahmen von fünf übergeordneten Querschnittsthemen und in insgesamt elf Teilprojekten wurde das Thema digitaler Stress beforscht.

In ForDigitHealth arbeiten Wissenschaftlerinnen und Wissenschaftler von fünf bayerischen Universitäten zusammen (Universität Augsburg, Otto-Friedrich-Universität Bamberg, Friedrich-Alexander-Universität Erlangen-Nürnberg, Ludwig-Maximilians-Universität München und Julius-Maximilians-Universität Würzburg). Der Verbund wird durch das Bayerische Staatsministerium für Wissenschaft und Kunst mit rund 3,4. Mio. Euro über vier Jahre gefördert.

Die Teilprojekte im Überblick
Prof. Dr. Henner Gimpel, Wirtschaftsinformatiker an der Universität Augsburg und der Universität Hohenheim, befasste sich in zwei Teilprojekten einerseits mit der Bewältigung von digitalem Stress am Arbeitsplatz und der Frage, ob der Stress neben bekannten negativen Folgen auch positive Auswirkungen haben kann. Zum anderen wurde untersucht, wie man appgestützt den Umgang mit digitalem Stress unterstützen kann.

Prof. Dr. Jeffrey Wimmer, Kommunikationswissenschaftler an der Universität Augsburg, stellte sich die Frage, in welcher Form Menschen digitalen Stress in der Freizeit wahrnehmen, wie sie damit umgehen und welche Rolle ihr soziales Umfeld dabei spielt.

Prof. Dr. Susanne Kinnebrock, Kommunikationswissenschaftlerin an der Universität Augsburg, hat sich mit der Frage befasst, wie digitaler Stress in den Medien (u.a. in Online-Foren) dargestellt wird und welche Umfelder, Ursachen und Symptome dort thematisiert werden.

Prof. Dr. Nicolas Rohleder, Gesundheitspsychologe an der Friedrich-Alexander-Universität Erlangen-Nürnberg, hat sich mit dem Zusammenhang zwischen psychologischen und biologischen Stressreaktionen befasst.

Prof. Dr. Dennis Nowak und Prof. Dr. Matthias Weigl, Arbeitsmediziner der Ludwig-Maximilians-Universität München und Medizinpsychologe am Universitätsklinikum Bonn, haben sich mit der Frage befasst, wie sich kurz- und mittelfristige Stressreaktionen, die durch digitale Technologien und Medien im Umfeld des Arbeitsplatzes ausgelöst werden, langfristig auswirken.

Prof. Dr. Gerhild Nieding und Dr. Wienke Wannagat, Entwicklungspsychologinnen an der Julius-Maximilians-Universität Würzburg, befassten sich mit digitalem Stress bei Jugendlichen sowie jungen und älteren Erwachsenen und der Frage, wie eine digitale Medienkompetenz aussehen und konkret umgesetzt werden kann.

Prof. Dr. Tim Weitzel und Prof. Dr. Christian Maier, Wirtschaftsinformatiker von der Otto-Friedrich-Universität Bamberg und der Ludwig-Maximilians-Universität München, haben sich gefragt, ob digitaler Stress „ansteckend“ ist und sich auf andere Personen übertragen kann, z.B. in Teams am Arbeitsplatz.

Prof. Dr. Elisabeth André, Informatikerin an der Universität Augsburg, befasste sich mit der Frage, ob künstliche Intelligenz Anzeichen von digitalem Stress erkennen kann und wie Nutzer:innen in den Lern- und Entfaltungsprozess der KI eingebunden werden können.

Prof. Dr. Albrecht Schmidt, Informatiker an der Ludwig-Maximilians-Universität München, hat sich mit der Frage befasst, wie eine menschzentrierte Gestaltung von digitalen Technologien zu einer gesundheitsförderlichen Wirkung führen kann.

Prof. Dr. Matthias Berking, Klinischer Psychologe, Prof. Dr. Björn Eskofier, Informatiker (beide an der Friedrich-Alexander-Universität Erlangen-Nürnberg) sowie Prof. Dr.-Ing. habil. Björn Schuller, Informatiker an der Universität Augsburg haben erforscht, wie Apps so optimiert werden können, dass sie die psychische Gesundheit stärken.

Wissenschaftliche Ansprechpartner:
Sabine Toussant
Geschäftsführerin Forschungsverbund ForDigithHealth
E-Mail: sabine.toussaint@mrm.uni-augsburg.de
Telefon: +49 151 10812081

Prof. Dr. Elisabeth Andé
Co-Sprecherin Forschungsverbund ForDigithHealth
E-Mail: elisabeth.andre@informatik.uni-augsburg.de
Telefon: +49 821-2341 (Sekretariat)

Weitere Informationen:
https://gesund-digital-leben.de/wegweiser Online-Wegweiser: Digitaler Stress
https://gesund-digital-leben.de Webseite des Forschungsverbunds ForDigitHealth

(nach oben)


Wasserreinigung mit Biotechnologie: Forschende finden neuen Ansatz durch Kombination von Pilzen und Bakterien

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des IGB haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.

Die biologische Stickstoffentfernung, die Denitrifikation, ist ein wichtiger biochemischer Prozess. Dabei wandeln Mikroorganismen zwei der wichtigsten Stickstoffverbindungen, Nitrat und Nitrit, in gasförmigen Stickstoff um. Dies geschieht in Gewässern auf natürliche Weise durch Stoffwechselprozesse der dort lebenden Organismen und wird als Selbstreinigungskraft bezeichnet. Dieses Prinzip macht man sich auch bei der Wasseraufbereitung zunutze. Bisher wurden verschiedene Bakterien und Pilze in Reinkultur identifiziert, die Stickstoff mit und ohne Sauerstoff abbauen können. Für die Wasseraufbereitung ist vor allem der Stickstoffabbau in Gegenwart von Sauerstoff relevant, da er kostengünstiger und zudem großtechnisch umsetzbar ist.

Pilz-Bakterien-Kombinationen bislang vor allem zur Fermentation von Lebensmitteln und Getränken eingesetzt:
Die Isolierung einzelner Bakterien- oder Pilzstämme ist aufwändig und teuer. Kombinationen aus beiden, so genannte mikrobielle Konsortien, gelten als vielversprechende Alternative zu reinen Stämmen, sind aber auf dem Gebiet der Denitrifikation in Gegenwart von Sauerstoff noch wenig erforscht. Die Forschenden nahmen dies zum Anlass, dieses Potenzial zu untersuchen, da mikrobielle Konsortien beispielsweise bei der Fermentation von Lebensmitteln und Getränken schon lange eingesetzt werden. Gerade Pilze haben den Vorteil, dass sie sehr robust gegenüber Umweltstressoren wie saurem pH-Wert und hohen Temperaturen sind.

Nahezu vollständige Nitratentfernung möglich:
Das Forschungsteam identifizierte ein natürliches Bakterien-Pilz-Konsortium aus Marikulturen, das Nitrat sehr effizient und konstant aus dem Wasser entfernt. In Gegenwart von Sauerstoff beträgt die Nitratentfernung bis zu 100 Prozent und die Denitrifikationseffizienz 44 Prozent. Die Denitrifikationseffizienz gibt an, wie gut Mikroorganismen in der Lage sind, den im Nitrat gebundenen Stickstoff in molekularen Stickstoff (N₂) und Stickoxide umzuwandeln.

Mittels Hochdurchsatzsequenzierung wurden die an diesem Prozess beteiligten Bakterien- und Pilzgattungen identifiziert. Eine anschließende Netzwerkanalyse zeigte, welche Arten positiv miteinander interagieren und sich daher besonders für eine Kombination eignen.
„Es ist uns gelungen, denitrifizierende Bakterien-Pilz-Gruppen zu identifizieren, die das Potenzial haben, Nitrat besonders gut aus dem Wasser zu entfernen. Das ist ein wichtiger Schritt, um mikrobielle Konsortien für eine optimale Wasseraufbereitung zusammenzustellen“, erklärt IGB-Forscher Professor Hans-Peter Grossart, Mitautor der Studie.

Da die Suche nach geeigneten Mikroorganismen-Gemeinschaften aus Bakterien und Pilzen noch ein sehr junges Forschungsgebiet ist, gibt es noch keine Anwendungen in der Praxis. Die Autor*innen sind sich aber sicher, dass diese in Zukunft die Biotechnologie in der Abwasseraufbereitung deutlich prägen werden.

Originalpublikation:
Zuo, Xiaotian et al., Aerobic denitrifying bacterial-fungal consortium mediating nitrate removal: Dynamics, network patterns and interactions, iScience, Volume 26, Issue 6, 106824, DOI:https://doi.org/10.1016/j.isci.2023.106824

Weitere Informationen:
https://www.igb-berlin.de/news/wasserreinigung-mit-biotechnologie

(nach oben)


Niedrige Wasserstände lösen Sondermessprogramm an der Elbe aus

Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Seit mehreren Wochen herrscht an der Elbe Niedrigwasser. Gestern startete daher das Messprogramm für hydrologische Extreme der Flussgebietsgemeinschaft (FGG) Elbe. Die BfG koordiniert gemeinsam mit den Behörden der Anrainerländer Sachsen, Sachsen-Anhalt, Niedersachsen und Brandenburg das Sondermessprogramm, das die Auswirkungen des Niedrigwassers auf die Wasserqualität untersucht.

Ergänzend zu den monatlichen Routinemessungen werden an ausgewählten Messstellen entlang der Elbe sowie der unteren Mulde, Saale und Havel im nun kürzeren 14-tägigem Abstand Wasserproben genommen. Das innerhalb der FGG Elbe etablierte Messprogramm startete bereits 2013. Im Labor werden in den Messproben dann wichtige Kenngrößen wie zum Beispiel Nährstoffkonzentrationen, aber auch Schadstoffe und Spurenstoffe bestimmt. „Das heute gestartete Messprogramm ist speziell auf die Niedrigwassersituation abgestimmt. Die kürzere Messperiode ermöglicht uns einen detaillierteren Blick auf die Wasserqualität und wie sich Hitze und Dürre auf diese auswirken“, erklärt Geoökologe Dr. Daniel Schwandt.

Auslöser waren die niedrigen Wasserstände an den Bezugspegeln in Schöna und Barby im Ober- bzw. Mittellauf der Elbe. „Diese liegen seit mehr als zwei Wochen unterhalb eines festgelegten Schwellenwerts. Da außerdem für die nächsten Tage im Elbegebiet kein langanhaltender Niederschlag vorhergesagt war, haben wir unsere Länderkollegen/-innen informiert. Diese lösten dann das Sondermessprogramm aus“, so Schwandt. Laut dem BfG-Wissenschaftler war dies im Sommer 2019 das letzte Mal der Fall.

Steigt der Wasserstand für längere Zeit wieder über den Schwellenwert, wird das Programm beendet und die Auswertung der Daten beginnt. Dies übernimmt die BfG in Abstimmung mit der FGG Elbe. Die Ergebnisse der Laboruntersuchungen aller Messstellen werden zeitnah auf der Informationsplattform Undine (https://undine.bafg.de/elbe/extremereignisse/elbe_mp_extremereignisse.html) veröffentlicht. Dort sind neben Hintergrundinformationen zum Messprogramm auch Messwerte zu vorhergehenden extremen Hoch- und Niedrigwasserereignissen an der Elbe und die dazugehörigen Berichte veröffentlicht.

Bei Undine stehen unter der Überschrift „Extremereignisse“ auch Steckbriefe zu einzelnen herausragenden Hoch- und Niedrigwasserereignissen an der Elbe im Laufe der Historie zum Download bereit. Insbesondere finden sich hier Kurzbeschreibungen der extremen Niedrigwasser der Jahre 1921, 2015 und 2018.

Wissenschaftliche Ansprechpartner:
Dr. Daniel Schwandt, +49 261 1306 5479
Dr. Gerd Hübner, +49 261 1306 2010

(nach oben)


Forschungsvorhaben heavyRAIN verbessert Regenmessung für Starkregenvorhersage in Lübeck

Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Wann und wo wird Starkregen auftreten? Wie können Bürger*innen und Einsatzkräfte vor einem nahenden Ereignis gewarnt werden? Das sind die Fragen, die die hydro & meteo GmbH in Kooperation mit den Stadtwerken Lübeck, der Hansestadt Lübeck und der Technischen Hochschule (TH) Lübeck im Rahmen des Projektes „heavyRAIN“ in Lübeck beantworten möchte.

Der Schutz vor Starkregen ist eine der zentralen Herausforderungen der Klimafolgenanpassung. Im Starkregenfall zählt jede Minute, um kurzfristige Maßnahmen zur Verminderung von Schäden zu ergreifen und sich in Sicherheit zu begeben. Eine schnellere und präzisere Vorwarnung hilft den Einsatzkräften proaktiv zu handeln.

Das Forschungsvorhaben „heavyRAIN“ erhält von September 2022 bis August 2025 im Rahmen der Innovationsinitiative mFUND eine Förderung durch das Bundesministerium für Digitales und Verkehr (BMDV). Ziel ist es, ein verbessertes Frühwarnsystem für Starkregen zu entwickeln. In den kommenden drei Jahren werden in vier deutschen Städten (Bochum, Hagen, Lüdenscheid und Lübeck) eigene Niederschlagsmessungen durchgeführt. Hiermit und mit weiteren Wetterdaten wird die Vorhersagemethodik verbessert.

Initiiert und durchgeführt wird das Projekt von der Okeanos Smart Data Solutions GmbH aus Bochum, der hydro & meteo GmbH aus Lübeck, dem Bochumer Institut für Technologie gGmbH und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW. Unterstützt werden sie von den Städten Bochum, Hagen, Lübeck und Lüdenscheid, die gleichzeitig als Orte der Feldstudien fungieren, sowie vom Deutschen Wetterdienst, der Emschergenossenschaft & Lippeverband, den Stadtwerken Bochum Netze, dem Wetternetz Hagen, den Stadtwerken Lüdenscheid & Herscheid, den Stadtwerken Lübeck Digital (bis vor kurzem „Travekom“), den Wirtschaftsbetrieben Hagen sowie der Technischen Hochschule Lübeck.

Das hydrometeorologische Ingenieurbüro hydro & meteo GmbH, ein seit vielen Jahren mit Niederschlagsdaten und -warnsystemen vertrautes Unternehmen, ist der Projektpartner in Lübeck. In Zusammenarbeit mit der Abteilung für Straßenbeleuchtung der Hansestadt Lübeck werden 50 neu entwickelte, kompakte IoT-Niederschlagssensoren an Straßenlaternen im ganzen Stadtgebiet installiert. Die Niederschlagssensoren von der Firma NIVUS arbeiten mit Infrarotlicht und bieten eine Regenmessung in Echtzeit, die über das LoRaWAN-Netz der Stadtwerke Lübeck gesammelt wird. Die Messungen werden später über das Internetportal der „Smart City Region Lübeck“ (geoportal.smart-hl.city) abrufbar sein. Diese Daten werden anschließend von leistungsstarken Vorhersage-Algorithmen analysiert, um eine genaue Einschätzung der Niederschlagslage zu liefern.

Marius Kämmel studiert Umweltingenieurwesen und -management an der TH Lübeck. Im Rahmen der Lehre am Fachbereich Angewandte Naturwissenschaften erfuhr der 24-Jährige vom Projekt HeavyRAIN: „Ich war direkt davon begeistert und arbeite nun als wissenschaftlicher Mitarbeiter im Projekt mit.“ Um ein besseres Verständnis für die Funktionsweise sowie –fähigkeit der Geräte zu bekommen habe Kämmel zunächst einzelne Sensoren im Labor für Umweltverfahrenstechnik getestet. Dafür konzipierte und nutzte er einen eigenen Versuchsaufbau. „Mittlerweile installiere ich die Sensoren gemeinsam mit meinem Kollegen Bruno Castro von der hydro & meteo GmbH in sämtlichen Lübecker Stadtteilen. Diese praktische Arbeit bringt sehr viel Spaß. Es macht mich auch stolz die Sensoren an ihrem finalen Standort zu sehen.“

Das Projekt heavyRAIN wird im Rahmen der Innovationsinitiative mFUND (www.mFUND.de) durch das Bundesministerium für Digitales und Verkehr gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Annika Jahnke-Bornemann
hydro & meteo GmbH
Email: a.jahnke-bornemann@hydrometeo.de

(nach oben)


Unsichtbaren Partikeln auf der Spur

Stefanie Reiffert Corporate Communications Center
Technische Universität München
Wie hoch ist die Konzentration von Mikroplastik in der Umwelt, im Trinkwasser oder in Nahrungsmitteln? Forschende der Technischen Universität München (TUM) haben jetzt eine automatisierte Analysemethode entwickelt, mit der sich die Partikel identifizieren und quantifizieren lassen.

Mikroplastik ist in der Umwelt allgegenwärtig. Die winzigen Teilchen mit einer Größe von unter fünf Millimetern können außerdem Schad- und Giftstoffe aufnehmen und transportieren. „Wir benötigen dringend Analysemethoden, die Auskunft geben über die Größe, Konzentration und Zusammensetzung der Partikel“, erklärt Dr. Natalia Ivleva vom Lehrstuhl für Analytische Chemie und Wasserchemie der TUM. Zusammen mit ihrem Team hat die Wissenschaftlerin ein neues Verfahren entwickelt.

Um das Mikroplastik zu detektieren, mussten die Forschenden mehrere Hürden überwinden: Das erste Problem ist die geringe Konzentration der Partikel. Flusswasser zum Beispiel enthält jede Menge Schwebstoffe und feinen Sand, nicht einmal ein Prozent der Partikel sind aus Kunststoff. Diese Teilchen gilt es zu isolieren, dann muss deren Konzentration bestimmt werden und schließlich die chemische Zusammensetzung. Bisher wurden hierfür Analysemethoden eingesetzt, bei denen die Proben erhitzt und die Zersetzungsprodukte untersucht wurden. Anzahl, Größe und Form der Plastik-Partikel ließen sich auf diese Weise nicht ermitteln.

Kunststoffe lassen sich durch Lichtstreuung identifizieren
„Unser Ansatz ist grundlegend anders“, betont Ivleva: „Wir arbeiten partikelbasiert, das heißt, wir zerstören die Teilchen nicht, sondern untersuchen sie direkt.“ Dabei nutzen die Forschenden die sogenannte Raman-Mikrospektroskopie, bei der mit Hilfe eines Lasers monochromatisches Licht von den Molekülen einer Probe gestreut wird. Durch Vergleich des gestreuten mit dem eingestrahlten Licht lassen sich Rückschlüsse ziehen auf die untersuchte Substanz.

Um Plastik-Partikel mit mehr als einem Mikrometer Durchmesser auf diese Weise zu analysieren, müssen die Kunststoff-Teilchen aus der wässrigen Lösung herausgefiltert, unter dem Mikroskop detektiert und dann mit Laserlicht beleuchtet werden. Weil Kunststoffe wie Polyethylen, Polystyrol oder Polyvinylchlorid die Photonen auf charakteristische Weise streuen, erzeugen sie jeweils spezifische Signale, die sich wie ein Fingerabdruck zuordnen lassen.

Automatisierung statt manueller Messungen
Die Entwicklung des Nachweisverfahren hat Jahre gedauert: „Als wir angefangen haben, waren manuelle Messungen erforderlich“, erinnert sich die Chemikerin. „Da haben wir Monate gebraucht, um ein paar Tausend Partikel zu untersuchen.“ Mittlerweile ist es dem Team gelungen, den Nachweis von Mikroplastik zu automatisieren. Eine Analyse dauert nicht mehr Wochen, sondern nur noch Stunden. Man muss die winzigen Partikel zwar immer noch aus einer wässrigen Probe herausfiltern und den Filter unter das Raman-Mikrospektroskop legen, doch alles Weitere steuert eine eigens entwickelte Software: Die Kunststoffteilchen werden zunächst lichtmikroskopisch lokalisiert, fotografiert und vermessen, wobei Partikel und Fasern unterschieden werden. Das Computerprogramm berechnet aus diesen Daten die Anzahl von Partikeln und Fasern sowie die Auswahl von Bildausschnitten für die anschließende Raman-Spektroskopie, die für ein statistisch signifikantes Ergebnis benötigt werden.

Im nächsten Schritt fällt Laserlicht auf die Probe, die Streuung wird detektiert und ausgewertet. Anzahl, Größe, Form und Zusammensetzung von Mikroplastik lässt sich auf diese Weise schnell und zuverlässig analysieren. Die Software „TUM-Particle Typer 2“ ist Open Source basiert und kann ab sofort von Forschenden auf der ganzen Welt genutzt werden.

Nanoplastik verlangt besondere Nachweisverfahren
Um auch Partikel untersuchen zu können, die Durchmesser von weniger als einem Mikrometer aufweisen, arbeitet Ivleva‘s Gruppe bereits an einem modifizierten Verfahren. „Solche Nanoteilchen sind unter einem Lichtmikroskop nur schwer oder gar nicht zu detektieren. Um die Partikel nachweisen zu können, müssen wir sie zuerst nach Größe fraktionieren und dann identifizieren“, erklärt die Forscherin.

Hierfür wird ein System für Feldflussfraktionierung verwendet. Dieses erzeugt einen Wasserstrom, der die Partikel erfasst und – abhängig von ihrer Größe – schneller oder langsamer transportiert und auf diese Weise trennt. Eine speziell entwickelte Vorrichtung erlaubt in Kombination mit Raman-Mikrospektroskopie die chemische Charakterisierung von unterschiedlichen Arten von Nanoplastik.

„Die neuen Analyseverfahren ermöglichen eine schnelle und genaue Untersuchung der Konzentration, Größe und Zusammensetzung von Mikro- und Nanoplastik“, resümiert Ivleva. „Damit wird es künftig möglich sein, auch den Einfluss dieser Partikel auf die Umwelt und die menschliche Gesundheit zu erforschen.“

Wissenschaftliche Ansprechpartner:
Dr. Natalia P. Ivleva
Technische Universität München (TUM)
Tel: +49 89 289 54 507
natalia.ivleva@tum.de
https://www.ch.nat.tum.de/hydrochemistry

Originalpublikation:
Oliver Jacob, Alejandro Ramírez-Piñero, Martin Elsner, Natalia P. Ivleva, TUM-ParticleTyper 2: Automated Quantitative Analysis of (Microplastic) Particles and Fibers down to 1 μm by Raman Microspectroscopy, Analytical and Bioanalytical Chemistry

Maximilian J. Huber, Natalia P. Ivleva, Andy M. Booth, Irina Beer, Ivana Bianchi, Roland Drexel, Otmar Geiss, Dora Mehn, Florian Meier, Alicja Molska, Jeremie Parot, Lisbet Sørensen, Gabriele Vella, Adriele Prina Mello, Robert Vogel, Fanny Caputo: Physicochemical Characterization and Quantification of Nanoplastics: Applicability, Limitations and Complementarity of Batch and Fractionation Methods, Analytical and Bioanalytical Chemistry

(nach oben)


Umweltfreundlichere Bekämpfung von Ölkatastrophen mit Biotensiden

Lydia Lehmann Stabsstelle Hochschulkommunikation
Universität Stuttgart
Können Biotenside den mikrobiologischen Ölabbau im Nordsee-Meerwasser steigern? Das hat ein internationales Forschungsteam der Universitäten Stuttgart und Tübingen sowie der China West Normal University und der University of Georgia untersucht – und sieht Potenzial für eine effektivere und umweltfreundlichere Bekämpfung von Ölkatastrophen.

Schätzungsweise 1500 Millionen Liter Öl fließen pro Jahr in die Ozeane. Das führt zu einer Umweltverschmutzung von globaler Bedeutung, da Öl gefährliche Verbindungen wie polyzyklische aromatische Kohlenwasserstoffe enthält, die giftig auf Lebewesen wirken oder deren Erbgut verändern können. Besonders verheerend sind Ölkatastrophen, bei denen in relativ kurzer Zeit große Mengen an Öl in die Meere austreten, etwa Unfälle von Tankern oder an Ölbohrplattformen wie 2010 bei Deepwater Horizon.

In solchen Katastrophenfällen werden routinemäßig, je nach Ölmenge, bis zu mehrere Millionen Liter chemische Dispersionsmittel ausgebracht, um Ölklumpen aufzulösen, Ölanschwemmung an Küsten zu verhindern und die Öldispersion im Wasser zu steigern. Dadurch soll der mikrobielle Ölabbau erhöht werden. Spezielle Mikroorganismen, die weitverbreitet in der Natur vorkommen, können sich nämlich von Rohölbestandteilen ernähren und bauen diese zu harmlosen Stoffen ab. Durch diese besondere Fähigkeit der Mikroben werden ölkontaminierte Gebiete natürlich gereinigt.

„In einer im Jahr 2015 veröffentlichten Studie aus den USA haben wir jedoch gezeigt, dass – anders als erhofft – chemische Dispersionsmittel im Tiefseewasser aus dem Golf von Mexiko den mikrobiellen Ölabbau verlangsamen können“, sagt Professorin Sara Kleindienst, bis Juni 2022 an der Universität Tübingen und jetzt an der Universität Stuttgart. „Seitdem wird das Thema kontrovers diskutiert und es gibt bislang keine einfache Antwort darauf, wie Ölkatastrophen am besten zu bekämpfen wären.“

Auf der Suche nach umweltfreundlicheren Methoden zur Bewältigung von Ölkatastrophen könnten Biotenside eine vielversprechende Alternative zu chemischen Dispersionsmitteln sein. Biotenside werden durch Mikroorganismen gebildet und können bewirken, dass Ölkomponenten leichter für den Abbau zugänglich werden. Der mikrobielle Ölabbau, der maßgeblich für die Aufreinigung verantwortlich ist, kann dadurch gesteigert werden.

Experimente mit Meerwasser aus der Nordsee
Ein internationales Forschungsteam um die Umweltmikrobiologin Professorin Sara Kleindienst mit dem Geomikrobiologen Professor Andreas Kappler (Universität Tübingen) und der Biogeochemikerin Professorin Samantha Joye (University of Georgia) testete die Wirkung von Biotensiden und chemischen Dispersionsmitteln im Vergleich. Im Labor an der Universität Tübingen simulierten die Forschenden eine Ölverschmutzung. Für ihre Experimente entnahmen sie mehr als 100 Liter Oberflächenwasser aus der Nordsee, in der Nähe der Insel Helgoland. Das Meerwasser wurde entweder mit einem Biotensid Rhamnolipid oder einem Dispersionsmittel (entweder Corexit 9500 oder Slickgone NS), jeweils in Anwesenheit und Abwesenheit von Öl, behandelt. Um den Abbau des Öls durch die Mikroorganismen im Detail verfolgen zu können, setzte das Forschungsteam radioaktive Markierungen ein. „Unsere Untersuchungen mit radioaktiv markierten Kohlenwasserstoffen oder einer radioaktiv markierten Aminosäure zeigten, dass die höchsten mikrobiellen Raten der Kohlenwasserstoffoxidation und der Proteinbiosynthese in den mit Rhamnolipid behandelten Öl-Mikrokosmen auftraten“, sagt Professorin Lu Lu, ehemals an der Universität Tübingen und jetzt an der China West Normal University.

Auch die Auswirkungen auf die Zusammensetzung der mikrobiellen Gemeinschaften unterschied sich stark zwischen den Ansätzen mit Biotensiden im Vergleich zu jenen mit chemischen Dispersionsmitteln. „Dieses Ergebnis weist darauf hin, dass der Einsatz von Biotensiden gegenüber chemischen Dispersionsmitteln andere mikrobielle Ölabbauer stimulieren kann, sowohl im Wachstum als auch in den Aktivitäten – und dies kann sich wiederrum auf den Reinigungsprozess nach Ölkatastrophen auswirken“, sagt Lu.

„Unsere Erkenntnisse legen nahe, dass Biotenside ein großes Potenzial für den Einsatz bei zukünftigen Ölkatastrophen in der Nordsee oder in ähnlichen nährstoffreichen Habitaten im Ozean haben könnten“, fügt Kleindienst hinzu. „Eine visionäre Weiterführung unserer Arbeit wäre die Entwicklung von Produkten, die auf Biotensiden basieren und die eine effektive und umweltfreundliche Bekämpfung von Ölkatastrophen leisten können.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Sara Kleindienst, Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Abteilung Umweltmikrobiologie, Tel.: +49 711 685 69351, E-Mail sara.kleindienst@iswa.uni-stuttgart.de

Originalpublikation:
Lu Lu, Saskia Rughöft, Daniel Straub, Samantha B. Joye, Andreas Kappler, Sara Kleindienst (2023): Rhamnolipid biosurfactants enhance microbial oil biodegradation in surface seawater from the North Sea. In: ACS Environmental Science & Technology Water, 19. Juli 2023. DOI 10.1021/acsestwater.3c00048

(nach oben)


PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.

Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.

Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.

Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.

Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.

Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.

Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «

Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«

Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.

Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.

Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.

Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…

(nach oben)


Was ist das da im Badesee?

Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Raus an den See zum Baden. Aber was schwimmt, wächst und krabbelt denn da im Wasser? Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) liefern ein wenig Fachwissen für den Freizeitspaß am Gewässer.

Das Wasser ist nicht klar, sondern durchzogen von winzigen grünen Punkten oder Schlieren, die auch bläulich schimmern können:
Das sind vermutlich Cyanobakterien, gemeinhin auch Blaualgen genannt. Früher ordnete man sie den Algen zu, weil sie Photosynthese betreiben können. Im Gegensatz zu echten Algen haben sie aber keinen Zellkern – und werden deshalb nun zu den Bakterien gezählt. Das Problem mit den Cyanobakterien ist, dass sie Giftstoffe bilden können, die für Tiere und Menschen gesundheitsschädlich sind. Allerdings nur, wenn sie in großen Mengen aufgenommen werden. Um die Gesundheit nicht zu gefährden, werden Badestellen von den zuständigen Behörden regelmäßig auf Cyanobakterien und deren Toxine untersucht. Im Ernstfall werden Badestellen gesperrt. Als Faustregel gilt: Wenn man bis zu den Knien ins Wasser geht, sollte man seine Füße noch sehen können. Ist das Wasser zu grün, lieber woanders baden. Da Cyanobakterien die Haut reizen können, sollte man nach dem Baden in solchen Gewässern gleich duschen und die Badekleidung wechseln.

Wolkige Algenfäden am Ufer und im Wasser:
Das sind wahrscheinlich Fadenalgen. Fadenalgen sind keine einzelne Art, viele verschiedene Arten werden aufgrund ihres Aussehens unter diesem Begriff zusammengefasst. Massenansammlungen von Fadenalgen können Lebensgemeinschaften anderer Lebewesen am Seegrund gefährden und Nahrungsnetze verändern; viele der möglichen Auswirkungen sind aber noch nicht bekannt. Für Badende sind die grünen Algenteppiche nicht nur unansehnlich, in ihnen können sich auch Giftstoffe von Cyanobakterien anreichern. Hunde scheinen vom fischigen Geruch der Algen angezogen zu werden und laufen dann Gefahr, die Giftstoffe aufzunehmen. Also: Kein Grund zur Panik bei kleinen Algenwolken, aber Hunde nicht am Ufer im Algenteppich schnüffeln lassen und auch Kinder, die beim Baden noch viel Wasser schlucken, sollten sich lieber fernhalten.

Kann man sich an Wasserpflanzen verfangen?
Wasserpflanzen, in der Wissenschaft auch Makrophyten genannt, können entweder im Wasser schwimmen oder am Gewässergrund wurzeln. Auch wenn sie in der Tiefe wachsen, streben die meisten zur Wasseroberfläche – zum Sonnenlicht, denn auch sie brauchen es für ihre Photosynthese. Wasserpflanzen können beim Baden stören oder auf manche unheimlich wirken. Die meisten Wasserpflanzen, wie z.B. Armleuchteralgen, lassen sich aber leicht abstreifen oder abreißen. Große Seerosenflächen sollten von Schwimmern grundsätzlich gemieden werden. Auch aus Naturschutzgründen. Die eigentliche Gefahr sind nicht die Pflanzen, sondern die Panik, die sie auslösen. Also Ruhe bewahren und am besten in Rückenlage so aus den Seerosen herausschwimmen, wie man reingeschwommen ist. Wasserpflanzen sind grundsätzlich sehr nützlich. Sie helfen, das Wasser zu reinigen und bieten vielen Lebewesen Nahrung und Unterschlupf.

Autsch, ich habe mich am Fuß geschnitten:
Das war bestimmt eine Muschel. Tatsächlich sind in den letzten Jahren immer mehr Muscheln in unseren Gewässern zu finden. Vor allem die Quagga-Muschel breitet sich als invasive Art in großer Zahl in unseren Gewässern aus. Ihren ungewöhnlichen Namen verdankt sie ihrer hell-dunkel gestreiften Schale, die an das Fellmuster der Zebraart „Quagga“ erinnert. Die Ansiedlung dieser Muschel hat Vor- und Nachteile. Muscheln sind Filtrierer und reinigen das Wasser von Nährstoffen. Bis zu vier Liter Wasser kann eine Muschel pro Tag filtern – das verbessert die Wasserqualität. Aber die Quagga-Muschel überwuchert mit ihren Byssusfäden andere Muscheln und Weichtiere, die dadurch in ihrer Bewegung eingeschränkt werden und zum Beispiel ihre Schalen nicht mehr schließen können.

Der Fisch traut sich aber nah an mich heran:
Die meisten Fische sind scheu. Es gibt aber auch Arten, die sich im flachen Wasser aufhalten und sogar dort schwimmen, wo viele Badegäste sind. Das sind zum Beispiel Flussbarsche. Man erkennt sie gut an ihren schwarzen Streifen und rötlichen Flossen. Aber auch andere Arten wie Plötzen und Rotfedern, die ebenfalls rötliche Flossen und silbergraue Schuppen haben, trauen sich recht nah an unsere Füße heran. In größeren Seen kann man auch Ukeleis beobachten, die Insekten von der Wasseroberfläche fressen. Der berühmt-berüchtigte Wels ist jedoch selten dort anzutreffen, wo sich viele Badegäste aufhalten. Er hält sich vor allem am Gewässergrund auf und ist auch nicht bissig und gefährlich, wie es der Volksmund behauptet. Allerdings werden sich durch die globale Erwärmung die Aufenthaltsorte vieler Fischarten verschieben – kälteliebende Arten werden also eher in tiefere Wasserschichten abwandern.

Libellen, Wasserläufer und Co.:
Wussten Sie, dass rund 6 Prozent aller Insekten mindestens eine Phase ihres Lebens im Wasser verbringen? Einige Fluginsekten wie Eintagsfliegen, Steinfliegen, Köcherfliegen und Libellen leben als Larven in Gewässern. Daher kann eine Verschlechterung der Wasserqualität auch das Vorkommen dieser Arten beeinflussen. Eintagsfliegen können sogar über ein Jahr im Wasser verbringen, bevor sie für wenige Tage zur Paarung als Fluginsekten an Land kommen. Der Wasserläufer hingegen lebt immer an der Grenze zwischen Wasser und Luft. Die Härchen auf ihren Beinen ermöglichen es den Tieren, sich mit Hilfe der Oberflächenspannung schnell auf der Wasseroberfläche zu bewegen, ohne dabei einzusinken. Mit sehr viel Glück können Sie beim Schnorcheln eine Wasserspinne, die Silberspinne, entdecken. Sie ist die einzige Spinnenart, die nicht an Land, sondern unter Wasser lebt. Sie sammelt Luft in einem dicht gesponnenen Netz unter Wasser – wie in einer Taucherglocke. Die Wasserspinne ist stark gefährdet, weil sie besonders sauberes Wasser zum Überleben braucht.

Weitere Informationen:
https://www.igb-berlin.de/news/was-ist-das-da-im-badesee

(nach oben)


Neue Hypertonie-Leitlinien: Was bedeuten sie für die Bluthochdruck-Behandlung?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Zielwerte, individuelles Risikoprofil, Krankheitsstadium: Herzstiftungs-Experte ordnet Neuerungen der neuen Leitlinien für Betroffene mit Bluthochdruck ein

Bluthochdruck ist einer der wesentlichen Risikofaktoren für Herz- und Gefäßerkrankungen. So kann ein dauerhaft unzureichend oder nicht behandelter Bluthochdruck zu Herzerkrankungen wie Herzschwäche und Vorhofflimmern oder zu schwerwiegenden Komplikationen wie Gehirnblutung, Schlaganfall, Herzinfarkt oder Nierenversagen führen. Über 20 Millionen Menschen haben in Deutschland einen hohen Blutdruck, etwa jeder dritte Erwachsene. Zwar ist die gesundheitliche Gefahr, die von dauerhaft erhöhten Werten ausgeht, hinlänglich bekannt. Dennoch ist die Zahl derer, die ihren Blutdruck kontrollieren und ihre Werte kennen, vergleichsweise gering. In Deutschland schätzen Experten, dass das etwa bei jedem fünften Erwachsenen der Fall ist. Neue Leitlinien der Europäischen Gesellschaft für Hypertonie (ESH) [1], die im Juni 2023 vorgestellt wurden, berücksichtigen die individuellen Aspekte einer Hochdrucktherapie, z. B. die Einteilung nach Krankheitsstadien des Bluthochdrucks oder eine Vereinfachung der Blutdruckzielwerte, die es den Patienten erleichtert, therapeutische Maßnahmen für ihren Schutz vor Komplikationen besser nachzuvollziehen und zu akzeptieren. „Das ist wichtig. Denn zum einen verursacht Bluthochdruck zunächst einmal keine Beschwerden, Stichwort ,stiller Killer‘. Zum anderen, sind Patienten oft verunsichert, wenn sie die Diagnose Bluthochdruck erhalten“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Herzstiftung und Ärztlicher Direktor des Agaplesion Bethanien-Krankenhauses Frankfurt am Main, in einer Einordnung der neuen Hypertonie-Leitlinien unter https://herzstiftung.de/leitlinie-hypertonie-2023 „Die neuen Leitlinien geben konkrete Antworten auf häufige Fragen wie: Ab welchen Blutdruckwerten sollte ich tatsächlich Medikamente nehmen? Und auf welchen Wert muss mein Blutdruck möglichst sinken, damit das Herz effektiv geschützt ist?“

Pragmatische Zielsetzung erleichtert die Kommunikation
Insgesamt ähneln die neuen Empfehlungen den bisherigen. Doch die Blutdruckzielwerte wurden zum Beispiel vereinfacht. Ganz pragmatisch gilt nun offiziell die Empfehlung, dass jeder Patient, jede Patientin im Alter zwischen 18 und 79 Jahren auf Werte unter 140 mmHg systolisch und 90 mmHg diastolisch (mmHg: Millimeter-Quecksilbersäule) eingestellt werden sollte. Diese Empfehlung gilt auch für Patienten über 80 Jahre, wenn das vertragen wird. Denn damit könnte die bluthochdruckbedingte Gesundheitsgefahr insgesamt deutlich verringert werden, betonen die Leitlinien-Autoren. Die Empfehlung kommt somit der Behandlungsrealität nahe und dient als eine Art Zielkorridor, der Anpassungen an die individuelle Situation eines Patienten durchaus zulässt. Denn das heißt nicht, dass niedrigere Werte nicht gut wären. Als bestätigt gilt ein Bluthochdruck im Allgemeinen, wenn bei mindestens zwei bis drei Praxisbesuchen in Abständen von ein bis vier Wochen erhöhte Werte ab 140/90 mmHg vorliegen oder eine deutliche Blutdruckerhöhung (≥180/110 mmHg) beziehungsweise hohe Werte bei bereits bekannter Herzerkrankung.
Eine Senkung auf Werte unter 130/80 mmHg ist in der Regel mit noch besseren Therapieergebnissen verbunden, vor allem bei Patienten mit bereits bestehender Herzerkrankung – ist aber für manche Patienten auch mit unerwünschten Effekten verbunden. Schwindel oder verstärkt Nebenwirkungen der Blutdrucksenker bei intensiver Therapie sind möglich. „Das bestätigt, was auch die Deutsche Herzstiftung immer geraten hat. Eine Blutdrucktherapie nutzt nur, wenn sie auch vom Patienten vertragen wird und die Medikamente regelmäßig eingenommen werden“, so Prof. Voigtländer. „Wichtig ist auch, dass klargestellt wird: Werte unter 120/70 mmHg sollten bei einer Blutdrucktherapie vermieden werden.“

Bei Hochbetagten mehr Spielraum für Therapiebeginn – „individuelle Entscheidung“
Für Patienten über 80 Jahre gilt entsprechend der neuen Leitlinien eine spezielle Empfehlung: Während generell eine medikamentöse Therapie ab einem beim Arzt gemessenen durchschnittlichen systolischen Wert über 140 mmHg und einem diastolischen Blutdruckwert über 90 mmHg ratsam ist, kann bei den Älteren auch ein systolischer Wert bis 160 mmHg toleriert werden. Zielwert ist dann ein systolischer Blutdruck wenigstens zwischen 140-150 mmHg, er darf aber auch niedriger sein. Vorsicht ist dann geboten, wenn bereits sehr niedrige diastolische Werte unter 70 mmHg vorliegen. „Die Entscheidung, ab welchem Blutdruck bei Hochbetagten mit einer Therapie begonnen wird, ist immer eine individuelle Entscheidung. Dabei spielen vor allem die allgemeine Gebrechlichkeit und weitere Begleiterkrankungen eine wichtige Rolle“, erläutert Voigtländer. Ebenfalls wichtig: Eine schon früher begonnene Blutdrucktherapie sollte auch bei Hochbetagten möglichst fortgesetzt werden.

Medikamente: Kombinationstherapie effektiver als Monotherapie
Die Empfehlungen zur medikamentösen Therapie sind im Wesentlichen unverändert. „Eine Zweierkombination aus ACE-Hemmer oder Sartan plus Kalziumantagonist oder Diuretikum ist hier in der Regel der erste Schritt zur Blutdrucksenkung“, erläutert der Frankfurter Kardiologe. Reicht das nicht, sollte eine Dreierkombination aus diesen Wirkstoffklassen versucht werden. Auf der dritten Stufe kommen weitere Substanzen ins Spiel. Wie bisher sind die Aldosteron-Antagonisten (Spironolacton/Eplerenon) als wichtige Substanzklasse bei der Behandlung der schwer einstellbaren Hypertonie genannt. Neu ist bei diesen Patienten der Einsatz des Kombinationspräparates aus Neprilysinantagonist und Sartan (ARNI, Angiotensin-Receptor-Neprilysin-Inhibitor) als Empfehlung zur Blutdrucksenkung. Wenn dieses Kombinationspräparat eingesetzt wird, müssen allerdings der ACE-Hemmer beziehungsweise das Sartan aus der bisherigen Therapie abgesetzt werden. Bei Patienten, die bereits Nierenschäden aufweisen, wird die Therapieempfehlung zudem um Wirkstoffe aus der Gruppe der sogenannten SGLT-2-Inhibitoren (Gliflozine) ergänzt wie Empagliflozin. „Wir haben inzwischen ein neues Verständnis, wie der Bluthochdruck reguliert wird beziehungsweise durch eine Funktionsstörung aus vielen Mechanismen entsteht, bei der verschiedenste Faktoren ineinandergreifen. Das erklärt auch, warum wir mit der Kombination von Medikamenten, die ganz unterschiedlich wirken, den Blutdruck viel effektiver senken können als durch eine Monotherapie“, so Voigtländer.
Bei Patienten mit niedrigem bis mittlerem kardialen Risiko und mit einem Blutdruck im hohen Normalbereich (130-139 mmHg systolisch und 85-89 mmHg diastolisch) besteht die Empfehlung, keine blutdrucksenkende medikamentöse Therapie einzuleiten. Bei diesen Patienten sollte sich die Intervention vorerst auf eine Lebensstilberatung beschränken.

Regelmäßige Blutdruckmessung kann Hypertonie aufdecken
„Zu begrüßen ist auch, dass in den Leitlinien nochmals auf die Wichtigkeit einer regelmäßigen Blutdruckkontrolle verwiesen wird. So wird betont, dass bei jeder sich bietenden Gelegenheit auf das Vorliegen eines Bluthochdrucks gescreent werden sollte“, so der Herzstiftungs-Vorsitzende. „Bei Menschen über 40 Jahren heißt das: Lassen Sie sich einmal pro Jahr beim Hausarzt den Blutdruck checken.“ Risikopatienten wird dieses Vorgehen bereits in jüngeren Jahren empfohlen. Hier werden in den neuen Leitlinien auch Frauen nach der Menopause und Frauen mit einer Vorgeschichte von Schwangerschaftsbluthochdruck und Schwangerschaftskomplikationen wie einer Präeklampsie hervorgehoben.
Voigtländer rät: „Wer an sich gesund ist und nicht zum Hausarzt muss, sollte zumindest die Gelegenheit nutzen, sich immer mal wieder in der Apotheke den Blutdruck messen zu lassen. Das kann ebenfalls einen Hinweis auf einen bisher unentdeckten Bluthochdruck liefern.“ Je früher ein Bluthochdruck entdeckt wird, desto besser lassen sich die genannten Folgen für Herz und andere Organe wie Gehirn und Nieren vermeiden.

Neue Stadieneinteilung anhand von Organschäden
Sinnvoll ist ebenfalls, dass neben der bisherigen Einteilung nach Blutdruckwerten (z.B. optimal, normal, hochnormal) drei Krankheitsstadien des Bluthochdrucks systematisch hervorgehoben werden. „Denn damit lassen sich besser die fortschreitenden Schäden an Organen wie Herz, Hirn und Nieren bei einem unbehandelten Bluthochdruck vor Augen führen“, wie Prof. Voigtländer betont. „Wir möchten Patienten im Gespräch keine Angst machen. Dennoch unterschätzen viele die Folgen ihres Bluthochdrucks – bis es zu spät ist und zum Beispiel ein Herzinfarkt eingetreten ist oder die Nieren schwer geschädigt sind“, so der Kardiologe. Das ist die Einteilung:

– Stadium I: unkomplizierte Erkrankung, bei der noch keine merklichen Organschäden vorliegen (gilt auch bis zu einer Nierenerkrankung Grad 1 und 2)
– Stadium II: leichte Organschäden sind erkennbar, etwa der Beginn einer chronischen Nierenerkrankung (Grad 3), oder das zusätzliche Vorliegen von Diabetes mellitus
– Stadium III: es liegen bluthochdruckbedingte kardiovaskuläre Erkrankungen vor oder eine fortgeschrittene chronische Nierenerkrankung (Grad 4 und 5)

„Die Stadieneinteilung kann in der Kommunikation helfen, dass Betroffene die Notwendigkeit von Lebensstiländerungen und gegebenenfalls einer medikamentösen Behandlung verstehen und akzeptieren“, so der Kardiologe und Intensivmediziner.
(ne)

Service-Tipp:
Bluthochdruck durch Schlafstörungen, Migräne und Lärm – Yoga und Kalium als natürliche Senker? Was in den Hypertonie-Leitlinien noch neu und wichtig ist, stellt der Herzstiftungs-Beitrag mit einer Experten-Einordung durch Prof. Voigtländer unter https://herzstiftung.de/leitlinie-hypertonie-2023 vor.
Infos rund um Bluthochdruck bietet die Herzstiftung kostenfrei telefonisch unter 069 955128-400, per Mail unter bestellung@herzstiftung.de oder auf der Homepage unter: https://herzstiftung.de/bluthochdruck

Video „Wie messe ich meinen Blutdruck richtig?“ mit Prof. Dr. Thomas Voigtländer: https://www.youtube.com/watch?v=6cQZaQskJJc

Quelle:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
https://herzstiftung.de

Originalpublikation:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…

Weitere Informationen:
https://herzstiftung.de/leitlinie-hypertonie-2023 – Stellungnahme zur Hypertonie-Leitlinie
http://https:herzstiftung.de/bluthochdruck – Infos zu Bluthochdruck

(nach oben)


Was der Klimawandel mit Gehirn und Seele macht

Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Über Jahrtausende hinweg hat sich unser Gehirn an unseren Lebensraum angepasst. Verändert er sich durch schnell steigende Temperaturen und den damit verbundenen Verlust von Ökosystemen, kommt das Gehirn von Menschen und Tieren nicht mehr mit. Was das bedeutet, beschreiben Dorothea Metzen und Prof. Dr. Sebastian Ocklenburg aus der Biopsychologie der Ruhr-Universität Bochum und der Medical School Hamburg in ihrem Buch „Die Psychologie und Neurowissenschaft der Klimakrise“. Sie integrieren dabei verschiedene Forschungszweige der Psychologie und Neurowissenschaft. Das Lehrbuch ist im Springer-Verlag erschienen.

Unsere Umwelt hat großen Einfluss auf die Funktion und die Entwicklung unseres Gehirns: „Studien zeigen zum Beispiel, dass ein Aufenthalt in der Natur im Gegensatz zu einem Aufenthalt in der Stadt zu einer Regulation von Stressnetzwerken im Gehirn führen kann“, erklärt Dorothea Metzen. Sind wir längere Zeit lebensfeindlichen Umgebungen ausgesetzt, etwa in besonders kalten Gebieten wie der Arktis, können sich unsere Hirnfunktionen ebenfalls verändern. „Der Erhalt der uns verbleibenden natürlichen Räume ist somit sehr wichtig für die Gesundheit unseres Gehirns“, unterstreicht Sebastian Ocklenburg.

Temperatur ist außerdem eine wichtige Umweltbedingung, die im Laufe der Evolution ökologische Nischen bedingt hat. Die Gehirne von Tieren und auch von uns Menschen sind an bestimmte Temperaturen angepasst. Extrem schnelle Änderungen der Durchschnittstemperaturen können zu einer Zerstörung von ökologischen Nischen führen, ohne Zeit für die Lebewesen, sich anzupassen. „So besitzen zum Beispiel Walgehirne besonders viele Zelltypen, die mit der Erzeugung von Hitze im Gewebe verbunden sind. Diese sind für sie in kalten Gewässern überlebenswichtig“, so Dorothea Metzen. „Sollte sich das Wasser allerdings zu stark erwärmen, haben die Wale keine ausreichenden Mechanismen, um die Körpertemperatur herunterzuregulieren.“
Hitzewellen und Naturkatastrophen

Der Klimawandel hat massive Auswirkungen auf die Gesundheit der Menschen, sowohl physisch als auch psychisch. Hitzewellen führen zu steigenden Zahlen von Hitzetoten, gleichzeitig werden Naturkatastrophen wie Fluten und Waldbrände mit steigender Durchschnittstemperatur immer wahrscheinlicher. All diese Phänomene beeinflussen auch unsere psychische Gesundheit: Hitzewellen hindern uns daran, unserem geregelten Alltag nachzugehen, können unser Sozialleben einschränken und zu Isolation führen. Außerdem sind erhöhte Außentemperaturen im Sommer mit einer verringerten Schlafqualität verbunden, was Einfluss auf Stimmung, Arbeit und Suizidalität haben kann. Besonders verwundbare Gruppen sind Menschen mit psychischen Erkrankungen, Frauen und Ältere. Naturkatastrophen können zu Depressionen und Posttraumatischen Belastungen führen. Menschen, die auf der Flucht vor den Folgen der Klimakrise sind, sind multiplen Stressoren und Gesundheitsrisiken ausgesetzt, durch prekäre Bedingungen in Flüchtlingsunterkünften, mangelnden Zugang zu Gesundheitsversorgung und Gewalt.

„Was können wir als Beschäftigte in Wissenschaft und Gesundheitsberufen nun tun?“, fragen die beiden Forschenden. „Wir können uns dafür einsetzen, das Gesundheitssystem auf die kommenden Herausforderungen vorzubereiten, denn das ist es bisher nicht“, sagt Sebastian Ocklenburg. „Die Folgen der Klimakrise müssen in Gesundheit, Wissenschaft und Lehre mitgedacht werden, denn sie stellt das größte Gesundheitsrisiko und die größte Herausforderung unserer Zeit dar. Wir können in Verbänden und Vereinen laut sein, um die Politik zum tatsächlichen Handeln gegen die Klimakrise zu bewegen, denn Prävention ist der beste Weg, um die Gesundheit unserer Mitmenschen zu schützen.“

Wissenschaftliche Ansprechpartner:
Dorothea Metzen
Biopsychologie
Institut für Kognitive Neurowissenschaft
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 21775
E-Mail: dorothea.metzen@ruhr-uni-bochum.de

Originalpublikation:
Dorothea Metzen, Sebastian Ocklenburg: Die Psychologie und Neurowissenschaft der Klimakrise. Wie unser Gehirn auf Klimaveränderungen reagiert, Springer, Berlin 2023, 48 Seiten, ISBN 9783662673645, DOI: 10.1007/978-3-662-67365-2

(nach oben)


Muster der Biodiversität entschlüsselt

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Der Mensch ist eine große Bedrohung für die biologische Vielfalt. Um sie zu schützen, ist es wichtig, ihre Ursprünge zu verstehen. Eine entscheidende Rolle spielen dabei Arten, die evolutionär einzigartig sind, das heißt wenige oder keine nah verwandten Arten haben, und nur in einem begrenzten Gebiet vorkommen, also endemisch sind. Ein internationales Forschungsteam unter der Leitung der Universität Göttingen hat nun globale Muster der Verbreitung endemischer Samenpflanzen aufgedeckt und Umweltfaktoren ermittelt, die ihren Endemismus beeinflussten. Damit liefern die Forschenden wertvolle Erkenntnisse für den weltweiten Sch