Meldungen 2011 | Meldungen 2012 | Meldungen 2013 | Meldungen 2014 |
Meldungen 2015 | Meldungen 2016 | Meldungen 2017 | Meldungen 2018 |
Meldungen 2019 | Meldungen 2020 | Meldungen 2021 | Meldungen 2022 |
Mit Mikro-Ultraschall Prostatakrebs präzise erkennen
Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
An der Universitätsmedizin Magdeburg wird im Rahmen einer internationalen klinischen Studie eine neuartige ultraschallbasierte Bildgebungsmethode zur frühzeitigen Erkennung von Prostatakrebs untersucht.
Prostatakrebs frühzeitiger erkennen – das ist das Ziel einer weltweiten klinischen Studie mit 1.200 Betroffenen, an der auch die Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg beteiligt ist. Die Studie untersucht die Effektivität eines innovativen Mikro-Ultraschallgerätes im Vergleich zur MRT-basierten Standardmethode zur Diagnose von Prostatakarzinomen. Das neuartige ExactVu™-System verspricht in kürzerer Zeit eine genauere Unterscheidung zwischen gut- und bösartigem Gewebe. Besonders Männer ab 50 Jahren, die sich in der Prostatakrebs-Vorsorge befinden, würden von dieser Entwicklung profitieren. Die Studie wird an 13 nationalen und internationale Kliniken durchgeführt.
Prostatakrebs ist in Deutschland die häufigste Krebserkrankung des Mannes. Laut Robert-Koch-Institut erkranken pro Jahr bundesweit fast 70.000 Männer neu an dieser Krebsform. Früh erkannt, kann das die Heilungschancen verbessern und das Risiko für Metastasen senken. Neben einer Tastuntersuchung ab 45 Jahren kommt bei Verdacht auf Prostatakrebs ein Test auf das Prostata-spezifische Antigen (PSA) zum Einsatz. Ein erhöhter PSA-Wert kann einen frühzeitigen Hinweis auf Prostatakrebs geben, aber auch andere Ursachen haben. „Die herkömmliche PSA-Blutwertbestimmung reicht für die Prostatakrebsfrüherkennung nicht mehr aus. Um möglichst genau sagen zu können, ob eine aggressive Prostatakrebserkrankung vorliegt, nutzen wir moderne bildgebende Verfahren, um den Krebs sichtbar zu machen“, erklärt Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie Magdeburg und Studienleiter in Deutschland.
Im Fokus der Studie unter dem Titel „OPTIMUM“ steht eine Bildgebungsmethode der neuesten Generation – das hochauflösende ExactVu™-System, ein innovatives 29 MHz Mikro-Ultraschallgerät, zur Diagnose von Prostatakarzinomen. „Das System arbeitet mit einer dreifachen Auflösung im Vergleich zu herkömmlichen Geräten“, so Schostak. Damit sei man in der Lage, in kürzerer Zeit auch kleinste Veränderungen in der Prostata zu erkennen und eine genauere Diagnose zu stellen. „Dieses innovative Gerät hilft, überflüssige Biopsien zu vermeiden und gleichzeitig eine besonders präzise Diagnose zu ermöglichen. Besonders im Kontext einer sogenannten fokalen Therapie spielt dies eine entscheidende Rolle und verbessert die Patientenversorgung erheblich.“ Im Rahmen der Studie wird die Effektivität dieses Verfahrens im Vergleich zur MRT-basierten Standardmethode evaluiert.
Weitere Informationen sind unter https://urologie.med.uni-magdeburg.de/ zu finden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Schostak, Direktor der Universitätsklinik für Urologie, Uro-Onkologie, robotergestützte und fokale Therapie der Otto-von-Guericke-Universität Magdeburg, martin.schostak@med.ovgu.de, Telefon: +49-391/67 15036
Bis zu 40 Prozent produktiver: Beim Güterumschlag auf die Schiene zeigen autonome Lkw großes Potenzial
Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
• ANITA-Projektziele erreicht: Entwicklung, digitale Integration und Praxistests eines autonomen Lkw im Containerumschlag von DB IS-Depot und DUSS-Terminal in Ulm erfolgreich
• ANITA-Praxistestfahrten zeigen Potenzial für bis zu 40 Prozent Effizienzgewinn und erhöhte Prozessstabilität
• ANITA liefert übertragbare Erkenntnisse für die künftige Integration autonomer Lkw in die Prozesse von Logistikhubs und fahrerlose Lkw-Verkehre zwischen Logistikknoten
MAN Truck & Bus, Deutsche Bahn, Hochschule Fresenius und Götting KG haben gemeinsam wegweisende Forschungsergebnisse beim Einsatz eines autonomen Lkw in der Container-Logistik erzielt. Im Rahmen des Forschungsprojekts „Autonome Innovation im Terminal Ablauf“ (ANITA) zeigten sie erfolgreich, wie selbstfahrende Lkw mit der passenden Einbindung in die Infrastruktur den kombinierten Güterverkehr auf Straße und Schiene zukünftig leistungsfähiger, planbarer und zugleich flexibler machen können.
Die Projektpartner haben dafür einen autonom fahrenden Lkw auf die Räder gestellt, der Containerverladungen von der Straße auf die Schiene mit Hilfe einer digitalen Missionsplanung selbständig erledigen kann. Das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Forschungsprojekt lief insgesamt drei Jahre, rund sechs Monate davon haben die Experten das Fahrzeug im DB Intermodal Services Container-Depot und DUSS Container-Terminal in Ulm im Praxiseinsatz getestet.
„Bei der Entwicklung autonomer Fahrsysteme stehen konkrete Logistikanwendungen und der Kundennutzen für uns von Anfang an im Fokus. Deshalb haben wir bei ANITA nicht nur an der Entwicklung des automatisierten Fahrens in einem Container-Terminal gearbeitet, sondern gleichzeitig, zusammen mit den Partnern, die digitale Einbindung der Technologie in den Logistikprozess vorangetrieben. Nur so können wir künftig die Vorteile autonomer Lkw sinnvoll nutzen: den Sicherheitsgewinn, die höhere Flexibilität – gerade auch mit Blick auf den zunehmenden Fahrermangel – die gute Kombinierbarkeit mit anderen Verkehrsträgern und natürlich auch die optimale Energieeffizienz im Einsatz, was besonders in Verbindung mit der Elektromobilität wichtig wird. ANITA ist für MAN eine wichtige Grundlage, um autonome Lkw ab 2030 in den Verkehren zwischen Logistikhubs wie Ulm als Serienlösungen auf die Straße zu bringen“, so Dr. Frederik Zohm, Vorstand für Forschung & Entwicklung bei MAN Truck & Bus.
Die intensiven Testfahrten mit Sicherheitsfahrern und Entwicklungsingenieuren lieferten dabei nicht nur umfassende Erkenntnisse für die kontinuierliche Verfeinerung der autonomen Fahrfunktion und deren Zusammenspiel mit der Missionsplanung, sondern auch für die notwendige Vorbereitung der Terminals für die Integration der neuen Technologie.
“Der Kombinierte Verkehr wird in den kommenden Jahren weiter wachsen und eine wichtige Rolle bei der Verlagerung von Verkehren auf die umweltfreundliche Schiene spielen. Dafür müssen die komplexen Abläufe in den Terminals effizienter gestaltet und beschleunigt werden. Das gelingt nur, wenn wir Logistikprozesse weiter automatisieren und digitalisieren. Wie die Zukunft in den Terminals aussehen kann, hat der Projektabschluss von ANITA heute eindrucksvoll gezeigt. Der autonome Lkw funktioniert im realen Terminalbetrieb und kann so einen entscheidenden Beitrag zur Zukunftsfähigkeit des Kombinierten Verkehrs leisten“, so Dr. Martina Niemann, Vorständin der DB Cargo AG für Finanzen, Controlling und Angebotsmanagement.
Damit der autonome Lkw des ANITA-Projektes seine Transportaufgabe im Containerumschlag erfüllen kann, muss er mit der Infrastruktur von DB IS- Depot und DUSS-Terminal kommunizieren können. Dafür haben die Wissenschaftler der Hochschule Fresenius in der ersten Projektphase die bestehenden Prozesse, Abläufe und Verhaltensweisen von Menschen und Maschinen vor Ort analysiert und in ein digitales Regelwerk übertragen.
Als gemeinsame Sprache für die eindeutige und vollständige Kommunikation aller beteiligter Systeme dient die Contract Specification Language (CSL) von Deon Digital. Entstanden ist so eine komplette Missionsplanung, die sowohl das Fahrzeug als auch die IT-Systeme von DB IS-Depot und DUSS-Terminal miteinander verbindet. Wie ein Universal-Dolmetscher spricht die Lösung die Sprachen aller heterogenen Systeme und leitet den automatisierten Lkw durch den Prozess des Containerumschlags, wie Prof. Dr. Christian T. Haas, Direktor des Instituts für komplexe Systemforschung an der Hochschule Fresenius, erklärt: „Wir haben hier ein kommunikationsintensives Multi-Agenten-System d.h. verschiedene Akteure wie Lkw-Fahrer, Kran-Führer, Stapler-Fahrer nutzen unterschiedliche Kommunikationsformen wie Sprache, Gesten etc. und übertragen dabei die von ihnen als relevant eingestuften Informationen. Da sich bei autonomen Umfuhren nicht der Fahrer mit dem Disponenten, sondern der Lkw mit Datenbanken bzw. anderen Maschinen ,unterhält‘, musste ein digitales – also für Maschinen verständliches – Kommunikationssystem entwickelt werden, damit die Mission funktioniert. Dies war ein hoher Entwicklungsaufwand, der jetzt allerdings auch zum Erfolg und den entsprechenden Produktivitätsgewinnen geführt hat.“
Die Götting KG brachte ins Projekt in Ergänzung zu MAN ihre Expertise im Bereich der Objektortung und Umgebungserfassung ein, um die künftige Übertragbarkeit auf andere Logistikhubs und Erweiterungsfähigkeit für zusätzliche Einsatzszenarien zu ermöglichen. „Damit fahrerlose Fahrzeuge noch attraktiver werden, arbeiten wir weiter an sicherer Hinderniserkennung für größere Reichweiten und Geschwindigkeiten“, so Hans-Heinrich Götting, Geschäftsführer der Götting KG, zum Abschluss des ANITA-Projektes.
Die detaillierten Projektergebnisse werden in einem ausführlichen Projektbericht zusammengefasst und nach Projektende veröffentlicht.
Mehr zu ANITA: https://www.anita.digital
Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Idstein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den ältesten, größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine 175-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbildung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfältiges Fächerangebot und bietet in den Fachbereichen Che-mie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studien-gänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovatives Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbe-zug“ vom Wissenschaftsrat gewürdigt.
Weitere Informationen finden Sie auf unserer Website:
www.hs-fresenius.de
Weitere Informationen:
http://www.hs-fresenius.de
Mainzer Wissenschaftler:innen entdecken bisher unbekannte Ursache für die Entstehung der Lungenfibrose
Natkritta Hüppe Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende des Centrums für Thrombose und Hämostase der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Histonen einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift PNAS veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes.
Neue Erkenntnisse bieten Ansatz für innovative Medikamente
Forschende des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und der Boston University haben einen Mechanismus entdeckt, der die Vernarbung der Lunge und damit die Entstehung einer sogenannten Lungenfibrose fördert. Sie haben gezeigt, dass eine Freisetzung von Proteinen der Histonfamilie einen Signalweg beeinträchtigt, der verhindern soll, dass das Lungengewebe sich unkontrolliert vermehrt und vernarbt. Ausgehend von dieser neuen Erkenntnis hat das Forschungsteam einen auf Antikörpern basiertes Wirkprinzip getestet, welches Histone blockieren kann. Die in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlichte vorklinische Studie zeigt eine vielversprechende Wirkung des neuartigen Therapieansatzes beim experimentellen Modell einer Lungenfibrose.
Die Lungenfibrose ist eine bisher nicht heilbare und oft tödlich verlaufende Erkrankung. Bei den Betroffenen kommt es zu einer unkontrollierten Vermehrung von Narbengewebe in der Lunge, die durch chronische Entzündungen ausgelöst wird. Die Lunge ist dadurch weniger elastisch und kann sich beim Atmen nicht hinreichend ausdehnen. Die Patient:innen haben schon bei geringen Anstrengungen Atemnot – im fortgeschrittenen Erkrankungsstadium sogar im Ruhezustand. Die genauen Ursachen für die Entstehung der Erkrankung sind bisher noch unzureichend aufgeklärt.
„Unser Ziel ist es, die molekularen Zusammenhänge der Lungenfibrose genauer zu verstehen, um die Therapiemöglichkeiten verbessern zu können. Wir haben einen bisher unbekannten Mechanismus identifiziert, der darauf hinweist, dass Proteine der Histonfamilie beim Krankheitsprozess eine entscheidende Rolle spielen, wenn sie von Immunzellen freigesetzt werden. Histone bilden deshalb eine potentielle Zielstruktur, um neue Medikamente zur Behandlung der Lungenfibrose entwickeln zu können“, erläutert Prof. Dr. Markus Bosmann, Arbeitsgruppenleiter am Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz.
Histone sind Proteine im Zellkern, die dazu dienen, die DNA zu verpacken. Werden Histone zum Beispiel durch eine fehlgeleitete Abwehrreaktion oder einen Zelltod freigesetzt, können sie in immunologische Prozesse eingreifen. Bei ihren vorklinischen Untersuchungen stellten die Mainzer Forschenden fest, dass in Proben von Betroffenen mit Lungenfibrose eine deutlich höhere Konzentration an Histonen vorlag als bei gesunden Probanden. Sie konnten zeigen, dass die freigesetzten Histone ein Wechselspiel zwischen Botenstoffen aus den Blutplättchen und den Immunzellen auslöste. Die Folge: Ein Sicherheitsmechanismus, der die unkontrollierte Gewebsbildung und Vernarbung in der Lunge verhindern soll, schaltet sich aus.
Die derzeit verfügbaren Medikamente zur Therapie der Lungenfibrose hemmen zwar die Vernarbung, können diesen Prozess aber nicht vollständig aufhalten. Die Mainzer Wissenschaftler:innen haben auf Basis von Antikörpern einen innovativen Wirkstoff getestet, der die freigesetzten Histone blockieren kann. Im experimentellen Modell zeigte dieser eine hohe Wirksamkeit gegen die Fibrosierung der Lunge.
„Es ist denkbar, dass ein Antikörper-basierter Wirkstoff mit den aktuell eingesetzten Medikamenten kombiniert werden kann, um bessere Behandlungsergebnisse zu erzielen. Bevor dieses innovative Wirkprinzip jedoch klinisch eingesetzt werden kann, müssen noch weitere Optimierungen und vorklinische Tests erfolgen. Auch wenn es noch viele Jahre dauern wird, sind wir zuversichtlich auf dem richtigen Weg zu sein“, so Professor Bosmann.
Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.
DOI:
https://doi.org/10.1073/pnas.2215421120
Kontakt:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de
Pressekontakt:
Dr. Natkritta Hüppe, Stabsstelle Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon 06131 17-7771, E-Mail pr@unimedizin-mainz.de
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 345.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Mehr als 3.500 Studierende der Medizin und Zahnmedizin sowie rund 670 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.700 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter https://www.unimedizin-mainz.de.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Markus Bosmann, CTH und Forschungszentrum Immuntherapie (FZI), Universitätsmedizin Mainz,
Telefon 06131 17-8277, E-Mail markus.bosmann@unimedizin-mainz.de
Originalpublikation:
D.R. Riehl, A. Sharma, J. Roewe, M. Bosmann et al. Externalized histones fuel pulmonary fibrosis via a platelet-macrophage circuit of TGFβ1 and IL-27. PNAS, 2023, 120 (40) e2215421120.
DOI: https://doi.org/10.1073/pnas.2215421120
Blutprodukte retten Leben
Nora Domschke Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Uniklinikum Dresden benötigt mehr Thrombozytenpräparate und ruft zur Spende auf. Die Transfusionsmedizinerinnen und -mediziner betonen die Wichtigkeit der lebensrettenden Spezialpräparate. Aus den Spenden werden überwiegend lebensrettende Spezialpräparate gewonnen. Die Apherese-Spenden, also Blutprodukte, die an einem Zellseparator gewonnen werden, spielen für die Versorgung schwer kranker Menschen eine entscheidende Rolle und werden am Uniklinikum in großem Umfang benötigt. Peter Escher macht an diesem Donnerstag (28. September) mit einer öffentlichkeitswirksamen Spende auf diese Notwendigkeit aufmerksam.
Thrombozytenpräparate gehören zu den Spezialprodukten der Blutspende. Die in ihnen enthaltenden Blutplättchen sind wichtig für die Blutgerinnung. Daher sind sie bei der Behandlung von Leukämie- und Tumorpatienten sowie bei großen Operationen notwendig, da es ohne eine ausreichende Anzahl von Thrombozyten im Blut der Patientinnen und Patienten zu lebensbedrohlichen Blutungen kommen kann. Journalist und Moderator Peter Escher hat heute am Dresdner Universitätsklinikum öffentlichkeitswirksam Thrombozyten gespendet und ruft auf, es ihm gleich zu tun: „Ich bin seit vielen Jahren Blutspender“, erklärt er. „Mit der heutigen Spende möchte ich Zögerer zum Spenden des überlebenswichtigen Blutes motivieren und kann aus eigener Erfahrung sagen, dass das regelmäßige Spenden sogar zu meinem Wohlbefinden beiträgt.“ Prof. Michael Albrecht, Medizinischer Vorstand des Uniklinikums, betont, wie wichtig die Bereitschaft der Bevölkerung zum Spenden in der Versorgung der Patientinnen und Patienten ist. „Peter Escher ist hierbei ein echtes Vorbild“, so Prof. Albrecht. „Blutprodukte sind rar und wir sind im Sinne der Versorgung auch schwerst kranker Patientinnen und Patienten auf diese speziellen Thrombozytenpräparate angewiesen.“
Bevor gespendet werden kann, ist eine Voruntersuchung erforderlich, bei der die Eignung der Spenderin oder des Spenders ermittelt wird. „Im Rahmen dessen erfolgt ein ärztliches Aufklärungsgespräch“, so Privatdozentin Dr. Kristina Hölig, Leiterin der Transfusionsmedizin am Uniklinikum Dresden. „Darüber hinaus werden die Venen an den Armen beurteilt und eine kleine Blutprobe zu Testzwecken entnommen.“ Dazu gehört ein umfangreiches Blutbild, bei dem die Thrombozytenzahl sowie die Blutgruppe bestimmt wird. Außerdem wird das Blut auf verschiedene Infektionskrankheiten untersucht.
Thrombozyten kann man, ähnlich wie Blut, auch in regelmäßigen Abständen spenden. Blutplättchen spielen in der Blutgerinnung und Blutstillung eine wesentliche Rolle und werden daher besonders bei Patientinnen und Patienten mit bösartigen Erkrankungen unter Chemotherapie und insbesondere nach einer Stammzelltransplantation benötigt. Auch ein hoher Blutverlust, etwa bei einem schweren Unfall oder bei einer großen Operation können ein Grund für die Substitution sein. Bei der Thrombozytenspende werden dem Körper über einen so genannten Thrombozyt-Apherese-Apparat ausschließlich Blutplättchen entnommen, die restlichen Blutbestandteile und das Plasma zurückgeführt. Thrombozyten sind nicht lange haltbar und müssen in Bewegung gelagert werden.
Nach der Entnahme sind die Spenderinnen und Spender vier Tage von anderen Spenden ausgeschlossen. Bis zur nächsten Thrombozyt-Apherese müssen sie gesetzlich vorgeschrieben zwei Wochen warten. Eine Thrombozytenspende dauert zwischen 60 und 90 Minuten. Dabei werden maximal 750 Milliliter Thrombozyten entnommen. Es gelten die Anforderungen wie bei anderen Spende-Arten. Grundsätzlich gibt es keine obere Altersgrenze, aber der Spender darf keine schwerwiegenden Vorerkrankungen haben. Weitere Voraussetzungen sind eine stabile Gesundheit, ein Mindestgewicht von 50 Kilogramm sowie eine ärztliche Zulassung – die Spendentauglichkeit wird von den Ärztinnen und Ärzten der Transfusionsmedizin beurteilt und bescheinigt.
Spendenwillige wenden sich gern an die Transfusionsmedizin des Universitätsklinikums Dresden unter 0351 458-2581 und vereinbaren einen Termin.
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik und Poliklinik I
PD Dr. med. Kristina Hölig
Bereichsleiterin Transfusionsmedizin
Tel.: 0351 458 2910
E-Mail: Kristina.Hoelig@ukdd.dex
Wichtiger zusätzlicher Treiber des Insektensterbens identifiziert
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Treten ungünstige Witterungsbedingungen kombiniert und über Jahre auf, kann das Insektenbiomassen langfristig schrumpfen lassen. Das zeigt ein Team um Professor Jörg Müller im Journal „Nature“.
Insekten reagieren empfindlich, wenn Temperatur und Niederschläge vom langjährigen Mittel abweichen. Bei einem ungewöhnlich trockenen und warmen Winter sind ihre Überlebenswahrscheinlichkeiten verringert, bei einem nasskalten Frühjahr ist der Schlupferfolg reduziert. Ein kühler, feuchter Sommer setzt Hummeln und andere Fluginsekten bei der Fortpflanzung und der Nahrungssuche unter Druck.
Treten mehrere solcher Witterungs-Anomalien in Kombination und über mehrere Jahre auf, kann dies die Insektenbiomasse großräumig und langfristig reduzieren. Das zeigt ein neuer Report im Journal „Nature“.
Demnach können die Witterung und Häufungen ungünstiger Witterungsanomalien im Zuge des Klimawandels wichtige Treiber des weltweiten Insektensterbens sein. Nur individuenreiche Insektenpopulationen, wie man sie in ausreichend großen und hochwertigen Lebensräumen findet, erscheinen unter solch widrigen Bedingungen überlebensfähig.
Wegen dieser neuen Erkenntnisse plädieren die Autorinnen und Autoren des Nature-Reports für mehr hochwertige Lebensräume. Diese zeichnen sich aus durch Pflanzen, die typisch für naturnahe Habitate sind, durch hohen Strukturreichtum oder extensive Nutzung. Der Report stammt vom Forschungsteam Jörg Müller (Universität Würzburg und Nationalpark Bayerischer Wald) in Kooperation mit der TU Dresden (Sebastian Seibold) und dem Nationalpark Berchtesgaden sowie der TU München (Annette Menzel, Ye Yuan) und der Universität Zürich (Torsten Hothorn). Die beteiligten Forschenden suchen gemeinsam nach neuen Erkenntnissen und Gegenstrategien zum Insektensterben.
So sind die neuen Erkenntnisse entstanden
Im Frühjahr 2022 fiel dem Würzburger Ökologieprofessor Jörg Müller auf, dass in Wald und Flur erstaunlich viele Insekten unterwegs waren. Das machte ihn stutzig – schließlich sind in den vergangenen Jahren immer mehr wissenschaftliche Studien erschienen, die ein weltweites Insektensterben belegten.
Die Studie, die für das größte Aufsehen sorgte, stammt von einer Gruppe um den niederländischen Forscher Caspar A. Hallmann aus dem Jahr 2017. Darin wurden Daten des Entomologischen Vereins Krefeld analysiert. Die Studie zeigte auf, dass die Insektenbiomasse in deutschen Naturschutzgebieten in den Jahren von 1989 bis 2016 um mehr als 75 Prozent abgenommen hat.
„Die Daten aus der Studie zeigen, dass es 2005 einen dramatischen Einbruch und in den Jahren danach keine Erholung mehr gab“, sagt Jörg Müller, der Professor für Tierökologie und ökologische Freilandforschung am Biozentrum der Julius-Maximilians-Universität Würzburg (JMU) ist. Konnte die von ihm „gefühlte“ große Insektenmenge des Jahres 2022 also real sein?
2022 ging es vielen Insekten relativ gut
Müller beschloss, der Sache auf den Grund zu gehen. Dafür tat sich sein Team mit Forscherkolleginnen und -kollegen der TU Dresden, der TU München und der Universität Zürich zusammen.
Zuerst galt es zu klären, ob es 2022 tatsächlich viel mehr Insektenbiomasse gab als üblich. Das bestätigte sich: „Wir fanden eine Biomasse, die im Mittel fast so hoch war wie die Maximalwerte aus der Hallmann-Studie. Und unser 2022er Maximalwert war höher als alle Werte, die Hallmann je ermittelt hatte – dieser Wert stammt übrigens aus dem Wald der Universität Würzburg“, sagt der JMU-Professor.
Daten der Hallmann-Studie neu analysiert
Diese Beobachtung veranlasste das Forschungsteam, die Daten aus der Hallmann-Studie neu zu analysieren. Dabei flossen neu aufbereitete Witterungsdaten ein, darunter Informationen über Temperaturen und Niederschläge während der Beprobung. Berücksichtigt wurden auch Witterungsanomalien (Abweichungen vom langjährigen Mittel) während der verschiedenen Phasen eines Insektenlebens – vom Ei über die Larve und die Puppe bis zu den erwachsenen Tieren.
Das Team stellte fest, dass für die Jahre ab 2005 für Insekten überwiegend negative Witterungseinflüsse herrschten. Mal war der Winter zu warm und trocken, mal das Frühjahr oder der Sommer zu kalt und nass. Dagegen war das Wetter 2022 durchgehend günstig für Insekten, und auch der Sommer davor war gut. Folglich erklärt dies die relativ hohe Insektenbiomasse von 2022.
Konsequenzen für die Zukunft
„Wir müssen uns viel stärker bewusstmachen, dass der Klimawandel bereits jetzt ein wichtiger Treiber für den Niedergang von Insektenpopulationen ist. Das muss in Wissenschaft und Naturschutzpraxis viel stärker mitgedacht werden“, sagt Annette Menzel, Professorin für Ökoklimatologie von der Technischen Universität München (TUM).
Um das Aussterberisiko bedrohter Arten unter diesen Rahmenbedingungen abzuschwächen, müssen die Flächen hochwertiger Lebensräume vergrößert werden. Daher sind die aktuellen Bestrebungen zum Insektenschutz noch dringender als bisher gedacht. Diese Gemeinschaftsaufgabe betreffe sowohl die Landwirtschaft als auch Verkehrs- und Siedlungsräume – also alle Gebiete, in denen hochwertige Lebensräume reduziert oder beeinträchtigt werden.
JMU-Professor Jörg Müller schlägt außerdem vor, ein Biomasse-Monitoring für ganz Deutschland zu etablieren. Damit könne man kontinuierlich messen, welchen Auf- und Ab-Trends die Insektenpopulationen unterworfen sind, und diese bei weiteren Analysen miteinbeziehen.
Förderer
Die beschriebenen Arbeiten wurden finanziell gefördert von der Deutschen Forschungsgemeinschaft, dem Bayerischen Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks bayklif, dem Bayerischen Staatsministerium für Umwelt und Verbraucherschutz im Projekt „Die Auswirkungen des Baumsterbens in Bayern 2018-2019 auf die Resilienz der Wälder und die biologische Vielfalt“ und dem Bayerischen Staatsministerium für Ernährung, Landwirtschaft und Forsten im Projekt „Auswirkungen waldbaulicher Eingriffe auf die Biodiversität – Neue Methoden erlauben neue Einblicke (L062)“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jörg Müller, Universität Würzburg und Nationalpark Bayerischer Wald, joerg.mueller@uni-wuerzburg.de
Originalpublikation:
Weather explains the decline and rise of insect biomass over 34 years. Nature, 27. September 2023, DOI: 10.1038/s41586-023-06402-z
DIW- und TU-Forschende: Das LNG-Terminal vor Rügen ist überflüssig und klimaschädlich
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Experten des Deutschen Instituts für Wirtschaftsforschung (DIW) und der Technischen Universität Berlin kritisieren das geplante Rügener Terminal für Flüssigerdgas (LNG) in einer aktuellen Analyse als überflüssig und klimaschädlich.
Es gebe weder energiewirtschaftliche noch industriepolitische Argumente für die Entwicklung des LNG-Projekts Mukran. Die Landesregierung Mecklenburg-Vorpommern solle sich gegen das Industrieprojekt Mukran aussprechen, welches energiewirtschaftlich nicht notwendig sei, keine alternativen ökonomische Perspektiven im Bereich Wasserstoffwirtschaft biete und gleichzeitig die nachhaltige Wirtschaftsentwicklung auf Rügen gefährde, so das Fazit der wissenschaftlichen Studie, die die Deutsche Umwelthilfe in Auftrag gab. „Die Bundesregierung sollte den Ausbau der LNG-Infrastruktur stoppen und die verfügbaren Finanzmittel stattdessen für energiewende-kompatible Projekte verwenden“, sagt Mitautor Prof. Dr. Christian von Hirschhausen von der TU Berlin und dem DIW Berlin. Er und seine wissenschaftlichen Mitarbeitenden werden am 22. September 2023 auch vor Ort bei einer Infoveranstaltung auf der Insel Rügen sein.
Die Studie „Energiewirtschaftliche und industriepolitische Bewertung des Energie- und Industrieprojekts Mukran mit dem Bau von LNG-Infrastruktur und Pipelineanbindung nach Lubmin“:
https://www.diw.de/de/diw_01.c.881106.de/publikationen/politikberatung_kompakt/2…
Pressemitteilung der Deutschen Umwelthilfe:
https://www.duh.de/presse/pressemitteilungen/pressemitteilung/deutsche-umwelthil…
Weitere Informationen erteilt Ihnen gerne:
Stefanie Terp
Pressesprecherin der TU Berlin
Tel.: 030 314-23922
E-Mail: pressestelle@tu-berlin.de
Neuer Ansatz für Test auf Long Covid: Blutgefäße im Auge verändert
Paul Hellmich Corporate Communications Center
Technische Universität München
Eine standardisierte Augenuntersuchung könnte in Zukunft verraten, ob Menschen unter dem Long-Covid-Syndrom beziehungsweise Post Covid leiden. Ein Team der Technischen Universität München (TUM) konnte einen deutlichen Zusammenhang zwischen der Erkrankung und bestimmten Veränderungen der Äderchen im Auge zeigen.
Zwischen zehn und 35 Prozent der Betroffenen leiden auch lange nach einer Corona-Erkrankung an Symptomen wie Atemproblemen oder Erschöpfung (Fatigue). Bislang sind keine körperlichen Merkmale, sogenannte Biomarker, bekannt, anhand derer sich eine Long-Covid-Erkrankung sicher diagnostizieren lässt.
Eines der Merkmale von Covid-19 sind Veränderungen der Blutgefäße. Betroffen ist hier insbesondere das Endothel, die Gefäßinnenwand. Durch die Veränderungen werden Organe nicht ausreichend mit Blut versorgt.
Kleine Blutgefäße wenig erforscht
Bislang wurden vor allem große Blutgefäße erforscht. „90 Prozent der Endothelzellen des Körpers befinden sich aber in kleinen und kleinsten Äderchen. Was mit diesen Blutgefäßen bei Long Covid geschieht, ist kaum bekannt“, sagt Studienleiter Prof. Christoph Schmaderer, Geschäftsführender Oberarzt in der Abteilung für Nephrologie des Klinikums rechts der Isar, Universitätsklinikum der TUM.
„Blutgefäße im Auge könnten einen Hinweis auf den Zustand der kleinen Blutgefäße im gesamten Körper bieten“, sagt Schmaderer. Sie seien für Untersuchungen leicht zugänglich, die notwendigen Verfahren und Geräte sind erprobt und erfordern keinen Eingriff in den Körper.
Äderchen sind verengt oder erweitern sich weniger
Im Fachmagazin „Angiogenesis“ schildern Schmaderer, Co-Studienleiter Dr. Timon Kuchler und ihr Team ihre Ergebnisse. Besonders zwei Werte zeigten einen starken Zusammenhang mit Long-Covid-Erkrankungen: Zum einen waren Arteriolen, also kleinste Arterien, im Vergleich zur gesunden Kontrollgruppe deutlich verengt. Zum anderen zeigten Venolen – nicht aber die Arteriolen – eine veränderte Reaktion auf Lichtreize. Leuchtet man mit einem flackernden Licht ins Auge, erweitern sich die Blutgefäße. Bei Patient:innen mit Long Covid war diese Reaktion deutlich verringert.
Je mehr Entzündungsmarker im Blut der Studienteilnehmenden gemessen wurden, desto ausgeprägter waren die Veränderungen. Anhaltende Entzündungsreaktionen sind Studien zufolge vermutlich ein weiterer wichtiger Faktor für Long Covid.
Weitere Studien notwendig
Da die Studie mit 41 teilnehmenden Erkrankten vergleichsweise klein ist und nur in einer einzelnen Klinik durchgeführt wurde, lässt sich aus den Ergebnissen noch kein zuverlässiger Test auf Long Covid ableiten. Aus Sicht der Forschenden sind weitere Studien notwendig um die Ergebnisse zu verifizieren. „Ich bin zuversichtlich, dass auf Grundlage unserer Ergebnisse ein Werkzeug entwickelt werden kann, um Long Covid sicher zu diagnostizieren“, sagt Christoph Schmaderer. „Wir gehen zudem davon aus, dass die Mikrozirkulation nicht nur im Auge, sondern auch in anderen Teilen des Körpers eingeschränkt ist. Dadurch könnte die Methode insbesondere dafür geeignet sein, um die Wirksamkeit zukünftiger Therapien für Long Covid zu beurteilen.“
Weitere Informationen:
Die Studie wurde unter dem Titel „All Eyes on PCS – Analyse der retinalen Mikrogefäßstruktur bei Patienten mit Post-COVID-19-Syndrom“ registriert und durch das Bayerische Staatsministerium für Wissenschaft und Kunst finanziert.
Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1721005
Kontakt im TUM Corporate Communications Center:
Paul Hellmich
Pressereferent
Tel. +49 89 289 22731
presse@tum.de
www.tum.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Schmaderer
Klinikum rechts der Isar der Technischen Universität München
Abteilung für Nephrologie
christoph.schmaderer@mri.tum.de
Originalpublikation:
Kuchler, T., Günthner, R., Ribeiro, A. et al. Persistent endothelial dysfunction in post-COVID-19 syndrome and its associations with symptom severity and chronic inflammation. Angiogenesis (2023). https://doi.org/10.1007/s10456-023-09885-6
Klimawandel und seine Bedeutung für unsere Flüsse: Infotag am 30. September in Eußerthal
Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Der Klimawandel hinterlässt in Fließgewässern spürbare Auswirkungen. Dürren und Starkregen führen zu Wasserknappheit und Überschwemmungen, bedrohen die Biodiversität und beeinträchtigen Wasserressourcen für Mensch und Natur. Wie kann das Management der Fließgewässer aussehen, um sich diesen Veränderungen anzupassen und die Gewässer zu schützen? Einblick in diese Thematik gibt es beim Infotag „Klima. Wasser. Fisch.“ der Rheinland-Pfälzischen Technischen Universität (RPTU) an der Ökosystemforschung Anlage Eußerthal (EERES) am Samstag, den 30. September, von 11 bis 16 Uhr bei Vorträgen und Mitmachangeboten. Das Angebot ist kostenfrei. Bei schlechtem Wetter wird die Veranstaltung verschoben.
In Vorträgen stellen Experten der RPTU sowie der beteiligten Projektpartner aus den Bereichen Klimawandelforschung und Gewässerökologie aktuelle Forschungsthemen vor: Dabei geht es unter anderem um die Gesundheit von Gewässern und um das Vorkommen und den Einfluss von Schadstoffen darin, um die Austrocknung von Flüssen und die schwindende Verfügbarkeit von Wasser sowie um die Zunahme von Klimaextremen. Zudem spricht Sarah Oexle von der Fischereiforschungsstelle Baden-Württemberg (LAZ BW) über „Fische in der Klimakrise“ und darüber, wie unserer Gewässer „fit für die Zukunft“ gemacht werden. Die Veranstaltung richtet sich aber auch an Kinder verschiedener Altersstufen, die die Möglichkeit haben, sich bei einem Gewässer-Lauf mit der Ökologie von Fließgewässern zu befassen und bei einer Rallye heimische Fischarten kennenzulernen.
Die Veranstaltung findet im Rahmen des EU-Interreg-Projekt „RiverDiv“ statt, das sich mit den Auswirkungen des Klimawandels auf Fließgewässer befasst. Ziel ist es, ein nachhaltiges und im Zuge des Klimawandels angepasstes Management für die Wieslauter zu entwickeln, einem deutsch-französischen Grenzfluss, der im Pfälzer Wald entspringt und bei Lauterburg in den Rhein mündet. Eingebunden in das Vorhaben sind Partner aus Wissenschaft, Wasserversorgung und Angelfischerei.
„Mit dem Projekt möchten wir zudem die Öffentlichkeit für dieses wichtige Thema sensibilisieren, um in der Gesellschaft ein Bewusstsein für die bestehenden Herausforderungen des Klimawandels zu schaffen. Dazu werden wir auch künftig ähnliche Veranstaltungen wie den Infotag anbieten“, sagt Dr. Tanja Joschko, Projektleiterin und Geschäftsführerin von der Ökosystemforschung Anlage Eußerthal (EERES). Die Forscherinnen und Forscher von EERES befassen sich mit Gewässern und Biodiversität unter dem Einfluss des globalen Wandelns.
Beim Infotag gibt das Team auch Einblick in das RiverDiv-Projekt. Besucher können sich über die verschiedenen Inhalte des Vorhabens informieren und sich direkt vor Ort mit den Wissenschaftlern austauschen.
Infotag „Klima. Wasser. Fisch.“
Wann?: 11 bis 16 Uhr am Samstag, den 30. September
Wo?: Ökosystemforschung Anlage Eußerthal, Birkenthalstraße 13, 76857 Eußerthal
Weitere Infos unter: https://nuw.rptu.de/projekte/riverdiv/teilprojekte/wissensdialog-vernetzung-umse…
Kontakt
Dr. Hannah Chmiel
RiverDiv – Projektkoordination / RPTU in Landau
Telefon: +49 6341 280 32239
Email: hannah.chmiel@rptu.de
Wie Kläranlagen zur Energiewende beitragen können
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Versorgt man die Mikroorganismen, die in Kläranlagen das Wasser aufbereiten, zusätzlich mit etwas Wasserstoff und Kohlendioxid, stellen sie reines Methan her. Damit kommen Erdgasheizungen und -fahrzeuge klar, ohne dass es technischer Anpassungen bedarf. Die beiden Arbeitsgruppen der Ruhr-Universität Bochum von Dr. Tito Gehring bei Prof. Dr. Marc Wichern und Prof. Dr. Ulf-Peter Apfel haben gemeinsam ein technisches Zusatzmodul entwickelt, dass im Prinzip jede Kläranlage auf umweltfreundliche Weise zu einer CO2-Senke und dezentralen Methan-Erzeugungsanlage machen kann. Sie berichten in der Zeitschrift Cell Reports Physical Science vom 16. August 2023.
Schlechter Ruf, gute Eigenschaften
Methan hat als klimaschädliches Gas einen schlechten Ruf. Es bringt aber einige gute Eigenschaften mit, die es dazu befähigen, ein Baustein der Energiewende zu werden: Es ist leichter zu handhaben und besser zu speichern als Wasserstoff, weil die Moleküle größer sind und es daher weniger leicht flüchtig ist. Seine Energiedichte ist viermal höher als die von Wasserstoff, und es lässt sich ohne Anpassung in die vorhandene Erdgasinfrastruktur einspeisen. „Erdgasfahrzeuge oder -heizungen können ohne Schwierigkeiten mit Methan betrieben werden“, verdeutlicht Tito Gehring vom Lehrstuhl Siedlungswasserwirtschaft und Umwelttechnik. Er führt noch einen weiteren Vorteil des Gases gegenüber Wasserstoff an, der in südlichen, wasserarmen Gegenden hergestellt wird: Exportiert man ihn und nutzt ihn hier, hat man gleichzeitig auch Wasser exportiert. Dieses Problem hat man mit Methan nicht.
Methan kann durch Bakterien sehr effizient hergestellt werden und fällt zum Beispiel in Kläranlagen als Bestandteil von Biogas an. „Manche Kläranlagen gewinnen dadurch ihren eigenen Energiebedarf und sind somit energetisch autark“, erklärt Tito Gehring. Das Biogas enthält allerdings nur 60 Prozent Methan und verschiedene andere Stoffe. Hier kommt das Konzept der Bochumer Arbeitsgruppen ins Spiel: Damit hochkonzentriertes Methan entsteht, brauchen die Mikroorganismen neben CO2 auch Wasserstoff, der dem System zugeführt werden muss. Um ihn herzustellen, entwickelte die Gruppe um Ulf-Peter Apfel von der Arbeitsgruppe Technische Elektrochemie und der Abteilung Elektrosynthese des Fraunhofer UMSICHT eigens einen Elektrolyseur mit einem edelmetallfreien Katalysator, der langlebig und energieeffizient für die Wasserstoffzufuhr sorgt.
Einen Teil des benötigten Erdgases ersetzen
So versorgt produzieren die Bakterien in einem Zusatzmodul, das im Prinzip an jeder beliebigen Kläranlage funktioniert, ein Molekül Methan pro Molekül Kohlendioxid. Dabei verstoffwechseln sie nebenbei auch noch verschiedene Inhaltstoffe des Abwassers und benötigen dabei keine weiteren Nährstoffe. „Viele Kläranlagen sind ans Erdgasnetz angeschlossen und könnten das so erzeugte Methan einfach in die Versorgung einspeisen“, erklärt Tito Gehring.
Er sieht in Grünem Methan aus Kläranlagen einen von mehreren Bausteinen der Energiewende: „Erste Abschätzungen haben ergeben, dass allein durch die CO2-Bindung aus den Abgasen der Schlammbehandlung in Kläranlagen etwa 20 Liter Methan pro Tag und pro Einwohner gewonnen werden könnten.“ Würde man das tun, würde man auch dafür sorgen, dass weniger Methan als schädliches Klimagas in die Atmosphäre gelangt. Denn die Methanfreisetzung bei der Förderung von Erdgas, Öl und Kohle ist eine sehr wichtige Emissionsquelle für dieses Treibhausgas.
Förderung
Die Arbeiten wurden gefördert durch die Deutsche Forschungsgemeinschaft (Projektkennziffer: 445401355 – Etablierung einer nachhaltigen methanogenen Kohlendioxidreduktion in bioelektrochemischen Systemen und Identifizierung kinetischer und thermodynamischer Restriktionen).
Wissenschaftliche Ansprechpartner:
Dr. Tito Gehring
Siedlungswasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaft
Ruhr-Universität Bochum
Tel.: +49 234 32 22736
E-Mail: tito.gehring@ruhr-uni-bochum.de
Prof. Dr. Ulf-Peter Apfel
Technische Elektrochemie – Aktivierung kleiner Moleküle
Fakultät für Chemie und Biochemie
Ruhr-Universität Bochum
Tel.: +49 234 32 21831
E-Mail: ulf.apfel@ruhr-uni-bochum.de
Originalpublikation:
Ramineh Rad, Tito Gehring, Kevinjeorjios Pellumbi, Daniel Siegmund, Edith Nettmann, Marc Wichern, Ulf-Peter Apfel: A hybrid bioelectrochemical system coupling a zero-gap cell and a methanogenic reactor for carbon dioxide reduction using a wastewater-derived catholyte, in: Cell Reports Physical Science, 2023, DOI: 10.1016/j.xcrp.2023.101526, https://www.sciencedirect.com/science/article/pii/S2666386423003107?via%3Dihub
Long-COVID: Besserung ist erreichbar, aber nicht bei allen Betroffenen
Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena
In einer Langzeitauswertung des Post-COVID-Zentrums am Universitätsklinikums Jena zeigten über 90% der mehr als 1000 betrachteten Patienten vielfache Langzeitsymptome nach einer COVID-19-Erkrankung. Weit über die Hälfte berichtete von Erschöpfung und Konzentrationsschwäche, die über die Zeit leicht abnahmen. Auch nach über einem Jahr leidet etwa ein Fünftel der Betroffenen an ME/CFS, einer durch Infektionen ausgelösten schweren neuroimmunologischen Erschöpfungserkrankung. Das Autorenteam betont, dass spezifische interdisziplinäre Therapiekonzepte und deren Evaluierung dringend notwendig sind.
Etwa fünf bis zehn Prozent der Menschen, die sich mit Sars-CoV2 infiziert hatten, leiden auch nach Monaten und sogar Jahren noch an Langzeitfolgen. Als eine der ersten Kliniken bundesweit richtete das Universitätsklinikum Jena (UKJ) eine spezielle Ambulanz für diese Patientinnen und Patienten ein. Mit Förderung des Freistaates Thüringen ist daraus ein interdisziplinäres die Post-COVID-Zentrum entstanden. „Mittlerweile haben sich knapp 3000 Erwachsene zu einer umfassenden Eingangsdiagnostik vorgestellt“, so PD Dr. Philipp Reuken, Oberarzt in der Klinik für Innere Medizin IV des UKJ. „Mit vielen vereinbaren wir in Abhängigkeit der Beschwerden und Vorbefunde Folgetermine, im Schnitt nach einem halben Jahr.“
Das Jenaer Post-COVID-Zentrum stellte jetzt eine Langzeitauswertung vor, in die die Daten von 1022 Patientinnen und Patienten aufgenommen werden konnten. Bei knapp der Hälfte davon wurde auch die Entwicklung bis zum Folgetermin betrachtet. Fast alle Betroffenen in der Studie beklagten mehrere Langzeitsymptome als Folge der Sars-CoV-2-Infektion. Am häufigsten gaben die Betroffenen neuropsychologische Symptome an: 80 Prozent litten an Fatigue, einer schweren Erschöpfung, zwei Drittel berichteten von Konzentrationsschwäche und über die Hälfte von Gedächtnisstörungen. Bei den körperlichen Symptomen überwogen Kopf- und Muskelschmerzen, Schlafstörungen, Kurzatmigkeit, Riech- und Schmeckstörungen.
Ein Fünftel der Long-COVID-Betroffenen leidet auch nach über einem Jahr an ME/CFS
Beim Folgetermin bekundeten viele Patientinnen und Patienten eine leichte Verbesserung, die bei Fatigue und der Konzentrationsfähigkeit am deutlichsten war. Die objektiven Screeningergebnisse für Fatigue, Depressionsanzeichen und Gedächtnisvermögen ergaben bei der zweiten Visite jedoch kaum Verbesserungen im Vergleich zum ersten Besuch. Aber 30 Prozent der Betroffenen erfüllten die vollständigen Kriterien für ME/CFS. Das Kürzel steht für das Krankheitsbild einer schweren neuroimmunologischen Erschöpfungserkrankung, die durch Virusinfektionen ausgelöst werden kann, und deren Krankheitsmechanismen kaum verstanden sind. Auch bei der zweiten Visite litt noch jeder fünfte unter ME/CFS, dabei lag die Infektion bereits deutlich über ein Jahr zurück.
Typisch für ME/CFS ist, dass sich der Zustand der Betroffenen nach Anstrengung deutlich verschlechtert. „Deshalb ist es für diese Patienten besonders wichtig, ihre physischen und mentalen Kräfte konsequent einzuteilen. Das als Pacing bezeichnete Konzept spielt eine zentrale Rolle bei der Therapie“, betont Philipp Reuken. „Long-COVID ist eine langwierige Erkrankung, eine Verbesserung ist erreichbar, aber nur langsam.“
Ein großes Problem ist, dass ein relevanter Anteil der Patienten nicht mehr arbeiten gehen kann bzw. in der Versorgungsarbeit in der Familie deutlich eingeschränkt ist. Das macht die soziale Dimension der Erkrankung deutlich. „Wir benötigen spezifische interdisziplinäre Therapiekonzepte und müssen diese in Studien evaluieren, um den Patientinnen und Patienten eine zielgerichtete, aber eben auch wirksame Behandlung anbieten zu können“, sagt Prof. Dr. Andreas Stallmach, der Leiter des Post-COVID-Zentrums am UKJ. Er ist einer der Tagungspräsidenten des 2. Long-COVID-Kongresses in Jena, der sich im November neben neuen Forschungsergebnissen zur Erkrankung vor allem mit der Teilhabe der Betroffenen am sozialen und Arbeitsleben beschäftigt.
Wissenschaftliche Ansprechpartner:
PD Dr. Philipp Reuken, Prof. Dr. Andreas Stallmach
Klinik für Innere Medizin IV, Post-COVID-Zentrum, Universitätsklinikum Jena
Tel.: +49 3641 9234504
E-Mail: Philipp.Reuken@med.uni-jena.de, Andreas.Stallmach@med.uni-jena.de
Originalpublikation:
Reuken, P.A., Besteher, B., Finke, K. et al. Longterm course of neuropsychological symptoms and ME/CFS after SARS-CoV-2-infection: a prospective registry study. Eur Arch Psychiatry Clin Neurosci (2023). https://doi.org/10.1007/s00406-023-01661-3
Weitere Informationen:
https://www.uniklinikum-jena.de/Post_COVID_Zentrum.html Interdisziplinäres Post-COVID-Zentrum am UKJ
https://long-covid-kongress.de 2. Long COVID-Kongress am 24.-25. November in Jena
Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.
Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.
Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.
Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.
Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.
Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.
Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.
Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu
Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de
Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800
Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802
Glücklich durch den Job? Wie sich das Wohlbefinden beim Einstieg ins und Austritt aus dem Berufsleben verändert.
Lisa Schimmelpfennig Pressestelle
HMU Health and Medical University GmbH
Junge Erwachsene sind nach dem Berufseinstieg glücklicher, aber auch gestresster, während das Wohlbefinden bei älteren Personen nach dem Renteneintritt zunimmt. Das fanden die Psychologieprofessorinnen Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin in einer aktuellen Studie heraus.
Die Arbeit verleiht unserem Alltag Struktur und Sinn, kann aber auch stressig sein und unser Wohlbefinden belasten. Haben der Einstieg in und der Austritt aus dem Berufsleben also positive oder negative Folgen für unser Wohlbefinden? Das haben Eva Asselmann von der Health and Medical University in Potsdam und Jule Specht von der Humboldt-Universität zu Berlin untersucht.
Die Psychologinnen analysierten die Daten von über 2.700 jungen Erwachsenen und über 2.000 älteren Personen aus dem Sozio-oekonomischen Panel (SOEP), einer repräsentativen Langzeitstudie aus Deutschland. Ihre Ergebnisse zeigen, wie sich einzelne Facetten des Wohlbefindens in den fünf Jahren vor und fünf Jahren nach dem Einstieg in und Austritt aus dem Berufsleben verändern.
Die Wissenschaftlerinnen fanden heraus, dass Berufseinsteigende in den ersten fünf Jahren im Job glücklicher wurden, sich gleichzeitig aber auch häufiger ärgerten, vermutlich aufgrund von vermehrtem Stress. Bei älteren Erwachsenen nahm das Wohlbefinden in den fünf Jahren vor dem Ruhestand zunächst ab. In den Jahren danach waren sie jedoch zufriedener, glücklicher, weniger ängstlich und weniger oft verärgert als zuvor, was für eine Entlastung nach dem Renteneintritt spricht.
Zusammengefasst untermauern die Befunde, dass das Arbeitsleben tatsächlich ein zweischneidiges Schwert ist, das unser Wohlbefinden sowohl verbessern als auch verschlechtern kann.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Eva Asselmann
Professur für Differentielle und Persönlichkeitspsychologie
E-Mail: eva.asselmann@health-and-medical-university.de
Originalpublikation:
Asselmann, Eva und Specht, Jule (2023): “Working life as a double-edged sword: Opposing changes in subjective well-being surrounding the transition to work and to retirement”, Emotion, DOI: https://doi.org/10.1037/emo0001290
Wasser mit intelligentem Rost und Magneten reinigen
Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Neue Methode für Schadstoffe wie Rohöl, Glyphosat, Mikroplastik und Hormone
Wird Rost ins Wasser geschüttet, wird es normalerweise schmutziger. Forscher/-innen der FAU haben spezielle Eisenoxid-Nanopartikel entwickelt, die es tatsächlich sauberer machen, sozusagen „intelligenter Rost“. Dieser Rost kann je nach Beschichtung der Partikel viele Stoffe anziehen, darunter Öl, Nano- und Mikroplastik sowie das Herbizid Glyphosat. Und weil die Nanopartikel magnetisch sind, können sie mit einem Magneten ganz einfach zusammen mit den Schadstoffen aus dem Wasser entfernt werden. Jetzt berichtet das Forschungsteam, dass sie die Partikel so verändert haben, dass sie Östrogenhormone einfangen, die potenziell schädlich für Wasserlebewesen sind.
Ihre Ergebnisse haben die Forscher auf der Herbsttagung der American Chemical Society (ACS) vorgestellt, die rund 12.000 Präsentationen zu einem breiten Spektrum wissenschaftlicher Themen bietet.
„Unser intelligenter Rost ist billig, ungiftig und recycelbar“, sagt Prof. Dr. Marcus Halik, Lehrstuhl für Werkstoffwissenschaften (Polymerwerkstoffe). „Und wir haben den Einsatz bei allen Arten von Verunreinigungen nachgewiesen und das Potenzial dieser Technik für eine drastische Verbesserung der Wasseraufbereitung aufgezeigt.“
Nanopartikel fangen Schadstoffe ein
Seit vielen Jahren erforscht Haliks Forschungsteam umweltfreundliche Möglichkeiten, Schadstoffe aus Wasser zu entfernen. Als Grundmaterial dienen Eisenoxid-Nanopartikel in superparamagnetischer Form: Das heißt, sie werden von Magneten angezogen, nicht aber voneinander, so dass die Partikel nicht verklumpen.
Um sie „intelligent“ zu machen, entwickelte das Team eine Technik, um Phosphonsäuremoleküle an die nanometergroßen Kügelchen zu binden. „Nachdem wir eine Schicht der Moleküle auf die Eisenoxidkerne aufgetragen haben, sehen sie aus wie Haare, die aus der Oberfläche dieser Partikel herausragen“, sagt Halik. Indem die Wissenschaftler/-innen dann ändern, was an der anderen Seite der Phosphonsäuren gebunden ist, können sie die Eigenschaften der Nanopartikeloberflächen so anpassen, dass sie verschiedene Arten von Schadstoffen stark adsorbieren.
Frühe Versionen des intelligenten Rosts fingen Rohöl aus Wasser aus dem Mittelmeer und Glyphosat aus Teichwasser ein, das die Forscherinnen und Forscher in der Nähe der Universität sammelten. Darüber hinaus zeigte das Team, dass der smarte Rost Nano- und Mikroplastik entfernen kann, das Labor- und Flusswasserproben zugesetzt wird.
Nach Rohöl, Glyphosat und Mikroplastik nun Hormone
Bisher konzentrierte sich die Gruppe auf Schadstoffe, die meist in großen Mengen vorhanden sind. Lukas Müller, ein Doktorand, der auf der Tagung seine neuen Arbeiten vorstellte, wollte wissen, ob er die Rost-Nanopartikel so modifizieren könnte, dass sie Spurenverunreinigungen wie Hormone anziehen.
Wenn einige unserer körpereigenen Hormone ausgeschieden werden, werden sie ins Abwasser gespült und gelangen schließlich in die Gewässer. Natürliche und synthetische Östrogene sind eine solche Gruppe von Hormonen, und die Hauptquellen dieser Schadstoffe sind Abfälle von Menschen und Nutztieren. Die Mengen an Östrogenen seien in der Umwelt sehr gering, so Müller, daher seien sie nur schwer zu entfernen. Doch selbst diese Konzentrationen beeinflussen nachweislich den Stoffwechsel und die Fortpflanzung einiger Pflanzen und Tiere, obwohl die Auswirkungen niedriger Konzentrationen dieser Verbindungen auf den Menschen über lange Zeiträume noch nicht vollständig erforscht ist.
Östrogene haften an Rostpartikeln an
„Ich habe mit dem häufigsten Östrogen Östradiol begonnen und dann vier weitere Derivate mit ähnlichen Molekülstrukturen untersucht“, sagt Müller. Östrogenmoleküle haben einen sperrigen Steroidkörper und Teile mit leicht negativen Ladungen. Um beide Eigenschaften zu nutzen, beschichtete er Eisenoxid-Nanopartikel mit zwei Gruppen von Verbindungen: einer langen und einer positiv geladenen. Die beiden Moleküle organisierten sich auf der Oberfläche der Nanopartikel, und die Forschungsgruppe geht davon aus, dass sie zusammen viele Milliarden winziger Taschen bilden, die das Östradiol ansaugen und an Ort und Stelle festhalten.
Da diese Taschen für das bloße Auge unsichtbar sind, hat Müller High-Tech-Instrumente verwendet, um die Existenz dieser Östrogen-einschließenden Taschen zu überprüfen. Vorläufige Ergebnisse zeigen eine effiziente Extraktion der Hormone aus Laborproben, aber die Forschenden müssen zusätzliche Experimente abwarten, um die Taschenhypothese zu überprüfen. „Wir versuchen anhand verschiedener Puzzleteile zu verstehen, wie sich die Moleküle tatsächlich auf der Oberfläche der Nanopartikel anordnen“, erklärt Müller.
Ansprechpartner für Medien:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcus Halik
Professur für Werkstoffwissenschaften (Polymerwerkstoffe)
Tel.: 09131/85-70367
marcus.halik@fau.de
Weitere Informationen:
http://www.fau.de/2023/08/news/wissenschaft/wasser-mit-intelligentem-rost-und-ma… Video zu den Forschungsergebnissen (Simulation von Prof. Dr. Dirk Zahn und Dr. Dustin Vivod vom Computer Chemistry Center der FAU)
Forschungsprojekt für nachhaltigen Wasserverbrauch sucht Testhaushalte
Alex Deeg PR und Marketing
Fraunhofer-Institut für Angewandte Informationstechnik FIT
Die Nutzung von Wasser überwachen, Sparpotenziale aufzeigen und die Verwendung von Regenwasser erforschen: Mit diesen Zielen leitet Fraunhofer FIT das vom Bundesministerium für Wirtschaft und Klimaschutz geförderte Projekt CrowdWater. Zweck des Projekts ist die Entwicklung einer regionalen Wasser-Datenplattform für die private, öffentliche sowie gewerbliche Nutzung. Für die Erarbeitung praxisnaher Lösungen werden aktuell etwa 30 Testhaushalte gesucht.
>>Wasser bewusst nutzen
Noch gibt es in Deutschland ausreichend Trinkwasser. Doch das Land trocknet infolge der globalen Erderwärmung langsam aus. Die Grundwasserbestände sinken. Ein Grund dafür ist nach Einschätzung des Umweltbundesamts die abnehmende Aufnahme- und Speicherfähigkeit des Erdbodens infolge von starken Klimaereignissen. Die genaue Entwicklung und ihre Folgen für bestimmte Gebiete lassen sich aktuell noch schwer abschätzen, da es keine präzise Informationslage über Wassermengen und den Einfluss von Sparmaßnahmen auf ausgewählte Regionen gibt.
Hier setzt das Projekt CrowdWater (Crowdbasiertes Monitoring und Vorhersage für nachhaltige Regen- & Trinkwassernutzung) an, indem es Sensordaten zum Kreislauf der Wassernutzung erfasst und verarbeitet. Ein umfassendes Monitoring in Echtzeit ermöglicht, dass Haushalte ihren Wassereinsatz erfolgreich planen und Wartungsarbeiten in Versorgungsunternehmen nutzengerechter durchgeführt werden können. Mit einem Angebot an Veranstaltungen und Lehrmaterialien wird CrowdWater darüber hinaus ein Grundverständnis von nachhaltiger Wassernutzung vermitteln, welche auch verfügbares Regenwasser mit einbezieht.
Zur Strategie des Projekts gehört die Verknüpfung intelligenter Messgeräte mit digitalen Werkzeugen. Innerhalb eines vielfältigen IoT-Netzwerks (Internet of Things oder Internet der Dinge) sollen zukünftig der genaue Bedarf an Wasser bestimmt und eventuelle Verluste identifiziert werden können. Dies gelingt unter anderem durch die Berücksichtigung aktueller Wetterdaten. Um den Verbrauch der lebenswichtigen Ressource in betrieblichen Prozessen zu ermitteln, sollen mobile Messkoffer zum Einsatz kommen.
>>Interaktiver Lösungsansatz dank Living Lab
Das Erfahrungswissen und die Lebenswirklichkeit von Verbraucherinnen und Verbrauchern spielen eine zentrale Rolle in der Erforschung ihrer Wassernutzung. CrowdWater möchte deshalb rund 30 Testhaushalte und drei bis sechs Unternehmen in einem Living Lab vernetzen. Ein Living Lab ist ein virtuelles Labor zur Forschung unter Realbedingungen. Die ausgewählten Haushalte werden mit entsprechender Sensorik ausgestattet, um Daten über die Umsetzbarkeit der Werkzeuge zu erheben und Anreizmechanismen zum Wassersparen zu testen.
Als Teilnehmende am Living Lab sollten Sie sich idealerweise für die Erforschung nachhaltiger Regen- und Trinkwassernutzung interessieren und zu einer aktiven Mitgestaltung bereit sein. Weiterhin werden vorwiegend Haushalte aus dem Rhein-Sieg-Kreis oder Nordrhein-Westfalen gesucht. Bei Interesse oder auch allgemeinen Fragen zum Projekt können Sie sich an unsere Living Lab Koordinatorin Anika Martin (anika.martin@fit.fraunhofer.de) wenden.
>>Breit gefächerte Beteiligung
Sowohl kommunale als auch wirtschaftliche Projektpartnerschaften bereichern CrowdWater mit Expertise und Ressourcen. Um das wichtige Thema Datenschutz sowie die Organisation der Living Labs kümmert sich das Fraunhofer-Institut für Angewandte Informationstechnik FIT. Die Stadtwerke Troisdorf, die Stadt Hennef und die Verbandsgemeindewerke Kirchen stellen sich für die praktische Umsetzung der Wassersparmaßnahmen zur Verfügung. Daran beteiligt ist auch die Biesenthal Wasserzähler GmbH, die mit den behördlichen Partnern technische Anforderungen herausarbeitet. Sie unterstützt deren Machbarkeitsuntersuchung und kooperiert so mit Fraunhofer FIT und der si-automation GmbH. Ebenfalls im Aufgabenbereich der si-automation GmbH liegt die Entwicklung und Testung vorläufiger Lösungen.
Weitere Informationen zum Projekt und aktuelle Infos finden Sie unter https://crowdwater.info
Babyboomer arbeiten im Alter länger – aber noch Potenzial ab Alter 63
Dr. Christian Fiedler Pressestelle
Bundesinstitut für Bevölkerungsforschung (BiB)
Ältere Menschen länger im Erwerbsleben zu halten ist eine wesentliche Stellschraube, um dem Arbeitskräftemangel in Deutschland zu begegnen. Eine aktuelle Studie im renommierten Fachjournal Demography aus dem Bundesinstitut für Bevölkerungsforschung (BiB) in Zusammenarbeit mit dem Max-Planck-Institut für demografische Forschung (MPIDR) hat jetzt neue Berechnungen zur tatsächlich geleisteten Arbeitszeit älterer Personen vorgelegt. Das Ergebnis: In der Altersspanne zwischen 55 und 64 Jahren verbringen die Babyboomer deutlich mehr Zeit in bezahlten Jobs als dies in früheren Generationen der Fall war.
Bei einer für diese Altersgruppe rechnerisch maximal möglichen Erwerbsdauer von 10 Jahren in durchgehender Vollzeitbeschäftigung waren 1941 geborene Männer im Durchschnitt 5,3 Jahre erwerbstätig. Beim Geburtsjahrgang 1955, der zu den Babyboomern gehört, lag der entsprechende Wert mit 7,3 Jahren bereits zwei Jahre höher. Bei Frauen gab es fast eine Verdopplung von 2,6 auf 4,8 Jahre. In der ebenfalls betrachteten Altersspanne 65 bis 74 Jahre wurden ausgehend von einem niedrigen Niveau ebenfalls Anstiege verzeichnet. „Ein Großteil der in den letzten Jahrzehnten erfolgten Zuwächse konzentriert sich allerdings in den Altern 55 bis 63 Jahre“, erklärt Sebastian Klüsener, Forschungsdirektor am BiB. „Ab 64 Jahren sind die Anstiege deutlich geringer gewesen.“
Steigende Erwerbslebensdauer in allen betrachteten Gruppen
Wie aus der Studie weiter hervorgeht, ist die Erwerbslebensdauer bei allen untersuchten Gruppen gestiegen: bei Männern und Frauen, über alle Bildungs- und Berufsgruppen hinweg sowie für Erwerbstätige in Ost- und in Westdeutschland. Die geringsten Zuwächse wurden bei niedrigen Bildungs- und Berufsgruppen verzeichnet, die stärksten bei Fachkräften und gehobenen Fachkräften. Vor allem bei Menschen, die nach 1946 geboren wurden, hat sich die Erwerbslebensdauer kräftig verlängert. „Diese Entwicklung wird durch verschiedene Faktoren beeinflusst“, so Klüsener. „Hierzu zählen politische Reformen im Bereich von Arbeitsmarkt und Rente. Ein weiterer Faktor ist, dass die Babyboomer als Profiteure der nach 1970 erfolgten Bildungsexpansion ein höheres Bildungsniveau aufweisen und gesünder altern als vorherige Generationen.“
Bei den Geschlechtern gibt es starke Ost-West-Unterschiede
Bei einem Ost-West-Vergleich fallen deutliche Unterschiede zwischen Männern und Frauen auf: Bei den 1955 geborenen Personen hatten westdeutsche Männer mit 7,4 Jahren die höchste Erwerbslebensdauer im Alter zwischen 55 und 64 Jahren. Dagegen war diese bei westdeutschen Frauen mit 4,6 Jahren am niedrigsten. Zwischen den beiden Extremen lagen ostdeutsche Männer mit 6,8 Jahren und ostdeutsche Frauen mit 5,5 Jahren. „Die Unterschiede zwischen west- und ostdeutschen Männern gehen hauptsächlich auf abweichende Erwerbstätigenquoten zurück“, sagt Elke Loichinger, Forschungsgruppenleiterin am BiB. „Die Differenzen bei den Frauen erklären sich hingegen vorrangig durch Unterschiede bei den geleisteten Arbeitsstunden.“ So haben ältere westdeutsche Frauen zwar ähnlich hohe Erwerbstätigenquoten wie ältere ostdeutsche Frauen, letztgenannte absolvieren aber durchschnittlich deutlich mehr Stunden pro Woche. Hier scheint sich positiv auszuwirken, dass in den betrachteten Generationen ostdeutsche Frauen schon von einer gut ausgebauten Kinderbetreuung profitieren konnten, während viele westdeutsche Frauen mit der Mutterschaft ihre Arbeitszeit erheblich reduzierten.
Weiteres Potenzial für Anstiege vorhanden
Die ermittelten Werte zur durchschnittlichen Erwerbslebensdauer zeigen aber auch, dass weitere Potenziale für die Ausdehnung der Erwerbslebensdauer bestehen. Dies gilt allgemein für Erwerbstätigkeit im Alter von 63 und mehr Jahren und besonders für Frauen, gerade in Westdeutschland. „Ob diese Potenziale erschlossen werden können, hängt davon ab, inwieweit ein Verbleib im Arbeitsmarkt attraktiv und möglich ist“, so Loichinger. „Dabei spielt eine Vielzahl an Faktoren eine Rolle. Hierzu zählen beispielsweise arbeitsmarktpolitische Anreize, die Art der Tätigkeit oder die Flexibilität der Arbeitszeitgestaltung. Auch die Ausübung unbezahlter Sorgearbeiten innerhalb der Familie kann bezahlter Erwerbsarbeit entgegenstehen.“
Zur Methode
Das in Deutschland bisher nur selten verwendete Maß „Erwerbslebensdauer“ basiert auf einer Kombination von Erwerbstätigkeit und geleisteter Arbeitszeit – es gibt die Anzahl der Jahre an, in denen jemand einer bezahlten Tätigkeit nachgegangen ist. Ob Voll- oder Teilzeit gearbeitet wird, macht hier einen wichtigen Unterschied. Das Maß erlaubt, die Dauer des Erwerbslebens für den gesamten Lebensverlauf (in diesem Fall ist auch von „Lebensarbeitszeit“ die Rede) oder nur für bestimmte Altersabschnitte zu berechnen. Dies ermöglicht Einsichten zur Verlängerung des Erwerbslebens, die über die übliche Betrachtung der reinen Erwerbstätigenquoten hinausgehen. Für die Untersuchung wurden Daten des Mikrozensus der Geburtsjahrgänge 1941 bis 1955 analysiert.
Wissenschaftliche Ansprechpartner:
Dr. Sebastian Klüsener
Sebastian.Kluesener@bib.bund.de
Dr. Elke Loichinger
Elke.Loichinger@bib.bund.de
Originalpublikation:
Dudel, Christian; Loichinger, Elke; Klüsener, Sebastian; Sulak, Harun; Myrskylä, Mikko (2023): The Extension of Late Working Life in Germany: Trends, Inequalities, and the East–West Divide.Demography.
https://doi.org/10.1215/00703370-10850040
Dieselabgase schädigen Insekten: Bayreuther Tierökolog*innen erforschen erstmals die Auswirkungen auf Hummeln
Christian Wißler Pressestelle
Universität Bayreuth
Der Rückgang der Insekten bedroht weltweit viele Ökosysteme. Während die Auswirkungen von Pestiziden gut erforscht sind, fehlte es bisher an Erkenntnissen über die Folgen anderer anthropogener Schadstoffe. Tierökolog*innen der Universität Bayreuth haben jetzt erstmals die Auswirkungen von Dieselabgaspartikeln auf Hummeln untersucht. In zwei neuen Studien zeigen sie, dass diese Feinstaubpartikel den Organismus der Hummeln erheblich schädigen können, wenn sie dauerhaft über die Nahrung aufgenommen werden. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat die Forschungsarbeiten im Rahmen des Projektverbunds BayÖkotox gefördert.
Abgaspartikel von Diesel-Kraftfahrzeugen können beim Menschen zu Atemwegs- oder Lungenerkrankungen führen. In der freien Natur gelangen sie oftmals in den Nektar von Pflanzenblüten, von dem sich Hummeln und andere Insekten ernähren. Die Wissenschaftler*innen am Lehrstuhl für Tierökologie der Universität Bayreuth haben diese Konstellation im Labor nachgestellt. Als Modellorganismus wählten sie Hummeln der weit verbreiteten Art Bombus terrestris (Dunkle Erdhummel). In Kooperation mit dem Lehrstuhl für Technische Thermodynamik und Transportprozesse der Universität Bayreuth erzeugten sie in einem Vierzylinder-Dieselmotor, wie er häufig in PKWs vorkommt, Abgaspartikel, die durch Verbrennungsprozesse entstehen. Diese Partikel wurden dem Zuckerwasser beigemischt, mit dem die Hummeln im Labor täglich gefüttert wurden. Die Menge entsprach dabei der Menge von Dieselabgaspartikeln, wie sie bereits in Böden in der Nähe vielbefahrener Landstraßen nachgewiesen worden waren. Die Analyse der Partikel in den Bayreuther Laboratorien zeigte jetzt, dass sie teilweise aus elementarem Kohlenstoff bestehen, aber auch Schwermetalle und weitere organische Substanzen, wie polyzyklische aromatische Kohlenwasserstoffe (PAKs), enthalten. PAKs stehen im Verdacht, für den Menschen toxisch zu sein und die Entstehung von Krebs zu fördern.
Veränderungen des Mikrobioms im Darm: Indizien für eine Schwächung des Immunsystems
Nachdem die Hummeln sieben Tage lang bei jeder Mahlzeit auch Abgaspartikel zu sich genommen hatten, stellten die Wissenschaftler*innen eine erheblich veränderte Zusammensetzung des Darmmikrobioms fest: Von den Bakterienarten, welche normalerweise die hauptsächlichen Bestandteile der Darmflora von Hummeln bilden, waren einige viel häufiger, andere dagegen seltener anzutreffen. Insbesondere das Bakterium Snodgrassella, das für die Bildung eines den Darm schützenden Biofilms wichtig ist, war nur noch in sehr geringer Anzahl vorhanden. Derartige Veränderungen im Darmmikrobiom sind in der Forschung dafür bekannt, dass sie bei Insekten die Immunität und die Resistenz gegen Krankheitserreger schwächen können und damit deren Sterblichkeit erhöhen.
Sinkender Fettgehalt des Körpers und erhöhte Sterblichkeit
In einer weiteren Studie stand die Frage im Fokus, wie sich die Partikel auf das Immunsystem der Insekten auswirken. Zehn Tage lang nahmen die Hummeln Abgaspartikel zu sich, die dem Zuckerwasser in unterschiedlich hohen Konzentrationen beigemischt waren. Danach war ihr Fettgehalt im Vergleich mit Hummeln, die normales Futter erhielten, erheblich gesunken. „Der verringerte Fettgehalt ist ein Indiz dafür, dass die Partikel im Körper der Hummeln Entgiftungsprozesse auslösen, die mit einem erhöhten Energieverbrauch verbunden sind. Auch diese Untersuchungen legen die Schlussfolgerung nahe: Die tägliche Aufnahme von Abgaspartikeln über die Nahrung versetzt den Organismus der Hummeln in Stress. Wir haben beobachtet, dass sich ihre Sterblichkeit signifikant erhöht“, sagt der Erstautor Frederic Hüftlein M.Sc., Doktorand am Lehrstuhl für Tierökologie.
Veränderungen der Genexpression: Weiteres Indiz für eine energieintensive Stressreaktion
Ebenso zeigten sich deutliche Veränderungen der Genexpression, der von Genen gesteuerten Herstellung lebenswichtiger Proteine. Die Analyse des Transkriptoms – dies ist die Gesamtheit der zu einem bestimmten Zeitpunkt erzeugten RNA-Moleküle – ergab, dass sich die Expression von 324 Genen verändert hatte. Die Produktion von RNA-Molekülen wurde bei 165 Genen intensiviert, bei 159 Genen hingegen verringert. Die beobachteten Veränderungen können als Indizien dafür gewertet werden, dass die über einen längeren Zeitraum mit der Nahrung aufgenommenen Abgaspartikel Abbauprozesse im Organismus der Hummeln fördern, Prozesse der Biosynthese hingegen verlangsamen.
„Vieles spricht dafür, dass es sich bei der veränderten Genexpression um eine Stressreaktion handelt, welche die Energieressourcen der Insekten angreift und schwächt. An der Universität Bayreuth planen wir in nächster Zeit weitere Untersuchungen, um diese Zusammenhänge noch genauer aufzuklären. Dabei wollen wir nicht nur einzelne Insekten, sondern ganze Kolonien betrachten und zusätzlich zu den Dieselabgasen noch andere anthropogene Stressfaktoren in die Forschungsarbeiten einbeziehen“, sagt Prof. Dr. Heike Feldhaar, Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“ im Bayerischen Projektverbund BayÖkotox.
Schädigende Auswirkungen nur bei chronischer Aufnahme der Partikel über die Nahrung
Die Autor*innen der neuen Studien betonen, dass sich erhebliche Beeinträchtigungen der Hummeln durch Dieselabgase nur dann feststellen ließen, wenn die Partikel über die Nahrung aufgenommen wurden. Experimente, bei denen die Partikel von den Hummeln eingeatmet wurden, ergaben keine Hinweise auf gesundheitliche Schäden. „Wenn die Hummeln einmalig oder nur im Verlauf von 48 Stunden mehrmals mit den Partikeln gefüttert wurden, blieben messbare signifikante Reaktionen aus. Auch der Fettgehalt im Körper der Hummeln änderte sich kaum. Entscheidend für eine Schädigung der Hummeln ist, dass die Aufnahme der Abgaspartikel chronisch ist, sich also innerhalb eines längeren Zeitraums wiederholt. Wenn Pflanzen und Böden belastet sind, ist eine chronische Exposition mit den Schadstoffen denkbar“, berichtet Dr. Matthias Schott vom Lehrstuhl für Tierökologie.
Die Autor*innen weisen zudem darauf hin, dass unter natürlichen Bedingungen auch eine nicht-tödliche Wirkung der Abgaspartikel für Hummeln problematisch sein kann. Denn meistens sind Hummeln in der Umwelt mehreren Stressfaktoren gleichzeitig ausgesetzt, beispielsweise weiteren Umweltschadstoffen wie Pestiziden oder auch hohen Tagestemperaturen im Sommer.
Interdisziplinäre Zusammenarbeit in Bayreuth
„Seit etwa zehn Jahren ist in zahlreichen Regionen der Erde ein rascher Rückgang der Insekten zu beobachten. Diese Entwicklung ist besorgniserregend, weil Insekten viele wichtige Ökosystemfunktionen wie Bestäubung, Zersetzung von organischem Material und Schädlingsbekämpfung erfüllen oder dazu beitragen. Sie bilden zudem ein unentbehrliches Glied in den Nahrungsnetzen. Mittlerweile ist klar, dass die Umweltverschmutzung einer der Hauptgründe für diesen Rückgang ist. An der Universität Bayreuth wollen wir mit unseren Kompetenzen dazu beitragen, die Zusammenhänge von Ursachen und Wirkungen auch auf molekularer und zellbiologischer Ebene aufzuklären“, sagt Prof. Dr. Christian Laforsch vom Lehrstuhl für Tierökologie und verweist auf die enge interdisziplinäre Zusammenarbeit im Projekt BayÖkotox.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Heike Feldhaar
Lehrstuhl für Tierökologie I
Leiterin des Teilprojekts „Einfluss von Feinstaub auf Insekten“
im Projektverbund BayÖkotox
Universität Bayreuth
Telefon: +49 (0)921 / 55-2645
E-Mail: heike.feldhaar@uni-bayreuth.de
Dr. Matthias Schott
Lehrstuhl für Tierökologie I
Universität Bayreuth
Telefon: +49 (0)921 / 55-2654
E-Mail: matthias.schott@uni-bayreuth.de
Originalpublikation:
Dimitri Seidenath et al.: Diesel exhaust particles alter gut microbiome and gene expression in the bumblebee Bombus terrestris. Ecology and Evolution (2023), DOI: https://doi.org/10.1002/ece3.10180
Frederic Hüftlein et al.: Effects of diesel exhaust particles on the health and survival of the buff-tailed bumblebee Bombus terrestris after acute and chronic oral exposure. Journal of Hazardous Materials (2023), DOI: https://doi.org/10.1016/j.jhazmat.2023.131905
Pflege vor dem Kollaps? – 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege
Dr. Elena Wassmann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Pflege vor dem Kollaps? PRO*PFLEGE und die Digitalisierung stehen bei der 3. Fachtagung Gesundheitsförderung und Prävention in der Pflege am 6. und 7. November an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen als Lösungen für die Gesundheit von Pflegefachpersonen zur Diskussion.
Die pflegerische Versorgung ist deutschlandweit gefährdet. Oft gehen Pflegefachpersonen bis an ihre Grenzen, um den verbreiteten Personalmangel aufzufangen. Dabei sind sie hohen gesundheitlichen Belastungen ausgesetzt. Innovative und professionelle Lösungen, die Handlungswege aufzeigen und ihre Gesundheit stärken, sind zwingend erforderlich.
Die 3. Fachtagung Gesundheitsförderung und Prävention stellt erneut Wege für die Pflege vor. Unter dem Motto ‚Wollen wir Treiber oder Getriebene sein?‘ wird am 6. und 7. November 2023 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen (HWG LU) gezeigt, dass Pflegeethik, Gesundheitsförderung und Professionalität im Zusammenspiel mit der Digitalisierung helfen können. Sie ermöglichen Pflegefachpersonen, ihren Heilberuf Pflege selbst zu gestalten. Das Forschungsnetzwerk Gesundheit der HWG LU hat Expert*innen aus Politik, Wissenschaft, Management und IT eingeladen, mit den Pflegefachpersonen in die Diskussion zu gehen.
Die Tagungsreihe ist ein Beitrag zur Fachkräfte- und Qualifizierungsinitiative Pflege 2.1 des Landes Rheinland-Pfalz, angesiedelt im Ministerium für Arbeit, Soziales, Transformation und Digitalisierung. Staatsminister Alexander Schweizer wird sich in seinem Grußwort der Digitalisierung in der Pflege widmen. Staatssekretär Dr. Fedor Ruhose wird zum Abschluss des vom Land geförderten Pilotprojektes PRO*PFLEGE sprechen. „Wir freuen uns sehr, dass die Fachtagung wieder an unserer Hochschule stattfindet und Innovation und Wertschätzung für die Pflege in den Fokus stellt“, betont Prof. Dr. Gunther Piller, Präsident der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen.
Die beiden Tage zeigen zwei eng miteinander verwobene Bausteine zur Förderung der Gesundheit. Am ersten Tag liegt der Fokus auf PRO*PFLEGE. Die Ergebnisse der erfolgreichen Fachtagungen 2019 und 2020 ergaben den dringenden Bedarf eines passgenauen Bildungsformats. PRO*PFLEGE verbindet Pflegeethik, Gesundheitsförderung und Professionalität. Der Zertifikatskurs bietet Pflegefachpersonen mannigfaltige Ressourcen zur Steigerung ihrer Handlungsfähigkeit und der Resilienz im Pflegeunternehmen. Gefördert vom Land Rheinland-Pfalz, der Unfallkasse RLP und der Franziskusstiftung für Pflege entwickelte das Forschungsnetzwerk Gesundheit mit Unterstützung der Graduate School Rhein-Neckar PRO*PFLEGE. Im April 2023 startete der Pilotdurchlauf, hochqualifizierte Expert*innen konnten als Kooperationspartner gewonnen werden. An diesem Tag geben sie Einblicke in Instrumente zum Umgang mit psychischer Belastung und Gewalt in der Pflege und zeigen die Ressourcen, die Pflegeethik, Personal- und Organisationsentwicklung und das Betrieblichen Gesundheitsmanagement bieten. Kursteilnehmende stellen ihre entwickelten Konzepte zum Gesundheitsförderung im Pflegeunternehmen vor.
Der zweite Tag schließt unmittelbar an den Unterstützungsgedanken an: Beleuchtet wird das Megathema Digitalisierung in der Pflege und hinterfragt, ob sie Herausforderung oder Chance für die Gesundheit von Pflegefachpersonen ist. Förderer ist die Unfallkasse Rheinland-Pfalz. Fachleute aus Pflegewissenschaft, Pflegepädagogik und IT in der Pflege werden Projekte, Studien und Tools für die Pflege vorstellen. Zur Diskussion stehen, inwiefern die Digitalisierung Einfluss auf Arbeitszufriedenheit und Berufsverbleib von Pflegefachpersonen hat; ob digitale Technologien die Pflegepraxis beispielsweise bei der Versorgung vom Menschen mit Demenz unterstützen können, ohne die Beziehungsarbeit zu verdrängen; ob digitale Lernformate die Pflegebildung fördern können und ob die Pflegebeziehung durch die Nutzung digitaler Instrumente im Pflegeprozess gestärkt wird. Auf dem Marktplatz der Möglichkeiten können die digitalen Lösungen ausprobiert und mannigfaltige Informationen rund um die Themen Gesundheitsförderung, Prävention und Digitalisierung eingeholt werden.
„Mit dieser dritten Fachtagung geben wir der professionellen und gesunden Pflege die verdiente Bedeutung, greifen die Sorgen der Pflegefachpersonen auf, die Personalmangel, Pandemie und Digitalisierung bringen und zeigen konkrete Beispiele und Methoden für ihre jeweilige Praxis auf“, erläutert Organisatorin Dr. Andrea Kuhn vom Forschungsnetzwerk Gesundheit der Hochschule das Tagungskonzept.
Die Veranstaltung beginnt am 6. November um 11.30 Uhr, am 7. November um 9.00 Uhr und endet um circa 17.30 Uhr. Sie findet in der Aula der Hochschule im A-Gebäude, Ernst-Boehe-Straße 4, 67059 Ludwigshafen, statt. Die Anmeldung erfolgt unter https://www.veranstaltungen.hwg-lu.de/event/3-fachtagung-gesundheitsforderung-un…
Aus organisatorischen Gründen ist diese bis zum 27. Oktober 2023 möglich.
Wissenschaftliche Ansprechpartner:
Hochschule für Wirtschaft und Gesellschaft Ludwigshafen
Forschungsnetzwerk Gesundheit
Dr. Andrea Kuhn – Projektleitung
E-Mail: andrea.kuhn@hwg-lu.de
Tel.: +49 621 5203 244
Weitere Informationen:
https://forschungsnetzwerk-gesundheit.hwg-lu.de/kommunikation/gesundheitsfoerder…
Anhang
Programm Fachtagung Gesundheitsförderung und Prävention in der Pflege
Künstliche Intelligenz an menschliche Bedürfnisse anpassen
Lena Bender Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Pierre-Alexandre Murena ist neuer Professor an der TU Hamburg.
„Meine Vision im Umgang mit Künstlicher Intelligenz (KI) ist, den Menschen und das KI-System als ein Team zu betrachten, das ein gemeinsames Ziel anstrebt. Sie sollen sich im Umgang miteinander als Partner verstehen, die sich gegenseitig Hinweise geben, sich korrigieren und relevante Informationen austauschen.“ Das sagt Pierre-Alexandre Murena, neuer Juniorprofessor an der TU Hamburg. Seine Arbeit zielt genau auf die Schnittstelle zwischen dem maschinellen Lernen in seiner jetzigen Form und seinen Nutzerinnen und Nutzern ab. Der Mathematiker und Informatiker befasst sich mit menschenzentrierter Künstlicher Intelligenz. Was heute in aller Munde ist, hatte vor zehn Jahren noch einen Exotenstatus. Murena berichtet: „Als ich damals mein Interesse an KI erwähnte, fragten mich die Leute nach Terminator und Science-Fiction-Szenarien. Heute erzählen sie mir von ihren Versuchen, Künstliche Intelligenzen wir ChatGPT oder Midjourney zu nutzen. Das ist eine enorme Entwicklung, und ich denke, es ist wichtig, die Menschen dabei zu begleiten.“ Murenas Ziel ist, die KI stärker auf den Menschen auszurichten, um die Nutzung von KI-Tools für Wissenschaftler und Ingenieure zu erleichtern, die maschinelle Lernmodelle für ihre Forschung benötigen. All dies ist in der Praxis äußerst komplex: weil Interaktionen eher kurz sind und der KI nicht genügend Zeit gegeben wird, etwas zu lernen; und weil kognitive Modelle komplex sind und das Erlernen ihrer Parameter oft schwierig bis unmöglich ist.
„Die KI zu trainieren ist manchmal frustrierend“
In einer Beziehung unterscheidet sich der Mensch von der KI: Menschen interpretieren, was andere sagen, dadurch können Aussagen ungenau oder sogar falsch werden. „Sich anzupassen ist eine Fähigkeit, die wir haben, sie fehlt der KI. Diese Lücke soll eine menschenzentrierte KI einmal schließen. Aber der Weg dahin ist manchmal frustrierend, weil es so einfach zu sein scheint, aber schwierig zu erreichen ist!“, so Murena. „Obwohl die Frage der menschenzentrierten KI meiner Meinung nach in den kommenden Jahren eine große Herausforderung darstellen wird, liegt der Fokus der meisten Universitäten und Forschungszentren nach wie vor auf der Entwicklung starker autonomer maschineller Lernsysteme. Die Tatsache, dass die TU Hamburg eine Stelle zu diesem Thema eingerichtet hat, war für mich ein gutes Zeichen, dass die Universität diesen wichtigen Wandel voraussieht.“
KI für die Kunst
Prof. Murena studierte Angewandte Mathematik und Informatik an der Ecole Polytechnique und der Ecole Normale Supérieure in Cachan (Frankreich) und er promovierte an der Université Paris-Saclay. Danach zog es ihn als Postdoc für drei Jahre nach Finnland, an die Aalto University und die Universität Helsinki. Dort wirkte er an verschiedenen Projekten im Bereich des maschinellen Lernens mit Menschen mit und leitete eine Forschungsgruppe am Finnish Center for Artificial Intelligence (FCAI). „Ich habe mich schon immer für Naturwissenschaften interessiert, vor allem für die Mathematik. Aber ich habe noch eine andere Leidenschaft, nämlich die Kunst.“, so Murena. Beides versucht er zu verbinden und unterstützt Kunst Schaffende, mit KI zu arbeiten. Außerhalb der Universität kann man Murena im Hafengebiet antreffen, wo er alte Industriebeuten fotografiert. Daneben geht er gerne ins Kino, spielt Klavier, kocht oder bereitet mit seiner Eismaschine leckere Sorten zu.
Neu entdeckte Bakterien-Ordnung könnte die Biogasproduktion revolutionieren
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Die neu benannte und klassifizierte Ordnung Darwinibacteriales ist eine der am häufigsten vorkommenden taxonomischen Gruppen von Mikroorganismen, die an der anaeroben Gärung beteiligt sind – also an der Zersetzung organischen Materials, bei der Biogas entsteht.
Diese Entdeckung gelang Forscher:innen des von der EU finanzierten Projekts Micro4Biogas unter Beteiligung der TU Dresden. Sie analysierten 80 Proben aus 45 Biogasanlagen mit dem Ziel, die Produktion des erneuerbaren Brennstoffs zu steigern.
Die Forschungsergebnisse wurden in zwei Artikeln auf dem Preprint-Server für die Biowissenschaften bioRxiv veröffentlicht. Die Begutachtung steht noch aus.
Wissenschaftler:innen des europäischen Forschungsprojektes Micro4Biogas haben eine neue taxonomische Ordnung von Bakterien entdeckt und klassifiziert, die auf die Zersetzung von organischem Material spezialisiert sind und der Schlüssel zu einer optimierten Biogasproduktion sein könnten. Die von ihnen als Darwinibacteriales bezeichnete Ordnung ist eine der am häufigsten vorkommenden Bakterien-Ordnungen in Biogasanlagen, wurde aber bisher noch nie wissenschaftlich klassifiziert.
Die Entdeckung gelang Wissenschaftler:innen aus Deutschland, Spanien und den Niederlanden, die 80 Proben von sich zersetzendem organischem Material aus 45 großen Biogasanlagen in Deutschland, den Niederlanden und Österreich entnommen und deren mikrobielle Zusammensetzung mittels DNA-Sequenzierung untersucht haben. Zu ihrer Überraschung waren in allen 80 Proben Vertreter der Darwinibacteriales zu finden, trotz der Unterschiede und der Entfernung zwischen den Anlagen.
Die Forscher:innen waren auf der Suche nach den mikrobiellen Hauptakteuren der anaeroben Gärung, bei der organisches Material abgebaut und anschließend in energiereiches Gas umgewandelt wird, das dann als Brennstoff verwendet werden kann. Dieser Vorgang gilt als Black Box, da die Rolle und Funktionsweise der meisten beteiligten Mikroorganismen bislang unbekannt ist. Eine Steigerung der Biogaserzeugung würde einen entscheidenden Wandel in der Energiewirtschaft bedeuten und die Abhängigkeit von fossilen Brennstoffen und Energieimporten verringern. Doch die fehlende mikrobiologische Forschung hat dies bisher ausgebremst.
Die Wissenschaftler:innen des Micro4Biogas-Konsortiums sind nun in der Lage, maßgeschneiderte, hocheffiziente Populationen von Biogas produzierenden Mikroben zu schaffen. Ihr Ziel ist es, Biogasanlagen robuster und weniger abhängig von Subventionen zu machen, sodass sie kommerziell betrieben werden können und die erneuerbaren Energien weltweit Auftrieb erhalten.
Die Forschenden vermuten, dass eine bestimmte Familie innerhalb dieser neuen Ordnung (die Familie Darwinibacteriaceae) in wechselseitiger Zusammenarbeit mit Archaeen stehen, einer weiteren Art von Mikroorganismen, die an der anaeroben Gärung beteiligt sind. Die Bakterien produzieren Stoffwechselverbindungen, die die Archaeen dann zur Erzeugung von Methangas nutzen. Dies deckt sich mit früheren Studien, die einen Zusammenhang zwischen der Ordnung Darwinibacteriales und der Biogasproduktion festgestellt haben. Sollten sich diese Ergebnisse bestätigen, wären diese Bakterien ein vielversprechender Ansatz für die Entwicklung von Strategien, um die Effizienz in der Biogasproduktion zu steigern.
Über das MICRO4BIOGAS-Projekt
Micro4Biogas ist ein von der EU finanziertes Projekt (H2020, Finanzhilfevereinbarung Nr. 101000470), das sich mit der Entwicklung maßgeschneiderter mikrobieller Konsortien zur Steigerung der Biogasproduktion beschäftigt.
Das Projekt vereint 15 Institutionen aus sechs Ländern und zielt darauf ab, den Ertrag, die Geschwindigkeit, die Qualität und die Reproduzierbarkeit der Biogasproduktion zu steigern und damit diese erneuerbare Energie als ökologisch, politisch und wirtschaftlich sinnvolle Option zu konsolidieren.
https://micro4biogas.eu
Wissenschaftliche Ansprechpartner:
Pascal Otto
TU Dresden
Institut für Abfall- und Kreislaufwirtschaft
Email: pascal.otto@tu-dresden.de
Originalpublikation:
R. Puchol-Royo, J. Pascual, A. Ortega-Legarreta, P. Otto, J. Tideman, Sjoerd-Jan de Vries, Chr. Abendroth, K. Tanner, M. Porcar, A. Latorre-Perez. 2023. Unveiling the ecology, taxonomy and metabolic capabilities of MBA03, a potential key player in anaerobic digestion. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556800
Pascal Otto, Roser Puchol-Royo, Asier Ortega-Legarreta, Kristie Tanner, Jeroen Tideman, Sjoerd-Jan de Vries, Javier Pascual, Manuel Porcar, Adriel Latorre-Perez, Christian Abendroth. 2023. Multivariate comparison of taxonomic, chemical and technical data from 80 full-scale an-aerobic digester-related systems. bioRxiv doi: https://doi.org/10.1101/2023.09.08.556802
Start für europaweites Projekt zur Verbesserung der Patientenversorgung in Mitteleuropa
Annechristin Bonß Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden und die Carus Consilium Sachsen GmbH haben sich mit neun internationalen Experten aus sechs europäischen Ländern zusammengeschlossen, um gemeinsam in den nächsten drei Jahren patientenorientierte digitale Lösungen im Gesundheitssektor voranzutreiben.
Mit Unterstützung des Programms Interreg Central Europe werden im Rahmen des Projekts „Health Labs4Value“ fünf nationale Living Labs in Ungarn, Slowenien, der Tschechischen Republik, Deutschland und Polen eingerichtet. Diese Living Labs werden als Kooperationsräume dienen, in denen Gesundheitsorganisationen, Unternehmen, politische Entscheidungsträgerinnen und -träger, Patientinnen und Patienten sowie ihre Familien gemeinsam digitale Lösungen zur Verbesserung der Patientenversorgung entwickeln und testen können. Alle Living Labs werden ein länderübergreifendes Netzwerk bilden, um den Wissens- und Erfahrungsaustausch unter der Leitung des österreichischen Wissenspartners zu erleichtern. „Das Projekt Health Labs4Value ist eine einzigartige Gelegenheit, alle wichtigen Akteure im Gesundheitswesen zusammenzubringen, um gemeinsam an der Verbesserung der Patientenversorgung zu arbeiten“, so der Projektkoordinator István Hegedűs von CTRIA (Central Transdanubian Regional Innovation Agency) aus Ungarn. Die internationale Zusammenarbeit verschiedener Expertenteams aus Mitteleuropa bringt viele Vorteile mit sich. „Die Hochschulmedizin Dresden setzt schon lange auf die Vernetzung mit Akteurinnen und Akteuren der Krankenversorgung. Dies machen wir nicht nur in der Region, sondern auch über die Grenzen Sachsens und Deutschland hinaus. Mit diesen wertvollen Kooperationen kommen wir mit guten Partnern zusammen, nutzen Synergien und schaffen die Voraussetzung für eine moderne Patientenversorgung“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Carl Gustav Carus Dresden.
Vorteile der interdisziplinären Zusammenarbeit
– Entwicklung kosteneffektiver und nachhaltiger Versorgungsstrategien, um sicherzustellen, dass Patientinnen und Patienten sowie ihre Familien Zugang zu angemessener Behandlung erhalten.
– Verbesserung der Patientensicherheit
– Übergang von einem krankheitszentrierten zu einem personenzentrierten Ansatz – mit hohem Nutzen für die Patientinnen und Patienten.
– Verbesserung der Zusammenarbeit entlang der Wertschöpfungskette des Gesundheitssystems.
Nationale Living Labs
Auf nationaler Ebene werden die Living Labs spezifische Herausforderungen identifizieren und lokale Bedürfnisse ansprechen.
– Slowenien: Das Living Lab in Slowenien soll es Patientinnen und Patienten mit konservativ behandelten Verletzungen ermöglichen, die Qualität ihrer Rehabilitation in ihrer häuslichen Umgebung zu verbessern.
– Deutschland: Das Living Lab in Deutschland wird sich mit der Unterstützung älterer Menschen befassen, damit diese so lange wie möglich selbständig und (fast) unabhängig in ihrer häuslichen Umgebung leben können.
– Polen: Das Living Lab in Polen zielt darauf ab, die Arbeit des medizinischen und nicht-medizinischen Personals in der Verwaltung und im Patientenservice durch Digitalisierung und den Einsatz neuer Technologien wie biometrischer Unterschriften zu rationalisieren.
– Ungarn: Das Living Lab in Ungarn zielt darauf ab, die Abläufe in der ambulanten und stationären Versorgung, einschließlich der ärztlichen Untersuchung sowie der prä- und postoperativen Verfahren, durch Automatisierung des Fallmanagements und innovative digitale Systeme zu optimieren.
– Tschechische Republik: Das Living Lab in der Tschechischen Republik wird sich auf neue Technologien konzentrieren, die die Kommunikation über die Langzeitbehandlung, die Aufklärung und die häusliche Pflege chronischer Patientinnen und Patienten mit Technologien unterstützen, die helfen, den Zustand der Patientinnen und Patienten in einer häuslichen Umgebung zu überwachen und bei Bedarf direkten Kontakt mit medizinischem Fachpersonal aufzunehmen.
Über Health Labs4Value
Das Projekt Health Labs4Value hat eine Laufzeit von drei Jahren und verfügt über ein Budget von 2,19 Mio. EUR. Das Ziel des Innovationsprojektes ist die Verbesserung der Patientenversorgung, die Sicherheit und die Effizienz. Die neu eingeführten digitalen Versorgungslösungen werden so auch erhebliche Auswirkungen auf den Gesundheitssektor in Europa und Deutschland haben.
Über das Universitätsklinikum Carl Gustav Carus Dresden
Als Krankenhaus der Maximalversorgung deckt das Universitätsklinikum Dresden das gesamte Spektrum der modernen Medizin ab. 26 Kliniken und Polikliniken, vier Institute und 17 interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten ermöglichen medizinische Versorgung auf höchstem Niveau. Mit 1.410 Betten und 210 Plätzen für die tagesklinische Behandlung von Patienten ist es das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 1.000 Ärztinnen und Ärzte sowie 2.000 Schwestern und Pfleger kümmern sich um das Wohl der Patientinnen und Patienten.
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Projektmanagerin: Ulrike Sobczak
Tel.: 0351 458 3729
E-Mail: ulrike.sobczak@ukdd.de
www.uniklinikum-dresden.de
Weitere Informationen:
http://Weitere Informationen zum Projekt Health Labs4Value:
http://www.interreg-central.eu/projects/health-labs4value
http://www.facebook.com/HealthLabs4Value
http://www.linkedin.com/groups/9346332/
Wie Bäume die Wolkenbildung beeinflussen
Mirjam van Daalen Abteilung Kommunikation
Paul Scherrer Institut (PSI)
Im Rahmen des internationalen CLOUD-Projekts am Kernforschungszentrum CERN haben Forschende des PSI sogenannte Sesquiterpene – gasförmige Kohlenwasserstoffe, die von Pflanzen emittiert werden – als wesentlichen Faktor der Wolkenbildung identifiziert. Die Erkenntnis könnte helfen, die Unsicherheiten von Klimamodellen zu reduzieren und präzisere Vorhersagen zu treffen. Die Studie erscheint jetzt im Fachmagazin Science Advances.
1,5 bis 4,4 Grad Celsius globale Klimaerwärmung bis 2100 im Vergleich zur vorindustriellen Zeit – so lautet die aktuelle Prognose des Weltklimarates IPCC. Sie basiert auf verschiedenen Szenarien, wie sich die Treibhausgasemissionen der Menschheit entwickeln. Im besten Fall, wenn wir die Emissionen schnell und radikal eindämmen, erreichen wir also noch das 1,5-Grad-Ziel des Pariser Klimaabkommens. Im schlechtesten Fall liegen wir weit darüber. Wobei auch diese Aussagen jeweils mit Unsicherheiten behaftet sind. So könnte der Temperaturanstieg im ungünstigsten Fall mit weiterhin stark ansteigenden Emissionen anstatt bei 4,4 Grad auch nur bei 3,3 oder aber sogar bei 5,7 Grad Celsius liegen.
Diese Unsicherheiten der Klimavorhersagen, wie sich die Temperatur bei konkreter Entwicklung der Treibhausgase verändern wird, liegen im Wesentlichen daran, dass die Wissenschaft noch nicht alle Vorgänge in der Atmosphäre – das Zusammenspiel der verschiedenen in ihr enthaltenen Gase und Schwebstoffe – im Detail verstanden hat. Dies aufzuklären ist das Ziel des CLOUD-Projekts (Cosmics Leaving Outdoor Droplets), das Atmosphärenforschende in einer internationalen Kooperation am Kernforschungszentrum CERN in Genf durchführen. Das PSI hat die CLOUD-Kammer mit gebaut und gehört zum Lenkungsausschuss des Projekts.
Mysterium Wolkenbildung
Vor allem, wie sich die Bedeckung mit Wolken in Zukunft entwickeln wird, bleibt bislang noch weitgehend nebulös. Sie ist jedoch ein wesentlicher Faktor für das Klima, da mehr Wolken mehr Sonnenstrahlung reflektieren und dadurch einen kühlenden Effekt auf die Erdoberfläche haben.
Um die Wassertröpfchen, aus denen Wolken bestehen, zu bilden, braucht Wasserdampf feste oder flüssige Partikel, an denen er kondensieren kann, sogenannte Kondensationskeime. Das sind komplexe Aerosole, winzig kleine, feste oder flüssige Partikel mit einem Durchmesser zwischen 0,1 und 10 Mikrometern, die sowohl durch Prozesse in der Natur als auch durch uns Menschen verursacht und in die Luft emittiert werden. Diese Partikel können Salz aus dem Meer, Sand aus der Wüste, Schadstoffe aus Industrie und Verkehr oder Russpartikel von Feuern enthalten. Etwa die Hälfte der Kondensationskeime aber entsteht erst in der Luft, indem sich verschiedene gasförmige Moleküle verbinden und dabei in den festen Aggregatzustand übergehen, ein Phänomen, das Fachleute „Nukleation“ oder „New Particle Formation“ (NPF) nennen, also auf Deutsch Partikelneubildung. Solche Partikel sind zu Anfang noch winzig, kaum grösser als ein paar Nanometer, können mit der Zeit aber durch die Kondensation gasförmiger Moleküle wachsen und Kondensationskeime werden.
Klimagase, die man riechen kann
Der Hauptteil der vom Menschen emittierten Gase, die zur Partikelneubildung beitragen, ist Schwefeldioxid in Form von Schwefelsäure, das vor allem aus der Verbrennung von Kohle und Öl stammt. Zu den wichtigsten natürlichen Gasen, die eine Rolle spielen, gehören sogenannte Isoprene, Monoterpene und Sesquiterpene. Das sind Kohlenwasserstoffe, die vor allem von der Vegetation freigesetzt werden. Sie sind wesentliche Bestandteile der ätherischen Öle, die wir riechen, wenn zum Beispiel Gras geschnitten wird oder wir im Wald spazieren gehen. Wenn diese Substanzen in der Luft oxidieren, bilden sie Partikel.
„Zu beachten ist, dass die Konzentration des Schwefeldioxids in der Luft in den letzten Jahren durch strengere Umweltgesetze deutlich geringer geworden ist und auch weiterhin abnehmen wird“, sagt Lubna Dada, Atmosphärenwissenschaftlerin am PSI. „Die Konzentration der Terpene dagegen nimmt zu, weil Pflanzen unter Stress mehr davon freisetzen – beispielsweise wenn Temperaturen und Wetterextreme zunehmen und die Vegetation häufiger Dürren ausgesetzt ist.“ Die grosse Frage für die Verbesserung der Klimaprognosen ist also, welcher Faktor überwiegt, sodass die Wolkenbildung zunehmen oder abnehmen wird. Und dazu müsste man bei jeder dieser Substanzen wissen, welchen Beitrag sie bei der Partikelneubildung leisten. Zu Schwefelsäure weiss man schon viel, und auch die Rolle von Monoterpenen und Isopren ist dank Feldmessungen und Kammerversuchen wie CLOUD, an denen das PSI beteiligt war, inzwischen besser bekannt.
Sesquiterpene sind selten, aber effektiv
Sesquiterpene befanden sich bislang noch nicht im Fokus der Forschung. „Das liegt daran, dass sie recht schwer zu messen sind“, erklärt Dada. „Zum einen, weil sie sehr schnell mit Ozon reagieren, und zum anderen, weil sie viel seltener vorkommen als die anderen.“ Während pro Jahr rund 465 Millionen Tonnen Isopren und 91 Millionen Tonnen Monoterpene ausgestossen werden, kommen Sesquiterpene nur auf 24 Millionen Tonnen. Dennoch – das hat die neue Studie, deren Hauptautorin Dada ist, ergeben – spielen diese Verbindungen bei der Wolkenbildung eine wichtige Rolle. Laut der Messungen bilden sie bei gleicher Konzentration zehnmal mehr Partikel als die anderen beiden organischen Substanzen.
Um das herauszufinden, hat Dada mit ihren Koautoren die einzigartige CLOUD-Kammer am Kernforschungszentrum CERN genutzt. Dabei handelt es sich um einen abgeschotteten Raum zur Simulation verschiedener atmosphärischer Bedingungen. „Mit fast 30 Kubikmetern ist diese Klimakammer im Vergleich zu anderen ähnlichen Einrichtungen weltweit die reinste ihrer Art“, sagt Dada. „So rein, dass sie die Untersuchung von Sesquiterpenen auch dann ermöglicht, wenn die geringe Konzentration in der Atmosphäre nachgestellt wird.“
Genau das war das Ziel der Studie. Sie sollte die biogene Partikelbildung in der Atmosphäre simulieren. Und zwar so, wie sie in vorindustrieller Zeit stattfand, als es noch keine menschlichen Schwefeldioxid-Emissionen gab. Im Vergleich zu heute lässt sich so der menschliche Einfluss klarer herausarbeiten und in die Zukunft projizieren. In der Natur ist das Schwefeldioxid des Menschen jedoch längst überall. Auch deswegen kam nur die CLOUD-Kammer infrage. Zudem lässt sich dort unter kontrollierten Bedingungen eine vorindustrielle Mischung herstellen.
Dauerhafte Partikel führen zu mehr Wolken
Und so zeigte sich bei den Versuchen, dass in reiner Luft die Oxidation einer natürlichen Mixtur von Isopren, Monoterpenen und Sesquiterpenen eine grosse Vielfalt von organischen Verbindungen produziert – sogenannte ULVOC (Ultra-Low-Volatility Organic Compounds). Diese Moleküle sind wenig flüchtig und bilden daher sehr effizient Partikel. Der enorme Effekt der Sesquiterpene offenbarte sich, als die Forschenden ihnen Isopren und Monoterpene hinzumischten: Schon bei nur zwei Prozent Zugabe verdoppelte sich die Rate der Partikelneubildung. „Erklären lässt sich das damit, dass ein Sesquiterpen-Molekül 15 Kohlenstoffatome enthält, während Monoterpene nur zehn und Isopren fünf enthalten“, sagt Dada.
Die Studie offenbart einerseits einen weiteren Faktor, mit dem die Vegetation Wetter und Klima beeinflussen kann. Vor allem aber schlagen die Forschenden aufgrund ihrer Ergebnisse vor, neben Isopren und Monoterpenen künftig auch die Sesquiterpene als eigenen Faktor in die Klimamodelle aufzunehmen, um die Prognosen zu verbessern. Zumal mit der Abnahme der Schwefeldioxid-Konzentration in der Atmosphäre und gleichzeitig steigenden biogenen Emissionen infolge von Klimastress die Rolle letzterer für das Klima der Zukunft immer wichtiger werden dürfte. Allerdings sind für die weitere Verbesserung der Vorhersagen zur Wolkenbildung auch noch andere Studien notwendig. Diese sind am Labor für Atmosphärenchemie bereits in Planung. „Als Nächstes“, sagt Imad El Haddad, Gruppenleiter für Molekulare Prozesse in der Atmosphäre, „wollen wir mit unseren CLOUD-Partnern schauen, was damals im Zuge der Industrialisierung genau geschah, als die natürliche Atmosphäre zunehmend mit anthropogenen Gasen wie Schwefeldioxid, Ammoniak und anderen anthropogenen organischen Verbindungen vermischt wurde.“
Über das PSI
Das Paul Scherrer Institut PSI entwickelt, baut und betreibt grosse und komplexe Forschungsanlagen und stellt sie der nationalen und internationalen Forschungsgemeinde zur Verfügung. Eigene Forschungsschwerpunkte sind Zukunftstechnologien, Energie und Klima, Health Innovation und Grundlagen der Natur. Die Ausbildung von jungen Menschen ist ein zentrales Anliegen des PSI. Deshalb sind etwa ein Viertel unserer Mitarbeitenden Postdoktorierende, Doktorierende oder Lernende. Insgesamt beschäftigt das PSI 2200 Mitarbeitende, das damit das grösste Forschungsinstitut der Schweiz ist. Das Jahresbudget beträgt rund CHF 420 Mio. Das PSI ist Teil des ETH-Bereichs, dem auch die ETH Zürich und die ETH Lausanne angehören sowie die Forschungsinstitute Eawag, Empa und WSL. Einblick in die spannende Forschung des PSI mit wechselnden Schwerpunkten erhalten Sie 3-mal jährlich in der Publikation 5232 – Das Magazin des Paul Scherrer Instituts.
Wissenschaftliche Ansprechpartner:
Dr. Lubna Dada
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 53 17, E-Mail: lubna.dada@psi.ch [Englisch]
Dr. Imad El Haddad
Gruppenleiter für Molekulare Prozesse in der Atmosphäre
Labor für Atmosphärenchemie
Paul Scherrer Institut, Forschungsstrasse 111, 5232 Villigen PSI, Schweiz
Telefon: +41 56 310 29 95, E-Mail: imad.el-haddad@psi.ch [Englisch/Französisch]
Originalpublikation:
Role of sesquiterpenes in biogenic new particle formation
Lubna Dada et al.
Science Advances, 08.09.2023
DOI: 10.1126/sciadv.adi5297
Weitere Informationen:
https://www.psi.ch/de/node/59053?access-token=3CsVBZFi88essJqk
Weltrekord: Reichweitenstärkstes Elektroauto der Welt kommt aus München
Andreas Huber Corporate Communications Center
Technische Universität München
Studierende der Technischen Universität München (TUM) haben das reichweitenstärkste Elektroauto der Welt entwickelt. Das Team fuhr über 2573 Kilometer mit einer Akkuladung. Im Zuge der IAA Mobility kämpfte das Team am Flughafen München um den neuen Weltrekord und konnte den Titel erfolgreich nach München holen. Ganze sechs Tage dauerte der Versuch, für den das Team auf Feldbetten im Flughafenhangar schlief.
Es war ein Marathon und kein Sprint, der dem TUfast Eco Team bevorstand, um einen neuen Weltrekord an die TUM zu holen. Sechs Tage sollte es schließlich dauern, bis feststand: Das reichweitenstärkste Elektroauto der Welt kommt aus München. Für den Guinness-Weltrekord modifizierte die Studierendeninitiative den „muc022“, mit dem das Team bereits an Wettbewerben für effiziente Elektroautos teilnahm. Dabei setzen die Studierenden vor allem auf eine durchdachte Aerodynamik und auf Leichtbau. Damit das Fahrzeug weltrekordtauglich wurde, bauten die jungen Ingenieur:innen einen größeren Akku ein, der 15,5 Kilowattstunden leistet.
Um die Rekordfahrt zu ermöglichen, stellte der Flughafen München einen leeren Flugzeughangar zur Verfügung. Der Hangar garantierte dem Team, auch bei schlechten Wetterbedingungen den Rekord einzufahren. Die Messlatte des bisherigen Rekordhaltenden lag bei 1608,54 Kilometern. Diese Strecke konnten die Münchner bereits nach vier Tagen zurücklegen. Da der Akku des muc022 aber noch nicht leer war, fuhr das Team weiter. Am Ende standen nach 99 Stunden Fahrzeit 2.573,79 Kilometer auf dem Tacho. Übersetzt bedeutet das Resultat auch, dass das TUfast Eco Team einen Verbrauch von 0,6 Kilowattstunden auf 100 Kilometer verzeichnen kann. Zum Vergleich: Extrem sparsame Serienfahrzeuge verbrauchen rund 13 kWh auf 100 Kilometer.
Wissenschaftsminister und TUM-Präsident gratulieren
Wissenschaftsminister Markus Blume gratuliert: „Weltrekord für die TUM! Herzlichen Glückwunsch an das TUfast Eco Team zu diesem grandiosen Erfolg. Wir sind stolz auf die Studentinnen und Studenten. Sie machen den einzigartigen TUM-Spirit aus. Und wir sind stolz auf unsere Spitzenuniversität, die Pioniergeist fordert und fördert. An der TUM gilt: Studieren und Probieren. Das Ergebnis: Internationale Ingenieurskunst made in Bavaria. Mit dem Weltrekord beweisen unsere Studentinnen und Studenten nicht nur sportlichen Ehrgeiz. Dahinter steckt mehr: Sie wollen die Zukunft der Mobilität nachhaltig gestalten.“
TUM-Präsident Thomas F. Hofmann gratuliert zum Weltrekord: „Das reichweitenstärkste Elektroauto der Welt kommt aus München! An der TUM fördern wir studentische Initiativen unterschiedlichster Fachrichtungen und bieten Raum für Kreativität neben dem Studium. Dass unsere Teams dabei immer wieder Spitzenleistungen erbringen, macht mich besonders stolz. Es bestätigt aber auch, dass wir in der Lehre vieles richtig machen. Studentische Gruppen bringen zusätzliches Leben auf den Campus und fördern Talente zum Teil schon während des Bachelorstudiums. Meine Gratulation an das TUfast Eco Team zu diesem Weltrekord!“
TUfast Eco Team erfolgreich in internationalen Wettbewerben
Neben Rekordversuchen nimmt das TUfast Eco Team regelmäßig an internationalen Wettbewerben wie dem Shell Eco Marathon teil. Hier misst sich die Gruppe mit Teams anderer Universitäten in unterschiedlichen Disziplinen. Dabei spielen unter anderem auch die Möglichkeiten des autonomen Fahrens eine Rolle. „Unzählige Stunden Arbeit neben dem Studium sind in die Vorbereitung des Rekords geflossen. Umso mehr freuen wir uns, dass wir den Weltrekord nun halten können. Der muc022 war schon bei einigen Wettbewerben erfolgreich, nun folgte der Ritterschlag. Vielen Dank an alle, die uns unterstützt haben“, freut sich das TUfast Eco Team.
Studentische Forschungsgruppen und Studierendeninitiativen haben an der TUM eine lange Tradition. Teams wie TUfast bieten den Studierenden die Möglichkeit, das im Studium erarbeitete Wissen direkt in die Praxis umzusetzen und selbstständig zu forschen. Dabei können die Gruppen regelmäßig in Wettbewerben überzeugen und standen oft an der Spitze.
Weitere Informationen:
Technische Daten des muc022 für den Weltrekord:
• Antrieb: Ein permanent erregter Synchronmotor (PSM)
• Leistung: 400 Watt
• Widerstandsbeiwert (cW): 0,159
• Gewicht: 170 Kilogramm ohne Fahrer:in
Der volle Titel des Rekords lautet: Greatest distance by electric vehicle, single charge (non-solar)
Zusatzinformationen für Redaktionen:
Fotos zum Download: https://mediatum.ub.tum.de/1718820
Wissenschaftliche Ansprechpartner:
Linus Simons
Teammitglied bei TUfast Eco
l.simons@tufast.de
Neues Alzheimer-Medikament Leqembi: Die wichtigsten Fragen und Antworten
Astrid Marxen Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.
Düsseldorf, 7. September 2023 – In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.
In Deutschland wird es vermutlich bald eine neues Alzheimer-Medikament geben. Die Europäische Arzneimittelbehörde EMA entscheidet in den nächsten Monaten über die Zulassung des Wirkstoffes Lecanemab. Ein positives Votum gilt als wahrscheinlich. Dann kann der Wirkstoff unter dem Namen Leqembi zur Behandlung der Alzheimer-Krankheit verschrieben werden. In den USA wird Leqembi schon eingesetzt. Vor dem Welt-Alzheimertag am 21. September beantwortet die gemeinnützige Alzheimer Forschung Initiative (AFI) gemeinsam mit Prof. Stefan Teipel die wichtigsten Fragen zum neuen Medikament. Teipel ist Leiter der Klinischen Forschung des DZNE am Standort Rostock/Greifswald und Mitglied im Wissenschaftlichen Beirat der AFI.
Wie funktioniert Leqembi?
Leqembi wirkt auf Grundlage einer passiven Immunisierung. Es ist ein Antikörper, der sich gegen Ablagerungen aus dem Protein Beta-Amyloid richtet. Diese Ablagerungen tragen mutmaßlich zum Absterben von Nervenzellen im Gehirn bei. Leqembi entfernt diese Ablagerungen im Gehirn. In der Zulassungsstudie hat der Antikörper nach 18 Monaten den geistigen Abbau von Patientinnen und Patienten um 27 Prozent verlangsamt.
Kann Leqembi Alzheimer heilen?
Leqembi wäre in Deutschland das erste Medikament, das an einer der grundlegenden Krankheitsursachen ansetzt. Trotzdem kann es die Alzheimer-Krankheit weder stoppen noch heilen. Der Krankheitsverlauf kann verzögert werden. Die Wirkung bei Erkrankten wird von vielen Alzheimer-Expertinnen und -Experten aber als eher gering eingestuft. „Mit Leqembi kann man einen Krankheitsaufschub von fünf bis sieben Monate erreichen. Es gibt die Hoffnung, dass sich der Effekt mit längerer Einnahme noch erhöht. Dafür haben wir aber bisher keine Daten. Ob diese Wirkung für Patientinnen und Patienten im Alltag spürbar sein wird, ist daher aktuell noch unklar“, erklärt Teipel.
Welche Nebenwirkungen können auftreten?
In der Zulassungsstudie sind bei 17 Prozent der Probandinnen und Probanden lokale Hirnschwellungen und Mikroblutungen aufgetreten. In den meisten Fällen verliefen diese symptomlos, aber einige Erkrankte hatten einen schwerwiegenden Verlauf. „Die Behandlung mit Leqembi kann gravierende Nebenwirkungen haben. Deshalb ist eine engmaschige
Kontrolle bei einer Behandlung sehr wichtig“, betont Teipel.
Für welche Erkrankten ist Leqembi geeignet, für welche nicht?
Nur Alzheimer-Patientinnen und -Patienten in einem frühen Krankheitsstadium kommen für eine Behandlung mit Leqembi in Frage. Erkrankte mit bereits fortgeschrittenen Symptomen oder einer anderen Form der Demenz werden nicht von einer Behandlung profitieren. Bei bestimmten Gruppen ist die Gefahr von Nebenwirkungen besonders groß. Deshalb müssen Aufwand, Nutzen und Risiken vor Behandlungsbeginn individuell überprüft werden.
„Es muss im Einzelfall immer genau abgewogen werden, wer mit Leqembi behandelt werden kann. Bei Erkrankten, die Blutverdünner nehmen, und solchen, die eine zweifache Kopie des ApoE4-Gens tragen, wäre ich eher zurückhaltend. Die Gefahr von Hirnblutungen ist für diese Patientinnen und Patienten erhöht“, so Teipel. ApoE4 ist ein Gen, dass das Risiko einer Alzheimer-Erkrankung erhöht. Da die Behandlung zeitintensiv und mit aufwändigen Untersuchungen verbunden ist, müssen Patientinnen und Patienten außerdem noch mobil und ausreichend belastbar sein.
„Wie viele Erkrankte für eine Behandlung geeignet sind, ist noch unklar. Das hängt unter anderem davon ab, mit welchen Auflagen eine EMA-Zulassung verbunden sein wird. Aktuell gibt es jährlich rund 200.000 Neuerkrankungen und eine ähnlich hohe Zahl von Menschen, die an einer leichten kognitiven Störung leiden, also an einer Vorstufe der Alzheimer-Krankheit. Von diesen beiden Gruppen wird aber nur ein geringer Prozentsatz für eine Behandlung in Frage kommen.“
Wie wird eine Behandlung mit Leqembi konkret aussehen?
Weil nur bestimmte Erkrankte für eine Behandlung geeignet sind, ist zunächst eine gründliche Diagnostik wichtig. Dazu kommt unter anderem entweder eine Liquor-Untersuchung, also eine Untersuchung des Nervenwassers, oder ein bildgebendes Verfahren namens Positronen-Emissions-Tomographie (PET) zum Einsatz. Damit wird nachgewiesen, ob schädliche Amyloid-Ablagerungen vorliegen. Teipel empfiehlt außerdem einen Test zum Nachweis des Alzheimer-Risikogens ApoE4. „Ein ApoE-Gentest sollte gemacht werden, weil das wichtig ist für die Risikoabschätzung von Nebenwirkungen.“
Wird eine Behandlung von dem oder der Erkrankten gewünscht und vom Facharzt befürwortet, dann wird Leqembi alle zwei Wochen durch eine Infusion verabreicht. Nach Angaben der Hersteller Biogen und Eisai dauert eine Behandlung ca. 1 Stunde. „Wegen der Gefahr von Hirnschwellungen und -blutungen müssen die Patientinnen und Patienten innerhalb der ersten 15 Behandlungsmonate alle drei Monate zur Magnetresonanztomographie kommen. Treten Unregelmäßigkeiten oder Beschwerden auf, dann muss die Kontrolle durch MRTs engmaschiger erfolgen, zum Beispiel wöchentlich oder zweiwöchentlich“, sagt Teipel.
Wo kann eine Behandlung stattfinden? Gibt es genügend Behandlungskapazitäten?
Eine Behandlung kann nur in spezialisierten Praxen oder Einrichtungen stattfinden, die über die nötigen diagnostischen, therapeutischen und personellen Ressourcen verfügen. „Eine Behandlung können hierzulande universitäre und nicht universitäre Gedächtnissprechstunden aber auch Schwerpunktpraxen anbieten. Nicht alle diese Einrichtungen haben aber aktuell die nötigen Kapazitäten, um Nervenwasseruntersuchungen durchzuführen. Außerdem fehlen in der Regel Infusionsplätze. Da müsste bei einer Zulassung von Leqembi nachgerüstet werden“, erklärt Teipel.
Für die Kontrolle der Nebenwirkungen werden Magnetresonanztomographen und vor allem erfahrene Radiologinnen und Radiologen gebraucht. „Hier sehe ich einen möglichen Engpass. Eine lokale Hirnschwellung oder Mikroblutung auf einem MRT-Bild zu erkennen und zu beurteilen, ob diese Veränderungen im Verlauf zugenommen haben, ist sehr anspruchsvoll, zugleich aber wichtig für die Sicherheit der Patienten. Radiologinnen und Radiologen müssten im Falle einer Zulassung entsprechend geschult werden.“
Wie hoch sind die Kosten? Bezahlen die Krankenkassen die Behandlung?
Wie teuer eine Behandlung mit Leqembi sein wird, ist noch nicht bekannt. In den USA betragen die Kosten für das Medikament alleine 26.500 Dollar im Jahr, das sind umgerechnet knapp 25.000 Euro. Das beinhaltet noch nicht die Kosten für die Durchführung der Infusionen und der Sicherheits-MRTs. Fachleute rechnen damit, dass eine Behandlung auch hierzulande ähnlich teuer sein wird. Der Preis für ein neu zugelassenes Medikament wird für das erste Jahr vom Hersteller festgesetzt. Die Kosten werden von den Krankenkassen übernommen.
Über die Alzheimer Forschung Initiative e.V.
Die Alzheimer Forschung Initiative e.V. (AFI) ist ein gemeinnütziger Verein, der das Spendenzertifikat des Deutschen Spendenrats e.V. trägt. Seit 1995 fördert die AFI mit Spendengeldern Forschungsprojekte engagierter Alzheimer-Forscher*innen und stellt kostenloses Informationsmaterial für die Öffentlichkeit bereit. Bis heute konnte die AFI 360 Forschungsaktivitäten mit 14,5 Millionen Euro unterstützen und über 925.000 Ratgeber und Broschüren verteilen. Interessierte und Betroffene können sich auf www.alzheimer-forschung.de fundiert über die Alzheimer-Krankheit informieren und Aufklärungsmaterial anfordern. Ebenso finden sich auf der Webseite Informationen zur Arbeit des Vereins und allen Spendenmöglichkeiten. Botschafterin der AFI ist die Journalistin und Sportmoderatorin Okka Gundel.
Pressekontakt
Alzheimer Forschung Initiative e.V.
Astrid Marxen
Kreuzstr. 34
40210 Düsseldorf
0211 – 86 20 66 28
presse@alzheimer-forschung.de
www.alzheimer-forschung.de/presse
Weitere Informationen:
https://www.alzheimer-forschung.de/presse/pressemitteilungen/meldung/leqembi-die… – Pressemeldung als pdf
http://www.alzheimer-forschung.de/presse/fotos-videos/ – Kostenfreies Fotomaterial
http://www.alzheimer-forschung.de/alzheimer – Weitere Informationen zur Alzheimer-Krankheit
Energiesparend: Pumpen sollten Herzschlag folgen
Andreas Rothe Communications and Events
Institute of Science and Technology Austria
Das Pumpen von Flüssigkeiten scheint ein gelöstes Problem zu sein, aber die Optimierung dieses Prozesses ist immer noch ein aktives Forschungsgebiet. Jede Anwendung – von Industrie bis Haushalt – würde von Energieeinsparungen profitieren. Forscher des Institute of Science and Technology Austria (ISTA) haben nun gezeigt, wie gepulstes Pumpen die Reibung und den Energieverbrauch beim Pumpen verringern kann. Dabei ließen sie sich von einem Pumpsystem inspirieren, das jeder Mensch kennt: dem Herz.
Laut einer internationalen Studie werden fast zwanzig Prozent des weltweiten Stromverbrauchs für das Pumpen von Flüssigkeiten verwendet – von industriellen Anwendungen, die Öl und Gas transportieren, bis hin zu Heizungsanlagen, die Warmwasser in Privathaushalten pumpen. Ein Forscherteam um Davide Scarselli und Björn Hof vom Institute of Science and Technology Austria (ISTA) suchte nach einer Möglichkeit, diesen Energiebedarf zu reduzieren und ließ sich dabei von der Natur inspirieren. In einer neuen Studie in der Fachzeitschrift Nature zeigten sie, dass das pulsierende Pumpen von Flüssigkeiten durch ein Rohr, ähnlich wie das menschliche Herz Blut pumpt, die Reibung im Rohr reduzieren kann – und damit auch den Energieverbrauch.
Turbulente Reibung
„Im Laufe der Jahre versuchten Forscher:innen und Ingenieur:innen, das Pumpen von Flüssigkeiten effizienter zu machen“, sagt Davide Scarselli, Erstautor der Studie. „Zwar wurden viele Lösungen simuliert oder in Laboren getestet, doch sie sind oft zu komplex und daher zu kostspielig, um in realen industriellen Anwendungen eingesetzt zu werden. Wir suchten nach einem Ansatz, der keine komplizierten strukturellen Änderungen an der Infrastruktur, wie Sensoren und Motoren, erfordert.“
Anstatt die Beschaffenheit der Rohre zu verändern, um die Reibung zwischen der fließenden Flüssigkeit und den Rohrwänden zu verringern, versuchten die Wissenschafter einen anderen Ansatz. „Wie jeder Teil unseres Körpers wurde auch das menschliche Herz durch Millionen von Jahren der Evolution geformt“, erklärt Björn Hof, Professor am ISTA. „Im Gegensatz zu herkömmlichen mechanischen Pumpen, die einen gleichmäßigen Strom von Flüssigkeit erzeugen, pulsiert das Herz. Wir waren neugierig, ob diese besondere Antriebsform einen Vorteil bietet.“
Zu diesem Zweck schufen Scarselli und sein Kollege Atul Varshney mehrere Versuchsaufbauten mit durchsichtigen Rohren unterschiedlicher Länge und Durchmesser, durch die sie Wasser pumpten. „Die Ausgangsbasis für unsere Experimente war ein gleichmäßiger Wasserfluss, in dem sich Wirbel chaotisch bewegten, während sie durch das Rohr gedrückt wurden“, erklärt Scarselli. Diese Wirbel werden als Turbulenzen bezeichnet und verursachen einen Großteil der Reibung zwischen der Flüssigkeit und den Wänden des Rohrs. Die Überwindung eben dieser Reibung kostet Energie.
Die Forscher machten die Turbulenzen sichtbar, indem sie dem Wasser winzige reflektierende Partikel hinzufügten und mit einem Laser durch das durchsichtige Rohr schienen. Scarselli fügt hinzu: „Der Laser schießt Licht in einem horizontalen Bogen durch das Rohr und wird von den Partikeln reflektiert. Wir machten Bilder davon, anhand derer wir erkennen konnten, ob die Strömung turbulent oder laminar war, wobei letzteres bedeutet, dass es keine Wirbel gab.“
Weniger Reibung durch Ruhephase
Als nächstes probierten die Forscher verschiedene Arten des pulsierenden Pumpens aus. Bei einigen Pulsformen wurde das Wasser zunächst langsam beschleunigt und dann schnell gestoppt, bei anderen war es umgekehrt. Hof erklärt die Ergebnisse: „Normalerweise erhöht das pulsierende Pumpen den Widerstand und die benötigte Energie, was nicht das war, was wir suchten. Als wir jedoch eine kurze Ruhephase zwischen den Impulsen einfügten, in der die Pumpe das Wasser nicht antreibt – so wie es das menschliche Herz tut –, erzielten wir viel bessere Ergebnisse.“
Durch diese Ruhephasen zwischen den Pumpphasen wird die Menge der Turbulenzen im Rohr drastisch reduziert. „Während der Ruhephase nehmen die Turbulenzen ab und es lässt die anschließende Beschleunigungsphase die Reibung viel effektiver reduzieren“, so Scarselli weiter.
Für eine optimierte pulsierende Pumpbewegung, die der des menschlichen Herzens ähnelt, fanden die Forscher eine Verringerung der mittleren Reibung von 27 Prozent und eine Reduzierung des Energiebedarfs um 9 Prozent. „Eine Verringerung der Reibung und der turbulenten Fluktuationen ist im biologischen Kontext eindeutig von Vorteil, da sie Schäden an den Zellen in der innerste Schicht unserer Blutgefäße verhindert, die empfindlich auf Scherstress reagieren. Daraus könnten wir möglicherweise lernen und dies in zukünftigen Anwendungen nutzen“, erklärt Hof.
Scarselli fügt hinzu: „Während wir im Labor vielversprechende Ergebnisse gezeigt haben, ist die Anwendung unserer Forschung in der realen Welt weniger einfach. Um diese pulsierenden Bewegungen zu erzeugen, müssten die Pumpen umgerüstet werden. Dies wäre jedoch immer noch viel günstiger als Änderungen an den Rohrwänden oder der Einbau von Motoren. Wir hoffen, dass andere Wissenschafter:innen auf unseren Ergebnissen aufbauen werden, um diese von der Natur inspirierten Lösungen für industrielle Anwendungen zu erforschen.“
Projektförderung
Diese Arbeit wurde unterstützt durch das Grant 662962 der Simons-Stiftung und durch den Österreichischen Wissenschaftsfonds, Grant I4188-N30, im Rahmen der Forschungseinheit FOR 2688 der Deutschen Forschungsgemeinschaft.
Originalpublikation:
D. Scarselli, J. M. Lopez, A. Varshney, and B. Hof. 2023. Turbulence suppression by cardiac cycle inspired pulsatile driving of pipe flow. Nature. DOI: https://doi.org/10.1038/s41586-023-06399-5 / https://www.nature.com/articles/s41586-023-06399-5
Weitere Informationen:
https://ista.ac.at Institute of Science and Technology Austria (ISTA)
https://ista.ac.at/de/forschung/hof-gruppe/ Hof Gruppe am ISTA
Unterschätzte Gefahr und Ressource am Meeresgrund
Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Neues Dinoflagellaten-Bestimmungsbuch beleuchtet Bedeutung der marinen Einzeller.
Heute legt die Meeresbiologin Dr. Mona Hoppenrath von Senckenberg am Meer in Wilhelmshaven gemeinsam mit internationalen Kolleg*innen die zweite, erweiterte Auflage des weltweit umfassendsten Bestimmungsbuchs für marine, benthisch lebende Dinoflagellaten vor: „Marine benthic dinoflagellates – their relevance for science and society“. Neben der Beschreibung zahlreicher neuer Arten, erstmals auch anhand molekulargenetischer Daten, ordnet das Buch die weltweiten Gefahren durch die oftmals toxischen Einzeller ein – aber auch ihren Nutzen für die Wissenschaft und als potenzielle Nährstoff- und Energielieferanten.
Die mikroskopisch kleinen Dinoflagellaten sind in der breiten Öffentlichkeit kaum bekannt, dabei ist ihr Einfluss auf Natur und Mensch beträchtlich. Weltweit in Salz- und Süßgewässern verbreitet spielen die winzigen Einzeller eine wichtige Rolle in aquatischen Nahrungsnetzen – die meisten Arten als Teil des Planktons, die benthischen in den Sedimenten am Meeresgrund oder epiphytisch auf Algen, Seegras oder Korallen. „Einige Arten produzieren Toxine, die beim Menschen ernsthafte Vergiftungen hervorrufen können und auch für andere Meeresorganismen schädlich sind“, erläutert Dr. Mona Hoppenrath, Wissenschaftlerin bei Senckenberg am Meer in Wilhelmshaven und Erstautorin des Buchs. „Durch den Verzehr von Fisch und anderen Meeresfrüchten können etwa über die Nahrungskette angereicherte Giftstoffe von Gambierdiscus-Arten die Ciguatera-Krankheit auslösen, eine der häufigsten Fischvergiftungen.“ Eine Algenblüte der Gattung Ostreopsis wiederum brachte in den 1990er-Jahren Hunderte von Urlauber*innen an der ligurischen Küste ins Krankenhaus. „Als Folge des Klimawandels werden solche Fälle wahrscheinlich immer häufiger vorkommen“, ergänzt Hoppenrath.
Der vorliegende Band zeigt eindrucksvoll den Artenreichtum der marinen Einzeller, sein größter Teil ist der Taxonomie benthischer Dinoflagellaten in ihrer erstaunlichen Formenvielfalt gewidmet. 242 Arten in 63 Gattungen werden im Detail vorgestellt, illustriert mit mehr als 240 Farbabbildungen, etwa 250 elektronenmikroskopischen Aufnahmen und mehr als 330 Zeichnungen. Seit dem Vorgänger „Marine benthic dinoflagellates – unveiling their worldwide biodiversity“ sind 64 neue Arten, 20 neue Gattungen und 19 neue Kombinationen – also Umbenennungen – hinzugekommen. „Gleichzeitig zeigen wir sicherlich nur die ‚Spitze des Eisbergs‘“, so Hoppenrath, „Es ist davon auszugehen, dass neben den etwa 2.500 bekannten lebenden Dinoflagellaten-Arten viele weitere existieren, die noch nicht beschrieben sind!“ Parallel zur Neuauflage werden über die Website des „Centre of Excellence for Dinophyte Taxonomy“ (CEDiT) Bestimmungshilfen und Matrixschlüssel zur Gattungs- und Art-Bestimmung abrufbar sein: www.dinophyta.org/identification-keys.
Neu ergänzt ist ein Kapitel zur Relevanz der Dinoflagellaten für Wissenschaft und Gesellschaft, das die Gefahren durch die Einzeller, aber auch ihren möglichen Nutzen beleuchtet. „Dass beispielsweise einige Arten der Gattung Gambierdiscus über den Verzehr bestimmter tropischer und subtropischer Fische und Meeresfrüchte die lebensbedrohliche Ciguatera-Vergiftung auslösen können, wissen wir seit den 1970er-Jahren. Viele Küstenländer haben in der Folge Überwachungsprogramme eingeführt. Weltweit werden jährlich circa 20.000 bis 60.000 Fälle registriert“, berichtet Hoppenrath. „Dabei ist die Dunkelziffer groß: Schätzungsweise gibt es allein in den USA knapp 16.000 Vergiftungen im Jahr – möglicherweise werden weltweit nur 10 Prozent der Fälle den Gesundheitsbehörden gemeldet.“ Der fortschreitende Klimawandel scheint das Problem noch zu verstärken: Korallenbleichen infolge steigender Meerestemperaturen und andere Beeinträchtigungen von Korallen-Ökosystemen führen offenbar zu einem verstärkten Vorkommen von Gambierdiscus, weshalb der Weltklimarat davon ausgeht, dass Ciguatera-Vergiftungen weiter zunehmen werden. Gleichzeitig gibt es Hinweise, dass sich Gambierdiscus inzwischen auch in gemäßigte Regionen ausgebreitet hat.
Neben den gesundheitlichen Gefahren verursachen die toxischen Einzeller auch beträchtliche wirtschaftliche Schäden. In den USA entstehen durch Ciguatera schätzungsweise 17 Millionen US-Dollar Gesundheitskosten im Jahr. Von Einfuhrverboten für Riff-Fische infolge gemeldeter Vergiftungen werden insbesondere kleine tropische und subtropische Inselstaaten empfindlich getroffen, die stark von der Fischerei abhängig sind.
Auf der anderen Seite können Dinoflagellaten aber auch eine für den Menschen nützliche Ressource sein, beispielsweise als Lieferanten von wichtigen ungesättigten Fettsäuren für eine ausgewogene Ernährung. „Die planktische Art Crypthecodinium cohnii wurde bereits in der industriellen Produktion von Omega-3-Fettsäure als Nahrungsergänzungsmittel verwendet“, erzählt Hoppenrath. „Größtenteils sind die Möglichkeiten der industriellen Verwendung benthischer Dinoflagellaten, die Omega-3-Fettsäuren in großen Mengen produzieren, aber noch weitgehend unerforscht – hier gibt es großes Potenzial.“ Auch Biokraftstoffe könnten möglicherweise aus bestimmten Arten gewonnen werden. In der medizinischen Forschung haben sich einige der toxischen Verbindungen wiederum als vielversprechend für die Entwicklung von Therapeutika, beispielsweise in der Krebstherapie, gezeigt.
„Nicht zuletzt und überraschenderweise haben sich benthische Dinoflagellaten in der Naturwissenschaft für die evolutionäre Grundlagenforschung als sehr nützlich und wichtig erwiesen – zum Beispiel bei der Erforschung der Photosynthese und verschiedener Prozesse in Zellkernen. Es sind faszinierende Lebewesen, die wir aus vielen Gründen weiter erforschen müssen!“, schließt Hoppenrath.
Publikation: Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240
Presseexemplare können unter pressestelle@senckenberg.de bestellt werden!
Wissenschaftliche Ansprechpartner:
PD Dr. Mona Hoppenrath
Senckenberg am Meer Wilhelmshaven
Tel. 04421 9475 116
mhoppenrath@senckenberg.de
Originalpublikation:
Mona Hoppenrath, Nicolas Chomérat, Takeo Horiguchi, Shauna A. Murray & Lesley Rhodes: Marine benthic dinoflagellates – their relevance for science and society, 2023, 376 Seiten, 122 Abb., 8 Tab., 17 x 24 cm, gebunden, ISBN 978-3-510- 61424-0, Senckenberg-Buch 88, 2. voll. überarbeitete Neuauflage, 34.90 Euro, www.schweizerbart.de/9783510614240
Invasive Arten bedrohen die globale Vielfalt und Lebensgrundlage
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
In Österreich gibt es mehr als 2.000 nicht-heimische Arten – Neobiota sind für 60 Prozent der ausgestorbenen Arten weltweit mitverantwortlich
Invasive nicht-heimische Arten sind eine der Hauptursachen des weltweiten Artenverlusts und bedrohen die menschliche Lebensgrundlage und Gesundheit. Ein neuer Bericht des Weltbiodiversitätsrats IPBES fasst erstmals den aktuellen Stand der Forschung weltweit zusammen und beschreibt, welche Handlungsoptionen zur Verfügung stehen. Bernd Lenzner und Franz Essl von der Universität Wien waren Teil des internationalen Expert*innenteams, das über die vergangenen Jahre Informationen aus über 13.000 Fachartikeln zusammengetragen hat.
Nicht-heimische Arten (auch Neobiota genannt) sind mittlerweile auf allen Kontinenten zu finden, sogar in der abgeschiedenen Antarktis. Mit Beginn der kolonialen Expansion und der daraus folgenden wirtschaftlichen und politischen Vernetzung über Kontinente hinweg begann der Siegeszug der Neobiota. „Mehr als die Hälfte dieser Neobiota wurde aber erst seit der Mitte des 20. Jahrhunderts verschleppt. Wir haben es also mit einer rasanten Zunahme von Neobiota zu tun“, erläutert Bernd Lenzner, Mitautor des Berichts des Weltbiodiversitätsrates.
37.000 Neobiota wurden weltweit bereits durch den Menschen verschleppt
„Insgesamt kommen mittlerweile weltweit mehr als 37.000 Arten als Neobiota vor – in Österreich alleine sind es mehr als 2.000“, so Lenzner. Auch heute werden immer noch Arten absichtlich (z.B.: als Gartenpflanzen oder Haustiere) oder unabsichtlich (z.B.: als Saatgutverunreinigungen oder blinde Passagiere beim Transport von Waren) weltweit verschleppt. Ein Rückgang dieses Trends ist trotz steigender Importbeschränkungen nicht abzusehen. So wurden beispielsweise in den letzten zwei Jahrzehnten der Asiatische Marienkäfer oder der Erreger des Eschentriebsterbens in Österreich eingeschleppt.
60 Prozent der ausgestorbenen Arten geht teilweise oder ganz auf das Konto von Neobiota
Invasive Arten können erheblichen Schaden anrichten: Sie führen als Schädlinge zu Ertragsausfällen in der Landwirtschaft, wie der Maiswurzelbohrer, oder sie können Krankheiten übertragen, wie etwa die Tigermücke. „Andere Neobiota wiederum verdrängen heimische Arten – mit massiven Folgen für die globale Artenvielfalt“, erläutert Franz Essl, Biodiversitätsforscher an der Uni Wien und ebenfalls Mitautor des Berichts. Und er ergänzt: „Bei 60 Prozent der ausgestorbenen Arten waren Neobiota maßgeblich beteiligt. Besonders auf Inseln oder abgelegenen Kontinenten wie Australien waren vom Menschen neu eingeführte Arten die Hauptursache des Aussterbens.“
Viele Arten wie der Dodo auf Mauritius wurden durch Räuber wie Ratten ausgerottet. In Österreich stehen heute alle heimischen Flusskrebsarten am Rande des Aussterbens als Folge der Krebspest; eine Krankheit, die durch nordamerikanische Flusskrebse übertragen wird. Besorgniserregend sind die wirtschaftlichen Schäden durch Neobiota – der aktuelle Bericht beziffert sie auf $ 423 Milliarden US-Dollar (400 Mrd. €) jährlich, eine Vervierfachung pro Jahrzehnt seit 1970.
Handlungsoptionen für die Zukunft: Prävention und Früherkennung
Einen besonderen Schwerpunkt legt der Bericht auf die Handlungsoptionen, um künftige Schäden durch invasive Neobiota zu vermeiden. Eine Vielzahl an Beispielen illustriert, dass invasive Arten erfolgreich bekämpft und somit ihre negativen Effekte stark reduziert werden können. „Der kosteneffektivste Weg ist jedoch die Prävention, Früherkennung und schnelle Bekämpfung von Neobiota“, betont Bernd Lenzner. Effektives Management ist aber nur durch gut koordinierte nationale und internationale Anstrengungen möglich. Internationale Abkommen wie die kürzlich von der Staatengemeinschaft verabschiedeten Kunming-Montreal-Biodiversitätsziele sind ein wichtiger Schritt in die richtige Richtung. Entscheidend ist aber, dass jedes Land, auch Österreich, rasch Maßnahmen setzt – dazu gehört auch eine bessere Umsetzung der EU-Invasionsverordnung.
Wissenschaftliche Ansprechpartner:
Dr. Bernd Lenzner
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-680-327-8884
bernd.lenzner@univie.ac.at
Assoz.-Prof. Mag. Dr. Franz Essl
Division für Bioinvasionen, Globaler Wandel & Makroökologie
Department für Botanik und Biodiversitätsforschung
Universität Wien
1030 Wien, Rennweg 14/1
T +43-676-609-1638
franz.essl@univie.ac.at
Originalpublikation:
Bericht zu invasiven gebietsfremden Arten des Weltbiodiversitätsrats IPBES:
IPBES (2023). Summary for Policymakers of the Thematic Assessment Report on Invasive Alien Species and their Control of the Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services. Roy, H. E., Pauchard, A., Stoett, P., Renard Truong, T., Bacher, S., Galil, B. S., Hulme, P. E., Ikeda, T., Sankaran, K. V., McGeoch, M. A., Meyerson, L. A., Nuñez, M. A., Ordonez, A., Rahlao, S. J., Schwindt, E., Seebens, H., Sheppard, A. W., and Vandvik, V. (eds.). IPBES secretariat, Bonn, Germany.
https://doi.org/10.5281/zenodo.7430692
Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…
Nachhaltig leben: Je geringer der Aufwand, desto mehr Menschen tun es
Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Studierenden-Projekt der Universität Hohenheim zeigt: Beim ressourcenschonenden Verhalten deckt sich die Einstellung nicht immer mit der tatsächlichen Umsetzung
Auch Menschen, die einen ressourcenschonenden Lebensstil befürworten, schaffen es nicht immer, ihrem eigenen Anspruch gerecht zu werden. Wie leicht oder wie schwer ihnen dies fällt, hängt vor allem vom Aufwand ab, den sie dafür betreiben müssen. Zu diesem Schluss kommt ein Studierenden-Projekt an der Universität Hohenheim in Stuttgart. Dort spielt forschendes Lernen eine große Rolle. So können Studierende schon im Grundstudium in den Forschungsalltag eintauchen und eigene Projekte realisieren.
Vor allem in den westlich orientierten Ländern treffen Menschen jeden Tag Milliarden von Konsumentscheidungen – mit entsprechenden Auswirkungen für Klima, Umwelt und Natur. Dass es eines Umdenkens im Umgang mit den natürlichen Ressourcen bedarf, dürfte den meisten Menschen klar sein. Doch das eigene Verhalten in Frage zu stellen, fällt vielen schwer: Den Gedanken, den eigenen Lebensstil zu ändern und auf Waren und Dienstleistungen zu verzichten, empfinden viele als Rückschritt und Verzicht.
„Dabei ist der Verzicht beim Kauf von Konsumgütern alles andere als ein Rückschritt oder ein Zeichen von Mangel. Auch mit einem geringen Verbrauch von Ressourcen kann man gut leben “, sagt Jun.-Prof. Dr. Laura Henn vom Fachgebiet Nachhaltiges Handeln und Wirtschaften. Die dahinterstehende Einstellung bezeichnen Fachleute als Suffizienz.
Suffizienz: Ressourcenschonender Lebensstil ohne Einbußen an Lebensqualität
„Suffizienz bedeutet, das eigene Handeln bewusst danach auszurichten, nicht mehr Ressourcen zu verbrauchen als unbedingt nötig – ohne dabei an Lebensqualität einzubüßen“, erklärt die Wissenschaftlerin. „Oder vereinfacht ausgedrückt: Suffizient leben bedeutet eigentlich gut leben – gut für einen selbst und gut für die Umwelt.“
Suffizient lebende Menschen kaufen bewusster, teilen, tauschen oder reparieren, um ihre Bedürfnisse mit weniger Ressourcenverbrauch genauso gut zu befriedigen. Praktisch kann dies heißen, dass sie weniger Flugreisen unternehmen, weniger Energie verbrauchen oder weniger Fleisch essen, aber auch, dass diese Menschen auf den Besitz von Gegenständen verzichten oder zumindest möglichst langlebige Produkte kaufen. So sparen sie Ressourcen und halten ihren eigenen ökologischen Fußabdruck möglichst klein.
Decken sich Anspruch und tatsächliches Verhalten?
Doch wie sieht es im Alltag aus? Folgen Menschen im Alltag ihrer Einstellung und achten jene Personen, die besonders suffizienzorientiert sind, auch verstärkt auf den Ressourcenverbrauch ihres Verhaltens? Dieser Frage sind Studierende im vierten Semester des Studiengangs „Sustainability & Change“ an der Universität Hohenheim in einem Forschungspraktikum nachgegangen.
Unter Anleitung von Jun.-Prof. Dr. Henn beschäftigten sich die Studierenden in sechs Kleingruppen damit, wie die Suffizienzorientierung von Menschen erfasst werden kann. Sie untersuchten anhand von selbstgewählten Beispielen, ob Menschen, die darin besonders hohe Werte aufweisen, auch ein nachhaltigeres Verhalten zeigen.
Aufwand entscheidet über tatsächliches Einkaufsverhalten
Ein Ergebnis der Studierenden: Je weniger aufwändig ressourcenschonendes Verhalten, desto eher und häufiger wird es umgesetzt. So haben Menschen, die in Unverpacktläden einkaufen, um möglichst viel Müll zu vermeiden, nicht nur eine höhere Suffizienzeinstellung. Sie kaufen dort auch umso häufiger ein, je höher diese ist.
Für die Studierenden ein Hinweis darauf, dass vor allem Personen mit einer hohen Motivation bereit sind, einen höheren Aufwand zu betreiben. „Einkaufen in einem Unverpacktladen ist anders als in einem Supermarkt“, erläutert Janne Hoefer. „Die Menschen müssen viel stärker im Voraus planen, was und wie viel sie einkaufen wollen, und entsprechende Gefäße mitbringen.“
„Auffällig war auch, dass die Einkaufshäufigkeit mit steigendem Alter zunahm“, ergänzt Luis Nollenberger. Generell sind nach den Beobachtungen der Studierenden die häufigsten Kunden in Unverpacktläden junge Familien.
Foodsharing benötigt hohe Motivation
Zu einem ähnlichen Ergebnis kam eine andere Gruppe von Studierenden. Sie untersuchten, wie wichtig es Menschen ist, die Verschwendung von Lebensmitteln zu vermeiden. Also beispielsweise ihre Einkäufe bzw. Mahlzeiten zu planen, Lebensmittel nicht wegzuschmeißen, Reste zu verwerten oder sich beim Foodsharing zu engagieren. Auch hier zeigte sich: Je höher die Suffizienzeinstellung einer Person, desto höher ist auch ihr Einsatz beim Lebensmittel-Management.
Besonders auffällig war dies beim Foodsharing. Die Erklärung der Studierenden: Foodsharing ist mit einem hohen Aufwand verbunden. So müssen die Personen aktiv nach Informationen über Foodsharing Angebote suchen, eventuell eine App installieren und die Lebensmittel meist zu bestimmten Zeiten abholen. Dies setzt eine besonders hohe Motivation voraus.
Suffiziente Personen kaufen seltener neue Möbel
Personen, die über viel Suffizienz verfügen, verlängern nach den Ergebnissen der Studierenden auch eher die Lebensdauer ihrer Möbel und kaufen seltener neue Möbel. Dafür bevorzugen sie Reparaturen oder gebrauchte Alternativen. Allerdings gilt hier einschränkend: In der untersuchten Stichprobe waren vor allem jüngere Menschen enthalten, die noch bei Familienangehörigen oder in Wohnheimen bzw. Wohngemeinschaften wohnten.
Bei To-Go-Getränken und auf Partys spielt Suffizienz eine untergeordnete Rolle
Wenig Einfluss der Suffizienz auf das Verhalten fanden die Studierenden hingegen bei der Verwendung von Getränkebechern und auf Partys. So untersuchte eine Gruppe, ob Kund:innen bei To-Go-Getränken die angebotenen Einweg-Becher nutzen, Wert auf wiederverwendbare Becher legen oder sogar selbst solche Behältnisse mitbringen. Zwar wiesen Personen, die Mehrwegbechern positiv gegenüber standen, auch eine höhere Suffizienzeinstellung auf. Statistisch gesehen gab es jedoch keinen Zusammenhang mit der tatsächlichen Wahl des Bechers.
Auch bei Partys konnten die Studierenden keine Verbindung zwischen der Suffizienz und dem tatsächlichen Verhalten feststellen. Dies deckt sich mit ihren eigenen subjektiven Erfahrungen, wonach bei geselligen Veranstaltungen öfter mal die eigene Einstellung zum nachhaltigen Konsum über Bord geworfen wird. „Partys sind kein klassisches Nachhaltigkeitsthema – selbst bei Studierenden, denen dies wichtig ist“, sagt Marie Fankhänel. „Hier stehen die Geselligkeit und der Spaß im Vordergrund.“
Die Studierenden fanden allerdings andere statistische Beziehungen: So kaufen Menschen mit einer höheren Suffizienz seltener neue Kleidung für eine Party – und sie bestellen sich seltener im betrunkenen Zustand Dinge im Internet.
Verzicht auf Flugreisen steht oft im Konflikt mit anderen Zielen
Nur einen geringen Zusammenhang mit der Suffizienzeinstellung konnten die Studierenden auch bei der Frage finden, wie oft Menschen das Flugzeug tatsächlich nutzen, obwohl sie grundsätzlich Flugreisen nicht befürworten.
Laut Jun.-Prof. Dr. Henn könnte eine Ursache darin liegen, dass persönliche Normen und Einstellungen zu Nachhaltigkeit das Fernreiseverhalten nicht vorhersagen können: „Der völlige Verzicht auf Flugreisen erfordert ein starkes Engagement und steht oft im Konflikt mit anderen Lebenszielen, wie beispielsweise dem Sammeln von Reiseerfahrungen.“
Studierenden-Projekt bestätigt wissenschaftliche Studien
„Auch wenn die Ergebnisse der Studierenden nicht repräsentativ sind, so zeigen sie doch ein paar Aspekte auf, die sich auch in wissenschaftlichen Veröffentlichungen finden“, erklärt Jun. Prof. Dr. Henn: „So wird die Wahrscheinlichkeit, dass eine Person einen stärker suffizienzorientierten Lebensstil führt, vor allem durch zwei Faktoren bestimmt: Einerseits dadurch, wie stark sie einen solchen Lebensstil befürwortet, und andererseits durch die Frage, welche Hindernisse sie hat das entsprechende Verhalten auch umzusetzen.“
Dazu kämen laut der Wissenschaftlerin noch Faktoren, die außerhalb des Einflussbereiches der Betreffenden lägen: „Wenn die Infrastruktur und die Politik ein suffizientes Verhalten unterstützen, ist die Wahrscheinlichkeit relativ groß, dass Menschen dies auch tun.“
Text: Stuhlemmer
Wissenschaftliche Ansprechpartner:
Jun.-Prof. Dr. Laura Henn, Universität Hohenheim, Fachgebiet Nachhaltiges Handeln und Wirtschaften, +49 (0)711 459-24945, laura.henn@uni-hohenheim.de
Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim
Seltene Mutation ist mögliches Angriffsziel für Krebsmedikament
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Mutationen im BRAF-Gen machen Tumoren oft besonders aggressiv. Seit einigen Jahren sind Medikamente zugelassen, die das mutierte BRAF blockieren. Sie richten sich allerdings nur gegen eine bestimmte, häufige Form der BRAF-Mutationen. Ein Forscherteam unter der Federführung von Wissenschaftlern im Deutschen Konsortium für Translationale Krebsforschung (DKTK), Standort Freiburg, und von der Universität Freiburg analysierte nun die Empfindlichkeit seltener Varianten der BRAF-Mutationen auf diese Medikamente. Die Forschenden konnten die molekularen Hintergründe für die Wirksamkeit der BRAF-Hemmstoffe entschlüsseln und damit möglicherweise die Entwicklung präziserer Wirkstoffe anstoßen.
Im DKTK verbindet sich das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg als Kernzentrum langfristig mit onkologisch besonders ausgewiesenen universitären Partnerstandorten in Deutschland.
Bei etwa acht Prozent aller Krebsfälle liegen Mutationen in dem Gen vor, das für das Enzym BRAF kodiert. BRAF-Mutationen fördern die unkontrollierte Teilung und Ausbreitung der Krebszellen. Sie werden häufig u. a. in Melanomen, bestimmten Hirntumoren und Schilddrüsenkarzinomen gefunden. Seltener treten sie auch in verbreiteten Krebsarten wie Dickdarmkrebs, nicht-kleinzelligem Lungenkrebs oder Bauchspeicheldrüsenkrebs auf.
Die Aktivität von Proteinkinasen, zu denen auch BRAF gehört, kann durch Medikamente aus der Gruppe der Kinase-Inhibitoren unterdrückt werden. Diese Wirkstoffe zielen speziell darauf ab, die häufigste krebstreibende BRAF-Mutation, BRAFV600E, abzuschalten.
Nachdem Krebsgewebe zunehmend auf BRAF-Mutationen getestet werden, entdeckten Forschende, dass neben der bekannten bekannten V600-Mutation ein breites Spektrum weiterer Veränderungen des BRAF-Gens in den Tumorzellen vorkommt. „Bislang ist jedoch wenig darüber bekannt, ob die ursprünglich für BRAFV600E entwickelten Kinase-Inhibitoren auch bei Krebsarten mit anderen BRAF-Mutationen wirksam sind,“ sagt Tilman Brummer, DKTK Freiburg und Universität Freiburg, der Seniorautor der aktuellen Arbeit, die in enger Zusammenarbeit mit den DKTK-Standorten Dresden, Heidelberg und Tübingen entstanden ist.
Zu diesem Spektrum an Mutationen zählen auch Verluste einiger Aminosäuren in einem für die Funktion von BRAF kritischen Teil des Enzyms. Solche „Deletions-Mutationen“ finden sich in vielen Krebsarten, besonders bei bestimmten Formen von Bauchspeicheldrüsenkrebs. „In der molekularbiologischen Standard-Diagnostik werden diese Bereiche von BRAF nicht erfasst, wodurch diese Mutationen bei den fünf bis 10 Prozent von Pankreas-Tumoren ohne KRAS-Mutationen vermutlich übersehen werden. Bei den umfangreichen molekularen Analysen von Tumorbiopsien, wie wir sie im DKTK MASTER-Programm* durchführen, um klinische Entscheidungen auf einer umfassenden molekularen Informationsbasis zu treffen, fallen uns diese Deletions-Mutationen jedoch immer häufiger auf“, sagt Stefan Fröhling, geschäftsführender Direktor am NCT Heidelberg und Leiter des DKTK MASTER-Programms.
„Ob BRAF-Deletions-Mutanten durch für BRAFV600E entwickelte Kinase-Inhibitoren wie Dabrafenib blockiert werden können, ist nach wie vor unklar. Strategien gegen diese Mutanten könnten neue zielgerichtete Behandlungsoptionen aufzeigen“, sagt Manuel Lauinger von der Universität Freiburg, Erstautor der aktuellen Arbeit, und ergänzt: „Tatsächlich deuten Fallberichte darauf hin, dass das Medikament Dabrafenib, ein Kinase-Inhibitor, der zur Behandlung von durch BRAFV600E-getriebenen Krebsarten entwickelt wurde, auch gegen Tumoren wirkt, die bestimmte Varianten der Deletions-Mutanten tragen.“
Ausgelöst durch die Entdeckung von zwei neuen Varianten der BRAF-Deletions-Mutante an den DKTK-Standorten Heidelberg und Tübingen, führte Manuel Lauinger einen detaillierten Vergleich der verschiedenen Deletions-Mutanten in Bezug auf ihre biochemischen und pharmakologischen Eigenschaften durch. Er fand heraus, dass sie sich überraschenderweise trotz ihrer sehr ähnlichen genetischen Veränderung in ihrer Empfindlichkeit gegenüber Dabrafenib deutlich unterscheiden. Darüber hinaus konnte Lauinger ein molekulares Detail identifizieren, das bestimmten Deletions-Mutanten Resistenz gegen Dabrafenib verleiht. Diese Erkenntnisse können neue Ansätze für die Entwicklung zukünftiger Arzneimittel für die Präzisionsonkologie liefern.
Während vor einer Behandlung mit Dabrafenib die genauen molekularen Details der jeweiligen BRAF-Deletions-Mutante beachtet werden müssen, gilt dies offenbar nicht für die so genannte dritte Generation an BRAF-Inhibitoren. Diese Wirkstoffe, die derzeit in klinischen Studien geprüft werden, erwiesen sich als wirksam gegen alle Mitglieder der Gruppe der BRAF-Deletions-Mutanten. Diese Untersuchungen wurde in Krebszelllinien sowie auch in Tumor-Organoiden („Mini-Tumoren“), die aus den Krebszellen individueller Patienten gezüchtet worden waren, durchgeführt.
* MASTER = Molecularly Aided Stratification for Tumor Eradication Research: Dieses Programm wurde ursprünglich am NCT Heidelberg und am NCT Dresden etabliert und stellt seit 2016 eine gemeinsame Aktivität aller DKTK-Standorte dar.
Originalveröffentlichung:
Lauinger, M., Christen, D., Klar, R.F.U., Roubaty, C., Heilig, C.E., Stumpe, M., Knox, J, Radulovich, N., Tamblyn, L., Xie, I., Horak, P., Forschner, A., Bitzer, M., Wittel, U.A., Boerries, M., Ball, C.R., Heining, C., Glimm, H., Fröhlich, M., Hübschmann, D., Gallinger, S., Fritsch, R., Fröhling, S., O’Kane, G., Dengjel, J. und T. Brummer (2023). BRAFΔβ3-αC in-frame deletion mutants differ in their dimerization propensity, HSP90 dependence and druggability.
Science Advances 2023, DOI: 10.1126/sciadv.ade7486
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:
Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Wie Windturbinen auf Turbulenzen reagieren
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Sprunghafte Leistungsänderungen von Windkraftanlagen könnten sich mit Hilfe einer neuen stochastischen Methode abschwächen lassen. Ein deutsch-iranisches Team zeigt in einer neuen Studie, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die in der Zeitschrift PRX Energy veröffentlichten Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren.
Die Leistung von Windkraftanlagen kann innerhalb von Sekunden um die Hälfte schwanken. Solche Fluktuationen im Megawattbereich belasten sowohl die Stromnetze als auch die Anlagen selbst. Einen möglichen Ansatz, um diese sprunghaften Änderungen zu vermeiden, zeigt nun eine neue Studie von Forschern der Universität Oldenburg und der Sharif Universität in Teheran (Iran) auf. Das Team berichtet, dass die kurzfristigen Schwankungen der elektrischen Leistung vor allem auf die Kontrollsysteme der Windturbinen zurückzuführen sind. Gleichzeitig liefern die Ergebnisse Hinweise darauf, wie sich die Kontrollsysteme so optimieren lassen, dass die Turbinen gleichmäßiger Strom produzieren. Die Studie ist in der Zeitschrift PRX Energy erschienen.
Das Team um Hauptautor Dr. Pyei Phyo Lin von der Universität Oldenburg analysierte Daten mehrerer Anlagen in einem Windpark. „Weil Windkraftanlagen unter turbulenten Windbedingungen arbeiten – ähnlich wie ein Flugzeug, das bei starkem Wind landet – schwanken alle Messdaten sehr stark, es ist kein klares Signal zu erkennen. Wir sprechen von Rauschen“, berichtet Lin. Der Physikingenieur und seine Kollegen untersuchten Zeitreihen der Windgeschwindigkeit, der elektrischen Leistung der Anlagen und der Drehgeschwindigkeit des Generators mit stochastischen Methoden.
Mit ihrem neuen mathematischen Ansatz gelang es den Forschern, das Rauschen in den Daten in zwei verschiedene Anteile aufzuspalten, von denen einer auf den Wind zurückzuführen ist und der andere auf die Reaktion des Kontrollsystems der Anlage. „Meist wird das Rauschen als lästiger Effekt betrachtet, der die Messungen stört“, sagt Lin. „Jetzt liefert uns das Rauschen neue Informationen über das System – das ist eine neue Qualität“, ergänzt Ko-Autor Dr. Matthias Wächter, der an der Universität Oldenburg die Arbeitsgruppe Stochastische Analyse leitet.
Wie das Team berichtet, deuten die Ergebnisse darauf hin, dass die Kontrollsysteme von Windkraftanlagen häufig nicht optimal auf kurzfristige Schwankungen des Windes reagieren: Meist wechseln sie die Kontrollstrategie, was zu den beobachteten starken Schwankungen der elektrischen Leistung führen kann. Durch die neuen Forschungsergebnisse sei es nun jedoch möglich, turbulente Windphänomene und die Reaktion der Kontrollsysteme zu entkoppeln. „Auf diese Weise wird es möglich, die Kontrollsysteme zu verfeinern, damit Windkraftanlagen gleichmäßiger Strom erzeugen“, so der Turbulenzexperte Prof. Dr. Joachim Peinke von der Universität Oldenburg, der an der Studie beteiligt war. Gleichzeitig lasse sich so die Effizienz von Windkraftanlagen verbessern und ihre Lebenszeit verlängern.
Prof. Dr. Mohammad Reza Rahimi Tabar, der zum Forschungsteam der aktuellen Studie gehörte, ist derzeit Fellow am Hanse-Wissenschaftskolleg in Delmenhorst.
Wissenschaftliche Ansprechpartner:
Dr. Pyei Phyo Lin (für Anfragen auf Englisch), Tel.: 0441/798-5052, E-Mail: pyei.phyo.lin@uol.de
Prof. Dr. Joachim Peinke, Tel.: 0441/798-5050, E-Mail: peinke@uol.de
Originalpublikation:
Pyei Phyo Lin, Matthias Wächter, M. Reza Rahimi Tabar und Joachim Peinke: „Discontinuous Jump Behavior of the Energy Conversion in Wind Energy Systems“, PRX Energy 2, 033009, https://doi.org/10.1103/PRXEnergy.2.033009
Weitere Informationen:
https://uol.de/twist
Zukünftig künstliche Hüften für ein ganzes Leben?
Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Interdisziplinäres Forschungsteam der Uni Magdeburg entwickelt haltbare und biokompatible Materialien für dauerhafte Implantate
Ein interdisziplinäres Forschungsteam aus Werkstoffingenieurinnen und -ingenieuren sowie Biologinnen und Medizinstudierenden der Otto-von-Guericke-Universität Magdeburg entwickelt neue Materialien für langlebige Implantate. Biokompatible und antibakterielle Legierungen mit speziellen biomechanischen Eigenschaften sollen künftig schädliche Wechselwirkungen der Implantate mit dem umliegenden menschlichen Gewebe und dadurch entstehende Entzündungsreaktionen beziehungsweise Infektionen verhindern. Dadurch können die Haltbarkeit und Verträglichkeit künstlicher Gelenke verlängert und der Austausch des Implantats, eine sogenannte Implantatrevision, vermieden werden. Speziell Revisionsoperationen stellen eine enorme Belastung für die Patientinnen und Patienten dar und verursachen erhebliche Mehrkosten für das Gesundheitssystem.
„Durch die gestiegene Lebenserwartung und anhaltende Aktivität der Zielgruppe, erhöht sich die Belastung der Gelenke enorm, was wiederum zu einem vermehrten Verschleiß führt“, erklärt die Projektleiterin Prof. Dr. Manja Krüger vom Institut für Werkstoff- und Fügetechnik der Universität Magdeburg. „Die Folge ist eine Zunahme von Implantationen künstlicher Gelenke bei Patientinnen und Patienten und damit verbunden ein steigender Bedarf an besonders haltbaren und verträglichen Werkstoffen für diese Implantate.“ Aktuell eingesetzte Implantatwerkstoffe seien zwar prinzipiell schon von sehr hoher Qualität, aufgrund von Lockerungen, bedingt durch Abrieb und Korrosion, kann es dennoch zu postoperativen Komplikationen kommen, so die Ingenieurin weiter. Um diese Probleme zu beheben, würden für die Patienten und Patientinnen belastende und teure Revisionsoperationen nötig. „Vor allem während der Nutzung im Organismus entstehender Abrieb und resultierende Infektionen führen häufig dazu, dass Endoprothesen, also Implantate, wieder entfernt oder ausgetauscht werden müssen.“
Damit diese Revisionsoperationen in Zukunft nur noch selten nötig werden, forschen die Wissenschaftlerinnen und Wissenschaftler der Universität Magdeburg in zwei Teilbereichen: Zum einen befassen sich Ingenieure und Ingenieurinnen des Lehrstuhls für Hochtemperaturwerkstoffe mit der Materialentwicklung, also dem Design der Legierung sowie mit den mikrostrukturellen und mechanischen Eigenschaften der Materialien und deren Herstellung. Zum anderen arbeiten Biologinnen und Medizin-Studierende aus der Experimentellen Orthopädie des Universitätsklinikums daran, die Verträglichkeit des neuen Werkstoffs für den Organismus zu verstehen und zu optimieren.
„Uns interessieren dabei besonders sogenannte biokompatible Werkstoffe“, erklärt die Materialwissenschaftlerin Manja Krüger, „also im weiteren Sinne für das biologische System verträgliche Materialien.“ Biokompatibel seien, beispielsweise refraktärmetallbasierte Multikomponenten-Werkstoffsysteme, so Krüger. „Diese sogenannten Hoch- und Mediumentropie-Werkstoffe ermöglichen eine große Vielfalt von Kombinationen, was zu völlig neuen Werkstoffen mit außergewöhnlichen Eigenschaften führt. Kürzlich entwickelte Materialien dieser Art zeigen zum Beispiel hervorragende mechanische Eigenschaften, verbesserte Abriebfestigkeit und sowohl korrosive als auch thermische Beständigkeit, die denen von aktuellen Legierungen überlegen sind.“ Diese Legierungen hätten gegenüber den im Moment eingesetzten silberbeschichteten Implantaten den Vorteil, dass bei ihnen noch keine Resistenzen bekannt seien. „Wir wissen, dass Bakterien im Laufe der Jahre einen Resistenzmechanismus gegen Silber entwickeln können, sodass die ursprüngliche antibakterielle Wirkung des Elements abgeschwächt wird. Das wiederum bedeutet, dass auch Silberimplantate irgendwann nicht mehr antibakteriell wirken und periprothetische Infekte, also Infektionen, die sich um eine künstliche Implantation im Körper herum entwickeln, auftreten können“, fügt die Biologin Prof. Jessica Bertrand von der Experimentellen Orthopädie des Universitätsklinikums an.
Langfristiges Ziel der Forscherinnen und Forscher ist es, ein passendes Legierungssystem als neuartigen Implantatwerkstoff zu identifizieren, zu entwickeln und im Labor zu erproben. „Konkret heißt das: Die zugrundeliegenden materialwissenschaftlichen Zusammenhänge sind geklärt, die mechanischen Eigenschaften sind bekannt und übertreffen die branchenüblichen Anforderungen aktuell im Einsatz befindlicher Werkstoffe für Endoprothesen beziehungsweise sind entsprechend patientenspezifisch einstellbar und für die Biokompatibilität beziehungsweise die antibakterielle Wirkung des Systems ist der Nachweis erbracht“, so Prof. Krüger.
Das Forschungsteam besteht aus Prof. Dr. Manja Krüger, Maximilian Regenberg, Dr. Georg Hasemann und Dr. Janett Schmelzer von der Fakultät für Maschinenbau sowie Prof. Dr. Jessica Bertrand, Caroline Grimmer und Munira Kalimov von der Experimentellen Orthopädie. Das Team wurde für seine interdisziplinäre Forschung mit dem zweiten Platz in der Kategorie „Innovativste Vorhaben der Grundlagenforschung“ des Hugo-Junkers-Preises 2023 ausgezeichnet.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Manja Krüger, Institut für Werkstoff- und Fügetechnik, Fakultät für Maschinenbau, Tel.: +49 391 67-54516, E-Mail: manja.krueger@ovgu.de
Nord- und Ostsee im Spannungsfeld von Meeresnutzung und Meeresschutz
Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Jahrestagung der DAM-Forschungsmission sustainMare an der Uni Kiel stellt Handlungswissen für Politik und Gesellschaft in den Mittelpunkt
• 280 Wissenschaftlerinnen und Wissenschaftler aus 28 Institutionen und 40 Arbeitsgruppen forschen erstmals gemeinsam in sieben Projekten zu Zukunftsthemen der Nord- und Ostsee
• Transdisziplinäre Forschungsagenda mit Akteurinnen und Akteuren aus Politik, Wirtschaft und Zivilgesellschaft
• Mehr als 170 Forschende zu Gast an der Christian-Albrechts-Universität zu Kiel (CAU) thematisieren multiple ökologische, ökonomische und gesellschaftliche Auswirkungen der Nutzung von Nord- und Ostsee
Die Nordsee und die Ostsee und ihre Küsten beherbergen eine einzigartige Vielfalt an Lebewesen. Der Druck auf diese Lebensräume steigt allerdings. Der Klimawandel und der für die kommenden Jahre geplante Ausbau der Offshore-Energiegewinnung werden die Nord- und Ostsee stark verändern. In dieser Situation benötigen wir neue Maßnahmen zum Schutz der Natur und den Erhalt der biologischen Vielfalt. Ansprüche, beispielsweise aus der Industrie, der Fischerei, dem Tourismus oder der Landwirtschaft müssen mit europäischen Naturschutzabkommen wie der Biodiversitätsstrategie 2030 oder politischen Vorgaben zum Ausbau der Offshore-Windenergie in Einklang gebracht werden. In diesem komplexen Spannungsfeld gilt es, Handlungswissen für Politik und Gesellschaft bereitzustellen, das zu einem nachhaltigen Umgang mit dem Meeresraum und seinen Ökosystemleistungen bei gleichzeitiger Mehrfachnutzung beitragen kann. Erstmals forschen dazu Wissenschaftlerinnen und Wissenschaftler aus 28 Partnerinstitutionen interdisziplinär und transdisziplinär mit Expertinnen und Experten aus der Praxis in der Forschungsmission „Schutz und nachhaltige Nutzung mariner Räume – sustainMare“ der Deutschen Allianz Meeresforschung (DAM). Heute (Mittwoch, 30. August) beginnt an der Christian-Albrechts-Universität zu Kiel (CAU) die zweite Jahrestagung der Mission, an der mehr als 170 Wissenschaftlerinnen und Wissenschaftler sowie Vertreterinnen und Vertreter verschiedener Interessengruppen teilnehmen.
Karin Prien, Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, begrüßte die Teilnehmenden zu Beginn der Konferenz: „Der Schutz der Meere und der Küstenregionen ist nicht nur für Norddeutschland, sondern für die gesamte Welt von hoher Relevanz und der Arbeit der Forscherinnen und Forscher auf diesem Gebiet kann nicht genug Bedeutung beigemessen werden. Ich bin stolz darauf, dass sich das Land Schleswig-Holstein durch die Förderung der DAM inklusive der Forschungsmissionen aktiv beteiligen kann.“
Der Vorsitzende der DAM, Dr. Jochen Harms, betont zusätzlich: „Unsere größte Herausforderung ist, die unterschiedlichen Nutzungsinteressen mit dem Schutz unserer beiden Meere in Einklang zu bringen – um sie auch für künftige Generationen als Lebensgrundlage zu bewahren. Wissenschaftliche Erkenntnisse dafür zu erarbeiten, steht im Fokus der Mission sustainMare.“
Erhöhter Forschungsbedarf durch massive Veränderungen im System Nord- und Ostsee
„Die Nord- und Ostsee werden sich in den nächsten 25 Jahren gravierend verändern. Nicht nur die Folgen des Klimawandels werden die die Regionen weiter belasten. Auch die verstärkte Nutzung durch Industrie, Schifffahrt, Militär und für die Energieerzeugung wird sich massiv auf die Ökosysteme auswirken. Das ist eine Herausforderung für die Fischerei und den Meeresschutz, aber auch für die Forschung. Unser Verständnis der Systeme Nordsee und Ostsee wie wir sie kennen wird durch diese Veränderungen an Bedeutung verlieren und neue Forschungsfragen werden aufgeworfen, die nur im breiten Verbund der wissenschaftlichen Institutionen bearbeitet werden können“, sagt Professorin Corinna Schrum vom Helmholtz-Zentrum Hereon und Sprecherin der DAM-Forschungsmission sustainMare.
Forschende ziehen Bilanz aus den Ergebnissen von insgesamt sieben Projekten
Im Rahmen der dreitägigen Konferenz werden nun die ersten Ergebnisse nach eineinhalb Jahren Forschung von insgesamt fünf Verbundprojekten und zwei Pilotmissionen zusammengetragen und die Weichen für die zukünftige wissenschaftliche Agenda gestellt. Dabei konzentrieren sich die Forscherinnen und Forscher auf drei thematische Schwerpunkte: Biodiversität und die Auswirkungen anthropogener Belastungen und Nutzungen auf marine Ökosysteme, Schadstoffbelastungen mit dem Schwerpunkt auf Munitionsaltlasten aus den Weltkriegen sowie die Entwicklung von Modellierungsinstrumenten zur Erstellung von Zukunftsszenarien, insbesondere unter Berücksichtigung der Klimaveränderungen und des Nutzungsdrucks durch Offshore-Windenergie, Fischerei oder Sedimentmanagement.
Gerade im Hinblick auf die zunehmende Mehrfachnutzung von Nord- und Ostsee ist es wichtig, solche Modelle zu entwickeln, in denen klassische Auswertungsmethoden durch neue molekulare und semi-autonome Methoden ergänzt werden. Ziel ist es, Lücken in der Datenerhebung zu schließen, um wissensbasierte Managementoptionen abzuleiten.
Transdisziplinärer Forschungsansatz mit Akteuren außerhalb der Wissenschaft
Dafür wählt sustainMare einen besonderen Ansatz: Akteure aus Politik und Behörden, aus Fischerei, Tourismus, Umweltverbänden und Wirtschaft werden aktiv in die Forschung eingebunden. Dabei setzen die Wissenschaftlerinnen und Wissenschaftler auf etablierte transdisziplinäre Methoden wie Reallabore und Dialogformate, um Fragestellungen und Ergebnisse mit betroffenen Stakeholdern hin zu tragfähigen Konzepten weiterzuentwickeln. So wurden beispielsweise für die Zukunft der Küstenfischerei in der westlichen Ostsee Reallabore in Schleswig-Holstein und Mecklenburg-Vorpommern aufgebaut. „Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Sie soll möglichst erhalten bleiben. Mit dem Instrument der Reallabore wächst der Austausch zwischen den Akteuren und das gemeinsame Verständnis über die Funktionsweise des Ökosystems, aber auch über die Rolle der Küstenfischerei für die lokalen Gemeinschaften. Gemeinsam können wir hier lokale Lösungsansätze für eine nachhaltige Fischerei entwickeln und ausprobieren“, erklärt CAU-Professorin Marie-Catherine Riekhof, Mitorganisatorin der sustainMare-Tagung.
Auch in der Nordsee werden die Mehrfachnutzungen und die Biodiversität in Meeresschutzgebieten mit einem Reallabor-Ansatz und mit neuartigen Methoden erforscht, die nicht mehr in die Ökosysteme eingreifen. Indikatoren zur Bewertung des ökologischen Zustands von Küstenökosystemen und deren Anwendung in der Naturschutzpraxis werden darüber hinaus in den Nationalparks Schleswig-Holsteins und Niedersachsens entwickelt.
Akutes Umweltproblem: Bergung von Nachkriegsmunition
Ein akutes Umweltproblem, auf das die Mission ihr Augenmerk richtet, sind die erheblichen Munitionsaltlasten, die in der deutschen Nordsee und Ostsee nach dem Zweiten Weltkrieg verklappt wurden. Auch hier wurde im Rahmen der Forschungsmission sustainMare ein transdisziplinärer Ansatz gewählt. „Der Handlungsdruck ist groß. Die Munition liegt dort teilweise seit mehr als 100 Jahren im Salzwasser, so dass sich die Metallhüllen zersetzen. Wir konnten Schadstoffe wie TNT in marinen Lebewesen nachweisen. Es gibt bereits weit fortgeschrittene Konzepte für die Beseitigung der Nachkriegsmunition, die nun in den kommenden Jahren umgesetzt werden sollen. Glücklicherweise existiert ein breiter gesellschaftlicher und politischer Konsens darüber, endlich mit der Problemlösung zu beginnen“, sagt Professor Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Mitorganisator der Jahrestagung.
Erstmalig ganzheitlicher Zustand von Schutzgebieten in Nord- und Ostsee erfasst
Wertvolle Erkenntnisse für die gesamte Mission sustainMare wurden zudem in den beiden Pilotmissionen „Ausschluss mobiler, grundberührender Fischerei in Schutzgebieten der Deutschen ausschließlichen Wirtschaftszone (AWZ) von Nord- und Ostsee“ gewonnen. Hierbei ist die zentrale Frage, wie sich ein Ausschluss der Schleppnetzfischerei auf die Lebensgemeinschaften, die Beschaffenheit des Meeresbodens, die Biogeochemie der Sedimente und auf die Austauschprozesse zwischen Sediment und Wassersäule auswirken wird. Erstmalig wurde dafür ein ganzheitlicher Basiszustand der Schutzgebiete erfasst, um verfolgen zu können, wie sich Ökosysteme ohne Schleppnetzstörung entwickeln. Auf der Grundlage dieser Datenerhebung wird nun mit neuen und traditionellen Methoden ein Monitoring entwickelt, das dazu beiträgt, Zustandsveränderungen rechtzeitig zu erkennen und Gegenmaßnahmen einzuleiten.
Folgen mehrfacher Nutzung der Küstengewässer im Fokus zukünftiger Forschung
Die Energiewende und besonders die Notwendigkeit der Sicherung der Energieerzeugung hat im vergangenen Jahr zu einer erheblichen Beschleunigung des Ausbautempos der Offshore-Energiegewinnung geführt. Das ist eine Entwicklung, der sich die Forschungsmission sustainMare nicht verschließen kann. Schon heute sind Auswirkungen auf die Strömungsverhältnisse und den Meeresboden sowie Veränderungen der Lebensräume für Fische, Meeressäuger oder Seevögel zu beobachten. Die Folgen der intensiven Nutzung unserer Küstengewässer, die Untersuchung von wirksamen Schutzkonzepten und Konzepten zur besseren Ausnutzung des Meeresraumes werden deshalb im weiteren Verlauf der Forschungsmission noch zentraler für die Forschung werden.
Fotos stehen zum Download bereit:
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-baumkurre-nordsee.jpg
Baumkurre im Einsatz in der Nordsee.
© AWI; Hermann Neumann, Thünen-Institut für Seefischerei
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-gruppenfoto-auftakt.jpg
Auftakt zur sustainMare-Jahrestagung an der Uni Kiel zu Zukunftsthemen der Nord- und Ostsee: Karin Prien (4.v.l.), Ministerin für Allgemeine und Berufliche Bildung, Wissenschaft, Forschung und Kultur des Landes Schleswig-Holstein, CAU-Präsidentin Prof. Simone Fulda (5.v.r.), Tobias Goldschmidt (4.v.r.), Minister für Energiewende, Klimaschutz, Umwelt und Natur des Landes Schleswig-Holstein (MEKUN), Prof. Corinna Schrum (3.v.r.) vom Helmholtz-Zentrum Hereon, Sprecherin der DAM-Forschungsmission sustainMare und Leiterin des sustainMare-Projektes CoastalFutures, Dr. Joachim Harms (2.v.r.), Vorsitzender des DAM-Vorstands, im Kreis der Projektleitenden und Organisatorinnen und Organisatoren der Konferenz.
© Jürgen Haacks, Uni Kiel
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-simone-fulda.jpg
Professorin Simone Fulda, Präsidentin der Christian-Albrechts-Universität zu Kiel (CAU), begrüßte die Teilnehmenden der sustainMare-Jahrestagung.
© Jürgen Haacks, Uni Kiel
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-marie-catherine-riekhof.j…
Prof. Dr. Marie-Catherine Riekhof vom Center for Ocean and Society im CAU-Forschungsschwerpunkt Kiel Marine Science (KMS), leitet sustainMare-Projekt SpaceParti mit Fokus Fischerei, räumliche Nutzung, Biodiversität und Reallabore.
© Jürgen Haacks, Uni Kiel
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-fischerei-hafen.jpg
Die Küstenfischerei ist ein Nahrungslieferant und ein wichtiges Kulturgut in Norddeutschland. Mit dem Instrument der Reallabore sollen lokale Lösungsansätze für eine nachhaltige Fischerei entwickelt und ausprobiert werden.
© Heike Schwermer, CeOS/Uni Kiel
https://www.uni-kiel.de/de/pressemitteilungen/2023/209-jens-greinert.jpg
Im Projekt CONMAR, das Professor Dr. Jens Greinert vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel leitet, wird zum Thema Munition im Meer geforscht.
© Jürgen Haacks, Uni Kiel
Weiteres Bildmaterial ist verfügbar unter:
Zu Projektbildern von sustainMare (abrufbar bis einschließlich 11. September 2023), https://cloud.rz.uni-kiel.de/index.php/s/tFQXysyzggSWykb
Zum Bildarchiv der DAM, https://www.allianz-meeresforschung.de/download
Ein Video steht zur Ansicht bereit:
https://videoportal.rz.uni-kiel.de/Mediasite/Play/8e31813a4cc44590a08ad1601f9e4a… (abrufbar bis einschließlich 11. September 2023)
Videobotschaft von Bettina Stark-Watzinger, Bundesministerium für Bildung und Forschung (BMBF), zum Auftakt der sustainMare-Jahrestagung. Die DAM Forschungsmission sustainMare wird vom BMBF und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
© Bundesministerium für Bildung und Forschung (BMBF)
Über sustainMare
In der Forschungsmission „sustainMare – Schutz und nachhaltige Nutzung mariner Räume“ der DAM untersuchen rund 250 Forschende in zwei Pilot- und fünf Verbundprojekten, wie zukünftig eine nachhaltige Nutzung bei gleichzeitigem Schutz der Meere gewährleistet werden kann. Durch inter- und transdisziplinäre Forschungsansätze sollen das Wissen über multiple Stressoren und die Auswirkungen des Klimawandels auf das Ökosystem Meer erhöht und mithilfe von Zukunftsszenarien konkrete Handlungsempfehlungen für und mit verschiedenen Zielgruppen erarbeitet werden. Übergreifend koordiniert wird sustainMare am Helmholtz-Zentrum Hereon. Seit Dezember 2021 wird sustainMare in seiner ersten dreijährigen Phase vom Bundesministerium für Bildung und Forschung (BMBF) mit 25 Mio. Euro gefördert. Die DAM erarbeitet mit ihren 22 Mitgliedseinrichtungen lösungsorientiertes Wissen und Handlungsoptionen für einen nachhaltigen Umgang mit den Küsten, Meeren und dem Ozean.
Die sustainMare-Forschungsmission ist eine Aktivität im Rahmen der UN Ozeandekade für Ozeanforschung und Teil des Dekadenprogramms „smartNet“. Die sustainMare-Konferenz ist gleichzeitig als Veranstaltung unter dem Dach des „European Maritime Day in my Country“ anerkannt, einer Kampagne der Europäischen Kommission zu Stärkung des Meeresschutzes als auch der wirtschaftlichen Bedeutung der Meere für eine nachhaltige Blaue Wirtschaft in Europa.
https://www.sustainmare.de/
Über die Deutsche Allianz Meeresforschung
Die Deutsche Allianz Meeresforschung (DAM) wurde 2019 vom Bund und den norddeutschen Ländern gegründet, um den nachhaltigen Umgang mit Küsten, Meeren und dem Ozean zu stärken. Mit ihren 24 Mitgliedseinrichtungen und den eigenen Forschungsmissionen CDRmare und sustainMare erarbeitet die DAM lösungsorientiertes Wissen und vermittelt Handlungsoptionen in Politik, Wirtschaft und Zivilgesellschaft. Sie wird vom Bund, vertreten durch das Bundesministerium für Bildung und Forschung (BMBF), und den norddeutschen Bundesländern Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein gefördert.
https://www.allianz-meeresforschung.de/
https://cdrmare.de/
https://www.sustainmare.de/
Wissenschaftliche Kontakte:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de
Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de
Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de
Pressekontakte:
Friederike Balzereit
Wissenschaftskommunikation | Öffentlichkeitsarbeit
Kiel Marine Sciences (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: fbalzereit@uv.uni-kiel.de
Telefon: 0431/880-3032, 0160/9726-2502
Christoph Wöhrle
Helmholtz-Zentrum Hereon
Kommunikation und Medien ℓ Communication and Media
E-Mail: christoph.woehrle@hereon.de
Telefon: 04152/87-1648, 0171/8064-979
Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Eva Sittig, Text/Redaktion: Friederike Balzereit Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: https://www.uni-kiel.de Twitter: https://www.twitter.com/kieluni Facebook: https://www.facebook.com/kieluni Instagram: https://www.instagram.com/kieluni
Wissenschaftliche Ansprechpartner:
Prof. Dr. Corinna Schrum
Helmholz-Zentrum Hereon
Sprecherin der DAM-Forschungsmission sustainMare
E-Mail: corinna.schrum@hereon.de
Prof. Dr. Marie-Catherine Riekhof
Direktorin des Center for Ocean and Society (CeOS)
Forschungsschwerpunkt Kiel Marine Science (KMS)
Christian-Albrechts-Universität zu Kiel (CAU)
E-Mail: mcriekhof@ae.uni-kiel.de
Prof. Dr. Jens Greinert
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
E-Mail: jgreinert@geomar.de
Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/209-sustainmare-jahrestagung
Frauen im Fokus
Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen
Eine neue Nachwuchsforschungsgruppe an der Uni Siegen untersucht die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts. Ein Ziel des Projektes ist auch, zu einem neuen Verständnis von Wissenschaftsphilosophie und -geschichte beizutragen.
Die Kernspaltung, die DNA-Doppelhelix-Struktur, die Radioaktivität: Viele bahnbrechende wissenschaftliche Entdeckungen gehen maßgeblich auf die Forschungsleistungen von Frauen zurück. Auch zahlreiche Ansätze und Theorien, die heute zum Grundbestand der mathematischen Physik zählen, wurden von Wissenschaftlerinnen (mit)entwickelt. Zu ihren Lebzeiten wurden sie jedoch häufig kaum für ihre Errungenschaften gewürdigt. Bis heute sind ihre Namen vielen Menschen unbekannt – während berühmte Physiker wie Albert Einstein, Max Planck oder Werner Heisenberg in aller Munde sind. Eine Nachwuchsforschungsgruppe am Department Mathematik der Universität Siegen hat es sich zum Ziel gesetzt, die Beiträge von Frauen in der Physik- und Mathematikgeschichte des 20. Jahrhunderts zu erforschen – und sogenannte „Gender Biases“ im Schnittfeld von Wissenschafts- und Philosophiegeschichtsschreibung zu analysieren.
„Gender Biases sind systematische Verzerrungseffekte, die durch geschlechtsbezogene Vorurteile geprägt sind und zu Benachteiligungen führen“, erklärt die Leiterin der Siegener Nachwuchsforschungsgruppe, Dr. Andrea Reichenberger: „Gender Biases wirken nicht nur in unserer alltäglichen Kommunikation und Interaktion, sondern eben auch in der Wissenschaft und Forschung – und nicht zuletzt in der Wissenschaftsphilosophie und -geschichte. Uns geht es deshalb zum einen darum, den Anteil von Frauen an der Entstehung wichtiger Erkenntnisse in der mathematischen Physik neu zu bewerten. Zum anderen möchten wir neue Ansätze einer Philosophie und Geschichte der Wissenschaften vorstellen, indem wir innovative Perspektiven auf das Thema Gleichstellung aufzeigen.“
Ein Beispiel für die Unterbewertung der wissenschaftlichen Beiträge von Frauen ist die amerikanische Mathematikerin Christine Ladd-Franklin: Bis kurz vor ihrem Tod im Jahr 1930 wurde ihr von der John Hopkins University trotz erreichter Qualifikation der Doktortitel vorenthalten, weil sie eine Frau war. Dennoch waren ihre Beiträge in Philosophie, Logik, Mathematik und Psychologie sehr einflussreich und führten dazu, dass Ladd-Franklin in zahlreichen Publikationen zitiert wurde. Nach ihrem Tod geriet die Wissenschaftlerin jedoch rasch in Vergessenheit, stattdessen wurde ihr Lehrer, der Mathematiker und Philosoph Charles Sanders Peirce, als herausragender Logiker seiner Zeit gefeiert.
„Zu ihren Lebzeiten waren Christine Ladd-Franklins Arbeiten zur Algebra der Logik einflussreich und wichtig, das lässt sich auch statistisch nachweisen. Ihr Einfluss auf die Geschichte und Philosophie der Logik sollte daher angemessener eingeordnet werden“, sagt Jasmin Özel von der Siegener Forschungsgruppe.
Weitere Wissenschaftlerinnen, mit denen sich Andrea Reichenberger und ihr Team beschäftigen, sind unter anderen die französische Logikerin und Physikerin Paulette Destouches-Février oder auch die deutsch-australische Physikerin und Philosophin Ilse Rosenthal-Schneider. Rosenthal-Schneider promovierte 1920 an der Universität Berlin zum Thema „Das Raum-Zeit-Problem bei Kant und Einstein“, Albert Einstein begleitete die Arbeit in Gesprächen und Diskussionen. Doch trotz Empfehlungsschreiben von Einstein, Max Planck und Max von Laue erhielt die Wissenschaftlerin nach ihrer Emigration nach Australien nie mehr als eine Tutorenstelle. Und dennoch lieferte Rosenthal-Schneider mit ihrer unermüdlichen Lehr- und Publikationstätigkeit wichtige Impulse für das später gegründete Institut für „History and Philosophy of Science“ an der Universität Sydney.
Archivmaterial wie Briefe oder wissenschaftliche Aufsätze sind eine wichtige Quelle für die Siegener Forscher*innen. Neben der qualitativen Analyse solcher Texte erheben sie auch quantitative Daten, beispielsweise zur Anzahl der Zitierungen in wissenschaftlichen Publikationen. „Die Kombination von qualitativen und quantitativen Forschungsmethoden ist sehr gewinnbringend, wenn es darum geht, sich dem tatsächlichen Anteil von Frauen in der Geschichte der Physik und Mathematik anzunähern“, erklärt Reichenberger. Der Blick auf die Historie habe zudem direkte Bezüge zu Gegenwart und Zukunft, betont sie: „Wird die scheinbare Abwesenheit von Frauen im wissenschaftlichen Kanon unhinterfragt fortgeschrieben, dann bleiben tief liegende, stereotype Denkmuster erhalten und werden von Generation zu Generation weitervererbt. Auf diese Machtstrukturen möchten wir aufmerksam machen.“
Hintergrund:
Die Nachwuchsforschungsgruppe „Geschichte und Philosophie neu denken: Frauen im Fokus“ wird von der Universität Siegen im Rahmen des Professorinnen-Programms von Bund und Ländern mit 420.000 Euro gefördert. Neben Dr. Andrea Reichenberger und Jasmin Özel gehören Julia Franke-Redding und Dr. Rudolf Meer zu der Siegener Nachwuchsforschungsgruppe. Meer ist mit einem Marie Curie STAR Fellowship aus Österreich an die Universität Siegen gekommen, um in der Gruppe zu forschen. Alle vier Wissenschaftler*innen sind ausgebildete Philosophie-Historiker*innen mit einem Schwerpunkt auf den Fächern Physik und Mathematik.
Wissenschaftliche Ansprechpartner:
Dr. Andrea Reichenberger (Leiterin der Nachwuchsforschungsgruppe)
E-Mail: andrea.reichenberger@uni-siegen.de
Tel.: 0271 740 5601
Meereisrückgang lässt Zooplankton künftig länger in der Tiefe bleiben
Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Sonnenlicht kann wegen der zunehmenden Meereisschmelze in der Arktis immer tiefer in den Ozean eindringen. Weil sich das Zooplankton im Meer an den Lichtverhältnissen orientiert, verändert sich dadurch auch sein Verhalten – vor allem dabei der Auf- und Abstieg der winzigen Tiere innerhalb der Wassersäule. Wie ein internationales Forschungsteam unter Leitung des Alfred-Wegener-Instituts nun zeigt, könnte dies in Zukunft zu häufigeren Hungerphasen beim Zooplankton und zu negativen Effekten bis hin zu Robben und Walen führen. Die Studie ist im Fachmagazin Nature Climate Change erschienen.
Ausdehnung und Dicke des Meereises in der Arktis schwinden in Folge des menschengemachten Klimawandels deutlich. So schrumpft die durchschnittliche Fläche des Eises derzeit um etwa 13 Prozent pro Dekade. Schon 2030 – so zeigen es aktuelle Studien und Modellrechnungen – könnte der Nordpol im Sommer erstmals eisfrei sein. Die physikalischen Umweltbedingungen für das Leben im Nordpolarmeer ändern sich dadurch ebenso deutlich. Das Sonnenlicht etwa kann bei schrumpfender und dünnerer Eisdecke viel tiefer in das Wasser des Ozeans eindringen. In der Folge kann etwa die Primärproduktion – also das Wachstum – von Mikroalgen in Wasser und Eis unter bestimmten Bedingungen stark ansteigen. Wie sich die veränderten Lichtbedingungen auf höhere trophische Ebenen der Nahrungskette – wie beispielsweise das sich unter anderem von Mikroalgen ernährende Zooplankton – auswirken, ist bislang noch nicht gut verstanden. Ein internationales Forschungsteam um Dr. Hauke Flores vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) hat nun einen wichtigen wissenschaftlichen Baustein für ein besseres Verständnis geliefert.
„In den Ozeanen findet jeden Tag die gewaltigste synchrone Massenbewegung von Organismen auf dem Planeten statt“, sagt Hauke Flores. „Und das ist die tägliche Wanderung des Zooplanktons, zu dem etwa die winzigen Copepoden, auch bekannt als Ruderfußkrebse, und der Krill zählen. Nachts kommt das Zooplankton nah an die Wasseroberfläche, um zu fressen. Tagsüber wandert es wieder in die Tiefe, um sich vor Fressfeinden zu schützen. Einzelne Organismen des Zooplanktons sind zwar winzig, in der Summe aber ergibt sich so eine enorme tägliche Vertikalbewegung von Biomasse in der Wassersäule. In den Polargebieten sieht diese vertikale Wanderung allerdings anders aus. Sie ist hier saisonal, das heißt, dass das Zooplankton einem jahreszeitlichen Zyklus folgt. In der monatelangen Helligkeit des Polartags im Sommer bleibt das Zooplankton dauerhaft in größeren Tiefen, in der monatelangen Dunkelheit der Polarnacht im Winter kommt ein Teil des Zooplanktons dann dauerhaft in das oberflächennahe Wasser direkt unter dem Eis.“
Ganz wesentlich bestimmt werden sowohl die tägliche Wanderung in niedrigen Breiten als auch die saisonale Wanderung in den Polargebieten vom Sonnenlicht. Die winzigen Tiere mögen es meist dämmrig. Sie bleiben gern unterhalb einer bestimmten Lichtintensität (kritisches Isolumen), die meist sehr niedrig ist und weit im dunklen Dämmerlichtbereich liegt. Wenn sich im Laufe des Tages oder der Jahreszeiten die Sonnenlichtintensität ändert, folgt das Zooplankton dem Isolumen, was letztlich dann zum Auf- und Absteigen in der Wassersäule führt. „Speziell im Bereich der oberen 20 Meter Wassersäule direkt unter dem Meereis fehlten bislang Daten zum Zooplankton“, erläutert Hauke Flores. „Genau dieser schwer für Messungen erreichbare Bereich ist aber der spannendste, weil genau hier im und unter dem Eis die Mikroalgen wachsen, von denen sich das Zooplankton ernährt.“ Um hier zu messen, konstruierte das Team ein autonomes biophysikalisches Messobservatorium, das sie am Ende der MOSAiC-Expedition des AWI-Forschungseisbrechers Polarstern im September 2020 unter dem Eis verankerten. Das Gerät konnte hier – fernab jeder Lichtverschmutzung durch menschliche Aktivitäten – kontinuierlich die Lichtintensität unter dem Eis und die Bewegungen des Zooplanktons messen.
„Im Ergebnis konnten wir ein sehr niedriges kritisches Isolumen für das Zooplankton von 0,00024 Watt/Quadratmeter bestimmen“, sagt der AWI-Forscher. „Diesen Wert haben wir dann in unsere Computermodelle integriert, die das Meereissystem simulieren. So haben wir dann für verschiedene Klimaszenarien berechnet, wie sich die Tiefe dieses Isolumens bis zur Mitte dieses Jahrhunderts verändert, wenn das Meereis in Folge des fortschreitenden Klimawandels immer dünner wird.“ Dabei zeigte sich, dass das kritische Isolumen wegen der immer weiter abnehmenden Eisdicke immer früher im Jahr in größere Tiefen absinkt und immer später im Jahr wieder die Oberflächenschicht erreicht. Da das Zooplankton grundsätzlich unterhalb des kritischen Isolumens bleibt, wird es dieser Bewegung folgen. Deshalb hält es sich in den Zukunftsszenarien immer länger in größeren Tiefen auf und seine Zeit im Winter unter dem Eis wird immer kürzer.
„Künftig wird sich in einem wärmeren Klima das Eis im Herbst später bilden, was zu einer geringeren Eisalgenproduktion führt“, erklärt Hauke Flores. „In Kombination mit dem späteren Aufstieg kann das beim Zooplankton im Winter häufiger zu Nahrungsmangel führen. Im Gegenzug kann ein früherer Abstieg des Zooplanktons im Frühjahr eine Gefährdung für tiefer lebende Jungstadien von ökologisch wichtigen Zooplanktonarten bewirken, die dann vermehrt von den ausgewachsenen Tieren gefressen werden könnten.“
„Insgesamt zeigt unsere Studie einen bisher nicht beachteten Mechanismus auf, über den sich die Überlebenschancen des Zooplanktons in der Arktis in naher Zukunft weiter verschlechtern könnten“, sagt der AWI-Forscher. „Dies hätte fatale Auswirkungen auf das ganze Ökosystem bis hin zu Robben, Walen und Eisbären. Unsere Modellsimulationen zeigen aber auch, dass sich die Vertikalwanderung bei Einhaltung des 1,5 Grad-Ziels wesentlich weniger verschiebt als bei einem ungebremsten Fortschreiten der Treibhausgasemissionen. Deswegen ist für das arktische Ökosystem jedes Zehntel Grad weniger menschengemachte Erwärmung von entscheidender Bedeutung.“
SPERRFRIST: Montag, 28. August 2023 um 17:00 Uhr MESZ (16:00 London Time, 11:00 (US Eastern Time)
Wissenschaftliche Ansprechpartner:
https://www.awi.de/ueber-uns/service/expertendatenbank/hauke-flores.html
Originalpublikation:
H. Flores, G. Veyssiere, G. Castellani, J. Wilkinson, M. Hoppmann, M. Karcher, L. Valcic, A. Cornils, M. Geoffroy, M. Nicolaus, B. Niehoff, P. Priou, K. Schmidt, J. Stroeve: Sea-ice decline makes zooplankton stay deeper for longer; Nature Climate Change (2023). DOI: 10.1038/s41558-023-01779-1
Weitere Informationen:
http://multimedia.awi.de/medien/pincollection.jspx?collectionName=04b0ddd9f0d0c7… weitere Bilder
Schutzschild gegen Coronaviren
Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Gute Neuigkeiten für Patientinnen und Patienten mit einer erworbenen oder angeborenen Immunschwäche: Die Ergebnisse einer klinischen Phase II Studie am Universitätsklinikum Tübingen unter Leitung von Prof. Dr. Juliane Walz und Prof. Dr. Helmut Salih zeigen eine wirksame Aktivierung der T-Zellen gegen das Coronavirus. Nach positiven Ergebnissen der vorangegangen Phase I bei gesunden Probandinnen und Probanden konnte der T-Zell-Aktivator „CoVac-1“ diese Effekte nun erstmalig bei Krebspatientinnen und Krebspatienten reproduzieren. Die Ergebnisse wurden aktuell in der renommierten Fachzeitschrift Nature communications publiziert.
Tübinger T-Zell-Aktivator bietet immungeschwächten Patientinnen und Patienten Schutz
Auch nach Ende der COVID-19-Pandemie sind virale Infektionen wie SARS-CoV-2 für Patientinnen und Patienten mit geschwächtem Immunsystem eine ernst zu nehmende Bedrohung. Zu dieser Gruppe gehören insbesondere an Krebs erkrankte Menschen, die durch die Erkrankung selbst oder aufgrund der Tumortherapie keine ausreichende Immunantwort nach einer natürlichen Infektion oder einer Impfung mit herkömmlichen Impfstoffen bilden können. Bei diesen Personen entwickeln sich häufig keine Antikörper gegen die Viruserkrankung. Für diese immungeschwächten Menschen hat das Tübinger Team einen Impfstoff entwickelt, mit dem Ziel, sie besser vor Infektionserkrankungen zu schützen. Dieser aktiviert gezielt T-Zellen, die ein wichtiger Bestandteil unseres Immunsystems sind und in der Abwehr von Infektionserkrankungen eine entscheidende Rolle einnehmen.
Die Forschenden haben dafür den neuartige T Zell Aktivator CoVac-1 verwendet, der für die Krebsimmuntherapie entwickelt wird. Dies ist der Hauptforschungsschwerpunkt der Tübinger Immunologinnen und Immunologen. CoVac-1 wurde schon 2022 erfolgreich an gesunden Probandinnen und Probanden erprobt und zeigte eine gute Verträglichkeit bei sehr guter Immunstimulation, also einer sehr starken Aktivierung der T-Zellen.
Ergebnisse der Phase-II-Studie
Insgesamt wurden 54 Patienten und Patientinnen im Rahmen der Studie einmalig geimpft. Die meisten Studienteilnehmenden litten an Blutkrebserkrankungen und zeigten aufgrund ihrer Erkrankung selber oder aber der Tumortherapie ein deutlich geschwächtes Immunsystem. Es traten so gut wie keine Nebenwirkungen auf.
Nur vereinzelt wurde über leichte Beschwerden wie Kopfschmerzen und Müdigkeit berichtet.
Bei allen Probandinnen und Probanden entwickelte sich an der Impfstelle eine lokale Verhärtung. „Diese Lokalreaktion wird für unseren T-Zell-Aktivator erwartet und gewünscht. Sie ist Ausdruck der Bildung eines Depots an der Impfstelle, das einen schnellen Abbau der T-Zell-Reaktion verhindert und so eine langanhaltende Immunreaktion ermöglicht“, erklärt Dr. Jonas Heitmann, einer der Erstautoren der Studie.
Besonders hervorzuheben ist die langanhaltende Wirkung. Noch vier Wochen nach Impfung wurde eine breite und starke T-Zell-Immunantwort nachgewiesen. In ersten Folgeuntersuchungen blieben diese Immunantworten in unveränderter Stärke bestehen. Selbst in stark immungeschwächten Patientinnen und Patienten waren die durch CoVac-1 aktivierten T-Zell-Antworten deutlich stärker ausgeprägt als bei Genesenen nach natürlicher Infektion und auch potenter als die T-Zell-Immunität, die durch zugelassene mRNA- oder Vektorimpfstoffe erzeugt wird.
Eigene Impfstoffentwicklung, Herstellung und Erprobung
CoVac-1 wird im Wirkstoffpeptidlabor und der sogenannten GMP-Einheit des Universitätsklinikums und der Medizinischen Fakultät Tübingen hergestellt. Auch hier wird auf die langjährige Erfahrung und Expertise bei der Produktion von Impfstoffen für Krebserkrankte zurückgegriffen. Die klinische Evaluation des T-Zell-Aktivators erfolgt in der KKE Translationale Immunologie, einer deutschlandweit einzigartigen Einrichtung im Department Innere Medizin des Universitätsklinikums. Diese wurde etabliert, um innovative Immuntherapiekonzepte möglichst rasch in ersten klinischen Studien erproben zu können, damit Patienten und Patientinnen schnellstmöglich von neuen Erkenntnissen der Forschung profitieren. Die Studie wurde unter Leitung des Tübinger Universitätsklinikums in Tübingen und an Kliniken in Frankfurt am Main und der Berliner Charité durchgeführt.
Weitere Entwicklung von T-Zell-Aktivatoren
Basierend auf diesen ermutigenden Ergebnissen arbeitet das Team bereits an der Entwicklung von Impfungen unter Verwendung von T-Zell-Aktivatoren gegen zahlreiche weitere Infektionserkrankungen, die eine Bedrohung für immungeschwächte Tumorpatienten und -patientinnen darstellen. Zudem liefert diese Studie einen wichtigen Beitrag für die Entwicklung von therapeutischen Impfungen für Betroffene. Dies wird derzeit in Patientinnen und Patienten mit verschiedenen soliden Tumoren und Blutkrebserkrankungen untersucht.
Originalpublikation:
Phase I/II trial of a peptide-based COVID-19 T-cell activator in patients with B-cell deficiency; doi: https://doi.org/10.1038/s41467-023-40758-0
Emissionsgutschriften durch vermiedene Entwaldung halten oft nicht, was sie versprechen
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Projekte, die die Abholzung von Wäldern reduzieren, verkaufen oft Emissionsgutschriften – zum Beispiel an Verbraucher, die Flugtickets erwerben. Über 90 Prozent dieser Projektgutschriften gleichen jedoch die Treibhausgasemissionen nicht wirklich aus. Zu diesem Schluss kommt eine Studie der Vrije Universiteit Amsterdam (Niederlande), der Universität Bonn, der University of Cambridge (Vereinigtes Königreich) und des European Forest Institutes in Barcelona (Spanien). Sie wurde beispielhaft für 26 Projekte in sechs Ländern durchgeführt. Die Ergebnisse sind nun im renommierten Journal Science erschienen.
Weltweit gibt es ein wachsendes Interesse an Kompensationsmechanismen für den Klimaschutz. Emissionsgutschriften erreichten im Jahr 2022 einen Marktwert von insgesamt 2 Milliarden Dollar. Darüber hinaus wird die Übertragung von Emissionsgutschriften als handelbare finanzielle Einheiten, die Treibhausgasemissionen kompensieren, im Pariser Klima-Abkommen von 2015 gefördert. Das internationale Forschungsteam untersuchte insgesamt 26 Projekte in Peru, Kolumbien, Kongo, Tansania, Sambia und Kambodscha. Die meisten dieser Schutzprojekte haben kaum zum Waldschutz beigetragen. Darüber hinaus waren die Treibhausgas-Reduktionen durch den Waldschutz geringer als angegeben.
West und seine Forscherkollegen bewerteten die Wirkung von freiwilligen REDD+-Projekten: Reducing Emissions from Deforestation and forest Degradation (Minderung von Emissionen aus Entwaldung und Schädigung von Wäldern) in Entwicklungsländern. Dabei handelt es sich um ein freiwilliges Klimaschutzinstrument, das es ermöglicht, Treibhausgasemissionen durch Waldschutz zu kompensieren.
Die Forscher sammelten Daten über freiwillige REDD+-Projekte und Projektregionen, einschließlich der historischen Entwaldung, um kontrafaktische Szenarien für die Projektgebiete zu erstellen: Szenarien darüber, was ohne das REDD+-Programm geschehen wäre. Anschließend verglichen sie diese Referenzszenarien mit den Berechnungen der Projektentwickler.
Für die meisten dieser Projekte fanden die Forscher keine Belege dafür, dass sie die Entwaldung verringern. Sie schätzen, dass 90 Prozent der Gutschriften aus den REDD+-Projekten die Treibhausgasemissionen nicht tatsächlich ausgleichen. Die Projekte, die die Abholzung reduzieren, überschätzen ihre Auswirkungen. Das führt dazu, dass die Projekte mehr Kohlenstoffgutschriften ausstellen, als sie sollten.
Den Forschern zufolge bedeutet dies, dass die von Einzelpersonen und Organisationen zur Reduzierung ihrer eigenen Emissionen gekauften Emissionsgutschriften größtenteils “heiße Luft” sind und in Wirklichkeit nicht ausgleichen. “Wir machen uns selbst etwas vor, wenn wir diese Kompensationen kaufen”, sagt Dr. Thales A. P. West vom Institut für Umweltstudien der Vrije Universiteit Amsterdam. “Einzelpersonen und Organisationen geben Milliarden von Dollar für eine Strategie zur Eindämmung des Klimawandels aus, die nicht funktioniert, anstatt dieses Geld in etwas zu investieren, das tatsächlich etwas bewirken kann, zum Beispiel in saubere Energie.”
An der Studie ist auch Prof. Dr. Jan Börner vom Institut für Lebensmittel- und Ressourcenökonomik (ILR) sowie vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn beteiligt. “Emissionsgutschriften aus dem REDD+-Programm können ein Weg zur Reduzierung des Kohlendioxid-Ausstoßs sein. Die Ergebnisse der Studie sehe ich als einen dringenden Aufruf dafür zu sorgen, dass die Methoden zur Verifizierung und Evaluierung der emittierten Zertifikate verbessert werden”, sagt Börner. Der Professor für Ökonomie der nachhaltigen Landnutzung & Bioökonomie ist auch Sprecher des Transdisziplinären Forschungsbereichs “Sustainable Futures” an der Universität Bonn.
Beteiligte Institutionen und Finanzierung:
Neben der Vrije Universiteit Amsterdam (Niederlande) und der Universität Bonn sind an der Studie die University of Cambridge (Vereinigtes Königreich), das European Forest Institute in Barcelona (Spanien), das Center for International Forestry Research in Lima (Peru), die North Carolina State University in Raleigh (USA) und die University of New South Wales in Sydney (Australien) beteiligt. Die Forschung wurde von der Internationalen Klima- und Waldinitiative Norwegens (NICFI), dem Meridian Institute, der Global Comparative Study on REDD+ des Center for International Forestry Research und dem Bundesministerium für Ernährung und Landwirtschaft sowie der Deutschen Forschungsgemeinschaft gefördert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Börner
Institut für Lebensmittel- und Ressourcenökonomik (ILR)
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel. +49 228 73-3548
E-Mail: jborner@uni-bonn.de
Originalpublikation:
Thales A. P. West, Sven Wunder, Erin O. Sills, Jan Börner, Sami W. Rifai, Alexandra N. Neidermeier, Gabriel Frey, Andreas Kontoleon: Action needed to make carbon offsets from forest conservation work for climate change mitigation, Science, DOI: 10.1126/science.ade3535; https://www.science.org/doi/10.1126/science.ade3535
Viele Kinder meiden die Schultoiletten
Dr. Inka Väth Kommunikation und Medien
Universitätsklinikum Bonn
Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn leitet wissenschaftliche Auswertung einer umfassenden Studie zu Sanitäranlagen an Berliner Schulen
Zusammen mit dem Institut für Hygiene und Öffentliche Gesundheit (IHPH) des Universitätsklinikums Bonn (UKB) hat die German Toilet Organization (GTO) mit Sitz in Berlin eine wissenschaftliche Studie zu Schultoiletten an 17 weiterführenden Schulen aus 11 Berliner Bezirken durchgeführt. Heute wurde sie im Rahmen einer Pressekonferenz der Öffentlichkeit vorgestellt. Aus den Studienergebnissen geht klar hervor, dass die Mehrheit der Schülerinnen und Schüler die Schultoiletten als einen negativen Ort wahrnimmt und daher die Nutzung von vielen vermieden wird. Funktionelle Schäden, fehlende Privatsphäre, Gestank und eine unzureichende Versorgung mit Füllgütern wie Toilettenpapier und Seife sind weitere Beanstandungen, die sich mit Berichten aus anderen Städten decken. Es wurde aber auch deutlich, dass einfache Maßnahmen signifikante Verbesserungen erzielen können. Dazu gehören die strukturell verankerte Partizipation der Schülerinnen und Schüler in die Gestaltung und Nutzung von Sanitärräumen, ein gut organisiertes und sichtbares Mängelmanagement durch die Schule sowie die Umsetzung von zwei Reinigungszyklen pro Tag, wovon mindestens eine im Tagdienst durchgeführt werden sollte.
Ziel der Berliner Studie [1] war es, valide Daten zur subjektiven Wahrnehmung und dem Nutzungsverhalten aus der Perspektive der Schülerinnen und Schüler bezüglich ihrer Schultoiletten zu erheben und gleichzeitig eine Bestandsaufnahme zur Funktionsfähigkeit und Ausstattung sowie zu wichtigen strukturellen Prozessen wie Reinigung, Wartung und Instandhaltung der Schultoiletten durchzuführen. Darüber hinaus war es den Autorinnen und Autoren der Studie in der Konzeption und Auswertung besonders wichtig, mögliche Zusammenhänge zwischen einzelnen Messgrößen zum Zustand der Toiletten, strukturellen Maßnahmen der Schule und der Wahrnehmung der Schülerinnen und Schüler zu ermitteln. Aus den Ergebnissen konnten Handlungsempfehlungen für Schulen und Politik abgeleitet werden, verbunden mit einer klaren Aufforderung, jetzt zu handeln.
Die Ergebnisse bestätigen die Erfahrungen, die sowohl die GTO als auch das IHPH in vielfältigen Projekten gesammelt haben: Sanitärräume sind dann ein Ort, an dem sich die Schulkinder gerne aufhalten, wenn sie in ihrer Komplexität erfasst und so gestaltet werden, dass sie nicht allein auf das Merkmal „Ausstattung“ oder „Fehlverhalten der Schülerinnen und Schüler“ reduziert werden. Die Vermeidung des Toilettengangs während des Schulaufenthalts aufgrund der negativen Wahrnehmung der Sanitärräume führt zu einer Reihe vielfach belegter gesundheitlicher Risiken, angefangen von Konzentrationsstörungen bis hin zu Blasenentzündungen, Verstopfung mit Bauchschmerzen und sogar Infektionskrankheiten. Aus diesem Grunde drängen das IHPH und auch die GTO schon lange darauf, den Ort endlich aus der Tabuzone herauszuholen und anstelle von Schuldzuweisungen eine konstruktive, gemeinschaftliche Herangehensweise für eine nachhaltige Besserung der Zustände voranzutreiben.
Dr. Andrea Rechenburg, die die Auswertung der Daten am IHPH leitete, betonte, dass das Monitoring des Nachhaltigkeitsziels Nr. 6 „Verfügbarkeit und nachhaltige Bewirtschaftung von Wasser und Sanitärversorgung für alle gewährleisten“ in Deutschlands Schulen lückenhaft ist, auch wenn national die Versorgung als gesichert gilt. Hier entsteht der Eindruck, dass im Grunde kein Handlungsbedarf bestehe, dabei sind aktuell keine Daten für weiterführende Schulen und den städtischen und ländlichen Raum vorhanden, und die tatsächliche Funktionalität von Sanitärräumen wird nicht dokumentiert. Zukünftig müsse mit erweiterten Indikatoren gearbeitet werden, die abbilden, welche Bedarfe es für die Schülerinnen und Schüler heute wirklich gibt und wo diese im Sinne des Nachhaltigkeitsziel 6 für alle und zu jeder Zeit erfüllt werden.
Das Institut für Hygiene und öffentliche Gesundheit (IHPH) beschäftigt sich mit seiner Initiative „Hygiene-Tipps für Kids“ bereits seit 20 Jahren mit Themen der Infektionsprävention und Hygiene im direkten Lebensumfeld von Kindern. Der schlechte Zustand der Schultoiletten ist immer wieder Ausgangspunkt von Anfragen aus der Schulgemeinschaft. Innovative, partizipative Elemente wie die Ausbildung von „Junior-Hygieneinspektoren“ und der Blick auf die strukturellen Prozesse von Reinigung und Wartung sind von Beginn an Teil des Konzepts. Wasser, Sanitärversorgung und Hygiene (WASH) in Schulen ist ein Themenkomplex zu dem das IHPH in seiner Funktion als Kollaborationszentrum der Weltgesundheitsorganisation (WHO) auch international schon seit 2015 arbeitet. Es war u. a. maßgeblich beteiligt an der Erstellung des in 2019 von der WHO herausgegebenen Informationspakets zur Verbesserung von WASH in Schulen für das Schulpersonal [2].
Quellen
[1] German Toilet Organization, Institut für Hygiene und Öffentliche Gesundheit des Universitätsklinikums Bonn. Toiletten machen Schule® – Studie zu Sanitäranlagen an Berliner Schulen, Berlin: 2023. germantoilet.org/de/ [Letzter Zugriff 25.8.2023], www.ukbonn.de/ihph, www.hygiene-tipps-fuer-kids.de.
[2] Improving health and learning through better water, sanitation and hygiene in schools: An information package for school staff. Copenhagen: WHO Regional Office for Europe;2019. www.who.int/europe/publications/i/item/9789289054508 [Letzter Zugriff 18.8.2023]
Weiterführende Informationen auf folgenden Webseiten:
www.ukbonn.de/ihph/
Pressekontakt:
Daria Siverina
Stellv. Pressesprecherin am Universitätsklinikum Bonn
Stabsstelle Kommunikation und Medien am Universitätsklinikum Bonn
Tel. +49 228 287-14416
E-Mail: daria.siverina@ukbonn.de
Dr. Andrea Rechenburg
Geschäftsführerin WHO Kollaborationszentrum
Institut für Hygiene und Öffentliche Gesundheit
WHO Kollaborationszentrum für Wassermanagement und Risikokommunikation zur Förderung der Gesundheit
Universitätsklinikum Bonn
Tel.: +49 228 287-19518
E-Mail: Andrea.Rechenburg@ukbonn.de
Zum Universitätsklinikum Bonn: Im UKB werden pro Jahr etwa 500.000 Patient*innen betreut, es sind ca. 9.000 Mitarbeiter*innen beschäftigt und die Bilanzsumme beträgt 1,6 Mrd. Euro. Neben den über 3.300 Medizin- und Zahnmedizin-Studierenden werden pro Jahr weitere 585 Personen in zahlreichen Gesundheitsberufen ausgebildet. Das UKB steht im Wissenschafts-Ranking sowie in der Focus-Klinikliste auf Platz 1 unter den Universitätsklinika (UK) in NRW und weist den dritthöchsten Case Mix Index (Fallschweregrad) in Deutschland auf. Das F.A.Z.-Institut hat das UKB 2022 und 2023 als Deutschland begehrtesten Arbeitgeber und Ausbildungs-Champion unter den öffentlichen Krankenhäusern bundesweit ausgezeichnet.
Hitzewellen werden häufiger und tödlicher
Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Hitzewellen mit vermehrten Todesfällen aufgrund von Dehydrierung, Hitzeschlag oder Herz-Kreislaufkollaps nehmen zu. Die Übersterblichkeit eines heissen „Jahrhundertsommers“ wie 2003 ist heute alle zehn bis zwanzig Jahre zu erwarten, und in einer Zwei-Grad-Welt alle zwei bis fünf Jahre. Südeuropa ist besonders von zunehmenden Hitzewellen bedroht, ebenso die Golf- und Atlantikküsten der USA, die Pazifikküste Lateinamerikas, der Mittlere Osten und Südostasien.
Hitzewellen, wie wir sie aktuell erleben, sind besonders für ältere, kranke und arme Menschen tödlich. Die Hitzewelle von 2003 mit Temperaturen in Europa bis zu 47,5 Grad, gehörte mit geschätzten 45’000 bis 70’000 Todesopfern innert weniger Wochen zu den schlimmsten Naturkatastrophen der vergangenen Jahrzehnte. Wälder standen in Flammen, Felder verdorrten und in den Städten füllten sich die Notfallstationen. Die weltweiten Kosten beliefen sich auf rund 13 Milliarden US-Dollar. Trotzdem ist die öffentliche Aufmerksamkeit für die Risiken solcher Hitzewellen im Vergleich zu anderen klimabedingten Extremen noch gering. Das ist riskant, wie eine aktuell im Fachmagazin «Nature Communications» erschienene externe SeiteStudiecall_made zeigt. Hitzewellen wie diejenige von 2003 könnten in den kommenden Jahren zur neuen Norm werden.
Epidemiologie und Klimamodellierung kombiniert
Forschende des Instituts für Umweltentscheidungen der ETH Zürich haben für die Studie mit einer internationalen Gruppe von Epidemiologinnen und Epidemiologen zusammengearbeitet. Diese sammelt seit 2013 systematisch Daten zur täglichen hitzebedingten Übersterblichkeit für 748 Städte und Gemeinden in 47 Ländern Europas, Südostasiens, Lateinamerikas, in den USA und Kanada. Mit diesem Datensatz haben die Forschenden die Beziehung zwischen täglicher Durchschnittstemperatur und Mortalität für sämtliche 748 Orte berechnet. Daraus ergibt sich für jeden Ort eine Idealtemperatur, bei der es zur geringsten Übersterblichkeit kommt. In Bangkok zum Beispiel liegt dieser Wert bei 30 Grad, in São Paulo bei 23, in Paris bei 21 und in Zürich bei 18 Grad.
Physikalisch plausible Wetterextreme modelliert
Jedes Zehntelgrad über diesem Idealwert vergrössert die Übersterblichkeit. «Hitze ist nicht gleich Hitze», sagt Samuel Lüthi, Erstautor der Studie und Doktorand an der Professur für Wetter- und Klimarisiken von David Bresch. «Dieselbe Temperatur wirkt sich in Athen und Zürich komplett unterschiedlich auf die hitzebedingte Übersterblichkeit in der Bevölkerung aus.» Diese hängt nicht nur von der Temperatur ab, sondern auch von der Physiologie (Gewöhnung), Verhalten (lange Siestas über Mittag), Städteplanung (Grünflächen vs. Beton), der demographischen Bevölkerungsstruktur und dem jeweiligen Gesundheitssystem.
Mit den Idealwerten berechneten die Forschenden, wie sich die Übersterblichkeit bei einer durchschnittlichen globalen Erhitzung von 0.7 Grad (Wert für das Jahr 2000), 1.2 Grad (Wert für das Jahr 2020), 1.5 und 2 Grad entwickelt. Dafür nutzten sie fünf besonders leistungsstarke Klimamodelle, sogenannte SMILEs (Single-Model Initial-condition Large Ensembles). «Wir haben dasselbe Modell bis zu 84-mal mit jeweils leicht veränderten Wetterbedingungen laufen lassen. Das ergibt eine Vielzahl möglicher Wettersysteme, die bei einem bestimmten CO2-Gehalt in der Atmosphäre wahrscheinlich sind», erklärt Lüthi. Diese Daten koppelten die Forschenden anschliessend mit einem epidemiologischen Model, um die entsprechende Hitzemortalität zu berechnen.
Bisherige Prognosen zu Hitzemortalität basierten meist auf Berechnungen mit einem Klimamodell für einen bestimmten Zeitraum. «Mit unserer Methode können wir Extreme im Klimasystem viel besser quantifizieren und Unsicherheiten aufgrund von Eigenheiten bestimmter Modelle reduzieren.» Mittels Supercomputern hat Lüthi die Hitze-Mortalitätsauswirkungen von über 7000 Jahren physikalisch möglicher Wetterphänomene berechnet. Der entsprechende Datensatz beläuft sich auf über ein Terrabyte.
Bis zu 15 Prozent hitzebedingte Todesfälle
Die Ergebnisse zeigen, dass das Risiko von Hitzewellen mit grosser Übersterblichkeit bereits in den vergangenen 20 Jahren stark zugenommen hat. «Die Übersterblichkeit eines Hitzesommers wie 2003, der früher als extremes Ereignis galt, das alle 100 Jahre vorkommt, erwarten wir heute alle 10 bis 20 Jahre», sagt Lüthi, «und in einer um zwei Grad wärmeren Welt an vielen Orten sogar alle zwei bis fünf Jahre». Hitzemortalitätswerte, die noch im Jahr 2000 als sehr unwahrscheinlich galten (einmal alle 500 Jahre), werden in einer Zwei-Grad-Welt 14-mal alle 100 Jahre auftreten. Unter der Annahme, dass keine Anpassung an die Hitze geschieht, erhöht sich damit die Wahrscheinlichkeit der Mortalität bei solch extremen Hitzewellen um den Faktor 69.
Manche Regionen sind besonders von zunehmenden Hitzewellen bedroht, darunter die Golf- und Atlantikküsten in den USA, die Pazifikküste Lateinamerikas, der Mittlere Osten, Südostasien und die Mittelmeerregion. Selbst in moderaten Klimaszenarien kann in diesen Gebieten ein heisser Sommer dazu führen, dass zehn Prozent der gesamten Todesfälle in einem Land durch Hitze bedingt sind. In Paris, das 2003 besonders von der Hitzewelle betroffen war, waren es damals fünf bis sieben Prozent. Das sind rund 2700 Menschen, die allein in der französischen Metropole aufgrund der Klimaerhitzung frühzeitig gestorben sind. An Dehydrierung, Hitzeschlag oder Herz-Kreislaufkollaps. «In Zukunft könnten laut unseren Berechnungen in Paris bis zu 15 Prozent der Todesfälle hitzebedingt sein», sagt Lüthi. Europa und insbesondere Südeuropa gehörten zu den «Hotspots». Zwei Faktoren kämen dort zusammen: Die Temperaturen steigen doppelt so schnell wie im globalen Mittel, und die Bevölkerung ist überdurchschnittlich alt.
Beängstigender Ausblick
«Die Resultate haben mich erschreckt», sagt der 30-jährige Klimawissenschaftler. «Ich habe während der Studie immer wieder versucht, hinter den Zahlen die betroffenen Menschenleben zu sehen. Das ist beängstigend.» Dabei seien die den Modellierungen zugrunde liegenden Annahmen eher konservativ. Mit den aktuellen Treibhausgasemissionen ist die Welt nicht auf dem Pfad zu einer maximalen Erhitzung von 1.5 bis 2 Grad Celsius, wie in der Studie angenommen, sondern zu 2.6 Grad. Zudem sind das Bevölkerungswachstum, die Migration in die Städte und die Zunahme von älteren Menschen nicht in den Zukunftsszenarien berücksichtigt – alles Faktoren, welche die hitzebedingte Übersterblichkeit weiter erhöhen dürften. Schliesslich fehlten für die Studie epidemiologische Daten zu Afrika und Indien, beides Regionen, die stark von der Klimakrise und von Armut betroffen sind.
Die Forschenden schreiben, dass die Resultate die Dringlichkeit zum Handeln verdeutlichen. Um zunehmende Hitzewellen zumindest einzudämmen, sei der wichtigste Schritt, so schnell wie möglich aus den fossilen Energien auszusteigen, sagt Lüthi. Die Studie zeige, dass das Risiko bei 1.5 Grad zwar bereits hoch ist, aber immer noch deutlich geringer als bei zwei Grad. Allerdings kann sich die Gesellschaft auch teilweise an höhere Temperaturen anpassen, um die Auswirkungen künftiger Hitzewellen zu vermindern. «Wir sollten uns nun schnellstmöglich auf das Unabwendbare vorbereiten und Situationen, die nicht mehr kontrollierbar sind, um jeden Preis verhindern», rät Lüthi.
Wissenschaftliche Ansprechpartner:
Samuel Lüthi
Originalpublikation:
Lüthi S, Fairless C, Fischer EM et al. Rapid increase in the risk of heat-related mortality. Nature Communications 14, 4894 (2023). Doi: 10.1038/s41467-023-40599-x
Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/08/hitzewellen-we…
Meere geben Mikroplastik an die Atmosphäre ab
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Winzige Plastikteilchen sind selbst fernab von Küsten in der Meeresluft zu finden. Deutsche und norwegische Forschende präsentieren erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Luft über dem Nordatlantik ist und woher die Partikel stammen. Demnach werden sie nicht nur vom Wind transportiert, sondern gelangen zum Teil auch aus dem Meerwasser in die Atmosphäre. Die Ergebnisse sind kürzlich im Fachjournal Nature Communications erschienen.
Die Meeresluft enthält selbst in entlegenen Teilen der Welt Mikroplastikteilchen. Die winzigen Kunststoffpartikel stammen nicht nur von Quellen an Land, sondern gelangen auch über das Meerwasser in die Atmosphäre. Das ermittelten deutsche und norwegische Forschende unter Leitung von Dr. Barbara Scholz-Böttcher von der Universität Oldenburg. Für ihre Studie analysierten sie Luftproben, die sie entlang der norwegischen Küste bis in die Arktis genommen hatten. Die Ergebnisse sind jetzt im Fachjournal Nature Communications publiziert.
„Mit unserer Studie präsentieren wir erstmals Daten dazu, wie hoch die Masse verschiedener Plastiksorten in der Meeresluft ist“, so Isabel Goßmann, Doktorandin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Erstautorin. Das Forschungsteam sammelte die Proben 2021 während einer Exkursion des Forschungsschiffs Heincke. Der nördlichste Punkt der Fahrt war die Bäreninsel, die südlichste Insel des Svalbard-Archipels, die auf halbem Weg zwischen dem Festland und der Hauptinsel Spitzbergen liegt. Das Team verwendete zwei unterschiedliche Vorrichtungen, um Luftproben zu sammeln. Die Geräte saugten aktiv Luft an und waren in zwölf Metern Höhe am Bug des Forschungsschiffs montiert.
Diese Luftproben analysierten die Forschenden mit Hilfe der Pyrolyse-Gaschromatographie-Massenspektrometrie. Dieses Verfahren ermöglicht es, die verschiedenen Kunststoffsorten durch thermische Spaltung und selektive Analyse nachzuweisen und zu quantifizieren. Anschließend führte das Team Modellrechnungen durch und rekonstruierte so Quellen und Verbreitungswege der nur wenige Tausendstel Millimeter großen Teilchen.
Das Ergebnis: In allen Proben tauchten Mikroplastikteilchen aus Polyester auf, außerdem Polyethylenterephthalate (PET), die vermutlich als Textilfasern in die Atmosphäre gelangt waren. Auch weitere Kunststoffe ließen sich nachweisen, unter anderem Polypropylen (PP), Polycarbonat und Polystyrol. Eine weitere wichtige Quelle stellte Reifenabrieb dar, also kleine Gummipartikel, die sich bei der Fahrt und vor allem beim Bremsen von Autoreifen ablösen. Die Forschenden ermittelten Konzentrationen von bis zu 37,5 Nanogramm – also Milliardstel Gramm – Mikroplastik pro Kubikmeter Luft. „Diese Schadstoffe sind omnipräsent. Wir finden sie selbst in abgelegenen polaren Regionen“, sagt Hauptautorin Goßmann.
Bisher war kaum etwas darüber bekannt, wie stark die Meeresluft mit Mikroplastik inklusive Reifenabrieb verschmutzt ist. „Es gibt insgesamt nur wenige Untersuchungen zur Konzentration dieser Schadstoffe in der Luft“, so Studienleiterin Scholz-Böttcher vom ICBM. „Unsere Modellrechnungen deuten darauf hin, dass das Mikroplastik in der Meeresluft sowohl direkt von Quellen an Land als auch aus dem Meer stammt“, berichtet die Forscherin. Das Team geht davon aus, dass Plastikteilchen, die nahe der Meeresoberfläche schwimmen, zum Beispiel bei stürmischem Wetter über die Gischt oder durch platzende Luftbläschen in die Atmosphäre gelangen.
Ins Meerwasser gelangt das Mikroplastik wiederum über Flüsse, aber auch aus der Atmosphäre, aus der die Partikel etwa durch Regen herausgewaschen werden. Eine weitere mögliche Quelle sind Schiffe: In einer früheren Studie hatte ein Team um Scholz-Böttcher nachgewiesen, dass Schiffsanstriche in der offenen Nordsee die größte Quelle für Mikroplastik darstellen. In der aktuellen Studie fanden sich Inhaltsstoffe von Farben wie Polyurethane oder Epoxidharze auch in den Luftproben.
Neben Forschenden des ICBM waren an der Studie auch Forscherinnen und Forscher des Alfred-Wegener-Instituts, Helmholz-Zentrum für Polar und Meeresforschung (AWI) in Bremerhaven, der TU Berlin, des Norwegischen Instituts für Luftuntersuchungen (NILU) und des Norwegischen Instituts für Öffentliche Gesundheit (NIPH) beteiligt.
Wissenschaftliche Ansprechpartner:
Dr. Barbara Scholz-Böttcher, Tel.: 0441/798-5362, E-Mail: barbara.scholz.boettcher@uol.de
Originalpublikation:
Isabell Goßmann et al: “Occurrence and backtracking of microplastic mass loads including tire wear particles in northern Atlantic air”, Nature Communications 14, 3707 (2023). https://doi.org/10.1038/s41467-023-39340-5
Weitere Informationen:
https://uol.de/icbm/ogc
Niedrigere Entzündungsmarker unter Vitamin D-Supplementierung
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Nach derzeitiger Studienlage geht die Vitamin D-Einnahme mit einer verringerten Krebssterblichkeit einher. Könnten entzündungshemmende Effekte des Vitamins die Ursache dafür sein? Eine am Deutschen Krebsforschungszentrum (DKFZ) durchgeführte Metaanalyse ergab nun: Die Vitamin D-Einnahme senkt bei Menschen, die an Krebs oder Krebsvorstufen leiden, die Serumspiegel eines wichtigen Entzündungsmarkers.
Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Ob eine Vitamin D-Supplementierung die Entstehung von Krebs verhindern bzw. die Prognose von Krebskranken verbessern kann, wurde bereits in zahlreichen Studien untersucht. Nach derzeitiger Studienlage senkt eine regelmäßige Vitamin D3-Einnahme die Wahrscheinlichkeit, an einer Krebserkrankung zu versterben, um ca. zwölf Prozent.
Die biologischen Mechanismen, über die Vitamin D den Ausgang einer Krebserkrankung beeinflusst, sind noch weitgehend ungeklärt. Es gibt Hinweise auf einen Einfluss des Vitamins auf entzündungsfördernde Signalwege. „Hohe Spiegel an Entzündungsmarkern sind bei Krebspatienten häufig mit einem ungünstigen Ausgang der Erkrankung verbunden. Dies gilt insbesondere für Darm-, Brust-, Pankreas-, Leber- und Prostatakrebs. Es erscheint daher plausibel, dass eine Vitamin D-Supplementierung den entzündungsfördernden Prozessen entgegenwirkt und damit den Verlauf der Erkrankung günstig beeinflussen kann“, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum.
Um diese Vermutung zu prüfen, führten Wissenschaftler um Brenner nun erstmals eine systematische Literaturrecherche durch, bei der sie Studien zur Wirkung einer Vitamin D-Supplementierung auf verschiedene Entzündungsmarker zusammenfassten. Die Forscherinnen und Forscher berücksichtigten dabei acht Studien. Die insgesamt 592 eingeschlossenen Teilnehmer, die an Krebs oder an Krebsvorstufen litten, waren per Zufall dem Vitamin D-Arm oder dem Placebo-Arm zugewiesen worden.
Die DKFZ-Forscher fanden bei Studienteilnehmern unter Vitamin D-Substitution deutlich niedrigere Serumspiegel des entzündungsfördernden Tumor-Nekrosefaktors alpha (TNF alpha). Dieser Botenstoff wird bei so gut wie allen Entzündungen ausgeschüttet und aktiviert eine Vielzahl verschiedener Immunzellen. Für zwei weitere wichtige Botenstoffe, Interleukin 6 und CRP, beobachteten die Forscher ebenfalls niedrigere Spiegel unter Vitamin D-Substitution, jedoch waren die Effekte bei den insgesamt noch sehr begrenzten Patientenzahlen nicht statistisch signifikant.
Eine Einschränkung bisheriger Studien ist, dass alle Patienten die gleiche Dosis erhielten unabhängig von ihrem Ausgangs-Vitamin D-Spiegel. In einer gezielten, dem individuellen Bedarf angepassten Vitamin D-Supplementierung sieht Hermann Brenner ein noch deutlich größeres Potenzial. Hierzu führt sein Team derzeit in Zusammenarbeit mit zahlreichen Kliniken in Deutschland eine große randomisierte Studie durch. Erste Ergebnisse haben bereits gezeigt, dass mit einer solchen personalisierten Vitamin D-Supplementierung der Vitamin D-Mangel sehr zuverlässig ausgeglichen werden kann.
Durch sorgfältige längerfristige Nachbeobachtung einer noch deutlich größeren Zahl von Patienten untersuchen die Forscher nun, wie sich dieser neue Ansatz auf das Entzündungsgeschehen, die Lebensqualität und die Prognose der Patienten auswirkt. Erste Ergebnisse hierzu werden im kommenden Jahr vorliegen.
* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.
Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:
Nationales Centrum für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 8 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de
Originalpublikation:
Tafirenyika Gwenzi, Anna Zhu, Petra Schrotz-King, Ben Schöttker, Michael Hoffmeister, Hermann Brenner: Effects of vitamin D supplementation on inflammatory response in patients with cancer and precancerous lesions: systematic review and meta-analysis of randomized trials.
Clinical Nutrition 2023, DOI: https://doi.org/10.1016/j.clnu.2023.05.009
Neue Studie der Goethe-Universität zeigt: Auch gereinigtes Abwasser wirkt sich auf Flüsse aus
Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Kläranlagen sind ohne Zweifel eine große Errungenschaft, haben sie doch erheblich zur Verbesserung der Wasserqualität in natürlichen Gewässern beigetragen. Eine im Fachjournal „Water Research“ veröffentlichte Studie zeigt aber, dass noch immer Substanzen in den Wasserkreislauf gelangen, die sich auf die Zusammensetzung der darin lebenden Organismen auswirken.
Die Einleitungen aus Kläranlagen bewirken einerseits, dass manche Arten verloren gehen, andere wiederum profitieren. Dezimiert werden vor allem bestimmte Insektenordnungen, wie die Larven von Steinfliegen und Köcherfliegen. Bestimmte Würmer und Krebstiere hingegen können in ihrer Anzahl hingegen zunehmen. Dies weist ein Team der Goethe-Universität um Daniel Enns und Dr. Jonas Jourdan in einer im Fachjournal „Water Research“ veröffentlichten großangelegten Studie nach. Sie haben insgesamt 170 Kläranlagen in Hessen auf die Artenzusammensetzung von Wirbellosen untersucht.
Kläranlagen gehören unverzichtbar zur Infrastruktur der modernen Welt; sie haben einen wesentlichen Beitrag zur Verbesserung der Wasserqualität in unseren Oberflächengewässern geleistet. Allerdings sind sie meist nur eingeschränkt in der Lage, sogenannte Spurenstoffe, zu denen auch Wirkstoffe aus Medikamenten und Körperpflegeprodukten, Pestizide und andere synthetische Substanzen gehören, vollständig aus dem Abwasser zu entfernen. So gelangen diese Stoffe in behandeltem Abwasser zurück in die Gewässer und stellen eine zusätzliche Belastung für Flüsse und Bäche dar, die die Wasserfauna und die bereits anfälligen Insektengemeinschaften weiter unter Druck setzt. Bisherige Studien – die sich zumeist auf einzelne Kläranlagen konzentrierten – haben bereits gezeigt, dass die Gemeinschaften der wirbellosen Organismen unterhalb der Einleitungen im Allgemeinen von verschmutzungstoleranten Artgruppen dominiert werden.
Bisher war jedoch unklar, wie allgegenwärtig diese Veränderungen sind. Deshalb hat nun ein Team von Biologinnen und Biologen der Goethe-Universität Frankfurt umfassend untersucht, wie sich die Abwässer aus 170 hessischen Kläranlagen auf die Artenzusammensetzung von Wirbellosen auswirkt. Dabei erfolgte eine Anpassung der herkömmlichen Vorstellung, dass durch den Menschen verursachter Stress die Anzahl der Arten und somit die Vielfalt in Lebensräumen verringert: Die Befunde deuten darauf hin, dass vielmehr ein Artenaustausch beobachtet wird. Manche Arten gehen durch Einleitungen aus Kläranlagen durchaus verloren – das betrifft zum Beispiel die Larven von Steinfliegen und Köcherfliegen, sie verschwinden durch die Abwassereinleitungen vielerorts völlig. Andere Artgruppen, etwa bestimmte Würmer und Krebstiere hingegen profitieren und lassen sich vermehrt nachweisen. Diese Veränderung ist vor allem in Bächen und kleineren Flüssen zu beobachten. Es konnten deutliche Veränderungen in der Zusammensetzung der Artgemeinschaft zwischen den Standorten flussaufwärts und flussabwärts der Kläranlagen festgestellt werden. Insgesamt verändern Kläranlagen die Bedingungen flussabwärts zugunsten von toleranten und zum Nachteil der empfindlichen Artgruppen.
Wie lässt sich die Belastung der Gewässer reduzieren?
Moderne Reinigungstechniken wie Ozonung oder Aktivkohle können die Wasseraufbereitung in Kläranlagen effizienter machen, so dass eine breitere Palette von Schadstoffen, einschließlich zahlreicher Spurenstoffe, aus dem Abwasser entfernt werden kann, bevor es wieder in die Gewässer gelangt. Auch die Zusammenlegung kleinerer Kläranlagen kann zu einer Entlastung der Umwelt beitragen. Bei allen Maßnahmen ist wichtig zu beachten, dass stromaufwärts gelegene Abschnitte nicht bereits beeinträchtigt sind und sich in einem guten chemischen und strukturellen Zustand befinden.
Bilder zum Download: https://www.uni-frankfurt.de/141365425
Wissenschaftliche Ansprechpartner:
Dr. Jonas Jourdan
Wissenschaftlicher Mitarbeiter
Institut für Ökologie, Evolution und Diversität
Goethe-Universität Frankfurt am Main
Telefon 069 798-42149
E-Mail: jourdan@bio.uni-frankfurt.de
Twitter: @Jourdan_Jonas
Originalpublikation:
Enns D, Cunze S, Baker NJ, Oehlmann J, Jourdan J (2023) Flushing away the future: The effects of wastewater treatment plants on aquatic invertebrates. Water Research, 120388. doi.org/10.1016/j.watres.2023.120388
Nachhaltiger Umgang mit Regen- und Siedlungsabwasser: Software plant und optimiert Entwässerungssysteme automatisch
Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Um Regen- und Abwasser aufzusammeln, gibt es in Deutschland eine gut ausgebaute Infrastruktur mit Kanalnetzen und Kläranlagen. Anders sieht es in Entwicklungsländern aus, in denen dies oft fehlt. Ein Start-up der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) will hier Abhilfe schaffen. Es bietet dazu seine Software „ZIGGURAT“ an, die automatisch Entwässerungssysteme nachhaltig planen und optimieren kann. Die Technik berücksichtigt auch die blau-grüne Infrastruktur, das heißt, mögliche Wasserspeicher und technische Maßnahmen zur Versickerung und Verdunstung von Regenwasser. Die Gründer werden mit einem EXIST-Stipendium vom Bundeswirtschaftsministerium gefördert.
Slums, in denen Wellblechhütten dicht an dicht nebeneinanderstehen; direkt daneben Müllberge und stehende Abwässer – solche Zustände gibt es in vielen Gegenden der Welt. Rund die Hälfte der Weltbevölkerung lebt nach wie vor ohne Kanalisationsanschluss und stetig entstehen neue städtische Flächen ohne geordnete Entwässerung. Dabei haben sich die Vereinten Nationen in ihren Nachhaltigkeitszielen auf die Fahne geschrieben, den Zugang zu sauberem Wasser und sanitäre Anlagen für alle Menschen zu ermöglichen. Um dies zu erreichen, braucht es allerdings eine entsprechende Infrastruktur.
Die Planung solcher Kanalnetze für Schmutz-, Regen- oder Mischwasser ist jedoch aufwendig und bedarf einer großen Expertise. „Dabei spielen verschiedene Parameter wie Layout, der Grad der De- oder Zentralisierung, die Kanaldurchmesser und das Gefälle, die Verlegetiefen, die Pump- und Speicheranlagen eine Rolle“, sagt Timo Dilly vom Gründerteam.
Eine Software, mit der sich städtische Entwässerungssysteme automatisch nachhaltig planen lassen, entwickelt derzeit das Team um Dilly von der RPTU in Kaiserslautern. „Sie basiert unter anderem auf der Verknüpfung einer Vielzahl allgemein gültiger technischer Regeln der Tiefbauplanung und mathematischer Methoden, mit denen sich sinnvolle Lösungsvarianten generieren lassen“, sagt Dilly weiter. „Dafür haben wir eigene Algorithmen entwickelt. All dies beruht auf aktuellen Erkenntnissen aus eigenen Forschungsarbeiten in der Siedlungsentwässerung und Hydroinformatik.“
Auch der Klimawandel spielt bei den Planungen solcher Entwässerungssysteme eine Rolle, wie Dilly erläutert: „Der Umgang mit Regenwasser muss komplett neu gedacht werden, wenn man sich zunehmende Wetterextreme vor Augen führt. Wir brauchen Möglichkeiten zum Speichern von Regenwasser, aber auch naturnahe Elemente wie ausreichend Grünflächen. Dadurch lässt sich in heißen Sommermonaten das Stadtklima verbessern.“ In diesem Zusammenhang spricht man auch von blau-grüner Infrastruktur, die bei der Planung neuer Siedlungsentwässerungssysteme eine immer wichtigere Rolle spielt und auch bei ZIGGURAT eingeplant ist. „Mit diesen Maßnahmen erhöhen Städte die Resilienz gegenüber Extremen, senken Kosten und reduzieren negative Auswirkungen auf die Umwelt“, betont Dilly.
In diesem Punkt eignet sich die Software auch für hiesige Städte und Gemeinden, die ihre Entwässerungssysteme künftig anpassen wollen.
Am jungen Unternehmen beteiligt sind neben Dilly seine Kollegen Dr. Amin E. Bakhshipour, Professor Dr. Ulrich Dittmer und Ralf Habermehl aus dem Lehrgebiet Siedlungswasserwirtschaft an der RPTU in Kaiserslautern. Unterstützt werden sie von Marius Lauer, der betriebswirtschaftliche Kenntnisse miteinbringt.
Ihre Software ZIGGURAT möchten sie in Zukunft in einer Online-Plattform zur Verfügung stellen, auf der sich Interessierte einen kostenpflichtigen Account erstellen können. Das Team aus Kaiserslautern stellt neben der Software auch seine Expertise zur Verfügung und bietet etwa Unterstützung bei der Planung an.
Bei seinem Weg in die Selbstständigkeit wird das Unternehmen mit einem „EXIST-Gründerstipendium“ des Bundesministeriums für Wirtschaft und Klimaschutz und dem Europäischen Sozialfonds zur „Existenzgründung aus der Wissenschaft“ gefördert.
Mehr unter ziggurat.ai
Fragen beantwortet:
Timo Dilly
Ziggurat
E-Mail: timo.dilly@rptu.de
Tel.: 0631-205-4643
Neuer Infektionsmechanismus beim Coronavirus entdeckt
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Forschende der Medizinischen Fakultät Heidelberg und des Universitätsklinikums Heidelberg erforschen molekulare Zusammenhänge, die Infektion und Ausbreitung des Coronavirus SARS-CoV-2 begünstigen / Ergebnisse bieten Ansatzpunkt für die Entwicklung antiviraler Therapien
Das Virus SARS-CoV-2, das für die COVID-19-Pandemie verantwortlich ist, löst in den infizierten Zellen eine Stressreaktion aus, die das Eindringen des Virus in die Zellen erleichtert. Auf der Suche nach dem zugrundeliegenden molekularen Mechanismus identifizierten Forschende der Medizinischen Fakultät Heidelberg der Universität Heidelberg und des Universitätsklinikums Heidelberg (UKHD) in Zusammenarbeit mit dem Deutschen Krebsforschungszentrum (DKFZ) sowie der Universität Bristol einen zellulären Faktor mit dem Namen NUAK2. Dessen Menge wird durch die SARS-CoV-2 vermittelte Stressreaktion erhöht und er begünstigt den Eintritt und die Ausbreitung des Coronavirus in menschlichen Zellen. Damit könnte NUAK2 neuer Ansatzpunkt für die Entwicklung antiviraler Wirkstoffe sein.
Das Forschungsteam um Professor Dr. Dr. h.c. Ralf Bartenschlager, Leiter der Abteilung Molekulare Virologie am Zentrum für Infektiologie am UKHD und Dr. Vibhu Prasad, Wissenschaftler in der Molekulare Virologie hat nun die molekularen Wege, die beteiligt sind, wenn SARS-CoV-2 die Zelle infiziert, analysiert. Das zelluläre Eiweißmolekül NUAK2 spielt dabei eine zentrale Rolle.
In Experimenten blockierten die Heidelberger Wissenschaftlerinnen und Wissenschaftler das NUAK2 in den Zellen. Dadurch wurde das Eindringen von SARS-CoV-2-Partikeln in die Zelle vermindert, weil NUAK2 die Menge an ACE2, der Rezeptor für das Virus, reguliert. „Darüber hinaus zeigten unsere Untersuchungen, dass eine erhöhte NUAK2-Konzentration in infizierten Zellen die Anzahl an Rezeptoren auch in nicht infizierten Zellen erhöhte. Dadurch wurden auch diese Zellen verstärkt mit dem SARS-CoV-2 infiziert“, berichtet Dr. Vibhu Prasad.
Und nicht nur bei SARS-CoV-2 ließen sich diese Zusammenhänge nachweisen, sondern auch bei anderen Coronavirus-Arten wie beispielsweise dem humanen Coronavirus-229E – dem „Erkältungsvirus“ – und dem sehr gefährlichen MERS-Coronavirus, das von Kamelen auf den Menschen übertragen werden kann.
„Die Forschungsergebnisse liefern wertvolle Einblicke in die komplizierten Mechanismen der SARS-CoV-2-Infektion und -Ausbreitung. Das Verständnis der Rolle von NUAK2 eröffnet neue Wege für therapeutische Maßnahmen. Indem wir den NUAK2-regulierten Viruseintritt unterbrechen, können wir möglicherweise die Ausbreitung des Virus verhindern und dadurch die Auswirkungen von Coronaviren abmildern“, sagt Professor Ralf Bartenschlager.
Wissenschaftliche Ansprechpartner:
Professor Dr. Dr. h.c. Ralf Bartenschlager, Dr. Vibhu Prasad
Originalpublikation:
Prasad V, Cerikan B, Stahl Y, et al. Enhanced SARS-CoV-2 entry via UPR-dependent AMPK-related kinase NUAK2. Mol Cell. 2023;S1097-2765(23)00467-7. doi:10.1016/j.molcel.2023.06.020
Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/zentrum-fuer-infektiologie/molecular-viro…
Unit Dose: Mehr Sicherheit in der Arzneimitteltherapie
Anna Reiss Presse- und Öffentlichkeitsarbeit
Universitätsklinik der Ruhr-Universität Bochum – Herz- und Diabeteszentrum NRW Bad Oeynhausen
HDZ NRW etabliert mit „Unit Dose“ jetzt modernste Technik zur Medikamentenversorgung
Die Unit-Dose-Herstellung der Zentralapotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen, ist der erste große Baustein verschiedener Digitalisierungs-vorhaben, die im Sinne des Krankenhauszukunftsgesetzes am Bad Oeynhausener Spezialklinikum bis Ende 2024 umgesetzt werden. Von dieser neuen automatisierten Medikamentenversorgung profitieren vor allem die Patienten und das Pflegepersonal. Die Innovation wurde über ein Jahr lang sorgfältig vorbereitet.
„Die Maschine verpackt lückenlos, detailliert und zuverlässig für jeden Patienten zu jedem Einnahmezeitpunkt die genau für ihn richtigen Medikamente – insgesamt etwa 4.000 Stück am Tag“, sagt Anke Möller, Leiterin der Apotheke am Herz- und Diabeteszentrum NRW (HDZ NRW), Bad Oeynhausen. Bisher einmalig ist diese Form der sogenannten Unit-Dose-Versorgung in Ostwestfalen-Lippe aufgrund eines optischen Kontrollgeräts, mit dem Mensch und Maschine gemeinsam einen zusätzlichen Sicherheitscheck ausführen.
Auf den Pflegestationen im HDZ NRW sehen sich vier Apothekerinnen und Apotheker die ärztliche Verordnung der Medikamente an. Wenn zum Beispiel die Medikamente untereinander Wechselwirkungen aufweisen oder die Arzneimitteltherapie im Abgleich mit den Diagnosen optimiert werden kann, besprechen sie dies unter Berücksichtigung aktueller Laborwerte der Patienten mit den Ärztinnen und Ärzten. Die Daten werden anschließend aus der digitalen Patientenakte für den computergesteuerten Automaten freigegeben. Gibt das System grünes Licht und die Medikamentenzuordnung stimmt, startet die Anlage die einzelnen Packaufträge zur hygienischen Verblisterung der Tabletten. „Das erspart unseren Pflegekräften die früher übliche Sortierung per Hand und im Vier-Augen-Prinzip. Hier ist Unit Dose so enorm schnell und präzise im Einsatz, dass die ohnehin schon sehr hohe Patientensicherheit im HDZ noch weiter gesteigert werden kann.“
Bevor die Tütchen die Apotheke verlassen, scannt ein Kontrollgerät die darin enthaltenen Arzneimittel und gleicht Form, Größe und Farbe mit einer hinterlegten Datenbank ab. Jede Abweichung bei dieser Identitätskontrolle wird durch pharmazeutisches Fachpersonal begutachtet und, wenn notwendig, korrigiert.
In den kleinen Blistertüten, die jeder Patient auf seiner Station erhält, befinden sich seine verordneten Tabletten. Persönliche Angaben wie Name, Geburtsdatum, Krankenhaus, Station, Zimmer und die genaue Bezeichnung der Medikamente können darauf abgelesen werden. Über einen kleinen QR-Code-Aufdruck können Hinweise zum jeweiligen Arzneimittel im Beipackzettel mit dem Smartphone digital abgelesen werden.
Wochentags erhalten die Pflegestationen im HDZ NRW zwei Mal täglich die ihnen zugeordneten Blistertütchen. Samstags erfolgt die Ausgabe für das Wochenende. Das Pflegepersonal auf der Station überprüft dann nochmals jede einzelne Medikamentenzuteilung vorab darauf, ob es sich um den richtigen Patienten, das richtige Arzneimittel, die richtige Dosierung, Verabreichungsform und den richtigen Einnahmezeitpunkt handelt. Anschließend wird die Einnahme überprüft und in der digitalen Patientenakte dokumentiert. Diese sechsmalige Prüfung auf Richtigkeit bezeichnet man als 6-R-Regel. Dank der jetzt vom Automaten vorbereiteten beschrifteten Einzelverpackungen ist auch diese standardmäßige Überprüfung sicherer und einfacher geworden.
„Unsere neue digitale Unterstützung in der Medikamentenversorgung steigert die Arzneimitteltherapiesicherheit, entlastet die Pflegekräfte und macht damit auch den Pflegeberuf attraktiver“, fasst Anke Möller die Vorteile der Unit-Dose-Versorgung im HDZ NRW zusammen, die bis Ende September auf allen Normalstationen des Klinikums etabliert sein wird. Nicht zu vergessen sei auch der ökologische Aspekt des Projekts: Weil der Automat mit Tabletten-Schüttware arbeitet, spart man bereits jetzt im HDZ NRW trotz des zusätzlichen Folienmaterials erhebliche Mengen von Verpackungsmüll ein.
Hintergrundinformation: Zukunftsweisende Technik
Mit „Unit Dose“ wird die sogenannte Verblisterung bezeichnet, indem Tabletten, Kapseln und Dragees durch digitale Anbindung an die Patientenakte automatisch für jeden Patienten individuell in hoher Geschwindigkeit in kleine Folienbeutel verpackt, beschriftet und zugeordnet werden. Als Alternative zur traditionellen Stationsversorgung wird Unit-Dose zunehmend in Konzepte zur Verbesserung der Arzneimitteltherapiesicherheit im klinischen Bereich aufgenommen, insbesondere mit der Einführung elektronischer Verordnung und digitaler Patientenakten. Tatsächlich ist eine zentral über die Klinikapotheke gesteuerte Unit-Dose-Versorgung deutschlandweit jedoch erst in wenigen Krankenhäusern etabliert. Als Gesamtlösung aus elektronischer Verschreibung, Dosier- und Interaktionsprüfungen durch Stationsapothekerinnen und Stationsapotheker, automatisierter patientenbezogener Kommissionierung von Einzeldosen und IT-gestützter Verabreichungsdokumentation bietet sie bei entsprechender Ablauforganisation nachweislich Vorteile hinsichtlich der Arzneimittel- und Patientensicherheit, der Verbesserung von medikamentösen Therapien, Transparenz von Fallkosten und einer möglichen Senkung des Arzneimittelbudgets. Am HDZ NRW zieht man in Erwägung, eine Medikamentenversorgung nach Unit-Dose-Prinzip zukünftig auch auf andere von der Zentralapotheke mitversorgte Kliniken und Einrichtungen auszuweiten.
Bildmaterial finden Sie zum Download bereitgestellt unter
https://cloud.hdz-nrw.de/d/e1cef7cd5285429495f0/
Hinweis zur Verwendung von Bildmaterial: Die Verwendung des Text- und Bildmaterials zur Pressemitteilung ist bei Nennung der Quelle vergütungsfrei gestattet. Das Bildmaterial darf nur in Zusammenhang mit dem Inhalt dieser Pressemitteilung und namentlicher Nennung des Herz- und Diabeteszentrum NRW, Bad Oeynhausen, verwendet werden.
Als Spezialklinik zur Behandlung von Herz-, Kreislauf- und Diabeteserkrankungen zählt das Herz- und Diabeteszentrum Nordrhein-Westfalen (HDZ NRW), Bad Oeynhausen, mit 36.000 Patientinnen und Patienten pro Jahr, davon 14.800 in stationärer Behandlung, zu den größten und modernsten Zentren seiner Art in Europa. Unter einem Dach arbeiten fünf Universitätskliniken und drei Universitäts-Institute seit mehr als 30 Jahren interdisziplinär zusammen. Das HDZ NRW ist seit 1989 Universitätsklinik der Ruhr-Universität Bochum. Die Professorenschaft des HDZ NRW ist zusätzlich seit 2023 Mitglied der Medizinischen Fakultät OWL der Universität Bielefeld. Die Einrichtung ist bekannt als größtes Herztransplantationszentrum in Deutschland.
In der Zentralapotheke des HDZ NRW unter der Leitung von Anke Möller sind aktuell 30 Mitarbeitende, darunter 8 Apotheker/innen und 13 Pharmazeutisch-Technische Assistenten/Assistentinnen (PTA) beschäftigt. Neben den Kliniken des HDZ NRW versorgt die Apotheke 18 weitere Einrichtungen (über 4.500 Betten) in der Region. Zur Ausstattung zählen unter anderem eine halbautomatische Kommissionieranlage für Arzneimittel, Medizinprodukte und apothekenübliches Nebensortiment sowie Laborräume auf über 200 Quadratmetern zur Herstellung von parenteralen Arzneimitteln und Zytostatika.
Weitere Informationen:
Herz- und Diabeteszentrum Nordrhein-Westfalen
Universitätsklinik der Ruhr-Universität Bochum
Presse- und Öffentlichkeitsarbeit
Leitung: Anna Reiss
Georgstr. 11
32545 Bad Oeynhausen
Tel. 05731 97-1955
Fax 05731 97-2028
E-Mail: info@hdz-nrw.de
Weitere Informationen:
http://www.hdz-nrw.de
Anhang
Pressemitteilung HDZ NRW vom 09.08.2023
Tiefengeothermie: NRW hat günstige Voraussetzungen für den Ausbau der Geothermie
Kosta Schinarakis Pressestelle
Fraunhofer-Einrichtung für Energieinfrastrukturen und Geothermie IEG
Nordrhein-Westfalen will das Potenzial der Geothermie heben und damit einen wichtigen Schritt in Richtung klimaneutrale Industrieregion gehen. Der Landtag NRW bat das Fraunhofer IEG um eine Stellungnahme, zur Rolle von tiefer, mitteltiefer und oberflächennaher Geothermie in der Wärmewende des Landes. Anlässlich der gestrigen Sachverständigenanhörung im zuständigen Ausschuss unterstrich Fraunhofer IEG die günstigen geologischen Bedingungen für die Tiefengeothermie, aber auch die Markt-Hemmnisse, die nur politisches Handeln ausräumen kann.
»Zwei zentrale Faktoren behindern den Ausbau der Tiefen Geothermie«, unterstreicht Rolf Bracke, Leiter des Fraunhofer IEG. »Das Fündigkeitsrisiko bei gleichzeitig erheblichen Investitionskosten für Projektentwickler sowie die unzureichende Datenlage zum tiefen Untergrund jenseits von 1000 Metern.« Ein hohes Potenzial für die Wärmewende in einem der größten europäischen Ballungsräume stelle dagegen die Grubenwassernutzung und Wärmespeicherung im Steinkohlengebirge dar. Zur Beseitigung der Hemmnisse und Nutzung der Potenziale sei nun politisches Handeln angezeigt.
Die Hälfte des Energieumsatzes in Deutschland geht in die Wärmeversorgung von Gebäuden und Industrieprozessen. Doch noch immer ist der Anteil von alternativer Wärme bei unter 20 Prozent. Die nachhaltige Geothermie hat genug Potenzial um den Wärmebedarf NRWs großteils zu decken. Erdwärme steht ganzjährig und verlässlich zur Verfügung, ist wetterunabhängig, CO2-frei und lokal. In Kombination mit Hochtemperaturwärmepumpen könnte Geothermie auch ein Viertel des Wärmebedarfes der Industrie decken, etwa in den Sektoren Nahrungsmittel, Papier, Zement, Gewächshaus oder Chemie. Vor allem in Süd-Deutschland arbeiten derzeit rund 40 geothermische Anlagen mit einer installierten Wärmeleistung von ca. 400 MW. Die Herstellungskosten liegen bei ca. 2-2,5 Mio. Euro pro installierte Leistung von 1 MW und die Erzeugungskosten bei wettbewerbsfähigen 30 Euro/MWh.
Aus Sicht der Fraunhofer IEG sollte ein ambitionierter »Masterplan Geothermie NRW« alle Optionen der geothermischen Nutzung adressieren und ambitionierte, landesbezogene Ausbauziele benennen. Ein Handlungsfeld eines solchen Masterplans ist sicherlich die Bildung einer verlässlichen Datengrundlage. Hier bietet sich eine Kombination aus den Methoden geophysikalische Erkundung und Tiefbohrung an, die den Kern einer landesweiten Explorationsstrategie bilden sollten. Die gewonnenen Rohdaten und Erkenntnisse sollen den Marktteilnehmer – etwa Projektentwicklern und Stadtwerken – unverzüglich digital zu Verfügung stehen.
Da Geothermie im überragenden öffentlichen Interesse liegt, sollten Förder- und Finanzinstrumente des Landes das Fündigkeitsrisiko der oftmals mittelständigen Wärmeversorger senken. Solche Instrumente könnten das Erreichen der strategischen Ziele des Landes innerhalb der Wärmewende massiv beschleunigen.
Darüber hinaus können Vereinfachungen bzw. Bündelungen von Genehmigungsverfahren nach dem Wasser-, Umweltverträglichkeitsprüfungs-, Naturschutz- und im Vergaberecht Projekte wesentlich beschleunigen. Eine Option kann die Ausweisung sog. »Go-to-Gebiete« für Heiz(kraft)werke in der Landesentwicklungs- und Bauleitplanung sein.
Um den ambitionierten geothermischen Zubau gewährleisten zu können, müssen auch Fachkräfte- und Schulungskapazitäten entlang der gesamten Planungs-, Administrations- und Installationskette aufgebaut werden. Dem Anspruch des Industrielandes NRW auf Technologieführerschaft entsprechend sollten vorhandene Branchen und Unternehmen mit Schlüsseltechnologien der Geothermie durch gezielte Wirtschaftsförderungsmaßnahmen für den Transformationsprozess »Geothermische Wärmewende« gestärkt werden.
Weitere Informationen:
http://Tagesordnung: https://www.landtag.nrw.de/home/der-landtag/tagesordnungen/WP18/300/E18-388.html
http://Videostream: https://www.landtag.nrw.de/home/mediathek/video.html?kid=b8084895-03a4-4b92-83ba…
http://Sitzungmappe: https://www.landtag.nrw.de/portal/WWW/dokumentenarchiv/Dokument/esm/MME18-388.pd…
Wie durcheinander gewürfelte Daten unsere Sicherheit verbessern können
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Riesige Datenströme durchlaufen täglich unsere Computer und Smartphones. Um diese zu verarbeiten, bestehen technische Geräte vereinfacht gesagt aus zwei wesentlichen Einheiten: Einem Prozessor, also einer Art Schaltzentrale und dem Arbeitsspeicher (RAM), den man mit einem Gedächtnis vergleichen kann. Da der Speicher um ein Vielfaches langsamer darin ist, Daten bereitzustellen als der Prozessor in der Lage ist, diese Daten zu verarbeiten, arbeiten moderne Prozessoren mit einem Zwischenspeicher, dem so genannten Cache, der eine Art Brücke zwischen den beiden bildet. In diesem Zwischenspeicher befinden sich oftmals private Daten, die für Angreifer ein attraktives Ziel darstellen könnten.
Ein Team aus Bochumer Wissenschaftlern hat nun in Kooperation mit Forschern aus Japan eine innovative Verschlüsselung designt, die nicht nur eine größere Sicherheit bietet als die bisherigen Ansätze, sondern auch effizienter und schneller ist. Die Arbeit dazu stellen sie auf der renommierten Konferenz „Usenix Security Symposium“ in Anaheim, Kalifornien (USA), vor.
Beteiligt daran sind Dr. Federico Canale und Prof. Dr. Gregor Leander vom Lehrstuhl für Symmetrische Kryptographie, Jan Philipp Thoma und Prof. Dr. Tim Güneysu vom Lehrstuhl für Security Engineering, alle von der Ruhr-Universität Bochum, sowie Yosuke Todo von NTT Social Informatics Laboratories und Rei Ueno von der Tohoku University (Japan).
Cache bisher nicht gut gegen Seitenkanal-Angriffe geschützt
Dass der Cache gegen eine bestimmte Art von Angriffen nicht gut geschützt ist, hat CASA-Forscher Prof. Dr. Yuval Yarom, der seit April 2023 an der Ruhr-Universität tätig ist, schon vor Jahren aufgedeckt. Die schweren Sicherheitslücken Spectre und Meltdown hatten damals für Wirbel gesorgt, weil sie alle gängigen Mikroprozessoren sowie Cloud-Dienste betrafen. Ein Cache ist ein eher unscheinbares Element, leistet aber eine wichtige Arbeit: In ihm lagern Daten zwischen, die sehr oft abgerufen werden. Seine Hauptfunktion liegt darin, Zugriffszeiten zu verringern – denn würden die Daten jedes Mal vom Prozessor (CPU) beim langsameren Arbeitsspeicher abgerufen werden, würde dies die Schnelligkeit verringern. Also holt sich die CPU bestimmte Daten aus dem Cache. Bei dieser Kommunikation zwischen CPU und Cache können allerdings Angreifer ansetzen. Ihre Methode: Sie überschreiben die recht ungesicherten Daten im Cache. Das System kann die Daten nicht mehr im Cache finden und fordert sie deshalb aus dem Hauptspeicher an. Dieser Vorgang ist messbar langsamer. „In sogenannten Timing-Seitenkanalangriffen können Angreifer die Zeitunterschiede messen und dazu nutzen Speicherzugriffe von anderen Programmen zu beobachten. Dadurch lassen sich zum Beispiel private Schlüssel für Verschlüsselungsalgorithmen stehlen“, erklärt Jan Philipp Thoma vom Lehrstuhl für Security Engineering.
Innovative Lösung mit mathematischem Hintergrund
Zwar wurden für manche Angriffe Patches entwickelt, die die Lücke schließen sollten, aber eine beweisbare Sicherheit konnten diese nicht bieten. Nun hat das Team aus Bochum und Japan jedoch eine innovative Lösung gefunden: „Unsere Idee besteht darin, dass wir die Daten im Cache mithilfe mathematischer Prozesse durcheinanderwürfeln“, erklärt Gregor Leander, der vor kurzem einen ECR Advanced Grant für seine Forschung erhalten hat. Durch diese Randomisierung in den Caches des CPUs können die Angriffe abgewehrt werden, da sie verhindert, dass Angreifer die Daten aus dem Cache entfernen können.
„Der interdisziplinäre Ansatz aus Überlegungen der Kryptografie und der Hardware-Sicherheit stellt ein Novum innerhalb der Computersicherheit dar. Zwar gab es zuvor schon Ideen zu randomisierten Cache-Architekturen, allerdings waren diese nicht sehr effizient und nicht in der Lage, starke Angreifer vollständig abzuhalten“, sagt Tim Güneysu, der den Lehrstuhl für Security Engineering innehat. Das neue Modell SCARF arbeitet mit einer Blockverschlüsselung, die für diesen Bereich ganz neu von den Wissenschaftlern gedacht wurde. „Normalerweise verschlüsseln wir Daten mit 128 Bit, im Cache arbeiten wir teilweise mit 10 Bit. Das ist ein komplexer Vorgang, weil es viel länger dauert, diese Daten mit einem großen Schlüssel zu mischen“, so Gregor Leander. Der große Schlüssel wird benötigt, weil eine kürzere Verschlüsselung solch kleiner Datenmengen leichter von Angreifern gebrochen werden könnte.
Die oben beschriebene Randomisierung benötigt normalerweise viel Zeit, was die Arbeitsweise des Cache einschränken würde. SCARF hingegen arbeitet dank der Blockchiffrierung schneller als alle bisher designten Lösungen. „SCARF kann als Modulbaustein in Cache Architekturen eingesetzt werden und sorgt automatisch für sichere – das heißt nicht vorhersagbare – Randomisierung bei gleichzeitig niedriger Latenz, also Reaktionszeit“, führt Jan Philipp Thoma aus und fasst zusammen: „Mit SCARF bieten so wir eine effiziente und sichere Lösung für die Randomisierung.“
Doppelter Schutz durch Kombination mit ClepsydraCache
Somit könnte die Arbeit der Forscher einen elementaren Einfluss auf den Schutz von sensiblen Daten innerhalb der digitalen Gesellschaft leisten. Darüber hinaus stellen die Forscher in Zusammenarbeit mit anderen Kollegen eine weitere Arbeit auf dem diesjährigen „Usenix Security Symposium“ vor, die mit SCARF kombiniert werden kann. Das Paper „ClepsydraCache – Preventing Cache Attacks with Time-Based Evictions“ zeigt ebenfalls eine neue Idee für die Sicherheit des Zwischenspeichers auf. Daran beteiligt sind ebenfalls Jan Philipp Thoma, Gregor Leander und Tim Güneysu sowie CASA-Forscher Lucas Davi von der Uni Duisburg-Essen. Es ist außerdem in enger Zusammenarbeit mit Forschern des Lehrstuhls für Integrierte Systeme an der Ruhr-Universität Bochum entstanden. „ClepsydraCache setzt auf sogenanntes Cache Decay in Kombination mit der Randomisierung des Indexes. Cache Decay bedeutet, dass Daten, die längere Zeit nicht verwendet werden, automatisch aus dem Cache entfernt werden“, beschreibt Jan Philipp Thoma den Prozess.
Für die Sicherheit der Daten ist ein solcher Vorgang wichtig, weil er weniger Cache-Konflikte entstehen lässt. Diese Konflikte führen zur Verlangsamung des Prozesses und könnten ebenfalls mithilfe der oben beschriebenen Seitenkanalangriffe zu Rückschlüssen auf Daten führen. Die Wissenschaftler konnten beweisen, dass ihr Vorschlag bekannten Angriffsvektoren standhält und sich problemlos in bestehende Architekturen einbauen lässt.
Interdisziplinäre Arbeit führt zu erfolgreicher Forschung
Durch die Vereinbarkeit der beiden Arbeiten „SCARF“ und „Clepsydracache“ könnten künftige Generationen von Caches sicherer werden als je zuvor – und müssten dabei keinerlei Einbußen in ihrer Schnelligkeit verzeichnen. Das Teamwork zeigt somit, dass der interdisziplinäre Ansatz, den das Exzellenzcluster CASA „Cybersecurity in the Age of Large-Scale Adversaries“ verfolgt, zu richtungsweisenden Forschungsergebnissen führen können.
Redaktion: Christina Scholten
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tim Güneysu
Lehrstuhl für Security Engineering
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 24626
E-Mail: tim.gueneysu@ruhr-uni-bochum.de
Prof. Dr. Gregor Leander
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 28402
E-Mail: gregor.leander@ruhr-uni-bochum.de
Jan Philipp Thoma
Lehrstuhl für Symmetrische Kryptographie
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 32 27891
E-Mail: jan.thoma@ruhr-uni-bochum.de
Originalpublikation:
Federico Canale, Tim Güneysu, Gregor Leander, Jan Philipp Thoma, Yosuke Todo, Rei Ueno: SCARF – A low-latency block cipher for secure cache-randomization, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/usenixsecurity23-canale.pdf
Jan Philipp Thoma, Christian Niesler, Dominic Funke, Gregor Leander, Pierre Mayr, Nils Pohl, Lucas Davi, Tim Güneysu: ClepsydraCache – Preventing cache attacks with time-based evictions, 32th USENIX Security Symposium, 2023, Anaheim, USA, Download Pre-Print: https://www.usenix.org/system/files/sec23summer_48-thoma-prepub.pdf
Kartografie der Mobilfunk-Sicherheit
Annabelle Theobald Unternehmenskommunikation
CISPA Helmholtz Center for Information Security
„Als Mobilfunkforscher ist man in gewisser Weise Gefangener seiner geografischen Position“, sagt CISPA-Forscher Dr. Adrian Dabrowski. Was er damit meint ist, dass Mobilfunkforschende wegen der großen Zahl von Anbietern und Netzen bislang nur mit großem Aufwand Tests in ausländischen Mobilfunknetzen vornehmen können. Zusammen mit Gabriel Gegenhuber von der University Vienna und weiteren Kollegen hat Dabrowski deshalb MOBILEATLAS entwickelt, eine Infrastruktur, die die Testung quer durch Europa erlaubt – egal von wo aus. Sein Paper „Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research” stellt er auch auf der Top-IT-Sicherheitskonferenz USENIX vor.
2G, 3G, 4G, 5G – Was sich anhört wie die Ziehung beim Bingo bezeichnet die aktuell verwendeten Mobilfunkstandards. Der jüngste Standard der 5. Generation – dafür stehen all die Gs – ist noch im Aufbau. Der älteste, 2G, wurde schon in den 1990er-Jahren Jahren eingeführt und ist noch immer in Verwendung. „2G wird vor allem für Sprachübertragung oder für einfache smarte Geräte verwendet; etwa ein Getränkeautomat, der anzeigt, dass er nachgefüllt werden muss“, erklärt Dabrowski. Das darauffolgende 3G wurde 2021 in Deutschland abgeschaltet und durch 4G, auch LTE genannt, ersetzt. Mit 4G lassen sich unterwegs auch zum Beispiel Streamingdienste nutzen oder Videotelefonie durchführen. Mittlerweile gelten diese Mobilfunkstandards, die nebeneinander existieren, weltweit. Durch das sogenannte Roaming sollen Mobilfunk-Kund:innen auch im Ausland die mit ihrem Mobilfunkanbieter vereinbarten Services nutzen können und den versprochenen Sicherheits- und Privatsphäreschutz genießen. Sollen.
Ist das „Roam-Like-At-Home-Prinzip“ ein leeres Versprechen?
Die Rede ist hier vom sogenannten Roam-Like-At-Home-Prinzip, das EU-Bürger:innen in der 2022 neugefassten EU- Roamingverordnung versprochen wird. Die Bundesnetzagentur schreibt dazu: „Durch die Neufassung der Roaming-Verordnung gilt auf Reisen in der EU nicht nur der gleiche Preis wie zuhause, sondern auch grundsätzlich die gleiche Qualität.“ Dabrowski bezweifelt, dass dieses Versprechen eingehalten werden kann. „Beim Roaming arbeiten das Heimatnetzwerk und das Netzwerk des Landes, in dem ich zu Gast bin, zusammen. Sie wollen einen Service anbieten, der auch hinsichtlich Privatsphäre und Sicherheit so konsistent ist wie der im Heimatnetz. Die technische Umsetzung ist dabei aber komplett verschieden.“ So werde zum Beispiel bei einem Urlaub in der Schweiz die Telefonieverbindung direkt übers Schweizer Netz hergestellt, während die Internetverbindung den Umweg über Deutschland nehme. Im Heimnetzwerk ginge beides den direkten Weg. „Wenn man genau hinschaut gibt es keine Konsistenz zwischen Roaming- und Nicht-Roaming-Verbindungen“, erklärt der Forscher. Die Mobilfunk-Anbieter hätten extrem viel Gestaltungsspielraum und seien bislang kaum zu kontrollieren. Das gilt laut Dabrowski auch hinsichtlich der Sicherheit der Netze.
Grenzüberschreitende Tests bislang kaum möglich
Das Problem: Bislang sind Tests und Messungen über die Grenzen hinweg extrem aufwendig. „Europa ist extrem zersplittert. In jedem Land gibt es viele Mobilfunkanbieter. Deutschland ist mit seinen nur drei Anbietern die Ausnahme. Wenn ich feststelle, dass in einem unserer inländischen Mobilfunknetze eine Sicherheitslücke ist und prüfen will, ob das in anderen Netzen auch der Fall ist, hab‘ ich derzeit zwei Möglichkeiten: Entweder ich reise viel herum und teste jedes Netz in jedem Land in jeder Konstellation, oder ich statte in jedem Land möglichst viele Geräte mit möglichst vielen verschiedenen SIM-Karten von unterschiedlichen Anbietern aus. In kürzester Zeit habe ich so 1000 SIM-Karten, 1000 Verträge und eine Privatinsolvenz.“
„Entkoppelte Messungen“ sind die Lösung
Die Lösung könnte ein von den Forschenden entwickeltes Framework sein, das die geografische Trennung der SIM-Karte vom Mobilfunkmodem erlaubt. Das Modem ist eine Komponente in mobilen Endgeräten wie etwa Smartphones, das die Verbindung zwischen den Geräten und einem Mobilfunknetz herstellt. Seine Aufgabe ist es, die Funkdaten in die richtige Form zu bringen und an die Sendemasten senden und von dort zu empfangen. Die SIM-Karte dient zur Identifikation der Nutzer:innen und ordnet das Smartphone einem bestimmten Netz zu. Dabrowski erklärt, was das alles mit seinem Framework zu tun hat: „Normalerweise sind SIM-Karte und Telefon eine Einheit. Wir trennen diese Einheit auf und entfernen die SIM-Karte aus dem Telefon. Wir simulieren das Kommunikationsprotokoll übers Internet und können so quasi virtuell reisen. Nochmal einfacher an einem Beispiel erklärt: Wir verbinden einmal die SIM-Karte mit unserer Messstation in Deutschland und können so tun, als wären wir in Deutschland. Dann trennen wir sie und verbinden sie zu unserer Messstation in Frankreich und können so tun als seien wir da. Wir brauchen dafür nur noch ein Endgerät in Deutschland oder eben in Frankreich.“
Kostengünstig und Open Source
Die daraus resultierende Mess- und Testplattform, die für die Standards 2G bis 4G funktioniert, bietet laut Dabrowski eine kontrollierte Experimentierumgebung die erweiterbar und kostengünstig ist. „Zudem ist unser Ansatz Open Source, sodass andere Forscher Standorte, SIM-Karten und Messskripte dazu beitragen können.“ Die Forschenden machen die Plattform unter dem Namen MobileAtlas zugänglich und nutzbar. Das Tool dürfte dabei nicht nur für Wissenschaftler:innen interessant sein. „Mobilfunkanbieter:innen könnten damit auch erstmals prüfen, ob ihre Roamingpartner ihre Versprechen halten.“ Der Name Mobile Atlas kommt dabei nicht von Ungefähr. Er wurde laut Dabrowski abgeleitet vom Namen der seit 2010 existierenden Internet-Testplattform RIPEATLAS. „RIPE NCC ist die Europäische Internetverwaltung. Der RIPE Atlas ist ein globales Netz von Messgeräten, die die Konnektivität und Erreichbarkeit des Internets messen.“
Die Grenzen der Grenzenlosigkeit
Mit dem MOBILEATLAS gibt es bislang in zehn Ländern Messstationen und die für die Messungen geeignete Infrastruktur. Dabrowski hofft, dass sich das Messnetzwerk durch die Hilfe anderer Forschender schnell vergrößert. „Allerdings werden wir auch schauen müssen, dass kein Unfug mit den SIM-Karten getrieben wird, damit uns keine Kosten entstehen. Ob wir MOBILEATLAS so umfänglich anbieten können wie RIPE NCC ihre Plattform muss sich noch zeigen. Dass sich mit ihrem Ansatz interessante Informationen zu Tage fördern lassen, haben Dabrowski und seine Kollegen bewiesen: „Wir haben zum Beispiel entdeckt, dass sich in einigen Mobilfunknetzen bestimmte Dienste so tarnen lassen, dass der dafür anfallende Datenverkehr nicht vom im Tarif enthaltenen Datenvolumen abgezogen wird. Für Endnutzer:innen schlimmer sind allerdings die Sicherheitsproblematiken, die wir ebenfalls nachweisen konnten. So haben wir zum Teil problematische Firewall-Konfigurationen gefunden oder versteckte SIM-Kartenkommunikation mit dem Heimnetzwerk aufgedeckt.“ Allzu beunruhigend sind die Befunde dabei nicht. Eine Ausnutzung dieser Probleme würde sehr gezielte Angriffe und versierte Angreifer:innen voraussetzen. „Aber solche Lücken sind nie gut. Und jetzt haben wir die Möglichkeit, die Anbieter darauf hinzuweisen.“
Originalpublikation:
Gegenhuber, Gabriel Karl and Mayer, Wilfried and Weippl, Edgar and Dabrowski, Adrian
(2023) MobileAtlas: Geographically Decoupled Measurements in Cellular Networks for Security and Privacy Research. In: USENIX Security Symposium 2023, August 9-11, 2023, Anaheim, California, United State. Conference: USENIX-Security Usenix Security Symposium
Weitere Informationen:
https://www.mobileatlas.eu/
10 Millionen Euro für die Erzeugung erneuerbarer, flüssiger Energieträger aus Kohlenstoffdioxidemissionen
Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis Europa Zentrum
Das Innovationsprojekt CAPTUS zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien. Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern in CAPTUS beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.
Am 15. und 16. Juni 2023 feierten die Projektpartner, darunter das Steinbeis Europa Zentrum, den Auftakt des EU-Projekts CAPTUS in Zaragoza, Spanien. Das Innovationsprojekt zeigt nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien; darunter die Nutzbarmachung und Wertsteigerung von Kohlenstoffemissionen und deren Integration in erneuerbare Energiequellen.
Aufgrund ehrgeiziger klimapolitischer Maßnahmen stehen energieintensive Industrien heute vor einer großen Herausforderung. Sie müssen auf den globalisierten Märkten wettbewerbsfähig bleiben und gleichzeitig Maßnahmen zur drastischen Reduzierung ihrer Kohlenstoffemissionen ergreifen. In diesem Szenario des Übergangs spielt die Kohlenstoffabscheidung, -nutzung und -speicherung eine Schlüsselrolle , und es werden Technologien mit unterschiedlichem Reifegrad und unterschiedlicher Leistung erforscht. Die Umwandlung von Kohlenstoffdioxid in hochwertige erneuerbare Energieträger mit regenerativen Energien ist eine vielversprechende Strategie, um den anthropogenen Kohlenstoffkreislauf zu schließen, um auf diese Weise die Einsparziele bei Treibhausgasen und Energiebedarf zu erfüllen. Es gibt zwar bereits verschiedene Umwandlungsverfahren, aber die meisten sind noch sehr material- und energieaufwändig, kostspielig und ineffizient.
Im EU-Projekt CAPTUS werden hierzu neue innovative Lösungen erarbeitet. CAPTUS wird nachhaltige und kosteneffiziente Wege zur Erzeugung von erneuerbaren Energieträgern mit hohem Mehrwert in energieintensiven Industrien aufzeigen, indem industrielle Kohlenstoffemissionen aufgewertet und Stromüberschüsse aus erneuerbaren Energien integriert werden. Es werden drei vollständige Wertschöpfungsketten für erneuerbaren Energieträgern an drei verschiedenen Demonstrationsstandorten demonstriert.
1. Aus Abgasen eines Stahlwerks werden durch eine zweistufige Fermentation mikrobiologisch Triglyceride hergestellt.
2. Zur Herstellung von Bio-Ölen in einer Chemieanlage werden Lipid-produzierende Mikroalgen kultiviert und dann gefolgt von hydrothermal verflüssigt.
3. Auf der Basis einer elektrochemischen Reduktion von CO2 aus Zementwerkabgasen wird Ameisensäure erzeugt.
Die vorgeschlagenen Technologien werden vom Labor- bis zum Pilotmaßstab geprüft, und die gewonnenen erneuerbaren Energieträger werden durch Qualitätsbewertungen und Veredelungsstudien für die Herstellung von Hochleistungskraftstoffen validiert. Darüber hinaus wird CAPTUS die Integration der validierten Lösungen für energieintensive Industrien hinsichtlich wirtschaftlicher, ökologischer, gesellschaftlicher, regulatorischer und geopolitischer Kriterien analysieren. Ebenso werden Richtlinien und Strategien für einen Dekarbonisierungsplan entwickelt, das Bewusstsein und die Akzeptanz von Kohlenstoffbindungs und -speicherungstechnologien wird erhöht und die gewonnenen erneuerbaren Energieträger werden verbessert. Schließlich geht es auch darum, geeignete Geschäftsmodelle und Replikationsmöglichkeiten zu schaffen.
Als Projektpartner unterstützt das Steinbeis Europa Zentrum das internationale Konsortium aus 17 Partnern beim Austausch und bei der Verbreitung der Projektaktivitäten und Ergebnisse, um so die gewonnenen Erkenntnisse effektiv an Zielgruppen der Industrie und Öffentlichkeit zu vermitteln. Daneben ist das Steinbeis Europa Zentrum auch für die Netzwerkaktivitäten mit anderen EU-geförderten Projekten und Initiativen im gleichen Themenbereich verantwortlich.
Das Innovationsprojekt CAPTUS wird von der EU im Rahmen des Forschungs- und Innovationsprogramm Horizon Europe mit 10 Millionen Euro finanziert. Das Konsortium besteht aus 18 Partnern aus 8 Ländern, die multidisziplinäre Kompetenzen und Ressourcen aus Wissenschaft, Forschung, Technik, Industrie und Universitäten vereinen:
1. Fundación circe centro de investigación de recursos y consumos energéticos (Koordinator) – Spanien
2. Sintef AS – Norwegen
3. Universidad de Cantabria – Spanien
4. Agencia estatal consejo superior de investigaciones cinefíficas – Spanien
5. Universita degli studi di Genova – Italien
6. Steinbeis Europa Zentrum/ Steinbeis Innovation gGmbH – Deutschland
7. Ethniko kentro erevnas kai technologikis anaptyxis – Greece
8. Bio base europe pilot plant VZW – Belgien
9. Novis GmbH – Deutschland
10. Apria systems SL – Spanien
11. Draxis environmental SA – Griechenland
12. A4f algafuel SA – Portugal
13. Goodfuel BV – Niederlande
14. Rina consulting SPA – Italien
15. Arcelormittal Belgium NV- Belgien
16. Hychem, química sustentável SA – Portugal
17. Cementos portland valderrivas SA – Spanien
18. Energy efficiency in industrial processes asbl – Belgien
Das Projekt mit einer Dauer von 48 Monaten (Juni 2023- Mai 2027) und einem Gesamtbudget von 10 Millionen Euro, feierte das Auftakttreffen am 15. und 16. Juni 2023 in Zaragoza, Spanien.
Kontakt:
Für zusätzliche Informationen wenden Sie sich bitte an den Projektkoordinator bei der Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es
Kontakt am Steinbeis Europa Zentrum
Dr. Frederick von Netzer, eMail: frederick.vonnetzer@steinbeis-europa.de
Wissenschaftliche Ansprechpartner:
Fundación CIRCE Centro de Investigación de Recursos y Consumos Energéticons (CIRCE)
Álvaro Pecharromán Ruiz, e-mail: apecharroman@fcirce.es
Monique Bernardes Figueirêdo, e-mail: mbernardes@fcirce.es
Nach anfänglicher Erholung: Artenvielfalt in europäischen Flüssen stagniert
Judith Jördens Senckenberg Pressestelle
Senckenberg Gesellschaft für Naturforschung
Langzeitstudie zeigt, dass der Aufschwung der europäischen Süßwasser-Biodiversität seit den 2010er Jahren ins Stocken geraten ist.
Senckenberg-Forschende haben gemeinsam mit einem großen internationalen Team anhand wirbelloser Tiere den Zustand und die Entwicklung der Biodiversität in europäischen Binnengewässern im renommierten Fachjournal „Nature“ vorgestellt. In ihrer heute erschienenen Studie zeigen sie, dass die biologische Vielfalt in Flusssystemen aus 22 europäischen Ländern über einen Zeitraum von 1968 bis 2020 deutlich angestiegen ist. Das Wissenschaftler*innen-Team warnt jedoch, dass dieser positive Trend seit 2010 stagniert und fordern daher zusätzliche Maßnahmen.
Auch wenn Eintags-, Stein-, und Köcherfliegen zu den Fluginsekten zählen – den Großteil ihres Lebens verbringen sie als Larve im Wasser. „Diese und viele weitere wirbellose Tiere tragen zu wichtigen Ökosystemprozessen in Süßgewässern bei. Sie zersetzen organische Stoffe, filtern Wasser und transportieren Nährstoffe zwischen aquatischen und terrestrischen Bereichen. Darüber hinaus sind solche Invertebraten seit langem ein Eckpfeiler zur Überwachung der Wasserqualität“, erläutert Erstautor der Studie Prof. Dr. Peter Haase vom Senckenberg Forschungsinstitut und Naturmuseum Frankfurt und fährt fort: „Solch eine Kontrolle ist immens wichtig, denn Flüsse und Seen sind großen anthropogenen Belastungen ausgesetzt und gehören zu den am stärksten vom Verlust der biologischen Vielfalt bedrohten Ökosystemen.“
Binnengewässer sind durch die landwirtschaftliche und städtische Flächennutzung verschiedenen anthropogenen Belastungen ausgesetzt. Sie akkumulieren Schadstoffe, organisch belastete Abwässer, Feinsedimente und Pestizide und sind darüber hinaus durch Veränderungen, wie beispielsweise Dämme, Wasserentnahme, invasive Arten und den Klimawandel bedroht. „Als Reaktion auf den schlechten Zustand der Gewässer in den 1950er und 1960er Jahren wurden zur Wiederherstellung von Süßwasserlebensräumen beispielsweise mit dem ‚US Clean Water Act‘ von 1972 und der EU-Wasserrahmenrichtlinie von 2000 wichtige Gegenmaßnahmen ergriffen“, erklärt Senior-Autorin Dr. Ellen A.R. Welti, vormals Senckenberg-Wissenschaftlerin und nun Forschungsökologin in den USA am Smithsonian’s Conservation Ecology Center und spricht weiter: „Diese Maßnahmen führten zu einem deutlichen Rückgang der organischen Verschmutzung und der Versauerung ab etwa 1980. In den letzten 50 Jahren haben diese Schritte zur Eindämmung der Abwasserbelastung und so zu den aufgezeigten Verbesserungen der biologischen Vielfalt im Süßwasser beigetragen. Dennoch nehmen die Anzahl und die Auswirkungen der Stressfaktoren, welche diese Ökosysteme bedrohen, weltweit weiter zu, und die biologische Qualität der Flüsse ist nach wie vor vielerorts unzureichend.“
Gemeinsam mit einem großen internationalen Team haben Haase und Letztautorin Welti einen umfassenden Datensatz von 1.816 Zeitreihen analysiert, die zwischen 1968 und 2020 in Flusssystemen in 22 europäischen Ländern gesammelt wurden und 714.698 Beobachtungen von 2.648 Arten aus 26.668 Proben umfassen. Die Auswertungen zeigen, dass sowohl die Artenvielfalt mit 0,73 Prozent pro Jahr als auch die funktionelle Diversität mit jährlichen 2,4 Prozent und die Häufigkeit der Arten mit 1,17 Prozent im Jahr über den Zeitraum der 53 Jahre deutlich angestiegen ist. „Diese Zuwächse traten jedoch hauptsächlich vor 2010 auf und haben sich seitdem leider auf einem mehr oder weniger gleichbleibenden Niveau eingependelt. Während die Zunahme der biologischen Vielfalt in den 1990er und 2000er Jahren wahrscheinlich die Wirksamkeit von Wasserqualitäts- verbesserungen und Renaturierungsprojekten widerspiegelt, deutet die sich anschließende stagnierende Entwicklung auf eine Erschöpfung der bisherigen Maßnahmen hin“, ergänzt Haase.
Laut den Studienergebnissen erholten sich Süßwassergemeinschaften flussabwärts von Staudämmen, städtischen Gebieten und Ackerland weniger schnell. Die Fauna an Standorten mit schnellerer Erwärmung verzeichneten zudem geringere Zuwächse in der Artenvielfalt, der Häufigkeit der Individuen und der funktionellen Diversität. Welti fügt hinzu: „Basierend auf einem Teildatensatz – 1299 von 1816 – konnten wir zeigen, dass rund 70 Prozent der Flussabschnitte nicht-heimische Arten aufweisen mit einem durchschnittlichen Anteil von 4,9 Prozent der Arten und 8,9 Prozent der Individuen. Es ist außerdem zu beobachten, dass sich die eingewanderten Tiere in städtischen Gebieten und stärker belasteten Lokalitäten besser zurechtfinden als die heimische Fauna. Dies könnte zu einem Verlust seltener und empfindlicher einheimischer Arten führen“.
Erhebliche Investitionen seien erforderlich, um die Abwassernetze auszubauen und die Kläranlagen zu verbessern. Das Überlaufen von Kläranlagen bei Starkregen könnte verhindert und Mikroverunreinigungen, Nährstoffe, Salze sowie andere Schadstoffe wirksamer entfernt werden, so die Autor*innen. Darüber hinaus plädiert das Forschungsteam für weitere Maßnahmen, insbesondere die Reduktion von Einträgen von Dünge- und Pflanzenschutzmitteln aus landwirtschaftlichen Flächen, die Anbindung von Überschwemmungsgebieten zur Reduktion zerstörerischer Überschwemmungen sowie zur Anpassung unserer Flusssysteme an künftige klimatische und hydrologische Bedingungen.
„Künftig sollte zudem die Überwachung der biologischen Vielfalt in Verbindung mit der parallelen Erhebung von Umweltdaten erfolgen. Nur so können wir die zeitlichen Veränderungen innerhalb der Artenvielfalt wirksam beschreiben, umweltbedingte Faktoren und stark gefährdete Gebiete ermitteln und den Schutz der biologischen Vielfalt maximieren!“, schließt Haase.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Haase
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051 61954-3114
peter.haase@senckenberg.de
Originalpublikation:
Haase, P., D.E. Bowler, N.J. Baker, …, E.A.R. Welti (2023) The recovery of European freshwater biodiversity has come to a halt. Nature 620 (Issue 7974)
https://www.nature.com/articles/s41586-023-06400-1
DOI: 10.1038/s41586-023-06400-1
Wann digitaler Stress auch positiv sein kann
Michael Hallermayer Stabsstelle Kommunikation und Marketing
Universität Augsburg
Stress durch Apps, E-Mails, ständige Benachrichtigungen – die Universitäten Augsburg, Bamberg, Erlangen-Nürnberg, München (LMU) und Würzburg haben in einem gemeinsamen Forschungsverbund vier Jahre lang zum gesunden Umgang mit digitalen Technologien und Medien geforscht. ForDigitHealth präsentiert seine Ergebnisse sowohl in wissenschaftlichen Publikationen wie auch einem verständlichen Online-Wegweiser für die Öffentlichkeit.
Digitale Technologien und Medien sind tief in unseren Alltag integriert. Sie halten uns in Verbindung, sind die Voraussetzung für Arbeitsprozesse, ermöglichen schnelle Abstimmungen, Inspiration, Unterhaltung, Lernen, Unterstützung und vieles mehr. Gleichzeitig entsteht dadurch digitaler Stress, den wir nicht immer gut handhaben können und der zu negativen gesundheitlichen Folgen führen kann.
Bayerns Wissenschaftsminister Markus Blume betont: „Interdisziplinär, hochaktuell und mit Mehrwert für uns alle: Der Ansatz des Forschungsverbunds ForDigitHealth war und ist mustergültig. Digitale Technologien und Medien bestimmen unseren Alltag – die Auswirkungen müssen fundiert untersucht werden, deshalb haben wir den Forschungsverbund mit insgesamt rd. 3,4 Millionen Euro gefördert. Die Ergebnisse geben uns nun wichtige Hinweise, wie wir – jeder einzelne und als Gesellschaft – mit dem Phänomen ‚Digitaler Stress‘ umgehen können. Ganz besonders freut mich, dass die Ergebnisse auch in einem Online-Wegweiser für alle zugänglich gemacht werden.“
Verschiedene Facetten erforscht
Vier Jahre lang hat der Bayerische Forschungsverbund ForDigitHealth zum gesunden Umgang mit digitalen Technologien und Medien geforscht und herausgefunden: Es kommt auf die Einstellung zum Stress an. Wenn er durch ein Individuum als Herausforderung statt als Belastung eingestuft wird, kann sich der Stress auch positiv auf eine bessere Leistung und Wohlbefinden auswirken. Hierfür müssen aber die Bedingungen stimmen: eine ausgebildete Medienkompetenz oder die Unterstützung durch Kolleginnen und Kollegen bzw. eines IT-Helpdesks, das Hilfesuchende zur Problemlösung befähigt und nicht nur das Problem selbst löst. In einer solchen Situation wird der Körper kurzfristig in Alarmbereitschaft versetzt, um die Situation bewältigen zu können. Langfristig kann dieser Stress aber auch mit Erkrankungen wie z. B. Herz-Kreislauf-Erkrankungen und Depression in Verbindung gebracht werden. Grund dafür sind langanhaltende Entzündungsprozesse, die der Körper im Rahmen der Stressreaktion durchläuft, wenn der Mensch über einen langen Zeitraum Stress ausgesetzt ist. So die Aussagen der beteiligten Wissenschaftler Dr. Manfred Schoch und Prof. Dr. Nicolas Rohleder (Co-Sprecher, Friedrich-Alexander-Universität Erlangen-Nürnberg). „Wiederholte Stresssituationen über den Arbeitstag hinweg können langfristig chronischen Stress auslösen, der krank macht. Insbesondere die Menge der digitalen Arbeit ist Treiber von chronischem digitalem Stress am Arbeitsplatz.“
ForDigitHealth hat auch erforscht, wie digitale Technologien mithilfe nutzerzentrierter Designprozesse gestaltet werden müssen, um digitalen Stress zu verringern. Die Informatik ging neue Wege und entwickelte z.B. Technologie für die Arbeit im Gehen, da sich Bewegung zum Stressabbau sehr gut eignet. Auch wurde bearbeitet, wie man mithilfe von Apps digitalen Stress besser bewältigen kann und erste Prototypen vorgestellt.
Prof. Dr. Elisabeth André (Universität Augsburg) als Co-Sprecherin des Verbunds, unterstreicht: „Wir haben Ernst gemacht mit dem Anspruch unseres Geldgebers, wirklich interdisziplinär zu arbeiten, also Methoden, Theorien, Perspektiven aus den fünf vertretenen Fachdisziplinen zu integrieren und neue Erkenntnisse zu erreichen. Neben dem Anspruch an Interdisziplinarität hatten wir den Auftrag, uns in den gesellschaftlichen Diskurs zum Thema digitaler Stress einzubringen.“
Online-Wegweiser gibt Tipps
Der Bayerische Forschungsverbund hat mögliche Lösungsansätze im Umgang mit digitalem Stress aufbereitet. In „Digitaler Stress: Der Wegweiser“ wurden Informationen und Hinweise zu Ursachen, Folgen und Wirkweisen für die Öffentlichkeit auf der Webseite des Verbunds festgehalten. Auch die zugrundeliegenden Publikationen können im Wegweiser leicht nachgelesen werden. Der Verbund ist mit ausgewiesenen Expertinnen und Experten aus den fünf Fachdisziplinen Medizin, Psychologie, Informatik, Wirtschaftsinformatik und Kommunikationswissenschaft besetzt. Im Rahmen von fünf übergeordneten Querschnittsthemen und in insgesamt elf Teilprojekten wurde das Thema digitaler Stress beforscht.
In ForDigitHealth arbeiten Wissenschaftlerinnen und Wissenschaftler von fünf bayerischen Universitäten zusammen (Universität Augsburg, Otto-Friedrich-Universität Bamberg, Friedrich-Alexander-Universität Erlangen-Nürnberg, Ludwig-Maximilians-Universität München und Julius-Maximilians-Universität Würzburg). Der Verbund wird durch das Bayerische Staatsministerium für Wissenschaft und Kunst mit rund 3,4. Mio. Euro über vier Jahre gefördert.
Die Teilprojekte im Überblick
Prof. Dr. Henner Gimpel, Wirtschaftsinformatiker an der Universität Augsburg und der Universität Hohenheim, befasste sich in zwei Teilprojekten einerseits mit der Bewältigung von digitalem Stress am Arbeitsplatz und der Frage, ob der Stress neben bekannten negativen Folgen auch positive Auswirkungen haben kann. Zum anderen wurde untersucht, wie man appgestützt den Umgang mit digitalem Stress unterstützen kann.
Prof. Dr. Jeffrey Wimmer, Kommunikationswissenschaftler an der Universität Augsburg, stellte sich die Frage, in welcher Form Menschen digitalen Stress in der Freizeit wahrnehmen, wie sie damit umgehen und welche Rolle ihr soziales Umfeld dabei spielt.
Prof. Dr. Susanne Kinnebrock, Kommunikationswissenschaftlerin an der Universität Augsburg, hat sich mit der Frage befasst, wie digitaler Stress in den Medien (u.a. in Online-Foren) dargestellt wird und welche Umfelder, Ursachen und Symptome dort thematisiert werden.
Prof. Dr. Nicolas Rohleder, Gesundheitspsychologe an der Friedrich-Alexander-Universität Erlangen-Nürnberg, hat sich mit dem Zusammenhang zwischen psychologischen und biologischen Stressreaktionen befasst.
Prof. Dr. Dennis Nowak und Prof. Dr. Matthias Weigl, Arbeitsmediziner der Ludwig-Maximilians-Universität München und Medizinpsychologe am Universitätsklinikum Bonn, haben sich mit der Frage befasst, wie sich kurz- und mittelfristige Stressreaktionen, die durch digitale Technologien und Medien im Umfeld des Arbeitsplatzes ausgelöst werden, langfristig auswirken.
Prof. Dr. Gerhild Nieding und Dr. Wienke Wannagat, Entwicklungspsychologinnen an der Julius-Maximilians-Universität Würzburg, befassten sich mit digitalem Stress bei Jugendlichen sowie jungen und älteren Erwachsenen und der Frage, wie eine digitale Medienkompetenz aussehen und konkret umgesetzt werden kann.
Prof. Dr. Tim Weitzel und Prof. Dr. Christian Maier, Wirtschaftsinformatiker von der Otto-Friedrich-Universität Bamberg und der Ludwig-Maximilians-Universität München, haben sich gefragt, ob digitaler Stress „ansteckend“ ist und sich auf andere Personen übertragen kann, z.B. in Teams am Arbeitsplatz.
Prof. Dr. Elisabeth André, Informatikerin an der Universität Augsburg, befasste sich mit der Frage, ob künstliche Intelligenz Anzeichen von digitalem Stress erkennen kann und wie Nutzer:innen in den Lern- und Entfaltungsprozess der KI eingebunden werden können.
Prof. Dr. Albrecht Schmidt, Informatiker an der Ludwig-Maximilians-Universität München, hat sich mit der Frage befasst, wie eine menschzentrierte Gestaltung von digitalen Technologien zu einer gesundheitsförderlichen Wirkung führen kann.
Prof. Dr. Matthias Berking, Klinischer Psychologe, Prof. Dr. Björn Eskofier, Informatiker (beide an der Friedrich-Alexander-Universität Erlangen-Nürnberg) sowie Prof. Dr.-Ing. habil. Björn Schuller, Informatiker an der Universität Augsburg haben erforscht, wie Apps so optimiert werden können, dass sie die psychische Gesundheit stärken.
Wissenschaftliche Ansprechpartner:
Sabine Toussant
Geschäftsführerin Forschungsverbund ForDigithHealth
E-Mail: sabine.toussaint@mrm.uni-augsburg.de
Telefon: +49 151 10812081
Prof. Dr. Elisabeth Andé
Co-Sprecherin Forschungsverbund ForDigithHealth
E-Mail: elisabeth.andre@informatik.uni-augsburg.de
Telefon: +49 821-2341 (Sekretariat)
Weitere Informationen:
https://gesund-digital-leben.de/wegweiser Online-Wegweiser: Digitaler Stress
https://gesund-digital-leben.de Webseite des Forschungsverbunds ForDigitHealth
Wasserreinigung mit Biotechnologie: Forschende finden neuen Ansatz durch Kombination von Pilzen und Bakterien
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.
Stickstoff, vor allem in Form von anorganischem Nitrit und Nitrat, ist eine der größten stofflichen Belastungen in Süßgewässern und menschlichen Abwässern. Forscherinnen und Forscher des chinesischen Ministeriums für Natürliche Ressourcen in Xiamen und des IGB haben eine natürliche Pilz-Bakterien-Kombination identifiziert, die Nitrat besonders effizient und konstant verstoffwechselt. Dies könnte für die Weiterentwicklung der Biotechnologie in der Wasseraufbereitung entscheidend sein und ist ein weiterer Beleg für die wichtige Rolle von Pilzen in aquatischen Ökosystemen.
Die biologische Stickstoffentfernung, die Denitrifikation, ist ein wichtiger biochemischer Prozess. Dabei wandeln Mikroorganismen zwei der wichtigsten Stickstoffverbindungen, Nitrat und Nitrit, in gasförmigen Stickstoff um. Dies geschieht in Gewässern auf natürliche Weise durch Stoffwechselprozesse der dort lebenden Organismen und wird als Selbstreinigungskraft bezeichnet. Dieses Prinzip macht man sich auch bei der Wasseraufbereitung zunutze. Bisher wurden verschiedene Bakterien und Pilze in Reinkultur identifiziert, die Stickstoff mit und ohne Sauerstoff abbauen können. Für die Wasseraufbereitung ist vor allem der Stickstoffabbau in Gegenwart von Sauerstoff relevant, da er kostengünstiger und zudem großtechnisch umsetzbar ist.
Pilz-Bakterien-Kombinationen bislang vor allem zur Fermentation von Lebensmitteln und Getränken eingesetzt:
Die Isolierung einzelner Bakterien- oder Pilzstämme ist aufwändig und teuer. Kombinationen aus beiden, so genannte mikrobielle Konsortien, gelten als vielversprechende Alternative zu reinen Stämmen, sind aber auf dem Gebiet der Denitrifikation in Gegenwart von Sauerstoff noch wenig erforscht. Die Forschenden nahmen dies zum Anlass, dieses Potenzial zu untersuchen, da mikrobielle Konsortien beispielsweise bei der Fermentation von Lebensmitteln und Getränken schon lange eingesetzt werden. Gerade Pilze haben den Vorteil, dass sie sehr robust gegenüber Umweltstressoren wie saurem pH-Wert und hohen Temperaturen sind.
Nahezu vollständige Nitratentfernung möglich:
Das Forschungsteam identifizierte ein natürliches Bakterien-Pilz-Konsortium aus Marikulturen, das Nitrat sehr effizient und konstant aus dem Wasser entfernt. In Gegenwart von Sauerstoff beträgt die Nitratentfernung bis zu 100 Prozent und die Denitrifikationseffizienz 44 Prozent. Die Denitrifikationseffizienz gibt an, wie gut Mikroorganismen in der Lage sind, den im Nitrat gebundenen Stickstoff in molekularen Stickstoff (N₂) und Stickoxide umzuwandeln.
Mittels Hochdurchsatzsequenzierung wurden die an diesem Prozess beteiligten Bakterien- und Pilzgattungen identifiziert. Eine anschließende Netzwerkanalyse zeigte, welche Arten positiv miteinander interagieren und sich daher besonders für eine Kombination eignen.
„Es ist uns gelungen, denitrifizierende Bakterien-Pilz-Gruppen zu identifizieren, die das Potenzial haben, Nitrat besonders gut aus dem Wasser zu entfernen. Das ist ein wichtiger Schritt, um mikrobielle Konsortien für eine optimale Wasseraufbereitung zusammenzustellen“, erklärt IGB-Forscher Professor Hans-Peter Grossart, Mitautor der Studie.
Da die Suche nach geeigneten Mikroorganismen-Gemeinschaften aus Bakterien und Pilzen noch ein sehr junges Forschungsgebiet ist, gibt es noch keine Anwendungen in der Praxis. Die Autor*innen sind sich aber sicher, dass diese in Zukunft die Biotechnologie in der Abwasseraufbereitung deutlich prägen werden.
Originalpublikation:
Zuo, Xiaotian et al., Aerobic denitrifying bacterial-fungal consortium mediating nitrate removal: Dynamics, network patterns and interactions, iScience, Volume 26, Issue 6, 106824, DOI:https://doi.org/10.1016/j.isci.2023.106824
Weitere Informationen:
https://www.igb-berlin.de/news/wasserreinigung-mit-biotechnologie
Niedrige Wasserstände lösen Sondermessprogramm an der Elbe aus
Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Seit mehreren Wochen herrscht an der Elbe Niedrigwasser. Gestern startete daher das Messprogramm für hydrologische Extreme der Flussgebietsgemeinschaft (FGG) Elbe. Die BfG koordiniert gemeinsam mit den Behörden der Anrainerländer Sachsen, Sachsen-Anhalt, Niedersachsen und Brandenburg das Sondermessprogramm, das die Auswirkungen des Niedrigwassers auf die Wasserqualität untersucht.
Ergänzend zu den monatlichen Routinemessungen werden an ausgewählten Messstellen entlang der Elbe sowie der unteren Mulde, Saale und Havel im nun kürzeren 14-tägigem Abstand Wasserproben genommen. Das innerhalb der FGG Elbe etablierte Messprogramm startete bereits 2013. Im Labor werden in den Messproben dann wichtige Kenngrößen wie zum Beispiel Nährstoffkonzentrationen, aber auch Schadstoffe und Spurenstoffe bestimmt. „Das heute gestartete Messprogramm ist speziell auf die Niedrigwassersituation abgestimmt. Die kürzere Messperiode ermöglicht uns einen detaillierteren Blick auf die Wasserqualität und wie sich Hitze und Dürre auf diese auswirken“, erklärt Geoökologe Dr. Daniel Schwandt.
Auslöser waren die niedrigen Wasserstände an den Bezugspegeln in Schöna und Barby im Ober- bzw. Mittellauf der Elbe. „Diese liegen seit mehr als zwei Wochen unterhalb eines festgelegten Schwellenwerts. Da außerdem für die nächsten Tage im Elbegebiet kein langanhaltender Niederschlag vorhergesagt war, haben wir unsere Länderkollegen/-innen informiert. Diese lösten dann das Sondermessprogramm aus“, so Schwandt. Laut dem BfG-Wissenschaftler war dies im Sommer 2019 das letzte Mal der Fall.
Steigt der Wasserstand für längere Zeit wieder über den Schwellenwert, wird das Programm beendet und die Auswertung der Daten beginnt. Dies übernimmt die BfG in Abstimmung mit der FGG Elbe. Die Ergebnisse der Laboruntersuchungen aller Messstellen werden zeitnah auf der Informationsplattform Undine (https://undine.bafg.de/elbe/extremereignisse/elbe_mp_extremereignisse.html) veröffentlicht. Dort sind neben Hintergrundinformationen zum Messprogramm auch Messwerte zu vorhergehenden extremen Hoch- und Niedrigwasserereignissen an der Elbe und die dazugehörigen Berichte veröffentlicht.
Bei Undine stehen unter der Überschrift „Extremereignisse“ auch Steckbriefe zu einzelnen herausragenden Hoch- und Niedrigwasserereignissen an der Elbe im Laufe der Historie zum Download bereit. Insbesondere finden sich hier Kurzbeschreibungen der extremen Niedrigwasser der Jahre 1921, 2015 und 2018.
Wissenschaftliche Ansprechpartner:
Dr. Daniel Schwandt, +49 261 1306 5479
Dr. Gerd Hübner, +49 261 1306 2010
Forschungsvorhaben heavyRAIN verbessert Regenmessung für Starkregenvorhersage in Lübeck
Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Wann und wo wird Starkregen auftreten? Wie können Bürger*innen und Einsatzkräfte vor einem nahenden Ereignis gewarnt werden? Das sind die Fragen, die die hydro & meteo GmbH in Kooperation mit den Stadtwerken Lübeck, der Hansestadt Lübeck und der Technischen Hochschule (TH) Lübeck im Rahmen des Projektes „heavyRAIN“ in Lübeck beantworten möchte.
Der Schutz vor Starkregen ist eine der zentralen Herausforderungen der Klimafolgenanpassung. Im Starkregenfall zählt jede Minute, um kurzfristige Maßnahmen zur Verminderung von Schäden zu ergreifen und sich in Sicherheit zu begeben. Eine schnellere und präzisere Vorwarnung hilft den Einsatzkräften proaktiv zu handeln.
Das Forschungsvorhaben „heavyRAIN“ erhält von September 2022 bis August 2025 im Rahmen der Innovationsinitiative mFUND eine Förderung durch das Bundesministerium für Digitales und Verkehr (BMDV). Ziel ist es, ein verbessertes Frühwarnsystem für Starkregen zu entwickeln. In den kommenden drei Jahren werden in vier deutschen Städten (Bochum, Hagen, Lüdenscheid und Lübeck) eigene Niederschlagsmessungen durchgeführt. Hiermit und mit weiteren Wetterdaten wird die Vorhersagemethodik verbessert.
Initiiert und durchgeführt wird das Projekt von der Okeanos Smart Data Solutions GmbH aus Bochum, der hydro & meteo GmbH aus Lübeck, dem Bochumer Institut für Technologie gGmbH und dem Landesamt für Natur, Umwelt und Verbraucherschutz NRW. Unterstützt werden sie von den Städten Bochum, Hagen, Lübeck und Lüdenscheid, die gleichzeitig als Orte der Feldstudien fungieren, sowie vom Deutschen Wetterdienst, der Emschergenossenschaft & Lippeverband, den Stadtwerken Bochum Netze, dem Wetternetz Hagen, den Stadtwerken Lüdenscheid & Herscheid, den Stadtwerken Lübeck Digital (bis vor kurzem „Travekom“), den Wirtschaftsbetrieben Hagen sowie der Technischen Hochschule Lübeck.
Das hydrometeorologische Ingenieurbüro hydro & meteo GmbH, ein seit vielen Jahren mit Niederschlagsdaten und -warnsystemen vertrautes Unternehmen, ist der Projektpartner in Lübeck. In Zusammenarbeit mit der Abteilung für Straßenbeleuchtung der Hansestadt Lübeck werden 50 neu entwickelte, kompakte IoT-Niederschlagssensoren an Straßenlaternen im ganzen Stadtgebiet installiert. Die Niederschlagssensoren von der Firma NIVUS arbeiten mit Infrarotlicht und bieten eine Regenmessung in Echtzeit, die über das LoRaWAN-Netz der Stadtwerke Lübeck gesammelt wird. Die Messungen werden später über das Internetportal der „Smart City Region Lübeck“ (geoportal.smart-hl.city) abrufbar sein. Diese Daten werden anschließend von leistungsstarken Vorhersage-Algorithmen analysiert, um eine genaue Einschätzung der Niederschlagslage zu liefern.
Marius Kämmel studiert Umweltingenieurwesen und -management an der TH Lübeck. Im Rahmen der Lehre am Fachbereich Angewandte Naturwissenschaften erfuhr der 24-Jährige vom Projekt HeavyRAIN: „Ich war direkt davon begeistert und arbeite nun als wissenschaftlicher Mitarbeiter im Projekt mit.“ Um ein besseres Verständnis für die Funktionsweise sowie –fähigkeit der Geräte zu bekommen habe Kämmel zunächst einzelne Sensoren im Labor für Umweltverfahrenstechnik getestet. Dafür konzipierte und nutzte er einen eigenen Versuchsaufbau. „Mittlerweile installiere ich die Sensoren gemeinsam mit meinem Kollegen Bruno Castro von der hydro & meteo GmbH in sämtlichen Lübecker Stadtteilen. Diese praktische Arbeit bringt sehr viel Spaß. Es macht mich auch stolz die Sensoren an ihrem finalen Standort zu sehen.“
Das Projekt heavyRAIN wird im Rahmen der Innovationsinitiative mFUND (www.mFUND.de) durch das Bundesministerium für Digitales und Verkehr gefördert.
Wissenschaftliche Ansprechpartner:
Dr. Annika Jahnke-Bornemann
hydro & meteo GmbH
Email: a.jahnke-bornemann@hydrometeo.de
Unsichtbaren Partikeln auf der Spur
Stefanie Reiffert Corporate Communications Center
Technische Universität München
Wie hoch ist die Konzentration von Mikroplastik in der Umwelt, im Trinkwasser oder in Nahrungsmitteln? Forschende der Technischen Universität München (TUM) haben jetzt eine automatisierte Analysemethode entwickelt, mit der sich die Partikel identifizieren und quantifizieren lassen.
Mikroplastik ist in der Umwelt allgegenwärtig. Die winzigen Teilchen mit einer Größe von unter fünf Millimetern können außerdem Schad- und Giftstoffe aufnehmen und transportieren. „Wir benötigen dringend Analysemethoden, die Auskunft geben über die Größe, Konzentration und Zusammensetzung der Partikel“, erklärt Dr. Natalia Ivleva vom Lehrstuhl für Analytische Chemie und Wasserchemie der TUM. Zusammen mit ihrem Team hat die Wissenschaftlerin ein neues Verfahren entwickelt.
Um das Mikroplastik zu detektieren, mussten die Forschenden mehrere Hürden überwinden: Das erste Problem ist die geringe Konzentration der Partikel. Flusswasser zum Beispiel enthält jede Menge Schwebstoffe und feinen Sand, nicht einmal ein Prozent der Partikel sind aus Kunststoff. Diese Teilchen gilt es zu isolieren, dann muss deren Konzentration bestimmt werden und schließlich die chemische Zusammensetzung. Bisher wurden hierfür Analysemethoden eingesetzt, bei denen die Proben erhitzt und die Zersetzungsprodukte untersucht wurden. Anzahl, Größe und Form der Plastik-Partikel ließen sich auf diese Weise nicht ermitteln.
Kunststoffe lassen sich durch Lichtstreuung identifizieren
„Unser Ansatz ist grundlegend anders“, betont Ivleva: „Wir arbeiten partikelbasiert, das heißt, wir zerstören die Teilchen nicht, sondern untersuchen sie direkt.“ Dabei nutzen die Forschenden die sogenannte Raman-Mikrospektroskopie, bei der mit Hilfe eines Lasers monochromatisches Licht von den Molekülen einer Probe gestreut wird. Durch Vergleich des gestreuten mit dem eingestrahlten Licht lassen sich Rückschlüsse ziehen auf die untersuchte Substanz.
Um Plastik-Partikel mit mehr als einem Mikrometer Durchmesser auf diese Weise zu analysieren, müssen die Kunststoff-Teilchen aus der wässrigen Lösung herausgefiltert, unter dem Mikroskop detektiert und dann mit Laserlicht beleuchtet werden. Weil Kunststoffe wie Polyethylen, Polystyrol oder Polyvinylchlorid die Photonen auf charakteristische Weise streuen, erzeugen sie jeweils spezifische Signale, die sich wie ein Fingerabdruck zuordnen lassen.
Automatisierung statt manueller Messungen
Die Entwicklung des Nachweisverfahren hat Jahre gedauert: „Als wir angefangen haben, waren manuelle Messungen erforderlich“, erinnert sich die Chemikerin. „Da haben wir Monate gebraucht, um ein paar Tausend Partikel zu untersuchen.“ Mittlerweile ist es dem Team gelungen, den Nachweis von Mikroplastik zu automatisieren. Eine Analyse dauert nicht mehr Wochen, sondern nur noch Stunden. Man muss die winzigen Partikel zwar immer noch aus einer wässrigen Probe herausfiltern und den Filter unter das Raman-Mikrospektroskop legen, doch alles Weitere steuert eine eigens entwickelte Software: Die Kunststoffteilchen werden zunächst lichtmikroskopisch lokalisiert, fotografiert und vermessen, wobei Partikel und Fasern unterschieden werden. Das Computerprogramm berechnet aus diesen Daten die Anzahl von Partikeln und Fasern sowie die Auswahl von Bildausschnitten für die anschließende Raman-Spektroskopie, die für ein statistisch signifikantes Ergebnis benötigt werden.
Im nächsten Schritt fällt Laserlicht auf die Probe, die Streuung wird detektiert und ausgewertet. Anzahl, Größe, Form und Zusammensetzung von Mikroplastik lässt sich auf diese Weise schnell und zuverlässig analysieren. Die Software „TUM-Particle Typer 2“ ist Open Source basiert und kann ab sofort von Forschenden auf der ganzen Welt genutzt werden.
Nanoplastik verlangt besondere Nachweisverfahren
Um auch Partikel untersuchen zu können, die Durchmesser von weniger als einem Mikrometer aufweisen, arbeitet Ivleva‘s Gruppe bereits an einem modifizierten Verfahren. „Solche Nanoteilchen sind unter einem Lichtmikroskop nur schwer oder gar nicht zu detektieren. Um die Partikel nachweisen zu können, müssen wir sie zuerst nach Größe fraktionieren und dann identifizieren“, erklärt die Forscherin.
Hierfür wird ein System für Feldflussfraktionierung verwendet. Dieses erzeugt einen Wasserstrom, der die Partikel erfasst und – abhängig von ihrer Größe – schneller oder langsamer transportiert und auf diese Weise trennt. Eine speziell entwickelte Vorrichtung erlaubt in Kombination mit Raman-Mikrospektroskopie die chemische Charakterisierung von unterschiedlichen Arten von Nanoplastik.
„Die neuen Analyseverfahren ermöglichen eine schnelle und genaue Untersuchung der Konzentration, Größe und Zusammensetzung von Mikro- und Nanoplastik“, resümiert Ivleva. „Damit wird es künftig möglich sein, auch den Einfluss dieser Partikel auf die Umwelt und die menschliche Gesundheit zu erforschen.“
Wissenschaftliche Ansprechpartner:
Dr. Natalia P. Ivleva
Technische Universität München (TUM)
Tel: +49 89 289 54 507
natalia.ivleva@tum.de
https://www.ch.nat.tum.de/hydrochemistry
Originalpublikation:
Oliver Jacob, Alejandro Ramírez-Piñero, Martin Elsner, Natalia P. Ivleva, TUM-ParticleTyper 2: Automated Quantitative Analysis of (Microplastic) Particles and Fibers down to 1 μm by Raman Microspectroscopy, Analytical and Bioanalytical Chemistry
Maximilian J. Huber, Natalia P. Ivleva, Andy M. Booth, Irina Beer, Ivana Bianchi, Roland Drexel, Otmar Geiss, Dora Mehn, Florian Meier, Alicja Molska, Jeremie Parot, Lisbet Sørensen, Gabriele Vella, Adriele Prina Mello, Robert Vogel, Fanny Caputo: Physicochemical Characterization and Quantification of Nanoplastics: Applicability, Limitations and Complementarity of Batch and Fractionation Methods, Analytical and Bioanalytical Chemistry
Umweltfreundlichere Bekämpfung von Ölkatastrophen mit Biotensiden
Lydia Lehmann Stabsstelle Hochschulkommunikation
Universität Stuttgart
Können Biotenside den mikrobiologischen Ölabbau im Nordsee-Meerwasser steigern? Das hat ein internationales Forschungsteam der Universitäten Stuttgart und Tübingen sowie der China West Normal University und der University of Georgia untersucht – und sieht Potenzial für eine effektivere und umweltfreundlichere Bekämpfung von Ölkatastrophen.
Schätzungsweise 1500 Millionen Liter Öl fließen pro Jahr in die Ozeane. Das führt zu einer Umweltverschmutzung von globaler Bedeutung, da Öl gefährliche Verbindungen wie polyzyklische aromatische Kohlenwasserstoffe enthält, die giftig auf Lebewesen wirken oder deren Erbgut verändern können. Besonders verheerend sind Ölkatastrophen, bei denen in relativ kurzer Zeit große Mengen an Öl in die Meere austreten, etwa Unfälle von Tankern oder an Ölbohrplattformen wie 2010 bei Deepwater Horizon.
In solchen Katastrophenfällen werden routinemäßig, je nach Ölmenge, bis zu mehrere Millionen Liter chemische Dispersionsmittel ausgebracht, um Ölklumpen aufzulösen, Ölanschwemmung an Küsten zu verhindern und die Öldispersion im Wasser zu steigern. Dadurch soll der mikrobielle Ölabbau erhöht werden. Spezielle Mikroorganismen, die weitverbreitet in der Natur vorkommen, können sich nämlich von Rohölbestandteilen ernähren und bauen diese zu harmlosen Stoffen ab. Durch diese besondere Fähigkeit der Mikroben werden ölkontaminierte Gebiete natürlich gereinigt.
„In einer im Jahr 2015 veröffentlichten Studie aus den USA haben wir jedoch gezeigt, dass – anders als erhofft – chemische Dispersionsmittel im Tiefseewasser aus dem Golf von Mexiko den mikrobiellen Ölabbau verlangsamen können“, sagt Professorin Sara Kleindienst, bis Juni 2022 an der Universität Tübingen und jetzt an der Universität Stuttgart. „Seitdem wird das Thema kontrovers diskutiert und es gibt bislang keine einfache Antwort darauf, wie Ölkatastrophen am besten zu bekämpfen wären.“
Auf der Suche nach umweltfreundlicheren Methoden zur Bewältigung von Ölkatastrophen könnten Biotenside eine vielversprechende Alternative zu chemischen Dispersionsmitteln sein. Biotenside werden durch Mikroorganismen gebildet und können bewirken, dass Ölkomponenten leichter für den Abbau zugänglich werden. Der mikrobielle Ölabbau, der maßgeblich für die Aufreinigung verantwortlich ist, kann dadurch gesteigert werden.
Experimente mit Meerwasser aus der Nordsee
Ein internationales Forschungsteam um die Umweltmikrobiologin Professorin Sara Kleindienst mit dem Geomikrobiologen Professor Andreas Kappler (Universität Tübingen) und der Biogeochemikerin Professorin Samantha Joye (University of Georgia) testete die Wirkung von Biotensiden und chemischen Dispersionsmitteln im Vergleich. Im Labor an der Universität Tübingen simulierten die Forschenden eine Ölverschmutzung. Für ihre Experimente entnahmen sie mehr als 100 Liter Oberflächenwasser aus der Nordsee, in der Nähe der Insel Helgoland. Das Meerwasser wurde entweder mit einem Biotensid Rhamnolipid oder einem Dispersionsmittel (entweder Corexit 9500 oder Slickgone NS), jeweils in Anwesenheit und Abwesenheit von Öl, behandelt. Um den Abbau des Öls durch die Mikroorganismen im Detail verfolgen zu können, setzte das Forschungsteam radioaktive Markierungen ein. „Unsere Untersuchungen mit radioaktiv markierten Kohlenwasserstoffen oder einer radioaktiv markierten Aminosäure zeigten, dass die höchsten mikrobiellen Raten der Kohlenwasserstoffoxidation und der Proteinbiosynthese in den mit Rhamnolipid behandelten Öl-Mikrokosmen auftraten“, sagt Professorin Lu Lu, ehemals an der Universität Tübingen und jetzt an der China West Normal University.
Auch die Auswirkungen auf die Zusammensetzung der mikrobiellen Gemeinschaften unterschied sich stark zwischen den Ansätzen mit Biotensiden im Vergleich zu jenen mit chemischen Dispersionsmitteln. „Dieses Ergebnis weist darauf hin, dass der Einsatz von Biotensiden gegenüber chemischen Dispersionsmitteln andere mikrobielle Ölabbauer stimulieren kann, sowohl im Wachstum als auch in den Aktivitäten – und dies kann sich wiederrum auf den Reinigungsprozess nach Ölkatastrophen auswirken“, sagt Lu.
„Unsere Erkenntnisse legen nahe, dass Biotenside ein großes Potenzial für den Einsatz bei zukünftigen Ölkatastrophen in der Nordsee oder in ähnlichen nährstoffreichen Habitaten im Ozean haben könnten“, fügt Kleindienst hinzu. „Eine visionäre Weiterführung unserer Arbeit wäre die Entwicklung von Produkten, die auf Biotensiden basieren und die eine effektive und umweltfreundliche Bekämpfung von Ölkatastrophen leisten können.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sara Kleindienst, Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Abteilung Umweltmikrobiologie, Tel.: +49 711 685 69351, E-Mail sara.kleindienst@iswa.uni-stuttgart.de
Originalpublikation:
Lu Lu, Saskia Rughöft, Daniel Straub, Samantha B. Joye, Andreas Kappler, Sara Kleindienst (2023): Rhamnolipid biosurfactants enhance microbial oil biodegradation in surface seawater from the North Sea. In: ACS Environmental Science & Technology Water, 19. Juli 2023. DOI 10.1021/acsestwater.3c00048
PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.
Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.
Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.
Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.
Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.
Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.
Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «
Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«
Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.
Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.
Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.
Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.
Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…
Was ist das da im Badesee?
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Raus an den See zum Baden. Aber was schwimmt, wächst und krabbelt denn da im Wasser? Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) liefern ein wenig Fachwissen für den Freizeitspaß am Gewässer.
Das Wasser ist nicht klar, sondern durchzogen von winzigen grünen Punkten oder Schlieren, die auch bläulich schimmern können:
Das sind vermutlich Cyanobakterien, gemeinhin auch Blaualgen genannt. Früher ordnete man sie den Algen zu, weil sie Photosynthese betreiben können. Im Gegensatz zu echten Algen haben sie aber keinen Zellkern – und werden deshalb nun zu den Bakterien gezählt. Das Problem mit den Cyanobakterien ist, dass sie Giftstoffe bilden können, die für Tiere und Menschen gesundheitsschädlich sind. Allerdings nur, wenn sie in großen Mengen aufgenommen werden. Um die Gesundheit nicht zu gefährden, werden Badestellen von den zuständigen Behörden regelmäßig auf Cyanobakterien und deren Toxine untersucht. Im Ernstfall werden Badestellen gesperrt. Als Faustregel gilt: Wenn man bis zu den Knien ins Wasser geht, sollte man seine Füße noch sehen können. Ist das Wasser zu grün, lieber woanders baden. Da Cyanobakterien die Haut reizen können, sollte man nach dem Baden in solchen Gewässern gleich duschen und die Badekleidung wechseln.
Wolkige Algenfäden am Ufer und im Wasser:
Das sind wahrscheinlich Fadenalgen. Fadenalgen sind keine einzelne Art, viele verschiedene Arten werden aufgrund ihres Aussehens unter diesem Begriff zusammengefasst. Massenansammlungen von Fadenalgen können Lebensgemeinschaften anderer Lebewesen am Seegrund gefährden und Nahrungsnetze verändern; viele der möglichen Auswirkungen sind aber noch nicht bekannt. Für Badende sind die grünen Algenteppiche nicht nur unansehnlich, in ihnen können sich auch Giftstoffe von Cyanobakterien anreichern. Hunde scheinen vom fischigen Geruch der Algen angezogen zu werden und laufen dann Gefahr, die Giftstoffe aufzunehmen. Also: Kein Grund zur Panik bei kleinen Algenwolken, aber Hunde nicht am Ufer im Algenteppich schnüffeln lassen und auch Kinder, die beim Baden noch viel Wasser schlucken, sollten sich lieber fernhalten.
Kann man sich an Wasserpflanzen verfangen?
Wasserpflanzen, in der Wissenschaft auch Makrophyten genannt, können entweder im Wasser schwimmen oder am Gewässergrund wurzeln. Auch wenn sie in der Tiefe wachsen, streben die meisten zur Wasseroberfläche – zum Sonnenlicht, denn auch sie brauchen es für ihre Photosynthese. Wasserpflanzen können beim Baden stören oder auf manche unheimlich wirken. Die meisten Wasserpflanzen, wie z.B. Armleuchteralgen, lassen sich aber leicht abstreifen oder abreißen. Große Seerosenflächen sollten von Schwimmern grundsätzlich gemieden werden. Auch aus Naturschutzgründen. Die eigentliche Gefahr sind nicht die Pflanzen, sondern die Panik, die sie auslösen. Also Ruhe bewahren und am besten in Rückenlage so aus den Seerosen herausschwimmen, wie man reingeschwommen ist. Wasserpflanzen sind grundsätzlich sehr nützlich. Sie helfen, das Wasser zu reinigen und bieten vielen Lebewesen Nahrung und Unterschlupf.
Autsch, ich habe mich am Fuß geschnitten:
Das war bestimmt eine Muschel. Tatsächlich sind in den letzten Jahren immer mehr Muscheln in unseren Gewässern zu finden. Vor allem die Quagga-Muschel breitet sich als invasive Art in großer Zahl in unseren Gewässern aus. Ihren ungewöhnlichen Namen verdankt sie ihrer hell-dunkel gestreiften Schale, die an das Fellmuster der Zebraart „Quagga“ erinnert. Die Ansiedlung dieser Muschel hat Vor- und Nachteile. Muscheln sind Filtrierer und reinigen das Wasser von Nährstoffen. Bis zu vier Liter Wasser kann eine Muschel pro Tag filtern – das verbessert die Wasserqualität. Aber die Quagga-Muschel überwuchert mit ihren Byssusfäden andere Muscheln und Weichtiere, die dadurch in ihrer Bewegung eingeschränkt werden und zum Beispiel ihre Schalen nicht mehr schließen können.
Der Fisch traut sich aber nah an mich heran:
Die meisten Fische sind scheu. Es gibt aber auch Arten, die sich im flachen Wasser aufhalten und sogar dort schwimmen, wo viele Badegäste sind. Das sind zum Beispiel Flussbarsche. Man erkennt sie gut an ihren schwarzen Streifen und rötlichen Flossen. Aber auch andere Arten wie Plötzen und Rotfedern, die ebenfalls rötliche Flossen und silbergraue Schuppen haben, trauen sich recht nah an unsere Füße heran. In größeren Seen kann man auch Ukeleis beobachten, die Insekten von der Wasseroberfläche fressen. Der berühmt-berüchtigte Wels ist jedoch selten dort anzutreffen, wo sich viele Badegäste aufhalten. Er hält sich vor allem am Gewässergrund auf und ist auch nicht bissig und gefährlich, wie es der Volksmund behauptet. Allerdings werden sich durch die globale Erwärmung die Aufenthaltsorte vieler Fischarten verschieben – kälteliebende Arten werden also eher in tiefere Wasserschichten abwandern.
Libellen, Wasserläufer und Co.:
Wussten Sie, dass rund 6 Prozent aller Insekten mindestens eine Phase ihres Lebens im Wasser verbringen? Einige Fluginsekten wie Eintagsfliegen, Steinfliegen, Köcherfliegen und Libellen leben als Larven in Gewässern. Daher kann eine Verschlechterung der Wasserqualität auch das Vorkommen dieser Arten beeinflussen. Eintagsfliegen können sogar über ein Jahr im Wasser verbringen, bevor sie für wenige Tage zur Paarung als Fluginsekten an Land kommen. Der Wasserläufer hingegen lebt immer an der Grenze zwischen Wasser und Luft. Die Härchen auf ihren Beinen ermöglichen es den Tieren, sich mit Hilfe der Oberflächenspannung schnell auf der Wasseroberfläche zu bewegen, ohne dabei einzusinken. Mit sehr viel Glück können Sie beim Schnorcheln eine Wasserspinne, die Silberspinne, entdecken. Sie ist die einzige Spinnenart, die nicht an Land, sondern unter Wasser lebt. Sie sammelt Luft in einem dicht gesponnenen Netz unter Wasser – wie in einer Taucherglocke. Die Wasserspinne ist stark gefährdet, weil sie besonders sauberes Wasser zum Überleben braucht.
Weitere Informationen:
https://www.igb-berlin.de/news/was-ist-das-da-im-badesee
Neue Hypertonie-Leitlinien: Was bedeuten sie für die Bluthochdruck-Behandlung?
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Zielwerte, individuelles Risikoprofil, Krankheitsstadium: Herzstiftungs-Experte ordnet Neuerungen der neuen Leitlinien für Betroffene mit Bluthochdruck ein
Bluthochdruck ist einer der wesentlichen Risikofaktoren für Herz- und Gefäßerkrankungen. So kann ein dauerhaft unzureichend oder nicht behandelter Bluthochdruck zu Herzerkrankungen wie Herzschwäche und Vorhofflimmern oder zu schwerwiegenden Komplikationen wie Gehirnblutung, Schlaganfall, Herzinfarkt oder Nierenversagen führen. Über 20 Millionen Menschen haben in Deutschland einen hohen Blutdruck, etwa jeder dritte Erwachsene. Zwar ist die gesundheitliche Gefahr, die von dauerhaft erhöhten Werten ausgeht, hinlänglich bekannt. Dennoch ist die Zahl derer, die ihren Blutdruck kontrollieren und ihre Werte kennen, vergleichsweise gering. In Deutschland schätzen Experten, dass das etwa bei jedem fünften Erwachsenen der Fall ist. Neue Leitlinien der Europäischen Gesellschaft für Hypertonie (ESH) [1], die im Juni 2023 vorgestellt wurden, berücksichtigen die individuellen Aspekte einer Hochdrucktherapie, z. B. die Einteilung nach Krankheitsstadien des Bluthochdrucks oder eine Vereinfachung der Blutdruckzielwerte, die es den Patienten erleichtert, therapeutische Maßnahmen für ihren Schutz vor Komplikationen besser nachzuvollziehen und zu akzeptieren. „Das ist wichtig. Denn zum einen verursacht Bluthochdruck zunächst einmal keine Beschwerden, Stichwort ,stiller Killer‘. Zum anderen, sind Patienten oft verunsichert, wenn sie die Diagnose Bluthochdruck erhalten“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Herzstiftung und Ärztlicher Direktor des Agaplesion Bethanien-Krankenhauses Frankfurt am Main, in einer Einordnung der neuen Hypertonie-Leitlinien unter https://herzstiftung.de/leitlinie-hypertonie-2023 „Die neuen Leitlinien geben konkrete Antworten auf häufige Fragen wie: Ab welchen Blutdruckwerten sollte ich tatsächlich Medikamente nehmen? Und auf welchen Wert muss mein Blutdruck möglichst sinken, damit das Herz effektiv geschützt ist?“
Pragmatische Zielsetzung erleichtert die Kommunikation
Insgesamt ähneln die neuen Empfehlungen den bisherigen. Doch die Blutdruckzielwerte wurden zum Beispiel vereinfacht. Ganz pragmatisch gilt nun offiziell die Empfehlung, dass jeder Patient, jede Patientin im Alter zwischen 18 und 79 Jahren auf Werte unter 140 mmHg systolisch und 90 mmHg diastolisch (mmHg: Millimeter-Quecksilbersäule) eingestellt werden sollte. Diese Empfehlung gilt auch für Patienten über 80 Jahre, wenn das vertragen wird. Denn damit könnte die bluthochdruckbedingte Gesundheitsgefahr insgesamt deutlich verringert werden, betonen die Leitlinien-Autoren. Die Empfehlung kommt somit der Behandlungsrealität nahe und dient als eine Art Zielkorridor, der Anpassungen an die individuelle Situation eines Patienten durchaus zulässt. Denn das heißt nicht, dass niedrigere Werte nicht gut wären. Als bestätigt gilt ein Bluthochdruck im Allgemeinen, wenn bei mindestens zwei bis drei Praxisbesuchen in Abständen von ein bis vier Wochen erhöhte Werte ab 140/90 mmHg vorliegen oder eine deutliche Blutdruckerhöhung (≥180/110 mmHg) beziehungsweise hohe Werte bei bereits bekannter Herzerkrankung.
Eine Senkung auf Werte unter 130/80 mmHg ist in der Regel mit noch besseren Therapieergebnissen verbunden, vor allem bei Patienten mit bereits bestehender Herzerkrankung – ist aber für manche Patienten auch mit unerwünschten Effekten verbunden. Schwindel oder verstärkt Nebenwirkungen der Blutdrucksenker bei intensiver Therapie sind möglich. „Das bestätigt, was auch die Deutsche Herzstiftung immer geraten hat. Eine Blutdrucktherapie nutzt nur, wenn sie auch vom Patienten vertragen wird und die Medikamente regelmäßig eingenommen werden“, so Prof. Voigtländer. „Wichtig ist auch, dass klargestellt wird: Werte unter 120/70 mmHg sollten bei einer Blutdrucktherapie vermieden werden.“
Bei Hochbetagten mehr Spielraum für Therapiebeginn – „individuelle Entscheidung“
Für Patienten über 80 Jahre gilt entsprechend der neuen Leitlinien eine spezielle Empfehlung: Während generell eine medikamentöse Therapie ab einem beim Arzt gemessenen durchschnittlichen systolischen Wert über 140 mmHg und einem diastolischen Blutdruckwert über 90 mmHg ratsam ist, kann bei den Älteren auch ein systolischer Wert bis 160 mmHg toleriert werden. Zielwert ist dann ein systolischer Blutdruck wenigstens zwischen 140-150 mmHg, er darf aber auch niedriger sein. Vorsicht ist dann geboten, wenn bereits sehr niedrige diastolische Werte unter 70 mmHg vorliegen. „Die Entscheidung, ab welchem Blutdruck bei Hochbetagten mit einer Therapie begonnen wird, ist immer eine individuelle Entscheidung. Dabei spielen vor allem die allgemeine Gebrechlichkeit und weitere Begleiterkrankungen eine wichtige Rolle“, erläutert Voigtländer. Ebenfalls wichtig: Eine schon früher begonnene Blutdrucktherapie sollte auch bei Hochbetagten möglichst fortgesetzt werden.
Medikamente: Kombinationstherapie effektiver als Monotherapie
Die Empfehlungen zur medikamentösen Therapie sind im Wesentlichen unverändert. „Eine Zweierkombination aus ACE-Hemmer oder Sartan plus Kalziumantagonist oder Diuretikum ist hier in der Regel der erste Schritt zur Blutdrucksenkung“, erläutert der Frankfurter Kardiologe. Reicht das nicht, sollte eine Dreierkombination aus diesen Wirkstoffklassen versucht werden. Auf der dritten Stufe kommen weitere Substanzen ins Spiel. Wie bisher sind die Aldosteron-Antagonisten (Spironolacton/Eplerenon) als wichtige Substanzklasse bei der Behandlung der schwer einstellbaren Hypertonie genannt. Neu ist bei diesen Patienten der Einsatz des Kombinationspräparates aus Neprilysinantagonist und Sartan (ARNI, Angiotensin-Receptor-Neprilysin-Inhibitor) als Empfehlung zur Blutdrucksenkung. Wenn dieses Kombinationspräparat eingesetzt wird, müssen allerdings der ACE-Hemmer beziehungsweise das Sartan aus der bisherigen Therapie abgesetzt werden. Bei Patienten, die bereits Nierenschäden aufweisen, wird die Therapieempfehlung zudem um Wirkstoffe aus der Gruppe der sogenannten SGLT-2-Inhibitoren (Gliflozine) ergänzt wie Empagliflozin. „Wir haben inzwischen ein neues Verständnis, wie der Bluthochdruck reguliert wird beziehungsweise durch eine Funktionsstörung aus vielen Mechanismen entsteht, bei der verschiedenste Faktoren ineinandergreifen. Das erklärt auch, warum wir mit der Kombination von Medikamenten, die ganz unterschiedlich wirken, den Blutdruck viel effektiver senken können als durch eine Monotherapie“, so Voigtländer.
Bei Patienten mit niedrigem bis mittlerem kardialen Risiko und mit einem Blutdruck im hohen Normalbereich (130-139 mmHg systolisch und 85-89 mmHg diastolisch) besteht die Empfehlung, keine blutdrucksenkende medikamentöse Therapie einzuleiten. Bei diesen Patienten sollte sich die Intervention vorerst auf eine Lebensstilberatung beschränken.
Regelmäßige Blutdruckmessung kann Hypertonie aufdecken
„Zu begrüßen ist auch, dass in den Leitlinien nochmals auf die Wichtigkeit einer regelmäßigen Blutdruckkontrolle verwiesen wird. So wird betont, dass bei jeder sich bietenden Gelegenheit auf das Vorliegen eines Bluthochdrucks gescreent werden sollte“, so der Herzstiftungs-Vorsitzende. „Bei Menschen über 40 Jahren heißt das: Lassen Sie sich einmal pro Jahr beim Hausarzt den Blutdruck checken.“ Risikopatienten wird dieses Vorgehen bereits in jüngeren Jahren empfohlen. Hier werden in den neuen Leitlinien auch Frauen nach der Menopause und Frauen mit einer Vorgeschichte von Schwangerschaftsbluthochdruck und Schwangerschaftskomplikationen wie einer Präeklampsie hervorgehoben.
Voigtländer rät: „Wer an sich gesund ist und nicht zum Hausarzt muss, sollte zumindest die Gelegenheit nutzen, sich immer mal wieder in der Apotheke den Blutdruck messen zu lassen. Das kann ebenfalls einen Hinweis auf einen bisher unentdeckten Bluthochdruck liefern.“ Je früher ein Bluthochdruck entdeckt wird, desto besser lassen sich die genannten Folgen für Herz und andere Organe wie Gehirn und Nieren vermeiden.
Neue Stadieneinteilung anhand von Organschäden
Sinnvoll ist ebenfalls, dass neben der bisherigen Einteilung nach Blutdruckwerten (z.B. optimal, normal, hochnormal) drei Krankheitsstadien des Bluthochdrucks systematisch hervorgehoben werden. „Denn damit lassen sich besser die fortschreitenden Schäden an Organen wie Herz, Hirn und Nieren bei einem unbehandelten Bluthochdruck vor Augen führen“, wie Prof. Voigtländer betont. „Wir möchten Patienten im Gespräch keine Angst machen. Dennoch unterschätzen viele die Folgen ihres Bluthochdrucks – bis es zu spät ist und zum Beispiel ein Herzinfarkt eingetreten ist oder die Nieren schwer geschädigt sind“, so der Kardiologe. Das ist die Einteilung:
– Stadium I: unkomplizierte Erkrankung, bei der noch keine merklichen Organschäden vorliegen (gilt auch bis zu einer Nierenerkrankung Grad 1 und 2)
– Stadium II: leichte Organschäden sind erkennbar, etwa der Beginn einer chronischen Nierenerkrankung (Grad 3), oder das zusätzliche Vorliegen von Diabetes mellitus
– Stadium III: es liegen bluthochdruckbedingte kardiovaskuläre Erkrankungen vor oder eine fortgeschrittene chronische Nierenerkrankung (Grad 4 und 5)
„Die Stadieneinteilung kann in der Kommunikation helfen, dass Betroffene die Notwendigkeit von Lebensstiländerungen und gegebenenfalls einer medikamentösen Behandlung verstehen und akzeptieren“, so der Kardiologe und Intensivmediziner.
(ne)
Service-Tipp:
Bluthochdruck durch Schlafstörungen, Migräne und Lärm – Yoga und Kalium als natürliche Senker? Was in den Hypertonie-Leitlinien noch neu und wichtig ist, stellt der Herzstiftungs-Beitrag mit einer Experten-Einordung durch Prof. Voigtländer unter https://herzstiftung.de/leitlinie-hypertonie-2023 vor.
Infos rund um Bluthochdruck bietet die Herzstiftung kostenfrei telefonisch unter 069 955128-400, per Mail unter bestellung@herzstiftung.de oder auf der Homepage unter: https://herzstiftung.de/bluthochdruck
Video „Wie messe ich meinen Blutdruck richtig?“ mit Prof. Dr. Thomas Voigtländer: https://www.youtube.com/watch?v=6cQZaQskJJc
Quelle:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…
Kontakt
Deutsche Herzstiftung
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
https://herzstiftung.de
Originalpublikation:
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…
Weitere Informationen:
https://herzstiftung.de/leitlinie-hypertonie-2023 – Stellungnahme zur Hypertonie-Leitlinie
http://https:herzstiftung.de/bluthochdruck – Infos zu Bluthochdruck
Was der Klimawandel mit Gehirn und Seele macht
Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Über Jahrtausende hinweg hat sich unser Gehirn an unseren Lebensraum angepasst. Verändert er sich durch schnell steigende Temperaturen und den damit verbundenen Verlust von Ökosystemen, kommt das Gehirn von Menschen und Tieren nicht mehr mit. Was das bedeutet, beschreiben Dorothea Metzen und Prof. Dr. Sebastian Ocklenburg aus der Biopsychologie der Ruhr-Universität Bochum und der Medical School Hamburg in ihrem Buch „Die Psychologie und Neurowissenschaft der Klimakrise“. Sie integrieren dabei verschiedene Forschungszweige der Psychologie und Neurowissenschaft. Das Lehrbuch ist im Springer-Verlag erschienen.
Unsere Umwelt hat großen Einfluss auf die Funktion und die Entwicklung unseres Gehirns: „Studien zeigen zum Beispiel, dass ein Aufenthalt in der Natur im Gegensatz zu einem Aufenthalt in der Stadt zu einer Regulation von Stressnetzwerken im Gehirn führen kann“, erklärt Dorothea Metzen. Sind wir längere Zeit lebensfeindlichen Umgebungen ausgesetzt, etwa in besonders kalten Gebieten wie der Arktis, können sich unsere Hirnfunktionen ebenfalls verändern. „Der Erhalt der uns verbleibenden natürlichen Räume ist somit sehr wichtig für die Gesundheit unseres Gehirns“, unterstreicht Sebastian Ocklenburg.
Temperatur ist außerdem eine wichtige Umweltbedingung, die im Laufe der Evolution ökologische Nischen bedingt hat. Die Gehirne von Tieren und auch von uns Menschen sind an bestimmte Temperaturen angepasst. Extrem schnelle Änderungen der Durchschnittstemperaturen können zu einer Zerstörung von ökologischen Nischen führen, ohne Zeit für die Lebewesen, sich anzupassen. „So besitzen zum Beispiel Walgehirne besonders viele Zelltypen, die mit der Erzeugung von Hitze im Gewebe verbunden sind. Diese sind für sie in kalten Gewässern überlebenswichtig“, so Dorothea Metzen. „Sollte sich das Wasser allerdings zu stark erwärmen, haben die Wale keine ausreichenden Mechanismen, um die Körpertemperatur herunterzuregulieren.“
Hitzewellen und Naturkatastrophen
Der Klimawandel hat massive Auswirkungen auf die Gesundheit der Menschen, sowohl physisch als auch psychisch. Hitzewellen führen zu steigenden Zahlen von Hitzetoten, gleichzeitig werden Naturkatastrophen wie Fluten und Waldbrände mit steigender Durchschnittstemperatur immer wahrscheinlicher. All diese Phänomene beeinflussen auch unsere psychische Gesundheit: Hitzewellen hindern uns daran, unserem geregelten Alltag nachzugehen, können unser Sozialleben einschränken und zu Isolation führen. Außerdem sind erhöhte Außentemperaturen im Sommer mit einer verringerten Schlafqualität verbunden, was Einfluss auf Stimmung, Arbeit und Suizidalität haben kann. Besonders verwundbare Gruppen sind Menschen mit psychischen Erkrankungen, Frauen und Ältere. Naturkatastrophen können zu Depressionen und Posttraumatischen Belastungen führen. Menschen, die auf der Flucht vor den Folgen der Klimakrise sind, sind multiplen Stressoren und Gesundheitsrisiken ausgesetzt, durch prekäre Bedingungen in Flüchtlingsunterkünften, mangelnden Zugang zu Gesundheitsversorgung und Gewalt.
„Was können wir als Beschäftigte in Wissenschaft und Gesundheitsberufen nun tun?“, fragen die beiden Forschenden. „Wir können uns dafür einsetzen, das Gesundheitssystem auf die kommenden Herausforderungen vorzubereiten, denn das ist es bisher nicht“, sagt Sebastian Ocklenburg. „Die Folgen der Klimakrise müssen in Gesundheit, Wissenschaft und Lehre mitgedacht werden, denn sie stellt das größte Gesundheitsrisiko und die größte Herausforderung unserer Zeit dar. Wir können in Verbänden und Vereinen laut sein, um die Politik zum tatsächlichen Handeln gegen die Klimakrise zu bewegen, denn Prävention ist der beste Weg, um die Gesundheit unserer Mitmenschen zu schützen.“
Wissenschaftliche Ansprechpartner:
Dorothea Metzen
Biopsychologie
Institut für Kognitive Neurowissenschaft
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 21775
E-Mail: dorothea.metzen@ruhr-uni-bochum.de
Originalpublikation:
Dorothea Metzen, Sebastian Ocklenburg: Die Psychologie und Neurowissenschaft der Klimakrise. Wie unser Gehirn auf Klimaveränderungen reagiert, Springer, Berlin 2023, 48 Seiten, ISBN 9783662673645, DOI: 10.1007/978-3-662-67365-2
Muster der Biodiversität entschlüsselt
Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Der Mensch ist eine große Bedrohung für die biologische Vielfalt. Um sie zu schützen, ist es wichtig, ihre Ursprünge zu verstehen. Eine entscheidende Rolle spielen dabei Arten, die evolutionär einzigartig sind, das heißt wenige oder keine nah verwandten Arten haben, und nur in einem begrenzten Gebiet vorkommen, also endemisch sind. Ein internationales Forschungsteam unter der Leitung der Universität Göttingen hat nun globale Muster der Verbreitung endemischer Samenpflanzen aufgedeckt und Umweltfaktoren ermittelt, die ihren Endemismus beeinflussten. Damit liefern die Forschenden wertvolle Erkenntnisse für den weltweiten Schutz von Biodiversität.
Die Forschenden analysierten einen umfangreichen Datensatz zum regionalen Vorkommen von Samenpflanzen. Er umfasste etwa 320.000 Arten aus weltweit 912 Regionen. Dabei deckten sie die geografische Verteilung endemischer Arten auf. Indem sie zwischen „kürzlich“ entstandenen Arten und älteren evolutionären Linien unterschieden, machten sie Zentren von Neo- und Paläoendemismus aus. Neoendemismus ist die lokal begrenzte Verbreitung von Arten, deren Artbildung noch nicht lange zurückliegt und die sich noch nicht weiter ausgebreitet haben. Dagegen beschreibt Paläoendemismus die begrenzte Verbreitung meist älterer Arten, die heute nur noch auf Restflächen ihres einst größeren Verbreitungsgebiets vorkommen. Als globale Hotspots endemischer Samenpflanzen identifizierte das Forschungsteam isolierte tropische und subtropische Inseln sowie tropische Bergregionen. Die meisten tropischen Regenwaldgebiete sind Zentren des Paläoendemismus. Dagegen weisen viele Gebiete mit mediterranem Klima und abgelegene Inseln vor allem Neoendemismus oder beide Formen auf.
Das Forschungsteam untersuchte auch das Zusammenspiel zwischen Umweltfaktoren und Endemismus. Dabei wurde deutlich, dass eine Kombination aus vergangenen und gegenwärtigen Umweltbedingungen die globalen Unterschiede im Vorkommen endemischer Samenpflanzen beeinflusst. Die Studie zeigt auch, dass sowohl die klimatische als auch die geologische Geschichte Einfluss auf den Endemismus hat: Die langfristige klimatische Stabilität unterstützt das Fortbestehen von Paläoendemismus, während die isolierte Natur ozeanischer Inseln und ihre einzigartige geologische Geschichte Neoendemismus fördern.
Prof. Dr. Holger Kreft von der Abteilung Biodiversität, Makroökologie und Biogeographie der Universität Göttingen betont: „Die aufgedeckten Beziehungen zwischen vergangenen und gegenwärtigen Umweltbedingungen und Endemismus bieten beispiellose Einblicke in die evolutionären Grundlagen biogeografischer Muster bei Samenpflanzen.“ Dr. Patrick Weigelt aus derselben Abteilung fügt hinzu: „Unsere Ergebnisse verbessern nicht nur unser Verständnis der evolutionären Ursprünge der Pflanzenvielfalt, sie unterstreichen auch die dringende Notwendigkeit, Gebiete zu schützen, in denen Arten mit einzigartiger Evolution und begrenzter Verbreitung vorkommen.“
Wissenschaftliche Ansprechpartner:
Lirong Cai
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
E-Mail: lcai@uni-goettingen.de
Internet: www.uni-goettingen.de/en/597986.html
Dr. Patrick Weigelt
Georg-August-Universität Göttingen
Fakultät für Forstwissenschaften und Waldökologie
Abteilung Biodiversität, Makroökologie und Biogeographie
Büsgenweg 1, 37077 Göttingen
Telefon: 0551 39-28983
E-Mail: pweigel@uni-goettingen.de
Internet: www.uni-goettingen.de/de/157014.html
Originalpublikation:
Cai, L. et al. Climatic stability and geological history shape global centers of neo- and paleoendemism in seed plants. Proceedings of the National Academy of Sciences (2023). DOI: 10.1073/pnas.2300981120
Weitere Informationen:
http://www.uni-goettingen.de/de/3240.html?id=7159
http://(weiteres Bildmaterial)
Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Aktuelle Auswertung des WSI-Tarifarchivs:
Tarifvertragliche Ausbildungsvergütungen: Zwischen 620 und 1.580 Euro im Monat – Tarifvertragsparteien reagieren mit überdurchschnittlichen Erhöhungen auf Fachkräftemangel
Bei den durch Tarifvertrag festgelegten Ausbildungsvergütungen bestehen je nach Branche und Region sehr große Unterschiede.
Die Spannbreite reicht von der gesetzlichen Mindestausbildungsvergütung, die im ersten Ausbildungsjahr bei 620 Euro pro Monat liegt und z.B. im Friseurhandwerk oder der ostdeutschen Floristik gezahlt wird, bis zu 1.580 Euro im westdeutschen Bauhauptgewerbe, mit denen Auszubildende im vierten Ausbildungsjahr vergütet werden (siehe auch Abbildung 1 sowie Tabelle 1 in der pdf-Version dieser PM; Link unten). Dies zeigt eine aktuelle Auswertung von 20 ausgewählten Tarifbranchen, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung kurz vor Beginn des neuen Ausbildungsjahres 2023 vorlegt.
Deutliche Zuwächse bei den Ausbildungsvergütungen
„In einigen Tarifbranchen sind die tarifvertraglichen Ausbildungsvergütungen in jüngster Zeit überdurchschnittlich stark angehoben worden“, sagt der Leiter des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten. „Die Tarifvertragsparteien reagieren hier auf sinkende Ausbildungszahlen und einen zunehmenden Fachkräftemangel, dem ohne eine deutliche Verbesserung der Vergütungsniveaus nicht entgegnet werden kann.“
Den größten Zuwachs konnte das Backhandwerk verzeichnen, wo die Ausbildungsvergütungen ab dem 1. August 2023 im ersten Ausbildungsjahr um 26,5 Prozent angehoben werden (siehe auch Abbildung 2 in der pdf-Version dieser PM; Link unten). Erhöhungen um 20 Prozent und mehr gab es außerdem im bayerischen Gastgewerbe, der westdeutschen Floristik und der Süßwarenindustrie Nordrhein-Westfalen. Über 10 Prozent stiegen die Ausbildungsvergütungen im sächsischen Gastgewerbe, in der Landwirtschaft (Mecklenburg-Vorpommern) und im Privaten Bankgewerbe.
In der Mehrzahl der Branchen wurden die Vergütungen im Laufe des letzten Ausbildungsjahres zwischen 2,0 und 7,5 Prozent angehoben. In einigen wenigen Branchen gab es hingegen keine Erhöhungen. Dies liegt zum Teil daran, dass wie z. B. bei der Deutschen Bahn AG oder dem nordrhein-westfälischen Friseurhandwerk die laufenden Tarifverhandlungen noch zu keinem Ergebnis geführt haben oder – wie im Fall der ostdeutschen Floristik – ergebnislos abgebrochen wurden. In anderen Branchen wie z. B. dem Kfz-Handwerk sind bereits Erhöhungen vereinbart worden, die jedoch erst im weiteren Verlauf der zweiten Jahreshälfte 2023 in Kraft treten.
Große Niveauunterschiede bei den Ausbildungsvergütungen nach Branche und Region
Die Ausbildungsvergütungen werden normalerweise im Rahmen der regulären Tarifverhandlungen zusammen mit den Löhnen der Beschäftigten verhandelt. Damit hängen sie auch mit der Verhandlungsposition der jeweiligen Gewerkschaft zusammen, die von Branche zu Branche und von Region zu Region sehr unterschiedlich ist. Dementsprechend existieren bei der Höhe der Ausbildungsvergütungen erhebliche Unterschiede.
Die Unterschiede bei den tarifvertraglichen Ausbildungsvergütungen zeigen sich bereits im ersten Ausbildungsjahr: In zehn der 20 untersuchten Tarifbranchen liegen die Vergütungen zumindest teilweise oberhalb von 1.000 Euro pro Monat. Hierzu gehören:
– das Gastgewerbe in Bayern, das mit der jüngsten Erhöhung erstmals die 1.000 Euro-Marke erreicht hat,
– die Textilindustrie in Baden-Württemberg mit 1.015 Euro,
– die Deutsche Bahn AG mit bundeseinheitlich 1.020 Euro,
– die Druckindustrie mit bundeseinheitlich 1.025 Euro,
– die Süßwarenindustrie Nordrhein-Westfalen mit 1.051 Euro,
– der Öffentliche Dienst mit einer monatlichen Ausbildungsvergütung von 1.068 Euro (Bund und Gemeinden) bzw. 1.087 Euro (Länder, ohne Hessen),
– die Chemische Industrie mit 1.090 Euro im Bezirk Nordrhein und 1.080 Euro im Bezirk Ost,
– die Metall- und Elektroindustrie mit 1.091 Euro in Baden-Württemberg und 1.059 Euro in Sachsen,
– das Versicherungsgewerbe mit bundeseinheitlich 1.120 Euro,
– das Private Bankgewerbe mit bundeseinheitlich 1.150 Euro
Die höchste Ausbildungsvergütung unter den hier untersuchten Tarifbranchen wird aktuell im ersten Ausbildungsjahr mit 1.231 Euro (Öffentlicher Dienst: Länder) bzw. 1.191 Euro (Öffentlicher Dienst: Bund und Gemeinden) für die Pflegeberufe gezahlt, die mittlerweile innerhalb der Tarifverträge des öffentlichen Dienstes über gesonderte Regelungen verfügen. Damit haben die Tarifvertragsparteien auf den akuten Fachkräftemangel in diesem Bereich reagiert. Allerdings gelten diese Ausbildungsvergütungen verbindlich nur für öffentliche Einrichtungen, die unter den Tarifvertrag für den Öffentlichen Dienst (TVöD) oder den Tarifvertrag der Länder (TV-L) fallen. In privaten Pflegeeinrichtungen ohne Tarifvertrag kann die Ausbildungsvergütung hingegen auch deutlich geringer ausfallen.
In der Mitte befinden sich 12 der untersuchten 20 Tarifbranchen mit (teilweise) monatlichen Ausbildungsvergütungen zwischen 800 und 1.000 Euro im ersten Jahr. Hierzu gehören das Kfz-Handwerk, der Einzelhandel, das Bauhauptgewerbe, die Holz und Kunststoff verarbeitende Industrie, das private Verkehrsgewerbe, die Süßwarenindustrie Ost, das sächsische Gastgewerbe, die Textilindustrie Ost, das Gebäudereinigungshandwerk, das Backhandwerk, die Landwirtschaft in Mecklenburg-Vorpommern und die westdeutsche Floristik.
Die niedrigsten Ausbildungsvergütungen mit Beträgen von unter 800 Euro im Monat finden sich in drei Tarifbranchen: der Landwirtschaft im Bezirk Nordrhein mit 790 Euro, dem nordrhein-westfälischen Friseurhandwerk mit 610 Euro und der ostdeutschen Floristik mit 585 Euro. Die beiden zuletzt genannten Tarifbereiche liegen dabei unterhalb der aktuell gültigen gesetzlichen Mindestausbildungsvergütung von 620 Euro und sind somit unwirksam.
In lediglich sieben der vom WSI untersuchten Tarifbranchen existieren bundesweit einheitliche Ausbildungsvergütungen, darunter das Bäckerhandwerk, das Private Bankgewerbe, die Druckindustrie, die Deutsche Bahn AG, das Gebäudereinigungshandwerk, der Öffentliche Dienst und das Versicherungsgewerbe.
In 13 Tarifbranchen bestehen hingegen nach wie vor Unterschiede im Niveau der Ausbildungsvergütungen zwischen den west- und den ostdeutschen Tarifgebieten. In der chemischen Industrie und der Metall- und Elektroindustrie liegen die ostdeutschen Ausbildungsvergütungen mit Beträgen von 10 bzw. 32 Euro pro Monat dabei nur relativ geringfügig unterhalb des hier berücksichtigten westdeutschen Tarifbezirks, wobei auch innerhalb Westdeutschlands regionale Unterschiede existieren. Die größten Ost-West-Unterschiede existieren mit 215 Euro in der Floristik gefolgt vom Kfz-Handwerk mit 169 Euro und der Textilindustrie mit 135 Euro.
In den übrigen Branchen variieren die Unterscheide zumeist zwischen 50 und 100 Euro. In der Landwirtschaft von Mecklenburg-Vorpommern liegen die Ausbildungsvergütungen sogar leicht oberhalb des Westniveaus.
Die erheblichen Unterschiede zwischen den Branchen setzen sich auch im zweiten und dritten Ausbildungsjahr fort (siehe Tabelle 1). So variieren die Ausbildungsvergütungen im zweiten Ausbildungsjahr zwischen der gesetzlichen Mindestausbildungsvergütung von 732 Euro, die im Thüringer Friseurhandwerk gezahlt wird, und 1.297 Euro für die Auszubildenden in der Pflege bei den Ländern.
Im dritten Ausbildungsjahr liegen die Unterschiede zwischen 837 Euro (Mindestausbildungsvergütung) und 1.495 Euro (westdeutsches Bauhauptgewerbe). Von wenigen Ausnahmen abgesehen verdienen die Auszubildenden ab dem dritten Jahr in fast allen Tarifbranchen zum Teil deutlich mehr als 1.000 Euro. In elf der hier ausgewerteten Branchen existiert darüber hinaus auch noch ein viertes Ausbildungsjahr. Die höchste Ausbildungsvergütung wird dann mit 1.580 Euro im Monat im westdeutschen Bauhauptgewerbe gezahlt.
„Trotz eines erheblichen Aufholprozesses ist das Niveau der Ausbildungsvergütung in einigen Tarifbranchen nach wie vor sehr niedrig“, erläutert Schulten. „Hinzu kommen die Branchen ohne Tarifvertrag, in denen Auszubildende lediglich Anspruch auf die gesetzliche Mindestausbildungsvergütung haben. Um die Attraktivität bestimmter Ausbildungsberufe zu erhöhen, ist deshalb eine Stärkung der Tarifbindung dringend geboten.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211-7778-239
E-Mail: Thorsten-Schulten@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
Die PM mit Abbildung und Tabelle (pdf): http://www.boeckler.de/pdf/pm_ta_2023_07_24.pdf
Hitze führt zu mehr Arbeitsunfällen
Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Eine Studie von Nachwuchsforschenden der Universitäten Passau und Bern zeigt anhand von Daten aus der Schweiz: An Tagen mit Temperaturen über 30 Grad steigt die Zahl der Arbeitsunfälle um 7,4 Prozent. Bei Bürokräften liegt die Ursache vor allem in der Nacht.
Große Teile der Welt leiden unter der aktuellen Hitzewelle. In Bayern und Baden-Württemberg wurden Temperaturen über 30 Grad gemessen, ebenso in der Schweiz, die von der globalen Erwärmung besonders betroffen ist.
Wie wirken sich solche extremen Temperaturen auf Unfälle auf der Arbeit aus? Diese Frage haben Katharina Drescher, Nachwuchsökonomin an der Universität Passau, und ihr Ko-Autor Benedikt Janzen von der Universität Bern anhand von Daten aus der Schweiz untersucht. In ihrer Studie werteten die Forschenden Arbeitsunfälle von 1996 bis 2019 aus. Die Schweiz eignet sich für eine solche Untersuchung insofern, als es hier auf kleinem Raum eine große Variation an Temperaturen gibt. Zudem stehen die administrativen Unfalldaten tagesgenau und auf kleinteiliger regionaler Ebene zur Verfügung, so dass sich diese mit dem Wetter abgleichen lassen.
Hitze betrifft in der Schweiz alle gleichermaßen
Das Ergebnis ist wenig überraschend: Drescher und Janzen zeigen, dass mit Temperaturen über 30 Grad auch die Zahl der Arbeitsunfälle steigt – und zwar um 7,4 Prozent. Was die Passauer Ökonomin aber verblüfft hat, war die Tatsache, dass in der Schweiz – anders als Studien aus den USA dies nahelegen – die Hitze alle Arbeitnehmerinnen und Arbeitnehmer gleichermaßen traf: „Wir konnten in unseren Auswertungen keine Unterschiede hinsichtlich des Geschlechts, Alters, Einkommens oder der Branche feststellen.“ Das heißt: Egal ob man etwa in der Baubranche arbeitete oder als Bürokraft – die Arbeitsunfälle stiegen in beiden Gruppen prozentual gleichermaßen.
Schlafmangel als Ursache für erhöhte Unfallzahlen bei Bürokräften
Allerdings unterschieden sich die Gruppen hinsichtlich der Ursachen: Während heiße Nächte alle schlecht schlafen lassen, ist es doch die Hitze am Tag, die zu mehr Unfällen führt für diejenigen, die überwiegend draußen arbeiten. Bei Bürokräften spielen die Temperaturen in den Nächten davor eine größere Rolle. Den Zusammenhang zwischen Temperaturen, Schlafmangel und erhöhten Arbeitsunfällen zeigen die Forschenden, indem sie zusätzlich zu den Unfalldaten die Schweizerische Gesundheitsbefragung heranziehen.
Drescher und ihr Ko-Autor berechnen auch den wirtschaftlichen Schaden, den die Unfallzunahme an Hitzetagen ab 30 Grad, aber auch an Sommertagen mit 25 bis 30 Grad und Kältetagen mit Minusgraden verursacht: Demnach beliefen sich im Beobachtungszeitraum die Kosten der temperaturbedingten Unfälle auf etwa 90 Millionen Schweizer Franken jährlich – Tendenz stark steigend. Denn gab es 1996 lediglich einen Hitzetag mit mehr als 30 Grad, so lag die Zahl im Jahr 2019 bereits bei elf Tagen.
Stipendium der Nationalökonomischen Gesellschaft
Die Studie mit dem Titel „When Weather Wounds Workers: The Impact of Temperature on Workplace Accidents“ ist als Discussion Paper des „Bavarian Graduate Program in Economics“ erschienen. Sie ist Teil von Dreschers kumulativer Dissertation am Lehrstuhl für Public Economics an der Universität Passau. Die Absolventin der Wirtschaftsuniversität Wien hat dafür ein mit 4000 Euro dotiertes Stipendium der österreichischen Nationalökonomischen Gesellschaft (NOeG) erhalten. „Ich gratuliere Katharina Drescher zu diesem tollen Erfolg. Mit der Studie tragen sie und Benedikt Janzen dazu bei, durch den Klimawandel bedingte Auswirkungen auf Arbeitsmarkt und Gesundheit besser zu verstehen“, erklärt Prof. Dr. Stefan Bauernschuster, Lehrstuhlinhaber und Dekan der Wirtschaftswissenschaftlichen Fakultät der Universität Passau.
Wissenschaftliche Ansprechpartner:
Katharina Drescher
Wissenschaftliche Mitarbeiterin am Lehrstuhl für Public Economics
Universität Passau
Innstraße 27, 94032 Passau
E-Mail: Katharina.Drescher@uni-passau.de
Originalpublikation:
https://www.bgpe.de/texte/DP/226_Drescher_1.pdf
„Ich bin dann mal weg“ – Warum Urlaub ohne Arbeit so wichtig ist
Alexandra Naumann Pressestelle
IST-Hochschule für Management
Urlaub bietet Zeit für Entspannung, Erholung und das „Aufladen der Batterien“. Leider gibt es immer mehr Menschen, die während ihres Urlaubs arbeiten. Dies kann jedoch die Work-Life-Balance gefährden und langfristig negative Auswirkungen auf die körperliche und geistige Gesundheit haben. Alexandra Löwe, wissenschaftliche Mitarbeiterin an der IST-Hochschule für Management, erklärt, wie das aussehen kann.
„Arbeit im Urlaub führt dazu, dass die Grenzen zwischen Beruflichem und Privatem verschwimmen. Durch die ständige Erreichbarkeit befinden wir uns dauerhaft in einem arbeitsbezogenen Denkmuster, auch wenn wir eigentlich freie Zeit haben sollten. Dadurch wird es schwieriger, sich mental von der Arbeit zu lösen und sich auf die Entspannung und den Genuss des Urlaubs zu konzentrieren.
Der Stress bleibt weiterhin präsent“, erläutert Alexandra Löwe, Stress-Expertin am IST-Studieninstitut. „So kehren wir nach dem Urlaub nicht erfrischt und revitalisiert zurück, sondern fühlen uns weiterhin müde und ausgelaugt.“
Aber wer ständig arbeitet und keine Zeit für Erholung findet, riskiert eine Abnahme der Kreativität und Produktivität und letztlich Erschöpfung.
„Der permanente Einsatz des Gehirns im Arbeitsalltag kann dazu führen, dass bestimmte Denkfähigkeiten überbeansprucht, während andere vernachlässigt werden. Eine Auszeit in Form eines Urlaubs ermöglicht es dem Gehirn, sich zu regenerieren und neue Energie zu tanken“, so Löwe. „Darüber hinaus können wir unser Gehirn auf verschiedene Weise stimulieren, indem wir neue Orte erkunden, andere Aktivitäten ausprobieren und uns neuen Erfahrungen öffnen. Dies kann dazu beitragen, die kognitiven Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Problemlösung und Lernfähigkeit zu verbessern. Urlaub wirkt sich damit positiv auf unsere kreative Denkweise und Arbeitsleistung aus.“
Die mentale Gesundheit ist eng mit der Funktionsweise des Gehirns verbunden. Stress und Überlastung können zu Angstzuständen, Depressionen und anderen psychischen Problemen führen. Durch einen Urlaub kann dem entgegengewirkt und die geistige Gesundheit gestärkt werden.
Die viel zitierte Work-Life-Balance ist entscheidend für allgemeines Wohlbefinden. Wenn man sich im Urlaub nicht von der Arbeit lösen kann, wird diese Balance gestört. Die Zeit, die private Aktivitäten gedacht war, wird stattdessen von beruflichen Verpflichtungen eingenommen.
Dies kann zu Konflikten in persönlichen Beziehungen führen und das Gefühl verstärken, dass die Arbeit immer Vorrang hat. Beziehungen und soziale Bindungen sind wichtig für das Gehirn, da sie die Freisetzung von Oxytocin, einem Hormon, das mit positiven Emotionen und dem Aufbau von Vertrauen verbunden ist, fördern.
„Daher profitieren wir in mehrfacher Hinsicht davon, wenn wir den Urlaub nutzen, um Zeit mit unseren Liebsten zu verbringen, neue Menschen kennenzulernen und soziale Interaktionen zu pflegen“, fasst Löwe zusammen.
Wer sich mit dem Thema Stressmanagement ausführlich beschäftigen möchte, findet ein passendes Bildungsangebot am IST.
Weitere Informationen:
https://www.ist.de/gesundheit-und-wellness/stressmanagement-ausbildung
Artenschutz durch Braukunst: Forschungsprojekt zeigt Eignung der seltenen Dicken Trespe für die Bierherstellung
Christian Wißler Pressestelle
Universität Bayreuth
Die Dicke Trespe (Bromus grossus) ist eine uralte Getreideart, die nachweislich schon in der Bronzezeit kultiviert und als Nahrungsmittel genutzt wurde. Heute zählt sie zu den vom Aussterben bedrohten Arten. In gemeinsamen Forschungsarbeiten haben die Universität Bayreuth, das Bezirkslehrgut Bayreuth und die Firma IREKS in Kulmbach untersucht, ob sich diese Pflanze zum Bierbrauen eignet. Das Ergebnis sind zwei schmackhafte Biere: ein Pils und ein Hefe-Weizen. Sie wurden am 20. Juli 2023 zum erfolgreichen Abschluss des von der Oberfrankenstiftung geförderten Projekts auf dem Campus der Universität Bayreuth verkostet. Die Bierproduktion könnte ein Weg zum Erhalt der Dicken Trespe sein.
„Die Dicke Trespe hat sich im Verlauf der letzten Jahrtausende immer stärker an die besonderen Bedingungen des Ackerbaus angepasst. Schnelle Keimung und eine sehr hohe Keimungsrate machen sie für die Herstellung von Malz besonders geeignet. Die Körner der Dicken Trespe sind fast so groß wie die von anderen Getreidearten“, erklärt Dr. Pedro Gerstberger vom Lehrstuhl für Pflanzenökologie der Universität Bayreuth, der das Forschungsprojekt geleitet hat. Ein großer Vorteil der Dicken Trespe besteht darin, dass die Körner – im Unterschied zu Wildgräsern – nach der Reife nicht aus der Rispe fallen, sondern an der Pflanze haften bleiben. So können sie ohne Verluste geerntet werden.
„Weil die Dicke Trespe keine eigene Saatgutreserve im Boden bildet, muss sie jährlich neu ausgesät werden. Genau hier liegt die Chance, den Erhalt dieser seltenen und gefährdeten Pflanzenart durch eine dauerhafte Nutzung für die Bierherstellung zu sichern. Die Dicke Trespe ist zwar durch die Fauna-Flora-Habitat-Richtlinie (FFH-Richtlinie) der Europäischen Union und die Bundesartenschutzverordnung streng geschützt, aber ohne ihren stetigen Anbau würde sie letztlich aussterben“, sagt Gerstberger.
Die für das Forschungsprojekt an der Universität Bayreuth verwendeten Körner stammten aus einem Anbau der Dicken Trespe auf dem Gelände des Bayreuther Bezirkslehrguts, das zu den Landwirtschaftlichen Lehranstalten des Bezirks Oberfranken gehört. Das verwendete Saatgut war von den Botanischen Gärten in Bonn und in Frankfurt am Main zur Verfügung gestellt worden. Die Firma IREKS, ein international tätiges Unternehmen der Lebensmittelbranche in Kulmbach, übernahm unter der Leitung von Dipl.-Ing. Matthias Hansen die Herstellung des Braumalzes.
Am Lehrstuhl für Bioprozesstechnik, der über eine breite Expertise auf dem Gebiet der Braukunst und einen eigenen modernen Braukessel verfügt, wurden schließlich unter der Leitung von Prof. Dr. Ruth Freitag insgesamt 45 Liter Pils hergestellt. 40 Liter Hefe-Weizen wurden vom Team um Dr. Benjamin Gilfedder, Limnologische Station der Universität Bayreuth, gebraut. Das Ergebnis, zwei vollmundige Craft-Biere, überzeugte alle Teilnehmer*innen der Verkostung – nicht zuletzt auch die Mitglieder des Vereins „UniBrauTechnik e.V.“, der sich 2012 auf dem Campus der Universität Bayreuth gegründet hat.
Wissenschaftliche Ansprechpartner:
Dr. Pedro Gerstberger
Lehrstuhl für Pflanzenökologie
Universität Bayreuth
E-Mail: gerstberger@uni-bayreuth.de
Prof. Dr. Ruth Freitag
Lehrstuhl für Bioprozesstechnik
Universität Bayreuth
Tel: +49 (0)921 55-7370
E-Mail: ruth.freitag@uni-bayreuth.de
Welt-Hepatitis-Tag: Deutsche Leberstiftung unterstützt die Elimination der Virushepatitis
Rolf Kalus externe Pressestelle
Deutsche Leberstiftung
Hannover – Am 28. Juli 2023 findet der Welt-Hepatitis-Tag statt. Das diesjährige Motto in Deutschland „Ich warte nicht. Ich handele!“ ist ein Aufruf, aktiv zu werden und sich beispielsweise testen zu lassen oder als Betroffener eine antivirale Therapie zu beginnen. Die Deutsche Leberstiftung unterstützt den Welt-Hepatitis-Tag und das Erreichen der WHO-Zielsetzung, Hepatitis B und C bis 2030 zu eliminieren.
Infektionen mit Hepatitisviren gehören weltweit zu den häufigsten Infektionskrankheiten und stellen global eines der großen Probleme für das Gesundheitswesen dar. Die meisten Fälle einer viralen Hepatitis gehen auf fünf Viren zurück, die unterschiedlich sind: die Hepatitisviren A, B, C, D (delta) und E (HAV–HEV). Insbesondere chronische HBV- und HCV-Infektionen zählen zu den bedeutendsten Ursachen von Leberzirrhose und Leberzellkrebs (Hepatozelluläres Karzinom, HCC). Laut der Weltgesundheitsorganisation (WHO) leben weltweit schätzungsweise 354 Millionen Menschen mit einer Hepatitis B oder C. In Deutschland gehen Experten für die Hepatitis B und C gesamt von mehreren Hunderttausend Betroffenen aus.
Die WHO hat bereits 2016 das Ziel ausgerufen, bis 2030 die Virushepatitiden B und C zu eliminieren – definiert wird dies als eine Reduktion der Hepatitis B-Virus (HBV)- und Hepatitis C-Virus (HCV)-Infektionen um 90 Prozent, die Behandlung von 80 Prozent der therapiebedürftigen HBV- und HCV-Infizierten und eine Reduktion der HBV- und HCV-assoziierten Todesfälle um 65 Prozent. Diesem Ziel hat sich die Bundesregierung angeschlossen.
Die Behandlung der chronischen Hepatitis C mit direkt wirkenden antiviralen Substanzen (DAAs) ist einer der wichtigsten klinischen Fortschritte der jüngeren Medizingeschichte. Damit kann die Hepatitis C inzwischen bei fast allen Patienten sehr gut behandelt und in kurzer Zeit, nahezu ohne Nebenwirkungen, sogar geheilt werden. Die Hepatitis B kann mit den zugelassenen Medikamenten gut kontrolliert werden. Eine Impfung, die von der WHO seit 1992 empfohlen wird, schützt vor Hepatitis B – und gleichzeitig auch vor Hepatitis D (delta), da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann. Für die Therapie der Hepatitis delta ist seit einiger Zeit ein neues Medikament verfügbar.
Die weltweite Elimination der Hepatitis B und Hepatitis C, wie sie von der WHO angestrebt wird, ist mit den vorhandenen medizinischen Therapie- und Schutzmöglichkeiten realisierbar. Trotzdem stellt die Virushepatitis noch immer ein großes globales und EU-weites Gesundheitsproblem dar. Viele dieser Infektionen bleiben über Jahre oder sogar Jahrzehnte unerkannt und somit auch unbehandelt. Nur eine rechtzeitige Diagnose und Behandlung können die möglichen schweren Langzeitfolgen einer chronischen Hepatitis verhindern. Um diese Elimination in Deutschland zu unterstützen, ist die Deutsche Leberstiftung in verschiedenen Bereichen aktiv.
Im Februar 2022 organisierte die Deutsche Leberstiftung in Kooperation mit der Hepatitis B & C Public Policy Association (HepBCPPA) das virtuelle „Strategietreffen Virushepatitis in Deutschland eliminieren 2022“. Experten aus Medizin, Wissenschaft, Politik und Versorgungsforschung verständigten sich auf ein Positionspapier, in dem verschiedene Ziele und Maßnahmen formuliert wurden.
Seit Juni 2023 ist der „HCV-Tracker“, ein Kooperationsprojekt der Deutschen Leberstiftung und AbbVie Deutschland, online. „Auf der Website https://www.hcv-tracker.de werden regelmäßig aktualisierte Daten zu Hepatitis C-Neudiagnosen und zu den antiviralen Behandlungen in Deutschland veröffentlicht und zu modellierten Zielwerten ins Verhältnis gesetzt. Dafür werden unter anderem Daten des RKI und aus dem ‚IQVIA Contract Monitor‘ verwendet. Die so entstandenen Grafiken zeigen, wo Deutschland auf dem Weg zur HCV-Elimination bis 2030 steht. Damit schließen wir eine Datenlücke und unterstützen die Elimination“, erklärt Prof. Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung.
Eine Verbesserung, die eine aktive Umsetzung des diesjährigen Mottos des Welt-Hepatitis-Tages „Ich warte nicht. Ich handele!“ erleichtert, gibt es in Deutschland bereits: Seit der Umstrukturierung des Präventionsprogramms für gesetzlich Versicherte, das bis März 2019 unter dem Namen „Check-up 35“ geführt wurde, wird seit Oktober 2021 auch das einmalige Screening auf Hepatitis B und C angeboten. Damit sollen bislang unentdeckte Infektionen mit den Hepatitisviren B und C erkannt und betroffenen Menschen soll eine möglichst frühzeitige Behandlung angeboten werden.
Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung, Forschungsvernetzung und wissenschaftliche Projekte zu verbessern. Mit intensiver Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung in medizinischen Fragen. Auf der Website finden Sie umfangreiche Informationen sowie Bildmaterial für Betroffene, Interessierte, Angehörige der Fachkreise und Medienvertreter: https://www.deutsche-leberstiftung.de.
UNSERE BUCHEMPFEHLUNGEN
„Das große Kochbuch für die Leber“ – 122 Rezepte mit allen wichtigen Nährwertangaben; Küchentipps und Regeln für eine lebergesunde Ernährung, September 2022. Das Buch ist im Buchhandel erhältlich: ISBN 978-3-8426-3100-7 € 28,00 [D].
https://www.deutsche-leberstiftung.de/Kochbuch-Leber/
„Das Leber-Buch“ informiert allgemeinverständlich und umfassend über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien, 4. erweitere und aktualisierte Auflage September 2021, im Buchhandel erhältlich: ISBN 978-3-8426-3043-7, € 19,99 [D].
https://www.deutsche-leberstiftung.de/Leber-Buch/
Rezensionsexemplare können über asche@humboldt.de angefordert werden.
Kontakt
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de
Weitere Informationen:
https://www.deutsche-leberstiftung.de
https://www.deutsche-leberstiftung.de/presse/aktuelle-pressemitteilungen/
https://www.deutsche-leberstiftung.de/downloads/strategietreffen/strategietreffe…
https://www.hcv-tracker.de
Auffrischimpfung gegen COVID-19:Anpassung der Auffrischimpfstoffe gegen Omikron-Varianten bedeutsam für COVID-19-Schutz
Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Nicht an Omikron-Varianten angepasste COVID-19-mRNA-Impfstoffe führen als Auffrischimpfungen (3. und 4. Impfung) zwar zu höheren Blutspiegeln neutralisierender Antikörper gegen die Omikron-Subvarianten. Jedoch fallen diese Antikörpertiter sechs Monate nach der dritten oder vierten Impfung deutlich ab. Die vierte Impfung hatte ebenfalls keinen Einfluss auf die Breite der Immunantwort gegen verschiedene Virusvarianten. Auch bei der Grundimmunisierung mit Comirnaty waren nur geringe Mengen an neutralisierenden Antikörpern gegen Omikron vorhanden. Dies sind die Ergebnisse einer klinischen Studie, die das Paul-Ehrlich-Institut bei geimpften Angehörigen der Gesundheitsberufe durchgeführt hat.
Auffrischimpfung zur Stärkung des immunologischen Gedächtnisses
Zum Schutz vor COVID-19 werden in den meisten Altersgruppen Auffrischimpfungen empfohlen. Diese werden aus mehreren Gründen durchgeführt: Der Antikörpertiter steigt innerhalb der ersten zwei Wochen nach einer Auffrischimpfung rasch an und bietet den besten Schutz vor COVID-19. Im Anschluss sinkt er innerhalb der ersten Monate auf ein Basisniveau ab. Dieses Basisniveau wird durch das immunologische Gedächtnis aufgebaut bzw. aufgefrischt. Dabei kommt es zu einer Zunahme von Gedächtnis-B-Zellen und langlebenden Plasmazellen, die wiederum die Antikörper bilden. Beides sind wichtige Säulen der auf Antikörpern basierenden humoralen Immunantwort. Darüber hinaus stimuliert die Auffrischimpfung eine breitere humorale Immunantwort, die durch Differenzierungsvorgänge der Antikörpergene (somatische Hypermutation) und die Reifung der Antikörperaffinität erzeugt wird.
Omikron-Varianten des SARS-CoV-2 machen Impfstoffanpassungen erforderlich
Seit Anfang 2022 dominieren Omikron-Subvarianten des Coronavirus SARS-CoV-2. Die Omikron-Subvarianten weisen ein enormes Ausweich(Escape)-Potenzial aufgrund der Zerstörung bzw. Deletion verschiedener Bereiche des Virus auf, die für die Immunantwort bedeutsam sind (Epitope). Dadurch entkommen die entsprechenden Virusvarianten der Immunantwort. Dies erklärt auch, warum die Anzahl der Durchbruchsinfektionen bei geimpften Personen seit dem Auftreten der Omikron-Subvarianten signifikant gestiegen ist: Aufgrund der zahlreichen Mutationen im Spike-Protein können viele der durch Impfung und/oder Infektion induzierten Antikörper nicht an das mutierte Spike-Protein binden und dadurch auch nicht ihr neutralisierendes Potenzial entfalten.
Klinische Studie zeigt: Nicht an Omikron angepasste COVID-19-Impfstoffe sorgen nicht für anhaltend hohe Antikörperspiegel gegen Omikron-Varianten
Ein Forschungsteam des Paul-Ehrlich-Instituts unter Leitung von Prof. Eberhard Hildt, Leiter der Abteilung Virologie, hat den Einfluss der ursprünglichen mRNA-Impfstoffe Comirnaty (BioNTech) bzw. Spikevax (Moderna), die noch nicht an die Omikron-Varianten angepasst waren, in einer klinischen Studie auf den Schutz vor Omikron-Varianten durch neutralisierende Antikörper untersucht. Nach der Grundimmunisierung (Comirnaty) waren bei den Studienteilnehmerinnen und Studienteilnehmern nur geringe Blutspiegel (Titer) an neutralisierenden Antikörpern gegen Omikron vorhanden. Auffrischimpfungen (3. und 4. Impfung) mit dem zu diesem Zeitpunkt ebenfalls noch nicht an Omikron-Varianten angepassten monovalenten mRNA-Impfstoff Spikevax führten zwar zu höheren Titern neutralisierender Antikörper gegen die Omikron-Variante. Jedoch fielen die Antikörpertiter auch nach der vierten Impfung (2. Auffrischimpfung) sechs Monate nach der Impfung deutlich ab – wie auch schon zuvor nach der dritten Impfung. Auch hatte die vierte Impfung keinen Einfluss auf die Breite der Antikörper-basierten Immunantwort, die einen Hinweis darüber gibt, inwieweit Schutz vor Infektion mit verschiedenen Virusvarianten besteht.
Die Ergebnisse auch dieser Studie weisen auf die Bedeutung der an Omikron-Subvarianten angepassten COVID-19-Impfstoffe für Auffrischimpfungen hin.
Die Ständige Impfkommission (STIKO) empfiehlt für Auffrischimpfungen entsprechend an Omikron-Subvarianten angepasste mRNA-Impfstoffe gegen COVID-19.
Über die Ergebnisse berichtet Science Reports ausführlich.
Originalpublikation:
Hein S, Sabino C, Benz NI, Görgülü E, Maier J, Oberle D, Hildt E (2023): The fourth vaccination with a non-SARS-CoV-2 variant adapted vaccine fails to increase the breadth of the humoral immune response.
Sci Rep 13: 10820
DOI: https://doi.org/10.1038/s41598-023-38077-x
Weitere Informationen:
https://www.nature.com/articles/s41598-023-38077-x – Volltext des Artikels
https://www.pei.de/DE/newsroom/pm/jahr/2023/08-anpassung-covid-19-impfstoffe-omi… – Diese Pressemitteilung auf den Internetseiten des Paul-Ehrlich-Instituts
Anhang
Kurze Zusammenfassung Ergebnisse als Audiozitat
Resilienz der Stromversorgung: Erfolgreiche Feldtests zum Hochfahren des Netzes mit Windparks und Flächenkraftwerken
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Expertinnen und Experten des Fraunhofer IEE und der Unternehmen ENERCON, Alterric Deutschland, DUtrain und Westnetz haben in Rheinland-Pfalz gemeinsam gezeigt, wie ein Windpark gesteuert werden muss, so dass er nach einem großflächigen Stromausfall zum Wiederaufbau des Stromnetzes beitragen kann. Weitere Feldtests mit einem Solar-Flächenkraftwerk verliefen ebenfalls erfolgreich. Diese und weitere Ergebnisse wurden im Abschlussbericht des dreijährigen Forschungsprojektes „SysAnDUk – Systemdienliche Anforderungen an Dezentrale Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ veröffentlicht.
„Das deutsche Stromnetz ist eines der zuverlässigsten der Welt. Dennoch ist die Resilienz von großer Bedeutung. Im Falle eines großflächigen Stromausfalls ist sehr entscheidend, dass wir schnell wieder zum Normalbetrieb zurückkehren“, erläutert Gesamtprojektleiter Holger Becker, Fraunhofer IEE, die Zielsetzung des Forschungsprojektes. Ausgangspunkt der Fragestellung war, dass sich die nötigen Schritte zum Wiederanfahren des Stromnetzes im Zuge der Energiewende verändert haben: Mit dezentralen Anlagen ist ein Neustart für die Netzbetreiber deutlich komplexer als mit Großkraftwerken: „Windparks und Solarkraftwerke können beim Hochfahren des Netzes einen aktiven Beitrag leisten, das ist technisch anspruchsvoll, aber möglich, wie unsere Feldversuche eindeutig gezeigt haben“, so Becker.
Der Feldtest fand im Gebiet des Verteilnetzbetreibers Westnetz statt. In Kümbdchen bei Mainz haben der Windenergieanlagenhersteller ENERCON und der Windparkbetreiber Alterric Deutschland in Zusammenarbeit mit den Projektpartnern ein Wiederanfahren unter realen Bedingungen geprobt. Im Mittelpunkt der Arbeiten stand die zentrale Steuerung des Windparks über die Leitstelle des Verteilnetzbetreibers sowie die Erstellung und Übertragung einer genauen Prognose der zu erwartenden Einspeiseleistung. Getestet wurden dabei die erweiterten elektrischen Eigenschaften der Anlage und neue Funktionen von Windparkreglern sowie eine mögliche Integration der Anlage in das Reservemanagement des Netzbetriebs.
„Akkurate Windprognosen ermöglichen den planbaren Einsatz von Windenergieanlagen im Normalbetrieb und in kritischen Situationen im Netz. Im Projekt wurde eine Prognostik entwickelt, die stör- und schwarzfallrobust in jeder Netzsituation den Netzbetreiber mit aktuellen Daten versorgen kann“, berichtet Lukas Holicki, Projektleiter bei ENERCON. „Dabei werden Modellrechnungen mit dezentral verfügbaren Beobachtungsdaten kombiniert und anlagenspezifische Eigenschaften und Betriebsdaten genutzt, um den Verlauf der zu erwartenden Einspeiseleistung mit hoher Zuverlässigkeit vorherzusagen. Zusammen mit einer speziell entwickelten Windparkregelung können Windenergieanlagen so zukünftig Systemverantwortung übernehmen und einen notwendigen Beitrag zur Stabilität und Resilienz unserer Stromnetze liefern. Diesen Aufgaben werden wir im Rahmen der Energiewende mit Windenergie begegnen müssen“, so Holicki.
In einem weiteren Projektstrang wurde am Fraunhofer IEE ein Flächenkraftwerk entwickelt, mit dem Photovoltaikanlagen in einer Region zusammengeschlossen und zentral gesteuert werden können. Zudem werden Prognosen für diese Anlagen erstellt. Dadurch wird es möglich, eine Vielzahl von Kleinstanlagen über eine Leitstelle gezielt einzusetzen und so Eigenschaften wie bei einem Großkraftwerk zu generieren. Die Flexibilitäten des Flächenkraftwerks ermöglichen damit insbesondere die gezielte Unterstützung des Wiederaufbaus des Stromnetzes in sonnenreichen Situationen, wie erste Feldtests des Systems exemplarisch gezeigt haben.
Netzwiederaufbau erfordert koordiniertes Zuschalten der Erzeugungsanlagen
Um ein Stromnetz nach einem Blackout wieder hochzufahren, kommt es darauf an, zunächst mit sogenannten schwarzstartfähigen Erzeugungsanlagen funktionierende elektrische Inseln zu bilden und diese dann schrittweise zu verbinden. Nach dem Schwarzstart kann die weitere benötigte Erzeugungsleistung durch Großkraftwerke oder durch einen Verbund von mehreren Photovoltaikanlagen und Windparks geliefert werden. Da Großkraftwerke an das Übertragungsnetz und die meisten Wind- und Photovoltaikanlagen an das Verteilnetz angeschlossen sind, müssen beide Netzsysteme im Fall von Störungen sehr koordiniert vorgehen.
Für die Verteilnetzbetreiber ergibt sich daraus eine aktive Rolle beim Netzwiederaufbau: „Die Veränderungen der Erzeugungs- und Laststruktur auf der Verteilnetzebene erfordern neue Fähigkeiten der Verteilnetzbetreiber. Dies gilt bereits für den Normalbetrieb, aber auch für Extremsituationen wie den Netzwiederaufbau“, analysiert Jonathan Bergsträßer, Fraunhofer IEE, die Konsequenzen des Ausbaus der erneuerbaren Energien für das Stromnetz. „Beim Wiederanfahren werden Flächenkraftwerke sowie Anlagenparks zu einem aktiven Werkzeug, um situationsgerechte Entscheidungen zu treffen, umzusetzen und anschließend zu überwachen“, so Bergsträßer.
„Uns Verteilnetzbetreibern kommt mit der Energiewende eine neue Rolle im Energiesystem zu – auch beim Wiederhochfahren nach einem großflächigen Stromausfall. Daher ist es für uns umso wichtiger, notwendige neue Anforderungen an Erzeugungsanlagen und hinsichtlich unserer Leitsystemfunktionen, möglichst frühzeitig zu identifizieren. Genau das haben wir im Rahmen dieses Projektes gemacht – im intensiven Austausch mit allen Expert*innen“, ergänzt Thomas Schmidt, Projektleiter bei Westnetz.
Als zentraler Bestandteil der Forschungsarbeiten kam ein Trainingssimulator zum Einsatz, der die Wechselwirkungen zwischen Erzeugungsanlagen und Stromnetz aufzeigt und ein gemeinsames Verständnis aller Partner ermöglichte. „Durch die Verwendung realistischer Netzwiederaufbauszenarien werden der Datenaustausch, die Beobachtungs- und Steuermöglichkeiten sowie die erforderlichen Handlungen entwickelt, validiert und verifiziert“, erläutert Udo Spanel, Geschäftsführer des Trainingsunternehmens DUtrain, das Verfahren. „Das ermöglichte ein effizientes und zielgerichtetes Vorgehen“, so Spanel.
Innovative Technik muss zum Standard werden
Der Betrieb der Stromnetze richtet sich nach den konkreten Gegebenheiten vor Ort und unterscheidet sich damit von den viel abstrakteren Handelsvorgängen am Markt. Denn bei der Preisbildung am Markt wird pauschal ein größeres Gebiet betrachtet. Rein physikalisch kommt es beim Netzwiederaufbau hingegen darauf an, dass die dezentralen Einheiten die notwendige räumliche Nähe aufweisen und die Netzstruktur beachtet wird. Nur dann lassen sich Inselnetze unter Verwendung von dezentralen Erzeugungsanlagen aufbauen, die wie Zellen mit weiteren Einheiten und untereinander verbunden werden können.
Mit dem Fortschreiten der Energiewende steigen die technischen Anforderungen an dezentrale Erzeugungsanlagen. Die Ergebnisse des Verbundvorhabens zeigen, dass die innovative Technik zum netzdienlichen Einsatz von dezentralen Anlagen zuverlässig funktioniert. Dies steht jedoch derzeit in den unteren Netzebenen noch nicht standardmäßig zur Verfügung. Denn Voraussetzung dafür sind eine entsprechende Kommunikation und Steuerung. In diesem Zuge wird der deutschlandweite Rollout des Smart-Meters mit seiner bidirektionalen Kommunikation auch Bestandsanlagen ermöglichen, sich an ein Flächenkraftwerk anzubinden. Darüber hinaus kann mit dem künftigen 450 MHz Mobilfunknetz eine robuste Kommunikation realisiert werden, die auch bei einem Blackout funktioniert.
Insgesamt steigen mit dem Ausstieg aus der Kohleverstromung und der Stilllegung von Großkraftwerken die Herausforderungen an den Betrieb der Stromnetze und insbesondere an die Netzstabilität beim Wiederaufbau. Hier sind noch weitere Lösungen zu erarbeiten. Die Entscheidung über weitere Forschungsprogramme liegt bei der Politik. Welche Investitionen dann von den Unternehmen umgesetzt werden, wird durch die Bundesnetzagentur reguliert.
Der Abschlussbericht zum Projekt „SysAnDUK – Systemdienliche Anforderungen dezentraler Erzeugungsanlagen zur Unterstützung in kritischen Netzsituationen und des Netzwiederaufbaus“ ist unter folgendem Link abrufbar: https://www.iee.fraunhofer.de/de/projekte/suche/laufende/SysAnDUk.html
Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Holger Becker
Bereich Netzplanung und Netzbetrieb
Fraunhofer IEE
holger.becker@iee.fraunhofer.de
Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2023/resilienz-de…
PFAS-kontaminiertes Wasser wird wieder sauber – erfolgversprechendes und umweltschonendes Verfahren entwickelt
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Vom Menschen gemachte Umweltbelastungen gibt es viele. Zu den gravierendsten gehört die Verschmutzung mit der gesundheitsschädlichen Ewigkeitschemikalie PFAS, die in vielen Böden und Gewässern und damit auch in unserer Nahrung zu finden ist. Sie zu entfernen ist zwar möglich, aber aufwendig und produziert Sondermüll. Nun ist es Forschenden des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gelungen, ein Verfahren zu entwickeln, mit dem PFAS energieeffizient aus kontaminiertem Wasser entfernt werden könnten. Das Projekt AtWaPlas endete dieser Tage nach zwei Jahren Forschungsarbeit mit konkret anwendbaren Ergebnissen.
Per- und polyfluorierte Alkylverbindungen, kurz PFAS (engl.: per- and polyfluoroalkyl substances) kommen in der Natur eigentlich nicht vor. Industriell hergestellt ist diese Gruppe aus mehr als 10 000 Chemikalien aber in vielen Dingen unseres Alltags zu finden. Ob in Zahnseide, Backpapier, Outdoorkleidung oder Lösch- und Pflanzenschutzmitteln – überall sorgen PFAS dafür, dass die Produkte wasser-, fett- und schmutzabweisend sind. Eigentlich nicht schlecht, aber: Sie sind außerordentlich stabil, können weder durch Licht, Wasser oder Bakterien abgebaut werden und sind mittlerweile alleine in Deutschland an tausenden Orten in Böden, Gewässern und Grundwasser nachzuweisen und damit auch in unserer Nahrung. So reichern sich diese giftigen Ewigkeitschemikalien auch im menschlichen Körper an, mit erheblichen gesundheitlichen Auswirkungen, die von der Schädigung von Organen bis hin zu Krebserkrankungen oder Entwicklungsstörungen reichen.
Möglichkeiten, PFAS wieder aus der Umwelt zu entfernen, gäbe es theoretisch schon. Diese sind aber äußerst aufwendig und teuer. Bei einer Filterung durch Aktivkohle beispielsweise werden PFAS zwar gebunden, aber nicht beseitigt, sodass die Überreste im Sondermüll entsorgt bzw. gelagert werden müssen. Ein gravierendes Umweltproblem, für dessen Lösung die Zeit drängt.
Plasma zerstört die Molekülketten der PFAS-Chemikalien
Deshalb haben es sich im Verbundprojekt AtWaPlas (für: Atmosphären-Wasserplasma-Behandlung) Forschende am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik in Stuttgart gemeinsam mit dem Industriepartner HYDR.O. aus Aachen bereits 2021 zur Aufgabe gemacht, ein effizientes, kostengünstiges Verfahren zu entwickeln, um die toxischen Substanzen möglichst vollständig beseitigen zu können. Dabei lag der Part der Forschungsarbeiten beim IGB, die Wasserproben stammten vom Projektpartner, der unter anderem auf Altlastensanierung spezialisiert ist.
Mit Erfolg: Nach nur zwei Jahren Projektlaufzeit ist es den Forschenden um Dr. Georg Umlauf, Experte für funktionale Oberflächen und Materialien, gelungen, ein Verfahren zu erarbeiten, das auf dem Einsatz von Plasma basiert, und mit dem die Molekülketten der PFAS abgebaut werden können – auch bis zur vollständigen Mineralisierung des Umweltgifts.
Plasma ist ein ionisiertes und damit elektrisch äußerst aktives Gas, das die Forschenden durch Anlegen einer Hochspannung in einem zylinderförmigen, kombinierten Glas-Edelstahlzylinder erzeugen. Anschließend wird das kontaminierte Wasser zur Reinigung durch den Reaktor geleitet. In der Plasmaatmosphäre werden die PFAS-Molekülketten aufgebrochen und damit verkürzt. Der Vorgang in dem geschlossenen Kreislauf wird mehrere Male wiederholt, dabei jedes Mal die Molekülketten um ein weiteres Stück verkürzt, so lange, bis sie vollständig abgebaut sind.
Nach wenigen Stunden im Reaktor sind die Gifte abgebaut
Gestartet wurden die Forschungsarbeiten in einem kleinen Laborreaktor mit einem Probenvolumen von einem halben Liter. »Diesen konnten wir relativ schnell durch einen 5-Liter-Pilotreaktor ersetzen und im größeren Maßstab experimentieren«, berichtet Umlauf. »Der nächste Schritt wäre nun ein noch größerer Wassertank − sicher auch machbar. «
Das Wasser, das die Forschenden für ihre Tests verwendeten, war kein Leitungswasser mit zugesetzten PFAS, sondern »echtes Wasser« – sogenannte Realproben: »Das Wasser stammt aus PFAS-kontaminierten Gebieten und ist eine wilde Mischung aus verschiedensten Partikeln wie Schwebstoffen und organischen Trübungen«, sagt Umlauf. »Für den Reinigungsvorgang kein Problem, wie unsere Versuche ergaben: Bereits nach zwei Stunden, in denen die Grundwasserproben durch den Reaktor gepumpt worden waren, konnten wir einen nennenswerten Abbau der Kohlenstoffkettenlänge beobachten; nach sechs Stunden war die PFAS-Konzentration deutlich verringert, also ein Großteil der Chemikalien aus der Probe entfernt. Dies deckt sich mit Vermutungen, die bereits vor einiger Zeit in der Literatur geäußert wurden. Das heißt, wir konnten nachweisen, dass die Praxis mit der Theorie übereinstimmt.«
Mit dem gleichen Aufbau lässt sich die Plasma-Methode auch zur Aufreinigung anderer Wasserverschmutzungen einsetzen, etwa von Medikamentenrückständen, weiteren Industriechemikalien oder Pflanzenschutzmitteln. Untersucht wurde dies in vorangegangenen Projekten WaterPlasma und WasserPlasmax. Auch könnte der Reaktor mit etwas weiterer Entwicklungsarbeit einmal energieeffizient mit Umgebungsluft betrieben werden: »In unseren Vorstellungen sehen wir die Plasmaanlage in Containern stehen, die mobil an lokalen Schadstellen oder Brunnen eingesetzt werden können, um Trinkwasser flexibel und umweltschonend aufzubereiten«, wagt Umlauf den Blick in die Zukunft.
Vorstellung des Verfahrens auch beim Abwasserkolloquium am 25. September 2023
Die neuesten Ergebnisse zur Aufbereitung von Realproben wurden vom Projektpartner Hydr.O bereits in Paris auf der Konferenz »2nd International Congress – Management of Environmental & Health Risks« präsentiert. Hier wurde mit AtWaPlas erstmals ein Verfahren vorgestellt, das PFAS nicht nur sammelt – wie bei den bisher angewandten Verfahren z. B. mittels Aktivkohlefiltern oder Umkehrosmosen −, sondern die Umweltgifte eliminiert und im günstigsten Fall sogar vollständig mineralisiert.
Am 30. Juni 2023 wurde AtWaPlas mit einem offiziellen Abschlusstreffen in Aachen beendet. Auch hier wurde eine Zusammenfassung der wichtigsten Resultate vorgestellt. Beide Projektpartner betonten besonders die positive Zusammenarbeit während des Forschungsvorhabens.
Gemeinsam mit anderen Themen rund um Spurenstoffe wird das Verfahren außerdem Thema auf dem 22. Kolloquium zur Abwasserbehandlung am 25. September 2023 in Stuttgart sein.
Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/pfas-kon…
Genehmigung der künstlichen Grundwasseranreicherung in Berlin könnte Priorisierung der Wassernutzung minimieren
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Hydrogeologin Irina Engelhardt über eine Technologie, mit der in Dürreperioden deutlich weniger Wasser rationiert werden müsste, sondern zusätzlich zur Verfügung stünde / Aufruf zur Beteiligung am Citizen-Science-Projekt „Gewässerbeobachtungen im Gebiet der Unteren Spree“
Um in Berlin und Brandenburg vor Dürreperioden gewappnet zu sein, plädiert die Hydrogeologin Prof. Dr. Irina Engelhardt dafür, die künstliche Grundwasseranreicherung zu nutzen. „Diese Technologie ermöglicht es, in Dürreperioden zusätzliches Wasser zur Verfügung zu stellen“, sagt die Professorin, die an der TU Berlin das Fachgebiet Hydrogeologie leitet. Bei der künstlichen Grundwasseranreicherung wird Oberflächenwasser, was bei Starkregenereignissen im Frühjahr, Herbst und Winter von Dächern und Straßen abfließt und aufgrund der Wassermassen nicht versickert, zwischengespeichert und dann gezielt in den Boden künstlich versickert oder injiziert. Durch die Bodenpassage erfolgt zusätzlich eine Reinigung.
Auf diesem Wege wird die Grundwasserressource künstlich erhöht. Länder wie Spanien, Griechenland, Israel, Jordanien infiltrieren auch gereinigtes Abwasser und nutzen dies nach einer Bodenpassage zur landwirtschaftlichen Bewässerung. Ohne die künstliche Grundwasseranreicherung wären diese Länder kaum mehr in der Lage ihre Landwirtschaft zu versorgen, so Irina Engelhardt im Interview. Israel zum Beispiel recycelt 90 Prozent seines Abwassers. In Deutschland sei diese Technologie bislang nicht umgesetzt, weil die Wasserbehörden eine Verunreinigung des Grundwassers befürchten. Forschungsarbeiten in Spanien und Israel zeigen jedoch, dass diese Methode nur ein geringes Gefährdungspotenzial aufweist. Relevant ist jedoch, geeignete landwirtschaftlichen Kulturen und Bodensubstrate mit einem gutem Abbaupotenzial für Schadstoffe auszuwählen. Zusätzlich ist ein kontinuierliches Monitoring der Wasserqualität unerlässlich.
„Bewässerung des Stadtgrüns zu untersagen ist nicht sinnvoll“
Die Nutzung von recyceltem Grauwasser würde es zum Beispiel auch erlauben, Stadtgrün wie Parks, Friedhöfe und Straßenbäume in Dürreperioden zu bewässern, anstatt verdorren zu lassen, weil es an Wasser mangelt und das Trinkwasser dafür zu schade ist. „Aufgrund des Klimawandels sind städtische Grünflächen extrem wichtig geworden, damit Städte wie Berlin in Hitze- und Dürreperioden lebenswert bleiben und nicht zu einer Gefahr für die Gesundheit werden. Wir brauchen die Parks, die Friedhöfe, die Straßenbäume für das Stadtklima und die Erholung. Die Bewässerung des Stadtgrüns zu untersagen ist für mich nicht sinnvoll im Kontext einer Klimaanpassungsstrategie. Geboten wäre vielmehr überschüssiges Wasser aus den Frühjahr-, Herbst- und Wintermonaten oder gereinigtes Grauwasser zu nutzen, als es ungenutzt in die Kanalisation abfließen zu lassen. Je stärker der Klimawandel durchschlägt, desto stärker werden – so die Prognosen – die Unterschiede hinsichtlich des Niederschlags zwischen Herbst/Winter und Sommer. Und umso dringlicher wird es, die Niederschläge im Frühjahr, Herbst und Winter zwischen zu speichern, um sie in den Sommermonaten dann zu nutzen“, sagt Irina Engelhardt.
Das gesamte Interview mit Prof. Dr. Irina Engelhardt über Wassermanagement in Dürreperioden, die Notwendigkeit von Wasserbilanzen und ein neues Forschungsprojekt zur Abschätzung der Folgen für den Spreewald im Zusammenhang mit dem Braunkohleausstieg und dem Klimawandel lesen Sie unter: https://www.tu.berlin/go228823/
Im Rahmen des Forschungsprojektes SpreeWasser:N sammelt die Forschungsgruppe um Prof. Dr. Irina Engelhardt im Jahr 2023 Beobachtungen der Anwohnerinnen und Anwohner im Einzugsgebiet der Unteren Spree. Die Bürgerinnen und Bürger in diesem Gebiet sind aufgerufen, ihre Gewässerbeobachtungen im Bereich der Unteren Spree zu melden. Weiter Informationen zu diesem Citizen Science-Projekt unter: https://www.spreewasser-n.de/buergermeldungen/
Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Irina Engelhardt
TU Berlin
Fachgebiet Hydrogeologie
Tel.: 030/314-24088
E-Mail: irina.engelhardt@tu-berlin.de
Gift atmen: Mikrobielles Leben dank Stickoxid
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Ob und wie Mikroorganismen NO als Substrat zum Wachsen nutzen können, ist kaum erforscht. Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen ist es gelungen, seit mittlerweile mehr als vier Jahren Mikroorganismen auf NO wachsen zu lassen. Die Gemeinschaft wird von zwei bisher unbekannten Arten dominiert, deren Stoffwechsel genau unter die Lupe genommen wurde. Die Ergebnisse, jetzt in Nature Microbiology veröffentlicht, geben einen Einblick in die Physiologie der NO-reduzierenden Mikroorganismen, die eine entscheidende Rolle bei der Kontrolle klimaaktiver Gase, in Klärwerken und bei der Entwicklung der Nitrat- und Sauerstoffatmung spielen.
Stickstoffmonoxid (NO) ist ein faszinierendes und vielseitiges Molekül, wichtig für alle Lebewesen und unsere Umwelt. Es ist giftig und sehr reaktionsfreudig, es kann Signale übertragen, es zerstört die Ozonschicht unseres Planeten und es ist der Vorläufer des Treibhausgases Lachgas (N2O). Zudem könnte NO eine grundlegende Rolle bei der Entstehung und Entwicklung des Lebens gespielt haben, da es als energiereiches Oxidationsmittel verfügbar war, lange bevor es auf der Erde Sauerstoff gab.
Trotz seiner toxischen Wirkung ist es also durchaus sinnvoll für Mikroorganismen, NO zum Wachsen zu nutzen. Bislang wurde aber nur wenig zu dem Thema geforscht und es war noch nicht gelungen, Mikroorganismen, die auf NO wachsen, zu kultivieren. Das hat sich nun geändert, berichten Forschende um Paloma Garrido Amador und Boran Kartal vom Max-Planck-Institut für Marine Mikrobiologie in Bremen in der Zeitschrift Nature Microbiology. Ihnen ist es gelungen, zwei bisher unbekannte Arten von Mikroorganismen, die auf NO in Bioreaktoren wachsen, anzureichern und spannende Aspekte ihrer Lebensweise aufzudecken.
Aus der Kläranlage in den Bioreaktor
Die Studie begann mit einem Besuch in der Bremer Kläranlage. „Wir sammelten Schlamm aus dem Denitrifikationsbecken“, berichtet Garrido Amador. „Den brachten wir in unser Labor, füllten ihn in einen unserer Bioreaktoren und begannen die Inkubation, indem wir ihn mit NO fütterten.“ Bioreaktoren dienen dazu, Mikroorganismen unter kontrollierten Bedingungen, die ihrer natürlichen Umgebung sehr ähnlich sind, zu züchten. Die Einrichtung dieses Bioreaktors war jedoch eine große Herausforderung, erzählt Garrido Amador: „Da NO giftig ist, benötigten wir spezielle Ausrüstung und mussten sehr vorsichtig mit den Kulturen umgehen, um uns selbst nicht zu gefährden. Trotzdem ist es uns gelungen, die Kulturen seit mehr als vier Jahren wachsen zu lassen – und sie sind immer noch wohlauf!“
Zwei neue Mikroorganismen
Die Bedingungen im Bioreaktor bevorzugten also Mikroorganismen, die in Anwesenheit von NO leben und anaerob wachsen können. „Es zeigte sich, dass zwei bisher unbekannte Arten die Kultur dominierten“, sagt Boran Kartal, Gruppenleiter der Forschungsgruppe Mikrobielle Physiologie am Max-Planck-Institut in Bremen. „Wir nannten sie Nitricoxidivorans perserverans und Nitricoxidireducens bremensis.“ Garrido Amador ergänzt: „Anhand dieser zwei Mikroben, die auf NO wachsen, haben wir viel darüber herausgefunden, wie sogenannte Nicht-Modellorganismen – insbesondere solche, die NO reduzieren – wachsen. Einige unserer Beobachtungen machen deutlich, dass diese Mikroben sich anders verhalten als Modellorganismen – Organismen, die leicht zu kultivieren und daher umfassend erforscht sind. Wir zeigen auch, dass Aussagen über den mikrobiellen Stoffwechsel allein anhand von Genomanalysen nur eingeschränkt möglich sind.“
Bedeutung für die Umwelt und praktische Anwendungen
„Derzeit wissen wir nur wenig darüber, wie Mikroorganismen, die auf NO wachsen, zum Stickstoffkreislauf in natürlichen und künstlichen Lebensräumen beitragen“, erklärt Kartal. „Wir vermuten aber, dass diese Mikroorganismen sich von NO und N2O, das von anderen Mikroorganismen freigesetzt wird, ernähren, und dadurch nitrosativen Stress und die Freisetzung dieser klimawirksamen Gase in die Atmosphäre verringern könnten.“
Die angereicherten Mikroorganismen waren sehr effizient darin, NO in molekularen Stickstoff (N2) umzuwandeln. „Es gab praktisch keine Freisetzung des Treibhausgases Lachgas“, so Kartal weiter. Diese alleinige Produktion von N2 ist für praktische Anwendungen besonders relevant: Viele andere Mikroorganismen wandeln NO in Lachgas um, das ein starkes Treibhausgas ist. N2 hingegen ist harmlos. Jedes Molekül NO, das in N2 statt in Lachgas umgewandelt wird, ist also ein Molekül weniger, das zum Klimawandel beiträgt.
In einem nächsten Schritt kultivieren die Max-Planck-Forschenden weitere NO-atmende Mikroorganismen, die sie in natürlichen und künstlichen Lebensräumen sammeln. „Durch die Kultivierung und Anreicherung weiterer NO-atmender Mikroorganismen werden wir die Evolution der Stickoxid-Reduktion und der beteiligten Enzyme besser verstehen. So werden wir auch die Rolle von NO in bekannten und noch unbekannten Prozessen des Stickstoffkreislaufs und seine Bedeutung in natürlichen und künstlichen Umgebungen, in denen diese Prozesse ablaufen, entschlüsseln können“, schließt Garrido Amador.
Wissenschaftliche Ansprechpartner:
Paloma Garrido Amador
Doktorandin
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6530
E-Mail: pgarrido@mpi-bremen.de
Dr. Boran Kartal
Gruppenleiter
Max-Planck-Institut für Marine Mikrobiologie, Bremen, Deutschland
Forschungsgruppe Mikrobielle Physiologie
Telefon: +49 421 2028-6450
E-Mail: bkartal@mpi-bremen.de
Originalpublikation:
Paloma Garrido-Amador, Niek Stortenbeker, Hans J.C.T. Wessels, Daan R. Speth, Inmaculada Garcia-Heredia, Boran Kartal (2023): Enrichment and characterization of a nitric oxide-reducing microbial community in a continuous bioreactor. Nature Microbiology (2023). Published online July 10, 2023.
DOI: 10.1038/s41564-023-01425-8
Weitere Informationen:
https://www.mpi-bremen.de/Page6071.html Pressemeldung des MPIMM
Mikrobielle Räuber bewirken saisonale Schwankungen bei der Abwasseraufbereitung
Dr. Elisabeth Hoffmann Kommunikation und Marketing
Universität zu Köln
Jahreszeitliche Temperaturschwankungen haben nur indirekten Einfluss auf die Bakteriengemeinschaft im Abwasser / Studie in „Water Research“ erschienen
Die Gemeinschaft der mikrobiellen Räuber beeinflusst die Zusammensetzung der Bakteriengemeinschaft im Abwasser. Dies erklärt jahreszeitliche Variationen der Mikrobengemeinschaft, die sich auf die Effizienz der Wasseraufbereitung auswirken. Das ergab eine Studie von Nils Heck und PD Dr. Kenneth Dumack vom Institut für Zoologie der Universität zu Köln. Die Studie ist unter dem Titel „Microeukaryotic predators shape the wastewater microbiome“ in der Fachzeitschrift „Water Research“ erschienen.
In Kläranlagen findet ein präzise abgestimmtes Zusammenspiel verschiedener Mikroorganismen statt, um Abwasser effektiv aufzubereiten. Ein Großteil der an der Wasseraufbereitung beteiligten Mikroorganismen ist allerdings immer noch weitgehend unbekannt. Neben den nützlichen Bakterien, die für die Reinigung des Abwassers verantwortlich sind, finden sich auch zahlreiche ihrer Fraßfeinde in den Klärbecken. Jedoch ist bisher wenig darüber bekannt, ob und in welchem Maße diese Räuber die Abwasseraufbereitung beeinflussen.
Seit der Einführung von Kläranlagen ist bekannt, dass die Jahreszeiten die bakterielle Gemeinschaft im Abwasser beeinflussen und somit auch die Effizienz der Wasseraufbereitung. Aber warum ist das so? Bakterien besitzen schließlich keinen Kalender. Diese Frage ist keineswegs trivial, da die jahreszeitlichen Veränderungen das Ergebnis einer Vielzahl von Faktoren sind. Die bekanntesten Faktoren sind sicherlich Temperatur- und Lichtverhältnisse, aber auch die chemische Zusammensetzung des Abwassers, Niederschlagsmengen und vieles mehr variieren im Laufe der Jahreszeiten. Welcher dieser Faktoren führt also zur Veränderung der Bakteriengemeinschaft über die Jahreszeiten hinweg?
Privatdozent Dr. Kenneth Dumack, der Leiter der Studie, erklärt: „Wir haben festgestellt, dass die jahreszeitlichen Schwankungen der Umgebungstemperatur nicht die Variation der Bakteriengemeinschaft erklären können. Dies hat uns überrascht, und deshalb haben wir nach einem anderen Faktor gesucht, der die Variation der Bakteriengemeinschaft erklären könnte.” Nils Heck, der Erstautor der Studie, führt weiter aus: “Dabei fanden wir heraus, dass die Gemeinschaft der mikrobiellen Räuber, wie Amöben, Wimperntierchen und auch Rädertiere, die Zusammensetzung der Bakteriengemeinschaft bis zu einem gewissen Grad erklären kann. Diese Räuber sind wiederum von der Umgebungstemperatur abhängig. Somit stellt der Temperaturfaktor einen indirekten Einfluss auf die Bakterien dar, der über die Gemeinschaft der Räuber vermittelt wird.“
Die neuen Erkenntnisse tragen dazu bei, die sogenannte „black box“ Abwasseraufbereitung besser zu verstehen, um so unter anderem Risiken für die Gesundheit zu vermeiden, die durch unzureichend behandeltes Abwasser entstehen können.
Presse und Kommunikation:
Mathias Martin
+49 221 470 1705
m.martin@verw.uni-koeln.de
Verantwortlich: Dr. Elisabeth Hoffmann – e.hoffmann@verw.uni-koeln.de
Wissenschaftliche Ansprechpartner:
PD Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49 221 470 8242
kenneth.dumack@uni-koeln.de
Originalpublikation:
„Microeukaryotic predators shape the wastewater microbiome“
https://doi.org/10.1016/j.watres.2023.120293
LED-Frischenachweis für Obst
Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Perowskit-modifizierte LEDs zeigen Lebensmittelverderb an
Ein Forschungsteam hat Leuchtdioden (LEDs) hergestellt, die Licht in zwei Wellenlängenbereichen gleichzeitig ausstrahlen und für eine vereinfachte die Frischeüberwachung von Obst verwendet werden können. Wie die Forschenden in der Zeitschrift Angewandte Chemie schreiben, bewirkte eine Modifizierung mit Perowskitmaterialien, dass die LEDs auch im Nahinfrarotbereich emittierten, einem Wellenlängenbereich, der in der berührungsfreien Lebensmittelüberwachung wichtig ist.
Perowskite sind Kristalle, die Licht einfangen und umwandeln können. Wegen ihrer einfachen Herstellung und großen Effizienz werden Perowskite in Solarzellen, aber auch für andere Technologien eingesetzt und intensiv erforscht. Angshuman Nag und sein Team am Indian Institute of Science Education and Research (IISER) in Pune (Indien) stellen nun eine Anwendung in der LED-Technologie vor, die die Qualitätsprüfung von frischem Obst und Gemüse vereinfachen könnte.
Da unbehandelte LEDs nur in einem recht engen Lichtbereich ausstrahlen, werden sie für Raumlichtanwendungen mit lumineszierenden Substanzen beschichtet. Diese sogenannten Phosphor-konvertierten (pc) LEDs können den weißen Sonnenlichtbereich recht gut abdecken. Um darüber hinaus noch eine starke Bande im Nahinfrarotbereich zu erhalten, entwickelten Nag und seine Kolleg*innen eine besondere doppelt emittierende Beschichtung für pc-LEDs.
Diese bestand aus einem doppelten, sowohl mit Bismut als auch mit Chrom dotierten Perowskitkristall. Wie die Forschenden feststellten, strahlte die Bismutkomponente warmweißes Licht aus, während die Chromatome einen Teil der Energie in eine starke Bande im Nahinfrarot abgaben.
Nahinfrarotlicht (NIR) verwendet die Lebensmittelindustrie bereits, um Obst und Gemüse auf ihren Frischezustand zu überprüfen. „Nahrungsmittel enthalten Wasser, das die breite Nahinfrarotemission bei etwa 1000 Nanometern absorbiert“, erklären Nag und sein Doktorand Sajid Saikia, der Erstautor der Arbeit. „Je mehr Wasser [in Faulstellen] enthalten ist, desto stärker wird die NIR-Strahlung absorbiert und ein Bild, das unter Nahinfrarotlicht aufgenommen wird, zeigt einen dunkleren Kontrast. Mit diesem einfachen, berührungsfreien Bildgebungsvorgang können wir den Wassergehalt an verschiedenen Stellen des Lebensmittels abschätzen und somit die Frische bestimmen.“
Bei der Inspektion von Äpfeln und Erdbeeren fielen unter derart modifizierten pc-LEDs dunkle Stellen auf, die auf dem normalen Kamerabild nicht zu sehen waren. Durch die Beleuchtung sowohl mit weißem als auch NIR-Licht ließ sich sowohl die normale Färbung mit bloßem Auge als auch verborgene schlechtere Stellen entdecken.
Nag und sein Team stellen sich für die Zukunft ein kompaktes Gerät für eine gleichzeitig visuelle und NIR-Inspektion von Lebensmitteln vor. Das würde jedoch zwei Detektoren einschließen, einen für das sichtbare und einen für das NIR-Licht, was für allgemeinere Anwendungen kostenmäßig noch eine Herausforderung sein könnte. Andererseits sei die pc-LED selbst leicht, ohne Verlust von Chemikalien und lösungsmittelfrei herzustellen. Das Team ist deshalb zuversichtlich, dass sich solche dual emittierende pc-LEDs bei einer ausreichenden Qualifikation in der Langlebigkeit und Skalierbarkeit für allgemeine Anwendungen eignen werden.
Angewandte Chemie: Presseinfo 31/2023
Autor/-in: Angshuman Nag, Indian Institute of Science Education and Research, Pune (India), https://www.iiserpune.ac.in/research/department/chemistry/people/faculty/regular…
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.
Originalpublikation:
https://doi.org/10.1002/ange.202307689
Weitere Informationen:
http://presse.angewandte.de
Grüner Wasserstoff – Orientierung im aktuellen Dschungel
Travis Müller Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management
Wirtschaftsführer und Experten diskutieren bei Nachhaltigkeits-Workshop am Düsseldorfer Campus der WHU – Otto Beisheim School of Management über die geplante „Wasserstoffwirtschaft“.
Die Klima-Uhr tickt. Wer sie stoppen will, könnte mit nachhaltig erzeigtem Wasserstoff erfolgreich sein – so lautet zumindest die Meinung der Experten, die kürzlich am Düsseldorfer Campus der WHU – Otto Beisheim School of Management zusammengekommen sind. Zahlreiche Fachleute aus Wirtschaft und Wissenschaft trafen sich am 6. Juli zu einem Workshop unter dem Titel „Wasserstoff – Orientierung im aktuellen Dschungel“, den die WHU gemeinsam mit ihren beiden Alumni Dr. Klaus Dirk Herwig (DR, 1993) und Erik Schäfer (D, 1988) veranstaltet hatte. Die Veranstaltung bot Wirtschaftsführern die Möglichkeit, Einblicke zu gewinnen in das Potenzial, das grüner Wasserstoff für die Umwelt und alle Bereiche der Wirtschaft bietet – angefangen von der Stahlproduktion über den Verkehr bis hin zum Thema Heizen.
Nach einer kurzen Einführung von Prof. Dr. Jürgen Weigand, Inhaber des Lehrstuhls für Industrieökonomik an der WHU, analysierten die Experten das Thema aus verschiedenen Perspektiven. Da sich der Diskurs über die Energieerzeugung in den vergangenen zehn Jahren stark verändert hat und der Energiebedarf der Gesellschaft in den kommenden Jahren voraussichtlich exponentiell steigen wird, sind sie überzeugt, dass grüner Wasserstoff der Weg in eine umweltfreundliche Zukunft ist. Bis es so weit ist, müssen jedoch noch zahlreiche Hindernisse überwunden werden, ein mangelndes Bewusstsein in den Unternehmen und im öffentlichen Sektor beispielsweise.
Gehe es um erneuerbare Energien und Klimawandel, heißt es laut Erik Schäfer oft: Wenn die Menschheit nicht aufgibt und verzichtet, kann es keine Hoffnung auf eine nachhaltige Zukunft geben. Schäfer, Vorstand der Green Investors AG und Industry Partner bei SENCO Capital, hält diese Sichtweise und die damit suggerierten Schuldgefühle für wenig hilfreich. Er setzt stattdessen auf grünen Wasserstoff. Die Einführung sei ein Gewinn für die Gesellschaft, so Schäfer, da sie es der Menschheit ermögliche, ihr bisher gekanntes Leben weiterhin zu genießen, ohne dem Planeten Schaden zuzufügen. Laut Schäfer verfügt Deutschland, das für seine technologischen Fähigkeiten bekannt ist, über alle notwendigen Ressourcen, um die vorgeschlagene „Wasserstoffwirtschaft“ in die Tat umzusetzen.
Tatsächlich gewinnt die Idee einer Wasserstoffwirtschaft auch in politischen Kreisen immer mehr an Akzeptanz. Ministerin Mona Neubaur (Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes Nordrhein-Westfalen) versicherte den Workshop-Teilnehmern in einer Videobotschaft ihre Unterstützung. Zudem stellte Dr. Klaus Dirk Herwig, der auch Geschäftsführer von Hydrogy ist, sein kürzlich erschienenes Buch „WASSERSTOFF – Perspektiven, Potenziale und Lösungen für KMU-Unternehmen“ vor, das Unternehmern, Mut machen und ihnen helfen will, sich mit grünem Wasserstoff auseinanderzusetzen.
Dr. Heribert Wiedenhues, ehemaliges Vorstandsmitglied von thyssenkrupp und derzeit CEO von Brainfleet, steht seit zwei Jahrzehnten an der Spitze der Wasserstoffwirtschaft. Er argumentierte, dass eine Investition in grünen Wasserstoff nicht nur dem Planeten zugutekomme, sondern auch ein profitables Unterfangen für kluge Unternehmer sei. Dr. Jens Reichel, Manager bei thyssenkrupp Steel Europe AG, gab ein anschauliches Beispiel aus seinem Stahlwerk in Duisburg: Bei den hohen Energiemengen, die für die Stahlproduktion benötigt würden, scheine die Dekarbonisierung eine unlösbare Aufgabe zu sein, so Reichel. Grüner Wasserstoff ist deshalb unabdingbar, wofür derzeit Investitionen in Milliardenhöhe getätigt werden.
Als eine der bekanntesten deutschen Wirtschaftshochschulen teilt die WHU nachhaltige Umweltanliegen und ermutigt vorausschauende Unternehmer:innen, für eine ökologische und ökonomisch erfolgreiche Zukunft selbst aktiv zu werden. Workshops wie diese, in denen neue Ideen im Bereich der Nachhaltigkeit vorgestellt werden, sind eine Möglichkeit, wie Wirtschaftswissenschaftler und Wirtschaftsexperten zu dieser Diskussion beitragen können.
Plastikmüll: Belastung in Seen teilweise höher als im Ozean
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Besorgniserregende Befunde für weltweite Mikroplastik-Belastung von Stillgewässern
Dass Meere durch Kunststoffabfälle verschmutzt werden, ist mittlerweile traurige Tatsache und wissenschaftlich gut belegt. Globale Angaben zur Mikroplastik-Belastung von Süßgewässern fehlten bisher allerdings. Ein internationales Forschungsteam unter Mitwirkung von Katrin Attermeyer, Limnologin am WasserCluster Lunz und an der Universität Wien, hat nun erstmals Daten im großen Ausmaß dazu gesammelt. Das Team stellt in der aktuellen Ausgabe des Fachmagazins Nature die Ergebnisse der ersten standardisierten und länderübergreifenden Erhebung vor. Das Ergebnis ist ernüchternd: Plastikmüll wurde in allen beprobten Seen gefunden, in einigen Seen wie dem Lago Maggiore in Italien und dem Lake Tahoe in den USA findet sich mehr Mikroplastik als im weltweit am stärksten verschmutzten subtropischen Ozean.
So praktisch sie im Alltag auch sein mögen: Für die aquatischen Ökosysteme unseres Planeten sind Kunststoffe, die sich dort letztendlich als Mikroplastikmüll ansammeln, eine große Belastung – mit dramatisch steigender Tendenz. Durch das anhaltende Wachstum der weltweiten Kunststoffproduktion nimmt auch die Menge an Mikroplastik – d.h. jener Kunststoffteile, die kleiner als 5 mm sind – in Umwelt und Gewässern zu. Richtete sich der Fokus der Forschung zunächst auf die Auswirkung des Plastikmülls auf marine Gewässer, so wurden in letzter Zeit auch verstärkt Binnengewässer untersucht, in denen sich der Müll ähnlich oder sogar in noch größerem Ausmaß als in den Meeren anreichert. Diese früheren Studien hatten jedoch zwei Mankos: die Beschränkung auf nur wenige Gewässer in bestimmten geografischen Regionen und das nicht-standardisierte Verfahren der Probenentnahme. Letzteres machte den direkten quantitativen Vergleich zwischen den Untersuchungen unmöglich. Überlegungen zu beiden Kritikpunkten flossen ins Design der aktuellen Studie ein und dies resultierte nun in der ersten global repräsentativen, standardisierten Untersuchung der Seen.
Untersucht: 38 Seen. Befund: Plastik überall.
Insgesamt beprobte das Forschungsteam 38 Seen in 23 Ländern, die eine große Zahl an hydromorphologischen Faktoren wie z. B. Fläche, Tiefe, Uferlänge und Verweilzeit des Wassers abdeckten. Auch unterschiedliche anthropogene Aspekte wie z. B. Landbedeckung, Vorhandensein von Kläranlagen und Bevölkerungsdichte wurden berücksichtigt. Die Untersuchungsgebiete waren geografisch weit gestreut und umfassten ein breites Spektrum an Seen und Einzugsgebieten. Somit war die Stichprobe für die globale Variabilität der Seen unter Einbeziehung bestimmter Schlüsselmerkmale repräsentativ. Alle Proben wurden an der Oberfläche durch horizontale Schleppnetze senkrecht zum Seeausfluss nach demselben Protokoll entnommen, konzentriert und gereinigt. Insgesamt wurden so Tausende von Kunststoffpartikeln identifiziert und anhand von Form, Farbe und Größe klassifiziert. „Auf diese Weise haben wir für jeden See die ‚Signatur‘ – also die Art und Häufigkeit – der Kunststoffe ermittelt und uns angeschaut, wie diese Signatur mit potentiellen Verschmutzungsquellen und hydromorphologischen Merkmalen der Wassereinzugsgebiete zusammenhängt“, erklärt Katrin Attermeyer. Anschließend wurde die chemische Zusammensetzung der Kunststoffe mit Hilfe einer speziellen Untersuchungsmethode (Mikro-Raman-Spektroskopie) aufgeklärt. Das Ergebnis war ernüchternd: Plastikmüll fand sich in allen untersuchten Seen – sogar in jenen Gewässern, die auf den ersten Blick vollkommen unberührt von menschlichen Einflüssen zu sein schienen. Insgesamt identifizierten die Forscher*innen den weitaus größten Anteil der Kunststoffpartikel (fast 94 %) als Mikroplastik, gefolgt von 5% Mesoplastik (Teilchengröße 5-10 mm) und 1,5% Makroplastik (> 10 mm). Tatsächlich war in einigen der untersuchten Seen die Plastikkonzentration unerwartet hoch. So wurden in drei der untersuchten Gewässern sogar mehr als 5 Partikel pro m3 gefunden. „Diese Resultate sind insofern beunruhigend, als diese drei Seen – der Luganer See, der Lago Maggiore und der Lake Tahoe – bereits jetzt eine höhere Mikroplastikbelastung aufweisen als die weltweit am stärksten verschmutzten subtropischen Ozeanwirbel“, meint Expertin Attermeyer.
Zusammenhang zwischen Signatur und Seen-Typ
Chemisch bestanden die meisten Kunststoffpartikel aus Polyester (PES), Polypropylen (PP) und Polyethylen (PP) – ein Ergebnis, das Katrin Attermeyer wenig überrascht: „PE und PP machen mehr als die Hälfte der weltweiten Kunststoffproduktion aus, während PES für 70 % der gesamten Produktion von Fasern für die Textilindustrie benötigt werden.“ Dementsprechend waren bei den gefundenen Kunststoffteilchen auch zwei Formkategorien dominant – Fasern (49 %) und Fragmente (41 %), die als „sekundäres Mikroplastik“ durch Zersplitterung größerer Kunststoffteile entstehen.
Zwei Seen-Typen erwiesen sich für die Verschmutzung durch Mikroplastik als besonders vulnerabel: einerseits Seen in dicht besiedelten und urbanisierten Gebieten und andererseits flächenmäßig große Seen, die vermutlich wegen ihres großen Einzugsgebiets und der langen Wasserverweildauer besonders belastet sind. Interessanterweise korrelierten die Kunststoff-Typen der beprobten Seen mit deren morphometrischen Merkmalen: In Seen mit geringer Oberfläche, Maximaltiefe und Uferlänge dominierten blaue oder schwarze Fasern aus PES, während in großen, tiefen Seen mit ausgedehnter Uferlinie transparente oder weiße Fragmente aus PP und PE vorherrschten. „Jeder See hatte somit quasi seine eigene Plastik-Signatur. Die Erfassung dieser Signaturen hilft uns nicht nur bei der Ermittlung möglicher Verschmutzungsquellen, sondern auch bei der Charakterisierung der Auswirkungen der Kunststoffverschmutzung“, so Katrin Attermeyer. Die Ergebnisse der Studie unterstreichen, dass auch Seen Anzeiger der globalen Plastikverschmutzung sein können und bei der Bekämpfung dieser Art von Verschmutzung berücksichtigt werden sollten.
Lunzer See wenig kontaminiert
Als einzigen See Österreichs untersuchten die Forscher*innen den Lunzer See. Er gehört zu der Kategorie der weniger kontaminierten Gewässer mit unter 1 Plastikpartikel pro m3. Dort dominieren schwarze und blaue Fragmente, da der See eher klein ist und nur wenige Personen am Ufer des Sees leben.
Wissenschaftliche Ansprechpartner:
Dr. Katrin Attermeyer
Wasser Cluster Lunz – Biologische Station GmbH
Department für Funktionelle und Evolutionäre Ökologie
Universität Wien
1030 Wien, Djerassiplatz 1
T +43 (0) 7486 2006060
katrin.attermeyer@wcl.ac.at
https://carbocrobe.jimdosite.com/
Originalpublikation:
Plastic debris in lakes and reservoirs.
DOI: 10.1038/s41586-023-06168-4
https://doi.org/10.1038/s41586-023-06168-4 (online ab 17 Uhr)
Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a… (online ab 17 Uhr)
Künstliche Intelligenz – nachhaltig und ressourcenschonend?
Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Projekt der Leibniz Universität Hannover entwickelt ganzheitliches Fahrassistenz-KI-System mit dem Ziel eines niedrigen Energieverbrauchs
Künstliche Intelligenz (KI) kommt inzwischen in vielen Branchen zur Anwendung und kann auch sehr sinnvoll für Nachhaltigkeitsvorhaben eingesetzt werden – etwa zur Klassifikation von Müll, für nachhaltige architektonische Entwicklungen in der digitalisierten Stadt oder zielgenaues Fällen von Bäumen. Doch läuft KI, wenn sie mit großem Rechenaufwand betrieben wird, dem Ziel der Nachhaltigkeit nicht selbst zuwider? Vor allem die Analyse von großen Datenmengen hat meist einen hohen Energieverbrauch und erzeugt einen großen ökologischen Fußabdruck.
Ein Forschungsteam der Leibniz Universität Hannover (LUH) hat sich zum Ziel gesetzt, ressourcensparende KI-Anwendungen zu entwickeln. Das Gesamtprojekt, an dem verschiedene Institute der LUH und die VISCODA GmbH beteiligt sind, wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz mit rund 1,5 Millionen Euro gefördert (LUH-Anteil: 1,2 Millionen Euro). Die Wissenschaftlerinnen und Wissenschaftler betrachten dafür exemplarisch Fahrassistenzsysteme, die in Fahrzeuge eingebaut werden, um die Sicherheit, den Komfort oder auch die Wirtschaftlichkeit des Fahrens zu verbessern. Ziel ist eine deutliche Einsparung von Energie durch effizientere Algorithmen, Kommunikation und Hardware. Wenn dieses erfolgreich ist, ließe sich das im Projekt entwickelte ganzheitliche Konzept auf viele andere Bereiche übertragen, in denen KI beziehungsweise Deep Learning als Methode des maschinellen Lernens zum Einsatz kommt. Das im Frühjahr gestartete Forschungsvorhaben GreenAutoML4FAS, an dem mehrere Institute der Fakultät für Elektrotechnik und Informatik in Kooperation mit der VISCODA GmbH beteiligt sind, läuft zunächst bis Februar 2026.
Das so genannte „Grüne Fahrassistenz-System“ wird eine Reihe von Entwicklungen beinhalten, die maßgeblich zur Energieeinsparung beitragen. So sollen etwa Algorithmen optimiert werden, indem zum Beispiel anstelle von komplexen Berechnungen einfachere Operationen verwendet werden. Die Herausforderung besteht darin, trotz starker Vereinfachung genügend Informationen beizubehalten. Eine ähnliche Herausforderung existiert in der Datenkomprimierung: Welche Informationen sind zum Beispiel wichtig, damit weiterhin eine Person erkannt werden kann? Die Kommunikation zwischen Komponenten ist deutlich schneller und effizienter, wenn nicht alle Informationen, sondern nur die entscheidenden, verschickt werden. Die Effizienz von Software hängt grundsätzlich aber auch von der genutzten Hardware ab. Alle diese Aspekte können einzeln oder in Kombination verbessert werden. Das Team des Verbundprojekts hat sich zum Ziel gesetzt, durch die Summe der Maßnahmen die Energieeinsparung deutlich zu erhöhen.
Hinweis an die Redaktion:
Für weitere Informationen steht Ihnen Tanja Tornede, Institut für Künstliche Intelligenz, unter Telefon +49 511 762 19749 oder per E-Mail unter t.tornede@ai.uni-hannover.de gern zur Verfügung.
Fassadenbegrünung“Living Wall“ verbindet Nachverdichtung mit Hochwasserschutz
Sabine Keller Presse- und Öffentlichkeitsarbeit
Deutsche Institute für Textil- und Faserforschung Denkendorf
Durch den Klimawandel steigen die Temperaturen und Unwetter nehmen zu. Vor allem in den Innenstädten werden die Sommer für die Menschen zur Belastung. Durch Nachverdichtung wird zwar bestehende Infrastruktur genutzt und Zersiedelung vermieden, aber es steigt der Anteil an versiegelten Flächen. Das wirkt sich negativ auf Umwelt und Klima aus. Fassadenbegrünungen bringen hier mehr Grün in die Städte. Werden textile Speicherstrukturen eingesetzt, können sie sogar aktiv zum Hochwasserschutz beizutragen. Die Deutschen Institute für Textil- und Faserforschung (DITF) haben eine entsprechende „Living Wall“ entwickelt.
Die Pflanzen auf den grünen Fassaden werden über ein automatisches Bewässerungssystem mit Wasser und Nährstoffen versorgt. Die „Living Walls“ arbeiten weitgehend autonom. Sensorische Garne erfassen den Wasser- und Nährstoffgehalt. Der Aufwand für Pflege und Wartung ist gering.
Über neuartige hydraulische Textilstrukturen wird die Wasserführung geregelt. Das Pflanzsubstrat aus Steinwolle, auf dem die Pflanzen wachsen, verfügt durch seine Struktur über ein großes Volumen auf engem Raum. Je nachdem, wie stark die Niederschläge sind, wird das Regenwasser in einer textilen Struktur gespeichert und später zur Bewässerung der Pflanzen genutzt. Bei Starkregen wird das überschüssige Wasser mit zeitlicher Verzögerung in die Kanalisation eingeleitet. Die an den DITF entwickelten „Living Walls“ helfen auf diese Weise, in nachverdichteten Ballungsräumen die Ressource Wasser effizient zu nutzen.
Im Forschungsprojekt wurde auch die Kühlleistung einer Fassadenbegrünung wissenschaftlich untersucht. Moderne Textiltechnik im Trägermaterial fördert die „Transpiration“ der Pflanzen. Dadurch entsteht Verdunstungskälte und die Temperaturen in der Umgebung sinken.
Zur Arbeit des Denkendorfer Forschungsteams gehörte auch eine Kosten-Nutzen-Rechnung und eine Life-Cycle-Analyse. Auf der Basis der Untersuchungen im Labor und im Außenbereich wurde ein „Grünwert“ definiert, mit dem sich die Wirkung von Gebäudebegrünungen als Ganzes bewerten und vergleichen lassen.
Wissenschaftliche Ansprechpartner:
Weitere Informationen zum Thema: Christoph Riethmüller
Leiter Technologiezentrum Smart Living Textiles und Denkendorfer Zukunftswerkstatt
T +49(0)711 9340-256
E christoph.riethmueller@ditf.de
Unter- und Überwasserkartierung von Flüssen und Seen
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Die präzise Vermessung von Gewässern ist anspruchsvoll. Behörden und Ha-fenbetreiber sind verpflichtet, aktuelle Karten von Flussbetten oder Hafenanlagen bereitzustellen. Die Kartierung erfordert bis dato spezielle Kartierungsschiffe und hohen Personalaufwand. Sie ist kostenintensiv und erfolgt nicht in der Häufigkeit und Präzision, die für künftige Anwendungen, wie den autonomen Schiffverkehr, nötig sein werden. Ein Forscherteam des Fraunhofer IOSB hat deshalb ein handliches, unbemanntes Wasserfahrzeug entwickelt, das Gewässer wie Flüsse, Seen und Häfen über und unter der Wasseroberfläche autonom ver-misst und die zugehörigen 3D-Karten anfertigt.
Gewässerkarten liefern wichtige Informationen – etwa über die Gewässertiefe, die Boden- und Uferbeschaffenheit, die Sohlenstruktur, das Längs- und Querprofil, Angaben zur Böschung, zu anliegenden Flurstücken, zu Hafenanlagen und Brückenbauten, zum Gewässerzustand und vieles mehr. Diese Karten müssen regelmäßig von den zuständigen Behörden erhoben und aktualisiert werden, was mit hohem Kostenaufwand verbunden ist, da die Vermessung der Gewässer aktuell mithilfe von Fachkräften auf Kartierungsschiffen manuell durchgeführt wird. Deutlich günstiger lässt sich die Unter- und Überwasserkartierung mit autonomen Wasserfahrzeugen realisieren. Ein solches System haben Forschende des Fraunhofer IOSB in Karlsruhe im Projekt TAPS (Teilautomatisches Peilsystem für Flüsse und Seen) auf Basis eines kommerziellen USV (unmanned surface vessel) entwickelt. Lediglich mit einem zentralen Arbeitsplatz bzw. einem Leitstand an Land verbunden, kartiert das Messboot alle Arten von Binnengewässern und deren Umgebung, wobei die Vermessung sowohl über als auch unter der Wasseroberfläche stattfindet. Ein küstennaher Einsatz ist ebenso denkbar: Die Kartierung ist in der derzeitigen Ausführung bis zu einer Tiefe von 100 Metern möglich.
Hochpräzise 3D-Modelle von der Über- und Unterwasserszenerie
Ausgestattet mit GPS,- Beschleunigungs- und Drehratensensoren sowie einem Doppler Velocity Log (DVL), einem Sensor, der das Boot befähigt, sich inkrementell am Gewässerboden entlangzutasten, ist das Boot in der Lage, sich autonom fortzubewegen. Für die Orientierung des teilautomatischen Peilsystems werden die Sensordaten fusioniert. Für die Kartierung über Wasser kommen Laserscanner und Kameras in Kombination mit einer am Fraunhofer IOSB entwickelten Kartierungssoftware zum Einsatz – die Geräte rekonstruieren hochpräzise 3D-Modelle der Umgebung. Die Unterwasserkartierung wiederum erfolgt mithilfe eines in die Sensorik integrierten Multibeam-Sonars, das ein komplettes 3D-Modell des Grunds erstellt. »Unser Peilsystem ist insofern teilautomatisch, als der Anwender nur noch den zu kartierenden Bereich vorgeben muss. Die Vermessung selbst erfolgt vollautomatisch, die Datenauswertung erfordert nur wenige Mausklicks. Die für die Kartierung und das autonome Fahren erforderlichen Softwaremodule wurden von uns entwickelt«, erläutert Dr. Janko Petereit, Wissenschaftler am Fraunhofer IOSB.
USV umfährt Hindernisse selbstständig
Zunächst wird der Bereich vorgegeben, der vermessen werden soll. Die Software berechnet darauf basierend die Route. Im nächsten Schritt startet das USV, das 2m x 1,5m x 1m misst und mit 64 Kilogramm ein Leichtgewicht ist. Auf seiner Mission weicht es Hindernissen, die der Laserscanner und das Sonar erfassen, selbstständig aus. Während der Fahrt wird für Navigationszwecke ein schnelles 3D-Modell in Echtzeit erstellt, einschließlich dynamischer Objekte wie fahrender Schiffe. Ein zweites hochpräzises 3D-Modell berechnet die Software nach der Datenauswertung, wobei sowohl die Gewässersohle als auch die über der Wasseroberfläche liegende Szene erfasst wird, bewegliche Objekte aber ausgeblendet werden.
Die Tests mit dem Messboot fanden auf verschiedenen Seen statt. Der einsatzfähige Prototyp wird derzeit von der Fraunhofer-Forschungsgruppe »Smart Ocean Technologies SOT« in Rostock in weiteren Projekten mit dem Schwerpunkt Unter- und Überwasserrobotik genutzt.
Software ermöglicht autonome Navigation auf dem Wasser
Die Anwendungsperspektiven der entwickelten Technologie sind vielfältig. Neben dem autonomen Vermessen von Fahrrinnen und baulichen Strukturen ist etwa auch das autonome Ausheben von Wasserfahrstraßen denkbar. Aber auch, wer nur autonom auf Gewässern navigieren möchte, ohne diese zu kartieren, kann den im Projekt entwickelten Software-Stack nutzen. Deshalb sieht Petereit letztlich Einsatz- bzw. Weiterentwicklungsmöglichkeiten für alle Bereiche des Personen- und Gütertransports auf hoher See und auf Binnengewässern. »Künftig wird der autonome Schiffsverkehr auf deutschen Wasserstraßen massiv zunehmen – bis hin zu neuartigen Logistikketten, die Schiene, Straße und Wasser intelligent kombinieren.«
Autonomer Schiffsverkehr erfordert neben Autonomiealgorithmen aber eben auch sehr präzise Karten, die heute mitunter fehlten, so Petereit: »Die manuellen Vermessungsfahrten finden derzeit nur im Ein- bis Zwei-Jahres-Rhythmus statt und liefern im Vergleich zu unseren umfassenden 3D-Modellen deutlich weniger präzise Ergebnisse, sodass der Zustand der Wasserstraßen nicht optimal erfasst wird. Die Vermessung der Flüsse muss daher künftig in einer wesentlich höheren Frequenz mit einem höheren Detailgrad erfolgen. Unser teilautomatisches Peilsystem bietet hier eine kostengünstige Alternative zu aktuellen Vermessungsmethoden«.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2023/juli-2023/unter-und…
Grünalge baut Schadstoffe ab – Schon früh im Studium bei internationalem Wettbewerb Praxisluft schnuppern
Melanie Löw Universitätskommunikation
Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Wie lassen sich Pestizid- oder Medikamenten-Rückstände im Wasser abbauen, damit sie nicht in die Umwelt gelangen? Damit befasst sich ein studentisches Team der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) bei einem internationalen Wettbewerb. Dabei kommt den Studierenden das erlernte Wissen in Theorie und Praxis und eine enge Betreuung zugute. Ideale Studienbedingungen bescheinigt der Kaiserslauterer Biologie regelmäßig auch das CHE-Ranking. Neben Bachelor- und Masterstudiengängen bietet die RPTU in Kaiserslautern ein Lehramtsstudium Biologie an. Eine Bewerbung dafür ist bis zum 15. Juli möglich, für die Bachelor- und Masterstudiengänge bis zum 15. September.
Pestizide, Medikamentenrückstände, aber auch Spuren anderer Substanzen landen regelmäßig in unseren Gewässern. So zeigt zum Beispiel der Pestizidatlas 2022 der Heinrich-Böll-Stiftung auf, dass sich in vielen Fließgewässern in Deutschland Pestizide und ähnliche Stoffe nachweisen lassen. Wie aber lässt sich verhindern, dass sich solche Chemikalien in der Umwelt verbreiten können, Ökosystemen schaden und letztlich auch uns Menschen betreffen? Genau damit befasst sich ein studentisches Team der RPTU in Kaiserslautern. Es nimmt beim internationalen Genetically Engineered Machine Wettbewerb, kurz iGEM, teil. Im Fokus steht hier die Synthetische Biologie. Ziel ist es, an einem realen Problem zu forschen und eine Lösung für dieses beim Finale in Paris im November vor einer Jury und rund 300 weiteren Teams aus aller Welt vorzustellen.
„In verschiedenen Studien haben wir gelesen, dass immer mehr bedenkliche Spurenstoffe im Abwasser zu finden sind“, sagt Luca Langenberg vom Kaiserslauterer iGEM-Team. „Sie gelangen nach wie vor in die Umwelt, sind dort noch aktiv und können das Ökosystem schädigen. Auch aktuelle Kläranlagen können hier nicht alles filtern und abbauen.“
Die Studierenden setzen bei ihrem Vorhaben auf die Grünalge Chlamydomonas reinhardtii. Sie fungiert mit ihrem Stoffwechsel gewissermaßen als winzige Fabrik und soll mit Hilfe bestimmter Enzyme verschiedene Schadstoffe abbauen. Das Team möchte dazu Enzyme der Cytochrom P450-Familie nutzen. „Sie kommen in allen lebenden Organismen vor, unter anderem auch in der menschlichen Leber und sind wichtig für die Entgiftung. Über menschliche Cytochrome ist schon viel bekannt, aber über andere noch nicht. Hier gibt es womöglich noch Potential“, fährt Langenberg fort.
Das Team arbeitet derzeit mit drei dieser Enzyme und ist dabei, die entsprechenden Gene ins Erbgut der Grünalge einzubauen. Im nächsten Schritt müssen die Algen die Enzyme produzieren. Klappt das, können die Studierenden untersuchen, ob und inwieweit die Algen die Schadstoffe abbauen können. Langenberg erläutert: „Im Blick haben wir zunächst sogenannte halogenierte Kohlenwasserstoffe, die etwa als Pflanzenschutzmittel oder bei der Schädlingsbekämpfung Verwendung finden.“ Sollte das Verfahren funktionieren, könnten auch noch weitere Enzyme zum Einsatz kommen, die wiederum andere Substanzen abbauen. Allerdings muss das Team auch noch untersuchen, welche Abbauprodukte anfallen und welche Wirkung diese auf die Umwelt haben.
„Unser langfristiges Ziel ist es, die Grünalgen künftig als Reinigungswerkzeug zu nutzen, etwa in einem mobilen Bioreaktor, der Gewässer an Ort und Stelle säubert, ähnlich wie bei der Dialyse bei Nieren“, sagt Langenberg. Aber auch in Kläranlagen könnten sie zum Einsatz kommen, um Aktivkohlefilter beim Reinigen des Wassers zu unterstützen.
Fachlich unterstützt wird das Team von Professor Dr. Michael Schroda (Abteilung Molekulare Biotechnologie und Systembiologie), aber auch andere Arbeitsgruppen des Fachbereichs stehen den Studierenden mit Rat und Tat zur Seite.
Dass die Studierenden bereits früh in ihrem Studium so selbstständig an einem eigenen Forschungsprojekt arbeiten, ist Teil des Angebotskonzepts für praxisnahe Ausbildung und spiegelt den Wert wider, den der Fachbereich Biologie darauflegt, theoretisches Wissen fachwissenschaftlich in der Praxis anzuwenden.
„Der Studienablauf sieht sowohl im fachwissenschaftlichen als auch im Lehramtsstudium praktische Arbeiten in großem Umfang im Labor vor und vermittelt aktuelle Techniken und Methoden, damit Studierende lernen, Forschungsprojekte selbständig durchzuführen und ihr lösungsorientiertes Denken zu schulen“, sagt Dorothea Hemme-Schwöbel, Geschäftsführerin des Fachbereichs Biologie. Nicht nur Forscherinnen und Forscher, sondern auch Lehrkräfte müssen fit sein, um Schülerinnen und Schülern die Biologie und wissenschaftliches Arbeiten nahe bringen zu können.
Auch das Betreuungsverhältnis ist an der RPTU in Kaiserslautern im Vergleich zu den großen Universitäten sehr gut. Die Studierenden arbeiten und lernen in kleinen Gruppen. Es besteht ein direkter, persönlicher Kontakt zu den Dozentinnen und Dozenten.
Über das Studienangebot in der Biologie an der RPTU in Kaiserslautern
Der Bachelorstudiengang Molekulare Biologie (Bachelor of Science) und das Lehramtsstudium Biologie vermitteln wichtiges Basiswissen aus Botanik, Ökologie, Biodiversität, Genetik, Humangenetik, Tier- und Pflanzenphysiologie, Biotechnologie, Mikrobiologie, Neurobiologie, Bioinformatik, Zoologie sowie Zellbiologie, im Lehramtsstudium auch die Fachdidaktik. Darüber hinaus können die Studierenden ihr Grundlagenwissen in frei wählbaren Fachgebieten vertiefen. Zudem sieht der Bachelorstudiengang Molekulare Biologie ein Betriebs- oder Forschungspraktikum, das Lehramtsstudium Schulpraktika vor, um sich früh beruflich zu orientieren.
Die idealen Studienbedingungen bescheinigt dem Fach Biologie an der RPTU regelmäßig auch das CHE-Ranking. So zeigen sich die Studierenden etwa sehr zufrieden mit der Unterstützung am Studienanfang, dem Lehrangebot und den Laborpraktika, aber auch mit der Vermittlung fachwissenschaftlicher, methodischer und fachübergreifender Kompetenzen. Und auch mit der allgemeinen Studiensituation kann das Fach punkten.
Am Ende des Bachelorstudiums – egal ob fachwissenschaftlich oder Lehramt – steht die Bachelorarbeit an, bei der die Studierenden an einem eigenen Projekt im Labor arbeiten.
Das Lehramtsstudium ist für alle Schularten ausgelegt. Eine endgültige Entscheidung zur Schulform erfolgt erst nach dem vierten Bachelorsemester. Um sich für den Schuldienst zu qualifizieren, schließt sich für die Studierende der Masterstudiengang für das Lehramt (Master of Education) an.
Die RPTU bietet darüber hinaus den Masterstudiengang Biology (Master of Science) an. Hier können die Studierenden aus den folgenden vier Vertiefungsrichtungen auswählen: die Biotechnologie von Mikroorganismen und Pflanzen, die molekulare und biochemische Zellbiologie, der Aufbau und die Funktionsweise des Nervensystems sowie die Ökologie und Biodiversität niederer Organismen.
Wer sich für den Bachelorstudiengang Molekulare Biologie, den Masterstudiengang Biology oder den Lehramts-Masterstudiengang interessiert, hat noch bis zum 15. September Zeit, sich zu bewerben. Der Bachelorstudiengang für das Lehramt ist zulassungsbeschränkt. Hier ist eine Bewerbung bis zum 15. Juli möglich.
Weitere Informationen gibt es unter: https://bio.rptu.de/studium-lehre/studiengaenge
Fragen beantworten:
Luca Langenberg
iGEM-Team RPTU in Kaiserslautern
E-Mail: igem@bio.uni-kl.de
Dr. Dorothea Hemme-Schwöbel
Geschäftsführerin Fachbereich Biologie
RPTU in Kaiserslautern
Tel.: 0631 205-2602
E-Mail: bio-gf@rptu.de
Einstein Research Unit Climate and Water under Change: Berliner Starkregen-Gefahrenkarten müssen veröffentlicht werden
Jonas Krumbein Kommunikation und Presse
Berlin University Alliance
Wegen Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit hat das Land Berlin Karten zu starkregengefährdeten Grundstücken bislang nicht allgemein zugänglich veröffentlicht. Nun stellt ein Rechtsgutachten der von der Berlin University Alliance geförderten Einstein Research Unit „Climate and Water under Change (CliWaC)“ klar: Die Berliner Starkregen-Gefahrenkarten müssen für alle sichtbar veröffentlicht werden, um die Bevölkerung wirksam vor Gefahren von Starkregen für Leben, Gesundheit und Besitz zu schützen, wie sie im Klimawandel vermehrt auftreten. Denn Datenschutzbedenken müssen gegenüber Schutz vor Extremwetter im Klimawandel zurückstehen.
Bei der Berliner Senatsverwaltung liegen Starkregengefahrenkarten, die bislang nicht öffentlich sind. Grund sind Bedenken der Berliner Beauftragten für Datenschutz und Informationsfreiheit, die durch eine Veröffentlichung von Grundstücksdaten Rückschlüsse auf die persönlichen Lebensverhältnisse von Menschen befürchtet. Diese Bedenken müssen einem Rechtsgutachten der Einstein Research Unit „Climate and Water under Change“ zufolge allerdings gegenüber dem Interesse der Gesamtbevölkerung am Schutz vor Starkregengefahren im Klimawandel zurückstehen.
„Starkregengefahrenkarten enthalten Informationen, die im Zuge des Klimawandels für eine wirksame private und öffentliche Vorsorge gegenüber Extremwetterereignissen unerlässlich sind. Ihre Veröffentlichung kann Leben und Gesundheit sowie Vermögen von Menschen schützen. Deshalb gebietet das Umweltinformationsgesetz, das die Umweltinformationsrichtlinie der Europäischen Union umsetzt und die aus den Grundrechten fließende Schutzpflicht staatlicher Stellen konkretisiert, dass die Starkregengefahrenkarten veröffentlicht werden müssen“, sagt der Rechtswissenschaftler Prof. Dr. Christian Calliess von der Freien Universität Berlin. Calliess‘ Team hat das Rechtsgutachten im Rahmen der Einstein Research Unit „Climate and Water under Change“ (CliWaC) erstellt. Die Einstein Research Unit „Climate and Water under Change“ widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg.
Dass eine Veröffentlichung von Starkregengefahrenkarten Rückschlüsse auf persönliche Lebensverhältnisse von Menschen zulässt, schließt Prof. Dr. Christian Calliess, ein ausgewiesener Kenner des Umweltrechts, aus: „Grundstücksbezogene Umweltdaten sind nach ihrem Inhalt, ihrem Zweck und ihren Auswirkungen in der Regel nicht mit einer bestimmten Person verknüpft. Sie geben deshalb auch keine Auskunft über die persönlichen Verhältnisse einer Person“, erklärt Calliess. „Selbst wenn im Einzelfall Daten personalisiert und damit offenbart werden könnten, wäre diese vergleichsweise geringe Beeinträchtigung des Datenschutzes kein ausreichender Grund, von einer Veröffentlichung von Gefahrendaten zum Schutz von Leben, Gesundheit und Eigentum bei Extremwetterereignissen und das der Anpassung urbaner Lebensräume an Starkregenereignisse abzusehen.
Die Einstein Research Unit „Climate and Water under Change”
Die Einstein Research Unit „Climate and Water under Change“ (CliWaC) widmet sich als transdisziplinäre Forschungsinitiative der Berlin University Alliance der Untersuchung wasserbezogener Risiken des Klimawandels im Raum Berlin-Brandenburg. Dabei wird CliWaC sozial- und naturwissenschaftliches sowie praktisches Fachwissen von Stakeholdern zusammenbringen, um Minderungs- und Anpassungsmaßnahmen gegenüber Auswirkungen des Klimawandels zu entwickeln. Der Fokus von CliWaC liegt auf der Modellregion Berlin-Brandenburg. Dies macht es möglich, unterschiedliche natürliche, gesellschaftliche und politische Verhältnisse in den Blick zu nehmen – vor allem in den Interdependenzen städtischer und ländlicher Räume. Diese gehen wiederum mit unterschiedlichen Bedürfnissen und Handlungsoptionen einher. Die Forschungsthemen von CliWaC umfassen dabei Ökosysteme, Biodiversität und Ökosystemdienstleistungen, Überschwemmungs- und Abwassermanagement sowie Wasserressourcenmanagement. Das Konsortium besteht aus 28 Projektleitern der Berlin University Alliance, die an Freier Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Charité forschen. Zusätzlich beteiligen sich das Leibniz-Zentrum für Agrarlandschaftsforschung und das Institut für ökologische Wirtschaftsforschung mit. Prof. Dr. Britta Tietjen (Freie Universität Berlin), Prof. Dr. Uwe Ulbrich (Freie Universität Berlin) und Prof. Dr. Tobias Sauter (Humboldt-Universität zu Berlin) leiten das CliWac-Projekt. Gefördert wird die Einstein Research Unit “Climate and Water under Change” durch die Berlin University Alliance und die Einstein Stiftung Berlin.
Die Berlin University Alliance
Die Berlin University Alliance ist der Verbund der drei Berliner Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin sowie der Charité – Universitätsmedizin Berlin für die gemeinsame Gestaltung von Wissenschaft in Berlin. Die vier Partnerinnen haben sich zusammengeschlossen, um den Wissenschaftsstandort Berlin zu einem gemeinsamen Forschungsraum weiterzuentwickeln, der zur internationalen Spitze zählt. Im Zentrum der Zusammenarbeit stehen dabei die gemeinsame Erforschung großer gesellschaftlicher Herausforderungen, die Stärkung des Austausches mit der Gesellschaft, die Nachwuchsförderung, Fragen der Qualität und Wertigkeit von Forschung sowie übergreifende Vorhaben in Forschungsinfrastruktur, Lehre, Diversität, Chancengerechtigkeit und Internationalisierung. Die Berlin University Alliance wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) und dem Land Berlin im Rahmen der Exzellenzstrategie von Bund und Ländern.
Gemeinsame Pressemitteilung der Freien Universität Berlin, der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und der Charité – Universitätsmedizin Berlin
Weitere Informationen
Zur Einstein Research Unit „Climate and Water under Change”: https://www.cliwac.de/index.html
Zur Berlin University Alliance: https://www.berlin-university-alliance.de/index.html
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Calliess, Freie Universität Berlin, Fachbereich Rechtswissenschaft, Telefon: 030 / 838-51456, E-Mail: europarecht@fu-berlin.de
Kompetenzzentrum Wasser Berlin unterstützt das WaterMan-Projekt zur Förderung der Wasserwiederverwendung im Ostseeraum
Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion. Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung.
Das Projekt „WaterMan” fördert die Wiederverwendung von Wasser in der Ostseeregion, indem es lokale Behörden und Wasser- und Abwasserunternehmen bei der Entwicklung von Strategien zur Nutzung von aufbereitetem und zurückgehaltenem Wasser unterstützt. Das Projekt wird im Rahmen des Interreg Baltic Sea Region-Programm von 2023 bis 2025 durchgeführt und hat das Ziel, die Wasserwiederverwendung als neues Element der Wasserwirtschaft zu etablieren und eine klimaresiliente Wasserversorgung zu schaffen.
Mit einem Budget von 4,38 Millionen Euro werden Aktivitäten wie die Wiederverwendung von aufbereitetem und zurückgehaltenem Wasser, die Förderung von Akzeptanz bei Interessensgruppen und Nutzern sowie die Entwicklung einer „Ostseeraum-Toolbox zur Wasserwiederverwendung“ finanziert. WaterMan zielt darauf ab, Wasserwiederverwendung in der Region einzuführen, etwa indem eine gemeinschaftliche Lernumgebung für lokale Behörden und Wasser- und Abwasserunternehmen geschaffen wird. Das Projekt wird von 43 Organisationen aus sechs Ländern unterstützt und konzentriert sich auf den südlichen Ostseeraum.
Das Kompetenzzentrum Wasser Berlin (KWB) spielt eine wichtige Rolle bei der Erarbeitung von Lösungen zur Förderung von Wasserwiederverwendung. Das KWB arbeitet eng mit den Projektpartnern zusammen, um eine Anleitung zur Methodik und zu den verfügbaren Instrumenten zu entwickeln, die lokalen Akteuren bei der Erkennung von Wasserbedarf, der Durchführung von Risikobewertungen sowie der Auswahl umweltfreundlicher Technologien helfen sollen. Das Projekt wird schließlich einen umfassenden und konkreten Leitfaden für lokale Behörden und Wasser- sowie Abwasserunternehmen entwickeln, um die Wiederverwendung von Wasser in der Region zu fördern. Mit dem Fachwissen der Mitarbeitenden über Wasserwiederverwendung, dem Austausch von Erfahrungen und der Schulung praktischer Fähigkeiten in Bezug auf Risiko- und Lebenszyklusanalysen leistet das KWB mithilfe des WaterMan-Projekts einen wichtigen Beitrag zur Entlastung der natürlichen Wasserressourcen und zum Aufbau einer klimaresistenten Wasserwirtschaft im Ostseeraum.
Wissenschaftliche Ansprechpartner:
Pia Schumann
Dr. Ulf Miehe
Weitere Informationen:
https://www.kompetenz-wasser.de/de/forschung/projekte/waterman
FLEXITILITY: Pilotanlage zur landwirtschaftlichen Wasserwiederverwendung geht an den Start
Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Bewässerung und Monitoring auf Versuchsfeld bei der Kläranlage Uebigau
Die Wiederverwendung von gereinigtem und hygienisiertem Wasser aus Kläranlagen soll europaweit und auch in Deutschland vorangetrieben werden. Zum 26. Juni 2023 wird dazu die EU-Verordnung 2020/741 in den Mitgliedsländern wirksam. Ziel ist, die Nutzung von Wasser zu intensivieren und den Schutz der Umwelt sowie Gesundheit von Mensch und Tier zu gewährleisten. Im BMBF-Forschungsprojekt FLEXITILIY ist unter Leitung von inter 3 mit der Inbetriebnahme einer Pilotanlage zur Bewässerung jetzt ein wesentlicher Schritt zur Umsetzung der Wasserwiederverwendung getan. Bis Herbst 2024 wird in Südbrandenburg eine landwirtschaftlich genutzte Versuchsfläche bewässert und einem Monitoring unterzogen.
Seit 15. Juni 2023 werden 12 Hektar Ackerland für die Produktion von Tierfutter mit Wasser beregnet, das zuvor in der Brandenburger Kläranlage Uebigau technisch aufwändig gereinigt und mittels einer UV-Anlage hygienisiert wurde. Die UV-Anlage und das Bewässerungssystem wurden am 13. Juni feierlich durch den Bürgermeister von Herzberg (Elster), einen Vertreter des Gemeindeverbunds Liebenwerda sowie durch den Verbandsvorsitzenden des Herzberger Wasser- und Abwasserzweckverbands (HWAZ) eingeweiht. Die Forschungspartner inter 3 Institut für Ressourcenmanagement und Umweltbundesamt (UBA) arbeiten eng mit dem HWAZ, der Stadt Herzberg und der Agrargenossenschaft Gräfendorf e.G.in diesem Teilprojekt von FLEXITILITY zusammen.
Neue Standards für die Wiederverwendung von Abwasser
Während die Wasserwiederverwendung zu Bewässerungszwecken in südlichen EU-Ländern, und zu Versuchszwecken auch in Deutschland, bereits seit Jahrzehnten gelebte Praxis ist, setzt die EU-Verordnung neue Standards, mit denen es bislang noch keine Erfahrungen gibt: „Wir wollen zeigen, wie es gelingen kann, die hohen Mindestanforderungen an die Wasserqualität und die geforderte Überwachung sowie Risikobewertung einzuhalten,“ beschreibt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3, die Aufgabe. „Denn dann eröffnet die Wasserwiederverwendung Landwirten neue Möglichkeiten, ihre Abhängigkeit von lokalen Niederschlägen zu verringern und mit sicher verfügbarem Wasser wirtschaftlich noch interessantere landwirtschaftliche Produkte zu produzieren.“
Die Pilotanlage besteht aus einer UV-Desinfektion, einer Bewässerungs-technik nach landwirtschaftlicher Praxis und der nötigen Druckerhöhung. FLEXITILITY generiert mit dem Pilotversuch die benötigten praktischen Erfahrungswerte hinsichtlich
– der Bewertung der Hygienisierungstechnik für den Anwendungsfall „Bewässerung landwirtschaftlicher Tierfutterprodukte“,
– des Aufbaus eines praktikablen Monitoringsystems, sowie
– der Entwicklung eines praxisorientierten Risikomanagementplans für diesen Anwendungsfall.
FLEXITILITY: Forschung, Praxis und Behörden arbeiten eng zusammen
Das Projekt zeichnet sich durch eine enge Kooperation von Wissenschaft, Behörden, Kommunalverwaltung sowie Wasser-, Land- und Forstwirtschaft aus: inter 3 ist zuständig für den reibungslosen Aufbau und Betrieb der Technik sowie die Konzipierung und Einhaltung des Risikomanagementplans. Das UBA zeichnet verantwortlich für die Entnahme und Untersuchung von Proben aus Bewässerungswasser, Böden und Grundwasser sowie der angebauten Produkte. Es überwacht eine Vielzahl an Hygiene- und Schadstoffparametern. In der Umsetzung des Risikomanagementplans stimmen sich inter 3 und UBA eng mit der Stadt Herzberg, der unteren Wasserbehörde sowie dem HWAZ ab. Während die UV-Desinfektion auf dem Kläranlagengelände des HWAZ stattfindet, ist für den Betrieb der Bewässerungsanlage die Agrargenossenschaft Gräfendorf e.G. als Pächterin der landwirtschaftlichen Versuchsfläche eingebunden. Zusätzlich werden zwei weitere Versuchsflächen mit dem hygienisierten Wasser bewässert: eine Grünfläche auf dem Betriebsgelände der Kläranlage stellvertretend für städtische Grünflächen sowie Teile eines kleinen Waldstücks zur Beförderung eines klimaresilienten Waldumbaus.
Relevanz für eine klimaresiliente Landwirtschaft
Dass die Wasserwiederverwendung ein wichtiger Baustein in der Klimaanpassung werden sollte, verdeutlichen auch in diesem Jahr die sich intensivierenden Trockenphasen: Angesichts des ausbleibenden Regens rechnen Landwirte im südlichen Brandenburg erneut mit teils erheblichen Ernteausfällen. Bereits in den vergangenen Jahren sind einige aufgrund der Trockenheit wirtschaftlich an ihre Grenzen geraten und denken über das Aufgeben ihres Betriebes nach.
Die in FLEXITILITY gewonnenen Daten zur Hygienisierung und Wiederverwendung gereinigten Abwassers können eine wichtige Grundlage für die Konkretisierung von Umsetzungsregeln zur Wasserwiederverwendung in Deutschland bilden und somit über die Region hinaus wirksam werden. Sollten sich bei den Versuchen keine grundlegenden Risiken zeigen, kann über die Bewässerung weiterer Pflanzen wie z.B. Soja nachgedacht werden.
Das FLEXITILITY-Gesamtprojekt
Das Projekt Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur (FLEXITILITY) umfasst neben den Versuchen zur Wasserwiederverwendung auch Ansätze für den flexiblen Betrieb von Trinkwassernetzen. Diese werden durch die Projektpartner Brandenburgische Technische Universi-tät (BTU) Cottbus-Senftenberg, Fachgebiet Stadttechnik, und DVGW-Technologiezentrum Wasser (tzw), unter Beteiligung von inter 3 und der Stadt Herzberg (Elster), durchgeführt. Im Fokus steht dabei der Einsatz von dezentralen Trinkwasserspeichern in Wohngebäuden sowie bei institutionellen Wasserverbrauchern: stellvertretend beim Rathaus Herzberg. Die beiden großen Praxistests zur Trinkwasser-Flexibilisierung sowie zur Wasserwiederverwendung laufen noch bis September 2024.
Finanziert wird FLEXITILITY aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) im Rahmen des Programms „Umsetzung der Leitinitiative Zukunftsstadt“, Projektträger ist das Deutsche Zentrum für Luft- und Raumfahrt (DLR).
Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri
inter 3 Institut für Ressourcenmanagement
mohajeri@inter3.de | +49(0)30 3434 7440
Weitere Informationen:
http://www.inter3.de/forschungsfelder/projekte/details/flexible-utilities-umsetz… Projektbeschreibung
http://www.flexitility.de Projekt-Webseite
Anhang
FLEXITILITY Wasserwiederverwendung_PM_inter3
Fischsterben in der Oder im August 2022: BfG legt neue Erkenntnisse und Empfehlungen vor
Dominik Rösch Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der heute veröffentlichte Bericht der Bundesanstalt für Gewässerkunde (BfG) gibt einen umfassenden Überblick zu den an der Bundesanstalt durchgeführten Untersuchungen zum Fischsterben in der Oder im August 2022. Darin enthalten sind neue Erkenntnisse, die ein genaueres Bild zur Entstehung der Katastrophe zeichnen sowie Empfehlungen, die dazu beitragen sollen, „ökologische Extremereignisse“ in der Oder und anderen Flüssen zukünftig frühzeitig zu erkennen und dadurch Gegenmaßnahmen einleiten zu können.
Die BfG-Wissenschaftlerinnen und -Wissenschaftler verdeutlichen in dem Bericht, dass die Kombination aus erhöhtem Salzgehalt, hohen Temperaturen, starker Sonneneinstrahlung und langanhaltend niedrigem Abfluss im Sommer 2022 die massenhafte Vermehrung der Brackwassermikroalge Prymnesium parvum in weiten Teilen der Oder ermöglichte. Den BfG-Fachleuten gelang es nicht nur die Alge, sondern auch das von ihr produzierte Algentoxin Prymnesin-B1 im Oderwasser nachzuweisen. Da in den umfassenden Analysen keine weiteren Schadstoffe in fischtoxischen Konzentrationen gefunden wurden, schlussfolgerten die Autoren/-innen, dass die Algentoxine von Prymnesium parvum der Auslöser für das massenhaften Sterben von Fischen und anderen Organismen waren.
Zur Identifizierung und Quantifizierung der Algenart nutzten die Forschenden u. a. molekularbiologische Methoden (PCR-Verfahren und DNA-Metabarcoding). Diese stehen an der BfG nun zusammen mit der Methode zur Bestimmung der Algentoxine zur Verfügung und können auch im Falle erneuter Algenblüten in der Oder sowie anderen Flüssen schnell zum Einsatz kommen und somit zu einer frühzeitigen Risikoabschätzung beitragen.
Dies ist aus Sicht der am Bericht beteiligten Autoren/-innen dringend erforderlich: Basierend auf den hydrologischen Auswertungen der vergangenen Jahre ist auch zukünftig mit vergleichbaren Niedrigwassersituationen an der Oder zu rechnen.
Eine entscheidende Voraussetzung für die Entstehung der Algenblüte war der erhöhte Salzgehalt in der Oder. Im Vergleich zu Analysen von Wasserproben aus anderen Flussgebieten Deutschlands konnte durch die BfG-Analysen nachgewiesen werden, dass die Konzentrationen des ansonsten nur sehr selten bestimmbaren Elementes Rhenium (Re) im Oderwasser außergewöhnlich erhöht waren. Dies ist ein deutlicher Hinweis auf eine maßgebliche Einleitung salzhaltiger Abwässer aus dem polnischen Bergbau. Hierfür sprechen auch die enormen Salzmengen von im Durchschnitt 4.000 Tonnen Kochsalz, die zusätzlich je Tag in dem Zeitraum der Algenblüte eingebracht wurden. Diese Menge entspricht in etwa dem Inhalt von 200 Güterwaggons Salz je Tag.
Wie lässt sich ein erneutes Fischsterben verhindern?
Ausgehend von der erarbeiteten wissenschaftlichen Basis leiteten die BfG-Fachleute in dem Bericht disziplinübergreifend Empfehlungen ab. Diese sind auch auf andere Flüsse übertragbar, um anderenorts vergleichbare Katastrophen zu verhindern. Die BfG-Fachleute empfehlen:
1. Eine Ausweitung des Algen-Monitorings, inklusive der Algentoxine, und verbesserte Onlinebereitstellung der Daten. Hierzu stehen sichere molekularbiologische Methoden als „Schnelltests“ für die frühzeitige Erkennung von Prymnesium parvum bereit.
2. Eine Vermeidung begünstigender Faktoren für Algenblüten, insb. durch ein an die klimatischen Bedingungen angepasstes Management von Stoffeinleitungen sowie die Reduzierung von Nährstoffeinträgen.
3. Die Kontrolle und Eindämmung schädlicher Algenblüten sowie die Schaffung von Rückzugshabitaten für die natürliche Flussfauna.
4. Ein konzertiertes Vorgehen von Landes- und Bundesbehörden bei zukünftigen Krisenfällen nach dem Vorbild der Ursachenaufklärung des Fischsterbens in der Oder 2022.
Wie dringend die Empfehlungen der BfG umgesetzt werden sollten, zeigen die aktuellen Entwicklungen: In den Seitenkanälen der Oder sind nach Angaben des polnischen Umweltministeriums in den vergangenen Tagen bereits hunderte Kilogramm an Fischen verendet – ein deutliches Warnsignal. „Angesichts der aktuell steigenden Temperaturen, fallender Wasserstände und dem unverändert erhöhten Salzgehalt der Oder halte ich es für sehr gut möglich, dass es auch in diesem Sommer zu einem erneuten großflächigen Fischsterben in der Oder kommt“, sagt Dr. Jan Wiederhold. Der Geoökologe koordinierte die Entstehung des BfG-Berichts zum Fischsterben in der Oder.
Die BfG beteiligte sich schon früh an der Suche nach den möglichen Ursachen des Fischsterbens und führte 2022 eine Vielzahl von Analysen durch. Nach Anfragen des Landeslabors Berlin-Brandenburg und des Landesamtes für Umwelt Brandenburg sowie in Abstimmung mit dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz leistete die BfG Amtshilfe in verschiedenen Bereichen. Einige der damals erarbeiteten Ergebnisse gingen in Kurzform in den am 30.09.2022 vorgestellten Statusbericht der „Nationalen Expert*innengruppe zum Fischsterben in der Oder“ ein.
Wissenschaftliche Ansprechpartner:
Dr. Jan Wiederhold, wiederhold@bafg.de
Originalpublikation:
https://doi.bafg.de/BfG/2023/BfG-2143.pdf
Weitere Informationen:
https://www.bafg.de/DE/07_Nachrichten/220930_Statusbericht_Oder-Fischsterben.htm…
Gut ein Viertel der Beschäftigten hat Zweifel, die aktuelle Berufstätigkeit bis zum Rentenalter durchhalten zu können
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Studie des WSI
Mehr als ein Viertel der Beschäftigten in Deutschland hat Zweifel, die aktuelle Berufstätigkeit ohne Einschränkungen bis zum Rentenalter durchhalten zu können: Gut 20 Prozent glauben, das eher nicht zu schaffen.
Weitere knapp 7 Prozent sind sogar überzeugt, auf keinen Fall durchhalten zu können. Noch deutlich höher sind die Quoten unter Arbeiter*innen (38 Prozent) und bei Menschen, die ihre Arbeitssituation generell als stark belastend oder äußerst belastend einstufen: In diesen Gruppen glauben rund 43 bzw. 59 Prozent, ihre jetzige Tätigkeit eher nicht oder auf keinen Fall ohne Einschränkung bis zum gesetzlichen Rentenalter ausüben zu können, während die Anteile bei geringerer Belastung unterdurchschnittlich sind (siehe auch die Abbildungen 1 bis 3 in der pdf-Version dieser PM; Link unten). Unter den Beschäftigten berichtet gut jede*r Fünfte von stark oder äußerst belastenden Arbeitsbedingungen. Zu diesen Ergebnissen kommt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung.*
Die Untersuchung der WSI-Forscher Dr. Florian Blank und Dr. Wolfram Brehmer stützt sich auf eine repräsentative Befragung unter knapp 5000 abhängig Beschäftigten und eine weitere Umfrage unter gut 3600 Betriebs- und Personalräten.
Die befragten Betriebs- und Personalräte sehen die Durchhalte-Chancen der Beschäftigten in ihren Betrieben häufig noch skeptischer. Die Beschäftigtenvertreter*innen sind aber auch der Überzeugung, dass Unternehmen etliche Mitarbeiter*innen länger im Job halten könnten, wenn sie sich verstärkt um alternsgerechte Arbeitsbedingungen bemühen würden: Knapp 42 Prozent der Betriebs- und Personalräte sind überzeugt, dass das für alle oder viele betroffene Beschäftigte möglich wäre, die sonst nicht bis zum Rentenalter durchhalten können, weitere 42 Prozent halten das zumindest bei einigen oder wenigen Kolleg*innen für realistisch. Bislang tun die Arbeitgeber nach Einschätzung der Betriebs- und Personalräte aber längst nicht genug: 40 Prozent bewerten die bisherigen betrieblichen Bemühungen um bessere Arbeitsbedingungen für Ältere auf einer Skala entsprechend den Schulnoten mit 5 oder 6. Knapp 28 Prozent geben lediglich eine 4 (siehe Abbildung 4 in der pdf-Version).
Die Ergebnisse machten deutlich „dass Forderungen nach einer weiteren Anhebung des Rentenalters offensichtlich an der Realität vieler Beschäftigter vorbeigehen“, schreiben die Studienautoren Florian Blank und Wolfram Brehmer. „Solche Maßnahmen würden den zweiten Schritt vor dem ersten machen“ und Ungleichheiten auf dem Arbeitsmarkt verschärfen – oft zuungunsten von ohnehin bei ihrer Arbeit stark belasteten Personen, warnen sie. Als ersten notwendigen Schritt sehen die beiden Wissenschaftler vielmehr‚ „`Gute Arbeit´ für alle Beschäftigten zu ermöglichen“. Wenn Unternehmen mehr dafür täten, ältere Beschäftigte durch bessere Arbeitsbedingungen im Job zu halten, habe das einen dreifachen Vorteil: Es helfe dabei, die Finanzlage der Sozialversicherungen zu verbessern. Es wirke arbeitsmarktpolitisch positiv, weil Arbeitskräfteengpässe entschärft würden. Und vor allem verbesserten sich Lebenssituation und Gesundheit von Millionen Menschen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Kohlrausch
Wissenschaftliche Direktorin WSI
Tel.: 0211-7778-186
E-Mail: Bettina-Kohlrausch@boeckler.de
Dr. Wolfram Brehmer
WSI-Experte für Empirische Strukturanalysen
Tel.: 0211-7778-340
E-Mail: Wolfram-Brehmer@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
*Florian Blank, Wolfram Brehmer: Durchhalten bis zur Rente? Einschätzungen von Beschäftigten, Betriebs- und Personalräten. WSI Report Nr. 85, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008645
Die PM mit Abbildungen (pdf): https://www.boeckler.de/pdf/pm_wsi_2023_06_27.pdf
Neue europäische Blutdruckleitlinie setzt 140/90 mmHg als „rote Linie“
Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ergänzung vom 27.06.2023
Die neue Bluthochdruckleitlinie der „European Society of Hypertension“ wurde aktuell publiziert [1] und überrascht durch einen pragmatischen Ansatz im Hinblick auf die Zielwerte: 140/90 mmHg ist die „rote Linie“, die Werte jedes/r Betroffenen sollten also darunter liegen. Wer es verträgt, sollte noch tiefer eingestellt werden, wer nicht, muss es aber nicht. Der Vorstandsvorsitzende der Deutschen Hochdruckliga rät insbesondere im letzteren Fall dazu, die nicht-medikamentösen Maßnahmen zur Blutdrucksenkung auszureizen. Jeder kann selbst etwas tun! Neben zahlreichen Empfehlungen wurden in die Leitlinie zwei neue aufgenommen: eine kaliumreiche Kost und Antistresstraining.
Bluthochdruck ist eine der häufigsten Erkrankungen überhaupt. Die Rate der Betroffenen beträgt derzeit in Deutschland 31,8 Prozent. Das bedeutet: Nahezu jede/r Dritte hat zu hohe Blutdruckwerte – und die sollten nicht auf die leichte Schulter genommen werden/können schwere Gesundheitsschäden/-probleme verursachen. Unbehandelt führt Bluthochdruck zu Folgeschäden an den Organen, den Gefäßen, dem Herz oder den Nieren. Zu hohe Blutdruckwerte können sogar ein Treiber für Demenz sein. Bluthochdruck ist also nicht nur sehr häufig, sondern auch sehr gefährlich.
Daher ist es äußerst wichtig, hohen Blutdruck frühzeitig zu erkennen und zu behandeln. Doch auf welchen Zielwert hin? Bisher war die Beantwortung dieser Frage komplex, es galten verschiedene Werte für verschiedene Patientengruppen. Die neue europäische Blutdruckleitlinie gibt hier nun einen pragmatischen Anhaltspunkt: 140/90 mmHg ist gut, aber Werte weiter darunter wären noch besser (der Blutdruck sollte allerdings nicht unter 120/80 mmHg abgesenkt werden). Die neue Leitlinie zementiert also 140/90 mmHg als „rote Linie“ bei erwachsenen Menschen. Ab diesem Wert muss zwingend eine medikamentöse Blutdrucksenkung erfolgen und mit Hilfe der Blutdrucksenker sollte jede Patientin/jeder Patient diesen Wert unterschreiten.
„Wenn Betroffene Blutdruckwerte unter 140/90 mmHg erreichen, ist ihr Risiko für eine Folgeerkrankung bereits deutlich gesenkt, allerdings haben verschiedene Studien gezeigt, dass das Risiko für Herz-Kreislauf-Erkrankungen bei einer weiteren Absenkung dann noch etwas geringer ist“, erklärt Prof. Markus van der Giet, Vorstandsvorsitzender der Deutschen Hochdruckliga. Warum wurden dann nicht die Zielwerte in der neuen Leitlinie kurzerhand gesenkt? „Die neue ESH-Leitlinie spiegelt hier die Behandlungsrealität wider. Denn für eine tiefere Senkung sind oft höhere Dosen oder mehr Medikamente nötig, die wiederum zu Nebenwirkungen führen können. Diese führen dann dazu, dass die Patientinnen und Patienten die Medikamente oft gar nicht mehr einnehmen – und damit ist am Ende niemandem geholfen. Daher begrüßen wir dieses pragmatische Konzept, jeden auf Werte unter 140/90 mmHg einzustellen – und die, die es vertragen, auch etwas darunter.“
Wer die blutdrucksenkenden Medikamente schlecht toleriert und diese daher nicht für eine weitere Blutdruckabsenkung höher dosiert werden können, sollte versuchen, durch begleitende Lebensstilmaßnahmen eine weitere Absenkung zu erreichen, rät der Experte. „Gewichtsabnahme, gesunde Ernährung, ausreichend Bewegung und Stressreduktion führen zu nennenswerten Effekten bei der Blutdrucksenkung, die sich auch addieren“, motiviert Prof. van der Giet. „Wir raten natürlich allen Betroffenen zu diesen Maßnahmen, besonders aber jenen, bei denen die medikamentöse Therapie nicht wie gewünscht anschlägt bzw. nicht nach Bedarf hochdosiert werden kann.“ Grundsätzlich sollte aber keiner Sorge vor der medikamentösen Therapie haben: Nebenwirkungen treten verhältnismäßig selten auf und es gibt viele verschiedene blutdrucksenkende Medikamente, so dass für die meisten Betroffenen eine Behandlungsoption gefunden werden kann.
Die neue europäische Leitlinie empfiehlt auch zwei neue Maßnahmen für einen blutdruckgesunden Lebensstil: Zum einen werden erstmals Antistresstrainings wie Yoga und autogenes Training empfohlen, zum anderen gibt sie einen neuen, konkreten Ernährungstipp. In der Leitlinie wird zu einer salzarmen, aber kaliumreichen Kost geraten, da Kalium eine blutdrucksenkende Wirkung hat. Es ist in Obst und Gemüse enthalten, die neue Leitlinie rät daher, 4-5 Portionen davon am Tag zu essen. „Das ist im Alltag leicht umzusetzen und hat auch jenseits des Blutdrucks positive Effekte auf den Körper“, sagt Prof. van der Giet. Für das Antistresstraining empfiehlt der Experte, Kontakt zur Krankenkasse aufzunehmen – fast alle haben umfassende Kursangebote und die Kosten werden oft zu einem großen Teil von den Versicherungen getragen. „Werden nicht-medikamentöse Maßnahmen und die Einnahme von Blutdrucksenkern kombiniert, sind für die meisten Betroffenen Werte unter 140/90 mmHg – und auch deutlich darunter – gut zu erreichen“, so lautet das Fazit des Experten.
Umfassende Informationen zu Bluthochdruck finden Sie auf der Webseite der Deutschen Hochdruckliga: www.hochdruckliga.de
peziell mit der Bluthochdrucktherapie (medikamentös wie nicht medikamentös) beschäftigen sich zwei Folgen des Podcast „HyperTon“ der Deutschen Hochdruckliga https://www.hochdruckliga.de/betroffene/hyperton-podcast-blutdruck ):
Folge 1: Blutdruck natürlich senken
Folge 3: Keine Angst vor Medikamenten
[1] 2023 ESH Guidelines for the management of arterial hypertension. The Task Force for the management of arterial hypertension of the European Society of Hypertension Endorsed by the European Renal Association (ERA) and the International Society of Hypertension (ISH). J Hypertens. 2023 Jun 21. doi: 10.1097/HJH.0000000000003480. Epub ahead of print. PMID: 37345492.
https://journals.lww.com/jhypertension/Abstract/9900/2023_ESH_Guidelines_for_the…
Kontakt für Medienschaffende/Pressestelle der Deutschen Hochdruckliga
Dr. Bettina Albers
Jakobstraße 38
99423 Weimar
albers@albersconcept.de
Telefon: 03643/776423 // Mobil: 0174/2165629
Originalpublikation:
DOI: 10.1097/HJH.0000000000003480
Weitere Informationen:
http://www.hochdruckliga.de
Ergänzung vom 27.06.2023
Leider sind die Zielwerte in dieser Meldung fehlerhaft. Eine medikamentöse Therapie sollte immer bei Werten von über 140/90 mm Hg initiiert werden. Gesenkt werden sollte der Blutdruck aber zunächst bei allen Patientinnen und Patienten auf Werte unter 140/80 mm Hg. Bei erwachsenen Menschen unter 65 Jahren sowie bei älteren, die es tolerieren, soll dann weiter auf Werte unter 130/80 mm Hg abgesenkt werden.
Wie belastet ist die Elbe? Helmholtz-Forschende verfolgen den Weg von Umweltchemikalien, Mikroplastik und Nährstoffen
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Deutschlands Fließgewässer sind durch Einträge von außen etwa aus Industrie, Landwirtschaft oder Kläranlagen belastet. Doch diese Belastung verändert sich im Flussverlauf. Forscher:innen mehrerer Helmholtz-Zentren wollen nun in einer gemeinsamen Messkampagne genauer analysieren, wie Umweltchemikalien, Nano- und Mikroplastikpartikel sowie Nährstoffe in welcher Konzentration und Größe in die Elbe und dann ins Meer gelangen und wie sie auf dem Weg dahin abgebaut und verändert werden. Die diesjährige Elbe-Fahrt im Rahmen der Forschungsinitiative MOSES beginnt Ende Juni in Tschechien und endet Mitte September in der Deutschen Bucht.
Auf 1.094 Kilometer zieht sich die Elbe von ihrer Quelle im tschechischen Riesengebirge bis zu ihrer Mündung bei Cuxhaven durch Tschechien und Deutschland. Sie fließt dabei durch Großstädte wie Dresden und Magdeburg, bekommt Zulauf durch teils stark belastete Flüsse wie Saale, Havel und Mulde sowie unzählige kleinere Fließgewässer, nimmt Einleiter von Kläranlagen auf und passiert Ackerflächen und Wiesen. Damit landet vieles, was im Einzugsgebiet des Flusses in die Umwelt gebracht wird, irgendwann in irgendeiner Form in der Elbe. Das sind beispielsweise Umweltchemikalien, Nano- und Mikroplastikpartikel und Nährstoffe. „Ziel ist, die stofflichen Einträge und deren Konzentrationen von der Quelle der Elbe bis in die Deutsche Bucht zu messen. Wir wollen so ein Modell entwickeln, das die Verteilung und Verdünnung der Schadstoffe im Fluss berücksichtigt, um daraus Rückschlüsse zu ziehen, welchen Prozessen die Schadstoffe unterliegen“, sagt Dr. Ute Weber. Sie leitet am UFZ die Forschungsinitiative MOSES, bei der neun Helmholtz-Forschungszentren die Folgen hydro-meteorologischer Extremereignisse auf Erde und Umwelt analysieren.
Besonders ist an der diesjährigen Elbe-Kampagne, dass neben dem UFZ als koordinierende Forschungseinrichtung drei weitere Helmholtz-Zentren beteiligt sind, die auf einzelnen Flussabschnitten und Küstenbereichen der Nordsee mit ihren Forschungsschiffen unterwegs sind: Das Helmholtz-Zentrum Hereon, das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar und Meeresforschung (AWI). Diese Kooperation wurde erstmals bei der MOSES-Generalprobe „Elbe 2020“ getestet. „Wir haben damals die Zusammenarbeit der aufeinander abgestimmten Sensor- und Messsysteme sowie die Logistik und Organisation von Schmilka bis in die Deutsche Bucht erfolgreich geprobt“, sagt Ute Weber. Die Einsatzlogistik habe man in den folgenden Kampagnen stets verfeinert, sodass sie nun immer wieder für neue Forschungsziele genutzt werden könne.
Neu in diesem Jahr ist, dass die Schadstoffe erstmals im gesamten Gradienten von der Quelle der Elbe bis in die Mündung in Nordsee untersucht werden. Vom 27. bis 29. Juni übernimmt auf tschechischer Seite das Institute of Hydrobiology der Akademie der Wissenschaften der Tschechischen Republik die Beprobung auf dem rund 370 Kilometer langen Abschnitt von der Quelle bis zur tschechisch-deutschen Grenze. Weil die Elbe auf tschechischer Seite gestaut ist, ist dort allerdings anders als in Deutschland kein Forschungsschiff unterwegs. Die Wasser- und Sedimentproben werden deswegen von Brücken oder an Staustufen entnommen. Von der Grenze bis zur Staustufe Geesthacht kommen dann in den ersten beiden Juliwochen das UFZ-Forschungsschiff „Albis“ zum Einsatz, anschließend das Hereon-Forschungsschiff „Ludwig Prandtl“ von Geesthacht bis nach Cuxhaven (Ende August). Den Küstenbereich der Nordsee übernehmen Anfang September neben der „Ludwig Prandtl“ das GEOMAR Forschungsschiff „Littorina“ und das AWI-Forschungsschiff „Uthörn II“.
Inhalte des Messprogramms „Elbe 2023“
Die Untersuchungen zu den Umweltchemikalien verantwortet der UFZ-Umweltchemiker Prof. Dr. Werner Brack. „Wir wollen eine Palette von unterschiedlichen organischen Chemikalien, die im Wasser gelöst oder an Schwebstoffen gebunden sind, flussabwärts von Tschechien bis in die Deutsche Bucht erfassen und analysieren“, sagt er. Dazu zählen mehr als 600 Stoffe, darunter pharmazeutische Reststoffe, hormonell wirksame Substanzen, Konservierungsstoffe, Polyfluoralkylsubstanzen (PFAS), Pestizide, Industriechemikalien und Tenside. Sie werden abgebaut, umgewandelt, durch Einträge aus verschiedenen Quellen überlagert oder ihre Konzentrationen verdünnt. „Ziel ist, die Einträge etwa aus Landwirtschaft, Kläranlagen, Industrie und Siedlungsbereichen in die Elbe und damit die Belastung des Flusses genauer zu ermitteln“, sagt Werner Brack. Um diesen sogenannten chemischen Fußabdruck zu bestimmen, nehmen Forscher:innen Wasserproben – sowohl in Tschechien vom Ufer der Elbe als auch in Deutschland an 22 Stellen in der Elbe sowie von Land aus an sechs Zuflüssen und acht Kläranlagen. Zudem setzen die Forschenden auf die Non-Target-Analyse, mit der sich unbekannte Verbindungen in Wasserproben anhand der Molekülmasse identifizieren lassen. „Unser Anspruch ist, chemische Mischungen als typische Belastungsmuster zu bestimmen, die sich eindeutigen Quellen wie etwa Landwirtschaft, Industriebetrieben, Straßenverkehr oder Siedlungen zuordnen lassen“, sagt Brack. Bislang sei man diesem Forschungsansatz vor allem in Laborversuchen nachgegangen, doch das Messprogramm in der Elbe biete viel realistischere Bedingungen.
Die UFZ-Umweltchemikerin Prof. Dr. Annika Jahnke koordiniert ein Team von Forscher:innen, für die der Transport und die Verteilung von Nano- und Mikroplastik und mit diesen in Verbindung stehenden Chemikalien wie beispielsweise Weichmachern oder UV-Stabilisatoren im Mittelpunkt stehen. „Die Hauptquellen für das häufige Vorkommen von Plastik in den Meeren liegen an Land, und Flüsse spielen dabei eine wichtige Rolle in der Verteilung. Wir vermuten, dass durch die Elbe viele Nano- und Mikroplastikpartikel in die Nordsee transportiert werden, und wollen deswegen untersuchen, wie sich die Partikel und damit in Verbindung stehende Chemikalien verteilen, von der Quelle bis in die Nordsee“, sagt sie. Beispielhaft für die Elbe wolle man quantifizieren, wie viel Plastik auf diesem Weg ins Meer gelangt. Neben der Partikelanalytik hat ihr Team für das Mess- und Analyseprogramm rund 150 Stoffe ausgesucht. „Diese langlebigen Stoffe sind für Menschen, Organismen und die Umwelt potenziell toxisch, da sie beispielsweise im Verdacht stehen, auf das Hormonsystem einzuwirken, und dazu neigen, sich in Lebewesen anzureichern“, sagt Annika Jahnke. Sie lässt im Verlauf der Elbe und der Deutschen Bucht rund 30 Sediment- und zahlreiche Wasserproben nehmen, die in den Helmholtz-Forschungslaboren untersucht werden sollen.
Als dritter thematischer Schwerpunkt interessieren sich die Forscher:innen für Nährstoffe. Ein vom UFZ-Fließgewässerökologen Dr. Norbert Kamjunke koordiniertes Team will die Konzentrationen von Nährstoffen wie beispielsweise Nitrat, Phosphat oder Silizium sowie von organischen Verbindungen wie etwa Kohlenhydraten und Huminstoffen messen und die Nährstoffaufnahme durch Algen ermitteln, die im Flussverlauf starken Schwankungen unterliegt: Erst wachsen die Algen in der Binnenelbe in Massen heran, nehmen Nährstoffe auf, in dessen Folge die Konzentrationen von Nitrat und Phosphat im Wasser sinken. Die Algen produzieren durch Photosynthese viel Sauerstoff, der pH-Wert steigt. „Im Ästuar unterhalb des Hamburger Hafens sinkt die Fließgeschwindigkeit, die Algen sedimentieren und Abbauprozesse führen zu einem Sauerstoffminimum. Gelöste Nährstoffe werden wieder freigesetzt und in die Nordsee transportiert, wo sie potenziell wieder zu Algenwachstum führen können“, erläutert Norbert Kamjunke, der für das UFZ die Elbefahrt auf der „Albis“ leitet und die gesamte Kampagne koordiniert. Ziel der Messungen ist, durch insgesamt 70 Wasser- und Sedimentproben den Export der Nährstoffe vom Land in die Elbe und in die Küstengewässer zu quantifizieren. „Wir wollen so einen Gradienten für die Nährstoffverteilung von der Quelle bis ins Meer beschreiben“, sagt der UFZ-Forscher. Mit ersten vorläufigen Ergebnissen für die drei Schwerpunkte ist frühestens zum Jahresende zu rechnen.
MOSES steht für „Modular Observation Solutions for Earth Systems”. In dieser vom UFZ koordinierten Initiative haben neun Forschungszentren der Helmholtz-Gemeinschaft zwischen 2017 und 2021 gemeinsam mobile und modular einsatzfähige Beobachtungssysteme aufgebaut. Sie können so die Auswirkungen zeitlich und räumlich begrenzter dynamischer Ereignisse wie zum Beispiel extreme Niederschlags- und Abflussereignisse oder Dürreperioden auf die langfristige Entwicklung von Erd- und Umweltsystemen untersuchen. Seit 2022 ist MOSES im regulären Betrieb.
Aktuelle Informationen zu MOSES:
MOSES-Website: www.moses-helmholtz.de
Wissenschaftliche Ansprechpartner:
Wir bitten um Verständnis, dass im Fall dieser Messkampagne die entsprechenden Fachansprechpartner über die jeweiligen Pressestellen vermittelt werden. Bitte wenden Sie sich
1. an die UFZ-Pressestelle (presse@ufz.de): bei Fragen zur gesamten Kampagne / zur Befahrung der Elbe von der tschechischen Grenze bis zur Staustufe in Geesthacht
2. an die Hereon-Pressestelle (presse@hereon.de): Bei Fragen zur Befahrung der Tide-Elbe vom Wehr Geesthacht in die Deutsche Bucht
3. an die AWI-Pressestelle (medien@awi.de) oder die GEOMAR-Pressestelle (media@geomar.demedia@geomar.de) bei Fragen zu den Messungen in der Deutschen Bucht
Weitere Informationen:
http://www.moses-helmholtz.de
Cyberagentur gibt Startschuss für zweite Forschungsphase zur Cybersicherheit von KRITIS
Michael Lindner Presse
Agentur für Innovation in der Cybersicherheit GmbH
Hochambitionierte Konzepte setzen sich durch
Drei Forschungsverbunde im Projekt „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ haben sich nach einer mehrstufigen Evaluation durchgesetzt.
Seit Anfang Dezember 2022 haben die sechs Teilnehmer des Forschungswettbewerbs in der ersten Phase ihre Forschungskonzepte zum Thema „Existenzbedrohende Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ (HSK) ausgearbeitet und konkretisiert. Am 1. Juni 2023 mussten die Konzepte nach vorheriger Vorstellung in individuellen halbtägigen Workshops sowie einwöchiger Überarbeitungsphase final eingereicht werden. Die Jury hat nun die finalen drei Wettbewerbsteilnehmer für die zweite Phase ermittelt. Der Projektleiter, Dr. Gerald Walther, betont in diesem Zusammenhang, dass „wir insgesamt sechs sehr gute Einreichungen am Ende der ersten Phase erhalten haben. Die Jury hat sich sehr genau mit den Konzepten auseinandergesetzt und sich letztlich für die drei Forschungsgruppen mit den innovativsten Ansätzen entschieden.“
Die Hauptauftragnehmer sind die Asvin GmbH, die Otto-von-Guericke-Universität Magdeburg und die Universität Hamburg. Alle drei haben hervorragende Konzepte mit jeweils eigenständigen, hochambitionierten Forschungsschwerpunkten eingereicht:
1) MANTRA, das Projekt der Asvin GmbH, schafft ein sicheres und resilientes Framework zum Echtzeit-Austausch von Cyber-Angriffsmustern und deren Risiko-Management. Der neuartige auf Graphen-Modellen basierende Ansatz bietet erhebliche Vorteile im Cybersicherheitsmanagement, insbesondere bei der Automatisierung und Priorisierung von Maßnahmen, bei der Risikominimierung und während der aktiven Abwehr von Cyberangriffen.
2) ATTRIBUT, das Projekt der Universität Magdeburg, will die Fähigkeit zur Aufklärung bzw. Attribution von Schadcodeangriffen erforschen, welche auf die Nutzung von verdeckter Kommunikation bzw. auf steganographischen Kanälen aufbauen und verdeckte Infiltration in gesicherte Netzwerke, das Verstecken von Command & Control-Kommunikation oder die verdeckte Exfiltration von Daten durch Schutzsysteme zum Ziel haben. Dabei werden sowohl die klassisch verdeckte Ende-zu-Ende-Kommunikation (Steganographie) als auch die moderneren Methoden von sogenannter Stego-Malware betrachtet.
3) SOVEREIGN, das Projekt der Universität Hamburg, wird eine resiliente, KI- und Zero-Trust-basierte Cyber-Defense-Plattform entwickeln und wird damit einen wichtigen Beitrag zur Erhöhung der Cybersicherheit kritischer Infrastrukturen leisten. Konzipiert als modularer Baukasten bringt die Plattform passive und aktive Sensorik sowie Aktuatorik tief in kritische Infrastrukturen ein, um Sicherheitslücken sowie komplexe Cyber-Angriffe frühzeitig zu erkennen, einzuschätzen, zu behandeln und abwehren zu können. Die Plattform wird mittels KI automatisiert Angriffe vorhersagen, erkennen, bewerten und darauf aufbauend das Risiko für Unternehmensprozesse und Assets dynamisch abschätzen.
„Alle drei Forschungsgruppen setzen nun ihre Projektkonzepte um“, erläutert Dr. Gerald Walther. „Dafür haben sie in der Phase 2 ein Jahr Zeit und am Ende wird wiederum die Umsetzung evaluiert. Dann werden zwei Teilnehmer ausgewählt, die in die Phase 3 vorrücken.“
Auch für diese Evaluation steht erneut die Fachjury aus Mitgliedern der Cyberagentur und Vertretern der gesamtgesellschaftlichen Sicherheitsvorsorge bereit. Ihr gehören Prof. Dr. Christian Hummert, Forschungsdirektor der Cyberagentur, Prof. Dr. Tobias Eggendorfer, Abteilungsleiter Sichere Systeme, Dr. André Müller, Forschungsreferent Sichere Systeme, und Dr. Gerald Walther, Leiter Schutz kritische Infrastruktur, und als externe Mitglieder Dr. Harald Niggemann, Cyber Security Strategist beim Bundesamt für Sicherheit in der Informationstechnik sowie Oberstleutnant Christoph Kühn, Dezernatsleiter im Cyber Security Operations Centre der Bundeswehr, an.
Kontakt
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de
Hintergrund:
Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.
Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.
Wissenschaftliche Ansprechpartner:
Dr. Gerald Walther
Originalpublikation:
https://www.cyberagentur.de/startschuss-fuer-zweite-forschungsphase-zur-cybersic…
Weitere Informationen:
https://www.cyberagentur.de/30-millionen-fuer-forschung-zum-schutz-kritischer-sy…
https://www.cyberagentur.de/strongcyberagentur-vergibt-millionenauftrage-zur-cyb…
https://www.cyberagentur.de/professionelle-unterstuetzung-der-cyberagentur-im-au…
Mangel und Überfluss. Zur Verteilung von Knappheit im 21. Jahrhundert
Helena Rose Pressestelle
Kulturwissenschaftliches Institut Essen (KWI)
Podiumsdiskussion im Rahmen des Jahresthemas „Mehr oder Weniger“
Donnerstag, 13. Juli 2023, 18.00 Uhr
Kulturwissenschaftliches Institut Essen (KWI), Gartensaal & Online (via Zoom)
Goethestraße 31, 45128 Essen
Dass mehr und mehr Menschen im ökologischen Haushalt der Erde über ihre Verhältnisse leben, ist nicht erst seit gestern bekannt. Bereits 1972 wies der Club of Rome medienwirksam auf die Grenzen eines Wachstums hin, das auf nicht-erneuerbaren Energiequellen beruht und darüber hinaus kaum absehbare Folgeschäden nach sich zieht: Umweltverschmutzung, Artensterben und Klimakrise.
Immer öfter werden Stimmen laut, die für eine Selbstbeschränkung menschlicher Bedürfnisse im Dienste des planetaren Gleichgewichtes plädieren. Doch was macht die Aussicht auf Mangel mit modernen Massengesellschaften, in denen sich mit dem Versprechen von wachsendem Wohlstand lange Zeit selbst tiefe soziale Risse kitten ließen? An Vorschlägen, wie die Verteilung der Knappheit zukünftig organisiert werden soll, herrscht kein Mangel. Das Wort von der Rationierung knapper Ressourcen macht nicht nur in akademischen Kreisen die Runde, sondern ist auch aus dem Munde politischer Entscheidungsträger wieder zu vernehmen.
Doch verabschiedet man mit der Abkehr vom Überfluss nicht auch das moderne Projekt individueller Autonomie, das dem Menschen umso höhere Freiheitsgrade zusicherte, je entschlossener er die Fesseln der Natur abstreifte? Verbirgt sich im Gewand der Nachhaltigkeit eine Form der Kasteiung, die anderen Beschränkungen auferlegt, um sich selbst moralisch zu überhöhen? Ebenso fraglich ist, wie den Ländern des globalen Südens die Außerbetriebnahme einer Wachstumslokomotive zu vermitteln wäre, deren Ankunft sich weite Teile der Bevölkerung sehnlichst erhoffen. Dieser herausfordernden Gemengelage geht eine Podiumsdiskussion am KWI aus historischer, ökonomischer und politischer Perspektive auf den Grund.
DISKUTANT*INNEN
ANNA ECHTERHÖLTER ist Professorin für Geschichte der Neuzeit und Wissenschaftsgeschichte an der Universität Wien.
RALF FÜCKS ist Gründer und geschäftsführender Gesellschafter des Berliner Thinktanks Zentrum Liberale Moderne.
LISA HERZOG ist Professorin am Centre for Philosophy, Politics and Economics der Universität Groningen.
MATTHIAS SCHMELZER ist Soziologe an der Friedrich-Schiller-Universität Jena.
MODERATION
Danilo Scholz, KWI
TEILNAHME
Die Teilnahme ist kostenlos und ohne Anmeldung möglich in Präsenz im KWI oder via Zoom unter dem auf dieser Seite aufgeführten Link: https://www.kulturwissenschaften.de/en/veranstaltung/mangel-und-ueberfluss/
VERANSTALTER
Eine Veranstaltung des Kulturwissenschaftlichen Instituts Essen (KWI) im Rahmen des Jahresthemas „Mehr oder Weniger“
Über das Kulturwissenschaftliche Institut Essen (KWI):
Das Kulturwissenschaftliche Institut Essen (KWI) ist ein interdisziplinäres Forschungskolleg für Geistes- und Kulturwissenschaften in der Tradition internationaler Institutes for Advanced Study. Als interuniversitäres Kolleg der Ruhr-Universität Bochum, der Technischen Universität Dortmund und der Universität Duisburg-Essen arbeitet das Institut mit den Wissenschaftlerinnen und Wissenschaftlern seiner Trägerhochschulen und mit weiteren Partnern in NRW und im In- und Ausland zusammen. Innerhalb des Ruhrgebiets bietet das KWI einen Ort, an dem die Erträge ambitionierter kulturwissenschaftlicher Forschung auch mit Interessierten aus der Stadt und der Region geteilt und diskutiert werden. Derzeit stehen folgende Forschungsschwerpunkte im Mittelpunkt: Kulturwissenschaftliche Wissenschaftsforschung, Kultur- und Literatursoziologie, Wissenschaftskommunikation, Visual Literacy sowie ein „Lehr-Labor“. Fortgesetzt werden außerdem die Projekte im Forschungsbereich Kommunikationskultur sowie Einzelprojekte.
www.kulturwissenschaften.de
Anhang
Flyer zum Jahresthema „Mehr oder Weniger“
Auf dem Weg zum Europäischen Gesundheitsdatenraum
Sophie Haderer Geschäftsstelle TMF e.V.
TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF)
Nationale Initiativen für Gesundheitsdateninfrastrukturen aus Deutschland, der Schweiz und den Niederlanden im Austausch
Berlin, 27.06.2023. Expertinnen und Experten dreier nationaler Initiativen kamen am 26. und 27. Juni bei einem Workshop in Berlin zusammen, um über Vorgehen, Hürden und Chancen beim Aufbau von Infrastrukturen für die Nutzung von Gesundheitsdaten für die Forschung zu diskutieren. Vertreten waren die deutsche Medizininformatik-Initiative (MII), gefördert vom Bundesministerium für Bildung und Forschung, die Schweizer Initiative SPHN (Swiss Personalized Health Network) sowie Health-RI (Health-Research Infrastructure) aus den Niederlanden. Bei einer Abendveranstaltung mit Teilnahme der EU-Kommission wurde über Herausforderungen und Perspektiven eines gemeinsamen Europäischen Gesundheitsdatenraums (EHDS) diskutiert. Eingeladen hatte die TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V., die gemeinsam mit dem Medizinischen Fakultätentag und dem Verband der Universitätsklinika die MII-Koordinationsstelle betreibt.
Die Einführung des EHDS bietet große Chancen für Versorgung und Forschung. Ein innereuropäischer Datenaustausch würde den Grundstein für eine Verbesserung der Gesundheitsversorgung legen und eine Nachnutzung von Gesundheitsdaten für die Forschung ermöglichen. Um den Anforderungen an eine digitale Gesundheits- und Forschungslandschaft erfolgreich zu begegnen, ist die Entwicklung einer gemeinsamen Gesundheitsdatenarchitektur beziehungsweise einer Digitalstrategie notwendig. Im Zuge des EHDS ist es wichtiger denn je, dass Versorgung und Forschung stärker miteinander verzahnt werden. Die MII, SPHN und Health-RI haben in Deutschland, der Schweiz und den Niederlanden jeweils die Basis für eine dezentrale Infrastruktur und damit relevante Vorarbeiten für den EHDS geschaffen, stehen aber noch vielen Herausforderungen gegenüber.
Bei der öffentlichen Abendveranstaltung des Workshops sprach Licínio Kustra Mano, Berater für den EHDS bei der EU-Kommission, DG SANTE, über den Zeitplan für den EHDS-Rechtsrahmen. So könne das Gesetz zum EHDS voraussichtlich im nächsten Jahr verabschiedet werden. Außerdem stellte er die Verantwortlichkeiten für Datenhalter, die erwarteten Vorteile aus Nutzersicht sowie Maßnahmen zur Datenqualität dar.
Vertreterinnen und Vertreter von MII, SPHN und Health-RI erörterten in verschiedenen Workshop-Sessions den aktuellen Stand des Infrastrukturaufbaus in den drei Ländern und gingen auf Gemeinsamkeiten und Unterschiede ein. Dabei wurden die Themen Einwilligungserklärung (Consent), Interoperabilität, Datenaustausch (Data Sharing), rechtliche Rahmenbedingungen, Finanzierung und Nachhaltigkeit adressiert.
Voraussetzungen für einen nachhaltigen Betrieb einer Dateninfrastruktur seien eine gute Governance-Struktur, robuste Finanzierung sowie eine gesetzliche Grundlage und verantwortliche Trägerstelle, sagte Dr. Thomas Geiger, SPHN-Geschäftsführer.
Dr. Katrin Crameri, Direktorin Personalisierte Gesundheitsinformatik beim SIB Schweizerischen Institut für Bioinformatik und Direktorin SPHN Datenkoordinationszentrum, stellte die Schweizer Initiative vor und erläuterte, wie die Schweiz auch als Nicht-EU-Staat zum EHDS beitragen könne. SPHN verfolgt einen dezentralisierten Ansatz und investiert in Datenqualität und Interoperabilität überall dort, wo Gesundheitsdaten aufgenommen oder produziert werden. Ziel ist, diese verantwortungsvoll und effizient für die Sekundärnutzung zur Verfügung zu stellen.
Dr. Jan-Willem Boiten, Senior-Projektleiter Architektur bei Health-RI, gab einen Überblick über das Vorhaben der Niederlande. Health-RI werde von 2022 bis 2028 mit 69 Millionen Euro gefördert. Die Zusammenarbeit mit den europäischen Partnern sei sehr wichtig für den weiteren Aufbau der Infrastruktur.
Sebastian C. Semler, TMF-Geschäftsführer und Leiter der MII-Koordinationsstelle, betonte die Notwendigkeit eines „Identifier“ für die Verknüpfung von Daten innerhalb der föderiert-dezentralisierten Dateninfrastruktur. Deutschland, die Schweiz und die Niederlande befänden sich auf einem ähnlichen Weg zum EHDS II zum „Secondary Use“ von Gesundheitsdaten für Forschung und Innovation. Dies sei sehr ermutigend für die kommenden Herausforderungen und böte Chancen in einer intensivierten Zusammenarbeit.
Pressekontakt:
Sophie Haderer, Tel.: 030 − 22 00 24 732, Mobil: 0173 4054214, E-Mail: presse@medizininformatik-initiative.de
Hintergrund:
Medizininformatik-Initiative:
Ziel der Medizininformatik-Initiative (MII) ist es, Routinedaten aus der Patientenversorgung bundesweit digital zu vernetzen und für die medizinische Forschung verfügbar zu machen, um Krankheiten zukünftig schneller und effektiver behandeln zu können. Daran arbeiten alle Einrichtungen der Universitätsmedizin Deutschlands gemeinsam mit weiteren Forschungseinrichtungen, Unternehmen, Krankenkassen und Patientenvertretungen in den vier Konsortien
DIFUTURE, HiGHmed, MIRACUM und SMITH. Datenschutz und Datensicherheit haben hierbei höchste Priorität. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die MII bis einschließlich 2026 mit insgesamt über 400 Millionen Euro.
SPHN:
Das Swiss Personalized Health Network ist eine nationale Initiative unter der Federführung der Schweizerischen Akademie für Medizinische Wissenschaften (SAMW). In Zusammenarbeit mit dem SIB Schweizerisches Institut für Bioinformatik tragen sie zur Entwicklung, Implementierung und Validierung von koordinierten Dateninfrastrukturen bei, um gesundheitsrelevante Daten für die Forschung nutzbar zu machen. Um Gesundheitsdaten interoperabel und der Forschung zugänglich zu machen, vereint das SPHN sämtliche Entscheidungsträger der wichtigsten Institutionen aus Klinik, Forschung und Forschungsförderung.
Health-RI:
Health-RI ist die nationale niederländische Initiative zur Förderung einer integrierten Infrastruktur für Gesundheitsdaten, die für Forschende, Bürgerinnen und Bürger, Leistungserbringende und die Industrie zugänglich ist. Sie wird die optimale Nutzung von Gesundheitsdaten, Proben und Bildern sowie ein lernendes Gesundheitssystem ermöglichen und die personalisierte Gesundheit beschleunigen.
Weitere Informationen:
http://www.medizininformatik-initiative.de
http://www.sphn.ch
http://www.health-ri.nl
Netz von Messstationen dokumentiert Unterschiede bei Wetter und Klima im Stadtgebiet von Freiburg
Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Daten der Universität Freiburg für alle Stadtteile sind jetzt über eine App in Echtzeit abrufbar
• Ein Schwerpunkt des Messnetzes liegt auf der Hitzebelastung der Freiburger Bevölkerung und Unterschieden innerhalb des Stadtgebiets. Die Stadt Freiburg unterstützt das Projekt und will die Messergebnisse auch selbst nutzen
• Die Daten bilden die Grundlage für mehrere Forschungsprojekte an der Universität Freiburg zu Klimaforschung und Anpassungsmöglichkeiten von Städten. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle“, sagt Umweltmeteorologe Prof. Dr. Andreas Christen
Im Freiburger Stadtteil Zähringen tobt ein Gewitter, im Rieselfeld hingegen fällt kaum ein Tropfen Regen. In Littenweiler kühlt ein angenehmer Höllentäler den heißen Sommerabend, im Industriegebiet Nord ist von dem Wind nichts zu spüren. „Innerhalb einer Stadt wie Freiburg gibt es große Unterschiede bei Wetter und Klima – diese werden bisher aber kaum erfasst und auch in Modellen etwa zu Extremereignissen wie Hitzestress oder Überflutungen wenig berücksichtigt“, sagt Prof. Dr. Andreas Christen, Professor für Umweltmeteorologie an der Universität Freiburg. Das soll nun ein Netz von gut 40 Messstationen im Freiburger Stadtgebiet und der näheren Umgebung ändern. Die gemessenen Daten an den einzelnen Stationen können von der Öffentlichkeit über die App „uniWeather“ abgerufen werden. Entwickelt hat sie der Student Gregor Feigel als Projektarbeit. Sie ist im App Store kostenlos verfügbar (nur für iOS).
Messstationen lassen sich in der App auswählen
Alle derzeit 42 Stationen messen Lufttemperatur, Feuchte und Niederschlag. Sie übermitteln die Daten alle fünf Minuten per Mobilfunknetz. An 13 der Stationen wird zusätzlich unter anderem Luftdruck, Wind, Sonneneinstrahlung und Strahlungstemperatur erfasst. Mithilfe dieser zusätzlichen Messgrößen kann an den jeweiligen Stationen ebenfalls die so genannte thermische Belastung errechnet werden, also der Hitze- oder Kältestress, dem Menschen dort ausgesetzt sind. „Unser Messnetz hat einen besonderen Schwerpunkt auf Hitze in der Stadt. Das ist in dieser Form einzigartig“, sagt Christen.
In der App lassen sich sowohl die Messstationen in verschiedenen Stadtteilen einzeln auswählen als auch Messgrößen wie etwa Niederschlag oder PET (Physiologisch äquivalente Temperatur), also die Wärmebelastung anzeigen – inklusive einer Grafik für die vergangenen 24 Stunden. Karten zeigen in einer Übersicht über das Stadtgebiet Unterschiede bei den jeweiligen Werten. Die aktuelle Temperatur einer ausgewählten Messstation lässt sich zusätzlich auf dem Sperrbildschirm des Handys ablesen.
Stadt stellt Masten und Strom zur Verfügung
Beim Aufbau des Messnetzes haben Christen und sein Team eng mit der Stadt Freiburg zusammengearbeitet, die unter anderem Laternenmasten zur Befestigung sowie den Strom zum Betrieb der Stationen zur Verfügung stellt. Die Stadtverwaltung kann die Daten der Universität zukünftig auch selbst nutzen, um noch zielgenauer extreme Wetterereignisse zu registrieren. Und klimatische Unterschiede innerhalb der Stadt könnten in längerfristige städtebauliche Planungen mit einbezogen werden. Weiter ist geplant, dass die Stadt die Daten in Echtzeit und historisiert über ihre Datenportale allen Interessierten kostenlos verfügbar macht.
Daten für die Forschung
Entstanden ist das Messnetz an der Universität Freiburg im Rahmen des 2020 gestarteten EU-Projekts „urbisphere“. „Freiburg wird damit zum Testfeld für Stadtklima-Modelle an mehreren europäischen Universitäten und für Wetterdienste“, sagt Christen, der das Projekt leitet. Die Forschenden nutzen die Daten des Messnetzes, um neue Modelle zu entwickeln, die Klimaveränderungen und Wettervorhersagen kleinräumig auflösen: „Wir brechen die Entwicklungen herunter auf die Eben von Stadtteilen – wie betreffen zum Beispiel Wärmeinseln an heißen Tagen Weingarten und wie Littenweiler?“ Das „urbisphere“-Projekt ist an mehreren europäischen Universitäten angesiedelt und untersucht weltweit Modellstädte. Es läuft noch bis 2027 und wird durch einen Synergy Grant des European Research Council (ERC) der EU mit insgesamt zwölf Millionen Euro gefördert.
Künstliche Intelligenz errechnet Modelle
Auch das gemeinsame Projekt „I4C – Intelligence for Cities“ der Universität Freiburg und mehrerer Freiburger Fraunhofer-Institute nutzt die Daten des Messnetzes. Es erforscht mithilfe von Künstlicher Intelligenz (KI), welche Stadtteile besonders Hitze, Hochwasser und Stürmen ausgesetzt sind und wie wir darauf reagieren können. Betrachtungen zu Ethik und Datenschutz beim Umgang mit Künstlicher Intelligenz sind ebenfalls Thema. Das Projekt wird geleitet von dem Informatiker Prof. Dr. Thomas Brox, Professor für Mustererkennung und Bildverarbeitung an der Universität Freiburg, und vom Bundesumweltministerium als „KI Leuchtturm“ gefördert.
Die Freiburger App „uniWeather“ für iOS gibt es kostenlos im App Store unter https://apps.apple.com/de/app/uniweather/id6443663033
Kontakt:
Hochschul- und Wissenschaftskommunikation
Universität Freiburg
Tel.: 0761/203-4302
E-Mail: kommunikation@zv.uni-freiburg.de
Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/netz-von-messstationen-dokumentier…
Biozide im Fassadenputz: überraschende Forschungsergebnisse
Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Als vor einiger Zeit in Schweizer Gewässern bestimmte Substanzen festgestellt wurden, war die Überraschung groß. Es handelte sich um Biozide, die in der Landwirtschaft nicht mehr eingesetzt werden dürfen. Woher konnten sie kommen? Und wie wirken sie sich aus? Ein Forschungsprojekt der Hochschule Coburg liefert neue Erkenntnisse über Biozide in Baustoffen. Kommende Woche werden sie in Augsburg auf einer Fachtagung präsentiert.
Etwa ein Viertel der hergestellten Biozide wird im Bausektor verwendet. In Putz und Fassadenfarben verhindern sie, dass zum Beispiel Algen und Bakterien als grün-braune Biofilme an der Hauswand wuchern. Das ist nicht nur ein optisches Problem; Pilze beispielsweise können die Fassade tatsächlich beschädigen. Dagegen wirken Chemikalien in Baustoffen langfristig. Regen wäscht sie im Lauf der Zeit aus – und sie landen in Boden und Gewässern. Aus dieser Erkenntnis entwickelte sich ein Forschungskonsortium, an dem die Hochschule Coburg im Rahmen des Projekts BayÖkotox unter Leitung von Prof. Dr. Stefan Kalkhof arbeitet.
Wie Biozide auf Wasserlebewesen wirken, bezeichnen Forschende als „aquatische Toxizität“. Sie ist bereits gut untersucht. Aber zu den Effekten auf die Mikroorganismen im Boden, der so genannten „terrestrischen Toxizität“, gibt es bisher kaum Daten. „Vor zwei Jahren haben wir dazu einen großen Freilandversuch auf dem Parkplatz in der Sonneberger Straße aufgebaut“, erzählt Fabienne Reiß. Sie kommt aus den nahegelegenen Haßbergen, hat in Coburg bereits ihren Bachelor und Master in Bioanalytik absolviert und promoviert im Projekt BayÖkotox bei Prof. Dr. Matthias Noll. Ihre Kollegin Nadine Kiefer kommt aus der Nähe des baden-württembergischen Reutlingen, ist Chemikerin und promoviert bei Prof. Dr. Stefan Kalkhof. Die Bioanalytikerin und die Chemikerin ergänzen sich, sind dankbar für die Möglichkeit, sich miteinander wissenschaftlich auszutauschen – und menschlich aufzubauen, wenn mal was nicht läuft. „Eine Promotion hat Höhen und Tiefen“, sagt Reiß. Kiefer berichtet: „Die Betreuung durch die Profs ist an einer Hochschule sehr eng, das ist super. Und die Tandem-Promotion ist wirklich cool.“
Viel Regen – viele Proben
Sobald es anfing zu regnen, wusste das Tandem: Es steht Arbeit an. Schon wieder. „Wir haben den Freilandversuch 2021 gemacht. Dieses Jahr war sehr, sehr … “ Reiß schaut gespielt-gequält, dann lacht sie ironisch: „feuchtfröhlich! Wir sind fast in Baustoff-Eluaten ertrunken, wussten nicht mehr, wo wir sie lagern können, geschweige denn, wie wir sie analysieren, so lange alles noch stabil ist.“ Die Eluate, eine Flüssigkeit, die für weitere Tests aufbereitet und verdünnt ist, gewann Kiefer aus dem Regenwasser, das von der Test-Fassade lief und in speziellen Behältern aufgefangen wurde. Die Test-Fassade bestand aus L-Steinen aus Beton, die mit verschiedenen Prüfmustern verputzt worden waren: mal nur im Unterputz mit Bioziden, mal auch in Oberputz und Fassadenfarbe. Außer im Freilandversuch wurde das Auswaschungsverhalten auch in einer „Bewitterungskammer“ im Labor ermittelt. Insgesamt 350 Proben haben die Wissenschaftlerinnen analysiert.
Chemikerin Kiefer bestimmte die Menge und Art der Biozide, die im Boden gelandet ist und verschiedene Abbauprodukte. Dann ging es darum, wie sie sich auf das Mikrobiom, die Gemeinschaft der Lebewesen im Boden, auswirken. Dafür wurde untersucht, wie so genannte Standardorganismen reagieren: Algen, Leuchtbakterien, Sedimentwürmer zum Beispiel. Bioanalytikerin Reiß entwickelte eine Methode, um die Mikroorganismen zu markieren. „Wir geben dem Boden den Stoff Bromdesoxyuridin zu. Er ähnelt einem DNA-Baustein und deshalb verwenden ihn Bakterien und Pilze während der Zellteilung als Baustein für die neu gebildete DNA.“ Auf diese Weise konnte sie nachvollziehen, welche Zellteilung betreiben, aktiv sind, welchen es gut geht. Kiefer nickt: „Ich hatte nicht erwartet, dass die Organismen so sensibel reagieren und wir signifikante Effekte feststellen. So viel kommt aus den Fassaden ja gar nicht raus – und wir hatten den Fassadenablauf verdünnt.“
Regulierung, Baustile und Alternativen
Um für den europäischen Markt zugelassen zu werden, muss bei einem Biozid nachgewiesen werden, dass es nicht besonders schädlich ist. Wie sich durch die Kombination verschiedener Biozide („Co-Toxizität“) die Wirkung möglicherweise verändert, wird mit verschiedenen Modellen simuliert. Kiefer glich die Coburger Ergebnisse mit den Modellierungen ab, die für die Zulassung solcher Stoffe eingesetzt werden. Sie entwickelte ein Setup zur experimentellen Validierung, überprüfte spezifische Einflussparameter, kombinierte Modelle und kam zu einem eindeutigen Schluss: „Aktuelle Abschätzungsverfahren spiegeln die realen Effekte nicht wider. Für eine fundierte Gefährdungsbeurteilung für den terrestrischen Lebensraum braucht es weitere Studien.“
Grundsätzlich liefern Daten aus der ökotoxikologischen Forschung Entscheidungsgrundlagen für die Frage, wo eine stärkere Regulierung im Umgang mit solchen Substanzen nötig ist. „Es gibt biozidfreie Alternativen, rein mineralische Putze zum Beispiel“, sagt Kiefer. Reiß zuckt die Schultern: „So wie früher.“ Problematisch sei auch die derzeitige Bauweise: „Jeder möchte diese eckigen Häuser, clean und gerade im Bezug auf die Biozide ist das der worst case. Man kann sich nicht vorstellen, wie sehr ein Dachüberstand die Auswaschung reduziert!“ Kiefer ergänzt, dass auch begrünte Fassaden nicht nur für die Klimabilanz, sondern auch für die Fassade selbst positiv sind. „Aber solche Alternativen sind teurer und den meisten Verbraucherinnen und Verbrauchern ist gar nicht bewusst, dass biozide Verfahren eingesetzt werden.“
Forschungsstand wird auf Fachtagung in Augsburg präsentiert
Das Projekt BayÖkotox wird vom Bayerischen Staatsministerium für Umwelt und Verbruacherschutz gefördert. Das Landesamt für Umwelt (LfU) sammelt und koordiniert die Daten und Ergebnisse von Forschungsgruppen, die sich in verschiedenen Bereichen damit beschäftigen, wie sich Stoffe auf die Umwelt auswirken. Die beiden Coburger Promotionen werden in Kooperation mit den Universitäten Leipzig und Bayreuth durchgeführt. In einem weiteren Projekt befassen sich Coburger Wissenschaftler:innen ebenfalls mit dem Thema: „OMiBiB“ steht für „Optimierung und Minimierung des Biozideinsatzes in Baustoffen“ und wird vom Bayerischen Staatsministerium für Wissenschaft und Kunst gefördert. Die Erkenntnisse beider Projekte werden bei der Biozid-Fachtagung am Donnerstag, 29., und Freitag, 30. Juni in Augsburg vorgestellt. Die Tagung wurde vom Bayerischen Landesamt für Umwelt und dem Institut für Bioanalytik der Hochschule Coburg organisiert. Unter dem Motto „Biozide in Baumaterialien – von wissenschaftlicher Erkenntnis zu praktischen Handlungsmöglichkeiten“ geben nationale und internationale Expert:innen einen Überblick über die Themenschwerpunkte Einsatz, Freisetzung, Bewertung und Vermeidung von Bioziden in Baukomponenten.
Das Ostseeklima im Einfluss des Atlantiks: Neue Erkenntnisse über eine „Fernbeziehung“
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Von der Wassertemperatur bis zum regionalen Wasserkreislauf: der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am Leibniz-Institut für Ostseeforschung Warnemünde ist es gelungen, mithilfe von regionalen Klimamodellen und der statistischen Auswertung von Langzeitbeobachtungen, hinter dem Signal des Klimawandels einen starken Einfluss des Atlantiks auf den Ostseeraum zu identifizieren. Sie untersuchten dafür die Auswirkungen der Atlantischen Multidekadischen Variabilität, einer periodischen Schwankung der Oberflächenwassertemperatur des Nordatlantiks, auf die Ostsee. Die Ergebnisse erschienen jetzt in der renommierten Fachzeitschrift npj Climate and Atmospheric Science.
Der Fußabdruck der von Menschen gemachten Erderwärmung ist mittlerweile fast weltweit nachweisbar, auch auf regionaler Ebene. In Nordeuropa ist zum Beispiel die Beeinträchtigung der Kryosphäre – also aller mit Eis bedeckten Gebiete – durch den Klimawandel eindeutig belegt. Dagegen ist der Einfluss auf den Wasserkreislauf weniger offensichtlich. Worauf lassen sich dann die teilweise drastischen Veränderungen, zum Beispiel bei den Niederschlagsmengen im Ostseeraum, zurückführen?
Schwankungen im regionalen Wasserkreislauf lassen sich in der Ostsee aufgrund ihrer eingeschlossenen Lage besonders gut studieren, denn Veränderungen wirken sich hier direkt auf den Salzgehalt aus. Und Salzgehaltsdaten aus der Ostsee existieren seit dem 19. Jahrhundert. Sie können also über einen langen Zeitraum stellvertretend über die Entwicklung von Niederschlag und Verdunstung im Einzugsgebiet Auskunft geben.
Auf dieser Basis zeigte sich, dass der mittlere Salzgehalt der Ostsee durch eine Schwankung mit einer Periode von ungefähr 30 Jahren gekennzeichnet ist. Markus Meier, Leiter der Arbeitsgruppe „Dynamik regionaler Klimasysteme“ am IOW lieferte nun zusammen mit einem Autorenteam eine Erklärung für diese multidekadische Variabilität der Salinität des Ostseewassers: Die so genannte Atlantische Multidekadische Variabilität (AMV) und ihre Wechselwirkung mit der Nordatlantischen Oszillation (NAO) beeinflussen den Niederschlag über dem Wassereinzugsgebiet und damit den Flusseintrag in die Ostsee: Je höher die Niederschläge, desto stärker der Flusswassereintrag. Beides führt zu einer direkten Verdünnung des Ostseewassers. Vermischungsprozesse im Eingangsbereich der Ostsee sorgen dafür, dass das hier einströmende Nordseewasser ebenfalls verdünnt wird – ein positiver Feedback-Mechanismus, der die multidekadische Variation des Salzgehaltes zusätzlich verstärkt.
„Mit unseren Ergebnissen können Trends, die durch den Klimawandel verursacht werden, von natürlichen Schwankungen getrennt werden. Wir werden zukünftig in der Lage sein, Veränderungen des Salzgehaltes im Laufe von Jahrzehnten vorherzusagen“, fasst Markus Meier zusammen. „Solche Vorhersagen könnten zum Beispiel einem nachhaltigen Fischerei-Management dienen, denn die meisten Fischarten sind an ein spezifisches Salzgehaltsspektrum angepasst. Veränderung führen zu Stress und Vorhersagen von „stressigen“ Jahren würden ein frühzeitiges Gegensteuern ermöglichen.“
Der Einfluss der AMV beschränkt sich aber nicht nur auf den Salzgehalt. Florian Börgel, ebenfalls Wissenschaftler in der AG „Dynamik regionaler Klimasysteme“ am IOW untersuchte, wie sich die AMV auf die Wassertemperatur der Ostsee auswirkt. Er wandte dabei zum ersten Mal eine statistische Methode auf die Ostsee an, die ursprünglich entwickelt wurde, um Variabilitätsmuster im globalen Ozean zu erkennen. Diese so genannte Low-Frequency-Component Analysis (LFCA) ermöglicht es, aus komplexen Datensätzen Schwankungsmuster auf der Skala mehrerer Jahrzehnte herausfiltern.
„Wir haben die Daten der Meeresoberflächentemperatur der Ostsee in den Jahren 1900 – 2008 der LFCA unterzogen und das Ergebnis mit dem Resultat einer solchen Analyse an Beobachtungsdaten aus dem Nordatlantik über den gleichen Zeitraum verglichen“, erläutert Florian Börgel. Sein Fazit: Auf der Skala von Jahren und Jahrzehnten korrelieren die multidekadischen Schwankungen der Meeresoberflächentemperaturen des Atlantiks sehr gut mit denen des Ostseeraums. Dieses Bild verschlechtert sich aber drastisch, wenn man einzelne Jahreszeiten betrachtet: Nur bei den Wintertemperaturen ist ein beträchtlicher Anteil der Schwankungen auf die AMV zurückzuführen. Sie spielt somit auch für die Eisbedeckung in der Ostsee eine besondere Rolle. Im Gegensatz dazu werden die Sommer- und Frühlingstemperaturen nicht durch den Atlantik beeinflusst.
Wissenschaftliche Ansprechpartner:
Dr. Florian Börgel | Tel.: 0381 – 5197 3498 | florian.boergel@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde
Prof. Dr. Markus Meier | Tel.: 0381 – 5197 110 | markus.meier@io-warnemuende.de, Leibniz-Institut für Ostseeforschung Warnemünde
Originalpublikation:
Meier, H.E.M., Barghorn, L., Börgel, F., Gröger, M., Naumov, L., Radtke, H.: Multi-decadal climate variability dominated past trends in the water balance of the Baltic Sea watershed. npj Clim Atmos Sci 6, 58 (2023). https://doi.org/10.1038/s41612-023-00380-9
Börgel, F., Gröger, M., Meier, H.E.M., Dutheil, C., Radtke, H., Borchert, L.: The impact of Atlantic Multidecadal Variability on Baltic Sea temperatures limited to winter. npj Clim Atmos Sci 6, 64 (2023). https://doi.org/10.1038/s41612-023-00373-8
Bergisches Hochwasserschutzsystem 4.0: NRW fördert Hochwasserwarnsystem im Bergischen Land mit 2,8 Mio Euro
Katja Bischof Pressestelle
Bergische Universität Wuppertal
Drohendes Hochwasser entlang von Flüssen früher erkennen und so Leben retten und Schäden vermeiden: Das ist das Ziel eines modernen Hochwasserwarnsystems unter Einsatz Künstlicher Intelligenz, das derzeit auf Initiative der regionalen Wirtschaft im Bergischen Land entwickelt wird.
NRW-Wirtschafts- und Klimaschutzministerin Mona Neubaur übergab in dieser Woche den Förderbewilligungsbescheid über insgesamt 2,8 Millionen Euro zu dem Projekt an Prof. Dr.-Ing. Tobias Meisen vom Lehrstuhl für Technologien und Management der Digitalen Transformation (TMDT) der Bergischen Uni sowie an die weiteren Partner aus dem Projektkonsortium: Heinz Berger Maschinenfabrik, Wupperverband, Bergische Struktur- und Wirtschaftsförderungsgesellschaft, Wuppertaler Stadtwerke und Bergische Industrie- und Handelskammer Wuppertal-Remscheid-Solingen.
Im Rahmen des neuen bergischen Gemeinschaftsprojekts soll eine Künstliche Intelligenz (KI) entwickelt und trainiert werden, die die Vorhersage von Wasserpegeln und Hochwassergefahren für die Region präziser als bisherige Warnsysteme ermöglicht. „Das ‚Hochwasserschutzsystem 4.0‘ erkennt Gefahren präziser als etablierte Warnsysteme und kann somit Alarm schlagen, wenn Gewässer über die Ufer zu treten drohen“, so Dr. Andreas Groß, Geschäftsführer der Berger Gruppe und Initiator des Projekts.
Ministerin Neubaur: „Der Klimawandel wird auch bei uns in Nordrhein-Westfalen immer spürbarer und die Auswirkungen können wie bei der Hochwasserkatastrophe im Sommer 2021 dramatisch sein. Umso wichtiger sind Warnsysteme, die verlässlich und frühzeitig drohende Hochwasserstände erkennen und melden können. Das Projekt ‚Hochwasserschutzsystem 4.0‘ im Bergischen Land zeigt, wie künstliche Intelligenz im Ernstfall dazu beitragen kann, rechtzeitig notwendige Schutzmaßnahmen zu ergreifen und so größere Schäden an Gebäuden und Infrastruktur zu vermeiden. Das schafft langfristige Sicherheit für Unternehmen und stärkt die wichtigen Industriestandorte in unseren Mittelgebirgsregionen.“
Das Warnsystem soll die datengetriebene Vorhersage von regionalen Wasserpegeln und Hochwassergefahren unter Berücksichtigung der aktuellen Wetterlage und sonstiger Umweltfaktoren ermöglichen. Mit digitalen Sensoren werden dafür die Pegelstände an Gewässern, Rückhaltebecken und Kanälen, die Niederschlagsmengen, der Unterwasserdruck, Luftfeuchtigkeit, -druck und -temperatur sowie die Windrichtung und -stärke erfasst. In diesen Daten soll die Künstliche Intelligenz Muster erkennen, die im Zusammenhang mit einem Anstieg der Pegelstände stehen. Damit unterscheidet sich das Projekt von klassischen Vorhersagen auf Basis von Modellen. Informationen zu lokalen Wasserpegeln, Prognosen und Warnungen sollen gefährdeten Unternehmen künftig in Echtzeit über eine Hochwasserschutz-App bereitgestellt werden, die vom Wupperverband entwickelt wird.
Das Vorhaben „Hochwasserschutzsystem 4.0“ ist Teil der Initiative „Flagships powered by KI.NRW“, der Kompetenzplattform des Landes für Künstliche Intelligenz KI.NRW. Bei der Entwicklung der neuen Technologien arbeiten die Projektteilnehmer*innen auch mit dem Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) und weiteren Regionen zusammen. „Das System wird nach einer erfolgreichen Einführung im Bergischen Land allen Regionen in Nordrhein-Westfalen zur Verfügung gestellt“, so Stephan A. Vogelskamp, Geschäftsführer der Bergischen Struktur- und Wirtschaftsförderungsgesellschaft.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Tobias Meisen
Fakultät für Elektrotechnik, Informationstechnik und Medientechnik
Telefon 0202/439 1039
E-Mail meisen@uni-wuppertal.de
DFKI entwickelt KI-Systeme für die flugzeuggestützte Erfassung von Plastikmüll in den Meeren
Simone Wiegand DFKI Niedersachsen
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI
Flugzeuge, die weltweit Gewässer routinemäßig überfliegen, um Verschmutzungen zu überwachen, könnten künftig nicht nur Öl- und Chemieunfälle auf Hoher See, in Küstengewässern und am Strand aufspüren, sondern auch Kunststoffabfälle, die auf der Wasseroberfläche schwimmen. Im Projekt PlasticObs+ arbeitet ein Konsortium unter der Leitung des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) daran, erstmals eine luftgestützte Überwachung größerer, zusammenhängender Meeresgebiete zu entwickeln, die kontinuierlich und nicht wie bisher punktuell Plastik in Gewässern erfasst. Nun liegen erste Ergebnisse vor.
Plastikmüll in Gewässern stellt nach wie vor ein globales, drängendes Umweltproblem dar, da er das Ökosystem Meer und damit eine lebenswichtige Ressource für Menschen und Tiere gefährdet. Rund zehn Millionen Tonnen Plastikmüll landen jährlich in den Weltmeeren. Das entspricht etwa einer Lkw-Ladung pro Minute. Tütenreste, Einwegverpackungen oder Getränkeflaschen sind mittlerweile weltweit zu finden, von der Arktis über die Tiefsee bis zur Nord- und Ostsee.
Müll, der auf der Wasseroberfläche treibt, wurde in der Vergangenheit zwar schon luftgestützt erfasst, aber bisherige Erkenntnisse beruhen im Wesentlichen auf zeitlich und räumlich begrenzten Messungen. Hier setzt das Verbundprojekt PlasticObs+ an. Das langfristige Ziel besteht darin, Überwachungsflugzeuge, die routinemäßig bereits weltweit im Einsatz sind, mit KI-gestützter Sensorik auszustatten und so ein Messsystem zu entwickeln, das die Belastung von Plastikmüll in der Umwelt aus der Luft erfassen kann. Auf diese Weise könnte erstmals eine kontinuierliche und umfassende Bestandsaufnahme umgesetzt werden, die Aufschluss über die Art, Menge und Größe des Abfalls sowie mögliche Verursacherquellen gibt. Das Ergebnis wäre eine wissenschaftliche Basis, um Maßnahmen, Gesetze und Investitionen für die Sammlung, das Recycling und schließlich die Vermeidung von Kunststoffmüll in Gang zu setzen.
Zu den Aufgaben des DFKI, vertreten durch den Forschungsbereich Marine Perception in Oldenburg, gehört die Entwicklung von insgesamt vier KI-Systemen. Die ersten beiden sollen Plastikmüll noch während des Überflugs erkennen und Hotspots näher betrachten. Ein drittes System, das den Müll nach Art, Größe und Menge klassifiziert, kommt später am Boden zum Einsatz. Ein Feedback-System, das menschliche Expertise bei der Betrachtung der Bilder inkludiert, soll schließlich helfen, die ersten Systeme kontinuierlich zu verbessern und deren Vorhersagen zu optimieren.
Testflüge in Norddeutschland
Die Daten für ihre KI-Systeme erhalten die Forschenden des DFKI aus Testflügen in Norddeutschland, die die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth mit ihrem Forschungsflugzeug durchführt. Dabei nimmt ein Sensor unter der Nase des Flugzeugs Übersichtsbilder der Region auf. Darauf muss die KI in Sekundenschnelle Müll-Hotspots erkennen, so dass ein zweiter Sensor, der sich weiter hinten unter dem Rumpf befindet, Detailaufnahmen von diesen macht. Die Herausforderung, sagen die DFKI-Forschenden Mattis Wolf und Dr. Christoph Tholen, bestehe einerseits darin, dass „wir ein großes Gebiet überfliegen und der Übersichtssensor ein niedrig aufgelöstes Bild der Szene aufnimmt, dass andererseits die Auswertung innerhalb von Sekunden aber mit einer hohen Treffsicherheit erfolgen muss“.
Ein erster Test fand im vergangenen Jahr auf der Insel Spiekeroog statt. Das Projekt-Konsortium legte jeweils am Strand und in den Salzwiesen ein Versuchsfeld aus Plastik aus. Diese überflog zunächst eine Drohne in Höhen zwischen 15 und 100 Metern und anschließend das Forschungsflugzeug in Höhen ab 150 bis teilweise 1200 Metern. Das Versuchsfeld bestand aus einer exakten Anordnung verschiedener Plastiksorten wie schwarzen PP-Kaffeedeckeln, PS-weißen und cremefarbenen Lunchboxen sowie LDPE-blauen und transparenten Mülltüten. Das Team fixierte die Behältnisse in unterschiedlich großen Ansammlungen unter Netzen, so dass keine Verwehung stattfinden konnte. Die Kernfrage, die die Forschenden mit der Kampagne beantworten wollten, lautete: Aus welchen Höhen können die Sensoren an der Drohne bzw. dem Flugzeug Plastikmüll sicher erkennen? Die bisherigen Ergebnisse werten Projektleiter Wolf und sein Kollege Tholen positiv, denn „sie zeigten, dass Plastik in den von uns angepeilten Höhen mit zufriedenstellender Genauigkeit erkannt werden kann“.
Es zeigte sich, dass die Farbe und die Größe der Gegenstände sowie der Untergrund eine wichtige Rolle spielten. So konnten auf Gras alle Plastiksorten mit hoher Genauigkeit erkannt werden, mit Ausnahme der schwarzen PP-Kaffeedeckel aus mehr als 700 Metern. Auf Sand nimmt die Genauigkeit bei allen Plastiksorten bei 750 Metern ab, besonders stark betroffen waren hier LDPE-transparent und erneut PP-schwarz.
Heutige OCEANS Konferenz
Diese und weitere Ergebnisse haben die DFKI-Forschenden in einem Paper festgehalten, das sie in diesen Tagen auf der OCEANS Konferenz 2023 in Limerick, Irland, präsentieren. Carolin Leluschko, die an der wissenschaftlichen Publikation ebenfalls mitgewirkt hat, sagt: „Um herauszufinden, wie die KI performt, sind die Bilder aus dem Flugzeug von jeweils fünf Personen unabhängig voneinander untersucht und beschriftet worden, ob sie Plastik enthalten oder nicht.“ Die Genauigkeit der KI betrug 93,3 %, während die Genauigkeit der von Menschen gekennzeichneten Bilder 92,6 % betrug.
Auch wenn das Konsortium bis zum Ende der Laufzeit des Projektes im Frühjahr 2025 noch viel Arbeit vor sich hat, belegen die Zahlen, dass die luftgestützte Fernerkundung in Kombination mit KI-Methoden funktioniert und ein wichtiges Instrument zur Bewältigung des globalen Plastikmüllproblems sein kann. PlasticObs+ steht im Einklang mit politischen Initiativen wie der EU-Meeresstrategie-Rahmenrichtlinie und den UN-Nachhaltigkeitszielen, die darauf abzielen, Verschmutzungen der Meere zu verringern und die Ozeane zu schützen. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) mit 1,9 Millionen Euro über drei Jahre gefördert und ist Teil der BMUV-Förderinitiative KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen.
Neben dem DFKI sind in PlastiObs+ drei weitere Partner beteiligt. Die Jade Hochschule Wilhelmshaven/Oldenburg/Elsfleth setzt ihr speziell für Forschungszwecke konzipiertes Flugzeug ein, das als Messplattform für die Aufnahme von Luftbildern dient. Die Optimare Systems GmbH aus Bremerhaven, deren Kerngeschäft in der Entwicklung und Fertigung von Sensorsystemen und Missionsausrüstungen für die flugzeuggestützte Meeresüberwachung besteht, bringt ein Verfahren ein, welches basierend auf Multisensordaten hochauflösende Detailbilder erzeugt. Darüber hinaus kümmert sich Optimare um die Technik und deren Installation auf einem Flugzeug. Die everwave GmbH, die weltweit Plastikmüll in Gewässern und an Küsten mittels innovativer Müllsammelboote und stationärer Flussplattformen einsammelt, sortiert und recycelt, informiert die Öffentlichkeit und sensibilisiert sie für einen nachhaltigeren Umgang mit Plastik zum Schutz der Ozeane.
Einsatz in Brasilien
Einer der nächsten Schritte im Projekt PlasticObs+ besteht darin, weitere Daten zu sammeln. Dazu hob das Forschungsflugzeug der Jade Hochschule kürzlich erneut von Wilhelmshaven ab und überflog ein Gebiet in Norddeutschland, in dem zuvor Festivals stattgefunden hatten. Weitere Feldtests fanden bei Friedeburg im niedersächsischen Landkreis Wittmund statt, wo die Forschenden, ähnlich wie zuvor auf Spiekeroog, einen künstlichen Müllteppich auf zwei Seen ausgelegt hatten. „Diese Daten nutzen wir zum Trainieren unserer KI-Modelle, die wir anschließend an der deutschen Küste mit dem Forschungsflugzeug testen werden“, erläutert Wolf, der im Projekt u.a. dafür zuständig ist, rechenintensive und langsame tiefe neuronale Netze effizienter zu machen, so dass die KI-Systeme während des Überflugs in Sekundenschnelle zuverlässig Müll-Hotspots finden und erfassen. In einem letzten Schritt sollen die Systeme schließlich in Überwachungsflugzeugen für Ölverschmutzungen eingebaut und getestet werden, voraussichtlich in Brasilien.
DFKI Communications:
Simone Wiegand
Telefon: +49 441 99833 66 12
simone.wiegand@dfki.de
communications-ni@dfki.de
Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer
Wissenschaftliche Ansprechpartner:
DFKI:
Mattis Wolf
Tel.: +49 441 99833 4714
Mattis.Wolf@dfki.de
Dr. Christoph Tholen
Tel.: +49 99833 4721
Christoph.Tholen@dfki.de
everwave GmbH:
Inga Hilbig
Tel.: +49 172 4628695
hilbig@everwave.de
Optimare Systems GmbH:
Dr. Tobias Binkele
Tel.: +49 471 48361–42
tobias.binkele@optimare.de
Jade Hochschule:
Tobias Schmid
Tel.: +49 176 922 560 47
tobias.schmid@jade-hs.de
Prof. Dr.-Ing. Jens Wellhausen
Tel.: +49 4421 985 2961
jens.wellhausen@jade-hs.de
Weitere Informationen:
https://www.dfki.de/web/forschung/projekte-publikationen/projekt/plasticobs-plus
https://www.plasticobs.de/
https://www.dfki.de/web/news-media/news-events/kuenstliche-intelligenz-kann-meer
Wie wirkt das Deutschlandticket?
Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
ARD-Mitmachaktion #besserBahnfahren startet mit Beteiligung von Forschenden der Universität Konstanz und der Hochschule Karlsruhe in die zweite Phase
Welche Erfahrungen haben die Menschen mit Bus und Bahn? Seit dem 1. Mai 2023 läuft die ARD-Mitmachaktion #besserBahnfahren, bei der Teilnehmende ihre Erfahrungen mit dem öffentlichen Nahverkehr mitteilen können. Bislang sind über 2.800 Erfahrungsberichte unter DasErste.de/besserBahnfahren eingegangen. In der nun gestarteten zweiten Phase des Projekts hakt das Wissenschaftsteam von der Hochschule Karlsruhe (Die HKA) und der Universität Konstanz genauer nach.
Wie weit haben es die Fahrgäste zur nächsten Haltestelle? Verfügen sie über ein Auto? Wofür nutzen sie das Deutschlandticket? Und wie hat sich ihr Verkehrsverhalten geändert? Außerdem begleitet die ARD Fahrgäste, die an der Aktion teilnehmen, mit Kamerateams und wird die Ergebnisse im Herbst in einer Doku im Ersten präsentieren. Die ARD erhofft sich daraus aufschlussreiche Erkenntnisse, was konkret geändert werden muss, damit mehr Menschen vom Auto zum ÖPNV umsteigen.
Auswertung der Mitmachaktion
Das Projekt #besserBahnfahren analysiert die Wirkung des Deutschlandtickets. Ausgewertet wird die Crowd-Science-Aktion von Wissenschaftler*innen beider Hochschulen unter Leitung des Verkehrsökologen Jochen Eckart von der HKA und der Gesundheitspsychologin Britta Renner von der Universität Konstanz, die im Rahmen des Baden-Württemberg Institut für nachhaltige Mobilität kooperieren. Die Ergebnisse werden aufbereitet und in verschiedenen Formaten in Fernsehen, Hörfunk und online diskutiert. In der ARD-Doku „Besser Bahnfahren! – Was muss sich ändern?“ geht ein Reporterteam ausgewählten Meldungen nach und spricht mit der Deutschen Bahn darüber.
#besserBahnfahren
Mit dem Start des bundesweiten Deutschlandtickets am 1. Mai will das ARD-Projekt #besserBahnfahren herausfinden, wie der Verkehr in Zukunft gestaltet werden kann, damit er klimafreundlicher wird und die Menschen dennoch mobil bleiben. Der von Jochen Eckart und Britta Renner entwickelte Fragebogen will erfahren, wie oft der ÖPNV genutzt wird und ob dafür das Deutschlandticket gekauft wurde.
In der aktuellen zweiten Befragungsrunde soll herausgefunden werden, ob sich mit dem Deutschlandticket etwas geändert hat, ob die Einführung der ÖPNV-Fahrkarte zu Verhaltensänderungen bei der Mobilität geführt hat und welche Rolle dabei Preisgestaltung, Flexibilität und Taktung im öffentlichen Nahverkehr spielen.
Bis Ende Juli können noch eigene Erfahrungen und Erlebnisse eingereicht werden unter DasErste.de/besserBahnfahren. Im Anschluss werden die ausgewerteten Ergebnisse in Fernsehen, Hörfunk und online vorgestellt.
Faktenübersicht:
• ARD-Mitmachaktion #besserBahnfahren mit Beteiligung der Gesundheitspsychologin Britta Renner von der Universität Konstanz, des Verkehrsökologen Jochen Eckart von der Hochschule Karlsruhe und des Baden-Württemberg Instituts für Nachhaltige Mobilität an der HKA
• Hochschule Karlsruhe und Universität Konstanz sind im Rahmen des Baden-Württemberg Instituts für Nachhaltige Mobilität gemeinsam an der wissenschaftlichen Auswertung beteiligt
• #besserBahnfahren analysiert die Wirkung des Deutschlandtickets
• Mitmachen unter: DasErste.de/besserBahnfahren
• Die Mitmachaktion wird unterstützt von Pro Bahn, Deutsche Bahn, Allianz pro Schiene, Greenpeace, BUND, den Verbraucherzentralen und Verkehrsclub Deutschland (VCD).
• Weitere Infos und Videomaterial unter: http://swr.li/besserbahnfahren-ard-mitmachaktion-startet-in-zweite-phase und DasErste.de/besserBahnfahren
Das Fernwärmenetz der Zukunft – Projekt TeoS
Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Unser Fernwärmenetz gleicht einem Wimmelbild. Ein Bild, das jetzt noch mehr Details bekommt, denn dieses Netz soll künftig weitgehend ohne fossile Brennstoffe arbeiten. Es gilt, ein ausgeklügeltes, effizientes System zu entwickeln, dabei die Vorlauftemperaturen zu senken und emissionsfreie Erzeugungskapazitäten zu errichten. Immer mit der Maßgabe, dass auch der letzte Anschluss die vertraglich zugesicherte Leistung erhält. Dies erfordert hochkomplexe Berechnungen und Ingenieurskunst. Genau diese Expertise bringt das neue Projekt TeoS* zusammen – unter der Leitung der Universität Duisburg-Essen (UDE).
Gemeinsam mit dem Fernwärmenetzbetreiber BTB in Berlin und der Fernwärme Duisburg GmbH erforscht der Lehrstuhl Energietechnik der UDE, wie ein solches Netz möglichst klimafreundlich versorgt werden kann. Dafür werden die bestehenden Netze in Duisburg und Berlin modelliert und um potenzielle, erneuerbare Energiequellen (EE) ergänzt – etwa Wärmepumpen, Geothermie, Solarthermie.
„Unser Lehrstuhl beschäftigt sich seit mehreren Jahren mit komplexen Modellen der Wärmenetze und Energieerzeugung – trotzdem ist TeoS mit den großen Datenmengen aus Duisburg und Berlin eine neue Herausforderung für uns. Wir werden etliche Monate brauchen, um die zahlreichen Szenarien mit der Netzberechnung und der Simulation der Erzeugungsseite zu verknüpfen“, erklärt Projektkoordinator Dr. Jürgen Roes. Die Standorte werden hinsichtlich Geodaten, städtebaulicher Gegebenheiten und nutzbarer industrieller Abwärme analysiert. Auch Wetterlagen und die Preisentwicklung spielen in Teilprojekten eine Rolle.
Es kann durchaus sein, dass neue Anlagen errichtet werden müssen, möglicherweise werden auch hydraulische Modifikationen erforderlich, um eine unterbrechungsfreie Versorgung zu gewährleisten. Das UDE-Team betrachtet emissionsarme Anlagen wie Großwärmepumpen, die Wärme aus Flüssen wie dem Rhein beziehen, oder die Tiefengeothermie, die es gerade in einem anderen Projekt für Düsseldorf und Duisburg untersucht.
Das Ziel des Ganzen ist ein Instrument, das ein künftiges Netz detailgenau simuliert, kritische Punkte identifiziert und dabei verschiedene Erzeugungsfälle berücksichtigt. Die verschiedenen Rahmenbedingungen sollen auch zeigen, wie sich möglichst viel CO2 einsparen lässt. „Nur so kann das Fernwärmenetz der Zukunft bedarfsgerecht und belastbar geplant werden“, unterstreicht Roes.
* TeoS steht für Technologieoffene Energiesystemanalyse zur Ableitung von Handlungsmaßnahmen für die Dekarbonisierung urbaner Wärmenetze. Gefördert wird das zunächst zweijährige Projekt vom Bundesministerium für Wirtschaft und Klimaschutz mit rund 800.000 Euro, wovon knapp 500.000 Euro auf den Lehrstuhl Energietechnik der UDE entfallen.
Wissenschaftliche Ansprechpartner:
Dr. Jürgen Roes, Energietechnik, Tel. 0203/37-93010, juergen.roes@uni-due.de
Heizen und Kochen: Klimabilanz von Erdgas oft schlechter als bisher angenommen
Andreas Schmitz Corporate Communications Center
Technische Universität München
– Neuberechnung bezieht Gaslecks und unvollständige Gasverbrennung mit ein.
– Elektrizität kann klimafreundlichere Alternative zum Kochen und Heizen sein.
– Anteil der Erneuerbaren Energien im Strommix ist entscheidend.
Das Heizen und Kochen mit Erdgas ist oft klimaschädlicher als bisher gedacht. Dies ergibt ein neues Berechnungsmodell, das Forschende der Technischen Universität München (TUM) entwickelt haben. Das Besondere: Es bezieht auch die gewaltigen Gasmengen mit ein, die ungenutzt in die Atmosphäre entweichen.
„Wir wollten wissen, ob es – auch unter Berücksichtigung der Gasleckagen – klimafreundlicher ist, Gas für das Heizen und Kochen zu nutzen oder Elektrizität“, erläutert Dr. Florian Dietrich, Wissenschaftler im Bereich für Umweltsensorik und Modellierung an der TUM. Gemeinsam mit Forschenden der ETH Zürich, der Universität Utrecht und der Niederländischen Organisation für Angewandte Naturwissenschaftliche Forschung TNO hat das internationale Team eine Hightech-Messstation für die Erfassung von Kohlendioxid, Methan und Kohlenmonoxid sowie Laserspektrometer für Vor-Ort-Messungen von Methan genutzt und alle Variablen in dem eigens entwickelten Berechnungsmodell zusammengeführt. Die Ergebnisse wurden in einem Peer-Review-Verfahren publiziert und bestätigt.
Unvollständig verbranntes Erdgas wichtig für die Klimabilanz
Auf dem Oktoberfest 2019 beispielsweise, so fanden die Forschenden heraus, ging 1,4 Prozent des damals eingesetzten Gases verloren. Bei einer Gasmenge von über 185.000 Kubikmetern entwichen also 2.500 Kubikmeter Gas in die Umgebung. „Das entwickelte Berechnungsmodell bezieht diese Mengen an entwichenem Erdgas mit ein und liefert einen umfassenden Emissionsfaktor für die Verwendung von Erdgas zum Kochen und Heizen“, erläutert Wissenschaftler Dietrich.
Erneuerbare Energien im Strommix senken den Emissionsfaktor
Um entscheiden zu können, ob Erdgas oder Elektrizität die klimafreundlicher ist, muss man jedoch auch auf den verwendeten Strommix schauen: „Ein hoher Anteil erneuerbarer Energien senkt den Emissionsfaktor für Elektrizität erheblich, während z.B. die Verwendung von Kohlestrom den gegenteiligen Effekt hat“, so Dietrich. Die Forschenden haben all diese Faktoren in ihr Berechnungsmodell miteinfließen lassen und können so quantitative Rückschlüsse ziehen, für welche Nationen Strom bereits heute die klimafreundlichere Alternative zu Erdgas ist und welche Anstrengungen die anderen Nationen noch unternehmen müssen, um diesen Punkt zu erreichen.
Für alle 25 untersuchten Nationen wird dabei deutlich: „Durch die Einbeziehung der Leckagen und unvollständigen Verbrennungen wird insgesamt ein geringerer Anteil an erneuerbaren Energiequellen im Strommix benötigt, als bisher angenommen“, fasst die Professorin für Umweltsensorik und Modellierung Jia Chen zusammen, die zudem Leiterin des Innovationsbereichs Umwelt im Robotik- und KI-Institut MIRMI der TUM ist. Es ist also für die meisten Nationen bereits deutlich früher möglich, aus Aspekten des Klimaschutzes auf Elektrizität anstelle von Gas zu setzen.
Kanada mit klarer Empfehlung für Elektrizität
Auf einzelne Staaten geblickt heißt das, dass beispielsweise Kanada mit seinem hohen Anteil an Wasserkraft aus reinen Klimaschutzgründen bereits heute fürs Heizen und Kochen komplett auf Elektrizität setzen könnte. In China sieht es anders aus: Denn die Kohleverbrennung dominiert dort im Strommix, so dass durch die Verwendung von Elektrizität bei identischer Energiemenge mehr Kohlenstoff ausgestoßen wird als bei der Verbrennung von Erdgas.
Für Deutschland gibt es derzeit trotz des stark zunehmenden Anteils an Wind- und Solarenergie noch keine klare Empfehlung für Elektrizität. Damit befindet sich Deutschland noch in breiter „Gesellschaft“: Für 18 von 25 betrachteten Staaten ist Elektrizität im Vergleich mit Gas aktuell noch nicht klimafreundlicher, darunter Staaten wie Spanien, Italien, die Niederlande, Japan und Australien. Ein Blick auf die Diagramme der TUM-Forschenden zeigt jedoch deutlich, dass für viele der untersuchten Nationen Elektrizität schon bald die klimafreundlichere Alternative sein wird, da kontinuierlich in den Ausbau erneuerbarer Energien investiert wird.
Weitere Informationen
• In einem Presserundgang am 27. Juni 2023 auf der Messe Automatica in München, von 11:30 bis 12:30, Halle 4/329 bekommen Vertreter von Medien neu entwickelte Demos aus den Bereichen Gesundheit, Mobilität, Umwelt und Arbeit zu sehen – unter anderem auch eine Demo von Prof. Jia Chen. Akkreditierung über andreas.schmitz@tum.de.
• Auf der Messe Automatica vom 27. bis 30. Juni 2023 finden Sie zudem über 30 Demonstrationen von Forschungsarbeiten zum Thema Robotik und KI in Halle B4 im Bereich AI-Society. Hier geht es zur Übersicht
• Für diese Forschungsarbeit kamen unter anderem folgende Technologien aus dem Bereich für Umweltsensorik und Modellierung von Prof. Jia Chen sowie der Universität Utrecht und TNO und der Bioscience-Firma LI-COR zum Einsatz:
o MUCCnet-Stationen: Die Hightech-Messstation auf dem Dach des TUM-Forschungsbereiches zeigten zu Zeiten des Oktoberfests einen starken Anstieg der Methankonzentrationen. Dies war für die Wissenschaftler der Auslöser dafür, die Methanemissionen bei Verbrennungsprozessen mit Erdgas näher zu untersuchen.
o Laserspektroskopie: Zusätzlich zu diesen Messungen schickten Prof. Chen und Dr. Dietrich Studierende mit einem Laserspektrometer im Rucksack auf das Oktoberfestgelände. Diese präzisen Gasmessungen vor Ort bestätigten den Verdacht, dass ein Event wie das Oktoberfest, auf dem eine große Menge der Energie durch Erdgas bereitgestellt wird, eine starke Methanquelle darstellt.
o Durch zusätzlich durchgeführte Messungen des Isotopen- sowie des Ethan-Methan-Verhältnisses ließ sich auch ermitteln, welche Mengen an Methan durch Lecks und unvollständige Verbrennung entweichen.
• Prof. Jia Chen ist Professorin für Umweltsensorik und Modellierung an der TUM und Leiterin des Innovationsbereiches Umwelt im Munich Institute of Robotics and Machine Intelligence (MIRMI). Mit dem von Executive Director Prof. Sami Haddadin geführten MIRMI hat die TUM ein integratives Forschungszentrum geschaffen, in dem inzwischen über 70 Professor:innen der TUM und ihre Teams mithilfe von Robotik und künstlicher Intelligenz neue Lösungsansätze etwa in der Medizin, in Fabriken und in der Pflege erforschen. Weitere Informationen finden Sie unter https://www.mirmi.tum.de/.
Wissenschaftliche Ansprechpartner:
Prof. Jia Chen
Lehrstuhl für Umweltsensorik und Modellierung
Technische Universität München (TUM)
jia.chen@tum.de
Originalpublikation:
Dietrich, F., Chen, J., Shekhar, A., Lober, S., Krämer, K., Leggett, G., Van der Veen, C., Velzeboer, I., Denier van der Gon, H., Röckmann, T. (2023). Climate impact comparison of electric and gas-powered end-user appliances. Earth’s Future, 11, e2022EF002877. https://doi.org/10.1029/2022EF002877
Weitere Informationen:
http://Fotos zum Download: http://go.tum.de/857097
Ärmere Alleinlebende von Teuerung erneut am stärksten belastet
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Neue Daten des IMK Inflationsmonitors
Die Inflationsrate in Deutschland ist im Mai spürbar gesunken, war mit 6,1 Prozent aber immer noch sehr hoch. Deutlich überdurchschnittlich von der Teuerung belastet sind weiterhin Alleinlebende mit niedrigen Einkommen. Sie hatten im Mai eine Inflationsrate von 6,9 Prozent zu tragen, die höchste im Vergleich verschiedener Haushaltstypen. Dagegen verzeichneten Alleinlebende mit sehr hohen Einkommen eine Teuerungsrate von 5,4 Prozent – und wie schon seit Anfang 2022 die niedrigste haushaltsspezifische Belastung.
Die soziale Spreizung bei der Inflation betrug damit 1,5 Prozentpunkte, nachdem es im April 1,9 Prozentpunkte waren. Dass ärmere Haushalte besonders stark durch die Inflation belastet sind, liegt daran, dass Nahrungsmittel und Haushaltsenergie in ihren Warenkörben ein sehr hohes Gewicht haben. Diese Güter des Grundbedarfs sind nach wie vor die stärksten Preistreiber: Im Mai war ihr Beitrag zur allgemeinen Inflation noch sieben Mal (bei Nahrungsmitteln) beziehungsweise neunmal (Haushaltsenergie) so groß wie im langjährigen Mittel. Im Vergleich der letzten Monate hat die Preisdynamik bei Nahrungsmitteln und Haushaltsenergie aber nachgelassen, weshalb die haushaltsspezifischen Raten nun weniger weit auseinanderliegen als zuvor. Das ergibt der neue IMK Inflationsmonitor des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung.*
Die IMK-Inflationsexpertin Dr. Silke Tober und IMK-Direktor Prof. Dr. Sebastian Dullien berechnen mit dem IMK Inflationsmonitor seit Anfang 2022 jeden Monat die spezifischen Teuerungsraten für neun repräsentative Haushaltstypen. Am größten war die soziale Differenz bei den Inflationsraten bislang im Oktober 2022 mit 3,1 Prozentpunkten.
Eine leicht überdurchschnittliche Teuerungsrate mussten im Mai auch Familien mit niedrigen Einkommen schultern (6,2 Prozent). Sie hatten zwischen Februar 2022 und Februar 2023 durchgehend die höchste Inflationsbelastung unter allen Haushaltstypen aufgewiesen, in den ersten beiden Monaten 2023 zusammen mit einkommensarmen Alleinlebenden. Dass die ärmeren Familien nun nicht mehr so stark hervorstechen, beruht auf zuletzt deutlich rückläufigen Kraftstoffpreisen. Diese schlagen sich rechnerisch im Ausgabenportfolio von Familien spürbar nieder. Arme Alleinstehende besitzen hingegen selten ein Auto, weshalb ihre Inflationsrate davon weniger beeinflusst wird.
Die übrigen untersuchten Haushaltstypen lagen im Mai bei oder knapp unterhalb der allgemeinen Inflationsrate von 6,1 Prozent. Ersteres gilt für Alleinerziehende, für Alleinlebende und für kinderlose Paare mit jeweils mittleren Einkommen. Bei Familien mit mittleren und mit hohen Einkommen sowie bei Alleinlebenden mit höheren Einkommen schlug die Inflation mit jeweils 5,9 Prozent zu Buche (siehe auch die Informationen zur Methode unten und die Abbildung in der pdf-Version dieser PM; Link unten).
Trotz des nachlassenden Drucks bei den Preisen für Haushaltsenergie und Lebensmitteln spielen diese Kostenfaktoren für Haushalte mit niedrigeren Einkommen weiterhin eine besonders große Rolle, wie der Detailvergleich zeigt. Bei ärmeren Alleinlebenden trugen sie im Mai 4,7 Prozentpunkte zu 6,9 Prozent haushaltsspezifischer Inflationsrate bei. Bei Familien mit zwei Kindern und niedrigeren Einkommen summierten sie sich auf 4,4 Prozentpunkte, bei Familien mit mittleren Einkommen immerhin noch auf 3,3 Prozentpunkte. Das Problem wird vor allem für Haushalte mit niedrigen Einkommen dadurch verschärft, dass die Alltagsgüter, die sie vor allem kaufen, kaum zu ersetzen sind und viele nur geringe finanzielle Rücklagen haben.
Bei Alleinlebenden mit sehr hohen Einkommen trugen Nahrungsmittel und Haushaltsenergie hingegen lediglich 1,9 Prozentpunkte zur Inflationsrate von 5,4 Prozent bei. Bei ihnen wie den Haushalten mit höheren Einkommen waren dagegen beispielsweise die deutlich gestiegenen Preise für Wohnungsinstandhaltung, Restaurantbesuche und Übernachtungen oder Reisen ein spürbarer Faktor bei der spezifischen Teuerung.
Für die kommenden Monate erwarten die Fachleute des IMK, dass die starken Preisschübe als Folge der Pandemie und des Überfalls Russlands auf die Ukraine weiter auslaufen. Mittlerweile sinkt auch die sogenannte Kernrate der Inflation – die Teuerung ohne Energie und Nahrungsmittel –, wenn auch langsamer als die Inflationsrate insgesamt. Das liegt daran, dass die Energiepreise die Produktions- und Transportkosten nahezu aller Güter und Dienstleistungen beeinflussen, was aber sowohl beim Anstieg als auch beim Rückgang zeitversetzt geschieht.
Insgesamt werde die Inflation „bei hinreichendem Wettbewerb in den kommenden Monaten auch ohne weitere Zinserhöhungen der Europäischen Zentralbank weiter sinken, und es sind teilweise auch Preisrückgänge zu erwarten“, schreiben Tober und Dullien. Die Forschenden gehen davon aus, dass der Rückgang des Preisdrucks unterstützt wird „durch die Auflösung noch vorhandener Lieferengpässe und eine Verringerung der teilweise überhöhten Gewinnmargen“, die etliche Unternehmen im Windschatten der allgemein starken Preissteigerungen aufgeschlagen haben. „Beides dürfte die Wirkung der etwas stärkeren Lohnentwicklung kompensieren, so dass die Inflationsrate spätestens im Verlauf von 2024 wieder in der Nähe des Inflationsziels der EZB von zwei Prozent liegen dürfte.“
– Informationen zum Inflationsmonitor –
Für den IMK Inflationsmonitor werden auf Basis der Einkommens- und Verbrauchsstichprobe (EVS) des Statistischen Bundesamts die für unterschiedliche Haushalte typischen Konsummuster ermittelt. So lässt sich gewichten, wer für zahlreiche verschiedene Güter und Dienstleistungen – von Lebensmitteln über Mieten, Energie und Kleidung bis hin zu Kulturveranstaltungen und Pauschalreisen – wie viel ausgibt und daraus die haushaltsspezifische Preisentwicklung errechnen. Die Daten zu den Haushaltseinkommen stammen ebenfalls aus der EVS. Im Inflationsmonitor werden neun repräsentative Haushaltstypen betrachtet: Paarhaushalte mit zwei Kindern und niedrigem (2000-2600 Euro), mittlerem (3600-5000 Euro), höherem (mehr als 5000 Euro) monatlichem Haushaltsnettoeinkommen; Haushalte von Alleinerziehenden mit einem Kind und mittlerem (2000-2600 Euro) Nettoeinkommen; Singlehaushalte mit niedrigem (unter 900 Euro), mittlerem (1500-2000 Euro), höherem (2000-2600 Euro) und hohem (mehr als 5000 Euro) Haushaltsnettoeinkommen sowie Paarhaushalte ohne Kinder mit mittlerem Haushaltsnettoeinkommen zwischen 3600 und 5000 Euro monatlich. Der IMK Inflationsmonitor wird monatlich aktualisiert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sebastian Dullien
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Sebastian-Dullien@boeckler.de
Dr. Silke Tober
IMK-Expertin für Geldpolitik
Tel.: 0211-7778-336
E-Mail: Silke-Tober@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
Sebastian Dullien, Silke Tober: IMK Inflationsmonitor – Inflationsunterschiede zwischen Haushalten im Mai 2023 deutlich geringer. IMK Policy Brief Nr. 152, Juni 2023. Download: https://www.boeckler.de/de/faust-detail.htm?sync_id=HBS-008634
Die PM mit Abbildung (pdf): https://www.boeckler.de/pdf/pm_imk_2023_06_16.pdf
Charité übernimmt Vorsitz der Allianz führender europäischer Universitätskliniken EUHA
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie kann eine Gesundheitsversorgung in der Zukunft aussehen? Werden Mediziner:innen mit künstlicher Intelligenz Diagnosen stellen? Nutzen Ärzt:innen Big-Data-Analysen, um Krankheitsverläufe im Voraus zu bestimmen? Bleiben wir dank modernster Vorsorge länger gesund? Heute hat die Charité – Universitätsmedizin Berlin in London die Präsidentschaft der European University Hospital Alliance (EUHA) für die kommenden Monate übernommen. Ganz oben auf der gesundheitspolitischen Agenda: die nachhaltige Gestaltung der Gesundheitssysteme in Europa, damit sie dem demografischen Wandel, einer voranschreitenden Digitalisierung und dem erheblichen Mangel an Fachpersonal gerecht werden können.
In London sind Führungskräfte und Expert:innen der EUHA zur halbjährlichen Mitgliederversammlung und einem Symposium mit dem Titel „Rethinking European Health Systems: Creating the Sustainable Health Workforce of the Future“ zusammengekommen. Was sie bewegt, ist die Dringlichkeit einer Reform der europäischen Gesundheitssysteme. Fast alle Länder Europas stehen vor der Herausforderung, eine alternde Bevölkerung zu versorgen. In fast allen Ländern fehlt Personal, mangelt es an Ressourcen, kommt es zu Engpässen. Unterdessen entstehen beinahe täglich, insbesondere im Umfeld der Universitätsmedizin, neuartige Konzepte zur Versorgung von Patient:innen oder tragen Erkenntnisse der biomedizinischen Forschung zu innovativen Therapieansätzen bei.
Wie also lassen sich die europäischen Gesundheitssysteme unter diesen Voraussetzungen zukunftssicher aufstellen? Wie können Arbeitskräfte gewonnen und bestmöglich ausgebildet werden? Kann ein langes Erhalten von Gesundheit durch neuartige Präventionskonzepte der Schlüssel zu einer bestmöglichen Versorgung aller sein? „Diese drängenden Fragen gilt es anzugehen“, sagt Prof. Dr. Heyo K. Kroemer, Vorstandsvorsitzender der Charité. „Die COVID-19-Pandemie hat einmal mehr den Handlungsbedarf aufgezeigt: Wir müssen europaweit gemeinsame Standards in der Gesundheitsversorgung erarbeiten, Kooperationen in der biomedizinischen Forschung stärken und gemeinsam ein Konzept für die Ausbildung der Mediziner:innen und Gesundheitsfachkräfte von morgen entwickeln. Dabei ist eine Bündelung von Ressourcen wichtig, denn nur so können wir den Herausforderungen mit innovativen Ansätzen begegnen.“
Charité löst King’s Health Partners ab
Mit ihrer Verantwortung für die Versorgung von Patient:innen, für Forschung und Ausbildung kommt Universitätskliniken eine besondere Rolle in dem notwendigen Transformationsprozess zu. Mit dem heutigen Tag übernimmt die Charité den Vorsitz der EUHA und damit die Federführung für diesen Prozess in den kommenden Monaten. Sie löst das Londoner Universitätsklinikum King’s Health Partners ab und wird die aktuellen Themen gemeinsam mit dem schwedischen Karolinska University Hospital angehen, da sie von besonderer Tragweite sind. Das Karolinska University Hospital wird im November die darauffolgende Präsidentschaft antreten.
„Das Ziel unserer Präsidentschaft ist es, die Plattform der EUHA zu nutzen und zu erweitern, damit wir in Europa einerseits besser auf zukünftige Herausforderungen vorbereitet sind, beispielsweise auf neue Infektionskrankheiten oder Krisenfälle, und andererseits voneinander lernen, um unsere Gesundheitssysteme zukunftssicher aufzustellen“, sagt Prof. Kroemer. Das betrifft in besonderem Maße den Bereich Digital Health und den Aufbau eines gemeinsamen European Health Data Space, damit Gesundheitsdaten länderübergreifend für Versorgung und Forschung nutzbar werden. Es gehe darum, die Systeme und Strukturen europaweit auszubauen und intelligente Tools zu entwickeln: „Im digitalen Zeitalter muss das Gesundheitswesen zugunsten medizintechnischer Neuerungen und einer patientenzentrierten Medizin befähigt werden, große Mengen an klinischen Daten konsequent verarbeiten und damit auch nutzen zu können“, so der Vorstandsvorsitzende der Charité. Wie dies umgesetzt werden kann, damit beschäftigt sich das Digital Health and Data Network der EUHA, eine Arbeitsgruppe unter Charité-Leitung, die vor vier Jahren gegründet wurde.
Neue Ansätze aus EUHA-Gruppen und -Netzwerken
Den aktuellen Herausforderungen des Fachkräftemangels stellt sich unter anderem das 2021 ins Leben gerufene und an der Charité koordinierte Nursing Network der EUHA. Neben einer Vertretung der Interessen der Pflegenden auf europäischer Ebene stehen die Entwicklung gemeinsamer Ausbildungs- und Weiterbildungsprogramme und ein Austauschprogramm für Mitarbeitende im Vordergrund. Zu den innovationstreibenden Kräften der EUHA gehört neben vielen weiteren Aktivitäten auch das European Center for Gene & Cellular Cancer Therapies (EUCCAT), an dem die Charité und das Berlin Institute of Health in der Charité (BIH) maßgeblich beteiligt sind. Das virtuelle Institut strebt es an, neuartige Krebstherapien erschwinglich und zugänglich zu machen. Dazu führt es Grundlagenforschung, Einrichtungen zur Herstellung von Arzneimitteln, Kapazitäten für klinische Studien und Umsetzungswissen zusammen. Perspektivisch soll damit Europas Wettbewerbsfähigkeit auf dem Gebiet von Forschung und Entwicklung sowie klinischer Anwendung von Zell- und Gentherapien gestärkt werden.
„Die Entwicklung innovativer Therapien, sogenannte Advanced Therapy Medicinal Products (ATMPs), eine stärkere Berücksichtigung der Interessen von Patientinnen und Patienten durch das Erheben von Patient-Reported Outcome Measures (PROMs) und neue Ansätze, die dazu beitragen, exzellentes Personal zu gewinnen und binden, das sind neben der Digitalisierung Kernthemen, die die Zukunft der europäischen Universitätskliniken bestimmen werden“, befindet Prof. Kroemer. „Für den Austausch von Informationen und Best Practice ist die EUHA eine exzellente Plattform. Den Aktivitäten zum Erfolg zu verhelfen, dafür wird sich die Charité im Zuge ihrer Präsidentschaft einsetzen und Kontakte zu den Institutionen der Europäischen Union sowie anderen internationalen Organisationen weiter ausbauen.“
Über die EUHA
Die European University Hospital Alliance besteht aus zehn führenden europäischen Universitätskliniken mit nachgewiesener Exzellenz in Gesundheitsversorgung, Bildung und Forschung: Aarhus University Hospital, Dänemark; Assistance Publique – Hôpitaux de Paris, Frankreich; Charité – Universitätsmedizin Berlin, Deutschland; Erasmus MC, Rotterdam, Niederlande; Ospedale San Raffaele, Mailand, Italien; Universitätsklinik Karolinska, Stockholm, Schweden; King’s Health Partners, London, Vereinigtes Königreich; UZ Leuven, Löwen, Belgien; AKH Wien & MedUni Wien, Österreich; Krankenhaus Campus Vall d’Hebron Barcelona, Spanien. Die Institutionen arbeiten zusammen, um die Versorgung von Patient:innen jetzt und in Zukunft zu verbessern. Dabei haben alle Mitglieder eine Kapazität von mehr als 1.000 Krankenbetten, sie sind Exzellenzzentren in der Forschung und nationale Referenzzentren. Sie decken die bestehenden europäischen Referenznetzwerke (ERNs) ab. Das Motto „Leading by Doing“ steht für die Absicht, kompetenter Berater auf europäischer Ebene zu sein und innovative Lösungen für zentrale Herausforderungen im europäischen Gesundheitswesen zu entwickeln.
Weitere Informationen:
https://www.euhalliance.eu/ EUHA-Webseite
https://www.charite.de/index.php?id=30276849 Die European University Hospital Alliance (EUHA) an der Charité
Die Energiewende in Deutschland auf einen Blick: Ariadne‐Tracker prüft Fortschritt auf dem Weg zur Klimaneutralität
Sarah Messina / Kopernikus-Projekt Ariadne Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Um 2045 klimaneutral zu sein, muss das Energiesystem in einem nie dagewesenen Tempo umgebaut werden. Ob die Energiewende in Deutschland auf Kurs ist, zeigt jetzt der neue Transformations‐Tracker des Kopernikus‐Projekts Ariadne auf einen Blick. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) setzt der Tracker die Entwicklung von mehr als 40 konkreten Schlüsselindikatoren ins Verhältnis zu den Zielpfaden der Ariadne‐Szenarien zur Klimaneutralität – vom Gesamtsystem, über die Energiewirtschaft bis in die einzelnen Sektoren Gebäude, Verkehr und Industrie.
„Unsere Analysen zeigen: Um auf Kurs zur Klimaneutralität zu kommen, geht es mit den Fortschritten der Energiewende in den meisten Bereichen zu langsam voran“, sagt Gunnar Luderer, Vize-Leiter des Ariadne-Projekts und Szenarien-Experte des Potsdam-Instituts für Klimafolgenforschung (PIK). „Vor allem bei Neuanschaffungen muss massiv umgesteuert werden, um den Weg zur Klimaneutralität nicht zu verbauen“. Wo es schon läuft, aber auch, wo es noch hakt, zeigt der Transformations-Tracker anhand von Geschwindigkeits-Tachometern. Derzeit stehen diese erst in den wenigsten Fällen auf Erfolg.
Neben Kennzahlen der letzten drei Jahre zu Emissionen und dem Ausbau von Windenergie, Photovoltaik & Co gehören zu den berücksichtigten Indikatoren auch jene Signale, die den Ausstieg aus der Nutzung von Kohle, Öl und Gas verfolgen. Auch inwiefern Investitionen in Autos, Heizungssysteme und Industrieanlagen mit den langfristigen Klimazielen vereinbar sind, fließt also in den Transformations-Tracker mit ein. Denn gerade bei den langlebigen Investitionsgütern zeigt sich, dass noch viel zu tun ist. Neue Benziner oder Diesel fahren im Schnitt 18 Jahre auf den Straßen, neue Gasheizungen sind 15-25, teils sogar 30 Jahre in Betrieb. Die fossile Zukunft wird hier also bei Kaufentscheidungen mitunter gleich mitbestellt.
+++ Achtung Sondereffekt! Vorsicht bei der Formel für den Fortschritt +++
Auch bei den Erfolgen lohnt es sich, genauer hinzuschauen. Jüngste Ereignisse wie die Corona-Pandemie oder die Energiekrise haben auf die Indikatoren einen starken Einfluss. Manch ein „Fortschritt“ auf dem Weg zur Klimaneutralität ist deshalb nicht der notwendigen strukturellen Transformation geschuldet, sondern geht lediglich auf kurzfristig wirkende Entwicklungen zurück. Diese im Tracker gekennzeichneten „Sondereffekte“ sollten deshalb mit Vorsicht interpretiert werden, so die Fachleute. Denn Emissionen, die etwa im Zuge der Pandemie durch das Herunterfahren der Industrieproduktion oder weniger Verkehr auf den Straßen gesunken sind steigen nach der Pandemie wieder an.
“Dass viele vermeintlich günstige Entwicklungen der letzten Jahre Folge der Corona-Pandemie und der Energiekrise sind, ist zunächst ernüchternd“, ergänzt Frederike Bartels vom PIK. „Umso mehr gilt es, auf dem aktuellen Bewusstsein für Energiefragen jetzt aufzubauen und strukturelle Veränderungen bei zukünftigen Investitionen oder individuellem Verhalten anzustoßen, die dann einen nachhaltigen Nutzen für den Weg zur Klimaneutralität haben”.
+++ Die Energiewende ist kein Selbstläufer: Ariadne-Szenarien als Frühwarnsystem für Kurskorrekturen +++
Der Ariadne-Tracker kann so als Frühwarnsystem der Energiewende aufzeigen, wo die Knack- und Knirschpunkte liegen und die praktische Umsetzung nicht zu den Notwendigkeiten der gesetzten Klimaziele passt. Geleitet vom Potsdam-Institut für Klimafolgenforschung unter Mitwirkung von Ariadne-Fachleuten des Instituts für Energiewirtschaft und Rationelle Energieanwendung der Universität Stuttgart, des Fraunhofer-Instituts für Solare Energiesysteme, des DLR-Instituts für Verkehrsforschung und des Fraunhofer-Instituts für System- und Innovationsforschung baut der Transformations-Tracker auf die im Ariadne-Projekt entstandenen Szenarien auf, die verschiedene Transformationspfade zur Klimaneutralität 2045 beschreiben. Diese Transformationspfade umfassen das gesamte Energiesystem und die Sektoren Industrie, Gebäude und Verkehr und integrieren im Modellvergleich Gesamtsystem- und Sektormodelle. So können detaillierte Energiewendepfade analysiert werden, um robuste Strategien abzuleiten und Unsicherheiten oder Hemmnisse entlang der notwendigen Transformation auszubuchstabieren.
Weblink zum Transformation Tracker:
https://tracker.ariadneprojekt.de/
Weiterführende Informationen:
Deutschland auf dem Weg aus der Gaskrise – Wie sich Klimaschutz und Energiesouveränität vereinen lassen (2022): Gunnar Luderer, Frederike Bartels, Markus Blesl, Alexander Burkhardt, Ottmar Edenhofer, Ulrich Fahl, Annika Gillich, Andrea Herbst, Kai Hufendiek, Markus Kaiser, Lena Kittel, Florian Koller, Christoph Kost, Robert Pietzcker, Matthias Rehfeldt, Felix Schreyer, Dennis Seibert, Luisa Sievers. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2022.004
Weblink: https://ariadneprojekt.de/pressemitteilung/deutschland-auf-dem-weg-aus-der-gaskr…
Deutschland auf dem Weg zur Klimaneutralität 2045. Szenarien und Pfade im Modellvergleich. Ariadne-Report (2021): Gunnar Luderer (Hrsg.), Christoph Kost (Hrg.), Dominika Soergel (Hrsg.) et al. Kopernikus-Projekt Ariadne, Potsdam. DOI: 10.48485/pik.2021.006
Weblink: https://ariadneprojekt.de/pressemitteilung/so-geht-klimaneutralitat-2045-was-der…
Pressekontakt:
Sarah Messina | Leitung Kommunikation Ariadne
Potsdam-Institut für Klimafolgenforschung (PIK)
Telefon: +49 (0)331 288 2544 | Email: ariadne-presse@pik-potsdam.de
Maria Bader | Kommunikationsmanagerin Ariadne
Mercator Research Institute on Global Commons and Climate Change (MCC)
Telefon: +49 (0)30 3385537 365 | E-Mail: ariadne-presse@pik-potsdam.de
Wer ist Ariadne? Im Konsortium von mehr als 25 wissenschaftlichen Partnern führt das Kopernikus-Projekt Ariadne durch einen gemeinsamen Lernprozess mit Politik, Wirtschaft und Gesellschaft, erforscht Optionen zur Energiewende und stellt politischen Entscheidern wichtiges Orientierungswissen bereit.
Weblink zum Projekt Ariadne: https://ariadneprojekt.de/
Folgen Sie dem Ariadnefaden auf Twitter @AriadneProjekt
Über die Kopernikus-Projekte
Die Kopernikus-Projekte des Bundesministeriums für Bildung und Forschung (BMBF) bilden eine der größten deutschen Forschungsinitiativen zum Thema Energiewende. Ihr Ziel ist eine klimaneutrale Bundesrepublik mit einer sauberen, sicheren und bezahlbaren Stromversorgung bis zur Mitte des Jahrhunderts. www.kopernikus-projekte.de
Lichtverschmutzung: Gemeinsame Standards sollen Klarheit schaffen
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Zusammenschau aktueller Methoden soll einheitliche Umweltschutzregelungen ermöglichen
Lichtverschmutzung – zu viel Licht in der Nacht – ist ein Problem für Natur und Naturwissenschafter*innen. Im Fachjournal Science vergleicht der Astrophysiker Stefan Wallner von der Universität Wien aktuelle Methoden und empfiehlt einheitliche Regelungen um den Umweltschutz voranzubringen. Auch für Österreich fordert er ein bundesweites „Lichtverschmutzungsgesetz“.
Lichtverschmutzung hat sehr viele Facetten, die schon bei der Definition anfangen: So kann es beispielsweise um die Aufhellung des Nachthimmels gehen oder um die Ausbreitung der Außenbeleuchtung, die von Satelliten oder Tieren auf unterschiedlichen Arten gesehen werden. Der Astrophysiker Stefan Wallner der Universität Wien erklärt: „Die Definition des Phänomens gibt Hinweise darauf, wie Messungen durchgeführt werden müssen. Aufgrund vieler verfügbarer Geräte und Methoden, die für die unterschiedlichen Ansätze verwendet werden, verfügen Forscher*innen weltweit über eine große Vielfalt, wie sie künstliches Licht in der Nacht untersuchen können. Dies kann aber zu Problemen führen, da verschiedene Beobachtungen dadurch möglicherweise nicht vergleichbar sind.“
Wallner wurde daher zusammen mit internationalen Forschungskolleg*innen vom renommierten Fachjournal Science dazu eingeladen, den aktuellen Wissensstand zusammenzutragen und die derzeit verwendeten Methoden zu überprüfen, um das Ausmaß der auftretenden Lichtverschmutzung zu quantifizieren und die daraus resultierenden Auswirkungen zu analysieren.
Eine besondere Herausforderung dabei stellt dabei der Zusammenhang zwischen Luft- und Lichtverschmutzung dar, an dem Wallner forscht. Wallner: „Die große Veränderlichkeit der Erdatmosphäre wirkt sich erheblich auf die daraus resultierende Lichtverschmutzung aus. Um beide Phänomene gemeinsam einzudämmen, müssen interdisziplinäre Lichtverschmutzungsforscher*innen weltweit zusammenkommen um daran arbeiten, Daten aus aktuell verfügbaren Technologien verständlicher zu nutzen, aber auch über Messstandards und neue Möglichkeiten nachdenken.“
Um die Lichtverschmutzung effektiv einzudämmen braucht es auf diese Erkenntnisse fußende Gesetzgebungen. „Die vor kurzem überholte ÖNORM O 1052 zu Lichtimmissionen sowie das kommende Lichtverschmutzungsgesetz im Land Oberösterreich sind wichtige Schritte. Ein bundesweites Gesetz dazu wird dennoch notwendig sein, um den Natur- und Umweltschutz gegen künstliches Licht bei Nacht maximal anzuheben“, fordert Wallner.
Wissenschaftliche Ansprechpartner:
Dr. Stefan Wallner, BSc MSc
Institut für Astrophysik, Universität Wien
1180 Wien, Türkenschanzstraße 17
T +43 1 4277 53841
stefan.wallner@univie.ac.at
Originalpublikation:
Miroslav Kocifaj, Stefan Wallner. Measuring and monitoring light pollution: Current approaches and challenges. Science (2023)
DOI: 10.1126/science.adg0473 (https://doi.org/10.1126/science.adg0473)
Weitere Informationen:
https://medienportal.univie.ac.at/media/aktuelle-pressemeldungen/detailansicht/a…
Alternative Einkommensquellen bringen Landwirtschaft und Gesellschaft näher zusammen
Heike Bräuer Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Neue Studie zu sozialen Funktionen der Landwirtschaft
Die Zahl landwirtschaftlicher Betriebe in Deutschland sinkt, im Durchschnitt bewirtschaften immer weniger Betriebe immer größere Flächen. Gleichzeitig nimmt der Anteil der Betriebe zu, die ihr Einkommen auch jenseits der Nahrungsmittelproduktion erwirtschaften, zum Beispiel mit der Produktion erneuerbarer Energien, der Vermietung von Ferienwohnungen oder der Direktvermarktung landwirtschaftlicher Produkte.
Ein Team von Agrarökonom:innen um Wiebke Nowack vom Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften hat die sozialen Funktionen der Landwirtschaft in diesem Kontext untersucht. Ergebnis: Mit der Industrialisierung der Nahrungsmittelproduktion und der Diversifizierung der Tätigkeiten verändert sich die Rolle landwirtschaftlicher Betriebe in Dorfgemeinschaften, in ländlichen Regionen und in der Gesellschaft insgesamt.
Fallstudie in Schleswig-Holstein
„In unserer Fallstudienregion im Kreis Dithmarschen in Schleswig-Holstein haben wir beobachtet, dass Betriebe insbesondere über die Tätigkeiten im Bereich der Einkommensdiversifizierung in soziale und wirtschaftliche Strukturen eingebunden sind“, erläutert Doktorandin Wiebke Nowack. Co-Autor Thies Popp, der im Rahmen seiner Doktorarbeit ebenfalls in der Region geforscht hatte und dort aufgewachsen ist, betont, dass Einkommensalternativen in Dithmarschen entscheidend dafür sind, welche Betriebe erfolgreich wirtschaften, wachsen und zu denen gehören, die weitermachen.
Soziale Funktionen noch wenig erforscht
Die Agrarökonom:innen bauen ihre Studie auf einer Kategorisierung von elf Typen sozialer Leistungen auf, die landwirtschaftliche Betriebe für die Gesellschaft erbringen können. Dazu zählen beispielsweise die Stärkung des sozialen Zusammenhalts der Dorfgemeinschaft oder die Erschließung und Erhaltung von Erholungsräumen. „Im Gegensatz zu ökologischen Funktionen, haben solche sozialen Funktionen der Landwirtschaft in der Wissenschaft bisher wenig Beachtung gefunden. Unsere Fallstudie zeigt, wie Landwirtschaft soziale Funktionen erfüllt und wie sich das im Kontext des Größenstrukturwandels ändert“, so Harald Grethe, Professor am Thaer-Institut für Agrar- und Gartenbauwissenschaften und ebenfalls Co-Autor der Veröffentlichung.
Arbeitsintensive Tätigkeiten wie Direktvermarktung sind sozial besonders wirksam
Während sich der Größenstrukturwandel in der Landwirtschaft und die damit verbundene Industrialisierung der Nahrungsmittelproduktion negativ auf die sozialen Funktionen der Landwirtschaft ausgewirkt haben, weil beispielsweise Maschinen größer und lauter geworden sind, weitere Distanzen zurücklegen oder von Dienstleistern bedient werden statt vom Nachbarn, bergen die Einkommensalternativen jenseits der Nahrungsmittelproduktion die Chance, dass sich Landwirtschaft und Gesellschaft begegnen und näher kommen. „Unsere Ergebnisse weisen darauf hin, dass vor allem arbeitsintensive Tätigkeiten wie Direktvermarktung, touristische Angebote oder auch Bauernhofpädagogik soziale Funktionen erfüllen“, betont Julia Schmid, eine weitere Co-Autorin.
Appell an die Agrarpolitik: stärkere Anerkennung sozialer Leistungen
Die Ergebnisse der Fallstudie sind aus Sicht der Forscher:innen ein Impuls für agrarpolitische Entscheidungsträger:innen. Bisher hängt die Höhe möglicher Fördermittel für landwirtschaftliche Betriebe in erster Linie von der bewirtschafteten Fläche ab oder es werden Kapitalinvestitionen gefördert. „Wollen wir, als Gesellschaft, dass soziale Leistungen von Landwirtschaft stärker anerkannt und honoriert werden, könnten landwirtschaftsnahe Tätigkeiten ein wichtiger politischer Ansatzpunkt sein. Würden diese stärker angereizt und Barrieren abgebaut, stünden landwirtschaftlichen Betrieben auch vielfältigere Entwicklungsmöglichkeiten zur Verfügung – unabhängig von ihrer Größe“, so das Resümee von Wiebke Nowack.
Wissenschaftliche Ansprechpartner:
Wiebke Nowack
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften
E-Mail: wiebke.nowack@hu-berlin.de
Originalpublikation:
https://www.sciencedirect.com/science/article/pii/S0743016723001006?via%3Dihub
Wie denken die Deutschen über nachhaltiges Bauen und Wohnen?
Christoph Uhlhaas M.A. Geschäftsstelle
acatech – Deutsche Akademie der Technikwissenschaften
acatech, Körber-Stiftung und ZIRIUS veröffentlichen repräsentative Umfrage-Ergebnisse zu den Technikeinstellungen der Deutschen im Bereich Bauen und Wohnen. Online-Pressekonferenz am 19. Juni um 9:00 Uhr.
Wie möchten die Deutschen wohnen? Wo sehen sie sich in der Lage, durch Verhaltensänderung oder Anschaffung neuer Geräte Energie zu sparen? Welche Investitionen im Energiebereich planen Hauseigentümerinnen und -eigentümer? Das TechnikRadar 2023 fasst die Ergebnisse einer neuen repräsentativen Umfrage zu den Technikeinstellungen der Deutschen zusammen. In diesem Jahr liegt der Schwerpunkt auf nachhaltigem Bauen und Wohnen – ein Thema, welches angesichts von Klimakrise, Materialknappheit und steigenden Energiepreisen an Bedeutung gewonnen hat.
Am 19. Juni, bereits einen Tag vor der Veröffentlichung des TechnikRadar 2023, werden in einer Online-Pressekonferenz die zentralen Ergebnisse der aktuellen Umfrage vorgestellt.
Präsentiert und eingeordnet werden die Ergebnisse von
• Matthias Mayer, Leiter des Bereichs Wissenschaft der Körber-Stiftung
• Prof. Dr. Cordula Kropp, wissenschaftliche Projektleiterin und Soziologin vom Zentrum für Interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS)
• Prof. Dr. Ortwin Renn, TechnikRadar-Co-Projektleiter und acatech Präsidiumsmitglied
• Prof. Dr.-Ing. Jan Wörner, Präsident acatech
Die teilnehmenden Medienvertreterinnen und -vertreter erhalten die Studie sowie das Datenmaterial zur Erstellung eigener Grafiken direkt im Anschluss an die Pressekonferenz.
Wir laden Sie herzlich ein zur Online-Pressekonferenz:
TechnikRadar 2023
Montag, 19.06.2023, 9:00 Uhr bis 9:45 Uhr
Zoom-Videokonferenz
Anmeldung an frohwein@acatech.de
Augengesundheit: Irisfarbe – ein wenig beachteter Risikofaktor
Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Von hellem Blau oder Grau über grünliche bis hin zu tiefbraunen Tönen: Die Iris oder Regenbogenhaut des Auges kann eine ganze Palette von Farbschattierungen annehmen. Doch die Augenfarbe bestimmt nicht nur einen wesentlichen Teil des äußeren Erscheinungsbildes. Wie man heute weiß, hängt die Farbe der Iris auch mit der Neigung zu bestimmten Augenerkrankungen und dem Ergebnis etwa von Hornhauttransplantationen zusammen. Dass die Augenfarbe hier als unabhängiger Risikofaktor wirkt, sei lange Zeit wenig beachtet worden, so die Deutsche Ophthalmologische Gesellschaft (DOG). Experten der Fachgesellschaft geben einen Überblick darüber, was über diesen Zusammenhang bekannt ist.
Welche Augenfarbe ein Mensch hat, hängt davon ab, wie hoch die Konzentration an Melanin in seiner Iris ist – des Farbstoffs also, der neben der Augen- auch die Haut- und die Haarfarbe bestimmt. „Das Melanin hat dabei immer dieselbe bräunliche Farbe – auch grüne und blaue Augen besitzen keine anderen Farbstoffe“, erläutert Professor Dr. med. Claus Cursiefen, Direktor des Zentrums für Augenheilkunde am Universitätsklinikum Köln und Generalsekretär der DOG. Die anderen Farbschattierungen beruhten auf Lichtbrechungseffekten, die bei verschiedenen Melaningehalten zum Tragen kämen.
Ganz ohne Melanin – wie bei Menschen mit der angeborenen Pigmentstörung Albinismus – bleiben die Augen sehr hell, je nach Lichteinfall kann sogar der rote Augenhintergrund hindurchschimmern. „Bei Menschen mit okulärem Albinismus ist bekannt, dass die Augenentwicklung insgesamt beeinträchtigt ist“, sagt Cursiefen. Weil Melanin nicht nur in der Iris, sondern auch im Pigmentepithel der Netzhaut enthalten ist, kann es ohne diesen Farbstoff zu deutlichen Fehlentwicklungen im Augenhintergrund und nachfolgenden Sehstörungen kommen.
Helle Augen: Höheres Risiko für Aderhaut-Tumoren und AMD
Doch auch wenn man vom Extremfall der Pigmentstörung absieht, kann sich der Melaningehalt der Iris auf die Augengesundheit auswirken. Denn so wie in der Haut schützt das Melanin auch in der Iris vor dem Einfluss des Sonnenlichts. Es filtert sowohl den sichtbaren Teil des Lichtspektrums – Menschen mit sehr hellen Augen reagieren daher besonders empfindlich auf starken Lichteinfall – als auch dessen UV-Anteil. Bei niedrigerem Melaningehalt steigt deshalb auch das Risiko, an einem so genannten uvealen Melanom zu erkranken, einem aggressiven Tumor der Aderhaut.1 „Dieser Krebstyp ist zwar sehr selten, er findet sich jedoch bei Menschen europäischer Abstammung 20 bis 30 mal häufiger als bei Menschen asiatischer oder afrikanischer Abstammung“, erläutert Professor Dr. med. Nikolaos Bechrakis, Präsident der DOG und Direktor der Universitätsaugenklinik Essen.
Mit einem geringeren Schutz vor den schädlichen Auswirkungen des Sonnenlichts lässt sich vermutlich auch die Beobachtung erklären, dass Menschen mit hellen Augen eher eine altersabhängige Makuladegeneration (AMD) entwickeln als Menschen mit dunklen Augen. „Bei der Entstehung der AMD spielen freie Radikale, oxidativer Stress und die Ansammlung von Abfallprodukten im Bereich der Netzhaut eine Rolle – Prozesse, die durch UV-Licht verstärkt werden“, erläutert Cursiefen. Ein Zusammenhang zwischen Augenfarbe und AMD-Risiko sei zwar nicht in allen Studien gefunden worden, so der Experte. „Eine umfangreiche Metaanalyse mit fast 130 000 Teilnehmenden konnte jedoch belegen, dass zumindest die feuchte Form der AMD bei Menschen europäischer Herkunft deutlich häufiger ist als bei Menschen mit asiatischen oder afrikanischen Wurzeln“, berichtet der Kölner Augenarzt.2 Ob dies hauptsächlich auf die Augenfarbe zurückzuführen ist, oder ob auch andere genetische Faktoren eine Rolle spielen, ist allerdings noch unklar.
Dunkle Augen: Mehr Grauer Star, häufiger Komplikationen bei Transplantationen
Bei der Entwicklung einer Linsentrübung, auch Grauer Star oder Katarakt genannt, sind Dunkeläugige dagegen im Nachteil. Diese Augenerkrankung entwickelt sich bei Menschen mit braunen Augen zwei bis viermal so häufig wie bei blauäugigen Menschen – ein Effekt, der auch innerhalb der weißen Bevölkerung nachgewiesen wurde und somit von der Ethnie unabhängig zu sein scheint.2 „Eine Theorie hierzu besagt, dass in der vorderen Augenkammer eine umso höhere Temperatur herrscht, je mehr Licht durch die Iris absorbiert wird“, erläutert Cursiefen. Bei dunkler Iris wäre demnach mit einer leicht erhöhten Temperaturbelastung zu rechnen, die wiederum einen bekannten Risikofaktor für die Entstehung des Grauen Stars darstellt. So ist die hitzebedingte Katarakt etwa bei Schweißern als Berufskrankheit anerkannt.
Auch das Ergebnis operativer Eingriffe am Auge kann von der Augenfarbe abhängen. Bei einer Hornhauttransplantation, bei der die Hornhaut in ihrer gesamten Dicke ausgetauscht wird („perforierende Keratoplastik“), werden Abstoßungsreaktionen und andere Komplikationen häufiger beobachtet, wenn die Iris dunkel ist. „Hier wird ein Einfluss des Melanins auf das Immungeschehen in der vorderen Augenkammer vermutet“, sagt Cursiefen. Womöglich verstärke das Pigment entzündliche Prozesse.
Unabhängig von dieser Beobachtung nimmt die Zahl der klassischen, perforierenden Hornhauttransplantationen seit einigen Jahren stark zugunsten minimal invasiver Techniken ab. In einer eigenen Arbeit haben Cursiefen und Kollegen daher die Komplikationsrate bei der minimal invasiven DMEK („Descemet Membrane Endothelial Keratoplasty“) untersucht, bei der lediglich die innerste Schicht der Hornhaut transplantiert wird. „Hier konnten wir keinen Effekt der Augenfarbe auf das Transplantatüberleben nachweisen“, so Cursiefen.3 Offenbar sei es durch den wesentlich schonenderen Ansatz gelungen, eine Immunaktivierung im Auge zu vermeiden und so den Einfluss des Melanins auszuschalten.
Ziel ist, erhöhte Risiken durch die Irisfarbe auszugleichen
„Die Beispiele zeigen, dass scheinbar unbedeutende Faktoren wie die Augenfarbe im klinischen Alltag durchaus relevant sein könnten“, so das Resümee der DOG-Experten. Nun gelte es, diese komplexen Zusammenhänge weiter zu definieren, bei der Behandlung zu berücksichtigen und, wo immer möglich, erhöhte Risiken und Nachteile auszugleichen.
Quellen:
1 Sun HP,Lin Y,Pan CW. Iris color and associated pathological ocular complications:a review of epidemiologic studies. Int J Ophthalmol 2014;7(5):872-878. doi:10.3980/j.issn.2222-3959.2014.05.25
2 Pugazhendhi A et al. Neovascular Macular Degeneration: A Review of Etiology, Risk Factors and Recent Adavnces in Research and Therapy. Int J Mol Sci. 2021 Feb; 22(3): 1170. doi: 10.3390/ijms22031170
3 Hayashi T, Hos D, Schrittenlocher S, Siebelmann S, Matthaei M, Franklin J, Clahsen T, Bock F, Bachmann B, Cursiefen C. Effect of Iris Color on the Outcome of Descemet Membrane Endothelial Keratoplasty. Cornea. 2020 Jul;39(7):846-850. doi: 10.1097/ICO.0000000000002305.
Berufliche Zukunft planen
Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Endlich geschafft – Abi in der Tasche! Wer noch zum Wintersemester ein Uni-Studium starten möchte, bekommt am 15. Juni bei der Wahl des Studiengangs Unterstützung. An diesem Donnerstag veranstalten die Hochschulen in NRW den Langen Abend der Studienberatung. Auch die Universität Duisburg-Essen (UDE) lädt Abiturient:innen, Oberstufenschüler:innen und Eltern ein. Eine Anmeldung ist nicht erforderlich.
Von 18 bis 21 Uhr können sich Uni-Interessierte im Akademischen Beratungs-Zentrum ABZ an der UDE am Campus Duisburg übers Studieren informieren. Insbesondere gibt es Beratungen zu Studiengängen der Ingenieurwissenschaften und der Physik & Energy Science. Dabei widmet sich das ABZ zudem Fragen der Inklusion. Die Berufsagentur für Arbeit (Ausbildung und duales Studium) wird mit ihrer Berufsberatung vertreten sein. Wer sich für Stipendien interessiert, erfährt darüber mehr vorab von verschiedenen Förderungswerken (ab 16 Uhr).
Beginn: 18 Uhr, ABZ, Geibelstraße 41 (Campus Duisburg)
Weitere Informationen:
https://www.uni-due.de/abz/studieninteressierte/langer_abend_der_studienberatung…
ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de
Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de
Wissenschaftliche Ansprechpartner:
ABZ: Marion Büscher, Akademisches Beratungs-Zentrum ABZ, marion.buescher@uni-due.de
Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen.
Kampf ums Klima – Von der „Letzten Generation“ und Klimaklagen
Nächste Veranstaltung der „GO FUTURE!“-Vorlesungen findet am 14. Juni statt
Welche Konflikte entstehen durch die Herausforderung, den Klimawandel jetzt aufzuhalten, um nachfolgende Generationen vor den negativen Folgen zu bewahren? Der „Kampf ums Klima“ ist Thema der nächsten Vorlesung für Schülerinnen und Schüler, zu der die Universität Heidelberg im Rahmen ihres Projekts GO FUTURE! einlädt. Über Klimaklagen und die „Letzte Generation“ spricht der Rechtswissenschaftler Prof. Dr. Marc-Philippe Weller gemeinsam mit Theresa Hößl und Camilla Seemann. Die Referenten stehen im Anschluss zur Verfügung, um Fragen zu beantworten und sich mit ihren Zuhörern auszutauschen. Die Vorlesung findet am 14. Juni 2023 in Hörsaal 13 der Neuen Universität, Grabengasse 3-5, statt und beginnt um 17.00 Uhr. Eine Anmeldung ist nicht erforderlich.
Mit dem Projekt GO FUTURE! nimmt die Universität Heidelberg die insgesamt 17 Nachhaltigkeitsziele der Vereinten Nationen in den Blick: Damit verbindet sich der globale Plan, Frieden und Wohlstand zu fördern, Armut zu bekämpfen, Ungleichheit zu verringern und die Umwelt und unseren Planeten zu schützen. Doch was genau verbirgt sich hinter den SDGs – den Sustainable Development Goals? Was können Wissenschaft und Forschung leisten, um diese Ziele zu verwirklichen? Diese Fragen gemeinsam mit Kindern und Jugendlichen zu diskutieren, ist Anliegen des Projekts GO FUTURE!, das die Universität Heidelberg im Rahmen von heiSCHOOL – der neuen Dachmarke für die „Kinderuni“ und die „Junge Uni“ – ins Leben gerufen hat.
Ein zentraler Teil des Projekts ist eine Vorlesungsreihe, die über insgesamt sechs Semester läuft. Nach „Alles Klima?!“ – dem zentralen Thema des vergangenen Wintersemesters – wird die Reihe im Sommersemester mit Vorlesungen zu der Frage „Ein bisschen Frieden?“ fortgesetzt. Dem Auftakt zum „Kampf ums Klima – Von der ,Letzten Generation‘ und Klimaklagen“ folgen drei weitere Veranstaltungen, in denen es um die Entstehung von Kriegen (28. Juni) sowie um Konflikte in der Energiewende (5. Juli) und um Cybersicherheit (12. Juli) gehen wird. Neben Schülerinnen und Schülern sind alle Interessierten eingeladen, die Vorlesungsreihe zu besuchen.
Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de
Weitere Informationen:
http://www.uni-heidelberg.de/de/heischool/go-future/ein-bisschen-frieden – Vorlesungen „Ein bisschen Frieden?“
http://www.uni-heidelberg.de/de/heischool/go-future/wenn-uni-schule-macht – Projekt GO FUTURE!
http://www.uni-heidelberg.de/de/heischool/go-future/ziele-fuer-nachhaltige-entwi… – Videos GO FUTURE!
http://www.uni-heidelberg.de/de/heischool – heiSCHOOL
Großstädteranking 2023: Menschen in Hamburg am glücklichsten – in Leipzig am unglücklichsten
Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Studie unter Leitung des Freiburger Wirtschaftswissenschaftlers Bernd Raffelhüschen untersucht 12 Großstädte im Rahmen des „SKL Glücksatlas“
• Einkommenshöhe, persönliche Gesundheit, Zusammengehörigkeitsgefühl und öffentliche Verwaltung sind wichtigste Gründe
• Je zufriedener die Bürger*innen, desto optimistischer blicken sie in die Zukunft
Die glücklichsten Großstädter*innen Deutschlands leben in Hamburg. Das ist das Ergebnis der Studie „SKL Großstädteranking 2023“ unter Leitung des Wirtschaftswissenschaftlers Prof. Dr. Bernd Raffelhüschen von der Wirtschafts- und Verhaltenswissenschaftliche Fakultät der Universität Freiburg, die im Rahmen des SKL Glücksatlas erschienen ist. Für das Ranking wurde die deutschsprachige Wohnbevölkerung in 12 Großstädten (Berlin, Hamburg, München, Köln, Frankfurt, Stuttgart, Düsseldorf, Leipzig, Dresden, Hannover, Bremen, Essen) mit Online-Zugang und einem Alter zwischen 16-74 Jahren repräsentativ hinsichtlich ihrer Lebenszufriedenheit befragt. Auch die Gründe für die Zufriedenheit wurden erhoben. Die Befragung fand zwischen 30. März und 24. April 2023 statt. Den Glücksatlas gibt es seit 2011, seit 2022 ist die Süddeutsche Klassenlotterie (SKL) Partnerin der Studie.
Den ersten Platz des Städterankings in der Kategorie allgemeine Lebenszufriedenheit erreicht Hamburg mit 7,16 Punkten (auf einer Skala von 0 bis 10 Punkten), gefolgt von Frankfurt am Main (7,07 Punkte) und dem drittplatzierten München (6,9 Punkte). Diese drei Städte erreichen überdurchschnittlich hohe persönliche Glückswerte sowie sehr gute Zufriedenheiten mit städtischen Merkmalen wie etwa dem Wirtschaftsstandort. „Insgesamt ist festzustellen, dass für die Zufriedenheit der Bürger*innen mit ihrer Stadt besonders die Höhe der Einkommen, die persönliche Gesundheit, das Zusammengehörigkeitsgefühl der Bürger und die Arbeit der öffentlichen Verwaltung wichtig sind“, sagt Bernd Raffelhüschen.
Auf Rang 4 folgt Berlin mit 6,88 Punkten. Die befragten Berliner*innen zeigen eine hohe Zufriedenheit mit ihrem Leben, dem Einkommen und dem Arbeitsleben, sind aber mit den städtischen Angeboten, besonders mit der Verwaltung, unzufrieden. Das Mittelfeld beginnt mit Hannover (6,75 Punkte) auf Platz 5. Die Hannoveraner*innen sind mit Familie und Gesundheit mäßig zufrieden, städtische Bereiche wie Verkehr und die Verwaltung bewerten sie indes positiv. Im sechstplatzierte Düsseldorf (6,69 Punkte) gibt es eine hohe Zufriedenheit mit dem Einkommen und dem Wirtschaftsstandort, Unzufriedenheit gibt es mit der Verkehrsinfrastruktur.
Die untere Hälfte des Rankings vereint neben den eher schwächeren Wirtschaftsdaten (Ausnahme: Stuttgart) eine allgemeine Unzufriedenheit mit dem Verkehr, der Sicherheit, aber auch mit der öffentlichen Verwaltung. In Köln (7. Platz, 6,65 Punkte), Essen (8. Platz, 6,63 Punkte) und Bremen (10. Platz, 6,5 Punkte) sind darüber hinaus die Arbeitslosenzahlen wie Unterbeschäftigung oder die SGBII-Quote eher hoch. Die beiden Letztplatzierten Leipzig (12. Platz, 6,44 Punkte) und Dresden (11. Platz, 6,49 Punkte) haben beide eine etwas ältere Bevölkerung und vergleichsweise schwache Wirtschaftszahlen. Die Dresdner sind mit dem persönlichen Leben eher unzufrieden, aber begeistert von ihrer Stadt. Stuttgart erhält einen schwachen 9. Platz (6,54 Punkte). Hervorstechend ist hier die hohe Unzufriedenheit mit dem Zusammengehörigkeitsgefühl.
Wirtschaftsstandort als Faktor
Spitzenreiter Hamburg punktet insbesondere auch in der Kategorie Wirtschaftsstandort. Das Bruttoinlandsprodukt pro Kopf liegt dort bei 64.000 Euro, Leipzig bei 38.000 Euro. Diese Unterschiede spiegeln sich auch in der Zufriedenheit mit dem Einkommen wider, die in Hamburg hoch und in Leipzig niedrig ist. Die Hamburger*innen bewerten die Attraktivität ihrer Stadt als Wirtschaftsstandort mit dem Topwert von 7,0 Punkten. Die Leipziger*innen geben ihrem Wirtschaftsstandort nur durchschnittliche 6,55 Punkte. Die Gleichung „Einkommen gleich Zufriedenheit“ gilt jedoch nicht uneingeschränkt. Es gibt auch Ausnahmen: Obwohl Düsseldorf (Platz 6) und Stuttgart (Platz 9) wohlhabend sind, sind sie nur mittelmäßig zufrieden. Die Gründe liegen unter anderem in unzureichender Stadtpolitik, wie die Bewertungen der öffentlichen Verwaltung zeigen. Generell wird die Stadtverwaltung von den Bürger*innen am schlechtesten von allen Bereichen beurteilt, Kultur- und Naherholungsmöglichkeiten am besten.
Zusammengehörigkeitsgefühl als Faktor
Das Zusammengehörigkeitsgefühl ist ein weiterer wichtiger Faktor für die Stadtzufriedenheit. Es wird umso stärker empfunden, wenn die Bürger*innen sich sicher und entspannt in ihrer Stadt bewegen können, wenn die Nachbarschaft funktioniert und wenn die Menschen gerne in Vereinen, in der Kommune oder bei Stadtfesten ehrenamtlich engagiert sind. Tendenziell gilt, dass Städte (etwa Leipzig, Berlin, Bremen, Essen), deren Bürger*innen mit dem Zusammengehörigkeitsgefühl unzufrieden sind, auch mit der Verwaltung und mit der Sicherheitslage ihrer Stadt unzufrieden sind. Die Zufriedenheit mit der Stadtverwaltung hängt aber auch von der Steuerkraft und den Sachinvestitionen der Städte ab. Je wohlhabender eine Stadt – wie zum Beispiel Frankfurt, Hamburg oder München – desto eher kann sie in Krankenhäuser, Schulen und Straßen investieren.
Generell gilt, so das Fazit der Forschenden: Je zufriedener eine Großstadt, desto optimistischer schauen ihre Bürger*innen auch in die Zukunft. Und: Wenn die Bürger mit dem eigenen Leben zufrieden sind, dann bewerten sie auch die Zufriedenheit mit der Stadt positiv.
Weitere Informationen:
https://www.skl-gluecksatlas.de/info/presse
Wissenschaftliche Ansprechpartner:
Timon Renz, M.Sc.
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-5480
E-Mail: timon.renz@vwl.uni-freiburg.de
Prof. Dr. Bernd Raffelhüschen
Institut für Finanzwissenschaft und Sozialpolitik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2353
E-Mail: bernd.raffelhueschen@vwl.uni-freiburg.de
Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2023/grossstaedteranking-2023
Erkenntnisse und Folgen: COVID-19-Forschung aus Magdeburg vorgestellt
Friederike Süssig-Jeschor Pressestelle
Universitätsmedizin Magdeburg
Wie ist die Corona-Pandemie in der Landeshauptstadt Magdeburg verlaufen? Was ist über die einzelnen Virusvarianten und zu Therapieansätzen bekannt? Welche Erkenntnisse zu den Folgen der Viruserkrankung liegen bereits vor und wie steht es um die Versorgung von Betroffenen mit Long-COVID? Über diese und weitere Fragen diskutierten 75 Wissenschaftlerinnen und Wissenschaftler der Universitätsmedizin Magdeburg im Beisein von Wissenschaftsminister Prof. Dr. Armin Willingmann heute im Rahmen eines wissenschaftlichen Symposiums zu medizinischer COVID-19 Forschung.
Ziel des Symposiums war es, nach drei Jahren Pandemie und dem Auslaufen letzter bundesweiter Schutzmaßnahmen, über die bisherige Pandemieforschung am Standort Magdeburg in den wissenschaftlichen Austausch zu gehen und dabei auch offene Forschungsfragen in den Blick zu nehmen. Ausrichter war die Lokale Stabstelle des Netzwerks Universitätsmedizin (NUM) in Magdeburg unter der Leitung von Mikrobiologe Prof. Dr. med. Achim Kaasch.
Insgesamt 29 Forschungsprojekte wurden im Rahmen der Veranstaltung präsentiert. Professor Kaasch betonte: „Die Universitätsmedizin Magdeburg hat sich bereits seit der ersten Stunde an dem Nationalen Forschungsnetzwerk der Universitätsmedizin im Kampf gegen COVID-19 beteiligt. Aber auch darüber hinaus forschen zahlreiche Arbeitsgruppen hier am Standort zu diesem Thema.“ Darunter sind großangelegte Studien zur Immunreaktion, zur Verbreitung des Virus im Großraum Magdeburg, zu Auswirkungen der Corona-Pandemie unter anderem für die Risikogruppen der älteren Menschen, Pflegepersonal und pflegende Angehörige sowie zur Versorgung von Betroffenen mit Long-COVID. Ein Vorhaben befasst sich mit Surveillance und Testung, ein weiteres mit den Thema Pandemiemanagement. Auch das deutschlandweit einmalige „AKTIN-Register“, durch welches das Robert Koch-Institut seit März 2020 täglich wichtige Echtzeit-Daten zur Lage in deutschen Notaufnahmen während der COVID-19-Pandemie erhält, zählte zu den vorgestellten Projekten.
Als Vertreter des Fakultätsvorstandes der Medizinischen Fakultät der Otto-von-Guericke-Universität Magdeburg richtete Forschungsdekan Prof. Dr. med. Florian Junne ein Grußwort an die Gäste und unterstrich: „Unsere Wissenschaftlerinnen und Wissenschaftler haben mit ihren Forschungsprojekten über die neuartige Infektionskrankheit COVID-19 maßgeblich dazu beigetragen, Gesundheitseinrichtungen, Gesellschaft und auch Politik bei der Bewältigung der Corona-Krise zu unterstützen. Und obwohl wir seit Ausbruch der Pandemie einige wertvolle Erkenntnisse gewonnen haben, sind vor allem die Langzeitfolgen für Erkrankte noch weitestgehend unerforscht. Deshalb wollen wir als Universitätsmedizin Magdeburg weitere wissenschaftliche Anstrengungen unternehmen, um unter anderem für Betroffene mit den Krankheitsbildern Long COVID beziehungsweise Post-COVID-19 verbesserte Therapiestrategien zu entwickeln.“ „Aber auch die Frage nach der Pandemie-Resilienz, das heißt, wie gut sind wir auf künftige Pandemien vorbereitet und wie kann im Gesundheitssystem eine größere Resilienz erreicht werden, wird uns noch weiter beschäftigen“, ergänzt Professor Kaasch. Zu diesen und weiteren wissenschaftlichen Folgefragen wurde in einem offenen fachlichen Austausch im Rahmen einer gemeinsamen Poster-Ausstellung am Nachmittag diskutiert.
Wissenschaftsminister Prof. Dr. Armin Willingmann würdigte das hohe Engagement der Magdeburger Forscherinnen und Forscher im Kampf gegen die Corona-Pandemie. „Die Corona-Pandemie hat verdeutlicht, wie wichtig medizinische Spitzenforschung ist und welch großer Beitrag hier von der Universitätsmedizin geleistet werden kann: in der Erforschung, in der Therapie und nicht zuletzt auch in der Politikberatung. Diese Pandemie haben wir auch dank hervorragender wissenschaftlicher Leistungen überwunden. Als Erkrankung bleibt Covid-19 jedoch eine Herausforderung. Noch immer gibt es Ansteckungen und auch die Therapie von Long- und Post-Covid-Fällen sollte weiter optimiert werden. Deshalb wird das Land Sachsen-Anhalt die Universitätsmedizin in Magdeburg und Halle weiterhin bei ihren vielfältigen Forschungsprojekten unterstützen“, so Willingmann.
Lokale Stabstelle des Netzwerks Universitätsmedizin
Die Lokale Stabsstelle des Netzwerk Universitätsmedizin (NUM) in Magdeburg fungiert als Schnittstelle zwischen der zentralen Koordinierungsstelle des NUM an der Charité – Universitätsmedizin Berlin, den Wissenschaftlerinnen und Wissenschaftlern am Standort Magdeburg sowie den weiteren Lokalen Stabsstellen anderer Universitätsmedizinstandorte.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Achim Kaasch, Direktor des Institutes für Medizinische Mikrobiologie und Krankenhaushygiene Magdeburg (IMMB), Otto-von-Guericke-Universität Magdeburg, Tel.: 0391-67-13392, achim.kaasch@med.ovgu.de
Sportrecht: Wo Sport und Staat sich berühren
Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Wissenschaftspodcast mit Professor Martin Nolte über Sportregeln, Diskriminierung im Fußball, Anti-Doping und vieles mehr: https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/
Wer jemandem auf offener Straße ins Gesicht boxt, bekommt es mit der Polizei zu tun. In manchen Sportarten gibt es für gezielte Schläge auf den Kopf Punkte und Medaillen. Möglich ist das, weil Sportorganisationen selbst definieren können, was in ihrer Sportart erlaubt ist. Sie können sich selbst Regeln geben und in eigenen Gerichten verhandeln. Aber nur innerhalb bestimmter Grenzen. Denn auch im Sport greift staatliches Recht, zum Beispiel bei Spielmanipulation oder Doping.
Ein ausgewiesener Experte des Sportrechts und einziger Professor in Deutschland auf diesem Gebiet ist Univ.-Prof. Dr. Martin Nolte. Er leitet das Institut für Sportrecht der Deutschen Sporthochschule Köln und ist aktueller Gast im Wissenschaftspodcast „Eine Runde mit …“. Ein Rechtsthema in einem Podcast mag für einige auf den ersten Blick trocken klingen, doch Martin Nolte nimmt die Hörer*innen direkt humorvoll mit: „Gerade, wenn es um trockene Themen geht, muss man viel Wasser reinbringen. Denken wir zum Beispiel an Wassersport. Da paddeln Sie mit dem Kanu durch eine schöne Schilflandschaft und ignorieren das Schild ‚Kanu fahren verboten‘. Sie verstoßen gegen eine Regel, bekommen einen Bußgeldbescheid, Sie gehen dagegen vor und schon sind Sie im Rechtsstreit.“ Über die Grenzen von Sportregeln spricht Prof. Martin Nolte im Podcast ebenso wie über Diskriminierung im Fußball und die Wirksamkeit von Anti-Doping-Regeln. So hat er beispielsweise wissenschaftlich ausgewertet, wie genau die Leistungssportler*innen in Deutschland den Nationalen Anti-Doping Code kennen und ihn beherzigen. Sein Fazit: „Es wäre schön, wenn sich die Straßenverkehrsteilnehmer in Deutschland so an die Straßenverkehrsordnung hielten wie die Leistungssportler an die Anti-Doping-Regeln.“
Der Sportrechtsexperte skizziert auch aktuelle Fälle, an denen er arbeitet. Er erstellte etwa ein Gutachten im Fall Vušković. 2022 wurde der Fußballprofi Mario Vušković positiv auf das Dopingmittel EPO getestet. Die Anti-Doping-Regeln sehen eine vierjährige Sperre vor, das DFB-Sportgericht verhängte zwei Jahre, also zwei Jahre weniger als die Regel der Nationalen Anti Doping Agentur (NADA) besagt. Nolte erklärt, wie das zustande kommt. Seine wissenschaftliche Arbeit hat auch ganz konkret Effekte für die Praxis, zum Beispiel, wenn er eine Finanzierungsgarantie für den gemeinnützigen Sport aus Glücksspielerträgen entwickelt oder einen Safe Sport Code erarbeitet, der als Regelwerk gegen interpersonale Gewalt im Sport dienen soll. Neben seiner fachlichen Expertise spricht Martin Nolte bei „Eine Runde mit …“ auch über seine Leidenschaft für den Orientierungslauf, eine Sportart, die ihn schon sein ganzes Leben lang begleitet und ihm – privat wie beruflich – Orientierung gibt.
„Eine Runde mit …“ ist auf allen gängigen Podcast-Plattformen und auf der Website der Deutschen Sporthochschule Köln zu finden: https://www.dshs-koeln.de/einerundemit.
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Martin Nolte
Institut für Sportrecht
E-Mail: m.nolte@dshs-koeln.de
Tel.: +49 221 4982-6088
Originalpublikation:
https://www.dshs-koeln.de/aktuelles/social-media/podcast/wissenschaftspodcast/
Lokales Artensterben womöglich oft unterschätzt
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Eine neue Studie zur Biodiversität zeigt, dass die Artenzahl kein verlässliches Maß ist, um Ökosysteme zu überwachen. Demnach können scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Solche Übergangsphasen zeigen sich aufgrund systematischer Verzerrungen selbst in langjährigen Datenreihen erst mit Verzögerung, so ein Ergebnis der Untersuchung unter Leitung der Universität Oldenburg, die jetzt in der Zeitschrift Nature Ecology & Evolution erschienen ist.
Scheinbar gesunde Ökosysteme mit konstanter oder sogar steigender Artenzahl können bereits auf dem Weg in einen schlechteren Zustand mit weniger Arten sein. Selbst in langjährigen Datenreihen können sich solche Umbrüche erst mit Verzögerung zeigen. Grund dafür sind systematische Verzerrungen der zeitlichen Trends in der Artenzahl, wie eine aktuelle Studie zeigt, die jetzt in der Zeitschrift Nature Ecology & Evolution veröffentlicht wurde. „Unsere Resultate sind wichtig, um zu verstehen, dass die Artenzahl allein kein verlässliches Maß dafür ist, wie stabil das biologische Gleichgewicht in einem bestimmten Ökosystem auf lokaler Ebene ist“, sagt Dr. Lucie Kuczynski, Ökologin am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg und Hauptautorin der Untersuchung, in der sie und ihre Kollegen Beobachtungsdaten von Süßwasserfischen und Vögeln mit Simulationsrechnungen kombinierten.
Das Forschungsteam, zu dem neben Kuczynski auch Prof. Dr. Helmut Hillebrand vom ICBM und Dr. Vicente Ontiveros von der Universität von Girona in Spanien gehörten, war von den Ergebnissen überrascht: „Uns erfüllt mit Sorge, dass eine gleichbleibende oder sogar zunehmende Artenvielfalt nicht unbedingt bedeutet, dass in einem Ökosystem alles in Ordnung ist und die Artenzahl langfristig konstant bleibt“, erläutert Hillebrand. „Offenbar haben wir etwa bei Süßwasserfischen negative Trends bislang unterschätzt. Arten verschwinden auf lokaler Ebene schneller als wir dachten“, so Kuczynski.
Bislang war die Biodiversitätsforschung davon ausgegangen, dass die Artenzahl in einem Ökosystem langfristig gleich bleibt, wenn sich die Umweltbedingungen nicht verschlechtern oder verbessern. „Es handelt sich dabei um ein dynamisches Gleichgewicht zwischen Neuansiedlungen und lokalen Auslöschungen“, so Hauptautorin Kuczynski. Zunehmende oder abnehmende Artenzahlen werden als Reaktion auf verbesserte oder verschlechterte Umweltbedingungen interpretiert. Um herauszufinden, ob sich aus einer konstanten Artenzahl tatsächlich auf ein stabiles biologisches Gleichgewicht schließen lässt, analysierten Kuczynski und ihre Kollegen zunächst mehrere tausend Datensätze, in denen die Artenzahl von Süßwasserfischen in Europa und Brutvögeln in Nordamerika in verschiedenen Gegenden über viele Jahre – bei den Fischen im Durchschnitt 24, bei den Vögeln 37 Jahre – dokumentiert worden war. Die Forschenden wollten so ermitteln, welche Trends sich bei den einzelnen Lebensgemeinschaften zeigten. Anschließend verglichen sie die Beobachtungsdaten mit verschiedenen Simulationsmodellen, in denen sie unterschiedliche Annahmen für die Einwanderung und das Verschwinden von Arten trafen.
Das Team fand zunächst heraus, dass die Artenzahl sowohl bei den Fischen als auch bei den Vögeln in den Beobachtungszeiträumen generell anstieg. Ein Vergleich mit den Simulationen zeigte aber, dass dieser Anstieg geringer ausfiel als es eigentlich zu erwarten gewesen wäre. Diese Diskrepanz führten die Forschenden auf ein Ungleichgewicht zwischen Neubesiedlung und lokalem Aussterben zurück: „Tiere wie Süßwasserfische, die sich nur begrenzt ausbreiten können, besiedeln unserer Simulation zufolge ein Ökosystem schneller als in klassischen Modellen, während das Aussterben später eintritt als erwartet“, so Kuczynski. Dies führe dazu, dass nach einer Umweltveränderung in einem Ökosystem noch eine Zeitlang Arten zu finden sind, die eigentlich schon zum Aussterben verdammt sind, während gleichzeitig neue Spezies einwandern. Dieser Effekt verschleiere den drohenden Verlust an Biodiversität: „In Ökosystemen treten Übergangsphasen auf, in denen die Artenzahl höher ist als erwartet“, so die Umweltforscherin. Das Artensterben tritt erst nach diesen Übergangsphasen auf – und dann in der Regel schneller als erwartet.
Das Team geht davon aus, dass man nun neu darüber nachdenken muss, mit welchen Methoden sich Ökosysteme am besten überwachen lassen. Auch Naturschutzziele – die oft vor allem darin bestehen, die bestehende Artenvielfalt zu erhalten – müssten womöglich neu definiert werden. Das von Kuczynski und Kollegen entwickelte Modell könnte dabei als Werkzeug dienen, um verschiedene Mechanismen auseinanderzuhalten, die die Artenzahl beeinflussen. Es liefert zudem Informationen darüber, wie stark die Beobachtungsdaten von den zu erwartenden Veränderungen abweichen.
Wissenschaftliche Ansprechpartner:
Dr. Lucie Kuczynski, E-Mail: lucie.kuczynski@uol.de (nur Englisch)
Prof. Dr. Helmut Hillebrand, E-Mail: helmut.hillebrand@uol.de
Originalpublikation:
Lucie Kuczynski, Vicente J. Ontiveros, Helmut Hillebrand: „Biodiversity time series are biased towards increasing species richness in changing environments”, Nature Ecology & Evolution, doi.org/10.1038/s41559-023-02078-w
Weitere Informationen:
http://uol.de/icbm/planktologie
Dortmunder FOM Studierende erfinden neuen Deckel für PET-Einwegflaschen
Nils Jewko Pressestelle
FOM Hochschule
Wer sich eine Getränkeflasche aus Plastik kauft, stellt häufig fest, dass der Deckel nach dem Öffnen mit der Flasche verbunden bleibt. Dahinter steckt eine EU-Vorgabe, die in Deutschland teilweise schon umgesetzt wird. Demnach dürfen PET-Einwegflaschen ab Juli 2024 nur noch mit so einem Verschluss verkauft werden. Eine solche Konstruktion haben nun auch drei Studierende der FOM Hochschule in Dortmund im Rahmen ihres Maschinenbau-Studiums gemeinsam mit einem Dozenten entwickelt. Der große Unterschied zu bereits im Handel erhältlichen Flaschen: Durch eine besondere Laschenverbindung soll der Deckel ausreichend Abstand zur Flaschenöffnung haben und somit nicht beim Trinken stören.
„Der Deckel ist simpel, effektiv und kostengünstig. Er soll sich vor allem für kleinere Firmen lohnen, die nicht über ausreichend Konstruktionsmöglichkeiten und Entwicklungsbudget verfügen. Darauf lag unser Hauptaugenmerk“ sagt FOM Student Marius Wachholz, der den Deckel gemeinsam mit seinen FOM Kommilitonen Simon Börgel und Jan Limpak sowie FOM Dozent Prof. Dr. Jochen Remmel entwickelt hat. Das Besondere an dem Deckel ist die wendelartige Laschenverbindung: Dadurch ist er fest mit dem Flaschenring verbunden – aber mit ausreichend Abstand zum Flaschenhals.
Idee kam während einer Vorlesung
Die Idee für den Deckel kam den FOM Studierenden während einer Konstruktionsvorlesung bei Prof. Remmel im Rahmen ihres Bachelor-Studiums in „Maschinenbau“ (mittlerweile „Maschinenbau & Digitale Technologien“). Der Ausgangspunkt: Eine bereits erhältliche PET-Einwegflasche mit einem Deckel nach der EU-Vorgabe, die einer der Studierenden dabei hatte. Sie ärgerten sich über die Konstruktionsweise, vor allem darüber, dass sie der Deckel beim Trinken stört. „Wir haben uns gedacht, dass es dafür eine bessere Lösung geben muss“, sagt Marius Wachholz. Die Studierenden fingen an zu tüfteln, verfolgten verschiedene Ansätze – bis sich am Ende die Idee mit der Laschenverbindung durchsetzte.
Erfindung als Gebrauchsmuster angemeldet
„Aus einer Idee, die im Hörsaal entstanden ist, ist eine praktische Lösung geworden. Das unterstreicht, dass an der FOM großen Wert auf den Theorie-Praxis-Transfer gelegt wird“, sagt Prof. Remmel, der die Erfindung gemeinsam mit den Studierenden beim Deutschen Patent- und Markenamt als Gebrauchsmuster angemeldet hat. Bislang wurde zwar noch kein Deckel produziert, aber die ersten Schritte sind bereits in Planung: „Wir wollen Kontakt mit Firmen aufnehmen, um unseren Deckel vorzustellen. Wir sehen in unserem Produkt eine einfache Lösung für ein vorhandenes Problem“, sagt Marius Wachholz.
Hintergrund
Die EU-Vorgabe
Dass der Deckel fest an der Flasche hängen bleibt, geht auf ein großes Maßnahmenpaket der EU zur Vermeidung von Plastikmüll zurück. Zwar gilt die Regel erst ab Juli 2024 für alle PET-Einwegflaschen bis zu drei Litern, sie wird aber teilweise schon umgesetzt. Durch die Konstruktion soll der Deckel gemeinsam mit der Flasche recycelt werden und nicht in der Umwelt landen. Andere Produkte wie Trinkhalme aus Plastik oder Einweg-Besteck sind in Deutschland bereits verboten.
Unterschätzter Wärmespeicher
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Der Klimawandel hat viele Effekte – der bekannteste davon ist die globale Erwärmung. Die überschüssige Wärme wird zu 89 Prozent in den Ozeanen gespeichert, der Rest von Eis und Gletschern, der Atmosphäre und von Landmassen. Ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) hat nun die gespeicherte Wärmemenge an Land (inklusive der Binnengewässer) untersucht und deren Verteilung aufgezeigt. Die im Fachjournal Earth System Dynamics veröffentlichten Berechnungen zeigen, dass dort im Jahr 2020 mehr als das 20-fache im Vergleich zu 1960 gespeichert wurde, wobei der stärkste Anstieg unter der Erde stattfand.
Die Zunahme der menschgemachten Treibhausgase in der Atmosphäre verhindert, dass Wärme ins All abgegeben wird. Folglich nimmt die Erde stetig mehr Sonnenstrahlung auf, als sie durch Wärmestrahlung abgeben kann. Diese zusätzliche Energie, das zeigen frühere Studien, wird gespeichert: vor allem in den Ozeanen (89 Prozent), aber auch in den Landmassen der Kontinente (5-6 Prozent), in Eis und Gletschern (4 Prozent) und in der Atmosphäre (1-2 Prozent). Noch hat dieses Wissen aber Lücken: Unklar war bislang etwa, wie sich diese zusätzliche Wärmemenge in den kontinentalen Landmassen genau verteilt.
Dem Forschungsteam unter Leitung des UFZ und mit Beteiligung von Wissenschaftler:innen des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Vrije Universiteit Brussel und anderer Forschungszentren gelang es, genauer zu quantifizieren, wie viel Wärme zwischen 1960 und 2020 in den kontinentalen Landmassen gespeichert wurde. Das Ergebnis: Insgesamt wurden dort zwischen 1960 und 2020 23,8 x 1021 Joule Wärme aufgenommen. Zum Vergleich: Das entspricht in etwa dem 1.800-fachen Stromverbrauch Deutschlands in der gleichen Zeit. Mit einem Anteil von rund 90 Prozent wird die meiste Wärme bis zu 300 Metern tief in der Erde gespeichert; 9 Prozent der Energie sorgen für das Auftauen von Permafrostböden in der Arktis, 0,7 Prozent werden in Binnengewässern wie beispielsweise Seen und Stauseen gespeichert. „Obwohl die Binnengewässer und Permafrostböden weniger Wärme speichern als die Böden, müssen sie dauerhaft beobachtet werden, denn die zusätzliche Energie sorgt für bedeutsame Veränderungen der Ökosysteme“, sagt der UFZ-Forscher Francisco José Cuesta-Valero, Erstautor der Studie.
Nachweisen konnten die Wissenschaftler:innen auch, dass sich die gespeicherte Wärmemenge unter der Erde, in Permafrostböden und in Seen seit den 1960er Jahren kontinuierlich erhöht hat. So nahm sie im Boden im Vergleich der beiden Dekaden 1960-1970 und 2010-2020 fast um das 20-fache von 1,007 auf 18,83 x 1021 Joule zu, in den Permafrostregionen von 0,058 auf 2,0 x 1021 Joule und in Binnengewässern von -0,02 auf 0,17 x 1021 Joule. Die Forschenden hatten für die Berechnung der Wärmemengen in bis zu 300 Meter Tiefe weltweit mehr als 1.000 Temperaturprofile genutzt. Für die Schätzung der Wärmespeicherung in Permafrostböden und in den Binnengewässern setzten sie auf Modelle. Für die Modellierung der Gewässer kombinierten sie beispielsweise globale Seenmodelle, hydrologische Modelle und Erdsystemmodelle. Um die Wärmespeicherung in Permafrostböden abzuschätzen, nutzten sie ein Permafrostmodell, das verschiedene plausible Verteilungen des Bodeneises in der Arktis berücksichtigt. „Die Verwendung von Modellen ermöglichte es, den Mangel an Beobachtungen in vielen Seen und in der Arktis auszugleichen und die Unsicherheiten aufgrund der begrenzten Anzahl von Beobachtungen besser einzuschätzen“, erklärt Francisco José Cuesta-Valero.
Die Quantifizierung der thermischen Energie ist wichtig, weil mit ihrer Zunahme Prozesse einhergehen, die Ökosysteme verändern können und somit Folgen für die Gesellschaft haben. Dies gilt zum Beispiel für die dauerhaft gefrorenen Böden in der Arktis. „In Permafrostböden mag die Wärmemenge zwar nur neun Prozent der kontinentalen Wärmespeicherung ausmachen, der Anstieg in den letzten Jahren verstärkt aber durch das Auftauen des Permafrostes die Freisetzung von Treibhausgasen wie Kohlendioxid und Methan“, sagt Francisco José Cuesta-Valero. Nimmt die gespeicherte Wärmeenergie im Boden zu, erwärmt sich die Erdoberfläche und gefährdet damit beispielsweise die Stabilität des Kohlenstoffpools im Boden. Auf landwirtschaftlichen Flächen könnte das die Ernten und damit die Ernährungssicherheit der Bevölkerung gefährden. In Binnengewässern könnte sich der veränderte thermische Zustand auf die Dynamik der Ökosysteme auswirken: Die Wasserqualität verschlechtert sich, der Kohlenstoffkreislauf gerät durcheinander; es kommt vermehrt zu Algenblüten, was wiederum die Sauerstoffkonzentration und die Primärproduktivität verändert und sich damit auf den Fischfang auswirken könnte.
Co-Autor Prof. Dr. Jian Peng, Leiter des UFZ-Departments Remote Sensing, bilanziert deshalb: „Es ist wichtig, die von den kontinentalen Landmassen absorbierte zusätzliche Wärmemenge genauer zu quantifizieren und zu überwachen. Denn dies ist ein wichtiger Indikator, um zu verstehen, wie sich aufgrund der Wärmespeicherung die Veränderungen der natürlichen Prozesse künftig auf die Natur und den Menschen auswirken werden“.
Wissenschaftliche Ansprechpartner:
Francisco José Cuesta-Valero
UFZ-Department Remote Sensing
francisco-jose.cuesta-valero@ufz.de
Prof. Dr. Jian Peng
Leiter UFZ-Department Remote Sensing
jian.peng@ufz.de
Originalpublikation:
Francisco José Cuesta-Valero, Hugo Beltrami, Almudena García-García, Gerhard Krinner,
Moritz Langer, Andrew H. MacDougall, Jan Nitzbon, Jian Peng, Karina von Schuckmann, Sonia I. Seneviratne, Wim Thiery, Inne Vanderkelen, and Tonghua Wu. Continental Heat Storage: Contributions from the Ground, Inland Waters, and Permafrost Thawing. Earth System Dynamics. https://doi.org/10.5194/esd-14-609-2023
Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=20/2023
Vor allem bei Übergewicht: Fachleute warnen vor verstecktem Muskelschwund
Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Proteine & Kraftsport könnten helfen, wenn adipöse Patient:innen an Muskelschwund litten. Doch meist werde die Krankheit nicht erkannt, so Prof. Dr. Bischoff von der Uni Hohenheim
Es sei ein bislang kaum beachtetes Krankheitsbild, und es beträfe vor allem Menschen mit starkem Übergewicht, der sog. Adipositas: Aufgrund von Bewegungsmangel könne es bei dieser Bevölkerungsgruppe zu einem schleichenden Muskelschwund kommen, der unter dem Fettmantel verborgen und damit unentdeckt bleibe. Prof. Dr. med. Stephan Bischoff von der Universität Hohenheim in Stuttgart gehört zu einem internationalen Experten-Panel, das das neue Krankheitsbild der sogenannten „sarkopenen Adipositas“ definierte und Kriterien zur Diagnose erarbeitete. Ihre Ergebnisse veröffentlichten die Fachleute in den Zeitschriften „Clinical Nutrition“ und „Obesity Facts“ (https://doi.org/10.1159/000521241). Im nächsten Schritt gelte es nun, geeignete Therapien zu entwickeln.
Muskelschwund aufgrund von Bewegungsmangel sei eine Krankheit, die bislang vor allem bei betagten Menschen, bei chronisch Kranken und als Folge längerer Phasen der Unbeweglichkeit beobachtet werde. Beispiele für solche chronischen Krankheiten könnten Krebs, Herzinsuffizienz oder Diabetes sein. Längere Unbeweglichkeit könne z.B. durch langes Tragen eines Gipsverbandes oder längere Bettlägerigkeit verursacht werden.
Neu sei allerdings die Erkenntnis, dass auch junge Menschen an Muskelschwund leiden können, wenn sie entsprechendes Körpergewicht auf die Waage brächten, erklärt Ernährungsmediziner Prof. Dr. med. Bischoff. „Mit zunehmendem Übergewicht steigt erst einmal die Muskelmasse, um die Gewichtszunahme auszugleichen. Danach erreicht die Muskelmasse jedoch oft einen Kipp-Punkt, ab dem sie aufgrund von Bewegungsmangel wieder abnimmt.“
Mit abnehmender Muskelmasse steigt die Gefahr von Erkrankungen
Das gefährliche daran: bei stark bis krankhaft übergewichtigen Menschen verberge die Decke aus Körperfett den gefährlichen Muskelverlust.
Die Folgen seien nicht zu unterschätzen, warnt Prof. Dr. Bischoff: „Patientinnen und Patienten mit Muskelschwund sind deutlich anfälliger für Krankheiten. Auch die Lebenserwartung sinkt“, so der Ernährungsmediziner.
Diesen Zusammenhang hätten zum Beispiel auch die Erkrankungswellen während der Covid-Pandemie illustriert: „Da sich Muskelschwund bei adipösen Menschen auch auf die Atemmuskulatur auswirkt, hatten diese aufgrund der verringerten Atemleistung deutlich schwerere Verläufe.“
Ein Viertel der Bevölkerung potentiell betroffen
In Deutschland seien Übergewicht und Adipositas leider kein Randgruppenphänomen: Rund die Hälfte der Bevölkerung in Deutschland sei inzwischen übergewichtig. Bei einem Viertel der Gesamtbevölkerung sei das Übergewichts so stark ausgeprägt, dass sie unter dem Namen Adipositas als Krankheit eingestuft werde, so Prof. Dr. Bischoff (s. Hintergrund).
Zuerst sei der Zusammenhang zwischen Adipositas und Muskelschwund durch eine Häufung von Einzelbeobachtungen aufgefallen. Um den Verdacht zu erhärten, entschlossen sich zwei Fachgesellschaften – die European Society for Clinical Nutrition and Metabolism (ESPEN) und die European Association for the Study of Obesity (EASO) – das Thema mit einer eigens einberufenen Expertenrunde zu klären.
In ihrem Auftrag führten Prof. Dr. med. Bischoff und über 30 Kolleg:innen die Expertise aus 16 Ländern Europas und aus Übersee zusammen. In einem 4-stufigen sogenannten Konsensus-Gespräch erarbeiteten die Fachleute aus verschiedenen Disziplinen eine klinische Definition und Diagnoseverfahren. Koordiniert wurde das Panel von Prof. Dr. Lorenzo Donini von der italienischen Universität Sapienza in Rom.
Konsenspapier empfiehlt Methodenmix zur Diagnose
Um die sogenannte „sarkopene Adipositas“ zu diagnostizieren, empfehlen sie einen Methodenmix. Dabei werden sowohl die Anteile von Fett- und Muskelmasse im Körper bestimmt als auch die Muskelfunktion gemessen.
Um die Körperzusammensetzung zu bestimmen, biete sich z.B. die Bioimpedanzanalyse an: Das Analysegerät leite einen schwachen Strom durch den Körper der Patient:innen. Aus dem elektrischen Widerstand lasse sich dann die Körperzusammensetzung berechnen. Alternativ könnten auch Messungen aus der Magnetresonanztomographie („MRT-Röhre“) verwendet werden.
Um die Muskelfunktion zu testen, gäbe es eine Reihe standardisierter Tests. Dabei werde z.B. gestoppt, wie oft Patient:innen in einer Minute aufstehen und sich wieder hinsetzen könnten oder welche Gehstrecke sie in 6 Minuten zurücklegten.
„Von der sarkopenen Adipositas sprechen wir dann, wenn sowohl der Anteil von Muskelmasse zu niedrig als auch die Muskelfunktion bereits beeinträchtigt ist“, erklärt Prof. Dr. med. Bischoff. Bei der endgültigen Diagnose würden dann noch Details wie Alter, Geschlecht oder auch die ethnische Zugehörigkeit berücksichtigt.
Proteinreiche Kost als Hoffnungsträger bei den Therapieformen
Wie die sarkopene Adipositas behandelt werden könne, sei derzeit noch Gegenstand der Forschung, betont der Ernährungsmediziner der Universität Hohenheim. Erste Ergebnisse zeichneten sich jedoch bereits ab.
„Aus der Adipositas kennen wir bereits einige Programme zur Gewichts-Reduzierung. Eines davon wenden wir seit rund 20 Jahren erfolgreich an der Universität Hohenheim an. Nun müssen wir noch mehr darauf achten, dass die Muskelmasse bei der Gewichtsabnahme möglichst unangetastet bleibt bzw. wieder aufgebaut wird. Am aussichtsreichsten dafür scheint die Kombination aus Krafttraining und proteinreicher Ernährung.“
Die proteinreiche Ernährung will Prof. Dr. Bischoff schon seit Jahrzehnten empfohlen und auch in eigener Praxis angewendet haben: „Bislang empfahlen wir die proteinreiche Kost vor allem deshalb, weil sie schnell den Hunger stillt und dadurch den Abnehm-Erfolgt erhöht.“
Anpassungsbedarf gäbe es voraussichtlich bei der Bewegungstherapie: „Wichtiger als Ausdauertraining scheint es, Gewichte zu stemmen – so wie es Bodybuilder und Gewichtheberinnen tun.“
Chirurgische Maßnahmen benötigen intensivere Nachsorge
Noch weitreichender seien die Folgen der neuen Erkenntnisse für chirurgische Maßnahmen gegen krankhaftes Übergewicht, bei denen der Magen verkleinert oder der Darm verkürzt werde.
„In solchen Fällen brauchen wir eine viel intensivere Nachsorge“, erklärt Prof. Dr. med. Bischoff. Denn gerade weil Proteine stark sättigten, sei es für Patient:innen mit verkleinertem Magen sehr schwierig, ausreichende Mengen zu sich zu nehmen. „Da stellt sich sehr schnell ein Völlegefühl oder Übelkeit ein.“
Auch das nötige Bewegungstraining erweise sich als komplex. „In einer ersten Studie zusammen mit dem Universitätsklinikum Tübingen hatten wir versucht, die Betroffenen zum Training in Eigenregie zu ermutigen.“, berichtet Prof. Dr. Bischoff. Dazu hätten die Patient:innen eine Wii-Konsole und entsprechende Trainingsprogramme erhalten.
Der Erfolg sei bei diesem Ansatz jedoch überschaubar geblieben. „Es zeigt sich, dass Betroffene gerade nach einer chirurgischen Behandlung noch viel mehr aktive Betreuung benötigen“, so das Zwischenfazit des Ernährungsmediziners.
HINTERGRUND Übergewicht vs. Adipositas
Übergewicht bezieht sich auf ein Körpergewicht, das über dem gesunden Bereich liegt. Adipositas hingegen ist eine ernstere Erkrankung, bei der überschüssiges Körperfett zu Gesundheitsproblemen führen kann. Bei der Unterscheidung hilft der sogenannte Body-Mass-Index (BMI), bei der das Gewicht eines Menschen durch das Quadrat seiner Körpergröße geteilt wird. Adipositas wird in der Regel durch einen BMI von 30 oder höher definiert, während Übergewicht durch einen BMI von 25 bis 29,9 definiert ist. Adipositas kann das Risiko für Herzerkrankungen, Diabetes, Schlaganfälle und andere gesundheitliche Probleme erhöhen.
HINTERGRUND: Bioimpedanzanalyse
Die Bioimpedanzanalyse gibt Aufschluss, wie viel Wasser und wie viel Masse sich im Körper eines Lebewesens befinden. Sie fußt darauf, dass Wasser den Strom wesentlich besser leitet als feste Masse. Bei der Bioimpedanzanalyse wird eine Elektrode an der Hand und eine am Fuß angebracht, so dass der Strom quer durch den Körperstamm fließt. Aus dem elektrischen Widerstand lässt sich der Anteil des Wassers berechnen. Da Muskeln mehr Wasser enthalten als Fett, lässt sich weiterhin auch das Verhältnis von Muskelmasse zu Fettgewebe bestimmen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Stephan C. Bischoff, Universität Hohenheim, Institut für Ernährungsmedizin,
T +49 (0)711 459-24100, E bischoff.stephan@uni-hohenheim.de
Originalpublikation:
Publikation Definition and Diagnostic Criteria for Sarcopenic Obesity: ESPEN and EASO Consensus Statement: https://doi.org/10.1159/000521241
Weitere Informationen:
https://www.uni-hohenheim.de/expertenliste-proteine
https://www.uni-hohenheim.de/presse
Mit Schrott mehr Umweltschutz
Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fördert neue Technik – Erste kommerzielle Anlage startet
Osnabrück/Berlin. Wenn östlich von Berlin das Entsorgungs- und Recyclingunternehmen Alba an seinem Standort Hoppegarten eine Aluminium-Sortieranlage in Betrieb nimmt, beginnt für das Metall-Recycling von Sekundärrohstoffen eine neue zirkuläre Zeitrechnung. Denn es ist die erste kommerzielle Anwendung einer laserbasierten Sortier-Technik, für deren Entwicklung die Deutsche Bundesstiftung Umwelt (DBU) mit Projekt- und Prototyp-Förderung in Höhe von mehr als einer Million Euro sowie drei mittelständische Unternehmen mit technischer Finesse und Ingenieurkunst den Weg geebnet haben. DBU-Generalsekretär Alexander Bonde: „Das ist bahnbrechendes Hightech. Aus Schrott wird Umweltschutz.“
Ein Win-Win für Wirtschaft und Umwelt
Der Metall-Müll ist nach Bondes Worten „keineswegs nutzloser Abfall, sondern tatsächlich kostbarer Rohstoff, der wieder zu hochwertigen Legierungen einzuschmelzen ist“. Das sei ein Win-Win für Wirtschaft und Umwelt. „Die wegweisenden Ideen der beteiligten mittelständischen Unternehmen senken nicht nur die Energiekosten, sondern sorgen für mehr Umwelt- und Klimaschutz, weil weniger Rohstoffe der Erde entnommen werden müssen“, fügt Bonde hinzu. Er spricht von einem „riesigen Impuls für die Kreislaufwirtschaft“. Dass nun eine Aluminium-Sortieranlage Marktreife erlangt hat, ist einer mehrjährigen Entwicklung und Forschung zu verdanken – maßgeblich durch Kooperation der beiden NRW-Firmen Clean-Lasersysteme GmbH und cleansort GmbH sowie der OSR GmbH & Co.KG aus Baden-Württemberg. Clean-Lasersysteme feilte an der geeigneten Messtechnik, cleansort tüftelte am Anlagenbau, und die auf Schrotthandel und Aufbereitung von Rohstoffen spezialisierte OSR war schließlich der entscheidende Schlüssel, um den Prototyp einer Anlage in Rosengarten (Ostwürttemberg) in Betrieb zu nehmen. Die Deutsche Bundesstiftung Umwelt hat die Hightech-Vorhaben fachlich und finanziell gefördert.
Bestimmte Hochleistungswerkstoffe benötigen exakte Legierungsanteile
„Die angewandte Technologie ist von höchster Präzision geprägt“, sagt DBU-Referatsleiter Dr. Michael Schwake. Kombiniert werden dabei zwei Verfahren mit dem Ziel, die Legierung der Schrottteile genau zu bestimmen. In der Metallurgie handelt es sich bei Legierungen um homogene metallische Werkstoffe, die aus mehreren chemischen Elementen bestehen, wovon mindestens eines ein Metall ist. Schwake: „Für verschiedene Sektoren wie die Automobilindustrie sind Legierungsbestandteile von größter Bedeutung. Hochleistungswerkstoffe wie Karosseriebleche oder Achsträger benötigen exakte Legierungsanteile.“
Bonde: Das könnte den Schrottmarkt revolutionieren
Genau das gewährleistet die Hoppegarten-Anlage, die anfangs aufgrund der zu erwartenden positiven Nachhaltigkeits- und Kosteneffekte Aluminiumschrott sortiert, grundsätzlich aber alle metallischen Werkstoffe für die spätere Weiternutzung trennen kann. In einem ersten Schritt werden die etwa handtellergroßen Schrottstücke wie zum Beispiel ausgestanzte Bleche auf einem Fließband transportiert. Kameras inspizieren jedes einzelne Teil und identifizieren mehrere Prüfpunkte. Dann kommen die Hightech-Laser an diesen Prüfpunkten zum Einsatz: zunächst zum Reinigen der Oberfläche von Dreck und Deckschichten bis aufs Grundmetall – anschließend mit punktuellen Laserpulsen direkt auf das Schrottteil. Blitzschnell. Die Folge: Das Material verdampft, aus den Lichtemissionen der Metallatome wird die chemische Zusammensetzung ermittelt. Eine Ausblas-Einheit am Ende des Prozesses sorgt mittels Luftdrucks für die Trennung der Schrottstücke. Durch eine solche laserbasierte Sortier-Technik – im Fachjargon spricht man von laserinduzierter Plasmaspektroskopie LIBS (Laser Induced Breakdown Spectroscopy) – kann künftig der Schrott entsprechend seiner Legierungsanteile zielgenau zur Schmelze gebracht werden. DBU-Generalsekretär Bonde: „Diese hochkomplexe Technologie ist eine herausragende Entwicklung und könnte den Schrottmarkt revolutionieren.“
Bedarf an Aluminiumschrott in der EU könnte in den nächsten Jahrzehnten auf neun Millionen Tonnen steigen
Vor allem ermöglicht die LIBS-Technologie, die Menge der verwendeten Sekundärrohstoffe als Recyclingmaterial für die Produktion von Hochleistungswerkstoffen beträchtlich zu steigern. Derzeit liegt deren Anteil in der Metallproduktion in Deutschland bei 43 Prozent des Kupfers, 69 Prozent des Bleis, 60 Prozent des Aluminiums und 44 Prozent des Rohstahls. Für die hierzulande jährlich erzeugten rund 50 Millionen Tonnen Stahl werden etwa 22 Millionen Tonnen Sekundärrohstoffe sowie zusätzlich drei Millionen Tonnen Legierungsmetalle eingesetzt. Wie dringend neue Technologien bei der Schrottverwertung sind, macht der Verband Deutscher Metallhändler und Recycler (VDM) klar. Laut VDM steigt in der EU in den nächsten Jahrzehnten der Bedarf an Aluminiumschrott auf rund neun Millionen Tonnen – mit hervorragender Perspektive: Der Einsatz von Aluminiumschrott spart 95 Prozent der Energie im Vergleich zum Energieverbrauch bei der Primärproduktion, so der VDM. Und: Laut cleansort-Kalkulation können durch eine Anlage wie in Hoppegarten jedes Jahr in einem Zwei-Schicht-Betrieb auf Basis deutscher Strompreise rund sechs Millionen Euro Kosten eingespart werden – und fast 18.000 Tonnen klimaschädliches Kohlenstoffdioxid.
Weitere Informationen:
https://www.dbu.de/news/mit-schrott-mehr-umweltschutz/ Online-Pressemitteilung
Bessere Suche nach Ursache für Erbkrankheiten
Julia Rinner Corporate Communications Center
Technische Universität München
Bei rund der Hälfte aller seltenen Erberkrankungen kann deren Ursache bislang nicht geklärt werden. Ein Münchner Forschungsteam hat einen Algorithmus entwickelt, der die Auswirkungen von genetischen Mutationen auf die Bildung der RNA um das Sechsfache genauer vorhersagt als bisherige Modelle. Dadurch werden die genetischen Ursachen von seltenen Erberkrankungen und Krebs häufiger erkannt.
Genetische Variationen treten relativ häufig auf – durchschnittlich ist jede tausendste Stelle des DNA-Strangs eines Menschen betroffen. In seltenen Fällen können diese Veränderungen dazu führen, dass die RNA und die daraus gebildeten Proteine fehlerhaft sind. Dadurch können beispielsweise Fehlfunktionen in einzelnen Organen auftreten. Bei Verdacht auf eine seltene Erkrankung helfen mittlerweile oft computergestützte Diagnoseprogramme bei der Suche nach möglichen genetischen Ursachen weiter. Dazu wird das Genom mithilfe von Algorithmen analysiert, um herauszufinden, ob Variationen auf den Genen und Fehlfunktionen in bestimmten Teilen des Körpers zusammenhängen.
Interdisziplinäres Forschungsprojekt
Unter der Leitung von Julien Gagneur, Professor für Computational Molecular Medicine an der TUM und Forschungsgruppenleiter Computational Molecular Medicine bei Helmholtz Munich, hat ein interdisziplinäres Team aus den Bereichen Informatik und Medizin ein neues Modell entwickelt, das im Vergleich zu seinen Vorgängern deutlich besser vorhersagt, welche Variationen auf der DNA zu fehlerhaft gebildeten RNA-Strängen führen.
„Mit den bereits etablierten Methoden der DNA-Analyse kann bei ungefähr der Hälfte unserer Patienten eine sichere Diagnose gestellt werden“, sagt Dr. Holger Prokisch, Mitautor der Studie sowie Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, „Bei den übrigen benötigen wir unbedingt Modelle, die eine Vorhersage verbessern. Unser neu entwickelter Algorithmus kann hierbei einen wichtigen Beitrag leisten.“
Fokus des Modells liegt auf dem Splicing
In ihrer Studie haben die Forschenden Variationen betrachtet, die den Umwandlungsprozess von DNA in RNA und schließlich die Bildung von Proteinen in spezifischen Geweben beeinflussen. Der Fokus lag dabei auf dem Splicing – einem Vorgang in den Zellen, bei dem die RNA so zugeschnitten wird, dass später die Bauanleitung für das Protein abgelesen werden kann. Liegen Variationen auf der DNA vor, kann dieser Prozess gestört werden und dazu führen, dass entweder zu viel oder zu wenig aus den RNA-Strängen herausgeschnitten wird. Fehler im Splicing-Prozess gelten als eine der häufigsten Ursachen für die Fehlbildung von Proteinen und Erberkrankungen.
Deutlich höhere Genauigkeit als vorherige Studien
Um Aussagen über mögliche Zusammenhänge zwischen der Variation einzelner Gene und Fehlfunktionen in bestimmten Geweben treffen zu können, hat das Team auf einen bereits bestehenden Datensatz zurückgegriffen. Dieser enthält DNA- und RNA-Proben aus 49 Geweben von insgesamt 946 Individuen.
Im Vergleich zu vorherigen Studien betrachtete das Team jede Probe zunächst dahingehend, ob und inwiefern sich fehlerhaftes Splicing durch eine Variation auf der DNA überhaupt in bestimmten Geweben durch Fehlfunktionen äußert. So kann ein Protein relevant sein für spezielle Bereiche im Herzen, im Gehirn hingegen kommt es unter Umständen gar keiner Funktion nach.
„Hierfür erstellten wir eine gewebespezifische Splicing-Karte, in der wir quantifizierten, welche Stellen auf der RNA für das Splicing in einem bestimmten Gewebe wichtig sind. Durch unser Vorgehen konnten wir unser Modell auf die biologisch relevanten Kontexte reduzieren. Die von uns verwendeten Haut- und Blutproben ermöglichen uns aber auch Rückschlusse auf schwer zugängliches Gewebe, wie dem Gehirn oder dem Herzen zu ziehen“, so Nils Wagner, Erstautor der Studie und Doktorand am Lehrstuhl für Computational Molecular Medicine an der TUM.
Bei der Analyse wurde jedes Gen berücksichtigt, das mindestens eine seltene genetische Mutation trägt und gleichzeitig relevant für die Bildung von Proteinen ist. Neben den proteincodierenden Bereichen auf der RNA gibt es Abschnitte, die wichtig sind für andere Prozesse in unseren Zellen. Diese wurden in der Studie nicht betrachtet. Dadurch ergab sich eine Gesamtzahl von fast 9 Millionen untersuchten seltenen genetischen Muationen.
„Durch unser neu entwickeltes Modell konnten wir die Genauigkeit bei der Vorhersage von fehlerhaftem Splicing im Vergleich zu vorherigen Modellen um das Sechsfache steigern. Bei einer Erkennungsrate von 20 Prozent erreichen bisherige Algorithmen eine Genauigkeit von 10 Prozent. Unser Modell schafft bei gleicher Erkennungsrate eine Genauigkeit von 60 Prozent“, sagt Prof. Julien Gagneur.
Genauigkeit und Erkennungsrate sind wichtige Kennzahlen, um die Leistungsfähigkeit von Modellen vorherzusagen. Die Genauigkeit gibt dabei an, wie viele der Variationen, die vom Modell vorhergesagt wurden, tatsächlich zu fehlerhaftem Splicing führen. Die Erkennungsrate zeigt, wie viele der Variationen, von allen auf den dann vorhandenen Variationen, die zu fehlerhaftem Splicing führen, vom Modell gefunden werden konnten.
„Ein so großer Fortschritt bei der Genauigkeit ist uns gelungen, indem wir zum einen den Splicing-Prozess gewebespezifisch betrachtet und zum anderen direkte Splicing Messungen aus einfach zugänglichen Geweben wie Blut und Hautzellen benutzt haben, um Splicing-Fehler in nicht zugänglichen Geweben wie dem Herzen oder dem Gehirn vorherzusagen.“, so Prof. Julien Gagneur.
Praktischer Einsatz des Algorithmus
Das Modell wird im Rahmen des europäischen Forschungsprojekts „Solve – RD – solving the unsolved rare diseases“ eingesetzt. Die Initiative hat sich dabei zum Ziel gesetzt, durch einen breiten Austausch von Wissen die Diagnosemöglichkeiten seltener Erkrankungen zu verbessern. So hat das Team der TUM bereits 20.000 DNA-Sequenzen von insgesamt 6.000 betroffenen Familien analysiert.
Darüber hinaus soll es durch das Modell zukünftig möglich sein, Leukämie und ihre verschiedenen Formen leichter zu diagnostizieren. Hierfür untersuchen die Forschenden aktuell 4.200 DNA- und RNA-Proben von Leukämie-Erkrankten.
Weitere Informationen
Prof. Julien Gagneur kam 2016 als Assistant Professor an die TUM. 2020 übernahm er die Professur für Computational Molecular Medicine. Dabei erforscht er die genetischen Grundlagen der Genregulation und ihre Auswirkungen auf Krankheiten mithilfe statistischer Algorithmen und maschineller Lernverfahren. Gleichzeitig ist er Forschungsgruppenleiter bei Helmholtz Munich.
Zusammen mit Holger Prokisch, Gruppenleiter am Institut für Humangenetik der TUM und bei Helmholtz Munich, entwickelt Prof. Julien Gagneur darüber hinaus Strategien, um die Ursache genetischer Störungen zu identifizieren.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Julien Gagneur
Technische Universität München
Professur für Computational Molecular Medicine
Tel: +49 (89) 289-19411
julien.gagneur@tum.de
Dr. Holger Prokisch
Klinikum rechts der Isar der Technischen Universität München
Institut für Humangenetik
Tel: +49 89 3187-2890
holger.prokisch@tum.de
Originalpublikation:
Wagner, N., Çelik, M. H., Hölzlwimmer, F. R., Mertes, C., Prokisch, H., Yépez, V. A., & Gagneur, J. (2023). Aberrant splicing prediction across human tissues. Nature Genetics, 1-10.
Weitere Informationen:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/bessere-s…
Strände nutzen – nicht verschmutzen
Maike Nicolai Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
31.05.2023/Kiel. Aufgrund der Ausrichtung der Küstenlinie und vorherrschenden Richtungen von Wind und Strömungen gelangt nur wenig Müll vom Meer aus an Schleswig-Holsteins Ostseestrände. Vielmehr ist die Verschmutzung eine Folge der Strandnutzung. Die Belastung mit kleinsten Partikeln, dem Mikroplastik, ist dabei moderat, und es konnte kein direkter Zusammenhang zwischen der Menge Mikroplastik und der Verschmutzung mit Strandmüll festgestellt werden. Zu diesem Ergebnis kommen Wissenschaftler:innen des GEOMAR und der Kieler Forschungswerkstatt. Mit ihrer Veröffentlichung legten sie die erste systematische Untersuchung zu Müll im Mikro- und Makrospektrum in der Region vor.
– Gemeinsame Pressemitteilung der Christian-Albrechts-Universität zu Kiel (CAU), der Kieler Forschungswerkstatt, des Forschungsverbunds Future Ocean und des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel –
Müll an Schleswig-Holsteins Stränden ist Einheimischen wie Gästen ein Dorn im Auge. Eine Untersuchung im Rahmen des Forschungsverbunds Future Ocean an der Christian-Albrechts-Universität zu Kiel (CAU) zeigt: Der größte Teil des Mülls stammt direkt aus der Strandnutzung und wird nicht aus dem Meer an die Strände gespült. Damit ist diese Verschmutzung leicht vermeidbar. Interessanterweise fand sich kein eindeutiger Zusammenhang zwischen der Dichte an Mikroplastik im Sediment und der Menge an sichtbaren größeren Müll-Teilen. Für ihre Analyse untersuchten die Wissenschaftler:innen des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und der Kieler Forschungswerkstatt, einer gemeinsamen Einrichtung der CAU und des Leibniz-Instituts für die Pädagogik der Naturwissenschaften und Mathematik (IPN), im Frühjahr und im Herbst 2018 zehn Strände entlang der schleswig-holsteinischen Ostsee. Mit ihrer Veröffentlichung im Fachmagazin Marine Pollution Bulletin legten die Forschenden jetzt die erste kombinierte systematische Untersuchung zu Müll im Mikro- und Makrospektrum an Schleswig-Holsteins Ostseestränden vor.
„Mikroplastik und größerer Müll an Stränden sind ein bekanntes Problem – und wir können ganz einfach etwas dagegen unternehmen“, erklärt Dr. Mark Lenz. Der Meeresbiologe am GEOMAR ist Leiter der Untersuchung und Erst-Autor der Publikation. „Unsere Daten zeigen den Zusammenhang zwischen Strandnutzung und Verschmutzung überraschend deutlich: Im Herbst, zum Ende der Saison, sind die Strände doppelt so verschmutzt wie im Frühling. An Orten, in denen die Strände regelmäßig gereinigt wurden, war die Steigerung geringer als an denen ohne. Zudem waren im Herbst deutlich mehr Papier, Pappe und vor allem Zigarettenkippen zu finden als zu Beginn der Saison. Die schleswig-holsteinischen Strände wären also deutlich sauberer und die Küstenökosysteme gesünder, wenn alle ihren Müll am Ende eines Strandbesuches entsorgen.“
Die Auswertungen an den Stränden von Holnis, Falshöft, Boknis, Schwedeneck, Schönberg, Hohwacht, Flügge, Staberhuk, Kellenhusen und Travemünde folgten dem einheitlichen Protokoll zur Erfassung von Makro-Müll des Übereinkommens zum Schutz der Meeresumwelt des Nordost-Atlantiks (Oslo-Paris Konvention, OSPAR): Drei Personen sammelten systematisch alle Müll-Teile größer als 2,5 Zentimeter entlang einer 100 Meter langen Strecke parallel zum Flutsaum auf und ordneten diese einer vorgegebenen Kategorie zu. Nach dem Trocknen wurde das Gesamtgewicht der Funde erfasst. Zusätzlich entnahmen die Forschenden Sediment-Proben, extrahierten die darin enthaltenen Mikroplastik-Partikel und analysierten den Kunststoff-Typ.
„Im Frühling fanden wir zwischen 38 Müll-Teilen in Holnis und 241 in Travemünde. Gut 40 Prozent bestand aus Plastik, fast 35 Prozent aus Papier, Pappe und Zigarettenkippen und 15 Prozent Glas. Im Herbst lag die Bandbreite zwischen 27 Teilen in Holnis und 713 in Schönberg. Papier, Pappe und Zigarettenkippen machten dann mehr als 60 Prozent aus, gut ein Viertel war Plastik und nur 4 Prozent Glas“, fasst Dr. Lenz zusammen.
Insgesamt ließ sich keine Korrelation zwischen der Menge des Makro-Mülls und des Mikroplastiks feststellen. Deutlich wurde aber auch: Unsere Strände sind nicht frei von Mikroplastik. Die kleinen Partikel fanden sich in fast allen Sedimentproben in Mengen zwischen 2 und 28 Partikeln pro Kilogramm Sand. Auch wenn diese Dichten im Vergleich zu anderen Standorten noch moderat sind, bedeutet dies trotzdem, dass sich an jedem unserer Strände wahrscheinlich Millionen der künstlichen Mikropartikel befinden. Diese werden in der Natur nicht abgebaut und können sich daher im Laufe der Zeit anreichern. Ob die Menge an Mikroplastik in Zukunft noch weiter zunimmt, könnten weitere Studien zeigen, die auf der nun vorgelegten Untersuchung aufbauen. Die Auswirkungen des Mikroplastiks auf die Umwelt sind noch nicht abschließend untersucht, aber es ist bekannt, dass Hunderte von Tierarten es mit ihrer Nahrung aufnehmen.
Ein Vergleich mit anderen Orten rund um die Ostsee zeigte, dass die Müllmengen denen in Mecklenburg-Vorpommern im Durchschnitt ähnelten. Strände in Litauen und Polen waren deutlich stärker verschmutzt, Strände in Dänemark ungefähr so sauber wie die weniger frequentierten schleswig-holsteinischen. Die geringe Dominanz an angeschwemmtem Plastikmüll in Schleswig-Holstein führen die Forschenden auf die Ausrichtung der Küstenlinie und die vorherrschende Richtung von Wind und Strömungen zurück.
GEOMAR und die Kieler Forschungswerkstatt bieten Informationen und wissenschaftliche Programme für Schüler:innen und Lehrer:innen zu Strandmüll und Mikroplastik an. „In der Kieler Forschungswerkstatt untersuchen wir bereits seit mehr als zehn Jahren die Strände rund um die Kieler Förde. Die Müllmengen dabei sind trotz Strandreinigung hoch. Jetzt haben wir zum ersten Mal Daten für die gesamte schleswig-holsteinische Ostseeküste, auf denen wir aufbauen können – eine gute Basis für zukünftige Untersuchungen“, sagt der Meeresbiologe Dr. Dennis Brennecke, der für die Kieler Forschungswerkstatt die Probennahme mit durchgeführt hatte. Seit der Untersuchung an den Ostsee-Stränden haben die Tourismus-Orte bereits viele Maßnahmen umgesetzt, um die Müllmengen zu reduzieren. „Klar ist, wir müssen das Bewusstsein in der Gesellschaft weiter stärken. In der Forschungswerkstatt beginnen wir damit schon bei den Grundschülerinnen und Grundschülern“, so Brennecke.
Projekt-Förderung:
Die Untersuchung wurde im Rahmen des Exzellenzclusters „Future Ocean“ sowie über die Projekte „Defining the baselines and standards for microplastics analysis in European waters (BASEMAN)“ und „Horizontal and vertical oceanic distribution, transport, and impact of microplastics (HOTMIC)“ der Joint Programming Initiative Healthy and Productive Seas and Oceans (JPI Oceans) gefördert.
Originalpublikation:
Lenz, M., Brennecke, D., Haeckel, M., Knickmeier, K., Kossel, E. (2023): Spatio-temporal variability in the abundance and composition of beach litter and microplastics along the Baltic Sea coast of Schleswig-Holstein, Germany. Marine Pollution Bulletin, doi: https://doi.org/10.1016/j.marpolbul.2023.114830
Weitere Informationen:
http://www.geomar.de/n8971 Bildmaterial zum Download
https://www.forschungs-werkstatt.de/aktuelles/plastikmuell-im-schulunterrichtsth… Kieler Forschungswerkstatt: Plastikmüll im Schulunterricht
https://ozeanwissen.futureocean.org/topics/plastic.html Ozeanwissen zu Plastik und seinen Folgen
https://www.geomar.de/entdecken/plastikmuell-im-meer GEOMAR Entdecken: Plastikmüll im Meer
Windenergie: Neues Meerwasserlabor der BAM ermöglicht Korrosionsuntersuchungen unter Realbedingungen
Oliver Perzborn Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
Berlin, 30.05.2023. Die Bundesanstalt für Materialforschung und -prüfung (BAM) hat in Zusammenarbeit mit dem Wasserstraßen- und Schifffahrtsamt Elbe-Nordsee am Eidersperrwerk ein innovatives Meerwasserlabor errichtet. Die Anlage bietet die Möglichkeit, Korrosionsschutzmaßnahmen an Offshore-Gründungsstrukturen unter realen Bedingungen zu untersuchen. So lassen sich tatsächliche Korrosionsraten von Materialien ermitteln, Schutzmaßnahmen zielgerichtet auslegen und die geplanten Nutzungsdauer von Anlagen sicher erreichen.
Das eigens für diesen Zweck konzipierte Meerwasserlabor besteht aus zwei Containern, die eine Laborfläche von insgesamt ca. 50 m² bieten. An dem Standort am Eidersperrwerk können nicht nur Korrosionsuntersuchungen in Meerwasser und Sediment durchgeführt werden, sondern auch Untersuchungen zur Bewertung der Korrosivität der Atmosphäre. Das neue Labor ergänzt die bisherigen maritimen Auslagerungsstandorte der BAM auf Helgoland, Sylt und in Cuxhaven.
Ein zentraler Fokus der Untersuchungen liegt auf dem Übergangsbereich von Meerwasser zu Sediment, der generell kritisch für den Korrosionsschutz von Offshore-Gründungsstrukturen ist, weil hier besonders heterogene Bedingungen herrschen und daher der Erfolg eines Schutzsystems bisher nicht genau prognostiziert werden kann. Aufgrund dieser Problematik soll die Wirksamkeit verschiedener Korrosionsschutzmaßnahmen im Rahmen elektrochemischer Untersuchungen nachgewiesen werden. Durch die Analyse von Proben, die nach festgelegten Prüfzeiten entnommen werden, können Erkenntnisse für eine optimierte Korrosionsbekämpfung gewonnen werden.
Darüber hinaus befasst sich das Labor mit der Wechselwirkung von maritimem Bewuchs im Unterwasserbereich und der Wirksamkeit von kathodischem Korrosionsschutz (KKS). Bei diesem Schutzverfahren wird eine externe Stromquelle verwendet, um durch eine negative Spannung auf dem Metall die korrosive Reaktion zu hemmen. Da diese Wechselwirkung mit künstlichem Meerwasser nicht realitätsgetreu dargestellt werden kann, wurde das Korrosionslabor mit einem speziell konzipierten Wasser-Kreislaufsystem ausgestattet.
Die BAM arbeitet außerdem an der Entwicklung von Exploration-Tools, mit denen sich die Korrosivität des Sediments am Meeresgrund exakt beschreiben lässt. Die Tools sollen es in Zukunft ermöglichen, hochkorrosive Bereiche für die Gründung von Offshore-Bauwerken gezielt zu vermeiden bzw. den Korrosionsschutz an die Umweltbedingungen anzupassen.
Grundsätzlich können durch die Untersuchungen im Meerwasserlabor die Nutzungsdauer von Offshore-Windkraftenergieanlagen mit Blick auf die Korrosionsbelastung der Gründungsstrukturen künftig genauer ermittelt werden. Dies erhöht die Planungssicherheit für die Betreiber von Offshore-Windparks und stärkt insgesamt den Beitrag der Windenergie zu den klimapolitischen Zielen Deutschlands.
Weitere Informationen:
https://www.bam.de/Navigation/DE/Themen/Energie/Windenergie/sichere-windkraftanl…
Informationen schneller fließen lassen – mit Licht statt Strom
Axel Burchardt Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Entweder 1 oder 0. Entweder es fließt Strom oder eben nicht. In der Elektronik wird bisher alles über das Binärsystem gesteuert. Elektronen generieren so schon ziemlich schnell und gut Informationen, leiten diese weiter und übernehmen diverse Schaltfunktionen. Doch es geht noch schneller. Das haben Paul Herrmann und Sebastian Klimmer von der Universität Jena bewiesen. Die beiden Doktoranden haben dazu mit monokristallinen 2D-Materialien und Laserlicht experimentiert. Sie haben die bekannte physikalische Methode der Frequenzverdopplung von Licht mit einer besonderen Materialeigenschaft, der Valleypolarisation, kombiniert und dabei erstaunliche Ergebnisse erzielt
Nach ihrem Lieblingsspielzeug aus Kindertagen befragt, müssen Paul Herrmann und Sebastian Klimmer nicht lange überlegen. Einmütig antworten sie: der Lego-Baukasten. Das Beste daran sei gewesen, dass es so viele Kombinationsmöglichkeiten gab, erklären beide übereinstimmend. Ihre Begeisterung für Baukästen haben sich die jungen Physiker bis heute bewahrt – allerdings beschäftigen sie sich für ihre Promotion seit geraumer Zeit mit einem Baukasten von ganz anderem Format: mit sogenannten 2D-Materialien, die sie in atomare Schichten zerlegen, um sie dann mit „Valleytronik“ zu manipulieren.
Paul Herrmann und Sebastian Klimmer forschen dazu am Institut für Festkörperphysik der Jenaer Universität in der Arbeitsgruppe „Ultraschnelle optische Spektroskopie“ von Juniorprofessor Dr. Giancarlo Soavi. Deren Ziel ist es, neue Materialien und technische Möglichkeiten zu finden, die helfen, die Informationsverarbeitung und Weiterleitung mit moderner Elektronik um Größenordnungen schneller zu machen.
Dafür nutzen sie Licht als Werkzeug – ein großes Thema nicht nur der Physik an der Jenaer Universität – und den High-Tech-Baukasten der 2D-Materialien. „Diese Materialien, die aus nur einer Lage von Atomen bestehen, verfügen über herausragende optische Eigenschaften, die sie so interessant für die Forschung machen“, erklärt Paul Herrmann, der seit einem Jahr zur Arbeitsgruppe von Giancarlo Soavi gehört. „2004 gelang es den Nobelpreisträgern Geim und Novoselov erstmals, zweidimensionale Lagen aus Kohlenstoffatomen, das Graphen, herzustellen. Seitdem wurden von Wissenschaftlern auf der ganzen Welt viele weitere 2D-Materialien entdeckt“, ergänzt Sebastian Klimmer. „Theoretische Modelle sagen zudem voraus, dass es ungefähr 1.800 von ihnen geben soll. Das ist praktisch unser moderner Lego-Kasten, dessen Bausteine uns unendliche Kombinationsmöglichkeiten bieten.“
Mit Licht lokale Extrema abwechselnd manipulieren
Die beiden Jenaer Physiker haben sich aus diesem Baukasten das Wolframdiselenid ausgesucht, das zur Gruppe der Übergangsmetalldichalkogenide gehört. „Dieses spezielle Halbleitermaterial hat lokale Extrema in seiner elektronischen Bandstruktur, sogenannte Valleys, welche wir mit Licht manipulieren können“, erklärt Paul Herrmann die Wahl.
Mit diesen Materialien arbeiten die jungen Forscher im Labor erfolgreich. „Wir beschießen das Material mit einem zirkular polarisierten Laser. Das kann in zwei unterschiedlichen Richtungen geschehen, so dass wir damit bestimmen können, in welchem Valley wir Elektronen anregen“, erklärt Herrmann. „Dieses Phänomen der Valleypolarisation – also der Zustand, in dem ein Valley mehr angeregt wird als das andere – kann man wiederum ausnutzen, um darin Informationen zu codieren, zu manipulieren und wieder auszulesen“, führt Klimmer aus.
Gleichzeitig machen sich die Forscher den seit den 1960er Jahren bekannten Effekt der „Second-harmonic Generation“, also der Frequenzverdopplung von Licht, zunutze. „Wir verwenden einen Infrarotlaser bei einer Wellenlänge von 1.500 Nanometern. Damit können wir die Frequenzverdopplung in Wolframdiselenid mit zwei Photonen resonant betreiben und somit die induzierte Valleypolarisation noch verstärken“, beschreibt Herrmann den komplizierten Prozess. „Weiterhin erlaubt uns die Verwendung der Frequenzverdopplung eine deutlich einfachere Trennung des Anregungslichtes und dem für uns interessanten Signal, welches sich entsprechend bei 750 Nanometern, der halben Wellenlänge beziehungsweise der doppelten Frequenz befindet“, ergänzt Klimmer.
Mit Licht wird Elektronik 1.000 Mal schneller
„Bisher wird in der Elektronik das Binärsystem genutzt, zur Informationsübertragung wird Strom an- oder abgeschaltet. Ein Transistor schafft so etwa eine Milliarde Berechnungen pro Sekunde. Indem wir die Elektronik mit Licht statt Strom schalten, lässt sich das auf eine Billion Berechnungen pro Sekunde steigern. Das heißt, wir sind mit unserem System 1.000 Mal schneller als die herkömmliche Elektronik“, fasst Paul Herrmann die Jenaer Forschungsergebnisse zusammen. Das mache die Lösung perspektivisch interessant für viele Bereiche der Optoelektronik und Technik.
Über ihre Forschungsarbeit zur „Nichtlinearen optischen kohärenten Erzeugung und Auslesen von Valleys in atomar dünnen Halbleitern“ berichten Herrmann und Klimmer in einem neuen Paper in der Fachzeitschrift „Small“, das bereits online geschaltet ist. Was diese Jenaer Arbeit originär macht, ist die Kombination der Methode der resonanten Zwei-Photonen-Frequenzverdopplung und der Valleypolarisation.
Forschungsfeld der 2D-Materialien boomt an der Universität Jena
Bis die neuen Erkenntnisse zu den 2D-Materialien und technischen Lösungen der Jenaer in größerem Maßstab eingesetzt werden können, werde es noch einige Jahre dauern, vermuten Sebastian Klimmer und Paul Herrmann. Man sei ja hier mit Grundlagenforschung beschäftigt. Doch sind nicht nur die beiden Mittzwanziger von den Chancen der neuen High-Tech-Materialien überzeugt. Am Institut für Festkörperphysik der Uni Jena beschäftigen sich in der Arbeitsgruppe von Professor Giancarlo Soavi aktuell rund 15 Physiker und Physikerinnen mit 2D-Materialien. Außerdem sind sie eingebunden in die Arbeit des Sonderforschungsbereichs SFB 1375 „NOA – Nichtlineare Optik bis in den Atombereich“, der im Juli 2019 an der Friedrich-Schiller-Universität eingerichtet und gerade verlängert wurde. Das Institut für Festkörpertheorie und Optik sei ebenso Kooperationspartner gewesen wie das Graduiertenkolleg „Maßgeschneiderte Metaoberflächen – Erzeugung, Programmierung und Detektion von Licht“, in dem Klimmer mitarbeitet. Darüber hinaus spielen 2D-Materalien auch in etlichen anderen Instituten der Friedrich-Schiller-Universität Jena eine wichtige Rolle.
Wissenschaftliche Ansprechpartner:
Paul Herrmann
Institut für Festkörperphysik der Friedrich-Schiller-Universität Jena
Helmholtzweg 5, 07743 Jena
Tel.: 03641 / 947385
E-Mail: p.herrmann@uni-jena.de
Originalpublikation:
Paul Herrmann, Sebastian Klimmer, Thomas Lettau, Mohammad Monfared, Isabelle Staude, Ioannis Paradisanos, Ulf Peschel, Giancarlo Soavi: Nonlinear All-Optical Coherent Generation and Read-Out of Valleys in Atomically Thin Semiconductors, small, https://doi.org/10.1002/smll.202301126
Was man zählt, ist nicht unbedingt das, was zählt
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Eine neue Studie, die die Zahl sich teilender Bakterienzellen in der Nordsee unter die Lupe nimmt, rüttelt an einigen Dogmen über die mikrobiellen Meeresbewohner.
Meerwasser ist voll mit Bakterien, Hunderttausende leben in jedem Liter. Wie viele Bakterien im Wasser leben, hat aber nicht unbedingt viel zu bedeuten. Wichtiger ist, wie aktiv sie sind und wie schnell sie sich vermehren. Das zeigt eine Studie von Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen, nun veröffentlicht im Fachmagazin mSystems.
Um festzustellen, wie schnell eine Population von Bakterien wächst, wird häufig gemessen, wie sich ihre Zellzahl mit der Zeit verändert. Diese Methode hat aber einen großen Mangel: Sie erhebt nicht, wie schnell sich die Bakterien vermehren oder sterben. Diese Faktoren sind jedoch sehr wichtig, um ökologische Prozesse zu verstehen. Deswegen haben nun Forschende des Max-Planck-Instituts für Marine Mikrobiologie in Bremen einen genaueren Blick auf diese Prozesse im Rahmen einer Frühjahrsblüte in der Deutschen Bucht geworfen. Dabei gerieten einige bisherige Dogmen ins Wanken.
Die Forschenden um Jan Brüwer, Bernhard Fuchs und Rudolf Amann untersuchten das Wachstum von Bakterien während der Frühjahrsblüte vor Helgoland mit verschiedenen Methoden: Mit dem Mikroskop zählten und bestimmten sie nicht nur die vorhandenen Zellen, sondern auch die Häufigkeit von Zellen, die sich gerade teilten. So konnten sie anschließend berechnen, wie schnell sich verschiedene Bakterienarten in ihrer natürlichen Umwelt vermehrten.
„Wir haben in tausenden Bildern mit modernen mikroskopischen Methoden sich teilende Zellen sichtbar gemacht und gezählt“, erklärt Jan Brüwer, der die Studie im Rahmen seiner Doktorarbeit durchführte. „Dabei haben wir uns zu Nutze gemacht, dass das verdoppelte Genom in die zukünftigen Tochterzellen aufgeteilt werden muss, bevor sich eine Zelle teilt. Wir konnten diese Zellen also aufgrund der DNA-Verteilung in der Zelle gut erkennen.“ So konnten die Forschenden die Wachstumsgeschwindigkeiten einzelner Bakteriengruppen über größere Zeiträume bestimmen.
„Die Ergebnisse hielten einige Überraschungen für uns bereit“, sagt Gruppenleiter Bernhard Fuchs. „So haben wir beispielsweise festgestellt, dass sich die am häufigsten im Meer vorkommende Bakteriengruppe namens SAR11 fast zehn Mal schneller teilt als angenommen.“ Die gemessenen Wachstumsraten passen zudem in vielen Fällen nicht mit der Häufigkeit der jeweiligen Bakterien im Meer zusammen. „Wenn Bakterien sich oft teilen und trotzdem nicht so häufig vorkommen, deutet das darauf hin, dass sie ein beliebtes Opfer von Jägern oder Viren sind“, erklärt Brüwer. „Auch der Zeitpunkt der Bakterienvermehrung war überraschend: SAR11-Bakterien teilten sich häufig schon vor dem Einsetzen der Algenblüte in der Nordsee. Woher sie die dafür erforderliche Energie nahmen, ist bis jetzt rätselhaft.“
Nicht alle Bakteriengruppen verhielten sich so unerwartet wie SAR11; bei anderen Gruppen passten die nun erhobenen Ergebnisse eher zu den Erwartungen der Forschenden – bei ihnen stimmten Wachstumsgeschwindigkeiten und Zellzahlen weitgehend überein.
Bisher nimmt man an, dass SAR11, die sehr kleine Zellen haben, mit wenigen Nährstoffen auskommen, sich nicht besonders häufig teilen und wegen ihrer geringen Größe nur wenig gefressen werden. Andere größere Bakterien, beispielsweise die Bacteroidetes, werden dagegen als beliebtes Futter angesehen, die sich schnell vermehren und ebenso schnell wieder verschwinden, wenn Jäger und Viren ihnen auf die Spur kommen. Die neue Studie von Brüwer und seinen Kolleginnen und Kollegen entwirft ein ganz anderes Bild.
„Unsere Ergebnisse beeinflussen unser Verständnis von Stoffkreisläufen, vor allem des Kohlenstoffkreislaufs, im Meer“, betont Brüwer. „Die häufigsten Bakterien im Meer, SAR11, sind aktiver und teilen sich schneller als bisher angenommen. Das könnte bedeuten, dass sie weniger Nährstoffe benötigen und eine beliebtere Nahrungsquelle für andere Organismen sind als vermutet. Außerdem scheint der generelle Umsatz an Bakterien während der Algenblüte schneller zu sein als wir dachten.“
„Die vorliegende Arbeit ist methodisch sehr aufwändig und sie zeigt, wieviele Informationen man aus Mikroskopiebildern ziehen kann“, sagt Rudolf Amann, Direktor am Max-Planck-Institut für Marine Mikrobiologie. „Ich bin sehr stolz auf die beteiligten Forschenden, dass sie diese Mammutaufgabe gestemmt haben und froh, mit ihnen zusammenarbeiten zu dürfen. Die erzielten Ergebnisse werden Auslöser sein für viele spannende Diskussionen über die ökologischen Zusammenhänge während einer Frühjahrsblüte und generell im Meer.“
Wissenschaftliche Ansprechpartner:
Jan Brüwer
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9280
E-Mail: jbruewer@mpi-bremen.de
PD Dr. Bernhard Fuchs
Abteilung Molekulare Ökologie, Forschungsgruppe Durchflusszytometrie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9350
E-Mail: bfuchs@mpi-bremen.de
Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de
Originalpublikation:
Brüwer, JD, Orellana, LH, Sidhu, C, Klip, HCL, Meunier, CL, Boersma, M, Wiltshire, KH, Amann, R, Fuchs, BM (2023): In situ cell division and mortality rates of SAR11, SAR86, Bacteroidetes, and Aurantivirga during phytoplankton blooms reveal differences in population controls. mSystems (17 May 2023)
DOI: 10.1128/msystems.01287-22
Weitere Informationen:
https://www.mpi-bremen.de/Page6045.html
Spurensuche im Abwasser: Krankheitserreger schneller erkennen
Juliana Fischer Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Die Covid-19-Pandemie hat es gezeigt: Abwasser ist viel mehr als ein Abfallprodukt. Ob Viren, Bakterien oder Parasiten – ausgewertet verrät es so einiges über den Gesundheitszustand der Gesellschaft. Ein Informationsschatz, der in einem Projekt unter Leitung des Zentrums für Wasser- und Umweltforschung (ZWU) der Universität Duisburg-Essen (UDE) nun analysiert und ausgewertet werden soll, auch um künftige Pandemien frühzeitig zu erkennen.
Infektionskrankheiten gefährden die Menschen, gleichzeitig nehmen Antibiotikaresistenzen zu. Um diese Risiken zu erkennen und einzudämmen, kann die Sammlung und Auswertung von Daten helfen. Hier setzt das Projekt „Umweltassoziierte Infektionsgeschehen in Ballungsgebieten in NRW erkennen und eliminieren“ an. „Es geht darum, Informationen in einem ganzheitlichen Kontext zu gewinnen. Und unser Abwassernetz mit Abwässern u.a. aus Haushalten und Krankenhäusern ist genau die richtige Quelle. Denn dort können nicht nur Erreger, sondern auch Antibiotikaresistenzen und verabreichte Medikamente nachgewiesen werden“, sagt Dr. Michael Eisinger, Projektkoordinator am ZWU.
Bisher wurde dieser Ansatz in Deutschland nicht einheitlich systematisch verfolgt, sondern nur für SARS-Cov-2 genutzt. „Das Abwassernetz könnte aber auf lange Sicht zu einer Landkarte des Gesundheitsstatus sowie des Resistenzstatus weiterentwickelt werden“, erklärt Eisinger das Ziel. Denn, wenn man versteht, wie Erreger und Antibiotika im Abwassernetz verteilt sind, können mögliche Gefährdungspotenziale für die Öffentlichkeit erkannt werden.
In dem fachübergreifenden Projekt arbeiten drei Arbeitsgruppen des ZWU zusammen sowie das Institut für Künstliche Intelligenz in der Medizin am Universitätsklinikum (Prof. Dr. Folker Meyer und PD Dr. Dr. Ricarda Schmithausen), die Aquatische Ökologie (Prof. Dr. Bernd Sures) und die Instrumentelle analytische Chemie (Prof. Dr. Torsten Schmidt). Zwei ineinandergreifende Aspekte stehen dabei im Fokus: Einerseits sollen Nachweis- und Analysemethoden entwickelt und optimiert werden, um eine nachhaltige und langfristige Abwasserüberwachung zu installieren (Abwasserepidemiologie). Andererseits sollen Methoden erarbeitet werden, die das Abwasser effektiver von medikamentösen oder mikrobiologischen Belastungen reinigen (Photokatalyse).
Das Projekt ist am 1. April gestartet und zunächst auf drei Jahre ausgelegt. Es wird von der Stiftung Zukunft NRW gefördert. Kooperationspartner ist die Emschergenossenschaft. Die Proben stammen aus dem Essener Abwassernetz.
Hinweis für die Redaktion:
Zwei Fotos von den Arbeiten bei der Probenentnahme und der Abwasseranalyse (Copyright: UDE/Ricarda Schmithausen) stellen wir Ihnen für die Berichterstattung als Download zur Verfügung: https://www.uni-due.de/de/presse/pi_fotos.php
Weitere Informationen:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de
Redaktion: Jennifer Meina, Tel. 0203/379-1205, jennifer.meina@uni-due.de
Wissenschaftliche Ansprechpartner:
Dr. Michael Eisinger, Geschäftsführer ZWU, Tel. 0201/183-3890, michael.eisinger@uni-due.de
Neue Korallen-Datenbank für Klimadaten der vergangen 2000 Jahre
Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Was Forschende heute über den Klimawandel wissen, basiert hauptsächlich auf instrumentellen Datenreihen der vergangenen 150 Jahre. Für einzelne Regionen existieren sehr umfassende Datensätze, für andere weniger. Das betrifft vor allem die weiten und abgelegene Gebiete der tropischen Ozeane, für die es nur wenige Daten zu vergangenen Temperaturen und dem Wasserkreislauf gibt. Bislang vorhandene Datensätze aus Korallen-Klimaarchiven wurden zusammengetragen und sind nun in der neuen PAGES (Past Global Changes) CoralHydro2k-Datenbank verfügbar.
So genannte Flachwasserkorallen sind in den Tropen weit verbreitet. In ihren Kalziumkarbonat-Skeletten finden sich Hinweise auf vergangene Umweltbedingungen. Klimarekonstruktionen auf der Grundlage von Korallen verwenden in erster Linie die stabile Sauerstoffisotopenzusammensetzung, die als Stellvertreter für die Meeresoberflächentemperatur und -hydrologie dient, aber auch zunehmend das Strontium/Kalzium Verhältnis, ein weiterer Stellvertreter für die Temperatur. „Die neue Datenbank ist maschinenlesbar, standardisiert und aktiv kuratiert“, erklärt dazu Mit-Initiator Dr. Thomas Felis vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen.
Die Gruppe der internationalen Autor:innen, darunter Dr. Jessica Hargreaves vom MARUM sowie Dr. Thomas Felis, trifft sich regelmäßig bereits seit über fünf Jahren. Über virtuelle Gespräche und Treffen – vor allem während der Corona-Pandemie – hat sich die Gruppe immer besser vernetzt. Das Ergebnis ist die CoralHydro2k-Datenbank. Sie umfasst begutachtete Veröffentlichungen und vor allem Datensätze korallenbasierter Klimaaufzeichnungen aus den vergangenen 2.000 Jahren. Gerade diese Zeitspanne ist laut Autor:innenteam insofern relevant, um die menschengemachten Klimaveränderungen der vergangenen etwa 150 Jahre mit tiefgreifenden Auswirkungen auf Gesellschaften, Volkswirtschaften und Ökosysteme vor dem Hintergrund der natürlichen Klimavariabilität der vorindustriellen Zeit abbilden und verstehen zu können. Aus diesem Grund seien regionale Trends der Vergangenheit so relevant. „Diese Korallen-Datensätze“, heißt es in der Publikation zur Datenbank, „werden in Verbindung mit Klimasimulationen entscheidend dazu beitragen, unser Verständnis der Klimavariabilität der vergangenen 2.000 Jahre und ihrer Dynamik zu verbessern.“
Tropische Korallendaten können für eine umfassende Klimarekonstruktion mit anderen hochauflösenden Klimaarchiven wie Baumringen, Speläothemen oder Eisbohrkernen kombiniert werden, um vergangene und gegenwärtige Wechselwirkungen zwischen Ozean, Atmosphäre und Land zu untersuchen. Insbesondere ermöglicht die neue CoralHydro2k Datenbank somit globale Vergleiche von Paläoklima-Rekonstruktionen unterschiedlicher Archive.
„Angesichts der vom Menschen verursachten Klimakrise ist die Verbesserung unserer Kenntnisse über den globalen Wasserkreislauf von entscheidender Bedeutung, da Wasser für das Leben auf unserem Planeten unerlässlich ist. Die neue Coralhydro2k-Datenbank ist eine wertvolle Ressource für die Gemeinschaft und wird zweifellos neue und relevante Forschungsarbeiten anregen“, sagt Dr. Lukas Jonkers vom MARUM, einer der Koordinator:innen des 2k-Netzwerks und Mitglied des PAGES-Steering Committee. „Die Datenbank ist ein weiteres Beispiel in einer langen Liste von PAGES-2k-Datenprodukten, die gemeinsam den Wert von Paläodaten durch Synthese erhöhen. Herzlichen Glückwunsch, Team Coralhydro2k!“
Wissenschaftliche Ansprechpartner:
Dr. Thomas Felis
Korallen-Paläoklimatologie
Telefon: 0421 218-65751
E-Mail: tfelis@marum.de
Originalpublikation:
Rachel M. Walter, Hussein R. Sayani, Thomas Felis, et al., and the PAGES CoralHydro2k Project Members: The CoralHydro2k database: a global, actively curated compilation of coral δ18O and Sr ∕ Ca proxy records of tropical ocean hydrology and temperature for the Common Era. Earth Syst. Sci. Data, 15, 2081–2116, https://doi.org/10.5194/essd-15-2081-2023, 2023.
Weitere Informationen:
https://www.marum.de/Entdecken/CoralHydro2k.html
Schwebstoffkonzentrationen in den Bundeswasserstraßen gehen stark zurück
Martin Labadz Referat C – Controlling, Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Schwebstoffe sind ein wesentlicher Bestandteil von Fließgewässern. Sind diese jedoch in erhöhten Konzentrationen vorhanden, kann sich das negativ auf die Ökologie eines Flusses auswirken. Ein Forscherteam der BfG konnte durch eine Studie belegen, dass der Schwebstoffanteil in den Bundeswasserstraßen stark abgenommen hat. Die Ergebnisse veröffentlichten die Wissenschaftler/-innen jetzt in der Fachzeitschrift Earth Surface Dynamics.
Das Wissenschaftler-Team konnte zeigen, dass an der großen Mehrheit der Schwebstoffmessstellen entlang der Bundeswasserstraßen die Konzentrationen bis zu 50% zwischen 1990 und 2010 signifikant abnahmen. Für den Rhein bedeutet das zum Beispiel, dass sich die Schwebstofffracht an der Deutsch-Niederländischen Grenze der Marke von einer Million Tonnen pro Jahr nähert. Eine Menge, die geschätzt zuletzt vor ca. 4000 Jahren, also vor Beginn der Bronzezeit, transportiert wurde. Diese war durch die großflächige Ausdehnung der Landwirtschaft in Europa geprägt, welche zu einem massiven Anstieg des Eintrags von Schwebstoffen in die Gewässer führte.
Erste Annahmen, dass insbesondere Stauhaltungen in den Flüssen die Schwebstoffe zurückhalten und so zum Rückgang der Konzentrationen geführt haben, konnte eine Analyse der Daten nicht bestätigen. „Unsere Auswertungen zeigen, dass die Schwebstoffkonzentrationen zwischen 1980 und 1990 konstant blieben. Der Rückgang begann erst in den 1990er Jahren, also mehr als 20 Jahre nachdem die meisten Stauhaltungen gebaut wurden“, erklärt Dr. Thomas Hoffmann, Hauptautor der Studie „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“. Daher vermuten der BfG-Wissenschaftler und seine Co-Autoren, dass die Abnahme vielmehr mit dem Management in den Einzugsgebieten und an den Nebenflüssen zu tun hat. Insbesondere die zahlreichen Retentionsflächen, die zum Hochwasserschutz in den Einzugsgebieten der Bundeswasserstraßen gebaut wurden, haben die Eigenschaft Schwebstoffe zurückzuhalten.
Die BfG-Forscherinnen und Forscher werteten Schwebstoffmessungen von insgesamt 440 000 Wasserproben an 62 Messstellen entlang der Bundeswasserstraßen aus – darunter die für die Schifffahrt wichtigen Flüsse Rhein, Elbe und Donau. Die Messstellen sind Teil des Schwebstoffdauermessnetzes, das von der WSV zusammen mit der BfG seit 1963 betrieben wird.
Schwebstoffe gelangen vor allem durch den Eintrag erodierter Böden in die Fließgewässern. Sie bestehen überwiegend aus feinen Partikeln (Schluff und Ton) und werden bei Starkniederschlagsereignissen vor allem auf intensiv genutzten Ackerflächen abgetragen und durch ihr geringes Gewicht und die Strömung in Schwebe gehalten.
Für die Tier- und Pflanzenwelt in und an unseren Flüssen ist der Rückgang an feinen Schwebstoffpartikeln im Wasser gut. „Die Abnahme der Schwebstoffkonzentrationen führt zu einer geringeren Verschlämmung des Flussbettes und damit zu verbesserten Laichbedingungen für Fische, die von einem sandigen und kiesigen Flussbett profitieren. Zudem verbessert sich in den meisten Fällen auch die Wasserqualität, wenn die Schwebstoffe zurückgehen“ , erklärt Hoffmann. Jedoch sind Regionen die, wie zum Beispiel große Teile der Niederlande, unterhalb des Meeresspiegels liegen, auf diese Schwebstoffe angewiesen. „Der fortschreitende Klimawandel bedingt steigende Meeresspiegel. Da ein Großteil der Niederlande schon heute einige Meter darunter liegt, sind Schwebstoffe, die der Rhein in das niederländische Rhein-Delta transportiert, wichtig. Diese lagern sich in den Flussauen ab und können zu einer Erhöhung der Landoberfläche führen und somit dem Meeresspiegelanstieg entgegenwirken“, so Hoffmann weiter. Die Schwebstoffe seien ein wichtiger Bestandteil, müssten aber natürlich auch erstmal an die richtige Stelle gelangen, was durch den Hochwasserschutz im Rhein-Delta oftmals nicht möglich sei.
Um die Gründe für den signifikanten Rückgang der Schwebstoffkonzentrationen und -frachten genauer untersuchen zu können, planen die BfG-Wissenschaftler/-innen rund um Thomas Hoffmann zurzeit ein Forschungsprojekt. Sie wollen unter anderem herausfinden, wo genau der Rückhalt der Sedimente stattfindet. Modellgebiet soll dabei der Main und sein Einzugsgebiet sein.
Die wissenschaftliche Veröffentlichung „Pristine levels of suspended sediment in large German river channels during the Anthropocene?“ kann im Rahmen der Open-Access-Lizenz auf der Seite von Earth Surface Dynamics heruntergeladen werden.
Wissenschaftliche Ansprechpartner:
Dr. Thomas Hoffmann, thomas.hoffmann@bafg.de
Originalpublikation:
https://esurf.copernicus.org/articles/11/287/2023/
Wie schmeckt das Essen? Frag dein Gehirn!
Dr. Stefanie Merker Kommunikation (PR)
Max-Planck-Institut für biologische Intelligenz
Zu wissen, wann es Zeit für eine Mahlzeit ist – und wann man wieder aufhören sollte zu essen – ist wichtig für die Gesundheit und das Überleben von Menschen und Tieren. Forschende am Max-Planck-Institut für biologische Intelligenz fanden nun heraus, dass das „Hunger-Hormon“ Ghrelin spezialisierte Nervenzellen in der Amygdala von Mäusen aktiviert. In dieser Gehirnregion, die auch für die Regulierung von Emotionen zuständig ist, fördert das Zusammenspiel zwischen Ghrelin und den Nervenzellen die Nahrungsaufnahme und vermittelt sowohl Hunger als auch die mit dem Essen verbundenen Belohnungsgefühle.
Hunger ist ein starkes Gefühl mit einer wichtigen biologischen Funktion. Es signalisiert dem Körper, dass er nach Nahrung suchen sollte, um das eigene Überleben zu sichern. Wenn wir hungrig sind, sehnen wir uns nach Nahrung und wenn wir essen, belohnt uns unser Körper mit angenehmen Gefühlen und einem allgemeinen Glückszustand.
Netzwerke aus biologischen Schaltkreisen und Signalwegen im Gehirn steuern das Essverhalten von Menschen und Tieren und lösen die damit verbundenen Empfindungen aus. Einer der zentralen Akteure in diesem Netzwerk ist das Hormon Ghrelin. Es wird von Magenzellen freigesetzt, wenn Menschen und Tiere hungrig sind oder fasten, und fördert das Fressverhalten.
Die Abteilung von Rüdiger Klein am Max-Planck-Institut für biologische Intelligenz untersucht die Gehirnnetzwerke, die dem Fressverhalten von Mäusen zugrunde liegen. Zu diesem Zweck haben die Forscherinnen und Forscher eine gründliche Analyse der Zelltypen in einer Gehirnregion durchgeführt, die als zentrale Amygdala bekannt ist. “Bisher wurde die Amygdala vor allem im Zusammenhang mit Gefühlen wie Angst und Belohnungsempfinden untersucht. Es wurde angenommen, dass die Regulation des Fressverhaltens in anderen Gehirnbereichen stattfindet, etwa im Hypothalamus”, sagt Christian Peters, Postdoktorand in der Abteilung.
Peters und seine Kolleg*innen analysierten einzelne Nervenzellen in der zentralen Amygdala und untersuchten ihre Boten-RNA-Moleküle, also die Arbeitskopien der Gene, die auch als mRNAs bekannt sind. Die Analyse ergab, dass die Zellen in neun verschiedenen Zellclustern organisiert sind. Einige dieser Cluster fördern den Appetit, während andere ihn hemmen. Zudem passen die Zellen ihre Produktion von mRNAs an, wenn die Mäuse gefüttert werden oder fasten.
“Wir haben jetzt ein besseres Verständnis über die vielfältigen Zelltypen und die physiologischen Prozesse, die in der zentralen Amygdala die Nahrungsaufnahme fördern”, sagt Rüdiger Klein. “Unsere Forschung zeigt zum ersten Mal, dass das Hunger-Hormon Ghrelin auch auf Zellen in der zentralen Amygdala wirkt.” Dort aktiviert es eine kleine Untergruppe von Zellclustern, die gemeinsam durch die Anwesenheit des Proteins Htr2a gekennzeichnet sind, um die Nahrungsaufnahme zu steigern.
Das Team fand heraus, dass die Htr2a-Neurone nach mehrstündigem Fasten oder bei Anregung durch das Hormon Ghrelin aktiv wurden. Die Zellen reagierten auch, wenn die Forschenden den Mäusen Nahrung vorsetzten. “Wir denken, dass Ghrelin mehrere Funktionen erfüllt”, erklärt Christian Peters. “Wenn Mäuse hungrig sind, aktiviert Ghrelin die appetitanregenden Hirnregionen, um die Tiere zum Fressen zu animieren. Außerdem steigert das Hormon die Aktivität in Gehirnarealen wie der Amygdala, die Belohnungsgefühle vermitteln. Das ist wahrscheinlich ein Anreiz, noch mehr zu fressen.” Auf diese Weise erhöht Ghrelin die Schmackhaftigkeit der Nahrung in Abhängigkeit davon, wie gesättigt die Mäuse gerade sind.
Wenn die Tiere nach einer Fastendiät hungrig waren, war die Aktivität der Htr2a-Neuronen allerdings nicht erforderlich, damit die Mäuse mit dem Fressen begannen – die Forschenden vermuten, dass der Geschmack der Nahrung unter diesen Bedingungen eher nebensächlich ist. “In diesem Fall übernehmen andere Schaltkreise im Gehirn die Kontrolle, um den Stoffwechsel des Körpers zu regulieren. Unter anderem der Hypothalamus signalisiert den Mäusen dann, dass es wichtig ist zu fressen, um zu überleben”, sagt Christian Peters.
Hunger und Sättigungsgefühle haben große Auswirkungen auf das körperliche, aber auch auf das emotionale Wohlbefinden. Das hat wohl jede*r von uns beim Verzehr leckerer Speisen und den damit verbundenen Glücksgefühlen schon einmal erlebt. “Die neuronalen Netzwerke, die diese Gefühle vermitteln, sind offensichtlich eng mit denen verbunden, die die Nahrungsaufnahme kontrollieren. Wie genau sie sich gegenseitig beeinflussen, ist noch nicht vollständig geklärt”, sagt Rüdiger Klein. “Wenn wir diese Zusammenhänge entschlüsseln, werden wir auch die neuronalen Prozesse besser verstehen, die an pathologischem Essverhalten beteiligt sind”, fügt Christian Peters hinzu. “Zahlreiche biologische Faktoren tragen zu einem solch komplexen Verhalten bei und wir müssen uns die physiologischen Prozesse ansehen, um diese Faktoren zu verstehen.“
In der Zukunft könnte dieses Wissen zu neuen therapeutischen Ansätzen zur Linderung von Essstörungen führen. Vorerst legt die Studie den Grundstein für weitere Untersuchungen der speziellen Nervenzellverbände und neuronalen Schaltkreise, die die Nahrungsaufnahme steuern. Die Forschung fügt zudem ein weiteres wichtiges Puzzleteil zu unserem Verständnis hinzu, wie das Gehirn das Verhalten steuert.
KONTAKT
Dr. Marius Bruer
Max-Planck-Institut für biologische Intelligenz
Kommunikaton
E-Mail: communications@bi.mpg.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Rüdiger Klein
Direktor
Max-Planck-Institut für biologisch Intelligenz
E-Mail: ruediger.klein@bi.mpg.de
Originalpublikation:
Christian Peters, Songwei He, Federica Fermani, Hansol Lim, Wenyu Ding, Christian Mayer, Rüdiger Klein
Transcriptomics reveals amygdala neuron regulation by fasting and ghrelin thereby promoting feeding
Sciene Advances, online am 24. Mai 2023
Weitere Informationen:
http://www.bi.mpg.de/klein – Webseite der Abteilung von Rüdiger Klein
Zu gut, um echt zu sein – ChatGPT & Co.
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Intelligente Softwaresysteme verändern Arbeitswelt und Geschäftsprozesse. Neue Anwendungen wie ChatGPT passen sich der menschlichen Kommunikation an. Ein Interview mit Prof. Dr. Sabine Baumann.
Sie ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und u. a. Expertin für Digitale Plattformen und Technologien, forscht zu Responsible AI Systems.
• Chatbots wie ChatGPT können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen.
• Es ist wichtig sicherzustellen, dass Chatbots und ähnliche Anwendungen fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.
• Technologieunternehmen können trotz der kostenloser Open-Source-Versionen Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten.
Zur Person
Prof. Dr. Sabine Baumann ist Professorin für Digital Business an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) und wissenschaftliche Leiterin im Forschungsbereich Produktion am OFFIS Institut für Informatik in Oldenburg. Die Expertin für Digitale Plattformen und Technologien, Business Ecosystems, Nachhaltigkeit und Strategisches Management forscht auch zu Responsible AI Systems und Industrie 4.0/Smart Manufacturing.
Frau Prof. Baumann, leben und arbeiten wir bald alle im Metaverse oder ist die fiktive Welt zu täuschend echt, um wahr zu sein?
Das Metaverse – eigentlich genauer – die Metaversen sind virtuelle Räume, in denen Menschen miteinander interagieren und verschiedene Aktivitäten durchführen können. Es gibt eine breite Palette von Anwendungen wie virtuelle Meetings und Konferenzen oder virtuelles Einkaufen, Gaming und soziale Interaktionen. Ich glaube nicht, dass wir alle ständig in Metaversen sein werden, aber virtuelle Räume werden — so wie das Internet oder mobile Anwendungen — zu Begleitern werden, in die wir eintauchen, um uns zu treffen, zusammenzuarbeiten, Unterstützung bei der Lösung von Problemen zu bekommen oder unterhalten zu werden. Noch müssen aber einige technische und soziale Herausforderungen bewältigt werden.
Künstliche Intelligenz (KI) ist durch ChatGPT nun auch für eine breitere Öffentlichkeit Teil der Wirklichkeit geworden. Ein lernendes System erschafft selbstständig Texte. Fluch oder Segen?
Künstliche Intelligenz wie ChatGPT hat gute und schlechte Seiten. Sie kann helfen, Texte zu generieren, kann jedoch auch zu Missbrauch und Fehlinformationen führen, weshalb eine verantwortungsbewusste Nutzung und Regulierung wichtig sind.
Was finden Sie gut an Chatbots wie ChatGPT?
Sie können eine effiziente Möglichkeit sein, um Benutzerinteraktionen zu automatisieren und Dienstleistungen rund um die Uhr verfügbar zu machen. Chatbots sind computergesteuerte Programme, die entwickelt wurden, um menschenähnliche Gespräche mit Benutzerinnen und Benutzern zu führen. Chatbots verwenden Algorithmen und künstliche Intelligenz, um auf Anfragen zu antworten, Informationen bereitzustellen oder bestimmte Aufgaben zu erledigen.
An welchen Stellen kollidieren Ethik und Technologie bei der Entwicklung und Anwendung?
Kollisionen treten zum Beispiel in den Bereichen Datenschutz, Transparenz, Verantwortung oder diskriminierungsfreier Entscheidungsfindung auf. Es ist daher wichtig sicherzustellen, dass Chatbots fair, inklusiv und ethischen Standards entsprechend entwickelt und eingesetzt werden.
Was haben Sie als Hochschullehrerin in Bezug auf ChatGPT besonders im Blick?
Ich erforsche, wie sich Arbeitswelt und Geschäftsprozesse durch Systeme künstlicher Intelligenz verändern und auch zum verantwortungsvollen Umgang mit diesen Technologien. In der Lehre führe ich Studierende an die Technologien heran und möchte sie für einen kritischen Umgang mit möglicherweise falschen Ergebnissen oder der Verletzung geistigen Eigentums sensibilisieren. Auch sind datenschutzrechtliche Aspekte zu beachten. Wichtig ist mir auch die Vermittlung einer Beurteilungskompetenz zu den Einsatzgebieten von Systemen der künstlichen Intelligenz sowie deren Vor- und Nachteilen. ChatGPT verändert aber auch die Art zu prüfen. Eine rein textbasierte Reproduktion von Wissen wird zunehmend hinter interaktive Prüfungsformen zurücktreten.
Welche anderen Beispiele für ähnliche Anwendungen gibt es, die ähnlich im Kommen sind?
Neben Chatbots gibt es andere ähnliche Anwendungen wie Sprachassistenten wie Alexa und Siri, Übersetzungstools wie DeepL, virtuelle Assistenten wie Cortana und Bixby, personalisierte Empfehlungssysteme und automatisierte Kundensupport-Systeme. Diese Technologien bieten eine personalisierte und bequeme Unterstützung, indem sie Interaktionen zwischen Menschen und Maschinen automatisieren. Aber auch der Einsatz dieser Systeme wird ähnlich kritisch diskutiert, wie der von ChatGPT.
Die einfache Version von ChatGPT ist Open Source, kostenlos nutzbar. Wie können Technologieunternehmen trotzdem Geld verdienen?
Technologieunternehmen können trotz der kostenlosen Open-Source-Version von ChatGPT Geld verdienen, indem sie Dienstleistungen rund um die Implementierung, Anpassung und Integration des Modells anbieten. Sie können auch Cloud-basierte Plattformen bereitstellen und dafür Gebühren erheben oder spezielle Versionen von ChatGPT mit erweiterten Funktionen lizenzieren. Zudem können sie anonymisierte Nutzungsdaten analysieren und diese für Marketingzwecke oder die Entwicklung neuer Produkte nutzen.
Wenn neue Technologien wie ChatGPT doch so hilfreich sind, weshalb und aus welchen Richtungen kommen dennoch Bedenken und Kritik?
Trotz der Vorteile von Technologien wie ChatGPT gibt es Bedenken beispielsweise in Bezug auf Arbeitsplatzverlust, Verletzung geistigen Eigentums, Bias der Antworten, Abhängigkeiten von Technologien oder den Verlust wichtiger Kulturtechniken. Es wird daher darum gehen sicherzustellen, dass die KI-Technologien verantwortungsvoll eingesetzt werden.
Was hat Sie am Vormarsch des Text-Bots überrascht?
Überraschend war, mit welcher Geschwindigkeit ChatGPT allgemein akzeptiert wurde – und das auch von Menschen, die nicht (mehr) zu den Digital Natives zählen. Für viele Nutzerinnen und Nutzer ist der Text-Bot bereits jetzt nicht mehr wegzudenken.
Frau Prof. Baumann, ich danke Ihnen für das Gespräch.
Das Interview führte Sylke Schumann, Pressesprecherin der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin).
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Rege Beteiligung aus der Bevölkerung: Studie ermittelt Schicksal von Plastikpartikeln
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Auf welchen Wegen sich Plastikmüll in der südlichen Nordsee verbreitet, hat ein interdisziplinäres Forschungsteam unter Leitung der Universität Oldenburg untersucht. Ein wichtiger Teil des Projekts „Makroplastik“ war die Beteiligung von Bürgerinnen und Bürgern. Sie konnten über ein Online-Portal den Fund von Holztäfelchen melden, die das Team auf offener See und an der Küste ausgebracht hatte. Die Projektergebnisse zeigten, dass es in der Nordsee keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.
Woher stammen größere Plastikteile wie Einkaufstüten oder Einwegflaschen in der Deutschen Bucht, und auf welchen Wegen ist der Müll unterwegs? Das hat das Forschungsprojekt „Makroplastik in der südlichen Nordsee – Quellen, Senken und Vermeidungsstrategien“ der Universität Oldenburg umfassend mit einem interdisziplinären Team untersucht. Dabei setzten die Forschenden auch auf die Beteiligungen von Bürgerinnen und Bürgern, um die Verbreitungswege des Plastiks zu verfolgen. In der Zeitschrift „Frontiers in Marine Science“ haben sie nun einen Überblick über die Ergebnisse veröffentlicht. Sie fanden unter anderem heraus, dass es in der Nordsee und im Skagerrak keine Gebiete gibt, in denen sich Plastikmüll permanent ansammelt, und dass ein Großteil der Partikel schnell wieder an den Küsten landet.
Die Forschenden aus Meereswissenschaften, Geografie und Umweltplanung hatten seit 2016 mit einem interdisziplinären Ansatz untersucht, wie sich Plastikobjekte mit einem Durchmesser von mehr als fünf Millimetern in der Nordsee verbreiten. Um Verteilung und Transportwege zu verstehen, führten sie Feldstudien durch und berechneten die Wege virtueller Müllteilchen mit numerischen Modellen. Sie erfassten Plastikmüll an der Küste, in Flussmündungen und auf dem Meeresboden. Zudem setzten sie spezielle Driftkörper mit Satellitensendern aus, die – ähnlich wie der Müll – an der Meeresoberfläche treiben und kontinuierlich ihre Positionen übermittelten. Hinzu kamen rund 63.000 Holztäfelchen mit einer Kantenlänge von acht mal zehn Zentimetern, die das Team sowohl auf offener See als auch an verschiedenen Orten an der Küste ausbrachte. Ihr Fund konnte über ein Online-Portal gemeldet werden. Zu der Studie gehörte außerdem eine Analyse der verschiedenen Interessengruppen wie Tourismus, Fischerei, Industrie und Häfen.
Durch Kombination von Beobachtungen und Modellrechnungen erhielt das 15-köpfige Team sowohl einen Überblick über die räumliche Verteilung der Müllquellen als auch über den Beitrag unterschiedlicher Sektoren wie Tourismus oder Industrie. Demnach sind – wie auch schon frühere Studien gezeigt hatten – Fischerei und kommunaler Müll die wichtigsten Quellen. Ein nennenswerter Teil des Plastikmülls stammt aus den größeren Kommunen an der Nordseeküste und an den Mündungen von Elbe, Weser und Ems. Wie sich herausstellte, wurde ein Großteil der in den Flüssen ausgesetzten Holztäfelchen noch innerhalb der Wasserwege wieder ans Ufer gespült – knapp die Hälfte in der Elbe und fast 90 Prozent in der Ems. Auch ein Großteil des an den Küsten angeschwemmten Mülls stammt demnach aus nahegelegenen Quellen. In küstennahen Teilen der Nordsee waren Deutschland und die Niederlande die wichtigsten Müllquellen, wohingegen im offenen Meer die meisten Plastikpartikel aus Großbritannien, Frankreich und den Niederlanden stammten.
Die Untersuchungen zu den Transportwegen zeigten, dass zwei Drittel der an den Küsten ausgesetzten Holztäfelchen innerhalb von nur 25 Kilometern wieder an der Küste landeten. Die auf offener See entlassenen Täfelchen legten dagegen größere Strecken zurück, von ihnen waren 30 Prozent mehr als 250 Kilometer unterwegs, bevor sie wieder auf Land trafen. Insgesamt meldeten Freiwillige über das Onlineportal den Fund von mehr als 27.000 Täfelchen – rund 43 Prozent der ursprünglich ausgebrachten Menge. „Dieses Ergebnis unterstreicht die bedeutende Rolle, die die Bürgerwissenschaften beim Erzeugen großer Datensätze spielen können“, betont Projektleiter Prof. Dr. Jörg-Olaf Wolff vom Oldenburger Institut für Chemie und Biologie des Meeres (ICBM).
Ein weiteres wichtiges Ergebnis: Müllpartikel können für längere Zeit an so genannten ozeanografischen Fronten „gefangen“ bleiben. „Das sind Zonen, in denen beispielsweise Süßwasser aus einem Fluss auf salziges Meerwasser trifft. Dort geht es oft sehr turbulent zu“, erläutert der Ozeanograph Dr. Jens Meyerjürgens vom ICBM. Er war gemeinsam mit Dr. Marcel Ricker vom Helmholtz-Zentrum Hereon in Geesthacht Hauptautor der jetzt veröffentlichten Studie. Die Daten der größeren, mit Satellitensender ausgestatteten Drifter zeigten, dass die Geräte oft mehrere Tage oder sogar Wochen an solchen Fronten festhingen, bis der Wind stark genug wurde, um sie wieder zu befreien. Am Meeresboden unterhalb der Fronten fanden sich dementsprechend mehr Plastikpartikel als anderswo. Einen permanenten Müllstrudel, wie er im Pazifik oder Atlantik existiert, konnten die Forschenden in der Nordsee jedoch nicht nachweisen.
Das Team untersuchte zudem verschiedene Strategien, mit denen sich der Eintrag von Plastikmüll in Zukunft verringern lassen könnte. Am vielversprechendsten ist es der Studie zufolge, wenn Gemeinden bei größeren Veranstaltungen vorschreiben, auf Einweg-Plastik wie Trinkbecher oder Besteck zu verzichten. Zudem seien strengere Lagerbedingungen in Häfen sinnvoll, da der Hafenbetrieb allein für etwa acht Prozent der Kunststoffabfälle in der Nordsee verantwortlich ist. Auch Kampagnen, um das allgemeine Bewusstsein für das Müllproblem zu erhöhen, halten die Forschenden für wichtig. Dabei sollte die Fischerei ihrer Meinung nach stärker einbezogen werden.
Insgesamt zieht das Team ein positives Fazit: „Wir haben sehr viel positives Feedback zu den Driftern und den Holztäfelchen erhalten und auch eine erhöhte Aufmerksamkeit in der Bevölkerung für das Problem festgestellt“, sagt Dr. Thomas Badewien vom ICBM, einer der Hauptverantwortlichen im Projekt. Das seien positive Entwicklungen, die für die Zukunft hoffen lassen.
Dem fachübergreifenden Projektteam gehörten Forschende des ICBM und des Instituts für Biologie und Umweltwissenschaften (IBU) der Universität Oldenburg an. Zu den wissenschaftlichen Kooperationspartnern zählte unter anderem das Helmholtz-Zentrum Hereon. Projektleiter war der Oldenburger Ozeanograph Prof. Dr. Jörg-Olaf Wolff. Das niedersächsische Wissenschaftsministerium hatte das Projekt über vier Jahre mit insgesamt 1,4 Millionen Euro gefördert.
Wissenschaftliche Ansprechpartner:
Dr. Jens Meyerjürgens, Tel.: 0441/798-3518, E-Mail: jens.meyerjuergens@uol.de
Originalpublikation:
Jens Meyerjürgens et al: „Sources, pathways, and abatement strategies of macroplastic pollution: an interdisciplinary approach for the southern North Sea”, Front. Mar. Sci., DOI: 10.3389/fmars.2023.1148714
Weitere Informationen:
http://www.macroplastics.de
Klimawandel: Agri-Photovoltaik-Anlagen schützen Pflanzen vor Dürre
Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Untersuchung der Universität Hohenheim zeigt: Beschattung kann die Folgen von Trockenperioden in der Landwirtschaft abschwächen
Agri-Photovoltaik kann die Folgen von Dürreperioden auf die Produktion pflanzlicher Nahrungsmittel abschwächen: Die Beschattung, die bei ausreichend Wasser oft die Ernteerträge senkt, kann bei Dürre sogar zu Ertragssteigerungen führen. Das ist das Ergebnis einer Untersuchung der Universität Hohenheim in Stuttgart. Der Effekt kann besonders für Regionen wichtig werden, in denen es gleichzeitig ein starkes Bevölkerungswachstum und ausgeprägte Dürreperioden gibt, wie beispielsweise in Indien oder Afrika. Aber auch in Europa muss in Zukunft mit längeren Trockenperioden gerechnet werden. Aus Sicht der Wissenschaftler:innen besteht jedoch noch erheblicher Forschungsbedarf – vor allem zu der Frage, welche Pflanzen sich für die unterschiedlichen Systeme am besten eignen.
Steigende Temperaturen und Veränderungen in der Menge und Verteilung der Niederschläge sind Kennzeichen des fortschreitenden Klimawandels. Vor allem die Verfügbarkeit von Wasser nimmt in vielen Regionen der Welt drastisch ab – mit weitreichenden Folgen für die Ernährungssicherheit einer wachsenden Weltbevölkerung.
Der Ersatz fossiler Brennstoffe durch erneuerbare Energien gilt als Schlüssel, um den Klimawandel abzubremsen. Dabei ist die Solarenergie, also die Umwandlung von Sonnenenergie in elektrische Energie durch Photovoltaik, die ergiebigste erneuerbare Energie und wird gleichzeitig immer erschwinglicher – Faktoren, die ihren weltweiten Ausbau begünstigen.
Die Installation von Photovoltaik-Anlagen auf Freiflächen steht jedoch in direkter Konkurrenz zu anderen Formen der Landnutzung, wie unter anderem der landwirtschaftlichen Produktion. Eine Lösung bietet die Agri-Photovoltaik. Sie ermöglicht die Erzeugung von Nahrungsmitteln und Energie auf derselben Fläche. Dazu werden beispielsweise die Photovoltaik-Paneele auf Ständer gesetzt, so dass darunter Nutzpflanzen angebaut werden können. Alternativ werden die Module in Bodennähe so installiert, dass zwischen ihnen Landwirtschaft betrieben werden kann.
Im Klimawandel kann Agri-Photovoltaik Ernteerträge steigern
Doch diese Form der Energieerzeugung kann noch mehr. Forschende vom Fachgebiet Pflanzenökologie der Universität Hohenheim unter Leitung von Jun.-Prof. Dr. Andreas Schweiger haben sich mit dem Potenzial beschäftigt, unter den sich ändernden klimatischen Bedingungen die Ernteerträge durch Agri-Photovoltaik zu steigern. „Zwar verringert die Beschattung durch die Photovoltaik-Anlage die Erträge, wenn ausreichend Wasser für das Pflanzenwachstum zur Verfügung steht“, erklärt die wissenschaftliche Mitarbeiterin Lisa Pataczek.
„Bei Wasserknappheit profitieren die Pflanzen jedoch von der geringeren Verdunstung und damit einem geringeren Wasserverlust: Der Ertrag ist höher als auf den unbeschatteten Flächen.“ Aus Sicht der Forschenden macht diese stabilisierende Wirkung auf die Ernteerträge die Agri-Photovoltaik zu einer vielversprechenden Technologie.
Wichtig für trockenheitsanfällige Regionen und Wüstenrandgebiete
Besonderes Potenzial sehen sie in den trockenheitsanfälligen Regionen der Welt. Dazu gehören unter anderem der Westen der Vereinigten Staaten, das östliche und südliche Afrika, die Arabische Halbinsel, der Nahe Osten, Indien und Australien. Vor allem in Ländern mit ausgeprägten Dürreperioden und einem massiven Bevölkerungswachstum, wie zum Beispiel in Indien, ist dies aus Sicht der Forschenden von Bedeutung.
„Zudem stellt in den Randgebieten aller großen Wüsten der Welt die Photovoltaik eine Strategie zur Bekämpfung der Wüstenbildung dar“, so Jun.-Prof. Dr. Schweiger. In Regionen mit Grundwasserknappheit könnte so die Erschöpfung dieser wichtigen Ressource verringert und gleichzeitig die CO2-Emissionen aus der Stromerzeugung reduziert werden, was wiederum dem Klimawandel entgegenwirkt.
„Damit trägt die Agri-Photovoltaik nicht nur dazu bei, die Auswirkungen des Klimawandels in bereits als trocken eingestuften Regionen abzuschwächen“, fährt er fort. „Sie wird vor allem für Regionen von Bedeutung sein, die in Zukunft mit einer zunehmenden Wasserknappheit konfrontiert sein werden, wie zum Beispiel in großen Teilen der Mittelmeerregion.“
Potenzial stark abhängig von Region, Pflanzen und verwendetem System
„Allerdings fällt dieses Potenzial je nach den klimatischen Bedingungen sehr unterschiedlich aus und hängt stark von den Pflanzen ab, die in solchen dualen Landnutzungssystemen angebaut werden“, betont der Experte. „So tolerieren die meisten der bislang untersuchten Kulturen eine Beschattung von bis zu 15 Prozent ohne nennenswerte Ertragseinbußen.“
Beeren, Obst und Fruchtgemüse profitieren sogar von einer Beschattung, während die Erträge von Futterpflanzen, Blattgemüse, Knollen- und Hackfrüchte sowie der meisten Getreide-Arten darunter minimal leiden. Starke Ertragseinbußen hingegen gibt es beispielsweise bei Mais, Ackerbohnen, Soja und Lupinen selbst bei geringer Beschattung.
Noch großer Forschungsbedarf
„Noch fehlt es allerdings an detailliertem, fundiertem Wissen über die Beziehungen zwischen den unterschiedlichen Formen der Agri-Photovoltaik und den Reaktionen der verschiedenen Pflanzen“, weist Lisa Pataczek auf den großen Forschungsbedarf hin. Denn diese Reaktionen beschränken sich nicht nur auf die Wasserversorgung.
„So beginnen viele Pflanzen im Schatten, das Wachstum des oberirdischen, photosynthetisch aktiven Blattmaterials zu erhöhen. Interessant ist dies zum Beispiel bei Salat, da dieser Teil der Pflanzen von wirtschaftlichem Interesse ist“, erklärt sie.
Weitere Forschungsergebnisse werden nicht nur gebraucht, um unter den gegebenen klimatischen Bedingungen die optimalen Pflanzen für die jeweilige Beschattung auszuwählen. Sie können auch zur Entwicklung intelligenter Agri-Photovoltaik-Systeme beitragen, bei denen in Echtzeit die Stresssignale der Pflanzen genutzt werden, um die Ausrichtung der Paneele und damit die Beschattung zu steuern.
Wissenschaftliche Ansprechpartner:
Jun.-Prof. Andreas Schweiger, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-22189, andreas.schweiger@uni-hohenheim.de
M. Sc. Lisa Pataczek, Universität Hohenheim, Fachgebiet Pflanzenökologie,
+49 (0)711 459-23693, lisa.pataczek@uni-hohenheim.de
Originalpublikation:
Schweiger, A. H., & Pataczek, L. (2023). How to reconcile renewable energy and agricultural production in a drying world. Plants, People, Planet, 1–12.
https://doi.org/10.1002/ppp3.10371
Weitere Informationen:
http://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim
Tag der Biodiversität – Botanischer Garten Berlin ruft zu weniger Aktionismus und mehr wissensbasiertem Handeln auf
Alexandra Jakob Pressestelle Botanischer Garten und Botanisches Museum Berlin
Freie Universität Berlin
Jedes Jahr am 22. Mai wird der Internationale Tag der biologischen Vielfalt begangen. Er erinnert daran, dass am 22. Mai 1992 das UN-Übereinkommen über die biologische Vielfalt verabschiedet wurde. Das diesjährige Motto lautet: „From Agreement to Action: Build Back Biodiversity”. Auch der Botanische Garten Berlin nimmt den Tag zum Anlass, um auf die dramatische Situation des weltweiten Artensterbens und den Erhalt der globalen Biodiversität aufmerksam zu machen.
„Biodiversität und Artenschutz gehen uns alle an. Denn ausgestorbene oder bedrohte Arten sind nicht beliebig ersetz- oder reparierbar. Daher ist es wichtig, dass wir jetzt ins Tun kommen“, so Thomas Borsch, Direktor des Botanischen Gartens Berlin. „Doch dafür braucht es dringend mehr Wissen, auch in der Breite unserer Gesellschaft. Sozusagen eine biologische Alphabetisierung. Denn gerade in Bezug auf den Erhalt der Pflanzenvielfalt vor der eigenen Haustür sind hier aktuell viele falsche Informationen im Umlauf. Das Verstreuen von Samen aus beliebigen, bunten Tütchen hilft bei der Erhaltung bedrohter Arten nicht weiter. Ganz im Gegenteil. Damit kann sogar großer Schaden angerichtet werden“, führt Borsch weiter aus.
Eine Art zu erhalten, ist viel komplexer als oft vermittelt wird: Es hat Jahrtausende oder zum Teil Jahrmillionen gebraucht, bis innerhalb einer Art die spezifische Vielfalt mit ihren ganz eigenen geographischen Mustern entstanden ist. Sie erkennt man nicht mit dem bloßen Auge, sondern nur durch wissenschaftliche Analysen ihrer genetischen Merkmale. Nur mit dem entsprechenden Wissen um diese innerartliche genetische Vielfalt ist es möglich, Arten mit ihren regionalen Besonderheiten zu erhalten. Die genaue Identifizierung bedrohter heimischer Arten ist essenziell, wenn es darum geht, ihren weiteren Rückgang zu verhindern. Viele nah verwandte Arten sind auf den ersten Blick sehr ähnlich, wissenschaftliche Verfahren helfen, sie richtig zu erkennen.
„Wir beobachten zunehmend, dass Pflanzenarten in Lebensgemeinschaften eingebracht werden, in die sie eigentlich nicht gehören. Im Berlin-Brandenburger Raum werden beispielsweise Reste wertvoller Vegetation mit spezifischen Arten wie Silbergras, Sandstrohblumen, Heidenelke, Frühlingssegge oder Schillergras umgegraben und zerstört und durch Aussaaten ‚insektenfreundlicher Pflanzen‘ ersetzt. Damit verschwinden nicht nur bedrohte Pflanzenarten, sondern auch die selteneren und gefährdeten Insektenarten“, erklärt der Direktor des Botanischen Gartens Berlin. „Was wir brauchen ist weniger Aktionismus und mehr wissensbasiertes Handeln. Dafür wäre es wichtig, dass Forschung und konkreter Artenschutz künftig viel stärker Hand in Hand gehen – und vor allem auch zusammen gefördert werden.“
Mehr Wissen für den Artenschutz
Laut der Roten Liste sind allein bei den Farn- und Blütenpflanzen über 28 Prozent – also mehr als ein Viertel – bestandsgefährdet. Der Botanische Garten Berlin ist als Knotenpunkt der internationalen Biodiversitätsforschung mit vielen Projekten aktiv, um das globale Artensterben zu stoppen. Unter anderem arbeitet er daran, die genetische Vielfalt gefährdeter Pflanzenarten zu erfassen, um damit den unsichtbaren Verlust von Vielfalt sichtbar zu machen. Dabei werden Populationen mit wertvollen Genotypen lokalisiert, um sie im Artenschutz besonders zu berücksichtigen. Bei Restpopulationen einer Art, deren Bestände durch intensive Landnutzung fragmentiert wurden, wird genau untersucht, ob sie genetisch erodieren und gezielte Hilfsmaßnahmen benötigen. So liefern die wissenschaftlichen Analysen konkrete Handlungsempfehlungen für die Praxis. Ein Beispiel für dieses Verfahren ist die in Berlin und Brandenburg stark gefährdete Duft-Skabiose (Scabiosa canescens) – hier helfen die dank molekularbiologischer Methoden gewonnenen Erkenntnisse der Wissenschaft bei der Populationsstützung sowie Wiederansiedlungen an geeigneten Standorten.
Genetische Vielfalt ist ein Garant dafür, dass Arten sich in Zeiten des Klimawandels besser anpassen können. Mit seiner Arbeit setzt sich der Botanische Garten Berlin dafür ein, diese genetische Vielfalt zu erkennen, sie zu schützen und so die Überlebensfähigkeit von Wildpflanzen in der Natur zu sichern.
Pressefotos (zum Download):
Duft-Skabiose (Scabiosa canescens),
https://box.fu-berlin.de/s/oCZpkBHxJkfGQ8j
Fotos: E. Zippel, © Botanischer Garten Berlin
Weiterführende Literatur: „Genetische Grundlagen für den botanischen Artenschutz in Deutschland“, Thomas Borsch und Elke Zippel, erschienen 2021 in „Natur und Landschaft“
Mit nahezu 20.000 Pflanzenarten ist der Botanische Garten Berlin der größte in Deutschland und zählt zu den bedeutendsten weltweit. Auf 43 Hektar Freigelände und in fünfzehn Gewächshäusern erhalten Besucherinnen und Besucher faszinierende Einblicke in die Welt der Botanik. Als Knotenpunkt der internationalen Biodiversitätsforschung sowie als Ort der Wissensgenerierung und -vermittlung beschäftigt der Botanische Garten mehr als 200 Mitarbeiterinnen und Mitarbeiter. Mit dem Botanischen Museum verfügt er über Deutschlands einzigartige museale Einrichtung, die sich der Vielfalt der Pflanzenwelt, ihrer Bedeutung und der Darstellung ihrer Kultur- und Naturgeschichte widmet. Seit 1995 gehört die Einrichtung zur Freien Universität Berlin.
Der Botanische Garten Berlin ist BO Berlin – Internationales Wissenszentrum der Botanik. Ein einzigartiger Ort, der Botanik in allen Facetten erlebbar macht.
Pressekontakt:
Alexandra Jakob, Pressesprecherin
Botanischer Garten und Botanisches Museum Berlin (BO Berlin)
Tel. 030 – 838 72375
a.jakob@bo.berlin
Digitale Transformation im Unternehmen aktiv mitgestalten
Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
Jetzt online informieren: Info-Veranstaltung zum Fernstudium MBA Digital Finance, Strategie & Accounting
Am Mittwoch, den 24. Mai ab 17.00 Uhr informiert die Graduate School Rhein-Neckar (GSRN) alle Weiterbildungsinteressierten in einer virtuellen Informationsveranstaltung über den berufsbegleitenden Fernstudiengang Digital Finance, Strategie & Accounting (DFSA). Im Rahmen der Veranstaltung stellen die Studiengangsleiter Prof. Dr. Gösta Jamin und Prof. Dr. Stefanie Hehn-Ginsbach den Studiengang vor. Gemeinsam mit Programm Managerin Sophia Richter informieren sie z.B. über Zugangsvoraussetzungen, inhaltliche Ausrichtungen in Bezug auf die berufliche Planung und beantworten individuelle Fragen. Wer teilnehmen möchte, wird gebeten, sich bei Sophia Richter unter sophia.richter@gsrn.de anzumelden und erhält anschließend die Zugangsdaten zum Webmeeting.
MBA-Studium mit und ohne Erststudium möglich
Der Fernstudiengang DFSA hat eine Regelstudienzeit von 5 Semestern und ist so angelegt, dass er berufsbegleitend durchgeführt werden kann. Die Absolvierenden schließen das Studium mit dem akademischen Grad Master of Business Administration (MBA) ab. Angesprochen sind Berufstätige, die sich für höherqualifizierte Tätigkeiten im Unternehmen weiterentwickeln wollen und die über einen ersten Hochschulabschluss sowie eine mindestens einjährige Berufserfahrung nach dem Erststudium verfügen. In Rheinland-Pfalz können auch beruflich qualifizierte Studieninteressierte ohne Erststudium, aber mit mehrjähriger, einschlägiger Berufserfahrung im Bereich Finance & Accounting über eine Eignungsprüfung zum Studium zugelassen werden.
Arbeitswelt 4.0 – jetzt weiterqualifizieren
Berufstätige Fernstudieninteressierte, die sich den Herausforderungen der Arbeitswelt 4.0 stellen möchten, liegen mit dem Fernstudiengang Digital Finance, Strategie & Accounting (MBA) richtig. Sie qualifizieren sich neben dem Beruf und auf akademischem Niveau. Das Studium vermittelt Schlüsselqualifikationen in zentralen Fragen der finanzwirtschaftlichen Unternehmenssteuerung, zu den Studieninhalten zählen Rechnungslegung & Kapitalmarktkommunikation, Change- & Projektmanagement sowie Entwicklung, Implementierung & Überwachung von Unternehmensstrategien. Fachübergreifende Kompetenzen wie Problemlösung, Gesprächs- und Verhandlungsführung, Digitalkompetenz und Coaching runden das Studienkonzept ab.
Die GSRN ist eine 100%ige Tochter der Hochschule für Wirtschaft und Gesellschaft (HWG) Ludwigshafen. Das zfh – Zentrum für Fernstudien im Hochschulverbund in Koblenz unterstützt die GSRN und die HWG bei der Durchführung von Fernstudiengängen. Beim zfh können sich Interessierte bis zum 15. Juli 2023 für das kommende Wintersemester online bewerben unter http://www.zfh.de/anmeldung
Weitere Informationen: http://www.zfh.de/mba/finance und http://www.gsrn.de/dfsa
Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.575 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.
Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de,
Internet: http://www.zfh.de
Verringerte Krebssterblichkeit bei täglicher Vitamin D-Einnahme
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Eine Vitamin D-Einnahme könnte die Krebssterblichkeit in der Bevölkerung um zwölf Prozent reduzieren – vorausgesetzt, das Vitamin wird täglich eingenommen. Dies ergab eine am Deutschen Krebsforschungszentrum durchgeführte Auswertung von 14 Studien der höchsten Qualitätsstufe mit insgesamt fast 105.000 Teilnehmern.
Vitamin-D-Mangel ist weltweit verbreitet und kommt besonders häufig bei Krebspatienten vor. Über das Jahr gemittelt, liegen die Vitamin D-Blutwerte bei rund 15 Prozent der deutschen Erwachsenen unter dem Schwellenwert für einen ausgeprägten Vitamin D-Mangel*. In einer Studie an Darmkrebspatienten dagegen diagnostizierten Forscher bei 59 Prozent der Teilnehmer einen Vitamin D3-Mangel, der zudem mit ungünstiger Prognose assoziiert war.
Mögliche Effekte einer Vitamin D-Supplementierung und der Entstehung bzw. Prognose von Krebserkrankungen wurden bereits in zahlreichen Studien untersucht. „Nach derzeitiger Studienlage schützt eine Vitamin D3-Einnahme wahrscheinlich nicht davor, an Krebs zu erkranken, könnte aber die Wahrscheinlichkeit senken, an einer Krebserkrankung zu versterben. Die bisherigen Studien zur Krebssterblichkeit haben jedoch sehr unterschiedliche Ergebnisse geliefert und uns interessierten die Gründe dafür“, sagt Ben Schöttker, Epidemiologe im Deutschen Krebsforschungszentrum. „Mit einer Neubewertung aller bisherigen Studien zu dem Thema wollten wir dazu beitragen, in dieser für die Bevölkerungsgesundheit so relevanten Frage zu belastbaren Ergebnissen zu kommen.“
Um die Wirksamkeit von Vitamin D3 auf die Krebssterblichkeit in der Bevölkerung und auf das Überleben von Krebspatienten zu untersuchen, führte Ben Schöttker mit Kolleginnen und Kollegen eine systematische Literaturrecherche durch, in der 14 Studien mit insgesamt knapp 105.000 Teilnehmern identifiziert wurden. Die Forscherinnen und Forscher berücksichtigten ausschließlich Studien höchster Qualität, deren Teilnehmer per Zufall dem Vitamin D3-Arm oder dem Placebo-Arm zugewiesen worden waren.
In der Zusammenfassung aller 14 Studien zeigten sich keine statistisch signifikanten Ergebnisse. Teilte man die Studien jedoch danach auf, ob die Vitamin D3-Einnahme täglich in niedriger Dosierung** erfolgte oder aber als eine selten verabreichte, hohe Einzeldosis**, zeigte sich ein großer Unterschied. In den vier Studien mit den hohen Einzeldosen zeigte sich kein Effekt auf die Krebssterblichkeit. In der Zusammenfassung der zehn Studien mit täglicher Dosierung ermittelten die Forscher dagegen eine statistisch signifikante Verringerung der Krebssterblichkeit um zwölf Prozent.
„Diese zwölfprozentige Reduktion der Krebssterblichkeit haben wir nach ungezielten Vitamin D3-Gaben an Personen mit und ohne Vitamin-D-Mangel beobachtet. Wir können daher davon ausgehen, dass der Effekt für diejenigen Menschen, die tatsächlich einen Vitamin-D-Mangel aufweisen, erheblich höher ist“, sagt Ben Schöttker. Die bessere Wirksamkeit der täglichen Vitamin D3-Dosen erklärt er sich durch die regelmäßigere Bioverfügbarkeit des aktiven Wirkstoffs, dem Hormon 1,25-Dihydroxyvitamin D, das erst durch Reaktionen des Vitamin D im Körper entsteht und vermutlich das Tumorwachstum hemmen kann.
Bei einer detaillierteren Analyse der Studien mit täglicher Einnahme ergab sich weiterhin, dass Menschen ab dem Alter von 70 Jahren am meisten von der Vitamin-D3-Therapie profitierten. Außerdem zeigte sich der Effekt am deutlichsten, wenn die Vitamin D-Einnahme bereits vor der Krebsdiagnose begonnen wurde.
Hermann Brenner, Epidemiologe und Präventionsexperte am DKFZ, ergänzt: „Diese Arbeit unterstreicht das große Potential der Vitamin-D3-Gabe in der Prävention von Krebstodesfällen. Die regelmäßige Einnahme in niedriger Dosierung** ist mit nahezu vernachlässigbarem Risiko und sehr geringen Kosten verbunden.“
Die aktuelle Arbeit wurde von der Deutschen Krebshilfe gefördert.
Publikation
Kuznia S, Zhu A, Akutsu T, Buring JE, Camargo CA Jr, Cook NR, Chen LJ, Cheng TD, Hantunen S, Lee IM, Manson JE, Neale RE, Scragg R, Shadyab AH, Sha S, Sluyter J, Tuomainen TP, Urashima M, Virtanen JK, Voutilainen A, Wactawski-Wende J, Waterhouse M, Brenner H, Schöttker B. Efficacy of vitamin D3 supplementation on cancer mortality: Systematic review and individual patient data meta-analysis of randomised controlled trials. Ageing Res Rev. 2023, DOI: 10.1016/j.arr.2023.101923.
* Der für den Vitamin D-Mangel genutzte Schwellenwert des 25-Hydroxyvitamin D-Spiegels im Blut lag bei 30 nmol/L (= 12 ng/ml). Zählt man Personen mit einer weniger gravierenden Vitamin D-Unterversorgung (25-Hydroxyvitamin D-Spiegels im Blut < 50 nmol/L (= 20 ng/ml)) hinzu, weisen etwas mehr als die Hälfte der Deutschen zumindest eine Unterversorgung auf. Es gibt jedoch auch Leitlinien, die andere Schwellenwerte benutzen. Da der Vitamin D-Spiegel im Blut v.a. von der Besonnung der Haut abhängt, schwankt dieser Prozentsatz zudem stark mit den Jahreszeiten.
** In den Studien wurden als tägliche niedrige Dosierungen 400 bis 4000 IU pro Tag eingesetzt, und als hohe Einzeldosis 60.000 bis 120.000 IU einmal pro Monat oder seltener.
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, Interessierte und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Patientinnen und Patienten zu verbessern, betreibt das DKFZ gemeinsam mit exzellenten Universitätskliniken und Forschungseinrichtungen in ganz Deutschland Translationszentren:
Nationale Centren für Tumorerkrankungen (NCT, 6 Standorte)
Deutsches Konsortium für Translationale Krebsforschung (DKTK, 7 Standorte)
Hopp-Kindertumorzentrum (KiTZ) Heidelberg
Helmholtz-Institut für translationale Onkologie (HI-TRON) Mainz – ein Helmholtz-Institut des DKFZ
DKFZ-Hector Krebsinstitut an der Universitätsmedizin Mannheim
Nationales Krebspräventionszentrum (gemeinsam mit der Deutschen Krebshilfe)
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de
Magnetbakterien: Mikroorganismen können helfen, gefährliche Schwermetalle aus dem Abwasser zu holen
Simon Schmitt Kommunikation und Medien
Helmholtz-Zentrum Dresden-Rossendorf
Einem Forschungsteam des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) ist es gelungen, uranhaltiges Wasser mittels einer besonderen Art von Bakterien zu reinigen – den sogenannten magnetotaktischen Bakterien, die ihren Namen der Fähigkeit verdanken, auf Magnetfelder reagieren zu können. Sie sind in der Lage, in Lösung befindliche Schwermetalle in ihre Zellwand einzubauen. Die Forschungsergebnisse (DOI: 10.1016/j.jhazmat.2022.129376) werfen auch ein neues Licht auf die Wechselwirkungen von Uran mit Bioliganden.
„Wir zielen mit unseren Untersuchungen auf mögliche industrielle Anwendungen im Bereich der mikrobiologischen Sanierung von Wässern, die insbesondere mit Schwermetallen kontaminiert sind, wie sie etwa in den ehemaligen Uranminen als Flutungswasser vorkommen“, erklärt Dr. Evelyn Krawczyk-Bärsch vom Institut für Ressourcenökologie am HZDR. „Für dieses Projekt haben wir uns Hilfe bei einer ganz besonderen Gruppe von Lebewesen geholt: bei den magnetotaktischen Bakterien“, fügt ihr Kollege Dr. Johannes Raff hinzu und ergänzt: „Aufgrund ihres Aufbaus sind sie geradezu prädestiniert für eine solche Aufgabe.“
Denn sie weisen eine Besonderheit auf, die sie von anderen Bakterien unterscheiden: Magnetotaktische Bakterien bilden nanoskopisch kleine Magnetitkristalle in ihrem Zellinneren. Sie sind wie auf einer Perlenschnur aufgereiht und von so perfekter Gestalt, dass sie der Mensch auf synthetischem Wege zurzeit nicht kopieren könnte. Die einzelnen magnetischen Kristalle sind jeweils umgeben von einer schützenden Membran. Kristalle und Membran bilden die sogenannten Magnetosome, mit deren Hilfe sich die Bakterien entlang des Erdmagnetfeldes ausrichten und sich so in ihrem Lebensraum orientieren – und sie zugänglich für einfache Trennprozesse machen.
Sie sind fast überall in wässriger Umgebung verbreitet, vom Süß- bis hin zum Salzwasser, auch dort, wo es nur wenige Nährstoffe gibt. Der Mikrobiologe Dr. Christopher Lefèvre hat sie sogar in den heißen Quellen Nevadas gefunden. Von ihm und seinem Kollegen Dr. Damien Faivre vom französischen Forschungszentrum für Kernenergie, dem Kommissariat für Atomenergie und alternative Energien (CEA), haben die Rossendorfer ihren Bakterienstamm bekommen, und dazu gleich noch fachkundige Tipps, wie sie sich am besten halten lassen. Denn trotz ihres häufigen Vorkommens gilt es, bei ihrer Kultivierung einiges zu beachten.
Stabiler Schwermetall-Sammler in lebensfeindlicher Umgebung
Magnetotaktische Bakterien sind bei neutralen pH-Werten selbst bei höheren Uran-Konzentrationen in wässrigen Lösungen lebensfähig. Sie bauen das aufgenommene Uran über einen weiten pH-Bereich fast ausschließlich in ihrer Zellwand ein – ausgezeichnete Grundlagen, um mit den Bedingungen zurechtzukommen, wie sie in bergbaurelevanten Wässern vorkommen. Dabei gelangt kein Uran ins Zellinnere, es wird auch nicht von den Magnetosomen gebunden.
Es war vorher schon bekannt, dass unterschiedliche Bakterientypen Schwermetalle in ihrer Zellwand binden, obwohl diese ganz unterschiedlich aufgebaut sein können. Im Falle der magnetotaktischen Bakterien besteht die Zellwand aus einer nur vier Nanometer dünnen Peptidoglykan-Schicht, einem aus Zuckern und Aminosäuren zusammengesetzten Makromolekül, das Hauptbestandteil der Zellwände vieler Bakterien ist. Die Zellwand magnetotaktischer Bakterien wird durch eine äußere Membran abgeschlossen, die aus Zuckern und fettähnlichen Bestandteilen besteht: potenzielle Andockstellen für Uran.
„Unsere Ergebnisse zeigen, dass bei den magnetotaktischen Bakterien Peptidoglykan während der Aufnahme von Uran die Hauptrolle spielt. Diese Erkenntnis ist neu und war bei diesem Bakterientyp nicht zu erwarten“, berichtet Krawczyk-Bärsch. Es gelang dem Team sogar, drei konkrete Uran-Peptidoglykan-Spezies zu bestimmen und das Ergebnis mit Referenzproben zu bestätigen. Die neuen Erkenntnisse wurden erst durch eine Kombination von Mikroskopie und verschiedenen spektroskopischen Techniken möglich, wie sie weltweit nur selten zur Verfügung steht: „So konnten wir in Zusammenarbeit mit dem Institut für Ionenstrahlphysik und Materialforschung am HZDR beispielsweise das Elektronenstrahl-Mikroskop einsetzen. Die örtliche Konzentrierung unserer Institute am Standort und die Expertise unserer Kolleginnen und Kollegen sind ein großer Vorteil für unsere Arbeit“, resümiert Raff.
Bedeutung für die Sanierung kontaminierter Gewässer
Magnetotaktische Bakterien können aufgrund ihrer magnetischen Eigenschaften mittels Magneten leicht aus Wässern abgetrennt werden. „Dies ist auch im großen Stil in Form einer Behandlung direkt in oberflächennahen Gewässern oder über das Abpumpen des Wassers aus Untertage-Bergwerken und dem Weiterleiten in Pilotkläranlagen vorstellbar“, erläutert Krawczyk-Bärsch mit Blick auf die Entwicklung innovativer Sanierungsstrategien für kontaminiertes Wasser: Der Einsatz von magnetotaktischen Bakterien könnte eine wirksame Alternative zu teuren und konventionellen chemischen Behandlungen sein. Denn magnetotaktische Bakterien sind genügsam in der Haltung, während zum Beispiel die Überführung anderer Biomasse-basierter Lösungen in die Praxis regelmäßig am Preis scheitern, der einem erhöhten Nährstoff- und Energiebedarf geschuldet ist.
Und noch ein weiteres Detail hat das Interesse der Forschenden an diesen Bakterien geweckt: Ihre Proteine sind in der Lage, zwei- und dreiwertiges Eisen so zu stabilisieren, dass die Synthese des in die Magnetosomen eingelagerten Magnetits gelingt. „Uns stellt sich deshalb besonders eine Frage: Wie werden diese Mikroorganismen mit Radionukliden verschiedener Oxidationsstufen wechselwirken? Wir denken da insbesondere an Plutonium“, erklärt Raff. Denn anders als bei Uran ist es denkbar, dass es aufgrund seiner chemischen Ähnlichkeit zu Eisen ähnliche Aufnahmewege in die Zelle nutzt. Wie beeinflusst dies das Wanderungsverhalten von Plutonium in der Natur und ließe sich auf diesem Wege auch Plutonium aus Abwässern entfernen? Das Thema ist deshalb ebenfalls relevant für die Endlagerforschung: Etwaige Ergebnisse könnten dann in die Sicherheitsabschätzung einfließen.
Publikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )
Weitere Informationen:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de
Medienkontakt:
Simon Schmitt | Leitung und Pressesprecher
Abteilung Kommunikation und Medien am HZDR
Tel.: +49 351 260 3400 | Mobil: +49 175 874 2865 | E-Mail: s.schmitt@hzdr.de
Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?
Das HZDR entwickelt und betreibt große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Es ist Mitglied der Helmholtz-Gemeinschaft, hat sechs Standorte (Dresden, Freiberg, Görlitz, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt fast 1.500 Mitarbeiter*innen – davon etwa 670 Wissenschaftler*innen inklusive 220 Doktorand*innen.
Wissenschaftliche Ansprechpartner:
Dr. Evelyn Krawczyk-Bärsch | Dr. Johannes Raff
Institut für Ressourcenökologie am HZDR
Tel.: +49 351 260 2076 | +49 351 260 2951
E-Mail: e.krawczyk-baersch@hzdr.de | j.raff@hzdr.de
Originalpublikation:
E. Krawczyk-Bärsch, J. Ramtke, B. Drobot, K. Müller, R. Steudtner, S. Kluge, R. Hübner, J. Raff, Peptidoglycan as major binding motif for Uranium bioassociation on Magnetospirillum magneticum AMB-1 in contaminated waters, Journal of Hazardous Materials, 2022 (DOI: 10.1016/j.jhazmat.2022.129376 )
Weitere Informationen:
https://www.hzdr.de/presse/magnetic_bacteria
Decoding Love: Studie an der Universität Wuppertal untersucht Auswirkungen der Smartphonenutzung in Liebesbeziehungen
Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Das Smartphone ist in unserem Alltag allgegenwärtig – im Durchschnitt vergehen weniger als zwanzig Minuten zwischen zwei Blicken, die wir darauf werfen. In zwischenmenschlichen Beziehungen kann das zu Konflikten führen. Die Wirkung von Smartphonenutzung in sozialen Situationen schauen sich Wissenschaftlerinnen der Bergischen Universität Wuppertal schon länger genauer an. In einer neuen Studie widmen sie sich nun konkret Liebesbeziehungen: Wie wirkt sich der unangemessene Gebrauch – auch als Phubbing bezeichnet – auf das Wohlbefinden von Paaren und ihre Nähe zueinander aus? Und was hilft dabei, das Verhalten zu ändern?
Derzeit sucht das Team vom Lehrstuhl für Gesundheitspsychologie und Angewandte Diagnostik noch Paare, die an der Studie teilnehmen wollen. Geleitet wird die Studie von Prof. Dr. Theda Radtke. Die Lehrstuhlinhaberin erklärt, wer fürs Mitmachen in Frage kommt: „Wenn Paare zusammenleben, das Smartphone Thema in der Beziehung ist und der Wunsch besteht, das zu ändern, können sich die Paare bei uns melden bzw. direkt die erste Kurzbefragung ausfüllen.“ Die, so die Forscherin, dauere rund zehn Minuten und diene ihrem Team dazu, eine erste Einschätzung der Situation des Paares vorzunehmen. Passen die Teilnehmenden ins Profil der Studie, folgen in den darauffolgenden drei Wochen noch drei weitere Online-Befragungen.
Paare unterstützen dabei nicht nur die Wissenschaft – sie tun vor allem etwas für ihre Beziehung: „Die Teilnahme an der Studie ermöglicht es den Paaren, ihre Smartphone-Nutzung zu reflektieren und im besten Fall ihre Beziehung zu stärken“, so Radtke. Dabei sollen auch ganz konkrete Tipps helfen, die die Wissenschaftlerinnen Paaren, bei denen die Smartphonenutzung zu Meinungsverschiedenheiten und Konflikten führt, an die Hand geben. „Wir begleiten die Paare über ein paar Wochen, um langfristige Effekte erzielen zu können und um ihnen zu zeigen, wie sich unangemessene Nutzungszeiten in Gegenwart des anderen reduzieren lassen.“
Infobox: Studie Decoding Love
Weiterführende Infos zur Studie und die erste Kurzbefragung gibt es hier: https://www.soscisurvey.de/decoding-love/
Gesucht werden Personen, die mindestens 18 Jahre alt sind, und mit dem*der Partner*in zusammenleben. Nur eine Person der Paarbeziehung füllt die Online-Befragungen aus, daher sollte zuvor besprochen werden, wer an der Studie teilnimmt. Teilnehmende haben die Chance auf Gutscheine im Gesamtwert von 250 Euro.
Weitere Fragen können an decodinglove@uni-wuppertal.de gerichtet werden.
Weitere Informationen:
https://health.uni-wuppertal.de/de/ – Mehr zur Forschung des Lehrstuhls
Es darf gedüngt werden! Pressemitteilung und -einladung
Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
In der Schorfheide startet am Montag, den 15. Mai 2023 ein neuer Feldversuch mit Recyclingdüngern aus Inhalten aus Trockentoiletten. Erstmalig werden auf einem ca. sechs Hektar großen Ackerschlag der Schorfheider Agrar GmbH Recyclingdünger aus menschlichem Urin und Kot für den Anbau von Silomais angewendet.
In den kommenden Monaten werden die am Ertrag gemessene Düngewirkung sowie die Klima- und Schadwirkung untersucht. Besonderes Augenmerk wird dabei auf pharmazeutischen Rückständen liegen. Die Ergebnisse des Feldversuchs sollen Aufschluss darüber geben, ob solche neuartigen Dünger schadlos angewendet und synthetische Mineraldünger ersetzen können.
Die Firma Finizio veredelt den Recyclingdünger, dessen Basis in Trockentoiletten gesammelter menschlicher Kot ist, in Eberswalde auf dem Gelände der Kreiswerke Barnim. Die Recyclingdünger auf Urinbasis stammen von der Schweizer Firma Vuna. In Kürze wird eine Urinaufbereitungsanlage für die Herstellung von Recyclingdünger aus Urin auch in Eberswalde in Betrieb genommen.
Die Verwertungsanlage in Eberswalde und der Feldversuch sind Teil des Forschungsprojekts zirkulierBAR, welches für drei Jahre vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Es verfolgt die Vision einer Sanitär- und Nährstoffwende – d.h. Nährstoffe aus verzehrten Lebensmitteln zurück-zugewinnen und diese im Sinne einer nachhaltigen, regionalen Kreislaufwirtschaft wieder der Landwirtschaft zuzuführen.
Am 17.05.23 laden wir Sie herzlich von 14-16 Uhr zu den Kreiswerken Barnim nach Eberswalde ein – dem Ort an dem die Recyclingdünger entstehen. Sie können, das Forschungsprojekt zirkulierBAR kennenzulernen, die Anlage zur Verwertung von Inhalten aus Trockentoiletten besichtigen und Fragen rund um Trockentoiletten und Recyclingdünger stellen.
Rede und Antwort stehen Ihnen Jan-Ole Boness, Verantwortlicher für die Düngeversuche, sowie Ariane Krause und Corinna Schröder, Koordinatorinnen des Projekts zirkulierBAR am Leibniz-Institut für Gemüse- und Zierpflanzenbau e.V..
Treffpunkt ist der Parkplatz vor dem Verwaltungsgebäude der Kreiswerke Barnim am Standort Eberswalde (Ostender Höhen 70, 16225 Eberswalde).
Um eine Anmeldung unter presse@zirkulierbar.de bis zum 16.05.2023 wird gebeten.
Wissenschaftliche Ansprechpartner:
Dr. Ariane Krause | presse@zirkulierbar.de
Weitere Informationen:
https://zirkulierbar.de/ Projekt zirkulierBAR
Schutz vor UV-Strahlung am Arbeitsplatz verbessern
Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
FAU-Studie liefert wichtige Erkenntnisse für die Hautkrebsprävention bei der Arbeit im Freien
Die ultraviolette (UV) Strahlung der Sonne ist seit 1992 von der internationalen Agentur für Krebsforschung als krebserregend für den Menschen eingestuft und der wichtigste äußere Faktor für die Entstehung von Hautkrebs. Menschen, die überwiegend im Freien arbeiten, haben ein erhöhtes Risiko, an Hautkrebs zu erkranken. Ein Forschungsteam der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) hat in zwei Untersuchungen ermittelt, ob und wie sich Beschäftigte in Deutschland, die viel im Freien arbeiten, vor starker Sonneneinstrahlung schützen und welche Maßnahmen zur Vorbeugung von Hautkrebs Arbeitgeber treffen. Sie stellten dabei unter anderem Geschlechts- und Branchenunterschiede zwischen dem individuellen Sonnenschutzverhalten fest.
„Seit 2015 können das Plattenepithelkarzinom und dessen Vorstufen, die aktinischen Keratosen, bei Beschäftigten im Freien als Berufskrankheit in Deutschland anerkannt und entschädigt werden. Nach den COVID-19-Infektionen und der Lärmschwerhörigkeit sind diese Erkrankungen zur dritthäufigsten anerkannten Berufskrankheit und zum häufigsten Berufskrebs geworden. Gefährdet sind in Deutschland 2 bis 3 Millionen Beschäftigte und das berufliche Krebsrisiko ist deutlich höher als es bei chemischen Arbeitsstoffen oder radioaktiver Strahlung in unserer Arbeitswelt akzeptiert oder toleriert wird“, sagt Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin, der maßgeblich daran beteiligt war, dass diese Krebsformen als Berufskrankheit eingestuft wurden. Die Behandlungskosten für das Plattenepithelkarzinom und aktinische Keratosen werden in Deutschland auf 3,15 Millionen Euro pro Jahr geschätzt. Deshalb spielt der Sonnenschutz bei der Arbeit nicht nur eine wichtige Rolle für die einzelnen Beschäftigten, sondern auch für die Gesellschaft.
Geschlechtsunterschiede bei der Verwendung von Sonnenschutzmitteln
Das Forschungsteam der FAU um Prof. Dr. Katharina Diehl und PD Dr. Tatiana Görig, beide Professur für Epidemiologie und Public Health, sowie Prof. Dr. Hans Drexler befragte im Rahmen der siebten Welle des Nationalen Krebshilfe-Monitorings (NCAM) Beschäftigte, die mindestens zwei Stunden täglich im Freien arbeiteten wie beispielsweise auf Baustellen, in Kindertagesstätten, bei der Polizei, der Müllabfuhr oder Post- und Paketdiensten. Dabei stellten sie fest, dass nur rund 38 Prozent aller Teilnehmenden Sonnenschutz fürs Gesicht verwendeten, Frauen häufiger als Männer. Männer hingegen trugen eher Sonnenschutzkleidung, darunter etwa Hemden, die die Schultern bedecken, und Kopfbedeckungen.
Länge der Arbeitszeit hat Einfluss auf das Tragen von Schutzkleidung
Männliche Beschäftigte, die wenigstens vier Stunden im Freien arbeiteten, trugen häufiger ein schulterbedeckendes Shirt oder Hemd als Personen, die zwei bis drei Stunden im Freien tätig sind (88 Prozent gegenüber 73 Prozent). Auch die Branche spielte beim Sonnenschutz eine Rolle: Wer eine Uniform oder festgelegte Arbeitskleidung tragen musste wie bei der Polizei, im Sicherheitsdienst oder im Post- und Paketdienst, gab häufiger an, schulterbedeckende Hemden zu tragen. Kopfbedeckungen wurden am häufigsten im Gartenbau getragen (47 Prozent). Besonders oft wurde zum Sonnenschutz die Mittagspause im Schatten verbracht (83 Prozent). Bei Frauen gab es hinsichtlich der Länge der Arbeitszeit im Freien und dem Sonnenschutz nur einen Zusammenhang zum vermehrten Tragen von Kopfbedeckungen.
„Unsere Studie hat gezeigt, dass beim Sonnenschutz für Beschäftigte, die im Freien arbeiten, noch viel Luft nach oben besteht, vor allem in Bezug auf die Verwendung von Kopfbedeckungen, Sonnenbrillen und Sonnenschutzmitteln. Insbesondere Männer müssten stärker sensibilisiert werden, Sonnenschutzmittel zu verwenden. Auch über den UV-Index, der die Stärke der UV-Strahlung angibt, sollte besser aufgeklärt werden. Unsere Ergebnisse können unter anderem für gezielte Kampagnen zur Prävention von Hautkrebs genutzt werden“, sagt Prof. Diehl.
Unternehmen stärker für den Sonnenschutz sensibilisieren
Eine weitere Auswertung der FAU-Arbeitsgruppe ergab, dass auch die Unternehmen mehr dazu beitragen könnten, die Beschäftigten vor der UV-Strahlung und damit vor Hautkrebs zu schützen. So gaben zum Beispiel 28 Prozent der Beschäftigten die Auskunft, dass ihnen während der Arbeitszeit selten oder nie ein Schattenplatz zur Verfügung gestellt würde. Hier gäbe es die Möglichkeit, Sonnenschutzzelte oder Überdachungen aufzubauen. Nur etwa die Hälfte der Beschäftigten (52 Prozent) erhielt Schutzkleidung vom Arbeitgeber, ein Viertel Sonnenschutzmittel (25 Prozent) – ein weiterer möglicher Ansatzpunkt für den Arbeitsschutz. Etwa ein Drittel der Befragten konnte an heißen Sommertagen morgens früher mit der Arbeit beginnen, um der höchsten UV-Strahlenbelastung aus dem Weg zu gehen. Falls Unternehmen die Arbeit an heißen Sommertagen zeitlich anders organisieren können, sollten sie auch diese Möglichkeit nutzen, lautet eine weitere Schlussfolgerung der Studie. „Neben individuellen verhaltensbezogenen Sonnenschutzmaßnahmen stellt der Sonnenschutz durch den Arbeitgeber eine wichtige Ergänzung dar“, sagt PD Dr. Görig.
„Durch den Klimawandel wird die Belastung durch UV-Strahlen am Arbeitsplatz weiter zunehmen. Unsere Studien liefern Ansatzpunkte für die Verbesserung des UV-Schutzes am Arbeitsplatz“, betont Prof. Diehl.
Links zu den beiden Publikationen:
https://doi.org/10.1093/annweh/wxad014
https://doi.org/10.1002/ajim.23480
Ansprechpartner/-innen für die Studien:
Prof. Dr. Katharina Diehl
Professur für Epidemiologie und Public Health
katharina.diehl@fau.de
PD Dr. Tatiana Görig
Professur für Epidemiologie und Public Health
tatiana.goerig@fau.de
Prof. Dr. Hans Drexler
Lehrstuhl für Arbeits- und Sozialmedizin
hans.drexler@fau.de
Gerne vermitteln wir Ihnen Forschende rund ums Thema Sonnenschutz, zum Beispiel:
Expert/-innen für primäre Prävention (Aufklärung, inkl. Sonnencremes), sekundäre Prävention (Hautkrebsscreening) und tertiäre Prävention (Tumorentfernung und Nachsorge) über:
Prof. Dr. Carola Berking, Hautklinik des Uniklinikums Erlangen
Tel.: 09131/85-33661, direktion.de@uk-erlangen.de
Sonnenschutz als gesellschaftliches Thema: Wie kann man sich vor der Sonne schützen und wo zeigen sich Defizite?
Prof. Dr. Katharina Diehl, Professur für Epidemiologie und Public Health
Tel.: 09131/85-22793, katharina.diehl@fau.de
Arbeitsmedizin und -schutz: Welche Möglichkeiten haben Arbeitnehmer/-innen, um sich angemessen vor Sonnenstrahlung zu schützen, und wie können Arbeitsgeber/-innen aktiv werden?
Prof. Dr. Hans Drexler, Lehrstuhl für Arbeits- und Sozialmedizin
Tel.: 09131/85-22312, hans.drexler@fau.de
Bei Fragen dürfen Sie sich auch gerne direkt an das Presseteam wenden unter 09131/85-70229 und presse@fau.de
Mit grüner Energie und nachhaltigen Rohstoffen in die Zukunft
Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel
„Grüne Energie und nachhaltige Rohstoffe“ nennt sich eine SDG-Partnerschaft, die jetzt für die Universität Kassel eingeworben wurde. Gefördert wird sie vom Deutschen Akademischen Austauschdienst DAAD. Beteiligt sind das Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften und das Centro de Estudios Latinamericanos (CELA) an der Universität Kassel.
Die SDG-Partnerschaften des DAAD fördern internationale Kooperationen, die die Umsetzung der UN-Ziele für Nachhaltige Entwicklung besonders unterstützen. Die geförderte Partnerschaft nimmt Bezug auf die Sustainable Development Goals „Bezahlbare und saubere Energie“ (SDG 7) und „Maßnahmen zum Klimaschutz“ (SDG 12).
Vor diesem Hintergrund wird Kassel in den kommenden vier Jahren intensiv mit der Universidad Nacional de San Martín (UNSAM) in Argentinien sowie der Universidad de la Habana (UH) in Kuba zusammenarbeiten. Denn: „Energiewende, Klimaschutz und Nachhaltigkeit klappen nicht ohne internationale Zusammenarbeit“, so Prof. Hans-Jürgen Burchardt, Fachgebiet Internationale Beziehungen des Fachbereichs Gesellschaftswissenschaften der Uni Kassel.
Durch die eingeworbene Fördersumme von mehr als 380.000 Euro werden bis 2026 pro Jahr 19 Forschungs- und Studienaufenthalte in alle drei Länder finanziert.
Davon profitieren Studierende, Promovierende sowie Professorinnen und Professoren. Ziel der Zusammenarbeit ist es, gemeinsam Lösungen im Feld der nachhaltigen Energie- und Rohstoffversorgung zu erforschen und umzusetzen. Nicht nur Wissen und Perspektiven werden ausgetauscht, sondern auch gemeinsame neue Lehrformate erprobt. Verschiedene Forschungen sowie Veröffentlichungen stehen ebenso auf dem Programm wie ein intensiver Wissenstransfer in Politik, Wirtschaft und Gesellschaft.
Das Projekt soll in Lateinamerika Leuchtturmfunktion erhalten, da sich die Region auf den Abbau und Export von hauptsächlich nicht erneuerbaren Rohstoffen spezialisiert hat. Zusätzlich fördert dieser Fokus bei allen Partnerinstitutionen eine Erweiterung und Stärkung bereits bestehender SDG-Themen, die auf sozial-ökologische Forschung, nachhaltige Entwicklung und globale Ungleichheit ausgerichtet sind.
Das Projekt wird die Internationalisierung der Forschung und Lehre der Universität Kassel und des CELA in wichtigen Feldern stärken und ist ein bedeutender Mosaikstein beim Aufbau des neuen Kassel Institute for Sustainability. Die erfolgreiche Einwerbung zeigt gleichzeitig, dass Nachhaltigkeit bereits ein wichtiges Markenzeichen der Universität und Region Kassel ist.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Jürgen Burchardt
FG Internationale und intergesellschaftliche Beziehungen
Telefon: 0561 804-2797
Mail: magura@uni-kassel.de
Post-Covid: keine falschen Versprechungen!
Natascha Hövener Pressekontakt
Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin e. V.
Im Gesundheitsausschuss wurde im April 2023 über die Versorgungssituation von Post-Covid- und ME/CFS-Betroffenen diskutiert – das ist wichtig, allerdings fanden die Beratungen unter Ausschluss der wissenschaftlichen Expertise der Allgemeinmedizin statt. Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) empfiehlt, diese Expertise künftig von Beginn an in solche Debatten und strukturelle Überlegungen einzubeziehen. Gleichzeitig warnt die DEGAM davor, spezialisierte Ambulanzen flächendeckend aufzubauen, die zum jetzigen Zeitpunkt (noch) kein erfolgversprechendes und evidenzbasiertes Therapieangebot machen können.
Im Gesundheitsausschuss wurde kürzlich über die Versorgung von Patientinnen und Patienten gesprochen, die an Post-Covid und / oder Myalgischer Enzephalomyelitis / Chronischem Fatigue-Syndrom (ME/CFS) leiden. Leider war die DEGAM, die die Perspektive der evidenzbasierten Allgemeinmedizin vertritt, nicht zur Anhörung geladen. Aus Sicht der DEGAM wäre es unethisch und auch ineffizient, hier eine neue Versorgungsebene in Aussicht zu stellen: Auch Ambulanzen können den Post-Covid-Betroffenen zum jetzigen Zeitpunkt wenig Konkretes anbieten.
„Spezialisierte Ambulanzen können nur dann helfen, wenn sie etwas anbieten können, das verfügbar und nachweislich wirksam ist. Das ist im Moment nicht der Fall, da weder einheitliche Diagnose-Kriterien noch Nachweise über evidenzbasierte erfolgreiche Therapieoptionen vorliegen. Insofern sollten hier keine Versprechungen gemacht werden“, warnt Prof. Martin Scherer, Präsident der DEGAM. „Was wir aber unbedingt tun sollten, ist, die wissenschaftliche Expertise der Allgemeinmedizin von Anfang an in solche strukturellen Fragen mit einzubeziehen. Und wir müssen die hausärztliche Versorgungsebene so stärken, dass Post-Covid- und ME/CFS-Patientinnen und Patienten in der Fläche bestmöglich begleitet werden können.“
Die DEGAM weist in diesem Zusammenhang auch auf den Unterschied von Long- und Post-Covid und ME/CFS hin: „Wir gehen davon aus, dass die allermeisten, die an Long-Covid-Symptomen leiden, wieder gesund werden. Einige der Betroffenen erkranken allerdings stark, mit einem monatelang hohen Leidensdruck. Dann sprechen wir von Post-Covid. Bei Post-Covid gibt es bisher keine schnellen Lösungen. Wir brauchen, wie bei manch anderen Krankheitsbildern auch, viel Geduld. Zwischen Post-Covid und ME/CFS gibt es große Überschneidungen. Allerdings fehlen uns zu den genaueren Abgrenzungen bisher gute Daten, so dass wir nicht wissen, wie die Gesamtsituation wirklich aussieht.“
Die DEGAM möchte ausdrücklich davor warnen, das Leid und die Not der Betroffenen nicht ernst zu nehmen – und mahnt gerade deshalb an, wirklich wirksame Lösungen zu finden. Ein zentraler Punkt dabei ist auch die Erforschung der Krankheitsbilder. Hierfür sollte auch die Initiative Deutscher Forschungspraxennetze – DESAM-ForNet, eine bundesweite Forschungsinfrastruktur in der Hausarztmedizin, genutzt werden.
„Der Wissenstransfer in die Hausarztpraxen gelingt dann insbesondere durch unsere Leitlinien. Wir haben kürzlich ein Update der Leitlinie Müdigkeit mit eigenem ME/CFS-Kapitel publiziert und sind an der Post-Covid-Leitlinie beteiligt“, erklärt Martin Scherer abschließend.
Pressekontakt:
Natascha Hövener
Pressesprecherin
Telefon: 030 – 20 966 98 16
E-Mail: hoevener@degam.de
Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM)
Schumannstraße 9, 10117 Berlin
http://www.degam.de
Präsident: Prof. Dr. med. Martin Scherer (Hamburg)
Die Deutsche Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) ist eine wissenschaftliche Fachgesellschaft. Ihre zentrale Aufgabe ist es, die Allgemeinmedizin als anerkannte wissenschaftliche Disziplin zu fördern und sie als Rückgrat der Patientenversorgung weiterzuentwickeln. Die DEGAM ist Ansprechpartnerin bei allen Fragen zur wissenschaftlichen Entwicklung der Allgemeinmedizin an den Hochschulen, zur Fort- und Weiterbildung sowie zum Qualitätsmanagement. Sie erarbeitet eigene wissenschaftlich fundierte Leitlinien für die hausärztliche Praxis und beteiligt sich auch an interdisziplinären Leitlinien anderer Fachgesellschaften. Die Aktivitäten der Nachwuchsförderung sind in der Deutschen Stiftung für Allgemeinmedizin und Familienmedizin (DESAM) zusammengefasst.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Martin Scherer, Präsident der DEGAM
E-Mail: m.scherer@uke.de
SEMAplus: Neues Tool für Alterungsprognosen von Abwasser- und Wassernetzwerken wird in Lausanne eingesetzt
Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt.
Im Rahmen eines 3-jährigen Projekts wird die Stadt Lausanne das innovative Tool SEMAplus für Alterungsprognosen von Abwasser- und Wassernetzwerken einsetzen und weiterentwickeln. Die Softwarelösung, die dazu beiträgt, die Wassersysteme für zukünftige Generationen zu erhalten, wurde vom Kompetenzzentrum Wasser Berlin (KWB) und den Berliner Wasserbetrieben entwickelt. Erstere ist eine gemeinnützige Forschungsorganisation mit Sitz in Berlin, die innovative und praxisnahe Lösungen für Herausforderungen im Bereich der Wasserwirtschaft entwickelt, während letztere das größte kommunale Wasserversorgungs- und Abwasserentsorgungsunternehmen in Deutschland ist. SEMAplus wird derzeit in Berlin für über 10.000 km Abwassernetz eingesetzt, um die jährliche Finanzplanung für Kanalsanierungen zu optimieren.
Alternde Wasser- und Abwassernetze erfordern enorme Investitionen für Instandhaltungen, die einen erheblichen Anteil kommunaler Budgets ausmachen. Die auf maschinellem Lernen basierende Softwarelösung SEMAplus liefert schnelle und genaue Informationen zur Lokalisierung von dringenden Sanierungsbedarfen sowie eine Grundlage für langfristige Investitionsplanung. Hierfür benötigt SEMAplus nur eine begrenzte Menge an Inspektionsdaten (visuelle Inspektion der Kanäle durch CCTV-Kameras), technischen Daten (Alter, Material, Durchmesser usw.) und Umweltdaten (Verkehrsbelastung, Grundwasserspiegel).
In Lausanne werden die vorhandenen Module von SEMAplus implementiert und erweitert, um spezifischen Bedürfnissen vor Ort gerecht zu werden. Das Hauptziel besteht darin, ein Tool bereitzustellen, das das Asset Management von Felddaten (CCTV-Inspektion von Kanälen oder Lokalisierung von Schäden) integriert und Informationen liefert, wo der Austausch bzw. die Sanierung von Kanalhaltungen priorisiert werden sollte.
SEMAplus wird durch ein neues Modul erweitert, das den Zustand der Kanalhaltungen automatisch auf Basis der visuellen Abwasserinspektionsberichte durch CCTV-Kameras bewertet. Ziel ist es, einen einzigen Zustandswert für jeden Abschnitt zu erhalten, der zusammen mit Daten zu Abwassereigenschaften und relevanten Umweltfaktoren verwendet wird, um die Ausfallwahrscheinlichkeit zu simulieren. Das Ergebnis ist eine Liste sowohl aller inspizierten als auch uninspizierten Kanalhaltungen, die nach ihrem unmittelbaren Sanierungsbedarf sortiert sind.
Weiterhin werden auch neue maschinelle Lernmethoden untersucht, um die Genauigkeit unserer Vorhersagen zu verbessern. Die Modellgenauigkeit ist in Lausanne von besonderer Relevanz, da die Ergebnisse unmittelbar zur Entscheidung über lokale Baumaßnahmen genutzt werden können. Ein weiteres spezielles Modul wird für die Priorisierung der Sanierungsbedürfnisse von Kanalhaltungen entwickelt, die das Risiko und die Folgen von Ausfällen besonders berücksichtigen. Die zugrundeliegende Analyse wird in enger Zusammenarbeit mit Experten der französischen Forschungsinstitute Institut National de la Recherche Agronomique (INRAE) und Institut National Des Sciences Appliquées Lyon (INSA) durchgeführt. Das Modul ermöglicht die Berücksichtigung zusätzlicher Auswirkungs- oder Verwundbarkeitskriterien zur Priorisierung von Sanierungsinvestitionen (z.B. unter stark befahrenen Straßen oder in Ressourcenschutzgebieten). Außerdem wird das vorhandene Tool für das Asset Management des Trinkwassernetzes der Stadt Lausanne, das auf derselben Philosophie basiert, aufgerüstet und in SEMAplus integriert.
Schließlich wird SEMAplus auf strategischer Ebene genutzt, um die Entwicklung des Netzwerkzustands für die nächsten zehn Jahre zu simulieren. Ziel ist es, die Verschlechterung oder Verbesserung des Zustands des Netzwerks zu visualisieren, abhängig von den jährlichen Investitionen für Kanalsanierungen und den verwendeten Sanierungstechniken (z.B. überwiegend Reparatur, Renovierung oder Austausch). Angesichts hoher Investitionskosten liefert SEMAplus der Stadt Lausanne Argumente, die Relevanz der vorgeschlagenen Investitionen zu begründen und Gemeinden dazu zu bewegen, gezielt in Kanalsanierungen zu investieren.
Indem es schnelle und präzise Informationen zur Lokalisierung dringender Sanierungsbedarfe bereitstellt und eine Grundlage für langfristige Investitionsplanung schafft, wird SEMAplus das Asset Management von Abwasser- und Wassernetzwerken in der Stadt Lausanne entscheidend transformieren.
Weitere Informationen zu SEMAplus finden Sie hier: https://www.kompetenz-wasser.de/de/forschung/dienstleistungen/semaplus
Wissenschaftliche Ansprechpartner:
Dr. Nicolas Caradot
Immer mehr Ältere sind sozialversicherungspflichtig beschäftigt
Katja Feuerstein Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Die Erwerbstätigkeit von Älteren ab 50 nimmt seit 20 Jahren deutlich zu. Dabei dominiert der Anstieg der sozialversicherungspflichtigen Beschäftigung, insbesondere bei den 60- bis 64-Jährigen. Das zeigt eine am Dienstag veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).
So ist die Beschäftigungsquote Älterer deutlich stärker gestiegen als die Beschäftigungsquote insgesamt: Der Anteil der sozialversicherungspflichtig Beschäftigten an der Gesamtbevölkerung ab 15 Jahren stieg zwischen 2006 und 2021 von 37 Prozent auf 47 Prozent, bei den 55- bis 59-Jährigen sogar von 43 Prozent auf 64 Prozent.
Auch im Vergleich zu anderen Beschäftigungsformen gewinnt die sozialversicherungspflichtige Beschäftigung besonders bei Älteren an Bedeutung. Während in der Gesamtbevölkerung die ausschließlich geringfügige Beschäftigung relativ zur sozialversicherungspflichtigen Beschäftigung seit 2001 um gut 20 Prozent zurückgefallen ist, beträgt der relative Bedeutungsverlust bei den 60- bis 64-Jährigen über 80 Prozent. Die Selbstständigkeit geht insgesamt von 2001 bis 2021 relativ zur sozialversicherungspflichtigen Beschäftigung um 20 Prozent zurück, für die 60- bis 64-Jährigen sogar um gut 60 Prozent.
„Die Entwicklung der vergangenen Jahre zeigt, dass es gelingen kann, mehr Ältere im Arbeitsmarkt zu halten“, erklärt IAB-Direktor Bernd Fitzenberger. „Der hohe Arbeitskräftebedarf sollte genutzt werden, um Ältere mit individuellen Arbeitszeitregelungen, Maßnahmen zum Erhalt der Beschäftigungsfähigkeit und geeigneten Tätigkeitsprofilen für eine längere berufliche Aktivität zu gewinnen“, so Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.
Die IAB-Studie ist online abrufbar unter https://www.iab-forum.de/der-starke-anstieg-der-erwerbstaetigkeit-von-aelteren-i….
Quallenähnliche Roboter könnten eines Tages die Weltmeere säubern
Linda Behringer Public Relations
Max-Planck-Institut für Intelligente Systeme
Robotiker des Max-Planck-Instituts für Intelligente Systeme in Stuttgart haben einen von Quallen inspirierten Unterwasserroboter entwickelt, mit dem sie eines Tages Abfälle vom Meeresgrund aufsammeln wollen. Der nahezu geräuschlose Prototyp kann Objekte berührungslos unter seinem Körper einfangen und bewegt sich somit störungsfrei in empfindlichen Umgebungen wie zum Beispiel Korallenriffen. Jellyfish-Bot ist ein Hoffnungsträger – Schwärme dieser Roboter könnten eines Tages helfen, die Weltmeere zu säubern.
Stuttgart – Die Erdoberfläche ist zum größten Teil mit Meeren bedeckt, die leider stark verschmutzt sind. Eine der Strategien zur Bekämpfung der Müllberge in diesen sehr empfindlichen Ökosystemen – insbesondere in der Nähe von Korallenriffen – ist der Einsatz von Robotern. Doch Unterwasserroboter sind meist sperrig mit unbeweglichen Körpern, die nicht in der Lage sind, komplexe Umgebungen zu erkunden oder Proben zu nehmen. Zudem sind sie relativ laut aufgrund von Elektromotoren oder Hydraulikpumpen.
Auf der Suche nach einem geeigneteren Design haben sich Wissenschaftler am Max-Planck-Institut für Intelligente Systeme (MPI-IS) in Stuttgart von der Natur inspirieren lassen. Sie konfigurierten einen Quallen-ähnlichen, vielseitigen, energieeffizienten und nahezu geräuschlosen Roboter so groß wie eine Hand. Jellyfish-Bot ist eine Zusammenarbeit zwischen den beiden Abteilungen für Physische Intelligenz und für Robotik-Materialien am MPI-IS. Die Forschungsarbeit „A Versatile Jellyfish-like Robotic Platform for Effective Underwater Propulsion and Manipulation“ wurde in Science Advances veröffentlicht.
Für den Bau des Roboters verwendete das Team elektrohydraulische Aktuatoren, durch die Strom fließt. Die Aktuatoren dienen als künstliche Muskeln, die den Roboter antreiben. Um diese Muskeln herum befinden sich Luftkissen sowie weiche und starre Komponenten, die den Roboter stabilisieren und ihn wasserdicht machen. Auf diese Weise kommt die Hochspannung, die durch die Aktuatoren fließt, nicht mit dem umgebenden Wasser in Berührung. Strom fließt in regelmäßigen Abständen durch dünne Drähte, wodurch sich die Muskeln zusammenziehen und ausdehnen. Dadurch kann der Roboter anmutig schwimmen und Strudel unter seinem Körper erzeugen.
„Wenn eine Qualle nach oben schwimmt, kann sie Objekte auf ihrem Weg einfangen, da sie Strömungen um ihren Körper herum erzeugt. Auf diese Weise sammelt sie auch Nährstoffe. Auch unser Roboter lässt das Wasser um ihn herum zirkulieren. Diese Funktion ist nützlich, um Objekte wie Abfallpartikel zu sammeln. Er kann den Abfall dann an die Oberfläche befördern, wo die Partikel später recycelt werden. Er ist auch in der Lage, Proben wie z.B. Fischeier zu nehmen. Dabei hat die Maschine keine negativen Auswirkungen auf die Umgebung oder die Meeresbewohner, und er ist nahezu geräuschlos“, erklärt Tianlu Wang. Er ist Postdoc in der Abteilung für Physische Intelligenz am MPI-IS und Erstautor der Publikation.
Sein Mitautor Hyeong-Joon Joo aus der Abteilung für Robotik-Materialien ergänzt: „Schätzungsweise sinken 70 % des Mülls auf den Meeresboden. Mehr als 60 % dieses Mülls besteht aus Kunststoffen, die Hunderte von Jahren brauchen, um sich zu zersetzen. Daher war es für uns wichtig, einen Roboter zu entwickeln, der Objekte wie Abfälle bewegen und nach oben transportieren kann. Wir hoffen, dass Unterwasserroboter eines Tages bei der Säuberung unserer Ozeane helfen können“.
Jellyfish-Bot ist in der Lage, Objekte berührungslos zu bewegen und einzufangen, wobei er entweder allein oder als Schwarm arbeiten kann. Der Roboter arbeitet schneller als andere vergleichbare Erfindungen und erreicht eine Geschwindigkeit von bis zu 6,1 cm/s. Außerdem benötigt Jellyfish-Bot nur eine geringe Leistung von etwa 100 mW. Und er ist sicher für Menschen und Fische, sollte das Polymer, das den Roboter isoliert, irgendwann zerreißen. Gleichzeitig sind die Geräusche des Roboters nicht von den Hintergrundgeräuschen zu unterscheiden. Auf diese Weise interagiert Jellyfish-Bot sanft mit seiner Umgebung, ohne sie zu stören – genau wie sein natürliches Vorbild.
Der Roboter besteht aus mehreren Schichten: Einige stabilisieren den Roboter, andere machen ihn schwimmfähig oder dichten ihn ab. Eine weitere Polymerschicht fungiert als Schwimmhaut. In der Mitte der verschiedenen Schichten sind elektrisch betriebene künstliche Muskeln eingebettet, sogenannte HASELs. HASELs sind mit Pflanzenöl gefüllte Kunststoffbeutel, die teilweise von Elektroden bedeckt sind. Durch Anlegen einer Hochspannung an eine Elektrode wird der Muskel positiv aufgeladen, während das umgebende Wasser negativ geladen ist. Dadurch entsteht eine Kraft zwischen der positiv geladenen Elektrode und dem negativ geladenen Wasser, die das Öl innerhalb des Beutels hin- und herschiebt, wodurch sich die Beutel zusammenziehen und entspannen – ähnlich wie ein echter Muskel. HASELs können hohen elektrischen Spannungen standhalten, die von den geladenen Elektroden erzeugt werden, und sind durch eine Isolierschicht vor Wasser geschützt. Das ist wichtig, da HASEL-Muskeln bisher noch nie für den Bau eines Unterwasserroboters verwendet wurden.
Zunächst entwickelten die Forscher Jellyfish-Bot mit einer Elektrode und sechs Fingern oder Armen. Im zweiten Schritt teilte das Team die einzelne Elektrode in einzelne Gruppen auf, um sie unabhängig voneinander zu betätigen.
„Wir konnten Objekte greifen, indem wir vier der Arme zum Schwimmen und die anderen beiden als Greifer einsetzten. Oder wir betätigten nur eine Teilmenge der Arme, um den Roboter in verschiedene Richtungen zu lenken. Wir haben auch untersucht, wie wir eine Gruppe mehrerer Roboter betreiben können. Zum Beispiel haben wir zwei Roboter eine Corona-Schutzmaske aufheben lassen, was für einen einzelnen Roboter sehr schwierig ist. Zwei Roboter können auch zusammenarbeiten, um schwere Lasten zu tragen. Aktuell jedoch braucht unser Jellyfish-Bot ein Kabel. Das ist ein Nachteil, wenn wir ihn wirklich eines Tages im Ozean einsetzen wollen“, sagt Hyeong-Joon Joo.
Eventuell gehören mit Kabeln angetriebene Roboter bald der Vergangenheit an. „Unser Ziel ist es, kabellose Roboter zu entwickeln. Glücklicherweise haben wir den ersten Schritt in Richtung dieses Ziels erreicht. Wir haben alle Funktionsmodule wie die Batterie und die drahtlosen Steuerungseinheiten eingebaut, um in Zukunft drahtlose Manipulationen zu ermöglichen“, so Tianlu Wang weiter. Das Team befestigte eine Steuerungseinheit an der Oberseite des Roboters und eine Batterie und einen Mikrocontroller an der Unterseite. Anschließend schwamm Jellyfish-Bot im Teich des Max-Planck-Campus Stuttgart. Die Forscher konnten ihn erfolgreich geradeaus steuern. Bislang konnte das Team den kabellosen Roboter jedoch nicht dazu bringen, den Kurs zu ändern und in eine andere Richtung zu schwimmen.
Doch wenn man das Team kennt, kann man davon ausgehen, dass es nicht lange dauern wird, bis dieses Ziel erreicht ist.
Wissenschaftliche Ansprechpartner:
Dr. Tianlu Wang
tianluwang@is.mpg.de
Originalpublikation:
https://www.science.org/doi/10.1126/sciadv.adg0292
Weitere Informationen:
https://is.mpg.de/de/news/quallenahnliche-roboter-konnten-eines-tages-die-weltme…
http://Press Kit mit allen Fotos und Videos: https://www.dropbox.com/sh/w8k69d2z82p94nh/AACVtOalzhXHyht1WcIXPho9a?dl=0
Gemeinsam ist man weniger verrückt
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Warum ist uns ein Mensch auf Anhieb sympathisch, ein anderer nicht? Diese Frage hat der Bochumer Psychologe Prof. Dr. Hans Alves mittels Umfragen untersucht. Er konnte nachweisen: Teilen zwei Personen, die sich ansonsten nicht kennen, eine seltene Vorliebe, ist ihr Interesse aneinander deutlich größer, als wenn sie eine gemeinsame Abneigung oder eine gemeinhin übliche Vorliebe teilen. Warum das so ist, erklärt Hans Alves in Rubin, dem Wissenschaftsmagazin der Ruhr-Universität Bochum.
Stars, Hobbys, Urlaubspläne
Die Forschenden der Arbeitseinheit Soziale Kognition erfragten in ihren Online-Umfragen Einstellungen, Vorlieben, aber auch Abneigungen von Versuchspersonen. Welche Bücher liest jemand gern? Was isst oder trinkt die Person gern, was mag sie nicht? Welche Filme schaut sie oder eben nicht? Wir sieht es aus mit Stars? Hobbys? Urlaubsplänen? Unter den Angaben, die die Befragten machten, waren sowohl gängige Aussagen wie „Ich mag Urlaub in der Sonne“, aber auch skurrile Vorlieben wie zum Beispiel bestimmte Verkleidungen.
Im nächsten Schritt luden die Forschenden die Teilnehmenden dazu ein, sich vorzustellen, sie träfen jemanden, der dieselben Angaben zu einem Punkt gemacht hatte wie sie selbst. Wie groß wäre dann das Interesse daran, diese Person kennenzulernen und Zeit mit ihr zu verbringen? „Es hat sich bestätigt, dass gleiche Vorlieben für mehr Sympathie sorgen“, berichtet der Psychologe. „Und seltene Interessen übertreffen darin tatsächlich solche, die viele Menschen teilen.“
Wir suchen den gemeinsamen Bezugspunkt
Für diese Tatsache hat der Forscher mehrere mögliche Erklärungen. Zum einen erzeugen Ähnlichkeiten generell ein Verbundenheitsgefühl zwischen Menschen. „Das gilt sogar für zufällige Übereinstimmungen wie denselben Geburtstag oder denselben Namen“, so Alves. Wenn sich Fremde begegnen, suchen sie nach einem gemeinsamen Bezugspunkt – hierin finden sie ihn.
„Wenn wir jemanden treffen, der unsere Einstellung teilt, befriedigt das aber auch unser Bedürfnis nach Bestätigung“, nennt Hans Alves einen weiteren Grund. „Gerade bei seltenen Einstellungen oder Vorlieben ist das Bedürfnis nach Bestätigung besonders groß“, so Alves. „Jemand, der sie teilt, zeigt uns, dass wir nicht allein sind, dass wir nicht sogar verrückt sind.“
Datingplattformen sollten solche Angaben matchen
„Wir haben das auch im Datingkontext untersucht“, berichtet Hans Alves. „Wir haben gefragt: Wie gut könnten Sie sich vorstellen, diese Person zu treffen?“ Auch hier war die Bereitschaft, jemanden zu treffen, besonders groß, wenn seltene Angaben übereinstimmten. „Wenn ich eine Datingplattform betreiben würde, würde ich genau solche Angaben matchen“, meint Hans Alves, der allerdings keine Einblicke in die Algorithmen solcher Plattformen hat. „Das wird nicht öffentlich kommuniziert.“ Jedoch würde es auch aus anderen Gründen Sinn ergeben, solche Übereinstimmungen zu suchen, denn die Literatur legt nahe, dass sie für den Erfolg und die Dauer einer Beziehung wichtiger sind als Persönlichkeitseigenschaften.
Ausführlicher Artikel im Wissenschaftsmagazin Rubin
Einen ausführlichen Beitrag zum Thema finden Sie im Wissenschaftsmagazin Rubin: https://news.rub.de/wissenschaft/2023-02-28-psychologie-gemeinsam-ist-man-wenige…. Für redaktionelle Zwecke dürfen die Texte auf der Webseite unter Angabe der Quelle „Rubin – Ruhr-Universität Bochum“ sowie Bilder aus dem Downloadbereich unter Angabe des Copyrights und Beachtung der Nutzungsbedingungen honorarfrei verwendet werden.
Rubin kann über ein Online-Formular kostenlos als Newsletter oder Printausgabe abonniert werden (https://news.rub.de/rubin).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans Alves
Soziale Kognition
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 19543
E-Mail: hans.alves@ruhr-uni-bochum.de
Weitere Informationen:
https://news.rub.de/wissenschaft/2023-02-28-psychologie-gemeinsam-ist-man-wenige… – ausführlicher Beitrag
Forschungserfolg: Wie CO2 unsere Meere beeinflusst
Maike Lempka Corporate Communications
Constructor University
Das Verhalten von Mikroorganismen ist entscheidend, um zu verstehen, was der Eintrag von Kohlendioxid in den Ozeanen bewirkt. Forschende der Constructor University in Bremen haben in Zusammenarbeit mit Kolleg:innen aus Australien, den USA, und der Schweiz nun neue Erkenntnisse über den Stoffwechselaustauch zwischen den Kleinstlebewesen gewonnen. Die Forschungsergebnisse wurden kürzlich in der renommierten Zeitschrift „Nature Microbiology“ veröffentlicht.
Mikroorganismen sind ein zentraler Bestandteil des marinen Ökosystems – unter anderem produzieren sie Sauerstoff und binden Kohlendioxid. „Bisher wurde angenommen, dass die Diffusion von Nährstoffen von der Größe der Zelle abhängt“, sagt Professor Dr. Matthias Ullrich, Mikrobiologe an der Constructor University, und einer der Co-Autoren der Studie. Je größer eine Zelle, desto mehr Stoffe gibt sie ab und übt dadurch zugleich eine größere Anziehungskraft auf kleinere, bewegliche Organismen aus. Chemotaxis lautet hier der Fachbegriff, der diese durch chemische Reize ausgelöste Orientierungsbewegung bezeichnet.
Die Forschenden wiesen nun nach, dass auch kleinere und gleichgroße Zellen durch Chemotaxis erkannt werden können. Auch zwischen einigen der häufigsten Mikroorganismen der Ozeane bestehen also Stoffwechselbeziehungen, die keineswegs nur einseitig sind, wie bisher angenommen. Photosynthese betreibende Organismen versorgen konsumierende Bakterien nicht nur mit Kohlehydraten, sondern sie erhalten von diesen auch Nährstoffe. Sie verhalten sich also aktiv.
„Um den Kohlenstoffwechsel in den Ozeanen besser zu verstehen, ist es fundamental, mehr über die Austauschmechanismen der Mikroorganismen zu wissen“, meint Ullrich. „In Zukunft werden Forschende in der Mikrobiologie viel genauer beobachten, wie der Austausch von Substanzen zwischen gleich großen Mikroorganismen erfolgt.“
Möglich wurde diese Erkenntnis erst durch die Grundlagenforschung an der Constructor University. Schon vor einem guten Jahrzehnt hatten Forschende um Professor Ullrich die Gene eines einzelnen Bakteriums entschlüsselt. Sie stellten fest, welche Gene dazu beitragen, eine Zelle zu erkennen und zu binden. An der damaligen Forschung war die Promovierende Eva Sonnenschein beteiligt, die inzwischen als Professorin an der Universität von Swansea in Wales lehrt und auch an der aktuellen Studie mitwirkte. Maßgeblich vorangetrieben wurde die Forschung von Wissenschaftler:innen mehrerer australischer Universitäten, vom Massachusetts Institute of Technology in den USA und von der Eidgenössischen Technischen Hochschule Zürich in der Schweiz.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Ullrich | Professor für Mikrobiologie
mullrich@constructor.university | +49 421 200-3245
Originalpublikation:
https://www.nature.com/articles/s41564-023-01327-9
Weitere Informationen:
http://www.constructor.university
Ausweisung von Notabflusswegen: Verbundforschungsprojekt FloReST der Hochschule Koblenz entwickelt erste Smart Tools
Christiane Gandner M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Koblenz – University of Applied Sciences
Starkregen und Sturzfluten sorgen immer wieder für große wirtschaftliche Schäden an städtischen Infrastrukturen. Das im Februar 2022 gestartete, vom Bundesbildungsministerim geförderte Verbundforschungsprojekt „Urban Flood Resilience – Smart Tools“ (FloReST) soll Maßnahmen zur Steigerung der Widerstandsfähigkeit gegen solche Starkregenereignisse entwickeln. Kürzlich fand nun an der Hochschule Koblenz ein Verbundtreffen der sechs Partner mit der Präsentation erster Ergebnisse statt: Verschiedene innovative, technologiebasierte Lösungen, die einen Werkzeugkasten aus sogenannten Smart Tools bilden, sollen die Planung und Ausweisung von Notabflusswegen ermöglichen.
Insgesamt 20 Vertreterinnen und Vertreter der Hochschule Koblenz, der Universität Trier, der Hochschule Trier mit dem Umwelt-Campus Birkenfeld, des Deutschen Forschungszentrums für Künstliche Intelligenz, des Softwareentwicklers Disy Informationssysteme GmbH sowie der Ingenieurgesellschaft Dr. Siekmann & Partner kamen am Koblenzer RheinMoselCampus zusammen, um erste Ergebnisse ihrer Projektarbeiten zu präsentieren und Herausforderungen zu diskutieren. Der Fokus der Forschungsarbeiten liegt auf der Anwendung von technologiebasierten Smart Tools. So laufen auf Quartiersebene, also in einzelnen ausgewählten Straßenzügen, aktuell beispielsweise Probeanwendungen eines Laserscanners, der eine hochaufgelöste Geodatenaufnahme ermöglicht. „Mit diesen Daten sollen im weiteren Verlauf 2D-hydrodynamische Modelle verfeinert, die Notabflusswegbestimmung optimiert und die Maßnahmenplanung vereinfacht werden“, erklärt Gina Stratmann, stellvertretende Projektleitung im Forschungsvorhaben FloReST an der Hochschule Koblenz.
In Trier werden unter anderem lokal erste experimentelle belastungsabhängige Testanwendungen mittels Flutungs- und Dotierversuchen durchgeführt, um mithilfe von wärmeempfindlicher Markier- und UAV-Drohnentechnik Fließwege auszuweisen. „Dabei wird das Untersuchungsgebiet mit einer definierten Wassermenge konfrontiert. Die sich daraufhin ausbildenden Fließwege werden mithilfe der UAV-Drohne und der Thermaltechnik verfolgt, sodass Fließwege visuell dargestellt werden können“, beschreibt Leonie Hörter, Wissenschaftliche Mitarbeiterin an der Hochschule Koblenz, das Vorgehen. Für große räumliche Skalen sei künftig auch der Einsatz Künstlicher Intelligenz geplant.
Ein weiterer wichtiger Baustein des Projektes ist die aktive Bürgerbeteiligung. So wird unter anderem an der Entwicklung einer Smart-App gearbeitet, mit der lokales Wissen zu Starkregenereignissen erfasst werden kann. Ziel der App ist es, mit Hilfe von Bürgerinnen und Bürgern Problemstellen und Missstände an abflussrelevanten Elementen, wie beispielsweise durch Äste verstopfte Durchlässe, zu identifizieren. Die praktische Anwendung der App und die Datenerfassung und Visualisierung im Geo-Data-Warehouse – einer zentral organisierten Geodatenbank – wurde bei dem Projekttreffen live mit einem Prototyp demonstriert. Außerdem wurde in den vergangenen Monaten im Rahmen des Projekts eine Umfrage zur Risikokommunikation und zum Wissen der Bevölkerung zu Starkregengefahren in den fünf beteiligten Pilotkommunen durchgeführt. „Die vorläufigen Ergebnisse zeigen, dass es eine Wissenslücke in Bezug auf Frühwarnung in der Bevölkerung zu geben scheint und Informationen über potenzielle Risiken nicht an die Bürgerinnen und Bürger weitergegeben werden“, erklärt Katharina Haupenthal, wissenschaftliche Mitarbeiterin am Umweltcampus Birkenfeld. An diesem Punkt setzt das Forschungsvorhaben FloReST mit einer aktiven Beteiligung von Bürgerinnen und Bürgern und der Einbeziehung der Betroffenen an.
Der zweite Tag des Verbundtreffens gestaltete sich durch drei themenübergreifende Workshops. Der Fokus dabei lag vor allem auf dem gemeinsam zu erstellenden Leitfaden zur optimierten Ausweisung von Notabflusswegen mittels verschiedener Methoden sowie einem Anforderungskatalog an die im Projekt FloReST entwickelten Smart-Tools. Das Projektkonsortium sammelte zudem Ideen und Anregungen, wie die Ergebnisse der einzelnen Arbeitspakete künftig im Geo-Data-Warehouse integriert und visualisiert werden können, sodass ein größtmöglicher Nutzen für potenzielle Anwendende geschaffen wird. Im Oktober sollen in einem übergreifenden Workshop mit den fünf Pilotkommunen sowie dem Projektbeirat weitere Ergebnisse diskutiert sowie Wünsche und Anforderungen der Kommunen an die Smart Tools erörtert werden.
Das Projekt wird über eine Laufzeit von drei Jahren vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Lothar Kirschbauer
kirschbauer@hs-koblenz.de
MHH-Studie zeigt: Pedelec fahren steigert Fitness und Gesundheit
Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
Forschende der Klinik für Rehabilitations- und Sportmedizin liefern erstmals konkrete Messdaten
Wie hoch ist der Trainingseffekt für Nutzerinnen und Nutzer von Elektrofahrrädern, auch Pedelecs genannt? Welche positiven Effekte für die Gesundheit sind zu erwarten? Diesen Fragen sind Wissenschaftlerinnen und Wissenschaftler der Klinik für Rehabilitations- und Sportmedizin der Medizinischen Hochschule Hannover (MHH) in einer fast dreijährigen Studie nachgegangen. Ihre Forschungsergebnisse wurden nun im Journal BMJ Open Sport & Exercise Medicine veröffentlicht.
Für ihre Studie haben die Wissenschaftlerinnen und Wissenschaftler zwischen 2017 und 2020 bundesweit die Daten von 1250 Pedelec-Fahrern und 629 Nutzern herkömmlicher Fahrräder ausgewertet. Dabei wurden die Fahrerinnen und Fahrer aber nicht nur befragt.
„In unserer Studie haben wir 58.833 Fahrten von E-Bikern und Radfahrern analysiert und jeweils die Herzfrequenzen und Geschwindigkeiten gemessen. Im Gegensatz zu anderen großen E-Bike Studien haben wir zum ersten Mal auch tatsächliche Messdaten prospektiv erhoben, nicht nur Fahrer befragt“, erläutert Prof. Dr. Uwe Tegtbur, Direktor der Klinik für Rehabilitations- und Sportmedizin.
Herz-Kreislaufsystem wird gefordert
Die Herzfrequenz der Pedelecfahrer lag dabei während des Radelns, unter Berücksichtigung der Therapien mit ß-Blockern, nur fünf Schläge pro Minute unter der der Fahrradfahrer. „Entgegen vieler Vorurteile zeigen die Zahlen, dass Muskeln und das Herz-Kreislaufsystem beim Pedelecfahren nahezu so gefordert werden wie beim herkömmlichen Radfahren“, erklärt Dr. Hedwig Theda Boeck, wissenschaftliche Mitarbeiterin der Klinik und einer der Erstautorinnen der Studie. „Wir haben zudem herausgefunden, dass die Pedelecfahrer öfter das Auto durch ihr Pedelec ersetzen als es die anderen Radfahrer tun – ein klarer Mehrwert für ihre Gesundheit.“
Die Motorunterstützung erleichtere den Einstieg in eine alltägliche körperliche Aktivität und sei auch für ältere, übergewichtige und weniger trainierte Menschen eine gute Möglichkeit, ihre Aktivitäten zu steigern. „Viele Pedelecnutzer waren vorher nicht unbedingt Radfahrer. Die Hemmschwelle ist deutlich niedriger, wenn auch in hügeligem Gelände oder bei starkem Gegenwind auf die Motorunterstützung zurückgegriffen werden kann“, ergänzt Dr. Boeck.
Über 35 Prozent der teilnehmenden E-Bike Fahrer haben Vorerkrankungen wie zum Beispiel einen Herzinfarkt, Bluthochdruck oder Gelenkverschleiß. Hier hilft das E-Bike, überhaupt wieder draußen in Bewegung zu bekommen.
Jeder Schritt zu mehr Aktivität, jede Unterbrechung des Sitzens und jeder Aufstieg auf das Rad sind ein Beitrag für ein gesünderes und aktiveres Leben.
„Wir haben gezeigt, dass die E-Biker 135 Minuten pro Woche unterwegs waren, davon ein Großteil mit einer gesundheitlichen effektiven Belastung. Allein dadurch konnten sie zwei Drittel des WHO-Bewegungsziels von 150 Minuten moderater Aktivität pro Woche erreichen“, erklärt Prof. Tegtbur.
Neben der gemessenen Zweiradaktivität gaben die E-Biker an, insgesamt 54,8 MET (metabolische Äquivalent = Berechnung für Energieverbrauch, 1 Stunde moderates Radfahren entspricht 7,5 MET) Stunden pro Woche und die Radfahrenden 55,2 MET Stunden pro Woche aktiv zu sein.
Insgesamt reduzieren sie Ihr Risiko, einen Herzinfarkt zu erleiden, um über 40 Prozent. Auch das Risiko einer Krebs- oder Diabeteserkrankung sinkt mit zunehmender Aktivität.
Die Gruppe der Pedelec Nutzer und Nutzerinnen war im Durchschnitt etwas älter als die Nutzer herkömmlicher Räder, hatte einen höheren Body-Mass-Index und litt auch häufiger an Vorerkrankungen wie Bluthochdruck, Diabetes, Asthma, oder Herzerkrankungen.
Das Projekt wurde vom Bundesministerium für Digitales und Verkehr (BMDV) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans (NRVP) 2020 gefördert. Kooperationspartner sind außerdem die MHH-Institute für Biometrie und Verkehrsunfallforschung sowie die Institute für Versicherungsbetriebslehre und das Center for Health Economics Research (CHERH) der Leibniz Universität Hannover.
SERVICE:
Weitere Informationen erhalten Sie bei Prof. Dr. Uwe Tegtbur, tegtbur.uwe@mh-hannover.de, Telefon (0511) 532- 5499.
Die Originalarbeit finden sie unter: https://blogs.bmj.com/bmjopensem/2022/10/25/a-peek-behind-the-study-with-hedwig-…
Bessere Luft durch Gülleansäuerung
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Bei der Nutztierhaltung fallen große Mengen Exkremente an. Bei ihrer Lagerung im Stall und ihrer Ausbringung als Dünger auf die Felder entsteht Ammoniak. Das Gas ist gesundheitsschädlich und belastet erheblich die Umwelt. Eine Nachrüstlösung für bestehende Stallanlagen verspricht Abhilfe: Eine Studie der Universität Bonn zeigt, dass sich damit die Ammoniak-Emissionen schon im Stall um etwa 40 Prozent reduzieren lassen. Noch deutlicher senkt sie die Entstehung von Methan, eines starken Treibhausgases. Die Methode könnte daher auch einen wichtigen Beitrag zum Kampf gegen den Klimawandel leisten. Die Ergebnisse erscheinen im Journal of Environmental Management und sind bereits online abrufbar.
In die Umwelt abgegebenes Ammoniak ist ein großes Problem. Als wichtigster Verursacher gilt die Landwirtschaft – sie ist für 95 Prozent dieser Emissionen in Deutschland verantwortlich. Das farblose, stechend riechende Gas wirkt in höheren Konzentrationen toxisch. Es kann zudem zur Überdüngung von Gewässern beitragen und durch Reaktion mit anderen Luftschadstoffen Feinstaub bilden. Als besonders kritisch gilt seine Umsetzung zu Lachgas, einem Treibhausgas, das etwa 300 mal klimaschädlicher als Kohlendioxid ist. Lachgas trägt nach Schätzungen rund zehn Prozent zur globalen Erwärmung bei.
Die EU schreibt ihren Mitgliedsländern daher inzwischen nationale Ammoniakemissions-Höchstmengen vor. Doch wie lassen sich diese erreichen, ohne dass Landwirte dazu äußerst kostspielige Neu- oder Umbauten ihrer Stallungen vornehmen müssen? „Wir haben in den vergangenen drei Jahren ein Verfahren getestet, mit dem sich bestehende Stallungen nachrüsten lassen“, erklärt Dr. Veronika Overmeyer vom Institut für Landtechnik (ILT) der Universität Bonn.
Saure Gülle für saubere Luft
Zusammen mit ihren Projektpartnern, den Firmen SF-Soepenberg und Hölscher + Leuschner, haben die Forschenden dazu auf eine bewährte Methode zurückgegriffen: die Ansäuerung von Gülle mit Schwefelsäure. Oft werden Schweine und Rinder auf sogenannten Spaltenböden gehalten. Ihre Exkremente fallen dabei durch Öffnungen im Boden in den darunter liegenden Güllekanal. Dort werden sie so lange aufbewahrt, bis sie zu Beginn der nächsten Vegetationsperiode als Dünger verwendet werden.
„Aus dem Kot-Urin-Gemisch wird permanent Ammoniak freigesetzt“, sagt Overmeyer. „Die Zugabe von Säure führt dazu, dass Ammoniak als Ammonium vorliegt, das nicht gasförmig entweichen kann und somit in der Gülle verbleibt.“ Dieser Mechanismus ist schon lange bekannt. So wird der Flüssigmist in Deutschland heute schon teilweise bei der Ausbringung auf die Felder mit Säure versetzt. Dadurch lassen sich allerdings nicht die Ausgasungen in den Griff bekommen, die im Stall oder bei der Lagerung der Gülle entstehen.
Die Exkremente direkt im Güllekanal anzusäuern, kann unter bestimmten Umständen gefährlich sein, da dabei giftiger Schwefelwasserstoff entstehen kann. „Wir haben diesen Prozess daher aus dem Stall verlagert“, betont Overmeyer: „Wir pumpen den Flüssigmist alle paar Tage in einen speziellen Rührbehälter, wo er mit Schwefelsäure vermischt wird. Die frisch angesäuerte Gülle wird dann zurück in den Güllekanal gepumpt.“ Somit kann sie weiterhin im Stall gelagert werden, während zugleich die Ammoniak-Emissionen vermindert werden. Diese gingen in der Studie um knapp 40 Prozent zurück. Bei einer Optimierung der Methode sind sogar Werte von mehr als 60 Prozent denkbar. Die Ammoniak-Emissionen bei der Düngung mit dem vorbehandelten Flüssigmist sind ebenfalls deutlich geringer. Da die angesäuerten Exkremente größere Mengen Stickstoff und Schwefel als normalerweise enthalten, haben sie zudem eine noch bessere Düngewirkung.
Gute Nachrichten für das Klima
Unerwartet war zudem eine weitere Beobachtung: Die Ansäuerung unterdrückte auch die Entstehung von Methan, eines sehr starken Klimagases. 10 bis 15 Prozent des menschgemachten Methans stammen aus der Gülle-Lagerung. „Mit unserer Methode konnten wir die Methan-Emissionen um zwei Drittel reduzieren“, erklärt Prof. Dr. Wolfgang Büscher vom ILT, der die Studie betreut hat. „Wir schlagen damit also gleich zwei Fliegen mit einer Klappe.“
Die Nachrüstung ist nicht umsonst zu haben. Im Vergleich zu aufwändigen Um- oder gar Neubauten ist sie aber vergleichsweise kostengünstig, wobei der Landwirt durch die bessere Düngewirkung auch noch einen zusätzlichen Nutzen hat. Dennoch scheitert die Lösung momentan an der deutschen Rechtslage. Danach ist die Zugabe von Säure zu gelagerter Gülle nur erlaubt, wenn der Güllekanal zuvor mit Spezialfolie abgedichtet wurde. „Das verteuert die Umrüstung erheblich“, sagt Overmeyer. „Dabei zeigen Studien, dass diese Maßnahme nicht notwendig ist, weil trotz des leicht erniedrigten pH-Wertes im Flüssigmist die Wände der Güllekanäle nicht signifikant schneller abgenutzt werden.“
Ihre Hoffnung setzt sie nun auf einen neuen Referentenentwurf, der vorschlägt, die gesetzliche Abdichtungspflicht abzuschaffen. Der liegt aber bereits seit Jahren vor und wurde bislang noch nicht in ein Gesetz gegossen. „Mich ärgert das etwas“, sagt Overmeyer: „Einerseits erwarten wir, dass die Landwirte umweltfreundlicher arbeiten, und andererseits legen wir ihnen dabei Steine in den Weg.“
Für ihre Studie hat sie anderthalb Jahre lang zwei Schweinemastabteile (mit und ohne Gülleansäuerung) auf der Lehr- und Forschungsstation der landwirtschaftlichen Fakultät miteinander verglichen. „Derartige Langzeit-Untersuchungen sind aufgrund ihres hohen Aufwands eine Seltenheit“, betont ihr Doktorvater Prof. Büscher. „Mit dem Campus Frankenforst verfügen wir über eine der wenigen Einrichtungen hierzulande, an denen das überhaupt möglich ist.“
Beteiligte Institutionen und Förderung:
An der Studie waren neben der Universität Bonn die SF-Soepenberg GmbH in Hünxe sowie die Hölscher + Leuschner GmbH & Co. KG in Emsbüren beteiligt. Die Studie wurde durch das Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert (FKZ: 281B102316).
Wissenschaftliche Ansprechpartner:
Dr. Veronika Overmeyer
Institut für Landtechnik (ILT)
Universität Bonn
Tel.: +49 228 73-2837
E-Mail: overmeyer@uni-bonn.de
Prof. Dr. Wolfgang Büscher
Institut für Landtechnik (ILT)
Universität Bonn
Tel. +49 228 73-2395
E-Mail: buescher@uni-bonn.de
Originalpublikation:
Overmeyer V, Trimborn M, Clemens J, Hölscher R, Büscher W. Acidification of slurry to reduce ammonia and methane emissions: Deployment of a retrofittable system in fattening pig barns. J Environ Manage. 2023 Apr 1;331:117263. https://doi.org/10.1016/j.jenvman.2023.117263 Epub 2023 Jan 18. PMID: 36669315.
Weitere Informationen:
https://www.unter-2-grad.de/wp-content/uploads/2021/07/SAFT.mp4 Das Video demonstriert die Funktionsweise der Anlage. (c) Dr. Veronika Overmeyer / Universität Bonn
Deutschland verlor in den letzten zwei Jahrzehnten durchschnittlich 760 Millionen Tonnen Wasser pro Jahr
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Sehr viel Wasser ging verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen.
Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun mit Kolleg:innen die Jahre 2002-2022 genauer untersucht. Fazit: Im Schnitt hat Deutschland pro Jahr 760 Mio Tonnen Wasser verloren – durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie nutzt Daten der Satellitenmissionen GRACE und GRACE-Follow On und ist der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung“ erschienen.
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Es ging sehr viel Wasser verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen. Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun gemeinsam mit Forschenden der Universität Bonn und des Forschungszentrums Jülich die Jahre von 2002 bis 2022 genauer untersucht.
Ihr Fazit: Im Durchschnitt hat Deutschland jedes Jahr 760 Millionen Tonnen (0,76 Kubikkilometer) Wasser verloren – sei es durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie beruht in erster Linie auf Daten der Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv).
Das Besondere dieser Studie ist, dass die Forschenden vier verschiedene Auswertemethoden verglichen haben und damit zu einem deutlich geringeren Wasserverlust kamen als andere Auswertungen der Satellitendaten, die lediglich auf einer einzigen Methode beruhten. Der gesamte Wasserspeicher (auf Englisch Terrestrial Water Storage, TWS) hat demnach in den zwei Jahrzehnten um zusammengerechnet 15,2 Kubikkilometer abgenommen. Zum Vergleich: Der Wasserverbrauch aller Sektoren – Industrie, Landwirtschaft, Privathaushalte – in Deutschland beträgt rund 20 Kubikkilometer pro Jahr. Um verlässlich einen Trend abschätzen zu können, sei der Zeitraum jedoch zu kurz und zu stark von verschiedenen Extremen geprägt, schreiben die Forschenden in der April-Ausgabe der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung (HyWa)“.
Hintergrund: Bestimmung von Schwerefeld und Wassermassen der Erde aus Satellitendaten
Die Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv) sind einzigartig. Die Satelliten-Tandems vermessen die Erdanziehungskraft, das so genannte Schwerefeld, und dessen Änderungen global auf Monatsbasis. Aus diesen Schwerefelddaten lassen sich Massenverlagerungen erkennen, die wiederum Rückschlüsse auf Veränderungen im Wasserkreislauf erlauben, also beispielsweise das Abschmelzen von Gletschern oder das Entleeren von Grundwasserspeichern. Erstmals ist es damit zum Beispiel gelungen, den Eismassenverluste Grönlands und der Antarktis zu quantifizieren. Der große Vorteil dieser Art von Messung: Sie erfasst auch Grundwasserleiter, die tief unter der Erdoberfläche verborgen sind. Der Nachteil: Die räumliche Auflösung der Schwerefelddaten ist vergleichsweise grob: rund 300 mal 300 Kilometer. Verlässliche Aussagen lassen sich daher nur für Gebiete von rund 100.000 Quadratkilometern Größe treffen, das entspricht etwa der Fläche der ehemaligen DDR.
Neue Analyse verschiedener Datenreihen für Deutschland (2002-2022)
Ein Team von Forschenden unter der Leitung von Andreas Güntner vom Deutschen GeoForschungsZentrum GFZ hat jetzt erstmals für Deutschland einen detaillierten Überblick über die von den Satelliten gemessenen Änderungen des Gesamtwasserspeichers der letzten zwanzig Jahre veröffentlicht. Beteiligt waren Kolleg:innen mehrerer GFZ-Sektionen sowie Forschende aus dem Institut für Geodäsie und Geoinformation der Universität Bonn und aus dem Forschungszentrum Jülich.
Unterschiede in der Auswertung der Daten
Für die Auswertung der Daten – sowohl was die Bestimmung des Schwerefeldes betrifft als auch daraus abgeleitet die Bestimmung der gespeicherten Wassermassen – muss eine ganze Reihe von störenden Effekten herausgerechnet werden. So sind die 300 mal 300 Kilometer messenden Datenflächen naturgemäß nicht scharf abgegrenzt, denn der Einfluss der Schwerkraft auf die Satelliten lässt sich nicht auf klar definierte Segmente der Erde zurückführen wie etwa bei einem Satellitenbild. Das zeigt sich etwa darin, dass der Schwerefeldeffekt abschmelzender Alpengletscher auch die Messungen für die Wasservorkommen im Alpenvorland überlagert (der Effekt wird „Leakage“ genannt): Wenn die Gletschermassen schwinden, sieht es für die Satelliten so aus, als ob auch weiter entfernte Wassermassen verschwunden seien. Außerdem ändert sich das Schwerefeld der Erde auch, ohne dass sich akut Wassermassen verändern. Ein solcher Effekt ist beispielsweise, dass sich in manchen Regionen nach dem Verschwinden der eiszeitlichen Gletscher heute noch die Erdkruste hebt.
Je nach Prozessierungsmethoden und korrigierenden Faktoren ergeben sich leicht unterschiedliche Werte für das Schwerefeld und dessen Variationen. Die Forschenden nutzten für ihre Studie vier Datenreihen: die GFZ-eigene, eine aus mehreren Datenreihen berechnete Kombinationslösung der Uni Bern (COST-G genannt), eine der Universitäten Graz und Bonn (ITSG/UB) und eine vom Jet Propulsion Laboratory der NASA (JPL Mascons). Zusätzlich nutzten sie Niederschlagsdaten und Computermodelle des FZ Jülich, die die Veränderung des Gesamtwasserspeichers simulierten.
Ergebnisse im Vergleich
Über weite Teile des Beobachtungszeitraums, insbesondere in den Jahren zwischen 2004 und 2015, stimmen die Ergebnisse aller vier Datensätze für die Schwerefeldänderungen gut überein. Unterschiede gab es vor allem zu Beginn und am Ende der Zeitreihen. Das Jahr 2002 war von extremen Niederschlägen insbesondere in Süd- und Ostdeutschland geprägt. Die verheerenden Hochwasser an der Donau und der Elbe ereigneten sich im August 2002. Und am Ende des Untersuchungszeitraums stehen die trockenen Jahre seit 2018. In beiden Extremfällen zeigte vor allem die NASA-JPL-Datenreihe größere Ausschläge nach oben und unten. Auch die jahreszeitlichen Unterschiede zwischen dem Maximum der Wasserspeicherung im Winter und dem Minimum im Sommer fallen bei der NASA-JPL-Reihe am stärksten aus.
Vorsicht bei der Interpretation geboten
Die Forschenden mahnen daher zu Vorsicht bei der Interpretation von Auswertungen, die lediglich auf einer Datenreihe beruhen, und weisen insbesondere auf besondere Empfindlichkeit für Flut- oder Dürre-Extreme bei der NASA-JPL-Mascons-Reihe hin. Sie vermuten die Ursache in unterschiedlichen Prozessierungsverfahren und bei der Korrektur des „Leakage“-Effekts.
Diskussion früherer Publikation: 0,76 versus 2,5 Kubikkilometer durchschnittlicher Wasserverlust pro Jahr in Deutschland
Es waren jedoch ausgerechnet diese Datenreihe und Schlussfolgerungen daraus, die im vergangenen Jahr zu einem großen Medienecho geführt hatten: Deutschlands Gesamtwasserspeicher verliere fast 2,5 Kubikkilometer Wasser pro Jahr, hatte es geheißen, besonders betroffen sei der Südwesten. Der Vergleich mit anderen Auswerteverfahren zeigt nun: Es sind vermutlich nur 0,76 Kubikkilometer, also knapp ein Drittel des über die JPL-Mascons-Reihe bezifferten Verlusts. Und besonders in der Nähe der Alpen müsse man den Schwerefeld-Effekt abschmelzender Gletscher (Leakage) zusätzlich in Betracht ziehen.
Schlussfolgerung und Notwendigkeit zur Verlängerung der Datenreihen
Trotz der niedrigeren Werte gibt der Leitautor der Studie, Andreas Güntner, zu bedenken: „Die Beobachtungen aus allen Datensätzen zeigen, dass ein Jahr mit höheren Niederschlägen wie 2021 nicht ausreicht, um die Defizite der Wasserspeicherung, die sich über den längeren Zeitraum angesammelt haben, wieder auszugleichen.“
Auch bei Prognosen raten die Forschenden zur Vorsicht. Mitautorin Helena Gerdener von der Universität Bonn mahnt: „Da es in den zwanzig Jahren der bisherigen Datenerhebung einige auffällige Extreme gegeben hat, ist eine Aussage zu einem langfristigen Trend nur schwer zu treffen.“
Umso wichtiger sei die Kontinuität der Messreihe, schreiben die Forschenden. Eine Fortsetzung der GRACE- und GRACE-FO-Missionen wird bereits geplant und soll 2028 ins All starten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Güntner
Arbeitsgruppenleitung in Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1559
E-Mail: andreas.guentner@gfz-potsdam.de
Originalpublikation:
Güntner, A., Gerdener, H., Boergens, E., Kusche, J., Kollet, S., Dobslaw, H., Hartick, C., Sharifi, E., Flechtner, F. (2023): Veränderungen der Wasserspeicherung in Deutschland seit 2002 aus Beobachtungen der Satellitengravimetrie. Hydrologie & Wasserbewirtschaftung, 67, (2), 74-89. DOI: 10.5675/HyWa_2023.2_1
https://www.hywa-online.de/?p=6089
Von der Kartoffelschale zum Abwasserreiniger
Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel
Aktivkohle reinigt Abwässer in Kläranlagen – doch bislang wird sie meist aus klimaschädlicher Braun- oder Steinkohle gewonnen. Ein Graduiertenkolleg der Universität Kassel erforscht nun Methoden, Aktivkohle effizient aus Bioabfall herzustellen, um in Städten Kohlenstoff-Kreisläufe zu schließen und damit dieCO2-Bilanz zu verbessern.
„Was uns antreibt, ist unsere Gewässer vor Schadstoffen zu schützen. Dies wollen wir möglichst klimaneutral gestalten“, betont Prof. Dr.-Ing. Tobias Morck, Leiter des Fachgebiets Siedlungswasserwirtschaft. Er ist Sprecher des Graduiertenkollegs „CirCles“, das Ende letzten Jahres seine Arbeit aufgenommen hat. Pro Tonne Aktivkohle aus fossilen Rohstoffen fallen rund 8,5 Tonnen CO2-Äquivalente an. Die Herstellung biogener Aktivkohlen aus Kartoffelschalen, Essensresten oder anderen Küchenabfällen würde dieses Dilemma auflösen.
Aktivkohle ist ein hochporöses Material aus Kohlenstoff, an dem Schadstoffe im Abwasser gleichsam „hängenbleiben“ (in der Fachsprache heißt dies Adsorption). Es gibt erprobte Verfahren, um sie statt aus fossilen Rohstoffen aus Kokosschalen oder Holz herzustellen – doch in mitteleuropäischen Städten ist das kaum eine Option. Gelänge es hingegen, diese thermische Umwandlung auf Bioabfall anzupassen, könnte dies urbane Kohlenstoff-Kreisläufe schließen.
Im Graduiertenkolleg untersuchen vier Doktorandinnen und Doktoranden daher konkret am Beispiel Kassel, mit welchen Abfällen und mit welchen Verfahrens-Schritten sich die besten Ergebnisse erzielen lassen. Sie arbeiten dabei mit der kommunalen Abfall- und Abwasserwirtschaft zusammen. Zu den Schadstoffen, die dem Abwasser entzogen werden sollen, gehören beispielsweise Rückstände von Arzneimitteln wie Diclofenac oder Korrosionsschutzmittel, die in der Industrie eingesetzt werden.
Das Projekt „CirCles“ wird aus Mitteln der Universität Kassel finanziert und flankiert das jüngst etablierte Kassel Institute for Sustainability. Mittelfristig soll es weitere Ansätze zur Nachhaltigkeitsforschung liefern. Es wird von den Fachgebieten Siedlungswasserwirtschaft, Nachhaltiges Marketing, Ressourcenmanagement und Abfalltechnik sowie Grünlandwissenschaft und Nachwachsende Rohstoffe der Universität Kassel durchgeführt. Als Praxispartner sind die Stadtreiniger Kassel, Abfallentsorgung Kreis Kassel, KASSELWASSER und das Umwelt- und Gartenamt Kassel beteiligt.
Unstatistik des Monats: E-Bike-Fahren senkt Herzinfarktrisiko um 40 Prozent
RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Die Unstatistik des Monats April ist die Berichterstattung über eine Studie der Medizinischen Hochschule Hannover zu den Auswirkungen des regelmäßigen Radelns mit einem E-Bike („Impact of electrically assisted bicycles on physical activity and traffic accident risk: a prospective observational study“). Das Risiko eines Herzinfarktes reduziere sich dadurch um 40 Prozent, berichtete beispielsweise die „Frankfurter Rundschau“ („Sportmediziner überrascht: E-Bike fahren reduziert Herzinfarktrisiko fast um die Hälfte“) am 3. April, „Regelmäßiges E-Bike-Fahren senkt das Herzinfarkt-Risiko“, schrieb auch die „Hannoversche Allgemeine Zeitung“.
Hierzu sind zwei Dinge klarzustellen: Erstens ist in der zitierten Studie von einer Senkung des Herzinfarktrisikos keine Rede. Es ging den Autoren einzig um einen Vergleich der körperlichen Belastung beim E-Bike-Fahren mit normalem Radeln, sowie um das Risiko von Verkehrsunfällen. Die Studie kommt zu dem wenig verblüffenden Ergebnis, dass Nutzer von E-Bikes etwas seltener die von der Weltgesundheitsorgansatin angemahnten 150 Minuten von „moderate to vigorous physical activity“ pro Woche erreichen, selbst wenn man berücksichtigt, dass die Nutzerinnen und Nutzer von E-Bikes älter sind und im Durchschnitt in einem schlechteren Gesundheitszustand als Nicht-E-Bike-Nutzer. Aber im Großen und Ganzen seien die Gesundheitskonsequenzen durchaus ähnlich. Die 40-Prozent-Reduktion des Herzinfarktrisikos für E-Bike-Fahrer resultiert offenbar aus einer Nebenbemerkung eines der Studienautoren in einem Spiegel-Interview zu Radfahren und Herzinfarkt ganz allgemein.
Angaben zur Risikoreduktion sind nur mit Angabe von Alter oder Zeitraum sinnvoll
Diese viel kolportierten 40 Prozent gelten also nicht nur für E-Bike-Fahrer oder heben diese, wie von den Medien insinuiert, sogar positiv von normalen Radlern ab. Darüber hinaus sind sie noch aus einem zweiten Grund sehr missverständlich: Dergleichen Risikoreduktionen ergeben ohne Angabe eines Alters oder eines Zeitraums keinen Sinn. An irgendetwas stirbt jeder Mensch, und sollte das Radfahren tatsächlich das lebenslange Risiko eines Herzinfarktes um 40 Prozent reduzieren, stiege damit die Wahrscheinlichkeit für einen Tod etwa durch Krebs dramatisch an. Das hört vermutlich kein Radfahrer gern. Gemeint war wohl: in jeder Altersgruppe sinkt das Herzinfarktrisiko um 40 Prozent. Irgendwann sterben dann vielleicht genauso viele Menschen wie immer am Herzkreislaufkrankheiten aller Art (aktuell rund ein Drittel aller Todesfälle), aber eben nicht so früh.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Walter Krämer, walterk@statistik.uni-dortmund.de
Originalpublikation:
https://www.rwi-essen.de/presse/wissenschaftskommunikation/unstatistik/detail/e-…
Weitere Informationen:
http://www.unstatistik.de – Hier geht es zur Homepage der „Unstatistik des Monats“
Unterschätzte Gefahr: Lärm und Luftverschmutzung sind neue und wichtige Herz-Kreislauf-Risikofaktoren
Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.
Umweltstressoren wie Verkehrslärm stellen weltweit eine Bedrohung für die menschliche Gesundheit dar. Eine heute im European Journal of Preventive Cardiology erschienene Studie von DZHK-Forscher Prof. Thomas Münzel zeigt, dass Lärm innerhalb kurzer Zeit negative Auswirkungen auf Gefäße und Gehirn hat. Weitere kürzlich unter seiner Mitwirkung veröffentlichte Übersichtsartikel belegen, dass Feinstaub und Lärm global eine ernsthafte Bedrohung für die Herz-Kreislauf-Gesundheit sind und Umweltfaktoren als Gesundheitsrisiko in Forschung, Politik und Gesellschaft immer noch stark unterschätzt werden.
Lärm nervt nicht nur, er schadet auch der Gesundheit: Laut Weltgesundheitsorganisation (WHO) gehen in Europa jährlich 1,6 Millionen gesunde Lebensjahre verloren. Die Europäische Umweltagentur (EEA) berichtet, dass jährlich 113 Millionen Menschen krank machendem Straßenlärm von mehr als 55 Dezibel ausgesetzt sind. Weitere 22 Millionen müssen zu hohe Lärmwerte durch Schienenlärm und 4 Millionen durch Fluglärm ertragen; 6,5 Millionen leiden an schweren Schlafstörungen. Lärmbelastung ist damit nach der Feinstaubbelastung zur zweithäufigsten Todesursache unter den Umweltbelastungen aufgestiegen ist. Auf die schädlichen Auswirkungen von Lärm auf Gesundheit und Lebensqualität macht der „Internationale Tag gegen Lärm“ am 26. April aufmerksam.
Eine heute im European Journal of Preventive Cardiology Studie unter der Leitung von Prof. Dr. Thomas Münzel, Direktor des Zentrums für Kardiologie an der Johannes Gutenberg-Universität Mainz, zeigt nun auf, wie Lärmbetroffene selbst aktiv werden können (Personal Mitigation Measures). Zuvor war nicht bekannt, welche pharmakologischen oder nicht-pharmakologischen Maßnahmen wirksam sind, um die Auswirkungen von Lärm zu reduzieren. Münzel und sein Team untersuchten erstmals verschiedene Interventionen, mit denen Lärmschäden möglicherweise beeinflusst werden können. Die wirksamste Gegenmaßnahme wäre, den Lärm zu reduzieren. Neuere Berechnungen der EEA zeigen jedoch, dass der Verkehrslärm in den nächsten Jahren eher noch zunehmen wird.
Lärm wirkt sich schon nach wenigen Tagen negativ auf die Gesundheit aus
Um die Auswirkungen von Fluglärm auf das Gefäßsystem zu untersuchen, wurden Mäuse ein, zwei oder vier Tage lang Fluglärm ausgesetzt. Der Lärm führte zu einem Anstieg des Stresshormonspiegels und des Blutdrucks. Es kam zu einer ausgeprägten endothelialen Dysfunktion mit Entzündungsreaktionen in den Gefäßen, was vor allem durch das Einwandern von radikalbildenden Makrophagen (Fresszellen) bedingt war. Diese Veränderungen waren nicht auf das Gefäßsystem beschränkt, sondern konnten auch im Gehirn nachgewiesen werden.
„Für mich war es überraschend, wie schnell sich Lärm bereits nach wenigen Tagen negativ auf die Gesundheit auswirkt“, sagt Prof. Thomas Münzel. Der Nachweis einer Gefäßschädigung bei Mäusen innerhalb von 24 Stunden passt auch zu den Ergebnissen der Arbeitsgruppe, die bei jungen Medizinstudenten bereits nach einer Nacht Flug- oder Bahnlärm eine endotheliale Dysfunktion nachweisen konnte.
In einem weiteren Schritt untersuchte das Team die Rolle der AMP-aktivierten Proteinkinase (AMPK). Dieses Enzym wird aktiviert, wenn die Zelle hungert und baut neue Energiereserven auf. Es wirkt auch stark entzündungshemmend und vermindert oxidativen Stress, so dass es theoretisch die Auswirkungen von Lärm mildern könnte. Es ist auch bekannt, dass AMPK durch Sport, Fasten und Medikamente stimuliert werden kann.
Bewegung, Fasten und Medikamente helfen gegen negative Lärmwirkungen
Um die AMPK bei den untersuchten Mäusen zu aktivieren, wurde ihnen ein siebenwöchiges „Sportprogramm“ verordnet, sie liefen freiwillig in einem Laufrad. Außerdem testeten die Forschenden die Wirkung eines achtwöchigen Fastens mit schrittweiser Nahrungsreduktion sowie einer dreitägigen Medikamentengabe (AICAR, 5-Aminoimidazole-4-Carboxamide Ribonucleotide; AMP-Analogon; entspricht in der Wirkungsweise dem Antidiabetikum Metformin). Jede dieser Interventionen hob die negativen Auswirkungen des Lärms auf: Blutdruck und Radikalbildung normalisierten sich, Gefäßfunktionsstörungen gingen zurück und die Entzündungsreaktion wurde reduziert.
Die endotheliale AMP-Kinase konnte in früheren Untersuchungen als wichtiger Mediator für antientzündliche und antioxidative Stresseffekte identifiziert werden. Dies nutzte das Team in einem weiteren Schritt, um die Bedeutung des Enzyms auch in diesem Zusammenhang nachzuweisen: Die positiven Effekte von Bewegung, Fasten und pharmakologischer Aktivierung gingen bei Mäusen durch einen Knockout der endothelialen AMP-Kinase verloren.
„Die Arbeit ist ein wichtiger experimenteller Hinweis und ein wunderbarer Ansatz für weiterführende klinische Studien“, sagt Münzel. Eine gute Nachricht hat die Studie für sportlich aktive Menschen: Wer sich regelmäßig bewegt, macht seine Gefäße widerstandsfähiger gegen Lärmstress“. Möglicherweise können auch Medikamente gegen Lärm helfen.
Schlussfolgerungen
1) Das Wichtigste ist nach wie vor, den Lärm auf die von der WHO empfohlenen Grenzwerte für Straßen-, Schienen- und Fluglärm zu reduzieren.
2) Die aktuell vorgestellten experimentellen Ergebnisse zur AMP-Kinase und Lärmschäden geben erste Hinweise darauf, wie möglicherweise Lärm-induzierte Herz-Kreislauf-Schäden verhindert oder gemildert werden können.
Weitere Forschung zu Umweltfaktoren
In einer weiteren Arbeit gibt der Mainzer Kardiologe zusammen mit einem internationalen Forscherteam in der renommierten Fachzeitschrift HYPERTENSION einen Überblick über die Auswirkungen von Feinstaub und Lärm auf Herz-Kreislauf-Erkrankungen, deren Bedeutung dramatisch zugenommen hat. Insbesondere die Luftverschmutzung (Particulate Matter 2,5µm) führt zu einer zusätzlichen Sterblichkeit von 8,8 Millionen pro Jahr, vor allem aufgrund der daraus resultierenden Herz-Kreislauf-Erkrankungen wie ischämische Herzkrankheit, Schlaganfall, Diabetes und arterielle Hypertonie. In den Übersichtsartikeln von Omar Hahad et al. werden aktuelle Epidemiologie, mögliche Ursachen und Interventionen sowie aktuelle Forschungslücken und zukünftige Herausforderungen diskutiert.
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Thomas Münzel, Zentrum für Kardiologie – Kardiologie I, Universitätsmedizin Mainz tmuenzel@uni-mainz.de
Originalpublikation:
Mitigation of aircraft noise-induced vascular dysfunction and oxidative stress by exercise, fasting, and pharmacological α1AMPK activation: molecular proof of a protective key role of endothelial α1AMPK against environmental noise exposure. Kvandová et al., European Journal of Preventive Cardiology (2023) https://doi.org/10.1093/eurjpc/zwad075
Noise and Air Pollution as Risk Factors for Hypertension: Part I—Epidemiology. Hahad et al. Hypertension (2023) https://doi.org/10.1161/HYPERTENSIONAHA.122.18732
Noise and Air Pollution as Risk Factors for Hypertension: Part II—Pathophysiologic Insight. Hahad et al. Hypertension (2023) https://doi.org/10.1161/HYPERTENSIONAHA.123.20617
UV-Strahlung und Klimakrise: Handlungsbedarf für Städte und Gemeinden
Julia Rudorf PB2/ Pressearbeit
Bundesamt für Strahlenschutz
Bundesumweltministerium und Bundesamt für Strahlenschutz veröffentlichen zum Start einer UV-Schutz-Kampagne die Ergebnisse einer Umfrage unter kommunalen Entscheider*innen
Beim Schutz vor UV-Strahlung besteht in vielen Städten und Gemeinden Handlungsbedarf. Besonders in Kitas, auf Spielplätzen und Schulhöfen halten Kommunen Schutzmaßnahmen wie mehr Schattenplätze in Zukunft für dringend nötig. Das ergab eine vom Bundesamt für Strahlenschutz (BfS) beauftragte repräsentative Umfrage des Forsa-Instituts unter rund 1.000 Bürgermeisterinnen und Bürgermeistern. Sieben von zehn Befragten gaben an, über die Folgen des Klimawandels für Kommunen Bescheid zu wissen. Über die damit zusammenhängende steigende Gefahr von UV-Strahlung jedoch fühlen sich nur vier von zehn gut informiert. Der Parlamentarische Staatssekretär im Bundesumweltministerium, Christian Kühn, und BfS-Präsidentin Inge Paulini stellten die Studie heute zum Auftakt einer UV-Schutz-Kampagne des BfS vor.
Parlamentarischer Staatssekretär Christian Kühn: „Das Jahr 2022 war geprägt von Temperatur- und Sonnenscheinrekorden in ganz Deutschland. Die Zahl der Sonnenstunden nimmt durch die sich verschärfende Klimakrise seit Jahren zu, und damit auch das Risiko für UV-bedingte Gesundheitsschäden wie Hautkrebserkrankungen. Bund, Länder und Kommunen müssen die Vorsorge an die Folgen der Klimakrise zum Schutz der Menschen auch in diesem Bereich voranbringen. Das BfS leistet dafür mit seiner UV-Schutz-Kampagne einen wichtigen, praxisorientierten Beitrag für kommunale Entscheiderinnen und Entscheider.“
BfS-Präsidentin Inge Paulini erläuterte: „Vor UV-Strahlung der Sonne und ihren Folgen für die Gesundheit können und müssen wir uns und andere schützen. Dazu gehört zum Beispiel, ausreichend Schattenplätze überall dort zu schaffen, wo Menschen sich aufhalten – in Kindergärten, Schulen, Parks, auf öffentlichen Plätzen und beim Sport. Überall dort gilt: Wer Schatten sucht, muss Schatten finden. Kommunalen Entscheiderinnen und Entscheidern kommt hier eine zentrale Rolle zu. Wir möchten sie deshalb gezielt unterstützen und motivieren, den UV-Schutz der Bevölkerung im Alltag zu verbessern.“
Viele Bürgermeister*innen halten der Umfrage nach einen gezielten UV-Schutz für die Bevölkerung zwar für wichtig oder sehr wichtig (58 Prozent). Allerdings gaben nur 25 Prozent der Städte und Gemeinden an, in den letzten Jahren UV-Schutz-Maßnahmen wie etwa Sonnensegel oder Baumpflanzungen umgesetzt zu haben. 71 Prozent berichteten, sich zu UV-Schutz-Maßnahmen in Kommunen nur schlecht oder sehr schlecht informiert zu fühlen.
BfS informiert mit Kampagne über UV-Schutz in Kommunen, Sport und bei Kinderbetreuung
Das Bundesamt für Strahlenschutz hat deshalb Informationen für Entscheider*innen in Kommunen, Kindergärten, Schulen und Sportvereinen zusammengestellt. Unter dem Motto „UV-sicher“ soll die Informationskampagne in den nächsten Monaten Städte, Kitas, Schulen und Sportvereine motivieren, Maßnahmen zum UV-Schutz umzusetzen.
Dazu gehören einfach zugängliche Informationen über die tagesaktuelle UV-Belastung oder das Anpassen von Tagesabläufen, etwa beim Sport. Kommunen, Kindergärten und Schulen sowie Sportvereine können diese Anregungen auf den Seiten des BfS abrufen.
Das Bundesumweltministerium (BMUV) erleichtert die Umsetzung durch die Programme „Maßnahmen zur Anpassung an die Folgen des Klimawandels“ und „Klimaanpassung in sozialen Einrichtungen“. Damit kann z.B. die Schaffung von Schattenplätzen, die auch dem Schutz vor Hitze dienen, gefördert werden. Außerdem bietet im Auftrag des BMUV das Zentrum KlimaAnpassung (ZKA) Beratung, Information und Vernetzung vor allem für Kommunen unter www.zentrum-klimaanpassung.de an. Die Risikovorsorge und Anpassung an die Folgen der Klimakrise ist ein Schwerpunkt des Bundesumweltministeriums und der Bundesregierung in dieser Legislaturperiode.
Unterstützt wird die Kampagne des BfS auch durch Expert*innen vom UV-Schutz-Bündnis, etwa der Arbeitsgemeinschaft Dermatologische Prävention e. V. (ADP) und der Deutschen Krebshilfe (DKH). Zum Start der Kampagne schickte Nationaltorwart Manuel Neuer eine Videobotschaft, in der er auf die unterschätzten Risiken von UV-Strahlung für Kinder und Jugendliche hinwies.
Für die Umfrage hatte Forsa zwischen dem 13. Februar und dem 6. März 2023 insgesamt 1.020 (Ober-)Bürgermeister*innen befragt, die nach einem Zufallsverfahren ausgewählt wurden. Die Ergebnisse sind repräsentativ und stehen auf den Seiten des BfS zum Download bereit.
Abschluss Forschungsprojekt Kognitive Energiesysteme: KI-Agenten machen erneuerbare Energien flexibler und zuverlässiger
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Die Energiewende wird mit Künstlicher Intelligenz (KI) leichter realisierbar. Sogenannte KI-Agenten können komplexe Steuerungsprozesse übernehmen, die mit der heutigen Personal- und Technikausstattung in den Unternehmen nicht zu stemmen wären. Das ist eine zentrale Erkenntnis eines dreijährigen Forschungsprogramms des Kompetenzzentrum Kognitive Energiesysteme (K-ES). Untersucht wurden die Vorteile von KI insbesondere für Netzbetrieb, Prognosen, Resilienz, Leistungselektronik, Energiemanagement, Energiehandel und weitere Zukunftsfelder der Energieversorgung.
Eine systematische Nutzung von KI ist für die Energiewirtschaft angesichts von Fachkräftemangel und komplexen Aufgaben ein vielversprechender Ansatz, um die Energiewende voranzubringen. „In einem dezentralen Energiesystem auf Basis erneuerbarer Energien sind Erzeugung und Verbrauch nicht mehr so leicht zu matchen wie bisher. Um die komplexen Prozesse in Echtzeit aufeinander abzustimmen, muss das Energiesystem ein Bewusstsein über seinen eigenen Zustand entwickeln und automatisiert reagieren können“, erläutert Reinhard Mackensen, Institutsleiter am Fraunhofer IEE, die Zielsetzung des K-ES.
Das K-ES hat sich auf 44 Spotlight-Projekte konzentriert, um beispielhaft zu zeigen, für welche Prozesse KI im Energiesektor sinnvoll ist. Rund 50 Wissenschaftlerinnen und Wissenschaftler haben Lösungen für die gesamte Wertschöpfungskette von den Rohstoffen über Erzeugung, Verteilung, Vertrieb bis zum Verbraucher erarbeitet. Die Spotlights beschäftigen sich insbesondere mit Netzbetrieb, Prognosen, Resilienz, Leistungselektronik, Energiemanagement, Energiehandel und weiteren Zukunftsfeldern der Energieversorgung. Für die Energiewirtschaft entsteht daraus die Chance, zum Leitmarkt dieser Technologie zu werden.
Die erforschten kognitiven Systeme können den Zustand von Energiesystemen zuverlässig bestimmen, beispielsweise bei einer Zustandsschätzung für Stromnetze. Noch dazu können einige Systeme lernen, sich selbstständig zu optimieren, wie die Agenten für den automatisierten Energiehandel. „Mit KI als Schlüsseltechnologie für Netzführung und das Management von Erzeugung und Verbrauch kann die Energiewende sicherer und kostengünstiger umgesetzt werden“, so André Baier, Co-Projektleiter am Fraunhofer IEE.
Algorithmen brauchen das richtige Training
Die Struktur der Forschungsgruppen war themenübergreifend und in Kooperation mit Partnern verschiedener Universitäten, Institute und Unternehmen angelegt. Zur Projektinfrastruktur gehörten jeweils sehr leistungsfähige Server, Modelle und Trainingsumgebungen für KI. Jedes Team hatte sechs Monate Zeit, einen bestimmen Anwendungsfall zu testen. „Ein Ergebnis über alle Anwendungsfelder hinweg ist, dass Algorithmen viel lernen können, wenn sie richtig trainiert werden. Daher stand der Aufbau einer passenden Lernumgebung für verschiedene Einsatzzwecke im Mittelpunkt der Forschungsarbeiten“, resümiert André Baier.
Netzbetrieb läuft mit KI flexibler
Das Stromnetz wird künftig durch eine Vielzahl von unstetig produzierenden Anlagen stärker gefordert sein als heute. Der Einsatz von KI wird hier als vielversprechend angesehen, um die Komplexität zu meistern. So hat das Projekt KI OPF Netzzustände untersucht und dazu künstliche neuronale Netze trainiert. Das Ergebnis ist besonders für Netzbetreiber der Mittelspannungsebene interessant, da es die neuen Vorgaben für die Systemsteuerung Redispatch 2.0 unterstützt. Im Modell wurde überwachtes Lernen mit einem selbstlernenden Algorithmus kombiniert. Dabei wurde deutlich, welches Flexibilitätspotenzial im Netz möglich ist. Berücksichtigt wurden dabei insbesondere Blind- und Wirkleistung durch erneuerbare Energien und ein Ausfall einer Anlage.
„Die Forschungsergebnisse für den Netzbetrieb zeigen schon heute das Potenzial, dass in Zukunft die Automatisierung des gesamten Stromnetzes möglich wird“, ist Christoph Scholz, Co-Projektleiter am Fraunhofer IEE, zuversichtlich. Bei einem Praxistest im Rahmen des internationalen Wettbewerbs „L2RPN Challenge“ („Learn to Run a Power Network“) auf Initiative des französischen Übertragungsnetzbetreibers RTE konnte ein selbstlernender Agent beweisen, dass er mit fluktuierenden Einspeisungen und Lasten, Wartungsarbeiten und bösartigen Angriffe umgehen kann.
Daten und Modelle für zuverlässige Prognosen
Schon heute sind die Wetteraussichten wichtige Planungsgrößen für Stromerzeuger, Netzbetreiber und Händler. Wenn künftig Sonne- und Windanlagen den größten Teil der Energielieferungen übernehmen, ist das gesamte Energiesystem auf sehr genaue Wettervorhersagen angewiesen. Eine exakte Prognose von Sonneneinstrahlung und Wolkenverhalten ist zentral für eine gute Prognose für die zu erwartende solare Stromerzeugung. Das Projekt NeuRaSat hat sich hierfür damit beschäftigt, wie Wettervorhersagen mit Satellitendaten der solaren Einstrahlung verbessert werden können. Ziel des Projekts Temporal Fusion Transformers (TFT) war die Demonstration von neuartigen Modellen basierend auf der Transformer-Technologie in Windprognosen.
KI verbessert die Resilienz bei Störungen
Die Zuverlässigkeit der Stromversorgung ist essenziell für das gesamte Wirtschaftssystem. Um diese abzusichern, wurden die Möglichkeiten von KI im Projekt ARCANA getestet. Die Forschenden haben für Windenergieanlagen einen Algorithmus entwickelt, der Störfälle erklären kann. Dabei liefert das KI-System nicht nur einen Alarm, sondern gibt auch Hinweise, wie die Anlage repariert werden kann.
Die Sicherheit der KI-Methoden ist ein weiterer Aspekt, mit dem sich das K-ES eingehend beschäftigt hat: Im Projekt AAE – Adversarial Attacks im Energiesektor testeten die Forschenden die Möglichkeit von Manipulationen der Eingabedaten und Folgen für die Prognosequalität. Für einzelne Anlagen waren die Vorhersagen trotz eines simulierten Angriffs robust.
Leistungselektronik mit KI weiterentwickeln
Als Einsatzbereiche für KI in der Leistungselektronik wurden die Regelung eines Ortsnetztrafos im Projekt CTRL (Cognitive Train/Test System for Reinforcement Learning using Labs) entwickelt und die Gefahr durch ungewollte Inselnetze im Projekt Alsland reduziert.
In der Fragestellung des Projekts InvEx wurde untersucht, ob sich mit einem Expertensystem die Entwicklungszeit von Stromrichtern verkürzen lässt. Entstanden ist dabei eine Datenbank für Stromrichterbauteile und Komponenten, Topologien, Regelalgorithmen.
Energiemanagement: KI steuert Einsatzplanung
Auch bei der Betriebsführung von Anlagen kann KI unterstützen. Das Projektteam von Cognition²H2Force untersuchte das Zusammenspiel eines Windparks, eines Elektrolyseurs, eines Wasserstoffspeichers und einer Gasturbine. Der Agent konnte die Einsatzplanung des Elektrolyseurs an die Windstromerzeugung besser anpassen als ein regelbasierter Fahrplan.
Energiehandel kann flexibler und kleinteiliger werden
KI hat es im Projekt Deep Energy Trade geschafft, die erzeugte Energie eines Windparks automatisiert am Markt zu platzieren und erzielte dabei mindestens so gute Ergebnisse wie ein menschlicher Verkäufer. Der Agent lernte dabei insbesondere, Flexibilität kurzfristig anzubieten und Prognoseschwankungen auszugleichen. Die Ergebnisse zeigen, wie sich der Handel am Intra-Day-Markt vereinfachen lässt, sodass auch Marktteilnehmer handeln können, die nur kleine Mengen kaufen oder verkaufen möchten.
Weitere Zukunftsfelder im Fokus
Im Projekt DeepBirdDetect hat KI gefährdete Vogelarten aufgespürt. Die Aufgabe bestand dabei in der automatisierten Auswertung von Sounddateien mit Vogelstimmen. Das Tool erleichtert die Einschätzung, welche Flächen für den Ausbau von Windenergie unter Berücksichtigung des Artenschutzes geeignet sind.
Alle bisherigen Ergebnisse des K-ES wurden in Postern veröffentlicht und können für die Anwendung weiterentwickelt werden. Im Rahmen des Forschungsprojektes wurden Kompetenzen und Strukturen als Kompetenzzentrum aufgebaut, die mit Abschluss des Projektes über das Fraunhofer IEE genutzt werden können.
Bereits während der Projektlaufzeit wurde ein Ökosystem aufgebaut, in dem sich Industrie, Energiewirtschaft, Wissenschaft und Politik untereinander vernetzt hat. Ein Teil der Arbeiten des K-ES wird im Rahmen des KISSKI Projekts des BMBF übernommen, mit dem Ziel ein »KI-Servicezentrum für sensible und kritische Infrastrukturen« mit den Schwerpunkten Energie und Medizin» aufzubauen. Andere Forschungsbereiche des K-ES sollen künftig im Rahmen eines Vereins koordiniert werden.
Das Aufbauprojekt Kognitive Energiesysteme wurde von der Hessischen Landesregierung in den Jahren 2020 bis 2023 mit insgesamt 5,8 Mio. Euro gefördert.
Wissenschaftliche Ansprechpartner:
André Baier, Fraunhofer IEE
Weitere Informationen:
https://s.fhg.de/gd6
Umweltwissenschaftliche Vortragsreihe: Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Welche Bedeutung Biodiversität und insbesondere eine auf Nachhaltigkeit ausgerichtete Produktion von Pflanzen für den Klimaschutz hat, ist Thema des Kolloquiums „Heidelberger Brücke“. Dazu lädt das Heidelberg Center for the Environment (HCE) der Ruperto Carola ein. Zum Auftakt der Reihe „Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels“ spricht Prof. Dr. Wilhelm Jelkmann vom Julius Kühn-Institut, dem Bundesforschungsinstitut für Kulturpflanzen. In seinem Vortrag am 26. April 2023 wird er über die Auswirkungen veränderter klimatischer Bedingungen auf den Weinbau sprechen. Die insgesamt vier Veranstaltungen in diesem Sommersemester finden mittwochs um 17 Uhr online statt.
Umweltwissenschaftliche Vortragsreihe: Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels
Vier Veranstaltungen des Kolloquiums „Heidelberger Brücke“ im Sommersemester
Welche Bedeutung Biodiversität und insbesondere eine auf Nachhaltigkeit ausgerichtete Produktion von Pflanzen für den Klimaschutz hat, ist Thema des Kolloquiums „Heidelberger Brücke“. Dazu lädt das Heidelberg Center for the Environment (HCE) der Ruperto Carola ein. Zum Auftakt der Reihe „Nachhaltiger Pflanzenanbau im Zeichen des Klimawandels“ spricht Prof. Dr. Wilhelm Jelkmann vom Julius Kühn-Institut, dem Bundesforschungsinstitut für Kulturpflanzen. In seinem Vortrag am 26. April 2023 wird er über die Auswirkungen veränderter klimatischer Bedingungen auf den Weinbau sprechen. Die insgesamt vier Veranstaltungen in diesem Sommersemester finden mittwochs online statt. Beginn des Livestreams ist jeweils um 17 Uhr. Aufzeichnungen sind abrufbar auf heiONLINE, dem zentralen Portal der Universität Heidelberg mit Vorträgen, Diskussionsrunden und Veranstaltungen in digitalen Formaten.
Anliegen des Kolloquiums „Heidelberger Brücke“ ist es, das Thema nachhaltiger Pflanzenanbau aus verschiedenen disziplinären Blickwinkeln aufzugreifen, so unter den Aspekten Ernährung, Landwirtschaft, Naturschutz und Ökonomie. Nach Prof. Jelkmann und seinem Vortrag „Weinbau im Zeichen des Klimawandels“ referiert Dr. Alexandru Giurca vom European Forest Institute, einer Organisation, in der zu Fragen des Waldes geforscht wird. Dr. Giurca spricht am 17. Mai über die Widerstandsfähigkeit europäischer Wälder. Sein Beitrag „Climate Governance and Resilience of European Forests“ findet in englischer Sprache statt. Dr. Annette Hurst wird am 14. Juni über das „Netzwerk Bioökonomie in der Metropolregion“ sprechen. Sie ist für die Metropolregion Rhein-Neckar als Projektleiterin Regionales Innovationsmanagement tätig. Den Abschluss des Kolloquiums „Heidelberger Brücke“ bildet am 12. Juli ein Vortrag von Prof. Dr. Jale Tosun vom Institut für Politische Wissenschaft und Prof. Dr. Marcus Koch vom Centre for Organismal Studies der Universität Heidelberg. Sie werden über „Ökosorten für Biodiversität und Klimaschutz“ sprechen.
Das Heidelberg Center for the Environment vernetzt die bestehenden Kompetenzen in den Umweltwissenschaften an der Universität Heidelberg und initiiert neue Forschungsvorhaben. Über Fächer- und Disziplingrenzen hinweg befassen sich die Mitglieder des HCE mit den existentiellen Herausforderungen, die sich aus dem Wandel in Natur, Technik und Gesellschaft ergeben. Ziel ist es, ökologischen Auswirkungen wissenschaftlich zu begegnen. Das Kolloquium „Heidelberger Brücke“ schafft eine Plattform für den interdisziplinären Austausch sowie die Kommunikation mit der Öffentlichkeit. Die Vorträge der Reihe wenden sich an Studierende, Wissenschaftlerinnen und Wissenschaftler ebenso wie an die interessierte Öffentlichkeit.
Die Veranstaltungen des Kolloquiums „Heidelberger Brücke“ im Sommersemester 2023 finden online statt. Um den Link zum Livestream zu erhalten, ist eine Anmeldung per Mail an hce@uni-heidelberg.de erforderlich.
Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de
Weitere Informationen:
http://www.hce.uni-heidelberg.de/de/das-zentrum/heidelberger-bruecke – Heidelberger Brücke
http://www.hce.uni-heidelberg.de/de – Heidelberg Center for the Environment
http://www.uni-heidelberg.de/de/heionline – heiONLINE
Arktische Eisalgen stark mit Mikroplastik belastet
Folke Mehrtens Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Die unter dem arktischen Meereis wachsende Alge Melosira arctica enthält zehnmal so viele Mikroplastikpartikel wie das umgebende Meerwasser. Diese Konzentration an der Basis des Nahrungsnetzes stellt eine Gefahr dar für Lebewesen, die sich an der Meeresoberfläche von den Algen ernähren. Klumpen abgestorbener Algen befördern das Plastik mit seinen Schadstoffen zudem besonders schnell in die Tiefsee – und können so die hohen Mikroplastikkonzentrationen im dortigen Sediment erklären. Das berichten Forschende unter Leitung des Alfred-Wegener-Instituts jetzt in der Fachzeitschrift Environmental Science and Technology.
Sie ist ein Futterfahrstuhl für die Bodenlebewesen in der Tiefsee: Die Alge Melosira arctica wächst in den Frühlings- und Sommermonaten mit rasantem Tempo unter dem Meereis und bildet dort meterlange Zellketten. Sterben die Zellen ab und schmilzt das Eis, an dessen Unterseite sie haften, verkleben sie zu Klumpen, die innerhalb eines einzigen Tages mehrere tausend Meter bis auf den Grund der Tiefsee sinken können. Dort bilden sie eine wichtige Nahrungsquelle für die bodenlebenden Tiere und Bakterien. Neben der Nahrung transportieren die Aggregate jedoch mittlerweile auch eine bedenkliche Fracht mit in die arktische Tiefsee: Mikroplastik. Das hat ein Forschungsteam um die Biologin Dr. Melanie Bergmann vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) jetzt in der Fachzeitschrift Environmental Science and Technology veröffentlicht.
„Wir haben endlich eine plausible Erklärung dafür gefunden, warum wir auch im Tiefseesediment immer im Bereich des Eisrandes die größten Mengen von Mikroplastik finden“, berichtet Melanie Bergmann. Bisher wussten die Forschenden aus früheren Messungen lediglich, dass sich Mikroplastik bei der Meereisbildung im Eis aufkonzentriert und beim Schmelzen an das umgebende Wasser abgegeben wird. „Die Algen befördern Mikroplastik auf direktem Weg mit nach unten zum Meeresboden, darum messen wir unter der Eiskante höhere Mikroplastikmengen. Normalerweise sinken die als Meeresschnee bezeichneten Aggregate aus Algenresten langsamer und werden von Wasserströmungen seitwärts abgetrieben, so dass der Meeresschnee weiter weg landet“, erläutert die AWI-Biologin.
Auf einer Expedition mit dem Forschungsschiff Polarstern sammelte sie im Sommer 2021 mit einem Forschungsteam von Eisschollen aus Proben von Melosira-Algen und dem Umgebungswasser. Diese analysierten die Partner von Dalhousie University, Kanada, und University of Canterbury, Neuseeland, anschließend im Labor auf den Gehalt von Mikroplastik. Das überraschende Ergebnis: Die Algenklumpen enthielten mit durchschnittlich 31.000 ± 19.000 Mikroplastikpartikel pro Kubikmeter etwa zehnmal so hohe Konzentrationen wie das Umgebungswasser. „Die fädigen Algen haben eine schleimig-klebrige Textur, so dass sie möglicherweise Mikroplastik aus atmosphärischen Niederschlägen, dem Meerwasser selbst, dem umgebenden Eis und jeder anderen Quelle, der sie begegnen, einsammeln. Einmal im Algenschleim gefangen fahren sie wie in einen Aufzug zum Meeresboden, oder werden von Meerestieren gefressen“, erklärt Deonie Allen von der University of Canterbury und der Birmingham University, die zum Forschungsteam gehört.
Da die Eisalgen eine wichtige Nahrungsquelle für viele Tiefseebewohner darstellen, könnte das Mikroplastik so in das dortige Nahrungsnetz gelangen. Aber auch an der Meeresoberfläche bildet es eine wichtige Nahrungsquelle und könnte erklären warum Mikroplastik besonders stark unter eis-assoziierten Zooplankton-Organismen verbreitet war, wie eine frühere Studie unter AWI-Beteiligung zeigt. Auf diesem Weg kann es auch hier in die Nahrungskette gelangen, wenn das Zooplankton von Fischen wie Polardorsch und diese von Seevögeln, Robben und diese wiederum von Eisbären gefressen werden.
Die detaillierte Analyse der Plastikzusammensetzung zeigte, dass eine Vielzahl verschiedener Kunststoffe in der Arktis vorkommt, darunter Polyethylen, Polyester, Polypropylen, Nylon, Akryl und viele mehr. Zuzüglich verschiedener Chemikalien und Farbstoffe entsteht so ein Stoff Mix, dessen Auswirkungen auf Umwelt und Lebewesen schwer einzuschätzen ist. „Gerade die Menschen in der Arktis sind für ihre Proteinversorgung besonders auf das marine Nahrungsnetz angewiesen, beispielsweise durch die Jagd oder Fischerei. Das heißt, dass sie auch dem darin enthaltenen Mikroplastik und Chemikalien ausgesetzt sind. Mikroplastik wurde bereits in menschlichen Darm, Blut, Venen, Lungen, Plazenta und Brustmilch nachgewiesen und kann Entzündungsreaktionen hervorrufen, doch die Folgen sind insgesamt noch kaum erforscht“, berichtet Melanie Bergmann. „Mikro- und Nanoplastik wurden im Grunde überall dort nachgewiesen, wo Forschende im menschlichen Körper und einer Vielzahl anderer Arten nachgeforscht haben. Es ist bekannt, dass sie das Verhalten, das Wachstum, die Fruchtbarkeit und die Sterblichkeitsrate von Organismen verändern, und viele enthaltene Chemikalien sind nachweislich schädlich für den Menschen“, ergänzt Steve Allen vom Ocean Frontiers Institut der Dalhousie University, ein Mitglied des Forschungsteams.
Außerdem ist das arktische Ökosystem durch die tiefgehenden Umwälzungen der Umwelt durch die Erderhitzung ohnehin schon bedroht. Sind die Organismen nun noch zusätzlich Mikroplastik und den enthaltenen Chemikalien ausgesetzt, kann es sie weiter schwächen. „Hier kommen also verschiedene planetare Krisen zusammen, gegen die wir dringend effektiv vorgehen müssen. Wissenschaftliche Berechnungen haben gezeigt, dass sich die Plastikverschmutzung am wirksamsten durch eine Minderung der Produktion von neuem Plastik verringern lässt“, sagt die AWI-Biologin und ergänzt: „Dies sollte darum auch unbedingt priorisiert werden in dem zurzeit verhandelten globalen Plastikabkommen.“ Darum begleitet Melanie Bergmann auch die nächste Verhandlungsrunde, die Ende Mai in Paris beginnt.
Wissenschaftliche Ansprechpartner:
Dr. Melanie Bergmann (Tel.: 0471 4831-1739, E-Mail: Melanie.Bergmann@awi.de)
Originalpublikation:
Bergmann, M., Allen, S., Krumpen, T., Allen, D., 2023. High levels of microplastics in the Arctic ice alga Melosira arctica, a vector to ice-associated and benthic food webs. Environmental Science and Technology. DOI: https://doi.org/10.1021/acs.est.2c08010
Weitere Informationen:
http://Druckbare Bilder finden Sie bis zum Ende des Embargos in dieser Kollektion: https://multimedia.awi.de/medien/pincollection.jspx?collectionName=738688f0fec18… und anschließend in der Online-Version dieser Pressemitteilung unter https://www.awi.de/ueber-uns/service/presse.html
http://Video-Rohmaterial von der Probennahme zur Studie finden Sie hier: https://we.tl/t-9p7yre7Ro1
Abkehr von den fossilen Energieträgern
Gerhard Samulat Pressekontakt
Deutsche Physikalische Gesellschaft (DPG)
Ein Physikkonkret der Deutschen Physikalischen Gesellschaft beleuchtet die globale Herausforderung der Abkehr von den fossilen Energieträgern.
Der von Menschen verursachte Klimawandel wartet nicht. Im Gegenteil: Er wird immer bedrohlicher. Damit auch die nachfolgenden Generationen ein Leben genießen können, ohne ständig Angst vor Naturkatastrophen haben zu müssen, müssen wir wegkommen von den fossilen Energieträgern. So viel ist sicher.
Das ist leichter gesagt als getan. Es ist eine gigantische Aufgabe. Schließlich deckt die Menschheit ihren Primärenergiebedarf heute zu rund 80 Prozent durch fossile Brennstoffe. Und um das Klima nicht vollkommen aus dem Ruder laufen zu lassen, müssen die Netto-CO2-Emissionen bis zum Jahr 2050 auf null heruntergefahren werden. Deswegen muss das Tempo der Wende zur nicht-fossilen Energiewelt mit aller Kraft beschleunigt werden.
Welche Herausforderungen auf uns warten, zeigt nun die aktuelle Ausgabe des Faktenblattes Physikkonkret der Deutschen Physikalischen Gesellschaft (DPG).
Die Physik kann wichtige Beiträge leisten. Freilich müssen auch die politischen Rahmenbedingungen stimmen, damit die Energiewende – voraussichtlich nach einer Zeit erhöhter Investitionen – langfristig auch zu einem wirtschaftlichen Erfolg wird. Die Deutsche Physikalische Gesellschaft ist allerdings fest davon überzeugt, dass sich Klimaschutz und Wirtschaftlichkeit sehr gut vereinbaren lassen.
Die Deutsche Physikalische Gesellschaft e. V. (DPG), deren Tradition bis in das Jahr 1845 zurückreicht, ist die älteste nationale und mit rund 55.000 Mitgliedern auch mitgliederstärkste physikalische Fachgesellschaft der Welt. Als gemeinnütziger Verein verfolgt sie keine wirtschaftlichen Interessen. Die DPG fördert mit Tagungen, Veranstaltungen und Publikationen den Wissenstransfer innerhalb der wissenschaftlichen Gemeinschaft und möchte allen Neugierigen ein Fenster zur Physik öffnen. Besondere Schwerpunkte sind die Förderung des naturwissenschaftlichen Nachwuchses und der Chancengleichheit. Sitz der DPG ist Bad Honnef am Rhein. Hauptstadtrepräsentanz ist das Magnus-Haus Berlin. Website: https://www.dpg-physik.de
Originalpublikation:
https://www.dpg-physik.de/veroeffentlichungen/publikationen/physikkonkret/pk66_n…
Weitere Informationen:
https://www.dpg-physik.de/veroeffentlichungen/was-sagt-die-dpg-zu?year=1_klima-u… (Was sagt die DPG zum Thema Klima und Energie?)
Anhang
Physikkonkret Nr. 66 (955 kB)
Ganzjährig & bundesweit: Klimawandel begünstigt Ausbreitung von Zecken & FSME
Florian Klebs Pressearbeit, interne Kommunikation und Social Media
Universität Hohenheim
Ganz Deutschland ist inzwischen ein FSME Endemiegebiet, so Forscher:innen auf einer Pressekonferenz der Uni Hohenheim. Die Krankheit wird immer noch unterschätzt.
Die Zecke bleibe ganzjährig aktiv und habe inzwischen selbst höher gelegene Bergregionen erobert: Der Klimawandel begünstigt die Ausbreitung von Zecken und damit auch das Auftreten der FSME, warnte Prof. Dr. Ute Mackenstedt von der Universität Hohenheim in Stuttgart auf der heutigen Pressekonferenz. Neuere Erkenntnisse zeigten außerdem, dass FSME-Infektionen auch sehr untypische Symptome hervorrufen können, sodass gerade bei Kindern die Gefahr der Fehldiagnose bestehe, bestätigt Prof. Dr. Gerhard Dobler, Mikrobiologe und Leiter des Nationalen Konsiliarlabors für Frühsommer-Meningoenzephalitis (FSME) am Institut für Mikrobiologie der Bundeswehr. Wissenschafts-Video zum Thema: https://www.youtube.com/watch?v=70AEbzH5XJY
Ein paar Tage Frost im Winter reichten nicht: „Damit die Zecke im Winter nicht überlebt, braucht es richtig knackig tiefe Temperaturen, die auch einmal wochenlang andauern. Da tiefe Temperaturen von -15 Grad durch den Klimawandel selbst in den Alpen immer seltener werden, sind die Zecken auch in den Wintermonaten aktiv“, erklärt Prof. Dr. Mackenstedt, Leiterin des Fachgebietes Parasitologie der Universität Hohenheim.
Die Folge: „Zecken werden früher im Jahr aktiv oder sind sogar ganzjährig aktiv. Und selbst in den Bergregionen bis 1.200 m werden heute stabile Zeckenpopulationen gefunden“.
Mit den Zecken breiteten sich auch Krankheiten aus, deren Erreger von den Zecken übertragen würden. Allen voran die Frühsommer-Meningoenzephalitis, kurz FSME. „Die Anzahl der FSME Fälle hat in den letzten Jahren zugenommen“, erklärt Dr. Rainer Oehme vom Landesgesundheitsamt Baden-Württemberg.
Er weist darauf hin, dass vom Robert-Koch-Institut (RKI) in diesem Frühjahr weitere zusätzliche Land- und Stadtkreise zu Risikogebieten in Deutschland erklärt worden seien, die z.B. in Sachsen liegen. Doch bleibe die Situation bestehen, dass mehr als 80% der FSME-Fälle in Baden-Württemberg und Bayern liegen. Hotspots sind z.B. der Landkreis Ravensburg.
Hochdynamische Situation vor allem in Süddeutschland
Vor allem in Süddeutschland sei die Situation sehr dynamisch, ergänzt Prof. Dr. Mackenstedt. Die Untersuchungen und die genetische Charakterisierung der FSME Viren habe gezeigt, dass sich gerade hier viele verschiedene FSME Stämme etabliert hätten, die für die Krankheitsfälle verantwortlich seien. Diese genetische Vielfalt sähe man in anderen Regionen Deutschlands nicht.
Die langjährigen Untersuchungen zeigten aber auch: Die FSME-Situation sei ein hochkomplexes vielfältiges Geschehen und Vorhersagen seien schwierig. Manche Regionen erwiesen sich über Jahre oder Jahrzehnte als FSME-Hotspot. Bei anderen schnellten die Fallzahlen innerhalb eines Jahres rapide nach oben und nähmen im nächsten Jahr wieder ab, so die Experten.
Ganz Deutschland muss inzwischen als Endemie-Gebiet gelten
Eines stehe aber bei genauer Ansicht der Fallzahlen fest: „Wir können für keine Region in Deutschland Entwarnung geben. Was die FSME betrifft, ist Deutschland inzwischen ein bundesweites Endemie-Gebiet“, betont Prof. Dr. Mackenstedt.
Aus diesem Grund seien Darstellungen irreführend, die weiße Flecken auf der FSME-Karte auswiesen: „In den Gebieten sind die Fallzahlen sehr gering, was aber nicht heißt, dass dort keine FSME Fälle gemeldet werden. Es heißt nur, dass die Anzahl nicht den Schwellenwert übersteigt, bei dem dieser Landkreis zu einem Risikogebieten erklärt wird. Auch das RKI bestätigt, dass FSME Fälle in fast allen Bundesländern auftreten.“
Erkrankungen können aufgrund atypischer Symptome zu spät erkannt werden
Als Krankheit sollte die FSME nicht unterschätzt werden, warnte der Mikrobiologe Prof. Dr. Gerhard Dobler, Leiter des nationalen Konsiliarlabors für FSME am Institut für Mikrobiologie der Bundeswehr.
Die bekanntesten Symptome seien zwar Gehirn- und Hirnhautentzündung, aber auch Symptome einer Sommergrippe wie Fieber, Kopfschmerzen oder Erbrechen und selbst Darmsymptome könnten unter Umständen auf eine FSME-Infektion hindeuten.
„Inzwischen wissen wir ebenfalls, dass die FSME auch bei Kindern einen schweren Verlauf nehmen kann. Hier wird häufig von einem uncharakteristischen Krankheitsbeginn berichtet, der immer wieder zu verspätetet Diagnosen oder selbst zu Fehldiagnosen führen kann“, so der Mikrobiologe.
98% der Erkrankten hatten keinen oder unvollständigen Impfschutz
Vor diesem Hintergrund bestehe die Gefahr, dass die FSME zu spät oder gar nicht erkannt werde. Die beste Strategie sei deshalb, der Krankheit vorzubeugen: „Bei 98% der FSME-Patienten oder -Patientinnen im vergangenen Jahr waren die Erkrankten gar nicht geimpft, oder hatten wegen fehlender Auffrischung-Impfungen einen unzureichenden Impfschutz.“
Gleichzeitig zeigten uns Länder wie Österreich, wie weitgehend flächendeckende Impfungen die Krankheitszahlen erfolgreich nach unten drückten. Allerdings zeige sich auch in Österreich ein ansteigender Trend bei den Erkrankungen in der ungeimpften Bevölkerung, sagt Prof. Dr. Dobler.
Was wissenswert sei: Die Impfung werde von den Krankenkassen bezahlt und sei gleich für die ganze Familie empfehlenswert.
Weitere Informationen:
Zeckenforschung in Hohenheim: https://zecken.uni-hohenheim.de/
Video : https://www.youtube.com/watch?v=70AEbzH5XJY
Kontakt für Medien:
Prof. Dr. Ute Mackenstedt, Universität Hohenheim, Fachgebiet Parasitologie,
T +49 (0)711 459 22275, E Mackenstedt@uni-hohenheim.de
Prof. Dr. Gerhard Dobler, Nationales Konsiliarlabor FSME am Institut für Mikrobiologie der Bundeswehr in München,
T +49 (0)89 992692 – 3974, E gerharddobler@bundeswehr.org
Dr. Rainer Oehme, Landesgesundheitsamt im Ministerium für Soziales, Gesundheit und Integration Baden-Württemberg,
E presse@sm.bwl.de
Chemiker aus Chemnitz weisen erstmals lange gesuchte chemische Verbindung nach
Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
Prof. Dr. Johannes Teichert und sein Team von der TU Chemnitz berichten in „Nature Chemistry“ über die seit mehr als 70 Jahren nur vermutete „neutrale homoaromatische Verbindung“
In einer aktuellen Ausgabe der renommierten und viel zitierten internationalen Fachzeitschrift „Nature Chemistry“ berichten Prof. Dr. Johannes Teichert, Inhaber der Professur organische Chemie an der Technischen Universität Chemnitz, sein Wissenschaftlicher Mitarbeiter Trung Tran Ngoc sowie weitere Beteiligte über eine sogenannte „neutrale homoaromatische Verbindung“.
Die Erkenntnisse sind ein Meilenstein für die organische Chemie, denn seit mehr als 70 Jahren haben Chemikerinnen und Chemiker lediglich die Existenz dieser Molekülklasse theoretisch vermutet. Der praktische Nachweis fehlte bislang. Die von Teichert und seinem Team nun hergestellten homoaromatischen Moleküle können zum Beispiel als „Ersatzbausteine“ für klassische aromatische Moleküle genutzt werden. Damit ergeben sich ganz neue Kombinationsmöglichkeiten und damit auch Ansätze, um zum Beispiel neue Materialien oder Wirkstoffe in der Medizin zu entwickeln.
„Mit dieser bahnbrechenden Entdeckung konnten wir ein fundamentales Problem der Chemie lösen und an der TU Chemnitz erstmals nachweisen, dass es die lange angenommenen aber nie nachgewiesenen neutralen homoaromatischen Verbindungen in der organischen Chemie überhaupt gibt“, sagt Teichert. „Das ist nicht weniger als ein Durchbruch für die organische Chemie – auch, weil wir diese Verbindungen zum ersten Mal mit ihren individuellen Eigenschaften charakterisiert haben“, so Teichert weiter.
Erstmals stabil hergestellt und gezielt veränderbar
Während klassische aromatische Moleküle mit ihrem cyclischen Aufbau durch eine kreisförmige Bewegung der Elektronen gekennzeichnet sind, ist dieser Ring bei homoaromatischen Verbindungen unterbrochen.
Werden jedoch die reaktiven Enden des Moleküls in einer exakten Geometrie gehalten, baut sich die Kreisbewegung der Elektronen auch ohne eine „echte“ Bindung auf. Diese Verbindung der Moleküle jenseits einer klassischen chemischen Bindung sei eine besondere Eigenschaft der von Teichert und seinem Team hergestellten Homoaromaten. „Damit können wir nun zum ersten Mal die molekularen Wechselwirkungen innerhalb der homoaromatischen Verbindungen erforschen und vor allem systematisch verändern“, fügt Teicherts Mitarbeiter Trung Tran Ngoc hinzu. „Durch die Stabilität der Verbindung können wir das Konzept der Homoaromatizität nun intensiv erforschen und so auch besser verstehen“, ergänzt Teichert.
Neue photochemische Schalter ermöglichen neue Forschungswege u. a. in der Biomedizin
Mit der Entdeckung dieser neuen Form chemischer Verbindungen geht auch ein neuer Typ photochemischer Schalter einher. Sogenannte „Photoschalter“ spielen unter anderen in der Medizin und Biomedizin eine wichtige Rolle. Durch diese Schalter können zum Beispiel Wirkstoffe im menschlichen Körper gezielt von außen durch Licht angeregt und so deren Wirkung an Ort und Stelle aktiviert und untersucht werden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes Teichert, Tel. +49 371 531-33715, E-Mail johannes.teichert@chemie.tu-chemnitz.de
Originalpublikation:
Tran Ngoc, T., Grabicki, N., Irran, E. et al. Photoswitching neutral homoaromatic hydrocarbons. Nat. Chem. 15, 377–385 (2023).
Weitere Informationen:
https://doi.org/10.1038
Hamburgs Stromversorgung zu zwei Drittel durch Solarkraft möglich
Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Im Auftrag des Netzwerks Erneuerbare Energien Hamburg (EEHH) und unter Beteiligung des Competence Center für Erneuerbare Energien (CC4E) der HAW Hamburg wurde eine Solarpotenzialstudie für die Freie und Hansestadt Hamburg erstellt. Darin zeigt sich ein sehr hohes Potenzial für die Stromversorgung Hamburgs durch Solarstrom.
Unter dem Titel „Solarpotenzialstudie für Hamburg. Nicht nur Schietwetter in Hamburg!“ wurde die Studie am 30. März 2023 in ihrer Vollversion veröffentlicht. Sie wurde federführend von Dr. -Ing. Christina Rullán Lemke von der HCU Hamburg, Daniel John von der TU Hamburg und Nicholas Tedjosantoso vom CC4E der HAW Hamburg erarbeitet. Prof. Dr.-Ing. Martin Kaltschmitt (Leiter des Instituts für Umwelttechnik und Energiewirtschaft) von der TU Hamburg und Prof. Dr.-Ing. Hans Schäfers, kommissarischer Leiter des CC4E der HAW Hamburg, sowie Constantin Lange von der Erneuerbare Energien Hamburg Clusteragentur GmbH koordinierten die Arbeiten.
Im Zentrum der Studie stand die Identifizierung potenziell nutzbarer Flächen für die Solarstromerzeugung durch Photovoltaikanlagen sowie die Abschätzung sehr konkret geeigneter Flächen, um das wirklich realisierbare PV-Potential der Stadt insgesamt zu ermitteln. Dazu wurde unter Verwendung des digitalen Liegenschaftskatasters (ALKIS) eine detaillierte Eignungsanalyse jedes einzelnen Flurstücks in Hamburg durchgeführt. Mit Hilfe der digitalen Stadtkarte wurden zudem für die Gebäude auf den Grundstücken die Dachformen analysiert, um den realisierbaren PV-Belegungsgrad abzuschätzen zu können. Im Ergebnis resümieren die Forscher*innen ein hohes Potential für die Energieversorgung durch Photovoltaik in Hamburg. Laut der Studie können bilanziell etwa zwei Drittel des Strombedarfs in der Freien- und Hansestadt durch Solaranlagen gedeckt werden.
Die Studienrelevanz ergibt sich auch angesichts eines aktuellen Entwurfs zur Änderung des Klimaschutzgesetzes in Hamburg durch den Senat und den hierdurch ambitionierten Plan, die Treibhausgas-Emissionen bis 2030 drastisch zu reduzieren sowie bis 2045 Klimaneutralität in der Stadt zu erreichen. Damit steigt die Notwendigkeit des Ausbaus erneuerbarer Energien, daher sieht die Hamburger Gesetzesnovelle eine PV-Nutzungspflicht für Neubauten oder bei einer Dachsanierung vor.
Prof. Dr.-Ing. Hans Schäfers: „Die Größenordnung des realisierbaren PV-Potenzials hat uns überrascht. Aber sie ist gut belegt und zeigt, dass der Senat mit seiner Novelle des Klimaschutzgesetzes die richtigen Schritte geht. Nun wird es wichtig werden, diesen Schatz an klimaneutraler, kostengünstiger Energie, den wir mit der Studie im wahrsten Sinne `kartiert´ haben, zügig zu heben und für die Hamburgerinnen und Hamburger und unseren Wirtschaftsstandort zu nutzbar zu machen.
Kontakt
Inga Mohwinkel
Öffentlichkeitsarbeit CC4E
T +49 40 428 75 5828
CC4E-Presse@haw-hamburg.de
Weitere Informationen:
EEHH-Solarpotenzialstudie.pdf
Wie Medikamente ins Blut gelangen
Peter Rüegg Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Dank Computersimulationen wissen Forschende im Detail, wie Wirkstoffe Zellmembranen durchqueren. Mit den Erkenntnissen lassen sich nun neue Arzneimittel gezielter entwickeln.
Neue Medikamente tun not. Antibiotika zum Beispiel: In dieser Arzneiklasse nimmt die Wirkung vieler seit Langem verwendeter Stoffe ab. Chemikerinnen und Pharmazeuten suchen fieberhaft nach neuen Substanzen, insbesondere nach solchen, die Zellmembranen durchdringen können. Denn nur Wirkstoffe, die Zellmembranen durchqueren, können Patientinnen und Patienten oral als Tablette oder Sirup einnehmen. Nur diese Wirkstoffe passieren im Dünndarm die Darmwand und gehen in den Blutstrom über, um so an ihren Wirkungsort im Körper zu gelangen. Bei Wirkstoffen, die die Zellmembran nicht durchdringen können, haben Medizinerinnen und Mediziner keine andere Wahl, als diese direkt ins Blut zu injizieren.
Grössere Moleküle mit Potenzial
Forschende versuchen daher zu verstehen, welche Moleküle Zellmembranen durchdringen können, und wie genau sie das tun. Für eine wichtige und vielversprechende Substanzklasse, jene der zyklischen Peptide, haben Chemiker:innen der ETH Zürich nun weitere Details zum entsprechenden Mechanismus entschlüsselt. «Je mehr wir über diesen Mechanismus und die Eigenschaften wissen, die ein Molekül besitzen muss, desto früher und gezielter können Forschende dies in der Entwicklung neuer Medikamente berücksichtigen», erklärt Sereina Riniker, Professorin am Departement Chemie und Angewandte Biowissenschaften. Sie hat die Studie, die im Journal of Medicinal Chemistry veröffentlicht worden ist, geleitet.
Zyklische Peptide sind ringförmige Moleküle, die deutlich grösser sind als die kleinen chemischen Moleküle («Small Molecules»), welche die Mehrzahl der heutigen Medikamente ausmachen. Doch in manchen Anwendungsgebieten kommen Chemikerinnen und Pharmazeuten mit Small Molecules an ihre Grenzen, weswegen sie sich grösseren Molekülen wie den zyklischen Peptiden zuwenden. Viele pharmazeutisch wirksame Naturstoffe gehören dieser Substanzklasse an, darunter Cyclosporin, ein seit Jahrzenten nach Organtransplantationen eingesetztes Immunsuppressivum, sowie viele Antibiotika.
Nur mit Computermodellierung möglich
Riniker und ihre Kolleg:innen konnten mithilfe einer rechenintensiven Computermodellierung aufklären, wie zyklische Peptide, die Cyclosporin ähnlich sind, eine Membran durchqueren. «Nur die Modellierung erlaubt uns solch hochaufgelöste und detaillierte Einblicke, denn es gibt keine experimentelle Möglichkeit, ein einzelnes Molekül beim Durchqueren der Membran zu beobachten», sagt Riniker.
Um den Mechanismus zu verstehen, muss man wissen, wie zyklische Peptide aufgebaut sind: Sie bestehen aus einer zentralen Ringstruktur, an der sogenannte Seitenketten hängen. Die Moleküle sind flexibel und können ihre Strukturen dynamisch verändern, um sich so ihrer Umgebung anzupassen.
Tanz durch die Zellmembran
Rinikers Simulationen decken im Detail auf, wie ein zyklisches Peptid die Membran durchdringt: Zuerst dockt das Molekül an die Membranoberfläche an und dringt dann senkrecht zur Membran in diese ein. Danach ändert es seine dreidimensionale Form und rotiert während der Durchquerung einmal um die Längsachse, ehe es die andere Seite der Membran erreicht und dort wieder austritt.
Die Formänderungen haben mit den unterschiedlichen Umgebungen innerhalb einer Zelle zu tun: Unser Körper besteht zu einem grossen Teil aus Wasser. Sowohl innerhalb als auch ausserhalb der Zellen befinden sich die biochemischen Moleküle grösstenteils in wässriger Lösung. Die Zellmembranen hingegen sind aus Fettsäuren aufgebaut. Innerhalb einer Membran herrschen daher wasserabstossende Bedingungen. «Um die Membran durchqueren zu können, ändert das zyklische Peptid seine dreidimensionale Form, um sich damit für eine kurze Zeit so wasserabstossend wie möglich zu machen», erklärt Riniker.
Molekulare Seitenketten verändern
Für die vorliegende Studie untersuchten die Forschenden acht verschiedene zyklische Peptide. Es handelt sich dabei um Modellpeptide ohne medizinische Wirkung, die von Wissenschaftler:innen der Pharmafirma Novartis für die Grundlagenforschung entwickelt wurden. Für diese Studie arbeitete Riniker daher auch mit Forschenden von Novartis zusammen.
Die neuen Erkenntnisse können nun in die Entwicklung zyklischer Peptide als neue Arzneimittel einfliessen. Riniker weist allerdings auf einen gewissen Zielkonflikt hin: Es gibt Seitenketten, dank denen ein zyklisches Peptid zwar ideal an die Membranoberfläche andocken kann, die jedoch dem Peptid das Durchqueren der Membran erschweren. Das neue Wissen hilft Forschenden, sich vorgängig zu überlegen, welche Seitenketten sie verwenden wollen und an welcher Stelle am Molekül sie am hilfreichsten sind. Das alles könnte die Medikamentenentwicklung beschleunigen, sodass die Forschende von Anfang an möglichen Wirkstoffen forschen, die als Tablette eingenommen werden können.
Originalpublikation:
Linker SM, Schellhaas C, Kamenik AS, Veldhuizen MM, Waibl F, Roth HJ, Fouché M, Rodde S, Riniker S: Lessons for Oral Bioavailability: How Conformationally Flexible Cyclic Peptides Enter and Cross Lipid Membranes, Journal of Medicinal Chemistry 2023, 66: 2773, doi: 10.1021/acs.jmedchem.2c01837
Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2023/04/wie-medikament…
Ein Zentrum für die Klimaforschung in Niedersachsen
Bianca Loschinsky Presse und Kommunikation
Technische Universität Braunschweig
Der Klimawandel wird auch in Niedersachsen spürbarer. Die Temperaturen steigen, immer öfter sind trockenere Frühjahr- und Sommermonate mit zum Teil heftigen Starkregenereignissen zu beobachten. Um die Forschung zum Klimawandel in den kommenden Jahren entscheidend voranzubringen, sollen interdisziplinäre Teams demnächst in themenspezifischen Zukunftslaboren Lösungen für eine sichere und gerechte Klimazukunft erarbeiten. Gebündelt werden die Aktivitäten im Zentrum Klimaforschung Niedersachsen (ZKfN) an der Technischen Universität Braunschweig. Mit rund 1,9 Millionen Euro unterstützt das Land Niedersachsen die Ansiedlung des ZKfN an der TU Braunschweig.
Den entsprechenden Förderbescheid hat Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs am 13. April an TU-Präsidentin Angela Ittel überreicht.
„Mit der Einrichtung des Zentrums für Klimaforschung Niedersachsen an der TU Braunschweig leistet das Land einen wichtigen Beitrag zur Bewältigung der Klimakrise. Damit erweitern wir die notwendige fachliche Expertise in Niedersachsen, um die möglichen Auswirkungen des Klimawandels besser zu verstehen und zielgerichtet auf den Klimawandel reagieren zu können“, so Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs. „Im ZKfN werden die Aktivitäten der Zukunftslabore gebündelt sowie die interne und externe Kommunikation und Vernetzung unterstützt. Anwendungsorientierte Grundlagenforschung und der Wissenstransfer gehen hier Hand in Hand. Nur so können wir die Herausforderungen angehen und nachhaltig umsetzen.“
Klimagerechte Stadtentwicklung und Ökosystem Wald
Mit der Förderung über das Programm zukunft.niedersachsen von Land und VolkswagenStiftung wird die Einrichtung der Geschäfts- und Koordinierungsstelle an der TU Braunschweig finanziert. Auch die Themen für die ersten beiden Zukunftslabore sind bereits gesetzt: Die klimagerechte Stadtentwicklung und Raumplanung und die Auswirkungen des Klimawandels auf das Ökosystem Wald sollen im Fokus stehen. Im Juli wird dazu das Niedersächsische Ministerium für Wissenschaft und Kultur die Ausschreibungen für die Initialförderungen veröffentlichen.
„Es ist großartig, dass das Zentrum Klimaforschung Niedersachsen (ZKfN) an der TU Braunschweig angesiedelt ist. An unserer Universität betreiben wir bereits seit Jahrzehnten Spitzenforschung zum Klimawandel und dessen Auswirkungen, sei es im Bereich Küstenschutz, Stadtklima oder auch der Einfluss der Klima-Erwärmung auf Tiere und Pflanzen. In den vergangenen Jahren hat diese Arbeit dazu eine besondere Relevanz und Dringlichkeit erfahren“, sagt TU-Präsidentin Angela Ittel. „An der TU Braunschweig bestimmt zudem eine konsequent handlungsleitende Orientierung an Nachhaltigkeit unsere Entscheidungen im Rahmen einer ganzheitlichen Entwicklung auf dem Weg zur Exzellenz. Um die Bedeutung des Zentrums und des Themas hervorzuheben, ist das ZKfN als Stabsstelle der Präsidentin eingerichtet.“
Gewünscht: Zukunftslabore über Hochschulstandorte hinweg
Auf die Zukunftslabore können sich interdisziplinäre Konsortien aus Wissenschaftler*innen und Praxispartner*innen aus Niedersachsen bewerben. „Dabei laden wir die Forscher*innen ein, sich über die verschiedenen Hochschulstandorte hinweg, gemeinsam zu thematisch fokussierten Zukunftslaboren einzubringen“, sagt die Geschäftsführerin des ZKfN, Katharina Beckmann. Ziel ist es, die Kompetenzen im Bereich der Klimaforschung weiter miteinander zu verzahnen, die wissenschaftliche Arbeit eng an die Anwendung anzubinden und aus dem Zentrum heraus ein Netzwerk aus Wissenschaft, Wirtschaft und Gesellschaft zu den Themen der Klimaforschung zu bilden. Die Geschäftsstelle wird vor allem auch die Kommunikation und den Wissenstransfer unterstützen. „Wir werden neue Formate und Plattformen entwickeln, Konferenzen und Workshops organisieren, um die Erkenntnisse aus der Forschung einer breiten Öffentlichkeit sichtbar und zugänglich zu machen“, berichtet Katharina Beckmann.
So ist am 15. Juni während der Eröffnung der ClimateCrisisClock am Forumsgebäude der TU Braunschweig eine Podiumsdiskussion zur Rolle der Hochschulen in der Klimakommunikation geplant. Im Oktober wird sich das ZKfN bei der internationalen Konferenz des Forschungsschwerpunkts „Stadt der Zukunft“ an der TU Braunschweig einbringen.
Einbindung von Studierenden
Besonders wichtig ist der ZKfN-Geschäftsführerin, frühzeitig Studierende im Zentrum einzubinden: „Viele Impulse kommen aus dieser Generation. Und wir können mit unserer Arbeit insbesondere ihre Transformations- und Problemlösungskompetenzen stärken. Sie sollen unsere ‚Change-Agents‘ werden.“
Unterstützt wird die Arbeit der Geschäftsstelle von einem Lenkungskreis, der die strategische Steuerung des Zentrums verantwortet. Zusätzlich wird ein institutionsübergreifender internationaler wissenschaftlicher Beirat eingerichtet, der aus Vertreter*innen aus Wissenschaft, Gesellschaft und Wirtschaft besteht.
Weitere Informationen:
Website des Zentrums Klimaforschung Niedersachsen:
https://www.tu-braunschweig.de/zkfn
Interview mit der Geschäftsführerin des ZKfN, Katharina Beckmann:
https://magazin.tu-braunschweig.de/m-post/fuer-eine-sichere-und-gerechte-klimazu…
TUmorrow Days vom 13. bis 15. Juni an der TU Braunschweig:
https://www.tu-braunschweig.de/greenoffice/bildungsangebote/tumorrow-day
Wissenschaftliche Ansprechpartner:
Katharina Beckmann
Technische Universität Braunschweig
Zentrum Klimaforschung Niedersachsen (ZKfN)
Universitätsplatz 2
38106 Braunschweig
Tel.: 0531 391-10070
E-Mail: zkfn@tu-braunschweig.de
www.tu-braunschweig.de/zkfn
Grundwasser und Artenvielfalt: Neue Studie offenbart weltweit Lücken im Schutz von Naturschutzgebieten
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Wie sehr werden Naturschutzgebiete von Einflüssen außerhalb ihrer Grenzen geprägt? Ein internationales Forschungsteam unter Mitwirkung von Prof. Andreas Hartmann von der TU Dresden hat die Bedeutung von Grundwassereinzugsgebieten für den Schutz der biologischen Vielfalt und den Erhalt von Ökosystemdienstleistungen untersucht.
Ihre Studie zeigt, dass der Schutz von Grundwassereinzugsgebieten von Naturschutzgebieten oft unzureichend ist und menschliche Aktivitäten in angrenzenden Gebieten einen erheblichen Einfluss auf den Schutz der Ökosysteme haben können.
Die Forscher:innen haben die Grundwassereinzugsgebiete von Naturschutzgebieten weltweit kartiert und dabei herausgefunden, dass 85 Prozent der Schutzgebiete mit grundwasserabhängigen Ökosystemen nicht ausreichend geschützt sind. Das bedeutet, dass ein Teil des Grundwassereinzugsgebiets außerhalb des Schutzgebiets liegt. Die Hälfte aller Schutzgebiete weist ein Grundwassereinzugsgebiet auf, dessen räumliche Ausdehnung 50 Prozent oder sogar mehr außerhalb der Schutzgebietsgrenzen liegt.
Die Ergebnisse der Studie verdeutlichen das weit verbreitete Risiko für Schutzgebiete aufgrund von Aktivitäten, die das Grundwasser außerhalb der Schutzgebiete beeinträchtigen. Die Studie unterstreicht die Notwendigkeit, Grundwasserherkunftsräume und -fließwege in die Schutz- und Managementmaßnahmen von Naturschutzgebieten einzubeziehen. Die Bestimmung von Grundwassereinzugsgebieten trägt dazu bei, eine Diskussion über die Verknüpfung von Naturschutzgebieten mit ihrem Umfeld und ihre Widerstandsfähigkeit gegenüber externen Einflüssen in Gang zu setzen. Gleichzeitig unterstützen der Schutz und das Management solcher Einzugsgebiete dabei, Ökosysteme, die von Grundwasser abhängig sind, vor Gefahren von außen zu bewahren.
„Die Ergebnisse haben eine große Bedeutung für die die Entwicklung von Strategien zum Schutz der biologischen Vielfalt und zum Erhalt von Ökosystemdienstleistungen“, betont Grundwasserforscher Hartmann. Durch die Identifikation von Lücken im Schutz von Naturschutzgebieten und die Umsetzung gezielter Schutz- und Managementmaßnahmen könnten zukünftige Umweltveränderungen besser abgefedert und die Ökosysteme sowie die menschliche Lebensqualität nachhaltig gesichert werden.
Wissenschaftliche Ansprechpartner:
Prof. Andreas Hartmann
Institut für Grundwasserwirtschaft
Fakultät Umweltwissenschaften
Technische Universität Dresden
Telefon: (0351) 463-42551
E-Mail: andreas.hartmann@tu-dresden.de
Internet: https://tu-dresden.de/bu/umwelt/hydro/igw
Originalpublikation:
Huggins, X., Gleeson, T., Serrano, D., Zipper, S., Jehn, F., Rohde, M. M., Abell, R., Vigerstol, K., & Hartmann, A. (2023). Overlooked risks and opportunities in groundwatersheds of the world’s protected areas. Nature Sustainability. https://www.nature.com/articles/s41893-023-01086-9
Unterschätztes Risiko: Bluthochdruck bei Kindern
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Rechtzeitig entdeckt, kann Bluthochdruck bei Kindern erfolgreich behandelt werden. Wie frühzeitiges Eingreifen schwere Folgen für Herz und Gefäße verhindern kann, erläutert der Kinderherzspezialist Prof. Dr. Robert Dalla Pozza im aktuellen herzblatt-Sonderdruck der Deutschen Herzstiftung
Bluthochdruck gilt als stiller Killer. Still, weil er unbemerkt schweren Schaden anrichten kann. Herz, Hirn, Nieren und Augen sowie Gefäße kann er massiv schädigen, wenn er über Jahre unentdeckt und unbehandelt bleibt. „Von großer gesundheitlicher Bedeutung für die einzelnen Patienten ist die Tatsache, dass der Bluthochdruck im Kindesalter das Blutdruckniveau des Erwachsenen bestimmt“, erklärt Prof. Dr. med. Robert Dalla Pozza, leitender Oberarzt der Abteilung für Kinderkardiologie und pädiatrische Intensivmedizin im LMU Klinikum München, Campus Großhadern. Den Bluthochdruck frühzeitig zu erkennen und mögliche Ursachen zu klären, sei deshalb besonders wichtig, um mit Hilfe der Therapie vor den Folgen des hohen Blutdrucks schützen zu können, betont der Kinderherzspezialist und Mitautor des herzblatt-Sonderdrucks „Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr“ der Deutschen Herzstiftung und ihrer Kinderherzstiftung. Dieser kann kostenfrei per Telefon angefordert werden unter 069 955128-400 oder per Mail unter bestellung@herzstiftung.de (1). Die Volkskrankheit Bluthochdruck (arterielle Hypertonie) betrifft in Deutschland nach Expertenschätzungen 20-30 Millionen Erwachsene (Infos: www.herzstiftung.de/bluthochdruck). Von den Kindern und Jugendlichen in Deutschland leiden rund zwei bis drei Prozent unter Bluthochdruck, das sind etwa 400.000 Betroffene. Bei Bluthochdruck wird das Blut dauerhaft mit zu viel Druck auf die Gefäßwände durch den Körper gepumpt. Die dauerhafte Gefäßbelastung und sich daraus entwickelnde arteriosklerotische Gefäßveränderungen (Gefäßverkalkung) erhöhen die Gefahr für Herz-Kreislauf-Erkrankungen im Erwachsenenalter wie Herzinfarkt, Schlaganfall oder Nierenversagen, wenn der hohe Blutdruck unentdeckt und unbehandelt bleibt.
Risiken erkennen und minimieren: frühzeitiger Blutdruck-Check
Insbesondere Übergewicht/Adipositas, chronische Nierenerkrankungen sowie die Einnahme bestimmter Medikamente (z. B. Psychopharmaka), Rauchen und Drogenmissbrauch sind die häufigsten Risikofaktoren für den primären Bluthochdruck im Kindes- und Jugendalter. Primär, „weil keine andere sekundäre Ursache bekannt ist und dieser primäre, arterielle Bluthochdruck aus dem Zusammenspiel vieler vererblicher Faktoren und Umwelteinflüssen wie falsche Ernährung, Stress oder Übergewicht resultiert“, erläutert Prof. Dalla Pozza.
Um die Gefahr für Herz und Gefäße rechtzeitig einzudämmen und die bereits genannten Spätschäden (Arteriosklerose) und Komplikationen im Erwachsenenalter frühzeitig zu verhindern, rät der Kinderkardiologe bereits im Kleinkindalter den Blutdruck regelmäßig zu beobachten. „Eine Blutdruckmessung sollte bei jedem Kind ab dem vierten Lebensjahr stattfinden. Bei Kindern mit Risikofaktoren für Bluthochdruck sollte sie bereits ab dem dritten Lebensjahr durchgeführt werden.“ Besonders bei den rund 8.700 Kindern, die mit einem angeborenen Herzfehler jährlich in Deutschland zur Welt kommen und außerdem mit Gefäßdefekten wie Hauptschlagaderverengung (Aortenisthmusstenose) geboren werden, muss sorgfältig darauf geachtet werden, dass der Blutdruck im unbedenklichen Bereich liegt. Das gilt auch für frühgeborene Kinder, die nach der Geburt intensivmedizinisch behandelt worden sind.
Blutdruck messen bei Kindern: Worauf sollte man achten?
Um den Blutdruck bei Kindern richtig zu messen, gibt es ein paar wichtige Punkte zu beachten:
– Die Blutdruckmessung sollte am rechten Oberarm nach einer etwa fünfminütigen Ruhepause erfolgen.
– Die Messungen sollten dreimal wiederholt werden.
– Bei älteren Kindern sollte im Sitzen, bei Säuglingen und kleineren Kindern im Liegen gemessen werden.
– Die Größe der Manschette korrekt wählen: Der aufblasbare Teil sollte gut am Arm anliegen, gegebenenfalls eine Kindermanschette wählen.
– Die Messung sollte man noch zweimal im Abstand von ein bis zwei Minuten wiederholen: Wiederholungsmessungen fallen meist niedriger aus. Den Mittelwert der letzten beiden Messungen notieren.
– Messungen mit vollautomatischen, sogenannten oszillometrischen Geräten, sind mittlerweile auch bei Kindern üblich.
– Weiterhin gilt die auskultatorische Messung, also die manuelle Blutdruckmessung mit Hilfe eines Stethoskops, als Goldstandard.
– Die Messwerte sollten mit den entsprechenden Normwerten, die für Kinder ab einem Jahr zur Verfügung stehen, verglichen werden.
Um die Diagnose Bluthochdruck zu sichern beziehungsweise den Erfolg einer Behandlung zu prüfen, sollte auch bei Kindern eine 24-Stunden-Langzeitblutdruckmessung erfolgen. „Eine Bestätigung der Diagnose muss von einem Facharzt durch mehrere Blutdruckmessungen im Abstand von einigen Tagen bis Wochen erfolgen“, betont der Kinderkardiologe Prof. Dalla Pozza. Steht die Diagnose arterieller Bluthochdruck fest, folgen u.a. Ultraschalluntersuchungen von Herz und Nieren. Beim Augenarzt gibt eine Spiegelung des Augenhintergrunds Auskunft über Gefäßveränderungen (Gefahr der Arteriosklerose). Je jünger ein Kind ist, desto wahrscheinlicher ist ein sekundärer Bluthochdruck. Im Säuglingsalter handelt es sich immer um einen sekundären Bluthochdruck, wobei angeborene Nieren- und Herzerkrankungen als Ursachen im Vordergrund stehen. „Bei älteren Kindern ist ein primärer Bluthochdruck wahrscheinlicher. Dabei handelt es sich in vielen Fällen um eine familiär gehäuft vorkommende arterielle Hypertonie ohne erkennbare Ursache“, erklärt Prof. Dalla Pozza.
Gesund leben: Ohne Medikamente Kinder vor Bluthochdruck schützen
Fast die Hälfte der Kinder in Deutschland bewegt sich zu wenig. „Mangelnde Bewegung, erhöhte Kalorienzufuhr durch unbewusstes und unkontrolliertes Snacken stellen ein Risiko für die Entwicklung einer Hypertonie dar“, warnt Prof. Dalla Pozza. Laut einer Forsa-Umfrage im Mai 2022 (2) ist jedes sechste Kind in Deutschland dicker geworden und fast ein Drittel der Kinder isst mehr Süßes. Im Vergleich zu Kindern mit normalem Gewicht haben fettleibige Kinder ein mehr als zehnfach erhöhtes Risiko für Bluthochdruck, warnen Kinder- und Jugendmediziner (3).
Um den Blutdruck zu senken, eignen sich für Kinder ebenso wie für Erwachsene Ausdauersportarten, die den Blutdruck stärker senken als Krafttraining. Bei deutlich erhöhten Blutdruckwerten wird Patienten bis zur Senkung der Blutdruckwerte von statischen Belastungen (z. B. Mountainbiking, Krafttraining, Alpinskilauf, Rudern) abgeraten. Täglich 60 Minuten moderate bis intensive körperliche Aktivität werden zur Prävention von Herz-Kreislauf-Erkrankungen empfohlen.
Extrem zuckerhaltige Getränke, Drinks mit Koffeingehalt und Alkohol steigern den Blutdruck ebenso wie Rauchen (auch passives der Eltern), Drogen (z.B. Ecstasy, Kokain, Crack und Amphetamine) und sollten unbedingt vermieden werden. Eine abwechslungsreiche Ernährung ist ebenfalls zur Vorbeugung von Risikokrankheiten wie Bluthochdruck wichtig. Weg vom Weißmehlbrötchen, hin zu herzgesunder abwechslungsreicher Ernährung. Auch Kinder mögen knackiges Obst und Gemüse, richtige Vermittlung und Anleitung vorausgesetzt. Die Deutsche Herzstiftung empfiehlt daher die Mittelmeerküche (https://herzstiftung.de/mediterrane-rezepte). Sie besteht vorwiegend aus ballaststoff- und proteinreichen Lebensmitteln und ist reich an frischem Gemüse und Obst, Hülsenfrüchten, Vollkornprodukten, pflanzlichen Ölen, Nüssen, Fisch, Salaten und Kräutern. Reichen diese Behandlungsmöglichkeiten nicht aus, empfehlen Mediziner zusätzlich eine medikamentöse Therapie.
Blutdrucksenkung mit Medikamenten
Problem sind die noch nicht ausreichenden Studienergebnisse für Präparate im Kindesalter, so dass auch sogenannte Off-Label-Produkte mit ausführlicher Risiko-Nutzen-Aufklärung eingesetzt werden. Wegen ihrer ungünstigen Nebenwirkungen werden Betablocker Kindern eher selten verschrieben. Erstes Mittel der Wahl sind ACE Hemmer (Angiotensin-Converting-Enzyme-Hemmer), die an Enzymen und Hormonen des RAAS (Renin-Angiotensin-Aldosteron-System) ansetzen. Das RAAS besteht aus Enzymen und Hormonen, die entscheidend mitwirken an der Regulation des Blutdrucks und des Flüssigkeitshausaltes. Ähnlich blutdrucksenkend wie ACE-Hemmer und oft besser verträglich sind AT1-Rezeptorblocker (hemmen u.a. die Bildung des Hormons Angiotensin2, das Blutgefäße verengt und als Folge steigt der Blutdruck). Lästige Nebenwirkungen wie Kopfschmerzen und Wasseransammlungen in den Beinen haben Kalziumantagonisten. Sie zählen dennoch zu den sehr wirksamen Präparaten zur Behandlung des gefährlichen Bluthochdrucks.
(sh/wi)
Service-Tipps
Der Artikel „Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr“ von Prof. Dr. Robert Dalla Pozza ist im gleichnamigen aktuellen Sonderdruck von herzblatt, der Zeitschrift der Deutschen Herzstiftung zum Leben mit angeborenem Herzfehler enthalten. Ein Probeexemplar/Rezensionsexemplar dieses Sonderdrucks kann kostenfrei bei der Kinderherzstiftung angefordert werden unter Tel. 069 955128-400 oder per Mail bestellung@herzstiftung.de
Der Artikel „Hoher Blutdruck schadet schon Kindern“ von Prof. Dr. Elke Wühl in der Herzstiftungs-Broschüre „Bluthochdruck: Herz und Gefäße schützen“ kann kostenfrei angefordert werden bei der Herzstiftung unter Tel. 069 955128-400 oder per Mail unter bestellung@herzstiftung.de
Online-Seminar: „Arterieller Bluthochdruck im Kindes- und Jugendalter“
Wann: Mittwoch, 19. April 2023, Start 17:30 Uhr
Link: https://herzstiftung.de/live
Referent: Prof. Dr. med. Robert Dalla Pozza, stellv. Leiter der Abteilung für Kinderkardiologie und Pädiatrische Intensivmedizin des LMU Klinikum München Campus Großhadern
Eine Anmeldung ist nicht nötig.
Der Vortrag des Kinderkardiologen richtet sich an interessierte Eltern, Familien mit betroffenen Kindern mit/ohne angeborenem Herzfehler sowie an betroffene Jugendliche. Im Anschluss besteht die Möglichkeit, Fragen an den Experten zu richten. Für die Teilnahme ist kein Einschalten von Kamera und Mikrofon erforderlich. Fragen zu diesem Online-Seminar können vorab an kinderherzstiftung@herzstiftung.de gesendet werden.
Schon gewusst? Die Kinderherzstiftung feiert 30-jähriges Jubiläum:
https://herzstiftung.de/30-jahre-khs
Bild- und Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114
Quellen:
(1) Dalla Pozza, R., Weil, J., Arterieller Bluthochdruck im Kindesalter: eine unterschätzte Gefahr, Sonderdruck von herzblatt, der Zeitschrift der Deutschen Herzstiftung zum Leben mit angeborenem Herzfehler, Frankfurt a. M., 2023
(2) Pressemeldung der Deutschen Adipositas-Gesellschaft (https://adipositas-gesellschaft.de) „forsa-Umfrage zeigt Folgen der Corona-Krise für Kinder: Gewichtszunahme, weniger Bewegung, mehr Süßwaren – Jedes sechste Kind ist dicker geworden“ vom 31.05.2022 (abgerufen am 12.04.2023)
(3) Wühl, E., Hoher Blutdruck schadet schon Kindern, in: Deutsche Herzstiftung (Hg.), Bluthochdruck: Herz und Gefäße schützen, Frankfurt a. M. 2021
Die Schweregrade des Bluthochdrucks
Mediziner unterscheiden beim arteriellen Bluthochdruck bei Kindern bestimmte Schweregrade und teilen sie in sogenannte Perzentile (Hundertstelwerte) ein. Diese Messwerte dienen als Vergleichsgröße.
– Hochnormaler Blutdruck: Werte über 90. Perzentile
Nur wenn zusätzliche Risikofaktoren wie z.B. Herz-Kreislauf-Erkrankungen, Diabetes mellitus oder chronische Nierenerkrankungen vorliegen, wird empfohlen, den Blutdruck abzusenken. Zur Risikoverminderung sollten nicht medikamentöse Maßnahmen ergriffen werden.
– Bluthochdruck Grad 1: Werte über 95. Perzentile
Eine Behandlung mit Medikamenten ist notwendig. Begleitet werden sollte sie von nicht medikamentösen Maßnahmen zur Reduktion des Herz-Kreislauf-Risikos.
– Bluthochdruck Grad 2: Werte über 99.Perzentile
Stationäre Behandlung und Überwachung sind erforderlich. Intensivbehandelt werden muss, wenn weitere Symptome wie Herzschwäche, Schwindel oder Benommenheit auftreten (Hypertensiver Notfall).
Weitere Literatur
Lurbe, E. et al. (2009): Management of high blood pressure in children and adolescents: recommendations of the European Society of Hypertension. doi: 10.1097/HJH.0b013e32832f4f6b
Flynn, J. T. et al. (2017): Clinical Practice Guideline for Screening and Management of High Blood Pressure in Children and Ado- lescents. doi: 10.1542/peds.2017-1904
Perk, J. et al. (2012): European Guidelines on cardiovascular disease prevention in clinical practice (version 2012): The Fifth Joint Task Force of the European Society of Cardiology and Other Societies on Cardiovascular Disease Prevention in Clinical Practice (constituted by representatives of nine societies and by invited experts). doi: 10.1093/eurheartj/ehs092
Lurbe E., Wühl, E. et al. (2016): European Society of Hyper- tension guidelines for the manage- ment of high blood pressure in children and adolescents. J Hypertens. doi.org/10.1097/ HJH.0000000000 001039
Kontakt
Deutsche Herzstiftung, Pressestelle: Michael Wichert (Ltg.)/Pierre König, Tel. 069 955128-114/-140, E-Mail: presse@herzstiftung.de, www.herzstiftung.de
Weitere Informationen:
https://www.herzstiftung.de/live
https://www.herzstiftung.de/30-jahre-khs
https://www.herzstiftung.de/bluthochdruck
Anhang
PM_DHS_Bluthochdruck-bei-Kindern_2023-04-12_FIN
Smarte Fenster senken ab jetzt den Energieverbrauch in schwedischen Büros
Annett Arnold Unternehmenskommunikation
Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP
Leichte, schaltbare und smarte Glastechnologien können das Energiemanagement von Gebäuden mit großflächigen Fenstern und Glasfassaden signifikant verbessern und zur Senkung des Energieverbrauches für Heizung oder Kühlung beitragen. Die Verbesserung der Verfügbarkeit und Kosteneffizienz solcher Gläser und dessen Fertigungsprozesse ist das Ziel des EU-geförderten Verbundprojektes Switch2Save. Die Projektpartner haben erste elektrochrome Isolierglaseinheiten zur Überprüfung des Einsparpotenzials in einem Bürogebäude installiert. Auf der Messe BAU, vom 17. – 22. April 2023, in München, am Fraunhofer Gemeinschaftsstand werden diese und weitere Lösungen für Fenster und Gebäudefassaden präsentiert.
Der Energieaustausch zwischen den Innenräumen von Gebäuden und der Umwelt wird stark durch Fenster und Glasfassaden beeinflusst. Sonneneinstrahlung kann so effektiv zur Unterstützung der Heizung genutzt werden. Ebenso ist die Verschattung zur Senkung der Kühlenergie im Gebäude von Bedeutung. Smarte Gläser, wie beispielsweise elektrochrome (EC) und thermochrome (TC) Fenster erlauben die Steuerung der Wärmestrahlung in das Gebäude per „Knopfdruck“ und ermöglichen es, den Heiz- und Klimatisierungs-Energiebedarf großer Gebäude drastisch zu reduzieren. Im Vergleich zu herkömmlichen Jalousien oder Sonnenschutzvorrichtungen bieten sie einen hohen Lichtkomfort im Innenbereich.
Elektrochromie basiert auf Materialien, die ihre Lichtdurchlässigkeit im sichtbaren und infraroten Bereich durch Anlegen einer elektrischen Spannung ändern, während Thermochromie auf Materialien basiert, die ihre Infrarot-Reflexionseigenschaften mit steigender Temperatur ändern.
Im EU-geförderten Projekt Switch2Save arbeiten Universitäten, Forschungseinrichtungen und Industriepartner zusammen. Ihr Ziel ist es, leichte und energieeffiziente Isolierglaseinheiten mit EC- und TC-Systeme zu realisieren. Dazu werden die Fertigungstechnologien weiterentwickelt, um große Fenster und Glasfassaden auszustatten. Dadurch soll auch eine höhere Verfügbarkeit und Kosteneffizienz geschaffen werden.
Seit dem Projektstart 2019 ist viel geschehen. Inzwischen wurden Prototypen von neuartigen schaltbaren Fenstern entwickelt. Projektkoordinator Dr. Matthias Fahland vom Fraunhofer FEP erklärt dazu: „Diese Fenster können in bestehenden Gebäuden nachgerüstet werden und so die Energieeffizienz von Heizungs- und Klimaanlagen unterstützen. Die neue Lösung zeichnet sich dadurch aus, dass sie verschiedene Arten von optisch variablen intelligenten Beschichtungen in eine Gebäudehülle integrieren kann.“
Die Partner Chromogenics AB aus Schweden und das Fraunhofer-Institut für Silicatforschung ISC haben dafür neuartige elektrochrome Beschichtungen entwickelt. Diese ermöglichen es, ein Fenster zwischen einem dunklen und einem klaren Zustand umzuschalten.
Das Fraunhofer FEP und die Westböhmische Universität Pilsen haben einen Rolle-zu-Rolle-Abscheidungsprozess für thermochromes Vanadiumoxid realisiert. Dieses Material führt zu einer autarken Regulierung der durchgelassenen Wärmestrahlung in Abhängigkeit von der Außentemperatur. Die Nutzung der Rolle-zu-Rolle-Technologie unterstützt außerdem die Entwicklung einer kosteneffizienten Fertigung.
Beide Arten dieser intelligenten Beschichtungen sind auf leichten, flexiblen Substraten wie zum Beispiel ultradünnem Glas und PET-Folien herstellbar.
Im Projekt wurden zwei Gebäude mit unterschiedlichen klimatischen Bedingungen in Griechenland und in Schweden ausgewählt, die mit 50 Fenstern und 200 m² Glasfassadenfläche ausgestattet werden sollen. An diesen soll das Energieeinsparpotenzial der neuen Lösungen real eruiert und überwacht werden.
Nach drei Jahren Entwicklungsarbeit sind die Projektpartner hochzufrieden, dass diese entstandenen Glaslösungen Ende 2022 installiert werden konnten. Das ausgewählte Bürogebäude in Uppsala (Schweden) schmücken seit Kurzem die neuen Isolierglaseinheiten und es wird ein „Vorher-Nachher“-Vergleich des Energiebedarfs für einen gesamten Jahreszyklus durchgeführt.
Im nächsten Schritt wollen die Forscher die Technologien weiter aufskalieren. Außerdem stehen Projekte mit größeren Demostandorten im Fokus. Während der Messe BAU, vom 17. – 22. April 2023, präsentieren die Forscher des Fraunhofer FEP am Fraunhofer-Gemeinschaftsstand Nr. 528 in Halle C2 in München ein schaltbares Glas sowie weitere Ergebnisse zu thermochromen und elektrochromen Beschichtungen sowie hydrophile Schichten für Gebäudelösungen aus den Projekten Switch2save, NewSkin (FKZ: 862100) und FLEX-G4.0 (03EN1048A).
Über das Projekt Switch2Save:
Lightweight switchable smart solutions for energy saving large windows and glass facades
Das Projekt wurde im Rahmen des Horizon 2020 Forschungs- und Innovationsprogramms der Europäischen Union gefördert.
Förderkennzeichen: 862100
Laufzeit: 01.10.2019 – 30.09.2023
www.switch2save.eu
Fraunhofer FEP auf der BAU 2023
17. – 22. April 2023
Messegelände München
Fraunhofer-Gemeinschaftsstand Nr. 528, Halle C2
Vortrag:
„Dünnschichttechnologien für die Energiewende“, Dr. Matthias Fahland
18. April 2022, 13:30 Uhr, Fraunhofer Gemeinschaftsstand
Pressekontakt:
Frau Annett Arnold
Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP
Telefon +49 351 2586 333 | presse@fep.fraunhofer.de
Winterbergstraße 28 | 01277 Dresden | Deutschland | www.fep.fraunhofer.de
Weitere Informationen:
https://s.fhg.de/Ki6
Konkurrenz unter Bakterien sorgt für Wohlergehen von Pflanzen
Dr. Mia von Scheven Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Pflanzenzüchtungsforschung
Forschende des Max-Planck-Instituts für Pflanzenzüchtungsforschung in Köln haben in Zusammenarbeit mit einem internationalen Forscherteam natürliche chemische Strategien identifiziert, die Bakterien nutzen, um Konkurrenten fernzuhalten und sich erfolgreich auf Pflanzen zu vermehren. Die Studie wurde jetzt in der Zeitschrift PNAS veröffentlicht.
In den letzten Jahren ist die Mikrobiota – eine Gemeinschaft von Mikroorganismen, die hauptsächlich aus Bakterien und Pilzen besteht und in allen eukaryontischen Organismen, einschließlich Menschen, Tieren und Pflanzen, zu finden ist – aufgrund ihres Beitrags zur Gesundheit und zum Wachstum ihrer Wirte in den Fokus gerückt.
Insbesondere die Wurzelmikrobiota von Pflanzen ist nachweislich wichtig für die Mineralienversorgung der Pflanzen, den Schutz vor Pflanzenpathogenen und die Toleranz gegenüber abiotischen Stressfaktoren wie Trockenheit.
Die Mechanismen zu kennen, die der Etablierung dieser mikrobiellen Gemeinschaften zugrunde liegen, ist der Schlüssel für kontrollierte Eingriffe in die Mikrobiota, um ihre nützlichen Leistungen für den Pflanzenwirt zu verbessern. Forschende haben Pflanzen- und Umweltsignale identifiziert, die die Ansiedlung der Mikrobiota an den Wurzeln beeinflussen, aber die Bedeutung der Mikroben-Mikroben-Konkurrenz in diesem Prozess ist nach wie vor nicht klar.
Bereits 1928 berichtete Alexander Flemming über die Hemmung zwischen zwei Mikroorganismen unter Laborbedingungen, verursacht durch Antibiotika. Die Identifizierung des Penicillins führte zu bahnbrechende Erfolgen in der modernen Medizin. In ähnlicher Weise ist die Produktion von Molekülen mit hemmender Wirkung bei einigen bodenbewohnenden und wurzelassoziierten Mikroorganismen bekannt, um mikrobielle Pflanzenpathogene in Schach zu halten.
In dieser Studie verwendeten die Wissenschaftler:innen eine große Sammlung von Bakterien, die aus den Wurzeln der Ackerschmalwand (Arabidopsis thaliana) isoliert wurden, und untersuchten deren Fähigkeit, Moleküle mit hemmender Wirkung zu produzieren. Dies führte zur Identifizierung eines Bakteriums namens Pseudomonas brassicacearum, das eine ungewöhnlich hohe hemmende Aktivität auf viele andere Bakterien in der Wurzelmikrobiota ausübte.
Die Forschenden fanden heraus, dass diese Aktivität weitgehend durch zwei Moleküle vermittelt wird, die zusammenwirken, um die mikrobiellen Konkurrenten in Schach zu halten. Das erste Molekül ist ein antimikrobieller Wirkstoff namens 2,4-Diacetylphloroglucinol, während das zweite Molekül den essenziellen Mikronährstoff Eisen abfängt und ihn so seinen bakteriellen Konkurrenten stiehlt.
Das Team verwendete dann P. brassicacearum-Mutanten, die so konstruiert wurden, dass sie die Produktion der beiden Moleküle blockieren, und testeten, ob sie für die Wurzelbesiedlung in Gegenwart von bakteriellen Konkurrenten relevant sind.
Um diese Hypothese zu testen, besiedelten sie Wurzeln von keimfreier Ackerschmalwand mit einer vereinfachten Bakteriengemeinschaft in Gegenwart von P. brassicacearum-Mutanten oder dem Wildtyp-Stamm. Das internationale Team konnte zeigen, dass diese beiden natürlichen Chemikalien – die von einem einzigen Bakterium produziert werden – nicht nur die strukturelle Organisation der Wurzelmikrobiota beeinflussen, sondern P. brassicacearum auch einen Vorteil bei der Besiedlung und Dominanz der Wurzel verschaffen.
Die Arbeit unterstreicht die Bedeutung der chemischen Abwehr zwischen Bakterien für eine erfolgreiche Besiedlung des Wirts. Diese Ergebnisse haben Auswirkungen auf die Entwicklung von Biologika in der Landwirtschaft, da sie eine Vorhersage der unter vereinfachten Laborumgebung beobachteten hemmenden Aktivitäten, auf die Anwendung im Feld erlauben.
Dies ist ein weiterer Baustein auf dem Weg zur Entwicklung nachhaltigerer Pflanzenschutztechnologien und zum Verständnis der inneren Funktionsweise der pflanzlichen Mikrobiota.
„Es ist erstaunlich, wie die Chemie natürlicher Verbindungen von Mikroben in der Natur genutzt wird, um mikrobielle Gemeinschaften zu bilden, die ihren Pflanzenwirten nützliche Dienste erweisen“, sagt Paul Schulze-Lefert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Paul Schulze-Lefert
email: schlef@mpipz.mpg.de
Tel: +49 221 5062-350
Originalpublikation:
https://doi.org/10.1073/pnas.2221508120
Cyber-Sicherheit – Partnerschaft zwischen ODAV AG und TC Vilshofen
Dr. Jörg Kunz Presse- und Öffentlichkeitsarbeit
Technische Hochschule Deggendorf
Die ODAV AG aus Straubing ist mit dem neuen Technologie Campus der Technischen Hochschule Deggendorf (THD) in Vilshofen eine dreijährige Dienstleistungskooperation eingegangen. Das Ziel: Man will gegen die Vielzahl hochkomplexer Herausforderungen in den Bereichen Cyber-Security, Cyber-Strategie und Cyber-Resilienz gewappnet sein. Am 29. März war in Straubing die Kick-off Veranstaltung zu dieser Partnerschaft.
„Die Aufrechterhaltung der Cyber-Sicherheit stellt eine immer größer werdende Herausforderung dar“, erklärt Stefan Kappl, Leiter des Rechenzentrums der ODAV AG. Die Gefahr, Opfer eines Cyber-Angriffes zu werden, steige zunehmend. Aus diesem Grunde habe man entschieden, eine längerfristige, strategische Partnerschaft mit einem starken regionalen Partner im Bereich Cyber-Sicherheit einzugehen. Dieser Partner ist nun der TC Vilshofen, einer von inzwischen 13 Technologie Campi der THD.
Beim Kickoff am Firmensitz der ODAV in Straubing trafen sich Vertreter des TC sowie des Rechenzentrums und es wurden direkt Nägel mit Köpfen gemacht. Geplant ist zunächst ein umfangreiches Sicherheitsaudit, im Fachjargon Penetrationstest genannt. Dazu gehören auch zusätzliche Module wie etwa ein Passwort-Audit. Als Technologiepartner des Handwerks unterstützt die ODAV AG Handwerksbetriebe und deren Organisationen mit hochwertigen Software-Lösungen und IT-Dienstleistungen. Die Stärke der ODAV AG sind ihre Komplettlösungen: Von maßgeschneiderter Software über die Verarbeitung im Rechenzentrum bis hin zu Printlogistik und Versand begleitet sie von A bis Z alle wichtigen Geschäftsprozesse ihrer Kunden.
„Disruptive Technologien, gepaart mit der Vielfalt an Systemen und der Evolution der Netzwerkinfrastruktur des Traditionsunternehmens lassen aus unserer Sicht Platz für Verbesserungspotential zur Erreichung eines umfassenden Schutzes“, berichtet Prof. Dr. Michael Heigl von der THD. Deshalb hätten er und seine Kollegen vom TC Vilshofen sich bereits im Herbst 2022 mit Vertretern des ODAV-Rechenzentrums getroffen. In einem intensiven Workshop sein man sich der Möglichkeit und Notwendigkeit einer langfristigen Zusammenarbeit für Dienstleistungen im Bereich der Cyber-Security bewusst geworden. Heigl: „Dienstleistungen im Bereich der Cyber-Sicherheit sind oftmals kurzweilig und mit stark reduziertem Scope verbunden. Charme dieser nachhaltigen Kooperation ist es, gemeinsam einen ganzheitlichen Schutz zu etablieren. Von der Sicherheit einzelner Systeme, bis hin zum Umgang mit auftretenden Cyber-Angriffen.“ Prävention sei immer die beste Schutzmaßnahme.
„Die Partnerschaft ist ein wunderbares Beispiel dafür, was unsere Technologietransferzentren ausmacht. Beide Parteien profitieren gleichermaßen“, bestätigt THD-Präsident Prof. Dr. Peter Sperber. Von dem Erfolg der Kooperation sei er überzeugt. Auch der Wissenszuwachs aus der Praxis stelle für die Hochschule einen nachhaltigen Gewinn dar. Zum Beispiel für die Sparte der Weiterbildung am Campus. Auch die ODAV AG möchte in Zukunft im Bereich der Cyber-Sicherheit forschen. Ein Projekt in der Beantragungsphase des TCV ist hier die so genannte Cyber-Deception. Das ist die Früherkennung von Hacker-Angriffen, die versucht, Angreifer gezielt zu täuschen und in eine falsche Richtung zu steuern. So könne man Informationen über die Angreifer und ihr Vorgehen sammeln und daraus weitere Schritte der Verteidigung ableiten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Heigl
Künstliche Intelligenz für Cybersicherheit
Institut ProtectIT
michael.heigl@th-deg.de
Alternativer Zuckerabbau sichert das Überleben von Krebszellen
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Ein wichtiges Schlüsselenzym des Zuckerstoffwechsels wird besonders leicht und effizient durch oxidativen Stress inaktiviert. Wissenschaftlerinnen und Wissenschaftler im Deutschen Krebsforschungszentrum zeigten nun: Mit dieser Oxidation schalten die Zellen auf einen alternativen Zuckerabbauweg um und können dadurch dem oxidativen Stress entgehen. Insbesondere Krebszellen profitieren von diesem Mechanismus, der sie auch vor therapiebedingten Schäden schützen kann.
Eines der zentralen Enzyme beim Zuckerabbau, die GAPDH (Glycerinaldehyd-3-phosphat-Dehydrogenase), hat eine besondere Eigenschaft: Es wird ungewöhnlich schnell und effizient durch Wasserstoffperoxid oxidiert und dabei inaktiviert. Dadurch kommt der energieliefernde Glukoseabbau in den Zellen zum Erliegen.
„An Hefezellen haben wir bereits gezeigt, dass die oxidative Inaktivierung der GAPDH den Zuckerabbau auf einen anderen Stoffwechselweg umlenkt, der dafür sorgt, dass die Hefen oxidative Stress besser tolerieren können. Ob das auch für Säugetierzellen gilt, konnten wir nun untersuchen“, sagt Tobias Dick vom Deutschen Krebsforschungszentrum.
Als Voraussetzung für die Funktionsanalyse nutzten die Forscher um Dick eine GAPDH-Mutante, die oxidations-resistent ist, aber ansonsten ihrer Funktion im Zuckerabbau ganz normal nachkommt. Mithilfe der Genschere CRISPR-Cas tauschten sie die normale GAPDH gegen die oxidations-resistente Mutante aus, sowohl in Zelllinien als auch in Mäusen.
Mithilfe dieses Ansatzes zeigte das Team, dass die Oxidation der GAPDH auch Säugetierzellen erlaubt, vom energieliefernden Zuckerabbau auf den so genannten Pentosephosphat-Weg umzuschalten. Dieser Abbauweg liefert der Zelle zwar keine Energie, dafür aber das reduzierende Molekül NADPH, mit dem schädliche Oxidantien neutralisiert werden können.
Gerade Tumorzellen sind in vielen Phasen ihrer Entwicklung erhöhtem oxidativen Stress ausgesetzt. Das gilt beispielsweise dann, wenn die Nährstoffversorgung im Tumor schwankt, oder wenn sich einzelne Zellen von der Tumormasse ablösen und in die Blutbahn eindringen. Wie kommen Krebszellen mit einer oxidations-resistenten GAPDH zurecht? Auf Mäuse transplantierte GAPDH-mutierte Krebszellen wuchsen deutlich langsamer zu Tumoren heran als Krebszellen mit normaler GAPDH. Die mutierten Krebszellen zeigten erhöhten oxidativen Stress und starben häufiger. Dies lag tatsächlich an ihrer Unfähigkeit, den Pentosephosphat-Weg zu aktivieren, wie eine Messung der Stoffwechselprodukte im Tumor zeigte.
Als das Team die tumortragenden Mäuse mit Chemo- und Strahlentherapie behandelte, was die oxidative Belastung der Tumorzellen noch zusätzlich erhöht, ergab sich wie erwartet ein synergistischer Effekt, d.h. die Therapie wirkte deutlich stärker auf GAPDH-mutierte Krebszellen.
„Oxidativer Stress ist eines der wichtigsten Hindernisse, die der Vermehrung und Ausbreitung von Tumorzellen im Körper entgegenstehen. Krebszellen sind daher ganz besonders auf Strategien angewiesen, um diese Situation bewältigen zu können“, erklärt Tobias Dick. “Eine dieser Strategien ist offenbar die Oxidation der GAPDH, die den Pentosephosphat-Weg ankurbelt und so die Zellen mit NADPH vor oxidativen Schäden schützt. Mit diesem schnell wirkenden Oxidationsschutz erkaufen sich Krebszellen möglicherweise wertvolle Zeit, bis andere, langsamere Anpassungsmechanismen greifen.“
Deepti Talwar, Colin G. Miller, Justus Grossman, Lukasz Szyrwiel, Torsten Schwecke, Vadim Demichev, Ana-Matea Mikecin-Drazic, Anand Mayakonda, Pavlo Lutsik, Carmen Veith, Michael D. Milsom, Karin Müller-Decker, Michael Mülleder, Markus Ralser & Tobias P. Dick: The GAPDH redox switch safeguards reductive capacity and enables survival of stressed tumour cells.
Nature Metabolism 2023, DOI: 10.1038/s42255-023-00781-3
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Originalpublikation:
Deepti Talwar, Colin G. Miller, Justus Grossman, Lukasz Szyrwiel, Torsten Schwecke, Vadim Demichev, Ana-Matea Mikecin-Drazic, Anand Mayakonda, Pavlo Lutsik, Carmen Veith, Michael D. Milsom, Karin Müller-Decker, Michael Mülleder, Markus Ralser & Tobias P. Dick: The GAPDH redox switch safeguards reductive capacity and enables survival of stressed tumour cells.
Nature Metabolism 2023, DOI: 10.1038/s42255-023-00781-3
Kreislaufwirtschaft: Verbundprojekt will Recyclingrate von Lithium-Ionen-Batterien erhöhen
Nicole Gierig Pressestelle
Technische Universität Dresden
Der Chemiker Prof. Jan J. Weigand und sein Team an der TU Dresden arbeiten in einem Verbundprojekt an der Verbesserung des ökologischen Fußabdrucks von Lithium-Ionen-Batterien (LIBs). Das von der Firma Elyte Innovations GmbH geleitete Projekt trägt den Namen „SWELL – Stoffliche Wiederverwertung von Elektrolyt-Leitsalzen und-Lösungsmitteln “ und wird vom Bundesministerium für Wirtschaft und Klimaschutz gefördert. Im Gegensatz zu den meisten bisherigen Forschungsansätzen fokussiert sich das Projekt dabei nicht auf das Recycling der Metalle, sondern auf die Rückgewinnung der nichtmetallischen Komponenten, darunter Lithiumsalze, Lösungsmittel und Elektrolytadditive.
Elektromobilität ist ein entscheidender Baustein für die Energiewende. Die meisten Elektrofahrzeuge verwenden heute Lithium-Ionen-Batterien als Hauptenergiespeicher, denn diese sind aufgrund ihrer hohen Energie- und Leistungsdichte extrem vielseitig einsetzbar. Durch die erhöhte Nachfrage in der Batterieproduktion in den vergangenen Jahren stieg auch der Rohstoffbedarf für Lithium, Cobalt und andere Metalle enorm. Die aufwendige Gewinnung dieser Stoffe birgt zahlreiche ökologische Risiken. Effektives Recycling der gebrauchten Batterien stellt daher einen wichtigen Nachhaltigkeitsfaktor dieser Technologie dar.
Während sich bisher etablierte Recyclingprozesse überwiegend auf die Rückgewinnung der in LIBs befindlichen Metalle fokussieren, befasst sich das Verbundprojekt „SWELL“ erstmals mit der Rückgewinnung der nichtmetallischen Komponenten, also der Elektrolyte, bestehend aus Lithiumsalzen, Lösungsmitteln und Elektrolytadditiven. „Die Elektrolyte gehen in bisherigen Prozessen größtenteils in Form von thermischer Verwertung oder Downcycling verloren. Die Elektrolytkomponenten weisen jedoch einen signifikanten Materialwert auf und enthalten zudem kritische, umweltrelevante Ressourcen, wie Lithium, Fluor und Phosphor. Ihre Rückgewinnung und effiziente Aufarbeitung mit dem Ziel einer direkten Wiederverwendung in LIBs ist daher von großem Interesse und kann zur signifikanten Steigerung der Nachhaltigkeit der Batteriezellfertigung führen“, erläutert Projektmitarbeiter Dr. Kai Schwedtmann von der Professur für Anorganische Molekülchemie der TU Dresden.
Um die stofflichen Rückgewinnungsraten während des Recyclings von LIBs zu steigern, arbeitet das Team um Prof. Jan J. Weigand an effizienten Trennmethoden von flüssigen und festen Elektrolytkomponenten. „Mit der Entwicklung und Evaluierung eines solchen Verfahrens wollen wir den Zugang zu Batteriematerialien in Europa verbessern und den ökologischen Fußabdruck von LIBs senken. Wir können diese Ziele erreichen, in dem wir zukünftig sekundäre Wertstoffe aus kosteneffizienten Prozessen bereitstellen und dadurch Abhängigkeiten entlang der Batterie-Wertschöpfungskette von nicht-europäischen Zulieferern reduzieren“, bekräftigt TUD-Projektleiter Jan J. Weigand das Vorhaben.
Das Projekt wird vom Projektträger Jülich getragen und vom Bundesministerium für Wirtschaft und Klimaschutz gefördert. Unter der Leitung der Firma Elyte Innovations GmbH gehören die TU Dresden und die Fuchs Schmierstoffe GmbH zum Konsortium.
Wissenschaftliche Ansprechpartner:
Prof. Jan J. Weigand
Professur für Anorganische Molekülchemie
TU Dresden
Tel.: +49 351 463-42800
Email: jan.weigand@tu-dresden.de
Weitere Informationen:
https://tu-dresden.de/mn/chemie/ac/ac3/kooperation/swell Projektseite
Sicherheit und Gesundheit in Unternehmen fördern
Marie-Luise Unteutsch Presse- und Öffentlichkeitsarbeit
SRH Hochschule für Gesundheit
SRH Hochschule für Gesundheit lädt am 27. April 2023 zu einem Online Health and Study Talk mit Absolvent:innen des Master-Studiengangs Arbeits- und Organisationspsychologie ein.
„Mit unserem innovativen Master-Studiengang Arbeits- und Organisationspsychologie möchten wir Unternehmen dabei unterstützen, sichere und gesunde Arbeit für die Beschäftigten anzubieten. Wir befähigen unsere Studierenden, in den Bereichen Arbeitssicherheit und betriebliche Gesundheit verschiedene psychologische Tätigkeiten inhaltlich und gesetzlich umzusetzen und damit gesunde Arbeit zu fördern“, erläutert Prof. Dr. Sabine Rehmer, Studiengangsleiterin im Master-Studiengang Arbeits- und Organisationspsychologie an der SRH Hochschule für Gesundheit.
Um Interessierten einen Einblick in das Studium und die anschließenden Karrieremöglichkeiten zu geben, lädt die SRH Hochschule für Gesundheit anlässlich des Welttages für Sicherheit und Gesundheit am Arbeitsplatz, der jährlich am 28. April begangen wird, bereits am 27. April zu einem Online Health and Study Talk mit Absolvent:innen des Studiengangs ein. Unter dem Thema „Wie fördern Arbeits- und Organisationspsycholog:innen die Sicherheit und Gesundheit in Unternehmen?“ werden diese mit Prof. Dr. Sabine Rehmer über ihre Erfahrungen nach dem Studium sprechen. Die Absolvent:innen stellen ihre beruflichen Tätigkeiten vor und zeigen auf, wie sie zur Förderung von Sicherheit und Gesundheit in Unternehmen beitragen.
Der Master-Studiengang mit dem Schwerpunkt Sicherheit und Gesundheit in der Arbeitswelt bereitet die Studierenden in vier Semestern auf die vielfältigen Karrieremöglichkeiten in den Bereichen Personal, Organisation, Arbeitssicherheit und betriebliches Gesundheitsmanagement vor. Dabei findet das Studium in einer für die Hochschule typischen Blockstruktur statt, wodurch es sich optimal mit dem Beruf und privaten Anforderungen vereinbaren lässt. Zudem kann Gelerntes auf diese Weise direkt in der Praxis angewendet werden.
Eine Besonderheit ist auch, dass Studierende keinen Bachelor-Abschluss in Psychologie mitbringen müssen, der Abschluss kann auch in anderen Studienrichtungen wie z. B. Betriebswirtschaftslehre, Erziehungswissenschaft oder Sportwissenschaft erfolgt sein. In das Studium sind dann ohne zusätzliche Kosten weitere Abschlüsse integriert: die Ausbildung zur Fachkraft für Arbeitssicherheit, zum/zur psychologischen Ersthelfer:in sowie ein Zertifikat als Stressmanagementtrainer:in.
Interessierte können sich für die kostenfreie Online-Veranstaltung, die am 27. April 2023 ab 17 Uhr stattfindet, hier unverbindlich anmelden: https://eveeno.com/819645592
Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/sabine-…
Sensible Unternehmensdaten schützen und gleichzeitig besser nutzbar machen
Julia Hallebach Press & Public Relations
Fraunhofer-Institut für Digitale Medientechnologie IDMT
Fraunhofer IDMT präsentiert Software-Prototyp für datenschutzkonforme SIEM-Analyse auf der Hannover Messe 2023
Forschende des Fraunhofer-Instituts für Digitale Medientechnologie IDMT in Ilmenau entwickeln im Rahmen des öffentlich geförderten Projekts DA3KMU eine Software, mit der kleine und mittlere Unternehmen (KMU) ihre gespeicherten Daten datenschutzkonform aufbereiten und für weitere Nutzungsszenarien einsetzen können. Ein mögliches Einsatzgebiet der Lösung ist die Anonymisierung bzw. Pseudonymisierung von Logdaten für sogenannte SIEM (Security Information & Event Management) Systeme. Der Prototyp der Software wird erstmals auf der Hannover Messe 2023 vorgestellt.
Herausforderungen für KMU bei der Analyse von IT-Sicherheitsvorfällen
Auf der Hannover Messe vom 17. bis 21. April 2023 demonstriert das Fraunhofer IDMT am Messestand des Industrial Security Circus (Halle 16, Stand D04/33) einen exemplarischen Anwendungsfall. Mit Hilfe der DA3KMU-Software können KMU ihre Logdaten zur Prüfung von Sicherheitsvorfällen datenschutzkonform an Externe übertragen oder für Analysezwecke im Unternehmen dauerhaft speichern.
Zum Hintergrund: Viele KMU nutzen kleine IT-Infrastrukturen mit mehreren Servern, Netzwerkrechnern und verschiedenen Wireless Access Points, um Geräte in einem drahtlosen Netzwerk zu verbinden. Sie sammeln Meldungen und Log-Daten von unterschiedlichen Geräten, Komponenten und Anwendungen innerhalb ihres Firmennetzes mit sogenannte SIEM-Systemen. Die so gesammelten Informationen geben beispielsweise Aufschluss darüber, auf welche Weise bestimmte Dateien angefordert werden, wer sie angefordert hat oder woher Dateien stammen. Diese Informationen liefern wichtige Hinweise zur Erkennung möglicher Hackerangriffe und anderer Sicherheitsvorfälle auf ihre IT-Infrastruktur.
KMU beauftragen für entsprechende Analysen bei einem Sicherheitsvorfall gerne externe Unternehmen, die über die erforderliche Expertise verfügen. Dafür ist eine Übertragung der Logdaten erforderlich, aber aufgrund von Datenschutzregelungen und Unternehmensinteressen ist dies sehr problematisch, da die Daten Personenbezüge oder sensible Geschäftsprozessinformation enthalten können. Ähnlich verhält es sich auch, wenn KMU die Logdaten für spätere Analysen selbst dauerhaft speichern möchten: Eine Langzeitspeicherung ist nach der geltenden Datenschutz-Grundverordnung nicht erlaubt, wenn personenbezogene Daten betroffen sind.
DA3KMU-Software für adaptive Datenanonymisierung
Die genannten Probleme für KMU können mit der DA3KMU-Software adressiert werden. Ziel des Projekts DA3KMU ist die Entwicklung einer Open-Source Softwarelösung für KMU, mit deren Hilfe Daten maßgeschneidert anonymisiert werden können. Das bedeutet, dass die Anonymisierungsverfahren einerseits die Eigenschaften der zugrundeliegenden Daten berücksichtigen, andererseits aber auch die Notwendigkeiten der anschließenden Analyse. So lassen sich Daten für ausgewählte Anwendungsfälle so generalisieren und anonymisieren, dass eine unbeabsichtigte Preisgabe sensibler Informationen vermieden wird, die Daten für Analysezwecke aber trotzdem weitgehend nutzbar bleiben.
Im Fall der SIEM-Analyse können mit Hilfe der Software Logdaten so aufbereitet werden, dass sie für die Analyse von Sicherheitsvorfällen an Externe weitergegeben oder auch dauerhaft gespeichert werden.
DA3KMU steht für »Datenschutz durch statistische Analyse und Adaptive Anonymisierung von personenbezogenen Daten für KMU« und ist ein Projekt, das vom Bundesministerium für Wirtschaft und Klimaschutz BMWK im Rahmen der Initiativen IT-Sicherheit in der Wirtschaft gefördert und durchgeführt wird. Die Projektleitung und -durchführung liegt beim Fraunhofer IDMT, die Unternehmen Psoido GmbH und EurA AG unterstützen das Projekt im Unterauftrag. Darüber hinaus sind weitere assoziierte Partner im Projekt beteiligt, die sich mit ihren Anforderungen einbringen und die Software testen.
Besuchen Sie uns vom 17. bis 21. April 2023 auf dem Messestand des Industrial Security Circus in Halle 16, Stand C04/34 und informieren Sie sich zu den aktuellen Entwicklungsschritten zur Anonymisierung von personenbezogenen Daten für kleine und mittlere Unternehmen. Erleben Sie weitere Angebote des Netzwerks Mittelstand-Digital zum Thema IT-Sicherheit auf dem Messestand.
Mittelstand Digital Netzwerk
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren, der Initiative IT-Sicherheit in der Wirtschaft und Digital Jetzt umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ermöglicht die kostenfreie Nutzung und stellt finanzielle Zuschüsse bereit. Weitere Informationen finden Sie unter www.it-sicherheit-in-der-wirtschaft.de
Wissenschaftliche Ansprechpartner:
Patrick Aichroth, Telefon +49 3677 467-121, patrick.aichroth@idmt.fraunhofer.de
Weitere Informationen:
https://www.idmt.fraunhofer.de/de/Press_and_Media/press_releases/2023/DA3KMU-han… – Pressemitteilung des Fraunhofer IDMT
https://www.da3kmu.de/ – Projektwebseite DA3KMU
Anhang
Schaubild: Datenschutzkonforme SIEM-Analyse mit DA3KMU
Deutschland verlor in den letzten zwei Jahrzehnten durchschnittlich 760 Millionen Tonnen Wasser pro Jahr
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Sehr viel Wasser ging verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen.
Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun mit Kolleg:innen die Jahre 2002-2022 genauer untersucht. Fazit: Im Schnitt hat Deutschland pro Jahr 760 Mio Tonnen Wasser verloren – durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie nutzt Daten der Satellitenmissionen GRACE und GRACE-Follow On und ist der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung“ erschienen.
Die letzten fünf Jahre in Deutschland waren von massiven Sommerdürren geprägt. Es ging sehr viel Wasser verloren. Nur: Wie hoch die Verluste genau waren und ob sich daraus ein Trend für die Zukunft ableiten lässt, sind nach wie vor offene Fragen. Ein Team des Deutschen GeoForschungsZentrums (GFZ) hat nun gemeinsam mit Forschenden der Universität Bonn und des Forschungszentrums Jülich die Jahre von 2002 bis 2022 genauer untersucht.
Ihr Fazit: Im Durchschnitt hat Deutschland jedes Jahr 760 Millionen Tonnen (0,76 Kubikkilometer) Wasser verloren – sei es durch abnehmende Bodenfeuchte, schwindendes Grundwasser, abgeschmolzene Gletscher oder gesunkene Wasserspiegel. Die Studie beruht in erster Linie auf Daten der Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv).
Das Besondere dieser Studie ist, dass die Forschenden vier verschiedene Auswertemethoden verglichen haben und damit zu einem deutlich geringeren Wasserverlust kamen als andere Auswertungen der Satellitendaten, die lediglich auf einer einzigen Methode beruhten. Der gesamte Wasserspeicher (auf Englisch Terrestrial Water Storage, TWS) hat demnach in den zwei Jahrzehnten um zusammengerechnet 15,2 Kubikkilometer abgenommen. Zum Vergleich: Der Wasserverbrauch aller Sektoren – Industrie, Landwirtschaft, Privathaushalte – in Deutschland beträgt rund 20 Kubikkilometer pro Jahr. Um verlässlich einen Trend abschätzen zu können, sei der Zeitraum jedoch zu kurz und zu stark von verschiedenen Extremen geprägt, schreiben die Forschenden in der April-Ausgabe der Fachzeitschrift „Hydrologie & Wasserbewirtschaftung (HyWa)“.
Hintergrund: Bestimmung von Schwerefeld und Wassermassen der Erde aus Satellitendaten
Die Satellitenmissionen GRACE (2002 bis Missionsende 2017) und GRACE-Follow On (seit 2018 aktiv) sind einzigartig. Die Satelliten-Tandems vermessen die Erdanziehungskraft, das so genannte Schwerefeld, und dessen Änderungen global auf Monatsbasis. Aus diesen Schwerefelddaten lassen sich Massenverlagerungen erkennen, die wiederum Rückschlüsse auf Veränderungen im Wasserkreislauf erlauben, also beispielsweise das Abschmelzen von Gletschern oder das Entleeren von Grundwasserspeichern. Erstmals ist es damit zum Beispiel gelungen, den Eismassenverluste Grönlands und der Antarktis zu quantifizieren. Der große Vorteil dieser Art von Messung: Sie erfasst auch Grundwasserleiter, die tief unter der Erdoberfläche verborgen sind. Der Nachteil: Die räumliche Auflösung der Schwerefelddaten ist vergleichsweise grob: rund 300 mal 300 Kilometer. Verlässliche Aussagen lassen sich daher nur für Gebiete von rund 100.000 Quadratkilometern Größe treffen, das entspricht etwa der Fläche der ehemaligen DDR.
Neue Analyse verschiedener Datenreihen für Deutschland (2002-2022)
Ein Team von Forschenden unter der Leitung von Andreas Güntner vom Deutschen GeoForschungsZentrum GFZ hat jetzt erstmals für Deutschland einen detaillierten Überblick über die von den Satelliten gemessenen Änderungen des Gesamtwasserspeichers der letzten zwanzig Jahre veröffentlicht. Beteiligt waren Kolleg:innen mehrerer GFZ-Sektionen sowie Forschende aus dem Institut für Geodäsie und Geoinformation der Universität Bonn und aus dem Forschungszentrum Jülich.
Unterschiede in der Auswertung der Daten
Für die Auswertung der Daten – sowohl was die Bestimmung des Schwerefeldes betrifft als auch daraus abgeleitet die Bestimmung der gespeicherten Wassermassen – muss eine ganze Reihe von störenden Effekten herausgerechnet werden. So sind die 300 mal 300 Kilometer messenden Datenflächen naturgemäß nicht scharf abgegrenzt, denn der Einfluss der Schwerkraft auf die Satelliten lässt sich nicht auf klar definierte Segmente der Erde zurückführen wie etwa bei einem Satellitenbild. Das zeigt sich etwa darin, dass der Schwerefeldeffekt abschmelzender Alpengletscher auch die Messungen für die Wasservorkommen im Alpenvorland überlagert (der Effekt wird „Leakage“ genannt): Wenn die Gletschermassen schwinden, sieht es für die Satelliten so aus, als ob auch weiter entfernte Wassermassen verschwunden seien. Außerdem ändert sich das Schwerefeld der Erde auch, ohne dass sich akut Wassermassen verändern. Ein solcher Effekt ist beispielsweise, dass sich in manchen Regionen nach dem Verschwinden der eiszeitlichen Gletscher heute noch die Erdkruste hebt.
Je nach Prozessierungsmethoden und korrigierenden Faktoren ergeben sich leicht unterschiedliche Werte für das Schwerefeld und dessen Variationen. Die Forschenden nutzten für ihre Studie vier Datenreihen: die GFZ-eigene, eine aus mehreren Datenreihen berechnete Kombinationslösung der Uni Bern (COST-G genannt), eine der Universitäten Graz und Bonn (ITSG/UB) und eine vom Jet Propulsion Laboratory der NASA (JPL Mascons). Zusätzlich nutzten sie Niederschlagsdaten und Computermodelle des FZ Jülich, die die Veränderung des Gesamtwasserspeichers simulierten.
Ergebnisse im Vergleich
Über weite Teile des Beobachtungszeitraums, insbesondere in den Jahren zwischen 2004 und 2015, stimmen die Ergebnisse aller vier Datensätze für die Schwerefeldänderungen gut überein. Unterschiede gab es vor allem zu Beginn und am Ende der Zeitreihen. Das Jahr 2002 war von extremen Niederschlägen insbesondere in Süd- und Ostdeutschland geprägt. Die verheerenden Hochwasser an der Donau und der Elbe ereigneten sich im August 2002. Und am Ende des Untersuchungszeitraums stehen die trockenen Jahre seit 2018. In beiden Extremfällen zeigte vor allem die NASA-JPL-Datenreihe größere Ausschläge nach oben und unten. Auch die jahreszeitlichen Unterschiede zwischen dem Maximum der Wasserspeicherung im Winter und dem Minimum im Sommer fallen bei der NASA-JPL-Reihe am stärksten aus.
Vorsicht bei der Interpretation geboten
Die Forschenden mahnen daher zu Vorsicht bei der Interpretation von Auswertungen, die lediglich auf einer Datenreihe beruhen, und weisen insbesondere auf besondere Empfindlichkeit für Flut- oder Dürre-Extreme bei der NASA-JPL-Mascons-Reihe hin. Sie vermuten die Ursache in unterschiedlichen Prozessierungsverfahren und bei der Korrektur des „Leakage“-Effekts.
Diskussion früherer Publikation: 0,76 versus 2,5 Kubikkilometer durchschnittlicher Wasserverlust pro Jahr in Deutschland
Es waren jedoch ausgerechnet diese Datenreihe und Schlussfolgerungen daraus, die im vergangenen Jahr zu einem großen Medienecho geführt hatten: Deutschlands Gesamtwasserspeicher verliere fast 2,5 Kubikkilometer Wasser pro Jahr, hatte es geheißen, besonders betroffen sei der Südwesten. Der Vergleich mit anderen Auswerteverfahren zeigt nun: Es sind vermutlich nur 0,76 Kubikkilometer, also knapp ein Drittel des über die JPL-Mascons-Reihe bezifferten Verlusts. Und besonders in der Nähe der Alpen müsse man den Schwerefeld-Effekt abschmelzender Gletscher (Leakage) zusätzlich in Betracht ziehen.
Schlussfolgerung und Notwendigkeit zur Verlängerung der Datenreihen
Trotz der niedrigeren Werte gibt der Leitautor der Studie, Andreas Güntner, zu bedenken: „Die Beobachtungen aus allen Datensätzen zeigen, dass ein Jahr mit höheren Niederschlägen wie 2021 nicht ausreicht, um die Defizite der Wasserspeicherung, die sich über den längeren Zeitraum angesammelt haben, wieder auszugleichen.“
Auch bei Prognosen raten die Forschenden zur Vorsicht. Mitautorin Helena Gerdener von der Universität Bonn mahnt: „Da es in den zwanzig Jahren der bisherigen Datenerhebung einige auffällige Extreme gegeben hat, ist eine Aussage zu einem langfristigen Trend nur schwer zu treffen.“
Umso wichtiger sei die Kontinuität der Messreihe, schreiben die Forschenden. Eine Fortsetzung der GRACE- und GRACE-FO-Missionen wird bereits geplant und soll 2028 ins All starten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Güntner
Arbeitsgruppenleitung in Sektion 4.4 Hydrologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1559
E-Mail: andreas.guentner@gfz-potsdam.de
Originalpublikation:
Güntner, A., Gerdener, H., Boergens, E., Kusche, J., Kollet, S., Dobslaw, H., Hartick, C., Sharifi, E., Flechtner, F. (2023): Veränderungen der Wasserspeicherung in Deutschland seit 2002 aus Beobachtungen der Satellitengravimetrie. Hydrologie & Wasserbewirtschaftung, 67, (2), 74-89. DOI: 10.5675/HyWa_2023.2_1
https://www.hywa-online.de/?p=6089
Kälte fördert gesundes Altern
Eva Schissler Kommunikation und Marketing
Universität zu Köln
Die Senkung der Körpertemperatur ist einer der wirksamsten Mechanismen zur Verlängerung der Lebenserwartung von Tieren. Nun hat eine Arbeitsgruppe des Alternsforschungs-Exzellenzclusters CECAD der Universität zu Köln herausgefunden, wie das funktionieren könnte. Die Forschenden zeigten, dass Kälte die typische Verklumpung von Proteinen bei zwei alterstypischen neurodegenerativen Erkrankungen verhindert / Veröffentlichung in „Nature Aging“
Kälte aktiviert einen zellulären Reinigungsmechanismus, der schadhafte, für verschiedene altersbedingte Erkrankungen verantwortliche Proteinaggregationen abbaut. Dass die Lebenserwartung deutlich steigt, wenn die Körpertemperatur abgesenkt wird, zeigten bereits in den vergangenen Jahren Untersuchungen an verschiedensten Modellorganismen. Wie das allerdings genau funktioniert, ist in vielen Bereichen noch weitgehend unklar. Ein Team des Alternsforschungs-Exzellenzclusters CECAD der Universität zu Köln entschlüsselte nun einen Mechanismus, der ein Erklärmodell dafür liefert. Die Studie ist unter dem Titel „Cold temperature extends longevity and prevents disease-related protein aggregation through PA28γ-induced proteasomes“ in der Fachzeitschrift Nature Aging erschienen.
Professor Dr. David Vilchez und seine Arbeitsgruppe nutzten dafür einen wirbellosen Modellorganismus, den Fadenwurm Caenorhabditis elegans, und kultivierten menschliche Zellen. Beide trugen die Gene für zwei neurodegenerative Erkrankungen in sich, die typischerweise im Alter auftreten: die Amyotrophe Lateralsklerose (ALS) und die Huntington-Krankheit. Beide Krankheitsbilder zeichnen sich durch Ansammlungen von schadhaften und schädlichen Eiweißablagerungen aus, die sogenannten pathologischen Proteinaggregationen. Kälte führte in beiden Modellorganismen dazu, dass die zur Verklumpung neigenden Proteine aktiv entfernt wurden und die für ALS und Huntington pathologische Proteinaggregation verhindert wurde.
Im Detail untersuchte das Team, ob Kälte die Proteasomaktivität beeinflusst. Dieser zelluläre Mechanismus beseitigt beschädigte Proteine in den Zellen. Die Untersuchungen zeigten, dass der Proteasomaktivator PA28γ/PSME3 die altersbedingten Defizite sowohl im Fadenwurms als auch in menschlichen Zellen abschwächt. In beiden Fällen war es möglich, die Proteasomaktivität durch eine moderate Temperaturabsenkung zu aktivieren. „Zusammengenommen zeigen die Ergebnisse eine evolutionär konservierte Wirkung von Kälte bei der Proteasomregulierung mit therapeutischen Ansatzpunkten für das Altern und altersbedingte Krankheiten“, sagt Professor Vilchez.
Das Altern ist ein Hauptrisikofaktor für verschiedene neurodegenerative Erkrankungen, die mit der Proteinaggregation verbunden sind, einschließlich Alzheimer, Parkinson, Huntington und ALS. Vilchez fügt hinzu: „Wir glauben, dass sich diese Ergebnisse auch auf weitere alterstypische neurodegenerative Erkrankungen übertragen lassen, wie auch auf andere Tierarten.“ Eine zentrale Erkenntnis der Forschenden ist es, dass sich die Aktivität des Proteasomaktivators auch durch genetische Überexpression erhöhen lasst. So können krankheitsverursachende Proteine selbst bei normaler Temperatur von 37 Grad Celsius eliminiert werden. Daraus ergeben sich mögliche Ansatzpunkte für therapeutische Eingriffe beim Altern und altersbedingten Erkrankungen.
Es ist seit langem bekannt, dass extrem niedrige Temperaturen zwar für den Organismus schädlich sein können, eine moderate Senkung der Körpertemperatur jedoch sehr positive Auswirkungen haben kann. So verlängert eine niedrigere Körpertemperatur die Langlebigkeit sowohl bei sogenannten wechselwarmen Tieren, deren Körpertemperatur mit der Umgebungstemperatur schwankt, also etwa bei Würmern, Fliegen oder Fischen. Aber dasselbe Phänomen tritt auch bei gleichwarmen Tieren wie Säugetieren auf, die ihre Körpertemperatur in einem engen Temperaturbereich halten können, egal wie kalt oder warm es in ihrer Umgebung ist. Zum Beispiel lebt der Fadenwurm viel länger, wenn er von der Standardtemperatur von 20 Grad Celsius auf eine kältere Temperatur von 15 Grad Celsius umgestellt wird. Und bei Mäusen verlängert eine leichte Abnahme der Körpertemperatur um lediglich 0,5 Grad Celsius ihre Lebensdauer erheblich. Das stützt die Annahme, dass die Temperatursenkung bei der Langlebigkeit eine zentrale Rolle im Tierreich spielt und ein sehr gut konservierter Mechanismus ist.
Selbst beim Menschen wird von einer Korrelation zwischen Körpertemperatur und Lebensdauer berichtet. Die normale menschliche Körpertemperatur liegt zwischen 36,5 und 37 Grad Celsius. Während ein akutes Absinken der Körpertemperatur unter 35 Grad Celsius zu Unterkühlung führt, schwankt die Körpertemperatur des Menschen tagsüber leicht und erreicht im Schlaf sogar kühle 36 Grad Celsius. Interessanterweise berichtete eine frühere Studie, dass die menschliche Körpertemperatur seit der industriellen Revolution kontinuierlich um 0,03 Grad Celsius pro Jahrzehnt gesunken ist, was auf einen möglichen Zusammenhang mit der fortschreitenden Zunahme der menschlichen Lebenserwartung in den letzten 160 Jahren hindeutet.
Die Studie wurde am Alternsforschungs-Exzellenzcluster CECAD der Universität zu Köln durchgeführt.
Wissenschaftliche Ansprechpartner:
Professor Dr. David Vilchez
CECAD Arbeitsgruppenleiter
+49 221 478 84172
dvilchez@uni-koeln.de
Originalpublikation:
Hyun Ju Lee, Hafiza Alirzayeva, Seda Koyuncu, Amirabbas Khodakarami, Alireza Noormohammadi, David Vilchez
Cold temperature extends longevity and prevents disease-related protein aggregation through PA28γ-induced proteasomes, Nature Aging, 3. April 2023
https://www.nature.com/articles/s43587-023-00383-4
Am Ende der Trockenzeit: CO2-Pulse über Australien
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Am Ende der Trockenzeit kommt es über dem australischen Kontinent zu jährlich wiederkehrenden CO2-Pulsen in der Atmosphäre. Das hat ein internationales Forschungsteam unter der Leitung des Umweltphysikers Prof. Dr. André Butz von der Universität Heidelberg herausgefunden. Um die Kohlenstoffflüsse über Australien zu untersuchen, analysierten die Forscherinnen und Forscher atmosphärische CO2-Messungen. Ihre Analysen zeigen, dass besonders viel CO2 freigesetzt wird, wenn starke Regenfälle auf ausgetrocknete Böden treffen und dort Mikroorganismen aktiviert werden.
Heidelberger Umweltphysiker untersuchen trockene Regionen und ihren Einfluss auf Variationen des globalen Kohlenstoffkreislaufs
Am Ende der Trockenzeit kommt es über dem australischen Kontinent zu jährlich wiederkehrenden CO2-Pulsen in der Atmosphäre. Das hat ein internationales Forschungsteam unter der Leitung des Umweltphysikers Prof. Dr. André Butz von der Universität Heidelberg herausgefunden. Um die Kohlenstoffflüsse über Australien zu untersuchen, analysierten die Forscherinnen und Forscher atmosphärische CO2-Messungen. Ihre Analysen zeigen, dass besonders viel CO2 freigesetzt wird, wenn starke Regenfälle auf ausgetrocknete Böden treffen und dort Mikroorganismen aktiviert werden. Die Erkenntnisse deuten darauf hin, dass trockene Regionen einen größeren Einfluss auf die Variationen des globalen Kohlenstoffkreislaufs haben als bisher angenommen.
Der australische Kontinent wird von trockenen Ökosystemen und stark schwankenden Niederschlagsverhältnissen dominiert. Zumeist zum Ende der Trockenzeit – nach dem Einsetzen der ersten Regenfälle – kommt es über Australien zu einem sprunghaften Anstieg der CO2-Emissionen. „Auf lokaler Ebene ist dieser Effekt bekannt, er wurde aber noch nie auf kontinentaler Ebene beobachtet“, sagt Eva-Marie Metz, Doktorandin in der Arbeitsgruppe von Prof. Butz am Institut für Umweltphysik der Universität Heidelberg. Ausgewertet wurden nun Daten zu atmosphärischen CO2-Konzentrationen, die mit dem Greenhouse Gases Observing Satellite (GOSAT) gewonnen wurden. Mithilfe der Satellitendaten aus dem Zeitraum 2009 bis 2018 konnten die Wissenschaftlerinnen und Wissenschaftler aufdecken, dass das saisonale Muster der CO2-Konzentrationen über Australien viel dynamischer ist als bisher angenommen.
Welche Mechanismen zu diesen Variationen führen, wurde bislang aufgrund fehlender Bodenmessdaten nicht entschlüsselt. Das Forschungsteam speiste nun die GOSAT-Satellitendaten in ein atmosphärisches Inversionsmodell zur Schätzung von bodennahen CO2-Flüssen ein. Dabei wurde den Forscherinnen und Forschern klar, dass es einen unentdeckten Mechanismus der CO2-Abgabe in australischen Landökosystemen geben muss, so Dr. Sanam Vardag, die mit ihrer Gruppe ebenfalls am Institut für Umweltphysik der Universität Heidelberg forscht. Die weiteren Untersuchungen ergaben, dass die Konzentrationen an CO2 immer dann ansteigen, wenn trockene Böden durch starken Regenfall wieder durchfeuchtet werden. Dabei kommt es nach den Worten von Dr. Vardag zum sogenannten „Birch Effect“. Bodenmikroben, die bei Trockenheit inaktiv sind, werden durch die Feuchtigkeit reaktiviert und vermehren sich, wodurch der Boden „atmet“ und CO2 freisetzt. Da die pflanzliche Photosynthese erst später einsetzt und somit am Ende der Trockenzeit kein Kohlendioxid gebunden wird, kommt es zu dem sprunghaften saisonalen CO2-Anstieg, den das internationale Wissenschaftlerteam auf kontinentaler Ebene ausmachen konnte.
Mit ihren Untersuchungen haben die Wissenschaftlerinnen und Wissenschaftler eine Erklärung geliefert, wie die Schwankungen in den Kohlenstoffflüssen vom Land in die Atmosphäre zustande kommen. Diese Forschungsergebnisse sind nach den Worten von Prof. Butz deshalb bedeutsam, weil sie darauf hindeuten, dass trockene Regionen – wie sie in Australien vorherrschen – einen größeren Einfluss auf die Variationen des globalen Kohlenstoffkreislaufs haben als bisher angenommen. „Unsere Erkenntnisse, die sich zum ersten Mal auf einen gesamten Kontinent beziehen, können in Klimamodelle einfließen und so zu einem besseren Verständnis der globalen Klima-Kohlenstoff-Rückkopplungen beitragen“, erklärt der Heidelberger Wissenschaftler.
Die Forschungsergebnisse wurden in der Fachzeitschrift „Science“ veröffentlicht. An den Forschungsarbeiten waren neben den Heidelberger Umweltphysikerinnen und Umweltphysikern auch Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena und des Max-Planck-Instituts für Meteorologie in Hamburg sowie aus Australien, China, Frankreich, Großbritannien, Japan, Kanada und den USA beteiligt. Gefördert wurden die Forschungsarbeiten unter anderem von der Deutschen Forschungsgemeinschaft.
Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. André Butz
Institut für Umweltphysik
Telefon (06221) 54-6310
andre.butz@uni-heidelberg.de
Originalpublikation:
E.-M. Metz, S. N. Vardag, S. Basu, M. Jung, B. Ahrens, T. El-Madany, S. Sitch, V. K. Arora, P. R. Briggs, P. Friedlingstein, D. S. Goll, A. K. Jain, E. Kato, D. Lombardozzi, J. E. M. S. Nabel, B. Poulter, R. Séférian, H. Tian, A. Wiltshire, W. Yuan, X. Yue, S. Zaehle, N. M. Deutscher, D. W. T. Griffith, A. Butz: Soil respiration-driven CO2 pulses dominate Australia’s flux variability. Science (31 March 2023), doi: 10.1126/science.add7833
Weitere Informationen:
http://www.iup.uni-heidelberg.de/de/institut/forschung/groups/ghg/de – Website von André Butz
http://www.iup.uni-heidelberg.de/index.php/de/research/GHGSim – Website von Sanam Vardag
Girls‘ Day 2023: Gründerin, Ingenieurin, Polizeikommissarin
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Zum Girls‘ Day am 27. April 2023 öffnet die Hochschule für Wirtschaft und Recht Berlin ihre Türen für künftige Ingenieurinnen, Polizeikommissarinnen und Unternehmerinnen.
Berlin, 31. März 2023 – Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) lädt zum bundesweiten Mädchen-Zukunftstag am 27. April 2023 Schülerinnen von der 7. bis zur 10. Klasse zu spannenden Workshops und einer Campustour ein.
Zwischen 9.00–15.00 Uhr stehen am Campus Lichtenberg (Alt-Friedrichsfelde 60, 10315 Berlin) zur Auswahl:
• Workshop „Ab in eine nachhaltige Zukunft – mit Maschinenbau zur Klimaretterin“
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…
• Workshop „Bauingenieurin werden – Brücken bauen und mehr“
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…
• Workshops „Kriminalistik und Kriminaltechnik“ und „Polizei- und Kriminalpsychologie“ (Mindestalter der Teilnehmerinnen: 12 Jahre)
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…
Außerdem gibt es von 8.45–13.00 Uhr im Gründungszentrum der HWR Berlin, dem Startup Incubator Berlin, (Rohrdamm 88, 13629 Berlin) Ideen und Inspirationen für zukünftige Unternehmerinnen, die vielleicht mal eine eigene Firma gründen wollen.
• Workshop „Zukunft eigenes Unternehmen: Ideen und Inspirationen für zukünftige Female Founders
https://www.girls-day.de/@/Show/hochschule-fuer-wirtschaft-und-recht-berlin.2/be…
Eingebunden sind die Workshops in ein buntes Rahmenprogramm, um die Hochschule für Wirtschaft und Recht Berlin bzw. den Startup Incubator Berlin (SIB) kennenzulernen, Fragen zum Studieren, den Studienfächern, zur Unternehmensgründung und zur Hochschule zu stellen.
Die Teilnahme ist kostenlos, eine vorherige Anmeldung erforderlich. Die Teilnehmerinnenzahl ist begrenzt.
Alle Informationen und Anmeldung zum Girls‘ Day an der HWR Berlin
Die Online-Anmeldung erfolgt über das Girls’Day Radar unter dem Link www.girls-day.de oder über den direkten Link des jeweiligen Workshops auf der Veranstaltungsseite der HWR Berlin:
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/446-gir…
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Wissenschaftliche Ansprechpartner:
Birte Skrzypczak
E-Mail: frauenbuero@hwr-berlin.de
Fledermäuse in gestörten Ökosystemen sind häufiger mit Coronaviren infiziert
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Tiere aus gestressten Ökosystemen sind stärker mit Coronaviren belastet, was die Übertragungsmöglichkeiten auf den Menschen verstärkt.
Bereits dreimal haben Coronaviren aus wilden Fledermauspopulationen in den vergangenen 20 Jahren zu großen Krankheitsausbrüchen beim Menschen geführt: SARS im Jahr 2002, MERS im Jahr 2012 und COVID-19. Letzterer zog eine globale Pandemie nach sich, von deren Folgen sich die Menschheit noch immer nicht gänzlich erholt hat. Das hat auch für eine erhöhte Aufmerksamkeit für Infektionskrankheiten gesorgt, deren Ursprünge im Tierreich liegen – sogenannte Zoonosen.
Eines ist inzwischen klar: Die Wahrscheinlichkeit für sogenannte Spillover-Ereignisse, bei denen Krankheitserreger von Tieren auf den Menschen überspringen, wird umso größer, je stärker der Mensch der Wildnis auf den Pelz rückt. Dabei spielen verschiedene Faktoren eine Rolle. Zum Beispiel, wie stark menschliche Invasionen in intakte Ökosysteme die Kontaktraten zwischen Menschen und potenziell infizierten Arten erhöhen oder wie leicht ein Virus sich an einen neuen Wirt anpassen kann.
Dr. Vera Warmuth und Prof. Dr. Dirk Metzler aus dem Fachbereich Evolutionsgenetik der LMU haben nun gemeinsam mit der Fledermausökologin Dr. Veronica Zamora-Gutierrez am CIIDIR Durango in Mexiko einen weiteren Zusammenhang nachgewiesen, der dabei relevant ist: Die Studie konnte klar nachweisen, dass Fledermäuse in (vom Menschen) gestörten Habitaten häufiger mit Coronaviren infiziert sind als solche in ungestörten Habitaten.
Dafür haben die Forschenden mittels einer Metaanalyse Informationen zu Infektionsraten bei Fledermäusen aus aller Welt zusammengetragen und statistisch analysiert. Dabei sind Daten von über 26.000 Fledermäusen aus über 300 Arten in die Auswertung eingeflossen und mit Daten zur Landbedeckung und Landnutzung in Verbindung gebracht worden.
„Viele Formen der Landnutzung bedeuten einen Verlust von wichtigen Ressourcen für Wildtiere; im Falle von Fledermäusen etwa Jagd- oder Schlafplätze“, sagt Vera Warmuth.
Dass ein solcher Ressourcenverlust für Wildtiere zu chronischem Stress führen kann, wurde bereits mehrfach gezeigt. Wenn Fledermäuse aufgrund menschlichen Eingreifens keine Schlafplätze oder weniger Nahrung fänden, könne der damit verbundene chronische Stress zu einer Abschwächung der Immunabwehr führen.
„Die negativen Auswirkungen von chronischem Stress auf das Immunsystem von Säugetieren sind gut bekannt. Unsere Ergebnisse zeigen ganz klar, dass Tiere in gestörten Ökosystemen häufiger infiziert sind. Je stärker ein Gebiet durch den Menschen beeinflusst ist, desto mehr Coronaviren finden sich in den dort lebenden Fledermäusen“, meint Warmuth.
Besonders stark stechen dabei drei Formen der Landnutzung heraus: Landwirtschaft, Abholzung und der Abbau von Bodenschätzen. Sie stellen den Autoren der Studie zufolge die größten Stressfaktoren für die Fledermauspopulationen dar. Durch sie werden Waldhabitate zerstört oder fragmentiert, die Fledermäuse finden wegen des Anbaus von Monokulturen und dem Einsatz von Pestiziden weniger Futter in Form von Insekten und verlieren selbst ihre unterirdischen Schlafplätze, wenn Bergbau betrieben wird.
Ökologischer Stress wirkt sich also signifikant auf die Häufigkeit von Coronaviren in einer Tiergruppe aus, der eine große Bedeutung als Virus-Reservoir in der Natur zukommt. „Wenn wir das Ausbreitungsrisiko möglicher Zoonose-Erreger vorhersagen und eingrenzen wollen, ist es nach unseren Erkenntnissen notwendig, auch ihre Häufigkeit in Wildtierpopulationen zu überwachen. Insbesondere wenn der menschliche Druck auf Ökosysteme weiter steigt“, meint Metzler. „Die Modelle weisen auch auf eine Handvoll Regionen, insbesondere im Osten der Vereinigten Staaten und in Indien, hin, in denen verstärkte Überwachungsmaßnahmen besonders wichtig sein könnten.“
Wissenschaftliche Ansprechpartner:
Dr. Vera Warmuth
Department Biologie II
Fachbereich Evolutionsbiologie
Tel: +49 (0)89 / 2180-74142
Email: warmuth@bio.lmu.de
Originalpublikation:
Vera M. Warmuth, Dirk Metzler, Veronica Zamora-Gutierrez; Human disturbance increases coronavirus prevalence in bats. Science Advances, 2023
Wie sich Pflanzen an Stickstoffmangel anpassen
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Stickstoff kann als Dünger Erträge steigern. Ein Zuviel hat aber auch negative Auswirkungen: etwa durch Belastungen des Grundwassers, einen hohen Energieaufwand bei der Dünger-Produktion und die Erzeugung klimarelevanter Gase. Die Wissenschaft sucht deshalb nach Wegen, wie Kulturpflanzen mit weniger Stickstoff auskommen. Forschende der Universität Bonn haben nun Genvarianten des Nitratsensors NPF2.12 entdeckt, die bei niedrigen Stickstoffgehalten im Boden eine Signalkette auslösen. Dadurch wird ein stärkeres Wurzelwachstum induziert, und die Pflanzen verbessern die Stickstoffverwertung. Die Studie wurde vorab online in “New Phytologist” publiziert. Nun ist die finale Fassung erschienen.
“Wir haben eine große Anzahl von Weizen- und Gerstengenotypen unter verschiedenen Stickstoffversorgungsbedingungen untersucht und ihre Wurzelarchitektur und die Anreicherung von Stickstoff in den Pflanzen analysiert”, sagt Erstautor Md. Nurealam Siddiqui von der Pflanzenzüchtung am Institut für Nutzpflanzenwissenschaften und Ressourcenschutz (INRES) der Universität Bonn. Die Forschenden untersuchten insgesamt mehr als 220 unterschiedliche Weizen- und Gerstensorten aus dem letzten halben Jahrhundert der Pflanzenzüchtung. „Die untersuchten Weizensorten wurden so ausgewählt, dass sie die Züchtungsgeschichte der letzten 60 Jahre abdecken“, erläutert Prof. Dr. Jens Léon von der INRES-Pflanzenzüchtung.
Auf dem Campus Klein-Altendorf der Universität Bonn untersuchten die Forschenden diese sehr unterschiedlichen Sorten jeweils auf Versuchsflächen mit hohen Stickstoffgehalten und zum Vergleich auf Flächen mit geringer Stickstoffapplikation. Anschließend analysierte das Team unter anderem jeweils die Wurzelmerkmale sowie die Stickstoffgehalte der Blätter und Körner und führte genomweite genetische Analysen durch, um Korrelationen zwischen DNA-Sequenzen und den entsprechenden Merkmalen zu finden, erklärt Prof. Léon weiter.
Mehr Wurzeln holen mehr Stickstoff aus dem Boden
Bei der Auswertung stießen die Wissenschaftlerinnen und Wissenschaftler auf NPF2.12. Bestimmte Varianten dieses Gens führten dazu, dass bei schlechter Stickstoffversorgung im Boden die Pflanzen größere Wurzelsysteme ausbildeten. “Wahrscheinlich fungiert das Gen beziehungsweise das von ihm kodierte Protein als Sensor, der bei geringen Stickstoffgehalten im Boden abgeschaltet werden muss, um indirekt über eine Signalkette den Botenstoff Stickstoffmonoxid zu erhöhen, der wiederum zu vermehrtem Wurzelwachstum führt und dadurch die Stickstoffverwertung verbessert”, sagt Korrespondenzautor Dr. Agim Ballvora von der INRES-Pflanzenzüchtung.
“Unter niedrigen Stickstoffbedingungen und in Anwesenheit bestimmter Varianten des NPF2.12-Gens ist ein erhöhter Stickstoffgehalt in Blättern und Körnern feststellbar”, sagt Ballvora, der auch mit dem Exzellenzcluster PhenoRob der Universität Bonn zusammenarbeitet. Die Erträge dieser Sorten nehmen somit auch unter widrigen Bedingungen zu, ergänzt Siddiqui.
Varianten des Nitratsensors NPF2.12 helfen bei der Stickstoffverwertung
Dass NPF2.12 dafür tatsächlich verantwortlich ist, wiesen die Forschenden im Labor und Gewächshaus nach: Weizenpflanzen mit einem Defekt im NPF2.12 Gen, wurden analysiert. Bei schlechter Stickstoffversorgung verhielten sich entsprechende npf2.12-Linien wie Sorten, die von Haus aus über die hilfreiche Genvariante verfügen. “Diese Ergebnisse zeigen, dass NPF2.12 ein Negativregulator ist, dessen verringerte Expression in entsprechenden Sorten durch einen ausgeklügelten Mechanismus zu mehr Wurzelwachstum und höheren Stickstoff-Gehalten im Spross führt”, erklärt Prof. Dr. Gabriel Schaaf, Mitglied des Exzellenzclusters PhenoRob aus der INRES-Pflanzenernährung.
Die Studie ist in der Grundlagenforschung angesiedelt, aber auch wegweisend für die Pflanzenzüchtung. “Ein besseres Verständnis der genetischen und molekularen Funktion der Stickstoff-Sensorik wird die Züchtung von Sorten mit verbesserter Stickstoff-Nutzungseffizienz beschleunigen”, blickt Ballvora in die Zukunft. Hierfür müssten aber die einzelnen Schritte der Signalkette des Sensors NPF2.12, die bei Stickstoffmangel zu einem stärkeren Wurzelwachstum führen, noch besser verstanden werden.
Beteiligte Institutionen und Förderung:
An der Studie waren die Pflanzenzüchtung und die Pflanzenernährung am Institut für Nutzpflanzenwissenschaften und Ressourcenschutz (INRES) sowie der Campus Klein-Altendorf der Universität Bonn, darüber hinaus das Institut für Quantitative Genetik und Genomik der Pflanzen und der Exzellenzcluster Pflanzenwissenschaften CEPLAS der Universität Düsseldorf beteiligt. Das Bundesministerium für Bildung und Forschung (BMBF), die Deutsche Forschungsgemeinschaft (DFG) und der Deutsche Akademische Austauschdienst (DAAD) förderten das Projekt.
Wissenschaftliche Ansprechpartner:
Dr. Agim Ballvora
Pflanzenzüchtung
Institut für Nutzpflanzenwissenschaften und Ressourcenschutz
Universität Bonn
Tel. +49-228-737400
E-Mail: ballvora@uni-bonn.de
Originalpublikation:
Md. Nurealam Siddiqui, Kailash Pandey, Suzan Kumer Bhadhury, Bahman Sadeqi, Michael Schneider, Miguel Sanchez-Garcia, Benjamin Stich, Gabriel Schaaf, Jens Léon, and Agim Ballvora: Convergently selected NPF2.12 coordinates root growth and nitrogen use efficiency in wheat and barley, New Phytologist, DOI: https://doi.org/10.1111/nph.18820
Arzneimittelknappheit: Diese Faktoren sorgen für Lieferengpässe in der Pharmaindustrie
Lisa Wolf PR Management
Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung
Prof. Dr. Kai Hoberg (KLU) hat mit Prof. Dr. David Francas (Hochschule Worms) und Stephan Mohr (Frankfurt School of Finance and Management) in einer Studie untersucht, welche Rahmenbedingungen die Arzneimittelverfügbarkeit in Deutschland beeinflussen. Eine Erkenntnis: Wettbewerb unter vielen Generika-Produzenten sorgt nicht etwa für ein verteiltes Risiko und mehr Verlässlichkeit, sondern macht die Lieferketten vielmehr anfälliger.
Seit vielen Monaten schlagen Apotheken, Mediziner und Betroffene Alarm: Diverse Kinderarzneimittel wie Fiebersäfte sind knapp, die Versorgungslage ist angespannt. Während die Gesundheitspolitik Gesetze auf den Weg bringen will, um Abhilfe zu schaffen, hat sich die KLU seit Anfang 2021 mit den Hintergründen der Arzneimittelknappheit beschäftigt und nun ihre Forschungsergebnisse veröffentlicht.
Prof. Dr. Kai Hoberg, Professor für Supply Chain und Operations Strategy an der Kühne Logistics University (KLU), und seine Co-Autoren haben die Studie „On the Drivers of Drug Shortages: Empirical Evidence from Germany“ erstellt. Damit wollten die Wissenschaftler die Engpasssituationen bei Arzneien in Deutschland – dem viertgrößten Pharmamarkt nach den USA, China und Japan – ergründen.
Dafür griffen sie zum einen auf Daten des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) zurück, das entsprechende Engpässe dokumentiert. Als Grundlage dienten Daten aus dem Zeitraum von 2017 bis 2019 – bewusst ohne die Pandemiejahre als Sondereinfluss. Damit und mit weiteren Quellen wie Abverkaufs- und Daten zur Patentsituation und zu Reportingpflichten in Deutschland erstellten sie ein statistisches Modell, um Häufungspunkte identifizieren zu können.
Konkurrenz, Darreichungsform & Meldefristen als kritische Indikatoren
Patentierte Produkte, die nur von einem Hersteller angefertigt werden, sind demnach seltener von Engpässen betroffen als Arzneimittel, die den Patentschutz verloren haben und als Generika von vielen Anbietern hergestellt werden. „Sobald eine Konkurrenzsituation herrscht, sind einzelne Unternehmen zu stärkerer Effizienz gezwungen. Bereits kleine Störungen führen dann schneller zu Engpässen, weil weniger Kapazitäten und Bestände als Reserve existieren“, ordnet Hoberg dieses Ergebnis ein.
Eine weitere Erkenntnis der Autoren: Die Anfälligkeit für Lieferschwierigkeiten korreliert mit der Darreichungsform der jeweiligen Arzneimittel, da einzelne Applikationsmethoden aufwändiger und damit anfälliger sind. Konkret erwies sich der Produktionsprozess von gespritzten Medikamenten am komplexesten. Entsprechend ist hier die Gefahr für Verunreinigungen oder andere Störungen, die zu Engpässen führen können, höher. Ebenfalls sind Arzneimittel anfällig, deren Nachfrage variabel ist.
Weiterhin wurde analysiert, wann Pharmaunternehmen, die hierzulande verpflichtet sind, Engpässe bei kritischen Medikamenten dem BfArM zu melden, tatsächlich ihrer Pflicht nachgehen. Überraschenderweise wurden Engpässe oft erst sechs bis acht Wochen gemeldet, nachdem der Markt den Engpass bereits erreicht hat. „Von dieser Information waren alle Beteiligten überrascht“, berichtet Hoberg, der eine striktere Meldefristpolitik für nötig hält.
Frühwarnsysteme und mehr Transparenz als Lösungsansätze
Häufig wird in diesem Zusammenhang die Frage diskutiert, ob höhere Preise Engpässe bei Arzneimitteln vermeiden könnten – eine Frage, die Hoberg klar verneint: „Diese Strategie bedeutet nur eine Umverteilung des Problems: Man erhöht damit die Prioritäten der Unternehmen auf den deutschen Markt, aber dann fehlt das Arzneimittel in einem anderen europäischen Land.“ Vielmehr sieht Hoberg einen erfolgversprechenden Ansatz in einer differenzierteren Incentivierung, die mit Resilienz-Maßnahmen als Auflage verknüpft ist, die die Produktion wiederum langfristig garantieren und Risiken reduzieren.
Als nächste nötige, ganz praktische Schritte sehen die Wissenschaftler die Etablierung eines Frühwarnsystems sowie die Erhöhung der Transparenz entlang der gesamten Lieferkette, die bislang lediglich bei den Herstellern liegt. „Transparenz alleine löst das Problem der Engpässe zwar noch nicht, aber sie ist nötig, um auf dieser Basis adäquate Resilienz-Maßnahmen für Unternehmen zu entwickeln“, resümiert Hoberg.
Originalpublikation:
Francas, D., Mohr, S. and Hoberg, K. (2023), „On the drivers of drug shortages: empirical evidence from Germany“, International Journal of Operations & Production Management, Vol. ahead-of-print No. ahead-of-print. https://doi.org/10.1108/IJOPM-09-2022-0581
Effizienzschub für die Geothermie
Ralf Kastner Hochschulkommunikation
Hochschule München
Forschende an der Hochschule München entwickeln ein Antriebssystem für Pumpen, die selbst unter extremen Bedienungen in mehr als tausend Metern Tiefe effizient und zuverlässig arbeiten können – ein wichtiger Baustein für die hydrothermale Tiefengeothermie in Bayern.
„Wenn die Energiewende gelingen soll, und wir in Zukunft zu einem bezahlbaren Preis unser Wohnzimmer heizen wollen, dann müssen wir die Effizienz regenerativer Energiegewinnung steigern – das gilt für Solaranlagen und Windräder, aber auch – und vor allem – für geothermische Kraftwerke“, betont Prof. Christoph Hackl, Leiter des Labors für Mechatronische und Erneuerbare Energiesysteme (LMRES), an der Hochschule München. Im Projekt „Prototypenbau eines neuartigen Pumpenmotors“ arbeitet sein Team an einer effizienten Förderung von heißem Wasser aus tiefen Gesteinsschichten: „Die Geothermie hat den Vorteil, dass sie jederzeit und unabhängig vom Wetter zur Verfügung steht. Daher ist sie eine wichtige Ergänzung zu Wind- und Solarenergie.“
Geothermie sehr gut nutzbar in Südbayern
Vor allem in Südbayern sind die Voraussetzungen für eine Nutzung der Erdwärme ideal: Im Molassebecken, wo sich Sedimente abgelagert haben, als die Alpen zu einem Gebirge emporwuchsen, gibt es zahlreiche wasserführende Gesteinsschichten, die durch die Hitze aus dem Erdinneren erwärmt werden. Mit Hilfe von Tiefbohrungen lassen sich diese hydrothermalen Wässer erschließen. Berechnungen der Geothermie-Allianz Bayern gehen davon aus, dass beispielsweise in der Metropolregion München bis zu 67 Prozent des Wärmebedarfs durch hydrothermale Tiefengeothermie gedeckt werden könnten.
Die Technik dafür ist vorhanden: 29 Tiefen-Geothermie-Projekte wurden in Bayern bereits realisiert. „Ein Problem sind die Kosten. Man muss erst einmal tiefe Bohrungen durchführen und dann die hydrothermalen Wässer heraufpumpen. Das ist enorm aufwändig und energieintensiv – bisherige Pumpen haben keinen besonders hohen Wirkungsgrad und fallen häufig aus“, erklärt Hackl.
Robuste Antriebe für widrige Einsatzbedingungen
Elektrische Antriebe sind sein Spezialgebiet: Seit Jahren entwickelt der Elektrotechniker für verschiedene industrielle Anwendungen Antriebssysteme, die robuster, langlebiger und sparsamer sind als traditionelle Modelle. Diese Antriebe, als Pumpenmotoren eingesetzt, sollen jetzt auch die Geothermie effizienter machen. Motoren für den Einsatz in Bohrungen zu optimieren, ist allerdings eine besondere Herausforderung. Bohrlöcher sind eng und die Bedingungen in tausenden von Metern Tiefe extrem: Die Antriebe müssen hohem Druck, Temperaturen von über 100 Grad und aggressiven Chemikalien standhalten.
Das Projekt ist Teil des Forschungs-Netzwerks Geothermie Allianz Bayern (GAB), in dem Wissenschaftler und Wissenschaftlerinnen an fünf Universitäten erforschen, wie sich geothermische Energie besser nutzen und in die Versorgungsinfrastruktur integrieren lässt. Gefördert wird die GAB durch das Bayerischen Staatsministeriums für Wissenschaft und Kunst.
Das Ziel des Designs: Zuverlässigkeit unter extremen Bedingungen
An der Hochschule München ist die Zukunft nur einen Mausklick entfernt. Auf Hackls Monitor öffnet sich ein Fenster, es erscheint das Computermodell des neuen Pumpenantriebs: ein extrem dünnes und langes Gebilde mit einem Durchmesser von 22 Zentimetern und einer Länge von mehr als zehn Metern. „Wir experimentieren derzeit mit verschiedenen Designs“, erläutert der Forscher. „Die Anforderungen an die Stabilität der Konstruktion sind enorm. Hinzu kommt, dass wir möglichst materialsparend arbeiten wollen, die Antriebe aber auch so robust sein sollen, dass sie über Jahre störungsfrei laufen und ihr Wirkungsgrad mindestens zehn Prozent höher ist als bisherige Motoren.“
Erhöhung des Wirkungsgrads: Beitrag zur Wärmewende
Mit Hilfe von Computermodellen entwirft Hackls Team nicht nur das Design der Antriebe, sondern auch die Steuer- und Regelungstechnik, die für die Fehlererkennung und die Optimierung der Leistung benötigt werden. Dank einer eigens entwickelten virtuellen Testumgebung lässt sich schon während der Entwurfsphase die Effizienz des Systems virtuell überprüfen. Bis zum Ende der Projektlaufzeit 2024 soll dann auch ein Prototyp gebaut und im Labor der Hochschule München getestet werden. „Das Potenzial der neuen Pumpantriebe ist enorm“, betont Hackl: „Der Energiebedarf der Motoren ist beträchtlich – er liegt im Megawatt-Bereich. Wenn wir da den Wirkungsgrad erhöhen und die Wartungsintervalle verlängern können, wäre ein essentieller Schritt auch in der Wärmewende getan.“
Die Geothermie-Allianz Bayern 2.0 (GAB) ist ein standortübergreifender, hochschulweiter Forschungsverbund der Technischen Universität München, der Friedrich-Alexander-Universität Erlangen-Nürnberg, der Universität Bayreuth, der Ludwig-Maximilians-Universität München sowie der Hochschule München, der von Januar 2021 bis Dezember 2024 läuft. Die HM beteiligt sich seit Oktober 2021 am Teilprojekt „effizient. Wärmewende durch intelligente Nutzung der Tiefengeothermie“, das sich mit der Auslegung eines neuen Pumpenantriebs für Tauchkreiselpumpen beschäftigt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Hackl
E-Mail: christoph.hackl@hm.edu
Geringste Schadstoffspuren zuverlässig und schnell nachweisen
Eva Sittig Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Materialforschende entwickeln wiederverwendbares Nanomaterial für ultrasensitive Analysen
Selbst geringe Schadstoffenspuren in Wasser oder anderen Flüssigkeiten lassen sich mit spektroskopischen Untersuchungsmethoden nachweisen. Für den Einsatz in der Forensik, der Sicherheitsbranche, der Lebensmittelindustrie oder der medizinischen Diagnostik sind Methoden wie die oberflächenverstärkte Raman-Streuung (SERS, surface-enhanced Raman scattering) allerdings noch zu teuer und nicht zuverlässig genug. Einem Forschungsteam aus der Materialwissenschaft der Christian-Albrechts-Universität zu Kiel (CAU) ist es jetzt gelungen, die Leistungsfähigkeit der Methode um das 50-fache zu steigern. Sie entwickelten ein Substrat mit besonderen Nanostrukturen, das die Empfindlichkeit und die räumliche sowie zeitliche Auflösung der Methode deutlich erhöht. Das führt selbst im Spurenbereich zu hochpräzisen und schnellen Ergebnissen. Außerdem lässt sich das Substrat wiederverwenden, was die Kosten der Analyse erheblich senkt. Die Ergebnisse des Forschungsteams sind in der renommierten Fachzeitschrift Small erschienen.
Substrat spielt entscheidende Rolle
Die Raman-Spektroskopie – benannt nach dem indischen Physiker und Nobelpreisträger Chandrasekhara Venkata Raman – ist eine Methode, um die chemische Zusammensetzung von Materialien zu bestimmen und so auch schädliche Stoffe nachzuweisen. Hierzu wird eine Stoffprobe mit einem Laser bestrahlt. Anhand des zurückgeworfenen sogenannten Raman-Signals lassen sich Rückschlüsse auf die Eigenschaften des Materials ziehen. „Eine entscheidende Rolle spielt hierbei das Substrat, die Unterlage, auf der die zu analysierende Stoffprobe liegt. Denn es kommt zu Wechselwirkungen mit dem Laserlicht, die das Raman-Signal beeinflussen“, erklärt Josiah Ngenev Shondo, Doktorand am Lehrstuhl für Materialverbunde.
Forschenden des Lehrstuhls ist es jetzt gelungen, aus verschiedenen Materialien ein Substrat herzustellen, mit dem das Raman-Signal um das 50-Fache verstärkt wird im Vergleich zu klassischen SERS-Methoden. „Das ist mehr als jemals zuvor für diese Methode berichtet wurde“, sagt Prof. Oral Cenk Aktas. Damit erhöht sich die Empfindlichkeit der Methode und ihre räumliche und zeitliche Auflösung. So lassen sich in kurzer Zeit auch sehr geringe Stoffmengen analysieren. Nach der Analyse zersetzten die Forschenden die Stoffprobe mit UV-Licht. „Das relativ teure Substrat wird so gereinigt und kann zum ersten Mal mehrmals verwendet werden – in unseren Test bis zu zwanzig Mal“, so Aktas weiter.
Material kombiniert herausragende Eigenschaften
Der Grund für die besonderen Eigenschaften des Substrats liegt in seinem Aufbau. „Hier kommen verschiedene Materialien mit herausragenden Eigenschaften zusammen“, sagt Dr. Salih Veziroglu, der im Rahmen einer Förderung des CAU-Forschungsschwerpunkt KiNSIS (Kiel Nano, Surface and Interface Science) zu den Substratmaterialien forscht. „Es besteht zum Beispiel aus einer extrem aktiven photokatalytischen Titandioxidschicht und aus besonderen plasmonischen Nanostrukturen.“ Auf der Oberfläche des Substrats kombinierten die Forschenden vier verschiedene Nanostrukturen, darunter Gold- und Silberpartikel, zwischen denen es zu Licht-Materie-Wechselwirkungen kommt – sogenannte plasmonische Effekte.
Mit ihrem Substrat hat das Team der CAU einen Beitrag geliefert zu einem neuen Ansatz der Raman-Spektroskopie, der kürzlich vorgestellten PIERS-Methode (Photo Induced Enhanced Raman Spectroscopy). Durch die Kombination von plasmonischen und photokatalytischen Effekten wird hier das Raman-Signal und damit die Auflösung der Methode deutlich verbessert.
Ergänzung um KI-Methoden und Ausgründung geplant
„Dieses Substrat ist das Ergebnis langjähriger Forschung und verschiedener Expertisen an unserem Lehrstuhl. Jetzt wollen wir unsere Erkenntnisse aus der Grundlagenforschung in die Anwendung bringen“, sagt Leiter Prof. Franz Faupel. Das Substrat lässt sich in andere Raman-Spektroskopiemethoden integrieren und macht so verschiedene Einsatzmöglichkeiten denkbar. Um es zur Marktreife zu bringen, sind die Forschenden jetzt auf der Suche nach anderen Forschungsgruppen und Unternehmen der Labor- und Analysetechnik. Außerdem planen sie, ihren Ansatz um Methoden der Künstlichen Intelligenz zu ergänzen, um eine umfassende Datengrundlage für die Materialanalyse schaffen. So sollen sich auch einzelne Moleküle noch schneller und präziser bestimmen lassen.
Eine Idee für eine konkrete Anwendung hat Doktorand Shondo bereits in seiner Promotion erforscht, die kurz vor dem Abschluss steht. 2018 kam der Materialwissenschaftler mit einem Stipendium des Deutschen Akademischen Auslandsdienstes (DAAD) an die CAU nach Kiel, um etwas gegen die Umweltverschmutzung in seinem Heimatland Nigeria zu tun. Die Förderung der großen Ölvorkommen des Landes verunreinigt Böden, Flüsse und sogar das Trinkwasser. Mit dem neuen Substrat, das er und die Kollegen in Kiel entwickelt haben, sieht er auch Potential, um tragbare Raman-Spektroskopie-Geräte in Nigeria einzusetzen: „Da sich damit bereits geringe Mengen an Öl nachweisen und sogar entfernen lassen, könnte diese Methode bereits frühzeitig zum Einsatz kommen und schlimmere Umweltschäden verhindern.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Franz Faupel
Lehrstuhl Materialverbunde
Institut für Materialwissenschaft
Telefon:+49 431 880-6225
E-Mail: ff@tf.uni-kiel.de
http://www.tf.uni-kiel.de/matwis/matv
Originalpublikation:
Shondo, J., Veziroglu, S., Tjardts, T., Sarwar, T.B., Mishra, Y.K., Faupel, F. and Aktas, O.C. (2022), Nanoscale Synergetic Effects on Ag–TiO2 Hybrid Substrate for Photoinduced Enhanced Raman Spectroscopy (PIERS) with Ultra-Sensitivity and Reusability (Small 50/2022). Small, 18: 2270271.
https://doi.org/10.1002/smll.202270271
https://onlinelibrary.wiley.com/doi/abs/10.1002/smll.202270271
Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/072 Link zur Meldung
http://www.kinsis.uni-kiel.de/de Website des Forschungsschwerpunkts KiNSIS (Kiel Nano, Surface and Interface Science – KiNSIS) an der CAU
Größere Reichweite für drahtlose Sensoren: mögliche Anwendungen in Smart Homes und Industrie
Mag. Mark Hammer Marketing und Unternehmenskommunikation
Fachhochschule St. Pölten
Smart Homes, Häuser mit unterstützender Technik, verwenden eine Vielzahl an Sensoren für unterschiedlichste Aufgaben. So manche beabsichtigte Funktion scheitert aber an der Reichweite der verwendeten drahtlosen Sensoren. Ein Forschungsprojekt der Fachhochschule St. Pölten arbeitet an einer Technik, um die Reichweiten zu erhöhen.
Bewegungs- und Temperatursensoren übernehmen in Smart Homes eine Reihe an Aufgaben, um Geräte zu steuern oder Besitzer*innen zu informieren. Die gängigen Funksensoren haben jedoch nur geringe Reichweiten und können daher nicht überall eingesetzt werden.
Einsatz daheim und im Weinbau
Henri Ruotsalainen vom Institut für IT-Sicherheitsforschung der FH St. Pölten arbeitet derzeit an einer Methode, um die Reichweiten der Sensoren zu erhöhen. „Für Anwendungsfälle, bei denen Daten von mehreren lokal montierten Sensoren drahtlos über größere Entfernungen übertragen werden müssen, gibt es derzeit keine brauchbare Technologie. In unserem Projekt LoRaBridge entwickelten wir eine Datenbrücke, mit der Daten von lokalen Sensoren über größere Entfernungen an einen Server gesendet werden können“, sagt Ruotsalainen.
Eine der Zielgruppen sind Privatpersonen, die gerne Sensoren oder Smart-Home-Komponenten im Keller, am Dachboden oder im Garten montieren möchten, aber daran scheitern, dass die Reichweite einer Funkverbindung nicht groß genug ist, um Daten über solche Distanzen abrufen zu können.
Ruotsalainen hat die Technologie sowohl in Innenräumen eines großen Bürogebäudes als auch im Freien umfassend getestet: „Unsere Messkampagne in Langenlois hat gezeigt, dass die kostengünstigen Sensoren auch für die Frosterkennung in Weinfeldern eingesetzt werden können“.
Einsatz in der Industrie
„Derzeit ist der Chipmangel ein großes Problem. Hardware ist oft teuer. Mit unserer Lösung können wir günstige Sensoren mit niedriger Reichweite in solche mit langer Reichweite umwandeln“, erklärt Ruotsalainen.
Auch Anwendungen in der Industrie sind denkbar. Dazu will Ruotsalainen die Technik mit anderen Sensoren und mit Drittanbieter*innen untersuchen und weiterentwickeln. Beispiele für mögliche Anwendungsfälle sind Füllstandserfassung von Mülltonnen, Monitoring von Parkplätzen oder Waldbrandfrüherkennung.
„Unsere Datenbrücke achtet auf Sicherheit, Flexibilität, modulare Einsätze und kann an verschiedene Bedürfnisse angepasst werden. Die Technik steht als Open Source allen Interessierten zur Verfügung“, so Ruotsalainen.
Projekt LoRaBridge – Reichweitenerweiterung für kostengünstige drahtlose Sensoren
https://research.fhstp.ac.at/projekte/lorabridge-reichweitenerweiterung-fuer-kos…
Das Projekt wurde von der Initiative NetIdee gefördert.
Über die Fachhochschule St. Pölten
Die Fachhochschule St. Pölten ist Anbieterin praxisbezogener und leistungsorientierter Hochschulausbildung zu den Themen Medien, Kommunikation, Management, Digitale Technologien, Informatik, Security, Bahntechnologie, Gesundheit und Soziales. In 6 Departments bieten 26 Studiengänge und zahlreiche Weiterbildungslehrgänge ca. 3.700 Studierenden eine zukunftsweisende Ausbildung. Hierbei werden Lehre und Forschung eng verzahnt. Als European University leitet die FH St. Pölten die europäische Hochschulallianz E³UDRES² (Engaged and Entrepreneurial European University as Driver for European Smart and Sustainable Regions) und arbeitet mit Hochschulen aus 9 Partnerländern an Konzepten für die Hochschule der Zukunft sowie an der Entwicklung smarter und nachhaltiger europäischer Regionen.
Informationen und Rückfragen:
Mag. Mark Hammer
Fachverantwortlicher Presse
Marketing und Unternehmenskommunikation
T: +43/2742/313 228 269
M: +43/676/847 228 269
E: mark.hammer@fhstp.ac.at
I: https://www.fhstp.ac.at/de/presse
Pressetext und Fotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse
Allgemeine Pressefotos zum Download verfügbar unter https://www.fhstp.ac.at/de/presse/pressefotos-logos
Die FH St. Pölten hält ausdrücklich fest, dass sie Inhaberin aller Nutzungsrechte der mitgesendeten Fotografien ist. Der Empfänger/die Empfängerin dieser Nachricht darf die mitgesendeten Fotografien nur im Zusammenhang mit der Presseaussendung unter Nennung der FH St. Pölten und des Urhebers/der Urheberin nutzen. Jede weitere Nutzung der mitgesendeten Fotografien ist nur nach ausdrücklicher schriftlicher Zustimmung (Mail reicht aus) durch die FH St. Pölten erlaubt.
Erfahren Sie mehr News von uns auf Twitter https://twitter.com/FH_StPoelten und LinkedIn https://www.linkedin.com/school/fhstp sowie auf weiteren Social-Media-Kanälen.
Schweine als Organspender – neue Erkenntnisse zur Prävention von Infektionen durch Retroviren
Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Intensiv wird daran geforscht, die Transplantation von Organen speziell gezüchteter Schweine auf den Menschen zu ermöglichen. Im Schweinegenom befinden sich allerdings die Genome verschiedener endogener Retroviren (PERV A, B and C), die möglicherweise Infektionskrankheiten verursachen könnten. Ein Forschungsteam des Paul-Ehrlich-Instituts hat bei der Schweinerasse (Yucatan-Miniaturschwein „Haplotyp SLA D/D“) nachgewiesen, dass das Retrovirus PERV-C vermehrungsfähig und daher infektiös sein könnte. Die Identifizierung des PERV-C-Genoms ermöglicht es jetzt, durch Gen-Editierung das PERV-C-Retrovirusgenom aus dem Genom dieser Schweine zu entfernen (Journal of Virology, 08.03.2023).
Aktuell stehen in Deutschland mehr als 8.500 Patientinnen und Patienten auf der Warteliste für eine Organspende. Organe für die Transplantation sind so knapp, dass Patientinnen und Patienten häufig sehr lange auf ein geeignetes Organ warten müssen. Um hier Abhilfe zu schaffen, wird schon lange an der Möglichkeit geforscht, speziell gezüchtete Schweine als Organspender einzusetzen. Im vergangenen Jahr 2022 wurde in den USA die erste Transplantation eines genetisch veränderten Schweineherzens auf einen Patienten vorgenommen, für den keine anderen Therapien mehr zur Verfügung standen und der auch nicht für eine reguläre Organtransplantation in Frage kam. Nach 49 Tagen kam es zu Komplikationen und nach 60 Tagen verstarb der Patient. Die Ursachen für das Organversagen werden noch untersucht.
Organtransplantation durch Tiere – Risiko durch Retroviren?
Bei der Transplantation eines Organs von einem Schwein auf einen Menschen – der Xenotransplantation – besteht das Risiko, dass endogene Retroviren des Schweins – Viren, deren Genom im Genom der Spendertiere, und zwar im Genom jeder Zelle dieser Schweine, verankert sind, – in Form vermehrungsfähiger Viruspartikel auf den Empfänger bzw. die Empfängerin übertragen werden könnten und Krankheiten hervorrufen könnten. Dies gilt insbesondere vor dem Hintergrund, dass die Betroffenen Medikamente erhalten, die das Immunsystem bremsen (Immunsuppression), um eine Organabstoßung zu verhindern. Aufgrund der Verankerung der Retrovirusgenome im Genom jeder Zelle des Schweins ist bisher eine Entfernung der Retroviren oder eine Züchtung von Spenderschweinen ohne Retrovirus-Genome nicht möglich.
Die endogenen Retroviren der Schweine werden als PERV (porzine endogene Retroviren) bezeichnet. Sie sind eng verwandt mit Retroviren, die bei Mäusen, Katzen oder Gibbonaffen Leukämien und Immundefizienzerkrankungen auslösen können. Daher wird vermutet, dass PERV nach Übertragung auf den Menschen diese Krankheiten bei diesen Menschen ebenfalls auslösen könnten.
Endogene Retroviren des Schweins (PERV) und ihr Übertragungsrisiko
Es wurde gezeigt, dass PERV zweier Klassen, PERV-A und -B, in vitro (in Zellkulturversuchen im Labor) nicht nur Schweinezelllinien infizieren können, sondern auch in der Lage sind, Zelllinien verschiedener Spezies, einschließlich des Menschen, zu infizieren und sich dort weiter zu vermehren. Die Retroviren sind polytrop. Damit könnten PERV-A und PERV-B Speziesbarrieren überwinden und möglicherweise nach Übertragung auch Menschen infizieren. Dagegen können Retroviren des Typs PERV-C hauptsächlich Schweinezellen, aber nicht menschliche Zellen infizieren. Allerdings ist in Laborversuchen beobachtet worden, dass PERV-C mit PERV-A rekombinieren kann, was zu PERV-A/C führte, welches menschliche Zellen infiziert. Im Vergleich zu den PERV-A und PERV-B vermehrt sich PERV-A/C in Zellkultur im Labor sogar besser.
Ein Schweinestamm, der für die Organspende besonders geeignet erscheint, ist eine Züchtung des Yucatan-Miniaturschweins. Die Wildtypen (Vorfahren) dieses Schweins wurden vor 60 Jahren von Yucatan, Mexiko, zur Züchtung nach Boston, USA, gebracht. Dort wurde über einige Jahre im Hinblick auf einen Einsatz der Tiere als Organspender für die Xenotransplantation die Rasse „Haplotyp SLA D/D“ generiert. Diese Züchtung besitzt weder ein voll funktionsfähiges PERV-A-, noch ein voll funktionsfähiges PERV-B-Genom, so dass keine infektiösen oder vemehrungsfähigen Retrovirus-Partikel gebildet werden. Haplotyp SLA D/D-Schweine können aber PERV-C-Genomträger sein, aber bisher ging man davon aus, dass daraus entstehende PERV-C-Retroviruspartikel nicht replikationskompetent (vermehrungsfähig) und nicht infektiös sind, sofern diese Schweine nicht mit PERV-A infiziert werden.
Ein Forschungsteam des Paul-Ehrlich-Instituts unter Leitung von Prof. Dr. Ralf Tönjes, Arbeitsgruppenleiter im Fachgebiet Transfusionsmedizin, Zelltherapie und Gewebezubereitungen, hat sich mit der Frage befasst, ob nicht doch PERV-C selbst auch selbst replikationskompetent sein könnte. Bei der Charakterisierung von PERV-C aus Zellen der Schweinerasse Haplotyp SLA D/D stellten sie fest, dass diese PERV-C in vitro durchaus replikationskompetent und infektiös sind, sich also in Zellkultur vermehren können. Dies würde ein Risiko bei Transplantationen bedeuten. Die gute Nachricht ist: Da die diese PERV-C-Genome im Schweinegenom nur einmal vorkommen, wäre ein Knock-out – ein Ausschalten dieser PERV-C-Loci – durch Genom-Editierung, d.h. die zielgerichtete Veränderung der DNA des Schweins, möglich. Damit wäre bei Organen von PERV-C-Knock-out-Schweinen des Haplotyps SLA D/D Schweinen kein Risiko der Übertragung von PERV bei der Xenotransplantation gegeben.
Die aktuellen Befunde liefern wertvolle Informationen auf dem Weg zu geeigneten Spendertieren für die Xenotransplantation. Das Paul-Ehrlich-Institut ist für die wissenschaftliche Beratung zu und die Genehmigung klinischer Prüfungen von xenogenen Arzneimitteln in Deutschland zuständig.
Originalpublikation:
Rodrigues Costa M, Fischer N, Gronewald A, Gulich B, Godehardt AW, Tönjes RR (2023): Isolation of an Ecotropic Porcine Endogenous Retrovirus PERV-C from a Yucatan SLAD/D Inbred Miniature Swine.
J Virol Mar 8 [Epub ahead of print].
DOI: 10.11.28/jvi.00062-23
Weitere Informationen:
https://journals.asm.org/eprint/ECMKCTMHQ27U4AY55UMU/full – Volltext der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2023/04-schweine-organspender-schutz-vor-… – diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts
Anhang
Audiozitat mit kurzer Zusammenfassung
Manipulationen in Mikrochips aufspüren
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Sicherheitslücken können sich nicht nur in Software, sondern auch direkt in der Hardware befinden. Angreifer könnten sie dort absichtlich einbauen lassen, um technische Anwendungen in großem Stil zu attackieren. Wie sich solche sogenannten Hardware-Trojaner aufspüren lassen, untersuchen Forscher der Ruhr-Universität Bochum und des Max-Planck-Instituts für Sicherheit und Privatsphäre (MPI-SP) in Bochum. Sie verglichen Baupläne für Chips mit elektronenmikroskopischen Bildern von echten Chips und ließen einen Algorithmus nach Unterschieden suchen. Auf diese Weise konnten sie Abweichungen in 37 von 40 Fällen detektieren.
Das Team des Exzellenzclusters CASA, kurz für Cyber Security in the Age of Large-Scale Adversaries, um Dr. Steffen Becker und das Team des MPI-SP um Endres Puschner berichtet über die Ergebnisse auf dem IEEE Symposium on Security and Privacy, das vom 22. bis 25. Mai 2023 in San Francisco stattfindet. Die Forschung erfolgte in Zusammenarbeit mit Thorben Moos von der Université catholique de Louvain (Belgien) und dem Bundeskriminalamt in Deutschland.
Die Forscher stellten alle Aufnahmen der Chips, die Designdaten sowie die Analysealgorithmen frei verfügbar im Internet bereit, damit andere Forschungsgruppen mit dem Material weiterarbeiten können (https://github.com/emsec/ChipSuite).
Fertigungsfabriken als Einfallstor für Hardware-Trojaner
Elektronische Chips sind heute in zahllosen Objekten verbaut. In der Regel werden sie von Designhäusern entworfen, die keine eigene Produktion besitzen. Die Baupläne wandern daher zwecks Fertigung zu hochspezialisierten Chipfabriken. „Es ist denkbar, dass in den Fabriken kurz vor der Produktion kleinste Veränderungen in die Designs eingefügt werden, die die Sicherheit der Chips außer Kraft setzen können“, erklärt Steffen Becker und gibt ein Beispiel für mögliche Konsequenzen. „Durch einen solchen Hardware-Trojaner könnte ein Angreifer im Extremfall auf Knopfdruck Teile der Telekommunikations-Infrastruktur lahmlegen.“
Unterschiede zwischen Chips und Designplänen aufspüren
Das Team um Becker und Puschner untersuchte Chips in den vier modernen Technologiegrößen 28, 40, 65 und 90 Nanometer. Sie arbeiteten mit Dr. Thorben Moos zusammen, der während seiner Promotion an der Ruhr-Universität Bochum mehrere Chips designt hatte und hatte anfertigen lassen. Somit lagen sowohl die Designdateien als auch die angefertigten Chips vor. Natürlich konnten die Forscher die Chips nicht nachträglich verändern und Hardware-Trojaner einbauen. Also bedienten sie sich eines Tricks: Sie manipulierten nicht die Chips. Stattdessen veränderte Thorben Moos seine Designs nachträglich so, dass minimale Abweichungen zwischen den Plänen und den Chips entstanden. Dann prüfte die Bochumer Gruppe, ob sie diese Veränderungen aufspüren konnte, ohne zu wissen, was genau sie wo suchen mussten.
Das Team der Ruhr-Universität und vom MPI musste die Chips dazu zunächst aufwändig chemisch und mechanisch präparieren, um dann mit einem Rasterelektronenmikroskop jeweils mehrere Tausend Bilder der untersten Chipebenen aufnehmen zu können. Auf diesen Ebenen befinden sich mehrere Hunderttausend der sogenannten Standardzellen, die logische Operationen ausführen.
„Die Chipbilder und die Designpläne zu vergleichen war eine Herausforderung, weil wir die Daten zunächst präzise übereinanderlegen mussten“, so Endres Puschner. Hinzu kam, dass jede kleine Verunreinigung auf dem Chip die Sicht auf bestimmte Bildbereiche versperren konnte. „Bei dem kleinsten Chip von 28 Nanometern Größe kann ein einziges Staubkorn oder Haar eine ganze Reihe von Standardzellen verdecken“, so der IT-Sicherheitsspezialist.
Fast alle Manipulationen entdeckt
Mithilfe von Bildverarbeitungsmethoden verglichen die Forscher Standardzelle für Standardzelle und suchten Abweichungen zwischen den Plänen und den mikroskopischen Aufnahmen der Chips. „Die Ergebnisse stimmen vorsichtig optimistisch“, resümiert Puschner. Bei den Chipgrößen von 90, 65 und 40 Nanometern konnte das Team alle Veränderungen zuverlässig detektieren. Gleichzeitig gab es 500 falsch-positive Treffer: Es wurden also Standardzellen als verändert erkannt, obwohl sie in Wirklichkeit unangetastet waren. „Bei mehr als 1,5 Millionen untersuchten Standardzellen ist das eine sehr gute Quote“, befindet Puschner. Lediglich bei dem kleinsten Chip von 28 Nanometern konnten die Forscher drei subtile Veränderungen nicht detektieren.
Detektionsrate steigern durch Reinraum und optimierte Algorithmen
Abhilfe schaffen könnte künftig eine bessere Aufnahmequalität. „Es gibt Rasterelektronenmikroskope, die auf die Aufnahme von Chipbildern spezialisiert sind“, verdeutlicht Becker. Wenn diese noch dazu in einem Reinraum eingesetzt würden, in dem Verunreinigungen verhindert werden könnten, sollte die Detektionsquote nochmals steigen.
„Wir hoffen auch, dass andere Gruppen mit unseren Daten weiterarbeiten“, gibt Steffen Becker einen Ausblick. „Durch maschinelles Lernen könnte der Detektionsalgorithmus vermutlich so weit verbessert werden, dass er auch die Veränderungen auf den kleinsten Chips erkennen würde, die uns entgangen sind.“
Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Exzellenzstrategie (EXC 2092 CASA — 390781972). Weitere Unterstützung kam vom Europäischen Forschungsrat (ERC-Projekt SWORD, 724725) sowie von der EU und Wallonien im Rahmen des Projekts „UserMEDIA“ (501907-379156).
Bilder zum Download
Weitere Bilder zu dieser Presseinformation finden Sie zum Download unter https://news.rub.de/presseinformationen/wissenschaft/2023-03-20-it-sicherheit-ma….
Wissenschaftliche Ansprechpartner:
Dr. Steffen Becker
Eingebettete Sicherheit
Fakultät für Informatik
Ruhr-Universität Bochum
Tel.: +49 234 90498 107
E-Mail: steffen.becker@ruhr-uni-bochum.de
Endres Puschner
Embedded Security
Max-Planck-Institut für Sicherheit und Privatsphäre
Tel.: +49 234 90498 106
E-Mail: endres.puschner@mpi-sp.org
Originalpublikation:
Endres Puschner, Thorben Moos, Steffen Becker, Christian Kison, Amir Moradi, Christof Paar: Red team vs. blue team: A real-world hardware trojan detection case study across four modern CMOS technology generations, Proceedings of the IEEE Symposium on Security and Privacy, 2023, DOI: 10.1109/SP46215.2023.00044, Download Preprint: https://eprint.iacr.org/2022/1720
Mit dem Onlinetool zur Energiewende
Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
Die Entscheidung für erneuerbare Energiesysteme im Eigenheim ist von unterschiedlichen Faktoren abhängig. Im Projekt HEATED der TH Nürnberg entsteht ein kostenloses Onlinetool, das den Nutzer*innen eine individuelle Empfehlung gibt.
Photovoltaikanlage, Wärmepumpe, Pelletheizung: Inzwischen gibt es viele erneuerbare Energiequellen für Einfamilienhäuser. Den passenden Energieträger zu finden, der sowohl effizient als auch wirtschaftlich ist, ist für Hausbesitzer*innen oft schwer. Mit seinem Projekt HEATED (Holistic Engineering Approach: Free Tool for Energy System Dimensioning) setzt Prof. Dr.-Ing. Frank Opferkuch von der Technischen Hochschule Nürnberg Georg Simon Ohm genau da an. Der Leiter der Forschungsgruppe für Dezentrale Energiewandlung und Speicherung entwickelt gemeinsam mit seinem Projektteam ein unabhängiges Onlinetool, das verschiedene Datensätze aufbereitet und eine individuelle Empfehlung gibt, welche regenerative Energiequelle sich am besten eignet.
„Regenerative Energiesysteme zur Wärmeversorgung sind sehr teuer“, erklärt Opferkuch. „Bei großen Gebäuden wird in der Regel ein versorgungstechnisches Büro mit einer detaillierten Planung beauftragt, das genau berechnet, welche Systeme sich lohnen. Für Einfamilienhäuser ist so eine Beauftragung zu kostenintensiv, weshalb die Installationsbetriebe nur auf Basis von Erfahrungswerten und überschlägigen Berechnungen ihre Systeme anbieten. Diese Angebote sind oft ineffizient und nicht miteinander vergleichbar.“ Mit HEATED entsteht ein kostenloses, unabhängiges Onlinetool von einer neutralen Stelle.
Gedacht wird das Programm von den Endverbraucher*innen aus und kann von Nutzenden auch ohne viel Hintergrundwissen zur Energieversorgung bedient werden. Sie können beispielsweise den derzeitigen Energieverbrauch oder das Baujahr des Hauses eingeben. „Ein Baujahr steht meistens für bestimmte Gebäudeeigenschaften“, sagt Opferkuch. „Man kann daraus beispielsweise auf die Größe der Fensterflächen schließen und auf die damit zusammenhängenden Kühllasten im Sommer.“ Zusätzlich zieht sich das Tool verlässliche Wetterdaten aus dem Internet und analysiert, wie viele Sonnenstunden oder welche Windstärken am Standort zur Verfügung stehen.
Für die Nutzungsfreundlichkeit des Onlinetools arbeitet Opferkuch mit dem OHM User Experience Center (OHM-UX) der TH Nürnberg zusammen. „Die Kooperation ist gewinnbringend für das Projekt“, erklärt Prof. Dr. Patrick Harms, Leiter des OHM-UX. „Selbst, wenn die fachlichen Ergebnisse großartig sind, müssen sie auch für die entsprechenden Zielgruppen aufbereitet werden. Wir müssen die Nutzenden auf ihrem jeweiligen Wissenstand abholen, andernfalls kommt es zu Frustrationen.“ Harms und sein Team erstellten auf der Grundlage von Interviews mit Hausbesitzer*innen Personas, Szenarien und User Stories, die sowohl Eigentümer*innen mit viel als auch mit wenig Hintergrundwissen zu regenerativen Energien darstellen. Auf dieser Grundlage entwickelte das Team einen funktionalen Prototyp und verbesserte ihn mithilfe von Expert*inneninterviews und Usabilitytests schrittweise.
Das Projekt HEATED wird von der STAEDTLER Stiftung gefördert.
Projektabschluss iMulch: Einfluss landwirtschaftlicher Mulchfolien auf terrestrische Ökosysteme
Dipl.-Chem. Iris Kumpmann Abteilung Kommunikation
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
In der Landwirtschaft kommen auf Agrarflächen häufig Mulchfolien zum Einsatz. Sie dienen zur Temperatur- und Feuchteregulierung im Boden, verhindern das Unkrautwachstum und die Bodenerosion bei Starkregen, schützen Kulturen vor Schädlingen und Fressfeinden. Gleichzeitig können diese Folien aber auch zu einem direkten Kunststoffeintrag in den Boden führen. Im Rahmen des Projekts iMulch haben Forschende die Auswirkungen der Kunststoffe auf Organismen, Bodenfunktionen, Drainagesysteme und angrenzende Gewässer untersucht.
Im Zuge des Klimawandels und der angestrebten Reduktion eingesetzter Pestizide erwarten Expertinnen und Experten einen stetig steigenden Einsatz von Mulchfolien in der Landwirtschaft. Das Verbundprojekt »iMulch – Eine Untersuchung des Einflusses von Polymeren auf ein terrestrisches Ökosystem am Beispiel von in der Landwirtschaft eingesetzten Mulchfolien« hat mögliche negative Effekte dieser Entwicklung aus verschiedenen Perspektiven betrachtet. Im Fokus standen eine konventionelle, erdölbasierte Polyethylen-Folie (PE) und zwei biobasierte und biologisch abbaubare Kunststofffolien (PLA/PBAT-Blends). Es sollte geklärt werden, ob und inwieweit biologisch abbaubare Folien im Vergleich zu konventionellen Folien ökologische Vorteile bieten.
Verwitterung, Alterung, Transportverhalten und mögliche Ökotoxizität
Mithilfe einer Versuchskläranlage im Labormaßstab, die mit dem Drainagewasser einer Ackerfläche befüllt war, führte das iMulch-Team verschiedene Verwitterungs- und Alterungstests mit den Mulchfolien durch. Die biobasierten Folien zeigten nach rund sechs bis acht Wochen deutliche Verwitterungsspuren und eine partielle Zersetzung. Konventionelle PE-Folien wiesen vor allem einen Bewuchs durch Mikroorganismen (Biofouling) auf. Generell führte Fouling bei beiden Folientypen zu einer deutlichen Zunahme der Dichte im Zeitablauf, was eine Sedimentierung von Folienfragmenten in Gewässern verursachte.
Um Aussagen über die Verwitterung der Mulchfolien treffen zu können, haben die Forschenden einen Bodenteststand verwendet und mit beiden Folientypen bestückt. Die Proben wurden auf dem Boden unter realistischen Umgebungsbedingungen hinsichtlich Bodenfeuchte, UV-Licht und Lufttemperatur bewittert. Ergebnis: Die Zersetzung biologisch abbaubarer Folien dauert länger als durch beschleunigte Klimaschranktests zunächst erwartet. Ein vollständiger Abbau konnte bis zum Versuchsende nach sechs Monaten nicht beobachtet werden. Die PE-Folie zeigte im selben Zeitraum keine wirklichen Veränderungen.
Zur Untersuchung des Transport- und Abbauverhaltens der Polymere im Boden wurden PE- und PLA/PBAT-Partikel mit einer 14C-radioaktiven Markierung synthetisiert und anschließend in den Oberboden eingebracht. Ein Transport fand bei beiden Folientypen auch nach 24 Monaten nicht statt. Ebenfalls wurden im selben Zeitraum die untersuchten Polymere und ihre Abbauprodukte nicht in Pflanzen nachgewiesen. Adsorptionsversuche mit dem Schwermetall Kupfer und drei Pestiziden zeigten keine signifikante Adsorption an den Mulchfolien. Lediglich für das Pestizid Tebuconazol ermittelten die Forschenden eine geringe Adsorption bei den Bio-Mulchfolien. Im Rahmen von Toxizitätsuntersuchungen wurden keine negativen Effekte für Bodenorganismen festgestellt. Untersuchungen aquatischer Organismen wiesen hingegen hormonelle Effekte beider Folientypen nach.
Entwicklung geeigneter Messmethoden
Um die Proben hinreichend untersuchen zu können, entwickelten die Forschenden in einem ersten Schritt eine geeignete Detektionsmethodik für Mikroplastik im Boden. Mithilfe der Methode wurden verschiedene Bodenproben aus bekannten Bewirtschaftungsformen betrachtet. Die im Rahmen von iMulch durchgeführten Messungen konnten die These nicht bestätigen, dass unterschiedliche Bewirtschaftungsformen zu unterschiedlichen Konzentrationen von PE bzw. PLA/PBAT in Böden führen.
Material- und Partikelgrößenverteilung
Aussagen über Partikelgröße und Partikelform konnten auf Basis einer neu entwickelten Methode für die RAMAN-Spektroskopie getroffen werden. In allen untersuchten Bodenproben wurden geringe Mengen an Mikroplastik nachgewiesen. Der Nachweis erforderte einen hohen zeitlichen Aufwand, denn um einen Kunststoffpartikel zu finden, mussten ca. 200 weitere Partikel betrachtet werden. Ein wirtschaftlicher Einsatz der RAMAN-Spektroskopie erfordert daher eine effizientere Probenvorbereitung.
Ökobilanzielle Betrachtung mithilfe einer Lebenszyklusanalyse
Als begleitende ökobilanzielle Betrachtung wurde eine Lebenszyklusanalyse (LCA) durchgeführt. Das Modell bilanzierte den Anbau von Zucchini in einer Saison unter 1 ha Mulchfolie beider Typen. Die Cradle-to-Grave-Studie berücksichtigte alle Schritte – Rohstoffbeschaffung, biologischer Abbau im Boden, stoffliches bzw. energetisches Recycling. Hinsichtlich ihrer Auswirkungen auf den Klimawandel schnitten die herkömmlichen PE-Mulchfolien besser ab als die biologisch abbaubaren Mulchfolien, wenn Gutschriften der energetischen und stofflichen Verwertung am Ende des Lebenszyklus mit einbezogen wurden. Mit dem Blick nur auf die Prozessbelastungen wiesen beide Folientypen hingegen eine ähnliche Bilanz auf. Einsparpotenziale bei den Treibhausgasemissionen ergeben sich aus der Verwendung biobasierter Adipinsäure für die Synthese von PBAT und durch eine Erhöhung des Recyclings von PE-Folien.
Mikrobielles Upcycling als zukunftsweisender Weg
Ein weiterer Arbeitsfokus von iMulch lag auf dem möglichen Upcycling der Folien. Es ist gelungen, biologisch abbaubare Folienfragmente durch spezielle Mikroorganismen abzubauen und neue Substanzen für eine mögliche Polymerherstellung aufzubauen.
Empfehlungen für den Einsatz von Mulchfolien
Auf Grundlage der Versuchsergebnisse leitete das iMulch-Team verschiedene Empfehlungen ab. Sie zielen darauf, den Eintrag von Kunststofffolienfragmenten in die Umwelt zu reduzieren und einen Einsatz von Mulchfolien emissionsärmer zu gestalten. Generell wird der Einsatz biologisch abbaubarer Folien bevorzugt. Es sollte jedoch ein Nachweis der Abbaubarkeit unter realen Freilandbedingungen überprüft werden. Insbesondere bei sehr dünnen konventionellen Folien ist nach der Nutzung ein Fragmentverlust zu erwarten. Sollen diese nach der Anwendung ohne Materialverlust geborgen werden, sind dickere, konventionelle Mulchfolien von Vorteil. Zu diesem Zweck könnte eine minimale Untergrenze der Materialstärke definiert werden. Für die geborgenen Folien empfiehlt sich zudem die Entwicklung geeigneter Recycling-Konzepte.
Eine weitere Möglichkeit besteht in einer Erhöhung der Folienstärke biologisch abbaubarer Folien, um diese nach der Anwendung ebenfalls vom Feld sammeln zu können. Sollten einzelne Fragmente dennoch auf den Böden verbleiben, können diese untergepflügt und über die Zeit abgebaut werden. Eine Produktion biologisch abbaubarer Mulchfolien mit identischer Materialstärke zu konventionellen Pendants ist aus wirtschaftlicher Perspektive aktuell jedoch nicht durchsetzbar. Für dieses Szenario wären zukünftig gegebenenfalls staatliche Anreize zu schaffen.
Förderhinweis und Projektpartner
Das Vorhaben iMulch ist ein Leitmarkt.NRW-Projekt und wurde mit Mitteln aus dem Europäischen Fond für regionale Entwicklung (EFRE) »Investitionen in Wachstum und Beschäftigung« gefördert. Das Konsortium des Verbundvorhabens umfasste sechs aktive Projektpartner und wurde von drei assoziierten Partnern begleitet. Neben der Fischer GmbH waren das Fraunhofer IME, das Fraunhofer UMSICHT, das nova-Institut und die RWTH Aachen mit den Instituten IUF und iAMB beteiligt. Die Projektleitung lag beim Institut für Energie- und Umwelttechnik e. V. (IUTA). Assoziierte Partner waren BASF, FKuR Kunststoff GmbH und das Umweltbundesamt. Zudem bestand ein reger Austausch mit der Landwirtschaftskammer NRW.
Weitere Informationen:
http://imulch.eu/ Homepage iMulch
https://www.umsicht.fraunhofer.de/de/projekte/imulch-kunststoffe-boeden.html Projektsteckbrief iMulch
Innovative Technologien entfernen Arzneimittelrückstände aus Abwasser
Leibniz-Institut für Plasmaforschung und Technologie e.V.
Jedes Jahr am 22. März erinnert der Weltwassertag an die Bedeutung einer der wichtigsten Lebensressourcen. Unser Planet ist zu fast zwei Dritteln mit Wasser bedeckt, aber nicht einmal drei Prozent sind trinkbares Süßwasser. Täglich gelangen große Mengen an Chemikalien in unsere Gewässer und gefährden die Gesundheit von Menschen, Tieren und Pflanzen. Neben beispielsweise Pflanzenschutzmitteln belasten auch Medikamentenrückstände unser Trinkwasser. Das Leibniz-Institut für Plasmaforschung und Technologie (INP) hat technische Lösungen entwickelt, um Abwasser von solchen Schadstoffen zu reinigen.
Nach Informationen des Umweltbundesamts1) wurden bereits mehr als 400 verschiedene Arzneimittelwirkstoffe, deren Zwischen- oder Transformationsprodukte in der Umwelt nachgewiesen. Tierarzneimittel landen über Gülle und Mist als Dünger auf unseren Äckern oder werden von Weidetieren ausgeschieden. Von dort gelangen sie in Gewässer und oberflächennahes Grundwasser. Humanarzneimittel erreichen über Abwasser die Kläranlagen, werden dort aber meist nicht entfernt.
Der Verband der forschenden Pharmaunternehmen vfa2) weist zwar auf die geringe Konzentration der im Wasser gefunden Arzneimittelrückstände hin. Zur Beseitigung dieser Rückstände wäre aber laut Verband die Erweiterung der derzeit im Einsatz befindlichen Klärtechnik eine Möglichkeit, damit Arzneistoffe nicht in Gewässer gelangen.
Innovative Verfahren sorgen für sauberes Wasser
Prof. Dr. Juergen Kolb, Experte für Umwelttechnologien am Leibniz-Institut für Plasmaforschung und Technologie (INP) erläutert den aktuellen Stand der Forschung: „Wir kombinieren klassische physikalische Verfahren zur Abwasserreinigung mit neuen Technologien wie Ultraschall, gepulsten elektrischen Feldern und Plasmatechnologie. Hierdurch können wir chemische Verbindungen wie Medikamentenrückstände aber auch andere vom Menschen verursachte Verunreinigungen aufspalten und in unbedenkliche Stoffe umwandeln.“
Ihr Potenzial haben diese Verfahren in verschiedenen INP-Forschungsprojekten bereits bewiesen. Gegenwärtig werden die Ansätze in praxisrelevante Umgebungen überführt. „Unser Ansatz sind derzeit mobile Anlagen, die beispielsweise in Krankenhäusern eingesetzt werden können, wo die Wasserbelastung mit Arzneimittelrückständen besonders hoch ist. Gerade mit Blick auf die steigende Zahl an Antibiotika-resistenten Mikroorganismen sehen wir hier akuten Handlungsbedarf“, ergänzt Kolb. Auch für kommunale Kläranlagen eignen sich die Technologien als vierte Reinigungsstufe.
Den Weltwassertag haben die Vereinten Nationen ins Leben gerufen. Er findet seit 1993 jedes Jahr am 22. März statt. In diesem Jahr steht er unter dem Motto „Accelerating Change“, also den Wandel beschleunigen. Weltweit finden an diesem Tag Aktionen statt, die auf die lebenswichtige Bedeutung von Wasser hinweisen und Initiativen für sauberes Wasser und den sorgsamen Umgang mit der Ressource unterstützen.
Quellen:
1) https://www.umweltbundesamt.de/daten/chemikalien/arzneimittelrueckstaende-in-der…
2) https://www.vfa.de/de/wirtschaft-politik/arzneistoffe-im-wasser.html
Die Laune an der Nasenspitze erkennen
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Nicht nur Augen und Mund verraten den Gemütszustand – Gießener Wahrnehmungsforscher stoßen zufällig auf die Bedeutung der Nase
Woran erkennen wir, ob andere sich gut oder schlecht fühlen, erregt sind oder entspannt? Wieso wirken manche Menschen auf Anhieb vertrauenswürdig, andere dominant oder attraktiv? Forschende beschäftigen sich seit Jahrzehnten mit der Frage, wie Menschen Gesichter verarbeiten und zu solchen Urteilen gelangen. Dabei liegt der Fokus traditionell auf der Augen- und der Mundregion, die sich als besonders wichtig für solche Wahrnehmungseindrücke erwiesen haben. Aber überraschenderweise nicht nur: In einer in der Zeitschrift „iPerception“ veröffentlichten aktuellen Studie zeigen Forscher der Justus-Liebig-Universität Gießen (JLU), dass auch die Nasenregion Urteile über den Gemütszustand erlaubt.
„Das Ganze war ein witziger Unfall“, erklärt Maximilian Broda, Erstautor der Studie und Doktorand in dem vom Europäischen Forschungsrat finanzierten Projekt INDIVISUAL. „Mein Promotionsbetreuer und ich schnitten Portraits für eine andere Studie zu, und dabei fiel uns auf, dass die isolierte Nasenregion erstaunlich ausdrucksstark erschien“. Die beiden Experimentalpsychologen folgten buchstäblich ihrem Riecher und baten 114 Teilnehmende einer Onlinestudie, Gesichter und isolierte Gesichtsteile hinsichtlich ihres Ausdrucks zu beurteilen. Und tatsächlich: Die isolierte Nasenregion erlaubte Urteile, die hoch mit denen für komplette Gesichter korrelierten, insbesondere bezüglich ihrer Gefühlslage, Erregung und Attraktivität.
„Wir waren überrascht zu sehen, wie gut das gelingt“, führt Dr. Ben de Haas aus, der das Projekt betreute. „Es ist bekannt, dass Menschen Gefühlsausdrücke an den Augen und dem Mund ablesen können. Dass das auch mit der Nasenregion gelingt, hatten wir so nicht erwartet. Vermutlich tragen die Wangenheber dazu bei, die die Nase einrahmen und in der Mimik eine große Rolle spielen. Außerdem können wir die Nase selbst kräuseln oder rümpfen. Unsere Ergebnisse legen nahe, dass Menschen auch solche Informationen nutzen, um die Gesichter anderer zu ‚lesen‘.“ Als nächstes wollen die Forscher versuchen, solche „Nasencodes“ besser zu verstehen.
Wissenschaftliche Ansprechpartner:
Dr. Benjamin de Haas
Abteilung für Allgemeine Psychologie der JLU
E-Mail: Benjamin.de-Haas@psychol.uni-giessen.de
Originalpublikation:
Broda, M. D., & de Haas, B. (2023). Reading the mind in the nose. I-Perception, 14(2). https://doi.org/10.1177/20416695231163449
Wärmewende in der kommunalen Energieversorgung
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Wissenschaftler*innen aus mehreren Bundesländern haben Projekte zur Wärmewende begleitet und Lösungen für die Energieversorgung erarbeitet. Am 22. März 2023 stellen sie die Ergebnisse vor.
Berlin, 16. März 2023 – Über dreieinhalb Jahre haben Wissenschaftler*innen eines bundesweiten Forschungskonsortiums die Umsetzung von Wärmewendeprojekten in ausgesuchten Quartieren vor Ort begleitet, konkrete Lösungen mit initiiert, spannende Diskussionen geführt und zahlreiche Erfahrungen und Erkenntnisse gesammelt.
Am 22. März 2023 werden im Rahmen einer Abschlusskonferenz in Berlin die Ergebnisse des Forschungsprojektes „KoWa – Wärmewende in der kommunalen Energieversorgung“ von 9.00 bis 17.00 Uhr im VKU-Forum (Invalidenstraße 91, 10115 Berlin) präsentiert und diskutiert. Die Tagung wird im Livestream online übertragen.
Im ersten Teil der Tagung werden die im Projekt untersuchten Cluster im Detail vorgestellt. Der zweite Teil bietet Wissenschaftlern und Wissenschaftlerinnen und anderen Konferenzteilnehmern und -teilnehmerinnen Raum und Zeit, sich über die Forschungsergebnisse auszutauschen, Schwerpunktthemen in separaten Workshops zu diskutieren. Dabei geht es zum Beispiel um Kriterien und Bewertung von Nachhaltigkeitsparametern, rechtliche Herausforderungen bei der kommunalen Wärmewende und die Anwendung von Geo- und Solarthermie.
Am Forschungsprojekt beteiligt waren:
• IZES gGmbH – Institut für ZukunftsEnergie- und Stoffstromsysteme (Verbundkoordinator)
• Hochschule für Wirtschaft und Recht Berlin (HWR Berlin), Institut für Nachhaltigkeit der HWR Berlin (INa)
• Hochschule Osnabrück
• enable energy solutions GmbH
• Steinbeis Innovation gGmbH (SIG), Solites
• Universität Rostock
Das Forschungsprojekt wurde gefördert durch das Bundesministerium für Wirtschaft und Klimaschutz.
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist eine fachlich breit aufgestellte, international ausgerichtete Hochschule für angewandte Wissenschaften, einer der bundesweit größten staatlichen Anbieter für das duale Studium und im akademischen Weiterbildungsbereich. Sie sichert den Fachkräftebedarf in der Hauptstadtregion und darüber hinaus. Rund 12 000 Studierende sind in über 60 Studiengängen der Wirtschafts-, Verwaltungs-, Rechts-, Ingenieur- und Polizei- und Sicherheitswissenschaften sowie in internationalen Master- und MBA-Studiengängen eingeschrieben. Die HWR Berlin ist die viertgrößte Hochschule für den öffentlichen Dienst in Deutschland und mehrfach prämierte Gründungshochschule. Über 700 Kooperationen mit Partnern in der Wirtschaft und im öffentlichen Dienst garantieren den ausgeprägten Praxisbezug in Lehre und Forschung. 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten fördern einen regen Studierendenaustausch und die internationale Forschungszusammenarbeit. Die HWR Berlin ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“ und unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marko Schwertfeger
Hochschule für Wirtschaft und Recht Berlin
E-Mail: kowa@hwr-berlin.de
Nationale Wasserstrategie: Umsetzung durch wissenschaftliche Forschung unterstützen
Katrin Presberger Pressestelle
Technische Universität Dresden
In dieser Woche stellte die Bundesregierung die erste Nationale Wasserstrategie vor.
„Damit richtet die Bundesregierung einen besonderen Fokus auf die Notwendigkeit des integrierten Wasserressourcenmanagements, das international als Leitbild der Ressourcennutzung im Wassersektor gilt“, erklärt Niels Schütze, Professor für Hydrologie an der TU Dresden. Die deutsche Wasserforschung hat dafür in den letzten Jahren die wissenschaftlichen Grundlagen geschaffen.
In dieser Woche stellte die Bundesregierung die erste Nationale Wasserstrategie vor. Ziel ist es, angesichts der veränderten Rahmenbedingungen durch den Klimawandel Wassersicherheit sowohl für die menschliche Nutzung als auch die Gewässerökosysteme zu gewährleisten.
„Damit richtet die Bundesregierung einen besonderen Fokus auf die Notwendigkeit des integrierten Wasserressourcenmanagements, das international als Leitbild der Ressourcennutzung im Wassersektor gilt“, erklärt Niels Schütze, Professor für Hydrologie an der TU Dresden. Die deutsche Wasserforschung hat dafür in den letzten Jahren die wissenschaftlichen Grundlagen geschaffen.
Trotz der Fortschritte steht das integrierte Wassermanagement vor zahlreichen Herausforderungen beispielsweise auf dem Gebiet des adaptiven Managements unter Bedingungen von konkurrierenden Nutzungen, limitierten Ressourcen und großen Unsicherheiten der zukünftigen klimatischen, sozialen und ökonomischen Randbedingungen.
„Die Nationale Strategie ist ein gutes Instrument, um das Gesamtbild zu sehen und zu diskutieren“, sagt Niels Schütze. Bisher konnte man in Deutschland die Wasserverteilung und -speicherung ungefähr 50 Jahre im Voraus planen. „Mit den Änderungen durch den Klimawandel fahren wir auf Sicht. Wir können maximal die nächsten zehn bis 15 Jahre vorhersagen – bei ständigen Anpassungen“, erläutert der Hydrologe.
Während das verfügbare Trinkwasser derzeit wenig Sorge bereitet, ist offen, welche Maßnahmen für große Wasserverbraucher wie Land- und Forstwirtschaft sowie die Industrie notwendig sind. Aufgrund zunehmender Trockenheit stellt sich bei Land- und Forstwirtschaft immer drängender die Frage nach Intensität bzw. Menge der Bewässerung und deren Kosten. Aber auch aufgrund des hohen Wasserbedarfs von Industrieansiedlungen kann es im Einzelfall zu lokalen Engpässen kommen.
„Als ein zentrales Instrumentarium für die weitere wissenschaftliche Entwicklung und praktische Planung sehen wir an der TU Dresden virtualisierte Reallabore, sogenannte ‚digitale Zwillinge‘ von Umwelt und Gesellschaft, um die Gesamtheit der Einflussfaktoren und Wechselwirkungen in Gewässern und ihren Einzugsgebieten zu beurteilen“, sagt Niels Schütze. „Die Nationale Wasserstrategie der Bundesregierung sollte daher durch ein langfristig angelegtes wissenschaftliches Wasserforschungs- und Entwicklungsprogramm begleitet werden, das die schrittweise Umsetzung der Strategie unterstützt.“
Denn während Wasserknappheit und zukünftige Wasserverfügbarkeit in Deutschland im Zentrum der aktuellen Debatte stehen, sollte auch der Wasserqualität und dem guten ökologischen Zustand der natürlichen Gewässer und Feuchtsysteme mehr Aufmerksamkeit geschenkt werden. Steigende Nitratbelastung und der Eintrag von Mikroschadstoffen sind Beispiele für die wichtigsten aktuellen Probleme.
Wissenschaftliche Ansprechpartner:
Prof. Niels Schütze
Professur für Hydrologie
TU Dresden
Weitere Informationen:
http://Kontakt:
http://Prof. Niels Schütze
http://Professur für Hydrologie
http://TU Dresden
http://Tel.: +49 351 463-36380
http://E-Mail: niels.schuetze@tu-dresden.de
Grüne Energie durch Abwärme
Yasmin Ahmed Salem M.A. Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Eisenforschung GmbH
Internationales Forschungsteam unter Leitung des Max-Planck-Instituts für Eisenforschung optimiert Effizienz thermoelektrischer Materialien und veröffentlicht neueste Ergebnisse in der Fachzeitschrift Advanced Energy Materials
In Zeiten knapper Energie sind nachhaltige Wege zur Energiegewinnung essentiell. So könnten zum Beispiel thermoelektrische Materialien zur Umwandlung von Abwärme in Energie genutzt werden. Allerdings ist diese Umwandlung bisher nicht effizient genug, um im industriellen Großmaßstab verwendet zu werden. Um die Effizienz zu steigern und grünen Strom aus Abwärme zu erzeugen, ist ein besseres Verständnis der funktionellen und strukturellen Eigenschaften der thermoelektrischen Materialien nötig. Einem Forschungsteam unter Leitung des Düsseldorfer Max-Planck-Instituts für Eisenforschung (MPIE) ist es nun gelungen, die Mikrostruktur eines vielversprechenden neuen thermoelektrischen Materials zu optimieren und somit den Weg zur industriellen Nutzung dieser Materialien zu ebnen. Das Team veröffentlichte seine Ergebnisse in der Fachzeitschrift Advanced Energy Materials.
Titan verbessert die elektrische Leitfähigkeit
Die Mikrostruktur der meisten Metalle und thermoelektrischer Materialien besteht aus Kristallen, sogenannten Körnern. Die Struktur und Zusammensetzung der Körner und der Räume zwischen ihnen, den sogenannten Korngrenzen, sind für die thermische und elektrische Leitfähigkeit thermoelektrischer Materialien entscheidend. Frühere Forschungsarbeiten haben gezeigt, dass Korngrenzen sowohl die thermische als auch die elektrische Leitfähigkeit des Materials verringern. Optimal ist allerdings eine niedrige thermische Leitfähigkeit, damit die Wärme beziehungsweise Energie im Material bleibt, und eine hohe elektrische Leitfähigkeit, um möglichst viel Wärme in Energie umzuwandeln. Ziel der Forschungsgruppe des MPIE, der Northwestern University (USA) und des Leibniz-Instituts für Festkörper- und Werkstoffforschung Dresden war es, die Korngrenzen so zu optimieren, dass nur die thermische Leitfähigkeit verringert wird, ohne die elektrische Leitfähigkeit zu beeinträchtigen. Sie verwendeten eine Legierung aus Niob, Eisen und Antimon, die bei mittleren bis hohen Temperaturen thermisch und mechanisch robust ist und deren Elemente reichlich verfügbar und unschädlich sind.
„Wir haben mit Rastertransmissionselektronenmikroskopen und Atomsonden die Mikrostruktur der Legierung bis auf die atomare Ebene untersucht. Unsere Analyse hat gezeigt, dass die Chemie und die atomare Anordnung der Korngrenzen optimiert werden müssen, um die elektrischen und thermischen Eigenschaften zu verbessern. Je kleiner die Körner im Material, desto höher die Anzahl der Korngrenzen und desto schlechter die elektrische Leitfähigkeit“, sagt Ruben Bueno Villoro, Doktorand in der unabhängigen Forschungsgruppe „Nanoanalytik und Grenzflächen“ von Prof. Christina Scheu am MPIE und Erstautor der Veröffentlichung. „Es ist nicht sinnvoll die Körner im Material zu vergrößern, da größere Körner die Wärmeleitfähigkeit erhöhen würden und wir somit Wärme und damit Energie verlieren. Deswegen mussten wir einen Weg finden, die elektrische Leitfähigkeit trotz der kleinen Körner zu erhöhen“, erklärt Dr. Siyuan Zhang, Projektleiter in derselben Forschungsgruppe und korrespondierender Autor der Veröffentlichung. Die Lösung ist das Material mit Titan anzureichern, welches sich unter anderem an den Korngrenzen ansammelt und damit die elektrische Leitfähigkeit erhöht.
Nächster Schritt: Selektive Anreicherung von Titan an Korngrenzen
Nachdem der Einsatz von Titan die elektrische Leitfähigkeit des Materials verbessert hat ohne die Wärmeleitfähigkeit zu beeinflussen, analysiert das Forschungsteam nun Möglichkeiten Titan gezielt nur an den Korngrenzen einzusetzen ohne das ganze Material mit Titan anzureichern. Diese Strategie spart Kosten und erhält die ursprüngliche chemische Zusammensetzung des thermoelektrischen Materials weitestgehend. Die aktuelle Forschungsarbeit zeigt wie funktionelle Eigenschaften mit der atomaren Struktur eines Materials verbunden werden können, um gezielt bestimmte Eigenschaften zu optimieren.
Wissenschaftliche Ansprechpartner:
Ruben Bueno Villoro, r.bueno@mpie.de
Originalpublikation:
R. Bueno Villoro, D. Zavanelli, C. Jung, D.A. Mattlat, R. Hatami Naderloo, N. Pérez, K. Nielsch, G.J. Snyder, C. Scheu, R. He, S. Zhang: Grain boundary phases in NbFeSb half-Heusler alloys: A new avenue to tune transport properties of thermoelectric materials. In: Advanced Energy Materials (2023) 2204321. DOI: 10.1002/aenm.202204321
Weitere Informationen:
https://www.mpie.de/4861523/tuning-thermoelectric-materials?c=2914275
Lachen ist Medizin – auch fürs Herz
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Lachen und Humortraining können positive Effekte haben, die besonders Herzkranken zugutekommen. Über seine Klinikerfahrungen mit Angina-pectoris-Patienten berichtet ein Kardiologe im Herzstiftungs-Podcast
Lachen ist gesund und lässt sich durchaus als Medizin bezeichnen. Es weitet die Blutgefäße und fördert die Atmung. Lachen ist zudem einfach anzuwenden, kostengünstig und mit wenigen „Nebenwirkungen“ verbunden. Während Humor und Lachen in Form von Klinikclowns auf Kinderstationen in Krankenhäusern schon länger im Einsatz sind, nutzt man erst seit wenigen Jahren auch bei Erwachsenen gezielt ein Humortraining zur Therapie im Krankenhaus. „Humor und Lachen reduzieren Stress und die Konzentration des Stresshormons Cortisol kann durch ein siebenwöchiges Humortraining deutlich sinken“, berichtet der Kardiologe Prof. Dr. Peter Ong, Oberarzt der Abteilung für Kardiologie am Robert-Bosch-Krankenhaus Stuttgart, im aktuellen Herzstiftungs-Podcast „Lachen ist Medizin fürs Herz – wie Humortraining hilft“. Der Podcast der Serie „imPULS – Wissen für Ihre Gesundheit“ ist unter https://herzstiftung.de/podcast-lachen abrufbar. Inwiefern ein Humortraining bei Patienten mit nicht therapierbaren Angina-pectoris-Beschwerden die Symptome bessern kann, testeten Prof. Ong und Kollegen in einer Studie bei über 30 Patientinnen und Patienten (1).
Humortraining verbessert auch die depressive Stimmung, steigert die Erheiterbarkeit
Der Körper schüttet in Stresssituationen (z. B. Wut, Ärger) die Stresshormone Adrenalin und Cortisol aus, die das Herz schneller schlagen und die Gefäße verengen lassen. Dadurch steigt wiederum der Druck im Gefäßsystem. Beim Lachen werden nicht nur Glückshormone (Endorphine) und Serotonin sowie Immunglobuline (verstärkte Abwehr) ausgeschüttet, auch wird das Stresshormon Adrenalin unterdrückt, was dazu führt, dass im Blut der Spiegel des bei Stress erhöhten Hormons Cortisol sinkt. Auch ein Humortraining über sieben Wochen, angeleitet von einem speziell ausgebildeten Psychologen, kann stressreduzierend wirken und die Cortisol-Konzentration senken, wie Prof. Ong im Rahmen der genannten Studie bestätigt hat. Als Studienteilnehmer ausgewählt wurden bewusst Patienten mit koronarer Herzkrankheit (KHK) und Angina pectoris, deren starke Beschwerden wie Brustschmerz therapeutisch (Medikamente, Stents, Bypass-OP) nicht mehr zu lindern und deren Leidensdruck dementsprechend hoch war. Für den Kardiologen besonders erfreulich war, dass nicht allein der Stresshormon-Spiegel sank, sondern auch die depressive Stimmung merklich verschwand und sich die Erheiterbarkeit deutlich verbesserte, was sich anhand eines Fragebogens erfassen ließ. Wie lange diese Effekte anhalten, müssten noch weitere Untersuchungen klären, erklärt der Stuttgarter Herzspezialist im Podcast. „Wir sind fest davon überzeugt, dass hier ein bisher noch zu wenig genutztes Potenzial liegt – gerade um bei Herzpatienten die Beschwerden zu verbessern und zur Steigerung der Lebensqualität beizutragen.“ Wichtig ist Ong zufolge, dass Patienten das Humortraining, das über Techniken wie beim Lach-Yoga hinausgeht, dauerhaft betreiben. Aus der Gruppe des Humortrainings sei zum Beispiel inzwischen eine Art Selbsthilfegruppe entstanden, die den Austausch über Beschwerden und den Kontakt mit den „Leidgenossen“ über die Studie hinaus ermöglicht habe – ein wichtiger sozialer Aspekt.
Was ein Humortraining auszeichnet, warum es Frauen leichter fällt, sich auf Humor einzulassen und ob es auch Nebenwirkungen (Keine Wirkung ohne Nebenwirkung?) geben kann, erfahren Sie im Herzstiftungs-Podcast „Lachen ist Medizin fürs Herz – wie Humortraining hilft“ mit Prof. Dr. Peter Ong unter: https://herzstiftung.de/podcast-lachen
(wi/ne)
Literatur:
(1) Voss M. et al., Effect of humor training on stress, cheerfulness and depression in patients with coronary artery disease and refractory angina pectoris; DOI: 10.1007/s00059-019-4813-8
Bildmaterial erhalten Sie gerne unter E-Mail presse@herzstiftung.de oder Tel. 069 955128-114/-140
Der aktuelle Herzstiftungs-Podcast mit Prof. Dr. Peter Ong „Lachen ist Medizin fürs Herz – wie Humortraining hilft“ ist unter https://herzstiftung.de/podcast-lachen abrufbar.
Deutsche Herzstiftung
Pressestelle: Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Weitere Informationen:
https://herzstiftung.de/podcast-lachen – Herzstiftungs-Podcast
Anhang
PM_DHS_Humor-und-Lachen-Medizin_2023-02-20_FIN
Problem Schmerzmittelkonsum
Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
In vielen Bereichen des Spitzen- und Leistungssports ist das Thema „Schmerzmittelkonsum“ zu einem Problem geworden – dies zeigt die weltweite Literaturrecherche einer Köln-Koblenzer Forschungsgruppe um Prof. Dr. Dr. Dieter Leyk, in der die Daten von über 6.000 Studien ausgewertet wurden. Die Ergebnisse wurden jetzt im Deutschen Ärzteblatt publiziert.
Schätzungsweise 1,9 Millionen Menschen in Deutschland nehmen täglich Schmerzmittel ein. 30 bis 40 Prozent der Schmerzmittelkonsumenten tun dies, ohne dass körperliche Schmerzen vorliegen, so das Ergebnis einer Befragungsstudie des Robert-Koch-Instituts. Und aus den Daten des Epidemiologischen Suchtsurveys 2018 geht hervor, dass die Abhängigkeit von Schmerzmitteln mit 3,2 Prozent auf einem ähnlichen Niveau liegt wie die Alkoholabhängigkeit (3,1 Prozent). Auch im Sport ist der Schmerzmittelkonsum in vielen Bereichen als Problem erkannt worden, wie u.a. die Berichterstattung der ARD Dopingredaktion sowie die öffentliche Anhörung zum Thema im Sportausschuss des Bundestags gezeigt haben.
Die Forschungsgruppe Leistungsepidemiologie der Deutschen Sporthochschule Köln um Prof. Dr. Dr. Dieter Leyk hat unter Mitwirkung von Koblenzer Wissenschaftler*innen die Daten von über 6.000 Studien (unter Einbeziehung von knapp 50.000 Dopingkontrollformularen) zum Schmerzmittelkonsum im Profi-, im Leistungs- sowie im Breitensport ausgewertet. Die weltweite Literaturrecherche konnte zeigen, dass der Schmerzmittelkonsum in vielen Bereichen des Spitzen- und Leistungssports zu einem Problem geworden ist. Im internationalen und nationalen Profifußball nimmt z.B. jede*r zweite bzw. jede*r dritte Spieler*in regelmäßig Analgetika, also schmerzstillende oder -lindernde Arzneimittel ein.
Im Breitensport scheint der Schmerzmittelkonsum bislang weniger verbreitet zu sein, dies zeigen die Daten des „ActIv-Projekts“, eine bundesweite Befragung zu Gesundheit, Leistung und Gewohnheiten (Bewegung, Ernährung, Schlaf) sowie Barrieren und Motiven für einen gesunden Alltag (https://www.dshs-koeln.de/activ). Nur 2,1 Prozent von über 50.000 Läufer*innen der German Road Races (GRR) gaben an, mindestens einmal im Monat Schmerzmittel zu nehmen.
Zur Gesamtproblematik trägt für Leyk und seine Mitautor*innen die große Medien-präsenz der Schmerzmittelwerbung bei, die oft schnell wirksame Lösungen für die unterschiedlichen Schmerzarten suggeriert. Daher fordern die Forscher*innen angesichts der Verbreitung von schädlichem Schmerzmittelgebrauch bzw. von Schmerzmittelabhängigkeit bessere Aufklärung und Werbeeinschränkungen.
Zur Publikation auf aerzteblatt.de: https://www.aerzteblatt.de/archiv/230125/Schmerzmittelkonsum-im-Sport
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Dieter Leyk: https://www.dshs-koeln.de/forschungsgruppe-leistungsepidemiologie/team/prof-dr-d…
Originalpublikation:
https://www.aerzteblatt.de/archiv/230125
Dtsch Arztebl Int 2023; 120: 155-61
DOI: 10.3238/arztebl.m2023.0003
Weitere Informationen:
http://www.dshs-koeln.de/activ Das ActIv-Projekt
Rückgang der Nährstoffbelastung und Meeresspiegelanstieg: Gewinner und Verlierer im UNESCO-Weltnaturerbe Wattenmeer
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Ein Team von Forschenden hat eine signifikante Abnahme in der Häufigkeit, der Biomasse und der räumlichen Verbreitung von charakteristischen Wattenmeer-Arten, wie Schnecken, Muscheln, Krebsen oder Würmern, im Ostfriesischen Wattenmeer festgestellt. Das Team verglich dabei einen umfangreichen, aktuellen Datensatz aus dem Jahr 2018 von etwa 500 Messstationen mit einem vergleichbaren, historischen Datensatz aus den 1980er Jahren. Den Artenwandel im Ostfriesischen Wattenmeer führen die Wissenschaftler*innen auf eine verringerte Nährstoffbelastung und Auswirkungen des Meeresspiegelanstiegs auf die Lebensgemeinschaften im Wattboden zurück.
„Die in den 1980er Jahren noch dominante Gemeine Wattschnecke Peringia ulvae, der Bäumchenröhrenwurm Lanice conchilega oder die Sandklaffmuschel Mya arenaria haben in ihrer Häufigkeit um mehr als 80 Prozent abgenommen“, erklärt Erstautorin Dr. Anja Singer von Senckenberg am Meer und der Carl von Ossietzky-Universität Oldenburg und fährt fort: „Wir haben in einer breit angelegten Langzeitstudie die Artenzusammensetzung und -veränderung im Ostfriesischen Wattenmeer untersucht – und dabei einen deutlichen Wandel in der Häufigkeit, der Biomasse und der räumlichen Verbreitung zahlreicher Charakterarten festgestellt.“
In seiner Studie zeigt das Forscher*innen-Team, dass die Anzahl der insgesamt gefundenen Arten seit den 1980er Jahren im Untersuchungsgebiet zwar fast konstant geblieben ist – die zahlenmäßige und räumliche Verbreitung sowie der Anteil der Biomasse zahlreicher Arten sich aber bedeutend geändert hat. In den 1980er Jahren belief sich die Gesamtzahl auf 90 Arten, 2018 waren es noch 81 Arten. „Viel signifikanter ist die Abnahme der Gesamt-Individuenzahl der Arten pro Quadratmeter: Hier gab es einen gemittelten Rückgang um circa 31 Prozent. Die Gesamtbiomasse verringerte sich sogar um circa 45 Prozent im Vergleich zu den 1980er Jahren“, erläutert Prof. Ingrid Kröncke von Senckenberg am Meer und der Universität Oldenburg. Die Biomasse von drei in den 1980er Jahren vorherrschenden Arten – der Gemeinen Wattschnecke Peringia ulvae, des Bäumchenröhrenwurms Lanice conchilega und des Schlickkrebses Corophium volutator – ging um mehr als 80 Prozent zurück.
Insbesondere Tiere wie die Wattschnecke Peringia ulvae oder verschiedene Muschelarten, die sich von an der Sedimentoberfläche wachsenden kleinen Algen ernähren, verzeichnen in den Auswertungen der Forschenden einen starken Rückgang, der sich dann auch in der Gesamtbiomasse und -häufigkeit dieser Arten niederschlägt. Grund für die Abnahme sei ein vermindertes Nahrungsangebot. „Seit den 1980er Jahren gelten strengere Anforderungen für die Landwirtschaft und für kommunale Kläranlagen, wodurch weniger Nährstoffe in die Flüsse, wie die Elbe, die Weser oder den Rhein gelangen – und damit auch in unser Untersuchungsgebiet. Diese verringerte Nährstoffbelastung führt zu einem deutlichen Rückgang von Algenblüten – der Nahrungsquelle der genannten Tiere“, erklärt Kröncke und fährt fort: „Was für die Wattschnecke vielleicht von Nachteil ist, ist für andere Organismen aber ein deutlicher Gewinn: Die bessere Wasserqualität wirkt sich beispielsweise positiv auf Seegraswiesen und Austernriffe aus. Die Ergebnisse unserer Studie bestätigen, dass sich Seegrasbestände im deutschen Wattenmeer bis 2018 erholt haben und zeigen eine Ausdehnung der gemischten Muschel- und Austernbänke!“
Auch die Biomasse des Wattwurms Arenicola marina stieg um etwa 75 Prozent an. „Wir erklären diese Zunahme mit einer durch den Meeresspiegelanstieg bedingten höheren Sandanreicherung auf den Watten, besonders im westlichen Bereich des Ostfriesischen Wattenmeeres. Darüber hinaus führen durch den Meeresspiegelanstieg bedingte höhere Strömungsgeschwindigkeiten zugleich zu einer Abnahme des Schlickgehalts in den Sedimenten. Eine Synergie dieser beiden Prozesse, Sandanreicherung und Abnahme des Schlickgehalts, bieten bessere Lebensbedingung für den Wattwurm und andere Arten“, so Singer.
Die Gesamtzahl der invasiven Arten erhöht sich laut der neuen Studie von zwei auf insgesamt sechs Arten. Der klimabedingte Anstieg der Meeresoberflächentemperaturen um circa zwei Grad Celsius seit den 1980er Jahren im Untersuchungsgebiet begünstigt die Etablierung neuer invasiver Arten, so die Forschenden. Die Amerikanische Schwertmuschel (Ensis leei) findet man nun etwa 80 Prozent häufiger im Ostfriesischen Wattenmeer. Die invasive Muschel zählt zu den „Gewinnern“ in diesem Teil des UNESCO-Weltnaturerbes Wattenmeer. Die vier 2018 neu erfassten invasiven Arten – die Amerikanische Pantoffelschnecke Crepidula fornicata, die Pazifische Auster Magellana gigas, die Zwergbrandungsmuschel Mulinea lateralis und die räuberisch lebende Felsenkrabbe Hemigrapsus spec. – gelten als tolerant gegenüber höheren Temperaturen.
„Unsere Ergebnisse zeigen deutliche Veränderungen in den Lebensgemeinschaften im Wattsediment, die erhebliche Auswirkungen auf das gesamte Nahrungsnetz im Wattenmeer haben werden: Die im Wattboden lebenden Arten stellen eine wichtige Nahrungsquelle für junge Plattfische und brütende und rastende Vogelarten dar. Durch den fortschreitenden Anstieg des Meeresspiegels und der Temperatur wird das Ökosystem des Wattenmeeres mit gravierenden ökologischen und biologischen Veränderungen in der Zukunft konfrontiert sein. Daher ist eine detaillierte Kenntnis der Veränderungen im UNESCO-Weltnaturerbe Wattenmeer von entscheidender Bedeutung für umweltrechtliche Entscheidungen und die Entwicklung realistischer Managementkonzepte mit dem übergeordneten Ziel, eine dauerhafte Strategie für eine nachhaltige Nutzung der natürlichen Meeresressourcen zu schaffen“, fasst Singer zusammen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Ingrid Kröncke
Senckenberg am Meer
Tel. 04421 9475 250
ingrid.kroencke@senckenberg.de
Dr. Anja Singer
Senckenberg am Meer
Tel. 04421 9475 267
anja.singer@senckenberg.de
Originalpublikation:
Singer A, Bijleveld AI, Hahner F, Holthuijsen SJ, Hubert K, Kerimoglu O, Kleine Schaars L, Kröncke I, Lettmann KA, Rittweg T, Scheiffarth G, van der Veer HW and Wurpts A (2023): Long-term response of coastal macrofauna communities to deeutrophication and sea level rise mediated habitat changes (1980s versus 2018). Front. Mar. Sci. 9:963325. doi: 10.3389/fmars.2022.963325
Immunzellen verfügen über einen Backup-Mechanismus
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Das Enzym TBK1 ist ein wichtiger Baustein des angeborenen Immunsystems, der vor allem bei der Abwehr von Viren eine Rolle spielt. Ist die Aktivität von TBK1 durch Mutationen gestört, zeigen Patienten eine gesteigerte Anfälligkeit gegenüber Virusinfektionen. Wird TBK1 hingegen gar nicht exprimiert, zeigt sich dieser klinische Effekt nicht. Welcher Mechanismus sich hinter dieser vermeintlichen Diskrepanz verbirgt, konnte nun von Forschenden um Prof. Martin Schlee vom Universitätsklinikum Bonn und vom Exzellenzcluster ImmunoSensation2 der Universität Bonn aufgeklärt werden. Die Studie wurde in der Zeitschrift Frontiers in Immunology veröffentlicht.
Virale Bestandteile werden im menschlichen Körper von so genannten Pattern Recognition Rezeptoren (PRRs) innerhalb der Zelle oder auf der Zelloberfläche erkannt. Diese lösen bei Aktivierung eine Signalkaskade aus, die letztendlich in der Produktion von Signalmoleküle wie Interferonen und Zytokinen und deren Ausschüttung mündet. Diese Botenstoffe alarmieren benachbarte Immunzellen und machen sie auf die Virusinfektion aufmerksam, so dass eine Immunreaktion erfolgt.
Bestandteil dieser Signalkaskade ist das Enzym TANK Binding Kinase 1 (TBK1). Werden virale Bestandteile durch PRRs erkannt, wird TBK1 aktiviert. TBK1 setzt wiederum zwei Transkriptionsfaktoren in Gang, die in den Zellkern wandern und dort die Transkription von Interferon- und Zytokin-Genen anwerfen.
Anfälligkeit für Virusinfektionen
Punktmutationen im TBK1-Gen können zu einem Funktionsverlust von TBK1 führen. Dieser schlägt sich beim Menschen in einer klinischen Anfälligkeit für Virusinfektionen nieder. Erstaunlicherweise ist dieser Effekt nicht zu beobachten, wenn TBK1 nicht exprimiert wird und somit in der Zelle fehlt. „Ein vollständiges Fehlen der TBK1-Expression beim Menschen ist überraschenderweise nicht mit einer verminderten antiviralen Reaktion verbunden“, sagt Prof. Martin Schlee vom Institut für Klinische Chemie und Klinischen Pharmakologie am Universitätsklinikum Bonn. Bislang war unklar, warum ein vollständiger Verlust der TBK1-Expression hinsichtlich der Immunkompetenz besser toleriert wird als eine Mutation von TBK1, die die Kinase-Funktion betrifft.
Die Bonner Forscher konnten nun eine Erklärung für diese bisher unerklärte Beobachtung liefern. „Dabei spielt ein zweites Enzym, das der TBK1 sehr ähnlich ist, eine wichtige Rolle: die IkB kinase epsilon, oder kurz IKKepsilon,“ erklärt Dr. Julia Wegner, Erstautorin der Studie. Genau wie TBK1 ist IKKepsilon den PRRs nachgeschaltet und kontrolliert die Expression von Interferonen. Auch in ihrem Aufbau sind sich die beiden Proteine sehr ähnlich und weisen eine Sequenzhomologie von über 60 Prozent auf. Neu ist der Befund, dass TBK1 einen direkten Einfluss auf IKKepsilon hat. „In myeloiden Zellen konnten wir zeigen, dass TBK1 die Expression der verwandten Kinase IKKepsilon reguliert“, ergänzt Dr. Wegner.
Keine halben Sachen
TBK1 verringert die Stabilität von IKKepsilon. Dieser Vorgang ist von der enzymatischen Funktion des Proteins unabhängig. „Ein durch Punktmutation nichtfunktionales TBK1 ist entsprechend trotzdem in der Lage, IKKepsilon zu destabilisieren“, erklärt Prof. Gunther Hartmann, Direktor des Instituts für Klinische Chemie und Klinische Pharmakologie und Sprecher des Exzellenzclusters ImmunoSensation2. „Dies führt in menschlichen Immunzellen zu einem kontinuierlichen Abbau der Kinase IKKepsilon.“
Zusammengefasst führt also der Verlust der TBK1-Expression zu einem erhöhten Vorkommen von IKKepsilon. Dieser Mechanismus stellt sicher, dass trotz Abwesenheit von TBK1 eine antivirale Immunreaktion ablaufen kann. Ein durch Punktmutationen herbeigeführter Funktionsverlust von TBK1 hingegen verhindert die Destabilisierung und den Abbau von IKKepsilon nicht, so dass letztendlich beide Faktoren in der Virusabwehr fehlen. Eine erhöhte Anfälligkeit für Virusinfektionen ist die Folge.
Die Waffen eines Virus
Im gesunden Organismus können also erhöhte Mengen der Kinase IKKepsilon den Verlust von TBK1 ausgleichen. Das ist besonders wichtig, wenn Viren die körpereigene Abwehr gezielt ausschalten wollen. Das Herpes-Simplex Virus 1 (HSV-1), das Humane Immundefizienz Virus (HIV), aber auch das Severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2) sind in der Lage, TBK1 gezielt auszuschalten. Auch sind verschiedene Bakterienarten in der Lage, den Abbau von TBK1 zu bewirken. „Unsere Daten zeigen eindeutig, dass menschliche Immunzellen über einen wichtigen Backup-Mechanismus verfügen“, erläutert Dr. Wegner. „Sie sind in der Lage, eine effektive antivirale Antwort aufrecht zu erhalten, auch wenn es zu einem pathogen-induzierten Abbau von TBK1 kommt. Darüber hinaus greift der Mechanismus auch bei genetischem Verlust von TBK1“.
Kontakt:
Dr. David Fußhöller
Cluster of Excellence ImmunoSensation2
University of Bonn
Tel. (+49) 228 287 512 83
E-Mail: david.fusshoeller@uni-bonn.de
Originalpublikation:
Wegner Julia, Hunkler Charlotte, Ciupka Katrin, Hartmann Gunther, Schlee Martin (2023); Increased IKKepsilon protein stability ensures efficient type I interferon responses in conditions of TBK1 deficiency; Frontiers in Immunology , Vol. 14; DOI: 10.3389/fimmu.2023.1073608
Erste Dialogveranstaltung von Citizen-Science-Projekt zu Trinkwasser
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Was passiert mit unserem Wasser, bevor es in unsere Häuser und Wohnungen gelangt? Infos dazu gibt es für alle Interessierten in Impulsvorträgen und einer Gesprächsrunde.
Wasser befindet sich in einem ständigen Kreislauf, von dem das Projekt CS:iDrop® – kurz für „Citizen Science: investigation of Drinking water of and by the public“ – einen kleinen Ausschnitt unter die Lupe nimmt: Das Projekt setzt an der Stelle an, an der der Verantwortungsbereich des kommunalen Wasserversorgers endet, an der Wasseruhr. Aber was passiert mit dem Wasser bis zu diesem Punkt? Wie wird Oberflächen- oder Grundwasser von den kommunalen Wasserversorgern wieder zu Trinkwasser aufbereitet, und wie sehen die regelmäßigen Analysen aus, die eine sehr hohe Qualität unseres Trinkwassers bis zur Wasseruhr sicherstellen? Antworten gibt es am Montag, 20. März 2023 ab 18 Uhr in der Aula der Technischen Beruflichen Schule 1, Ostring 25, 44787 Bochum. Das Organisationsteam bittet um eine unverbindliche Anmeldung (https://terminplaner6.dfn.de/de/b/a984dd6bfbc7c7325b9048d8aaf889d1-137889).
Neben dem CS:iDrop-Projektteam sind die Projektpartner, die Stadtwerke Bochum und die Westfälische Wasser- und Umweltanalytik GmbH, bei der Veranstaltung vertreten. Teilnehmende können im Anschluss das Labor der Technischen Beruflichen Schule 1 besichtigen, in dem die Proben aus CS:iDrop auch analysiert und ausgewertet werden. Das Format der Dialogveranstaltung dient dazu, Bürgerinnen und Bürgern Einblicke rund um das Thema Trinkwasser zu ermöglichen. Zugleich bieten sie den Forschenden und Interessierten die Gelegenheit, miteinander ins Gespräch zu kommen, um den fachlichen und inhaltlichen Austausch zu fördern und zur Weiterentwicklung des Projekts beizutragen.
Das Projekt CS:iDrop
Im bürgerwissenschaftlichen Forschungsprojekt CS:iDrop nehmen Bürgerinnen, Bürger und Forschende der Pilotregion Bochum gemeinsam das Trinkwasser zwischen der Hausübergabestation und dem Wasserhahn in den Blick. Dazu entnehmen Teilnehmende zu Hause eine Trinkwasserprobe und untersuchen diese mittels verschiedener Methoden. Ziel ist es, Erkenntnisse über mögliche Veränderungen ausgewählter chemischer Parameter des Trinkwassers durch Wechselwirkungen mit Leitungen und Armaturen auf dem letzten Meter zu gewinnen. Bisher wurden 15 Messlokaltermine durchgeführt, an denen mehr als 250 Personen teilgenommen haben. Alle interessierten Bochumerinnen und Bochumer können sich über die Projektwebseite (https://www.ruhr-uni-bochum.de/didachem/CSiDrop.htm) jederzeit für die wissenschaftliche Mitarbeit anmelden.
Förderung
Das bürgerwissenschaftliche Projekt CS:iDrop wird von dem Bundesministerium für Bildung und Forschung im Rahmen der Richtlinie zur Förderung von bürgerwissenschaftlichen Vorhaben seit 1. März 2021 bis 31. Dezember 2024 mit 600.000 Euro gefördert. Die Koordination liegt bei Prof. Dr. Katrin Sommer (Lehrstuhl für Didaktik der Chemie) und Prof. Dr. Joachim Wirth (Lehrstuhl für Lehr-Lernforschung).
Wissenschaftliche Ansprechpartner:
Maren Funke
CS:iDrop®
Presse- und Öffentlichkeitsarbeit
Lehrstuhl für Didaktik der Chemie
Ruhr-Universität Bochum
E-Mail: csidrop@ruhr-uni-bochum.de
Weitere Informationen:
http://Projektwebseite: https://www.ruhr-uni-bochum.de/didachem/CSiDrop.htm
Hochschulzertifikate: Berufsbegleitende Weiterbildung auf akademischem Niveau
Timo Keppler Presse- und Öffentlichkeitsarbeit
Allensbach Hochschule
Die private Allensbach Hochschule hat eine Reihe an Hochschulzertifikaten auf Bachelor- und Masterniveau entwickelt, um Berufstätige nebenberuflich akademisch auf hohem Niveau zu qualifizieren. Die Hochschule baut das Angebot kontinuierlich aus.
Viele Arbeitnehmende, Selbständige und sogar Unternehmer:innen wollen sich weiterbilden, um neue Kompetenzen zu erlangen und sich damit auf die kommenden Herausforderungen in der Arbeitswelt einzustellen. Aber für ein Studium fehlt ihnen im Alltag die Zeit, oder aber sie suchen einen eher spezifischen Zugang zu bestimmten Themen, weil ein Bachelor- oder Masterstudium zu umfangreich und/oder allgemein für die individuellen Bedürfnisse sind.
Aus diesem Grund hat die private Allensbach Hochschule eine Reihe an Hochschulzertifikaten auf Bachelor- und Masterniveau entwickelt. Damit werden Professionals angesprochen, die strukturierte Weiterbildungsangebote in ihrem oder einem angrenzenden Fachbereich suchen, um sich darüber neue Möglichkeiten in ihrem beruflichen Umfeld zu eröffnen. „Wir haben die Erfahrung gemacht, dass unsere Hochschulzertifikate sehr gut ankommen. Sie bieten die Gelegenheit, mit einem überschaubaren Zeitaufwand eine anerkannte und hochwertige Zusatzausbildung zu erhalten, die im Beruf unmittelbar weiterbringt. Alle Inhalte unserer Allensbach-Hochschulzertifikate sind so strukturiert, dass sie höchsten praktischen Nutzen bringen“, sagt Timo Keppler, Kanzler der Allensbach Hochschule. Die Hochschule entwickelt ihr Angebot an Hochschulzertifikaten kontinuierlich weiter (https://www.allensbach-hochschule.de/weiterbildung/).
Die Allensbach Hochschule in Konstanz ist eine staatlich anerkannte Hochschule des Bundeslandes Baden-Württemberg und bietet verschiedene berufsbegleitende Bachelor- und Masterprogramme im Bereich der Wirtschaftswissenschaften an. Kürzlich wurde die Hochschule vom Wirtschaftsmagazin „Focus Business“ in die Liste der „Top Anbieter für Weiterbildung 2023“ aufgenommen. Es ist das zweite Mal in Folge. Ebenso wurde die Allensbach Hochschule von „FernstudiumCheck“ als „Top Fernhochschule 2023“ ausgezeichnet und ist „Exzellenter Anbieter 2023“ beim Vergleichsportal „Fernstudium Direkt“. Die Allensbach Hochschule belegt bei dem Portal im Segment „Fernhochschulen-DE“ den zweiten Platz.
„Alle Hochschulzertifikate der Allensbach Hochschule werden praktisch und wissenschaftlich erfahrenen und anerkannten Dozierenden betreut und online und ohne verpflichtende Präsenzveranstaltungen absolviert. Die Lerninhalte lassen sich direkt im beruflichen Alltag einsetzen. Die Bildungseinrichtung setzt bei allen Programmen auf vollständig online-basierte Vorlesungen, die in geschützten Räumen stattfinden und aufgezeichnet werden. Das digitale Lernen wird durch didaktisch hochwertig aufbereitete Studienmaterialien unterstützt“, beschreibt Timo Keppler die Vorteile der berufsbegleitenden akademischen Weiterbildung.
Ein großer Vorteil: Für die Zulassung zu einem Hochschulzertifikat sind in der Regel weder Hochschulzugangsberechtigung noch Erststudium erforderlich. Teilnehmende können somit einzelne oder mehrere Module aus den Bachelor- beziehungsweise Masterstudiengängen buchen und hierfür ein Hochschulzertifikat erhalten. Erbrachte Prüfungsleistungen können anerkannt werden, falls Teilnehmende später ein Bachelor- oder Masterstudium absolvieren möchten. Alle Hochschulzertifikate werden im Fernstudium absolviert, das heißt online, ohne Präsenzveranstaltungen und ohne Präsenzpflicht. Nach Bestehen der Modulprüfung erhalten die Absolvent:innen ECTS und einen entsprechenden Leistungsnachweis mit Zertifikat.
„Alle Teilnehmenden werden in den Zertifikatsstudien von unseren Professor:innen ebenso individuell betreut wie in den regulären Studiengängen. Wir legen dabei neben der akademischen Grundlagenbildung vor allem Wert auf moderne, innovative Inhalte wie Integrations- und Diversity-Management, Mediendidaktik und E-Learning oder auch Digital Business Management“, betont Timo Keppler.
Parasiten im Visier
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
30. Jahrestagung der Deutschen Gesellschaft für Parasitologie vom 15. bis 17. März 2023 an der Justus-Liebig-Universität Gießen
Parasiten zählen zu den weltweit bedeutendsten Krankheitserregern, auch wenn ihnen in der breiten Öffentlichkeit eine vergleichsweise geringe Aufmerksamkeit zuteilwird. Drängende Fragen zur Grundlagenforschung an Parasiten, zu Vektoren (Überträgern), Wirt-Parasit-Interaktionen, zur Epidemiologie, Klinik, Diagnostik, Behandlung und zu Resistenzen werden auf der 30. Jahrestagung der Deutschen Gesellschaft für Parasitologie (DGP) diskutiert. Auf der Tagung kommen Wissenschaftlerinnen und Wissenschaftler zusammen, die neben der Parasitologie auf den Gebieten Allgemeine Zoologie, Biochemie, Zell- und Molekularbiologie, Analytische Chemie, Medizin, Tropenmedizin und Veterinärmedizin forschen. Die Tagung adressiert auch genderspezifische Aspekte, den ONE-Health-Ansatz und vernachlässigte Tropenkrankheiten (Neglected tropical diseases, NTDs), translationale Aspekte parasitärer Infektionskrankheiten (Parasitosen) sowie methodische Neuerungen. Die Jubiläumstagung findet vom 15. bis zum 17. März 2023 an der Justus-Liebig-Universität Gießen (JLU) statt. Tagungsort ist das Hörsaalgebäude/Seminargebäude Recht und Wirtschaft, Licher Straße 68.
„SARS-Cov-2 ist bekanntlich nicht die einzige Bedrohung durch einen Infektionserreger für Menschen weltweit. Neben Viren sind aus der Welt der Pathogene weitere Erregergruppen von hoher medizinischer und wirtschaftlicher Relevanz bekannt wie die Parasiten, welche überall auf der Erde, und auch zu Wasser, auftreten und eine breite Palette von Erkrankungen auslösen – mit schwerwiegenden, zum Teil fatalen Folgen für Mensch und Tier. Solchen Parasiten werden wir uns im Rahmen der Jahrestagung widmen“, sagt der Parasito¬lo¬ge Prof. Dr. Christoph Grevelding. Gemeinsam mit seinen Kolleginnen und Kollegen vom Institut für Parasitologie am Fachbereich Veterinärmedizin der JLU – Prof. Dr. Anja Taubert, Prof. Dr. Franco H. Falcone und Prof. Dr. Carlos Hermosilla sowie weiteren Mitarbeiterinnen und Mitarbeitern – richtet er die dreitägige wissenschaftliche Veranstaltung aus.
Im Jubiläumsjahr umfasst die internationale Tagung neun Plenarvorträge renommierter Wissenschaftlerinnen und Wissenschaftler sowie 21 wissenschaftliche Sessions und fünf Workshops, welche die Breite des Fachs Parasitologie abbilden. Die Gastgeber erwarten über 300 Teilnehmerinnen und Teilnehmer in Gießen.
Prof. Grevelding ist zugleich stellvertretender Sprecher des LOEWE-Zentrums DRUID (Novel Drug Targets against Poverty-related and Neglected Tropical Infectious Diseases), das sich dem Themenkomplex der vernachlässigten Tropenkrankheiten widmet und vor allem Fragen zur Identifikation und Charakterisierung potenzieller Zielmoleküle für die Entwicklung von Wirkstoffen und Diagnostika gegen tropische Infektionskrankheiten adressiert. Das Zentrum DRUID vereint unter Federführung der Philipps-Universität Marburg (Sprecher: Prof. Dr. Stephan Becker, Institut für Virologie der UMR), die hessischen medizinführenden Universitäten (UMR, JLU und Goethe-Universität Frankfurt) sowie das Paul-Ehrlich-Institut, das Fraunhofer Institut für Translationale Medizin und Pharmakologie und die Technische Hochschule Mittelhessen.
Deutsche Gesellschaft für Parasitologie (DGP)
Die Deutsche Gesellschaft für Parasitologie (DGP) mit Sitz in Frankfurt/Main versteht sich als Zusammenschluss aller wissenschaftlich an der Parasitologie interessierten Personen, die auf den Gebieten der Zoologie und Botanik, der Medizin, insbesondere Tropenmedizin, Mikrobiologie und Hygiene, der Veterinärmedizin, des Pflanzenschutzes und der Schädlingsbekämpfung tätig sind. Die Gesellschaft hat sich zum Ziel gesetzt, dem Fortschritt auf allen Gebieten der Parasitologie zu dienen durch fachliche Zusammenarbeit, durch Erfahrungsaustausch zwischen In- und Ausland und durch Förderung des wissenschaftlichen Nachwuchses. Dazu hält die DGP alle zwei Jahre eine wissenschaftliche Tagung ab und führt zwischenzeitlich Symposien und Arbeitstagungen durch. Die DGP betreibt Öffentlichkeitsarbeit, um die Bedeutung von Parasitosen und die Arbeit von Parasitologen in den Medien und bei Forschungsförderern bekannt zu machen. Unter anderem konnten bei der Deutschen Forschungsgemeinschaft (DFG) aufgrund der Aktivitäten der DGP bislang drei Forschungsschwerpunktprogramme eingerichtet werden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph G. Grevelding
Institut für Parasitologie der JLU Gießen
BFS, Schubertstraße 81
35392 Gießen
Telefon: 0641 99-38466
E-Mail: christoph.grevelding@vetmed.uni-giessen.de
Originalpublikation:
https://parasitology-meeting.de/
https://dgparasitologie.de/
AG Schistosomen — Institut für Parasitologie (uni-giessen.de)
DRUID – LOEWE-Vorhaben / ProLOEWE / ProLOEWE
Cochrane Review: So lassen sich bei älteren Menschen Stürze verhindern
Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Die Beseitigung von Stolperfallen in der Wohnung kann das Sturzrisiko älterer Menschen um etwa ein Viertel verringern, so das Ergebnis eines aktuellen Cochrane Reviews. Für eine Reihe anderer Maßnahmen zur Verringerung des Sturzrisikos fand die Studie keine überzeugenden Belege.
Stürze häufen sich im Alter: Schätzungen zufolge erleidet rund ein Drittel aller Menschen ab 65 im Laufe eines Jahres mindestens einen Sturz. Und auch die Folgen eines Sturzes sind im Alter öfter dramatisch, das Risiko für Knochenbrüche und andere Verletzungen steigt erheblich. Dabei ereignen sich die meisten Stürze in den eigenen vier Wänden.
„Stürze sind bei älteren Menschen sehr häufig. Sie können zu schweren Verletzungen oder sogar zum Tod führen, dabei sie sind vermeidbar. In diesem Review wollten wir untersuchen, welche Maßnahmen das Sturzrisiko bei älteren Menschen, die zu Hause leben, am effektivsten reduzieren“, sagt Lindy Clemson, emeritierte Professorin an der Universität Sydney und Hauptautorin der Studie.
Für den Review analysierten Clemson und ihre Kolleg*innen die Ergebnisse von 22 Studien mit Daten von 8 463 älteren Menschen. Dabei zeigte sich, dass Maßnahmen zur Verringerung von Gefahrenstellen im häuslichen Umfeld die Zahl von Stürzen wahrscheinlich um 26 Prozent senken. Solche Maßnahmen umfassen in der Regel eine Bewertung der Gefahrenstellen im häuslichen Umfeld in Kombination mit Empfehlungen zur Verringerung des Risikos, z. B. durch simples Aufräumen oder das Anbringen von Handläufen und rutschfesten Streifen an Treppen. Diese Maßnahmen zeigen die größte Wirkung (38 Prozent weniger Stürze) bei Menschen mit erhöhtem Sturzrisiko. Auf der Grundlage ihrer Analyse rechnen die Autor*innen hoch, dass sich unter 1000 Personen, die diese Maßnahmen ein Jahr lang befolgen, die Gesamtzahl der Stürze von 1.847 auf 1.145 sinken würde.
Die Forschung zeigt, dass gefährdete Menschen ihr Sturzrisiko erheblich verringern können, wenn sie ein Bewusstsein für Sturzgefahren in der Wohnung entwickeln, diese beseitigen und sich sichere Verhaltensweisen angewöhnen. Es zeigt sich zudem, dass Maßnahmen zur Verringerung der Sturzgefahr im häuslichen Umfeld eine professionelle Begutachtung und Umsetzung erfordern und nicht nur mit einer kurzen Checkliste abzuhaken sind. „Zwar können und sollten Betroffene und Angehörige auch selbst auf das häusliche Umfeld achten. Auch Übungen für Gleichgewicht und Kraft der Beine sind sinnvoll. Dennoch ist die professionelle Unterstützung durch einen Ergotherapeuten oder eine Ergotherapeutin für sturzgefährdete Menschen eine wichtige Maßnahme“, meint Clemson.
Der Review belegt zwar, dass es bei einer Reduzierung des Gefahren zu weniger Stürzen kommt. Ob sich das auch in weniger sturzbedingte Krankenhauseinweisungen übersetzt, lässt sich auf Basis der Studienergebnisse allerdings nicht sagen. Für die anderen untersuchten Ansätze zur Sturzprävention wie Aufklärung, eine Überprüfung von Brillen oder spezielle Schuhe hätte der Review nur sehr begrenzte Evidenz gefunden, sagt Clemson. „Die Sturzprävention ist wirklich wichtig, um Menschen dabei zu helfen, im Alter gesund und unabhängig zu bleiben. Unsere Arbeit zeigt aber auch, dass mehr Forschung in diesem Bereich notwendig ist.“
Originalpublikation:
Clemson L, Stark S, Pighills AC, Fairhall NJ, Lamb SE, Ali J, Sherrington C. Environmental interventions for preventing falls in older people living in the community. Cochrane Database of Systematic Reviews 2023, Issue 1. Art. No.: CD013258. DOI: 10.1002/14651858.CD013258.pub2
Weitere Informationen:
https://www.cochrane.de/news/stuerze-bei-aelteren-menschen-lassen-sich-verhinder…
Verbrenner-Aus ab 2035? Ja bitte!
Amelie Störk Presse- und Öffentlichkeitsarbeit
SRH Fernhochschule
Nachhaltigkeit ist ein komplexes Thema. Das zeigt sich auch in der aktuellen Diskussion, ob ab 2035 keine Kraftfahrzeuge mit Verbrennungsmotor mehr neu zugelassen werden sollen. Dies hat das Europäische Parlament im Februar 2023 beschlossen. Jetzt braucht es eine Bestätigung durch die EU-Mitgliedstaaten. Hier gibt es keine einfachen Antworten, weiß Prof. Dr. Michael Koch, Professor für Economics & Sustainability an der SRH Fernhochschule. Er hat die wichtigsten Argumente beider Seiten zusammengetragen und erklärt, warum er sich aus fachlicher Sicht für ein Ende des Verbrennungsmotors ausspricht.
Zwei Meinungen – zwei Antriebe
„Befürworter des Verbots sehen in jeglicher Form von Verbrennungsmotor ein Kraftfahrzeug, das im Betrieb klimaschädliche Gase ausstößt. Das ist für sich betrachtet richtig“, erklärt Prof. Koch. Demnach läge die Zukunft im Autobau bei Fahrzeugen mit alternativen Antrieben, insbesondere dem Elektroantrieb.
Gegner des Verbots führen an, dass es alternative, synthetische Kraftstoffe gibt, die sogenannten E-Fuels, die durch große Mengen von Strom aus Wasser und Kohlenstoffdioxyd hergestellt werden. „Kommt dieser Strom ausschließlich aus erneuerbaren oder anderen CO2-neutralen Quellen, dann können Verbrennungsmotoren mit E-Fuels klimaneutral betrieben werden“, so der Nachhaltigkeitsexperte.
In der Realität allerdings wird der Strom zur Herstellung von E-Fuels auf absehbare Zeit genauso wenig aus 100% klimaneutralen Quellen kommen, wie der Strom zum Betrieb von E-Fahrzeugen. Somit bleiben beide Antriebsarten auf lange Zeit nicht klimaneutral – ganz abgesehen von weiteren Fragen wie beispielsweise der negativen Umweltwirkung bei der Herstellung von Batterien für E-Fahrzeuge.
3 gute Gründe für ein Ende der Verbrennungsmotoren
„Es sprechen dennoch wichtige Argumente für ein künftiges Verbot von Verbrennungsmotoren in Kraftfahrzeugen. Erstens ist der Wirkungsgrad von Verbrennern sehr viel schlechter, so dass ein Elektrofahrzeug mit der gleichen Menge an Energie fünfmal weiter fahren kann als ein mit E-Fuels betanktes Fahrzeug“, weiß Prof. Koch. Somit wird viel Strom verschwendet, wenn dieser zur Produktion von E-Fuels statt für das Laden von Elektrofahrzeugen genutzt wird. Und: Während der Verbrennungsmotor technisch ausgereift ist, stehen alternative Antriebe am Anfang, so dass deren Effizienzvorsprung weiter anwachsen wird.
Als zweiten wichtigen Punkt führt Prof Koch an, dass ein Festhalten am Verbrennungsmotor bedeuten würde, dass die Automobilindustrie auf Dauer mehrgleisig forschen und produzieren würde. Verschiedene Antriebe gleichzeitig zu produzieren, führt zu höheren Kosten und geringeren Effizienzen in der Produktion, und damit letztlich zu höheren Preisen für die Verbraucher.
„Und drittens ist die Forderung der Automobilindustrie nach klaren Rahmenbedingungen berechtigt. Wenn die Politik das Aus von Verbrennern beschließt, kann die Industrie in die nötige Lade-Infrastruktur für Elektrofahrzeuge investieren. Das stärkt wiederum deren Akzeptanz beim Verbraucher und führt zu einer schnelleren nachhaltigen Transformation im Individualverkehr“, so die Einschätzung des Experten.
Jetzt ist die Politik gefragt
Prof. Kochs Forderung an die Politik: Dies soll kein einseitiges Credo für Elektromobilität sein. Hier muss die Batterietechnik Fortschritte machen, um mit weniger Ressourcen auszukommen und höhere Reichweiten zu ermöglichen. Das gelingt jedoch umso schneller, je zügiger die Politik ein Verbrenner-Aus beschließt.
Anhang
Verbrenner-Aus ab 2035? Ja bitte!
Zusatz soll Gülle klimafreundlicher machen
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Bei der Nutztierhaltung entstehen große Mengen Treibhausgase, vor allem das besonders klimaschädliche Methan. Es entweicht unter anderem bei der Lagerung der Tierexkremente, der Gülle. Eine Studie der Universität Bonn zeigt nun, dass sich die Methan-Emission mit einfachen und kostengünstigen Mitteln um 99 Prozent reduzieren lässt. Die Methode könnte einen wichtigen Beitrag zum Kampf gegen den Klimawandel leisten. Die Ergebnisse sind jetzt in der Zeitschrift Waste Management erschienen.
Klimagase wirken wie eine Schicht Fensterglas in der Atmosphäre: Sie verhindern, dass Wärme von der Erdoberfläche in das Weltall abgestrahlt wird. Methan macht das 28 mal so effektiv wie Kohlendioxid – es ist (um im Bild zu bleiben) eine Art unsichtbare Doppelverglasung.
In den letzten 200 Jahren hat sich die Methankonzentration in der Atmosphäre mehr als verdoppelt. Das liegt vor allem am menschlichen Fleischkonsum: Einerseits erzeugen Kühe und andere Wiederkäuer bei der Verdauung Methan. Eine weitere wichtige Quelle sind zudem die Exkremente der Tiere. „Ein Drittel des menschgemachten Methans weltweit stammt aus der Tierhaltung“, erklärt Felix Holtkamp, der im INRES-Institut für Nutzpflanzenwissenschaften und Ressourcenschutz der Universität Bonn promoviert. „Nach Schätzungen entstehen bis zu 50 Prozent davon durch Gärungsprozesse in der Gülle.“
Rund um den Globus suchen Forschende daher nach Möglichkeiten, diese Prozesse zu unterbinden. Holtkamp, sein wissenschaftlicher Betreuer Dr. Manfred Trimborn vom Institut für Landtechnik der Universität Bonn sowie Dr. Joachim Clemens vom Düngemittel-Hersteller SF-Soepenberg GmbH haben für das Problem nun eine vielversprechende Lösung vorgestellt. „Wir haben Gülle von einem Bauernhof im Labor mit Kalkstickstoff versetzt, einer Chemikalie, die seit mehr als 100 Jahren als Dünger in der Landwirtschaft eingesetzt wird“, sagt Holtkamp. „Dadurch kam die Methanproduktion fast vollständig zum Erliegen.“
Emissionen sanken um 99 Prozent
Insgesamt sanken die Emissionen um 99 Prozent. Dieser Effekt begann bereits eine knappe Stunde nach der Zugabe und hielt bis zum Ende des Experiments ein halbes Jahr später an. Die lange Wirksamkeit ist wichtig, da Gülle nicht einfach entsorgt wird. Stattdessen wird sie bis zum Beginn der folgenden Vegetations-Periode gelagert und dann als wertvoller Dünger auf die Felder ausgebracht. Monatelange Lagerzeiten sind daher durchaus üblich.
In dieser Zeit wird die Gülle von Bakterien und Pilzen umgebaut: Sie zerlegen unverdautes organisches Material zu immer kleineren Molekülen. Am Ende dieser Prozesse entsteht Methan. „Kalkstickstoff unterbricht diese Kette chemischer Umwandlungen, und zwar gleichzeitig an verschiedenen Stellen, wie wir bei der chemischen Analyse der entsprechend behandelten Gülle sehen konnten“, erklärt Holtkamp. „Die Substanz unterdrückt den mikrobiellen Abbau von kurzkettigen Fettsäuren, einem Zwischenprodukt der Kette, und deren Umwandlung in Methan. Wie dies genau geschieht, ist noch unbekannt.“
Die Substanz hat aber noch weitere Vorteile: Sie reichert die Gülle mit Stickstoff an und verbessert so ihre Düngewirkung. Außerdem verhindert sie die Entstehung sogenannter Schwimmschichten – das sind Ablagerungen organischen Materials, die auf der Gülle eine harte Kruste bilden und den Gasaustausch behindern. Normalerweise muss diese Kruste regelmäßig zerkleinert und untergerührt werden.
Auch für die Tiere selbst hat das Verfahren Vorteile: Oft werden sie auf sogenannten Spaltenböden gehalten. Ihre Exkremente fallen dabei durch Öffnungen im Boden in einen großen Behälter. Durch die mikrobielle Umsetzung kann das Kot-Urin-Gemisch mit der Zeit aufschäumen und durch die Spalten wieder nach oben steigen. „Die Tiere stehen dann in ihren eigenen Ausscheidungen“, sagt Holtkamp. „Kalkstickstoff unterbindet diese Aufschäumung.“ Die Kosten sind zudem überschaubar – sie liegen für die Rinderhaltung bei etwa 0,3 bis 0,5 Cent pro Liter Milch.
Gülle-„Reinheitsgebot“ verhindert momentan den Einsatz
Unklar ist noch, wie sich die Methode auf die Ammoniak-Freisetzung aus der Gülle auswirkt. Ammoniak ist ein giftiges Gas, dass zwar selbst nicht klimaschädlich ist, aber zu gefährlichen Treibhausgasen umgesetzt werden kann. „Wir haben erste Hinweise darauf, dass sich die Ammoniak-Menge langfristig ebenfalls reduziert“, sagt Dr. Manfred Trimborn vom Institut für Landtechnik der Universität Bonn. „Ganz sicher können wir das momentan aber noch nicht sagen.“
In Deutschland verhindert momentan übrigens ein Umweltgesetz den Zusatz von Kalkstickstoff: Für konventionell gelagerte Gülle gilt aktuell ein strenges Reinheitsgebot.
Beteiligte Institutionen und Förderung:
An der Studie war neben der Universität Bonn die Firma SF-Soepenberg GmbH in Hünxe beteiligt. Die Studie wurde durch das Bundesministerium für Ernährung und Landwirtschaft (BMEL) und die Alzchem Group AG in Trostberg gefördert.
Wissenschaftliche Ansprechpartner:
Felix Holtkamp
INRES-Institut für Nutzpflanzenwissenschaften und Ressourcenschutz
Universität Bonn
Tel. (+49) 228 73-2154
E-Mail: holtkamp@uni-bonn.de
Dr. Manfred Trimborn
Institut für Landtechnik (ILT)
Universität Bonn
Tel. (+49) 228 73-3639
E-Mail: m.trimborn@uni-bonn.de
Originalpublikation:
Felix Holtkamp, Joachim Clemens, Manfred Trimborn: Calcium cyanamide reduces methane and other trace gases during long-term storage of dairy cattle and fattening pig slurry; Waste Management, https://doi.org/10.1016/j.wasman.2023.02.018
Intelligente Algorithmen sollen im Katastrophenschutz unterstützen
Jennifer Strube Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Universität Paderborn an Verbundprojekt beteiligt
Nach einer Katastrophe wie schwerem Hochwasser oder Erdbeben wollen viele Menschen spontan helfen. Wie diese Hilfsbereitschaft schnell koordiniert und möglichst zielgerichtet eingesetzt werden kann, untersuchen Partner aus Wissenschaft, Wirtschaft, Verwaltung und der Bevölkerung in einem neuen vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt. In dem Vorhaben „Koordination von Spontanhelfenden im Krisen- und Katastrophenfall“ (KatHelfer-PRO) arbeitet das interdisziplinäre Team an einer digitalen Lösung, um in Notsituationen den Einsatz von freiwillig Helfenden zu koordinieren.
Das BMBF fördert das im Januar gestartete Projekt im Rahmen der Fördermaßnahme „Innovationen im Einsatz – Praxisleuchttürme der zivilen Sicherheit“ für die nächsten zwei Jahre mit rund 2,4 Millionen Euro. Dabei kooperiert die Universität Paderborn (Department für Wirtschaftsinformatik) mit den Partnern T-Systems (Koordinator), Martin-Luther-Universität Halle-Wittenberg, Universität Stuttgart, Fraunhofer FOKUS, Malteser Hilfsdienst und DRK Kreisverband Berlin Schöneberg-Wilmersdorf.
Eine App für den Katastrophenfall
Die Überflutung des Ahrtals, die Coronapandemie oder die Versorgung ukrainischer Kriegsflüchtlinge waren Großlagen, die in jüngster Vergangenheit tausende Freiwillige zur spontanen Hilfeleistung mobilisiert haben. Doch damit Behörden und Organisationen mit Sicherheitsaufgaben (BOS) – beispielsweise Polizei, Feuerwehr oder Rettungsdienst – diese Hilfe optimal integrieren und koordinieren können, fehlt es bislang an geeigneten Werkzeugen. „KatHelfer-PRO“ will das ändern – mithilfe intelligenter Algorithmen und einer App. Durch die Vernetzung mit den Einsatzleitzentralen sollen Freiwillige in die Arbeit professioneller Rettungskräfte eingebunden werden.
„Die Gewährleistung der zivilen Sicherheit in Deutschland bedarf eines verstärkten Einsatzes digitaler Innovationen. Durch ‚KatHelfer-PRO‘ wollen wir eine digitale Einsatzunterstützung realisieren, die eine koordinierte Kommunikation zwischen Freiwilligen, Einsatzleitstellen und Einsatzkräften ermöglicht“, erklärt Prof. Dr. Guido Schryen, Projektverantwortlicher an der Universität Paderborn und Inhaber des Lehrstuhls für Wirtschaftsinformatik, insb. Operations Research. Modernste Technologien in Kombination mit Erfahrungen und Forschungserkenntnissen der vergangenen Jahre sollen eine schnelle Anwendung in der Praxis ermöglichen.
Bundesweit nutzbares System zur Einsatzunterstützung
Um uneinheitliche, technisch inkompatible lokale Einzellösungen zu vermeiden, arbeitet das Team an einem bundesweiten digitalen System, das eine flexible Integration in die jeweils führenden Systeme ermöglicht.
„Durch das neue System sollen Freiwillige zukünftig innerhalb kürzester Zeit informiert werden können. Außerdem soll es möglich sein, ihnen Aufgaben entsprechend ihrer Fähigkeiten und Verfügbarkeiten zuzuweisen“, so der Paderborner Wissenschaftler. Das konkrete Szenario sieht dabei so aus: Bei einem Krisen- oder Katastrophenfall führt das System Bedarf und Angebot automatisiert mittels eines speziellen Vermittlungsalgorithmus zusammen. Dabei werden beispielsweise maximale Arbeits- und Ruhezeiten, Auslastungen von Einsatzorten und Wegzeiten berücksichtigt. Die Helfenden erhalten dann genaue Angaben über die Art und den Ort des Einsatzes sowie begleitende Informationen über die App.
Zahlreiche Projektpartner arbeiten eng zusammen
Die Verbundpartner des Projekts werden von mehr als 20 assoziierten Partnern unterstützt. Zu ihnen gehört der Arbeiter-Samariter-Bund, die Johanniter Unfall-Hilfe, das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, die Berliner Feuerwehr, die Stadt Halle (Saale), die Stadt Cottbus, der Kreis Ahrweiler, der Helferstab, die Senatsverwaltung für Inneres, Digitalisierung und Sport der Stadt Berlin, das Ministerium für Inneres und Sport des Landes Sachsen-Anhalt, der TÜV Rheinland Industrie Service sowie weitere Universitäten und Wirtschaftsunternehmen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Guido Schryen, Lehrstuhl für Wirtschaftsinformatik, insb. Operations Research der Universität Paderborn, Fon: 05251 60-2106, E-Mail: guido.schryen@upb.de
Weitere Informationen:
http://www.upb.de
„Digital Lotse Wasser“ bietet hochmoderne Digitalisierungslösungen für die Wasserwirtschaft
Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Hof – Mit der neuen Online-Plattform https://www.digital-lotse-wasser.org will die Hochschule Hof moderne Digitalisierungslösungen für die deutschsprachige Wasserwirtschaft erfassen und bekanntmachen. In der Versorgungswirtschaft werden aktuell lediglich rund 10 Prozent der verfügbaren digitalen Hilfen eingesetzt, so die Forschenden. Der Grund für die mangelnde Akzeptanz der Technik liege dabei oft schlicht in fehlenden Informationen über verfügbare Lösungen, Funktionen und Vorteile.
Die von der Hochschule Hof entwickelte Plattform „Digital Lotse Wasser“ hat zum Ziel, das Informationsdefizit nachhaltig zu beseitigen. Die Webseite bietet eine umfassende Datenbank für Digitalisierungslösungen im Wassersektor, die es Kommunen, Forschenden und Anbietenden erleichtert, die benötigten Informationen zu finden: „Unsere Datenbank ist nach Kategorien, Anwendungen, Technologien, Anbietern und bewährten Verfahren gegliedert und bietet einen klaren Überblick über den aktuellen Stand der Digitalisierung im Wassersektor“, so Projektleiter Prof. Günter Müller-Czygan.
Neue Forschungsergebnisse online abrufbar
Neben der Datenbank bietet der „Wasser-Lotse“ auch Zugang zu den wichtigsten Forschungsergebnissen aus den an der Hochschule Hof abgeschlossenen Metastudien WaterExe4.0 und DigiNaX. „Diese wurden durchgeführt, um die Herausforderungen und Erfolgsfaktoren der Digitalisierung in der Wasserwirtschaft zu verstehen. Sie geben wertvolle Einblicke in die Gründe für die derzeitige Zurückhaltung bei der Einführung digitaler Lösungen und die Erfolgsfaktoren bei bereits durchgeführten Projekten“, erläutert Prof. Müller-Czygan.
Positivbeispiele der Branche präsentieren
Daneben steht auf der neuen Plattform auch die Verknüpfung der Branche im Mittelpunkt: Nutzerinnen und Nutzer, Forschende und Dienstleistungsbetriebe finden die Möglichkeit sich zu vernetzen und ihre Arbeit einem breiteren Publikum vorzustellen. „Wer sich auf dem Portal registriert, kann zum Beispiel auf einem standardisierten Formular eine Beschreibung einer digitalen Lösung oder eines Projekts einreichen und sie als Best-Practice-Beispiel veröffentlichen“, erklärt der Projektleiter weiter. Und weiter: „Mit der Plattform „Digital Lotse Wasser“ war es noch nie so einfach, die gewünschten Informationen zu finden und die eigene digitale Lösung zu präsentieren.“
Jetzt registrieren
Zur Beteiligung eingeladen sind alle, die in der deutschsprachigen Wasserwirtschaft arbeiten und sich für die Vorteile der Digitalisierung interessieren. Jeder kann hier nützliche Informationen finden. Um aber eine eigene digitale Lösung zu präsentieren, muss man sich auf https://www.digital-lotse-wasser.org anmelden und damit aktiver Teil einer Gemeinschaft werden, die sich für die Digitalisierung im Wassersektor einsetzt. Die Plattform soll in Zukunft beständig erweitert und verbessert werden, so die Verantwortlichen.
Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
+49 9281 409 – 4683
guenter.mueller-czygan@hof-university.de
Für bakterienfreies Trinkwasser
Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Effiziente Wasserdesinfektion mit Silbersulfid-Quantenpunkten im Peptid-Mantel
Bakterienverseuchtes Wasser ist eine ernsthafte weltweite Bedrohung für die Gesundheit. Ein chinesisches Forschungsteam beschreibt eine neue einfache Desinfektionsmethode in der Zeitschrift Angewandte Chemie. Sie basiert auf winzigen biokompatiblen Atomansammlungen, sogenannten Quantenpunkten, aus Silbersulfid, mit Kappen aus einem Silber-bindenden Peptid. Unter Bestrahlung mit Nah-Infrarot-Licht töten sie Bakterien in Wasser durch synergistische Effekte hocheffizient ab.
Vor allem in Entwicklungsländern und abgelegenen Regionen der Welt kann es sehr schwer sein, Zugang zu sauberem Trinkwasser zu bekommen. Pathogene Bakterien wie Koli-Bakterien, Enterokokken, Salmonellen oder Cholera-Erreger können schwere Infektionen verursachen. Schon ein einziger Schluck kann manchmal fatale Folgen haben. In den letzten Jahrzehnten breit eingesetzte traditionelle Desinfektionsmethoden wie UV-Licht, Chlorung und Ozonbehandlung haben Nachteile, wie ihre hohen Kosten, die geringe Effizienz, schlechte Biokompatibilität und krebserregende Nebenprodukte. Eine Alternative wird gesucht.
Das Team um Xusheng Qiu, Wei Wei und Jing Zhao stellt jetzt einen neuartigen Ansatz vor, der auf Quantenpunkten aus Silbersulfid (Ag2S) basiert. Quantenpunkte sind nanoskopische Strukturen aus ca. tausend bis zehntausend Atomen, die räumlich „eingeschränkt“ sind. Ihre quantenmechanischen Eigenschaften entsprechen dadurch eher Molekülen als makroskopischen Feststoffen, was zu interessanten opto-elektronischen Effekten führen kann.
Silbersulfid-Quantenpunkte werden bereits zur photodynamischen und zur photothermischen Therapie eingesetzt, z.B. zur Behandlung bestimmter Tumore und Hauterkrankungen. Sie können als Kontrastmittel dienen und als Fluoreszenz-Thermometer. In der Wasserdesinfektion wurden sie bislang kaum eingesetzt, unter anderem da bisherige Syntheseverfahren kompliziert und teuer sind. Das Team von der Universität Nanjing und dem Nanchuang (Jiangsu) Institute of Chemistry and Health hat nun ein einfaches, kostengünstiges Herstellverfahren entwickelt, bei dem die Quantenpunkte in Kappen aus einem speziell entwickelten biomimetischen Silber-bindenden Peptid (AgBP2) eingeschlossen werden.
Unter Bestrahlung mit Nah-Infrarot (NIR)-Licht töten die neuartigen AgBP2-Ag2S-Quantenpunkte Bakterien in Wasser effektiv ab. Dabei sind sie stabil, lichtbeständig sowie biokompatibel. Ihre starke Wirkung beruht auf einem synergistischen Zusammenwirken zweier Effekte: Zum einen erzeugen sie bei Bestrahlung hochreaktive Sauerstoffspezies, zum anderen führen sie zu einer starken lokalen Erhitzung. Keiner der beiden Effekte allein führt zum Erfolg, ihr synergistisches Zusammenwirken aber zerstört effektiv bakterielle Zellmembranen. So konnten sie mehr als 99 % Escherichia coli-Bakterien innerhalb von 25 min NIR-Bestrahlung abtöten – eine vielversprechende Strategie für die antibakterielle Wasserdesinfektion.
Angewandte Chemie: Presseinfo 08/2023
Autor/-in: Jing Zhao, Nanjing University (China), http://zj.njjixiang.com/
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.
Originalpublikation:
https://doi.org/10.1002/ange.202300085
Weitere Informationen:
http://presse.angewandte.de
Energieeffizienz: Kaum Nachteile für Mietwohnungen
RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
In der Energieeffizienz zwischen neu angebotenen Miet- und Eigentumswohnungen besteht im Durchschnitt nur ein geringer Unterschied. Dies ist das Ergebnis einer Studie des Potsdam-Institut für Klimaforschung (PIK) und des RWI – Leibniz-Institut für Wirtschaftsforschung. Damit wird die Vermutung entkräftet, dass Vermieterinnen und Vermieter aufgrund fehlender Anreize zu wenig in Energieeffizienz investieren, da sie nicht direkt von Energieeinsparungen profitieren.
Das Wichtigste in Kürze:
– Eine neue Studie von PIK und RWI zeigt, dass es im Durchschnitt nur einen geringen und ökonomisch unbedeutenden Unterschied in der Energieeffizienz zwischen neu angebotenen Miet- und Eigentumswohnungen gibt – wenn Faktoren wie Baujahr, Größe und Lage der Immobilie durch ökonometrische Verfahren herausgerechnet werden.
– Für Immobilien, die direkt von privaten Eigentümern angeboten werden, beträgt der errechnete Unterschied in der Energieeffizienz zwischen Miet- und Eigentumswohnungen mit ansonsten ähnlichen Eigenschaften im Durchschnitt 1,8 Prozent gemessen am Energieverbrauch pro Quadratmeter. Das entspricht einer jährlichen Differenz von zwei Kilowattstunden pro Quadratmeter, was bei einer durchschnittlichen Wohnungsgröße von 75 Quadratmetern Mehrkosten in Höhe von 30 Euro pro Jahr bedeutet.
– Dieses Ergebnis, das durch weitere Untersuchungsansätze bestätigt wird, entkräftet die Behauptung, dass es im Mietsektor ein entscheidendes Anreizproblem bei Investitionen in Energieeffizienz gibt, obwohl Vermieterinnen und Vermieter nur dann von Investitionen profitieren, wenn es anschließend zu einer Mieterhöhung oder einem Verkauf der Immobilie kommt.
– Dafür könnte es zwei Gründe geben: Erstens werden viele Mehrfamilienhäuser sowohl von Mieter/innen als auch von Eigentümer/innen bewohnt. Da Investitionsentscheidungen in Mehrfamilienhäusern gemeinsam getroffen werden und die von Eigentümern selbst genutzten Wohnungen in der Regel größer sind, dürfte der Wille der Eigentümer gegenüber dem der Vermieter im selben Gebäude häufig stärker ins Gewicht fallen. Zweitens wohnt die Mehrzahl der Mieter in größeren Mehrfamilienhäusern, in denen die Renovierungskosten geteilt werden. Da die Renovierungskosten pro Wohnung mit der Zahl der Wohnungseinheiten tendenziell abnehmen, könnte dies den Anreiz für private Vermieter erhöhen, in Energieeffizienz zu investieren.
– Die Studienergebnisse deuten jedoch darauf hin, dass es im Neubau sowie bei umfassend sanierten Wohnungen ein größeres Defizit geben könnte: Der ermittelte Unterschied in der Energieeffizienz zwischen von privaten Eigentümern angebotenen Miet- und Eigentumswohnungen beträgt hier 6,5 Prozent. Neubauwohnungen sind im Schnitt zwar wesentlich energieeffizienter als Bestandswohnungen, aber auch etwas größer. Die durchschnittlichen Mehrkosten belaufen sich daher auf etwa 90 Euro pro Jahr.
– Die Studienergebnisse gelten zunächst nur für Wohnungen, die zwischen 2019 und 2021 neu angeboten wurden. Da sich die Untersuchung auf Inserate auf der Plattform ImmoScout24 stützt, können keine Wohnungen berücksichtigt werden, bei denen es nicht zum Mieter- bzw. Eigentümerwechsel kommt.
– Durch das „Gesetz zur Aufteilung der Kohlendioxidkosten“, das zu Beginn des Jahres 2023 in Kraft getreten ist, werden Vermieter inzwischen je nach energetischem Zustand der Immobilie an den Energiekosten in Form der CO2-Abgabe beteiligt. Dadurch sollten sich die Anreize für Vermieter, in Energieeffizienz zu investieren, im Vergleich zum Untersuchungszeitraum noch einmal erhöht haben.
„Unsere Studie zeigt, dass bei Mietwohnungen ähnlich viel oder ähnlich wenig in Energieeffizienz investiert wird wie bei Eigentumswohnungen“, sagt RWI-Energieexperte Stephan Sommer. „Das bedeutet, dass die insgesamt geringen Einsparungen im Wohnsektor in den vergangenen Jahren nicht auf fehlende Anreize für Vermieter zurückzuführen sind. Dennoch bleiben sinnvolle Investitionsanreize und eine faire Verteilung der Kosten enorm wichtig für ein klimaverträglicheres Wohnen.“ Puja Singhal, Klimapolitikforscherin am PIK, ergänzt: „Dass Deutschland ein Mieterland ist, ist kein entscheidendes Hindernis für die Wärmewende, wie unsere Analyse zeigt. Die Ergebnisse deuten darauf hin, dass der Mietwohnungsmarkt insgesamt wettbewerbsfähig genug ist, um privaten Vermietern Anreize zu bieten, in die Energieeffizienz ihrer Immobilien zu investieren. Das gilt zumindest dann, wenn ein Verkauf oder eine Neuvermietung der Immobilie bevorsteht.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stephan Sommer, Stephan.Sommer@rwi-essen.de, Tel.: (0201) 81 49-233
Originalpublikation:
https://www.rwi-essen.de/fileadmin/user_upload/RWI/Publikationen/Ruhr_Economic_P…
Krieg in der Ukraine bedroht Süßwasserressourcen und Wasserinfrastruktur
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Der anhaltende Krieg in der Ukraine hat auch vielfältige Auswirkungen auf den Wassersektor des Landes. Das zeigt eine aktuelle Studie des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der Senckenberg Gesellschaft für Naturforschung (SGN), die in der Fachzeitschrift Nature Sustainability veröffentlicht wurde. Neben den verheerenden direkten Kriegsfolgen hat die Zerstörung der Wasserinfrastruktur auch sehr langfristige Folgen und Risiken für die Bevölkerung, die Umwelt und die weltweite Ernährungssicherheit.
In bewaffneten Konflikten gehören Süßwasser und Wasserinfrastruktur zu den am stärksten gefährdeten Ressourcen. Dabei kann der Zugang zu Wasserressourcen zum Auslöser des Konflikts werden, als militärisches Druckmittel dienen oder der Wassersektor selbst direkt von Kriegshandlungen betroffen sein. Die Zahl solcher Vorfälle hat in den letzten zehn Jahren deutlich zugenommen.
„In der Ukraine finden militärische Aktionen in einer Region statt, in der es einen hoch entwickelten und industrialisierten Wassersektor gibt. Dies ist eine besondere Situation im Vergleich zu anderen militärischen Konflikten weltweit, die den Wassersektor betreffen“, sagt Oleksandra Shumilova, IGB-Forscherin und Erstautorin der Studie, die selbst aus der Ukraine stammt. Die umfangreiche kritische Wasserinfrastruktur des Landes umfasst große Mehrzweck-Stauseen, Wasserkraftwerke, Kühlanlagen für Kernkraftwerke, Wasserreservoirs für Industrie und Bergbau sowie ein ausgedehntes Versorgungsnetz für die landwirtschaftliche Bewässerung und die städtische Wasserversorgung.
Das internationale Team der Studie – mit Forschenden aus der Ukraine, Deutschland, Belgien und den USA – sammelte und analysierte Informationen über die Anzahl, Standorte, Art und Folgen der Auswirkungen militärischer Aktionen auf den Wassersektor in den ersten drei Monaten des Konflikts. Dabei glichen die Forschenden Daten aus Regierungs- und Medienquellen ukrainischer, russischer und internationaler Herkunft ab, die im Zeitraum von Mitte Februar bis Mitte September 2022 verfügbar waren.
Die Ergebnisse zeigen ein breites Spektrum an Schäden, darunter die Überflutung großer Gebiete durch Dammbrüche, die Verschmutzung durch ungeklärte Abwässer, versenkte Munition und den Anstieg des Grubenwasserspiegels sowie eine erhebliche Verringerung der Menge und Qualität von Trinkwasser und Wasser für die Landwirtschaft. Einige Vorfälle führten zwar nicht zu direkten Schäden, haben aber potentielle Auswirkungen, wie beispielsweise Raketen, die Dämme von Stauseen und Kühlanlagen von Kernkraftwerken überfliegen.
Knappe Trinkwasserversorgung für Millionen Menschen:
Seit Beginn des Krieges ist die Trinkwasserversorgung von Millionen von Zivilist*innen durch Militäraktionen beeinträchtigt worden, und die Zahl der Betroffenen nimmt stetig zu. Wie die Studie zeigt, ist dies nicht nur auf direkte Angriffe auf Wasserleitungen, Kanäle, Pumpstationen oder Wasseraufbereitungsanlagen zurückzuführen, sondern auch auf die starke Abhängigkeit der Wasserinfrastruktur von der Stromversorgung, die unterbrochen wurde oder ganz zusammenbrach. „In meiner Heimatstadt Mykolajiw, die vor dem Krieg eine halbe Million Einwohner hatte, ist das Thema Wasser fast täglich in den Nachrichten. Im April 2022 wurde eine 90 Kilometer lange Transferleitung beschädigt, die Wasser aus dem Fluss Dnjepr lieferte. Über einen Monat lang gab es kein Leitungswasser. Später wurde das Wasser mit häufigen Unterbrechungen aus einer anderen Quelle geliefert, aber auch nach der Aufbereitung ist es nicht zum Trinken geeignet. Jeden Tag sieht man lange Schlangen von Menschen mit Plastikflaschen, die auf Wasser warten“, sagt Oleksandra Shumilova. Laut eines UN-Berichts ist die Zahl der Menschen in der Ukraine, die keinen Zugang zu ausreichend sauberem Wasser haben, zwischen April und Dezember 2022 von 6 auf 16 Millionen gestiegen. Dies hat negative Auswirkungen auf die Gesundheit und erhöht das Risiko von Epidemien im Land.
Militäraktionen führen zu starker Verschmutzung:
Militäraktionen verschmutzen Süßwasserressourcen stark, sowohl direkt – etwa durch versenkte Munition und Kriegsgerät, als auch indirekt – etwa durch beschädigte Industrieanlagen. Bis Anfang Juni 2022 wurden mehr als 25 große ukrainische Industriebetriebe beschädigt oder vollständig zerstört. Dazu gehören der Ammoniakhersteller AZOT, die Koks- und Chemiefabrik Coke and Chemistry in Avdievka und das Zentrum für Metallurgie AZOVSTAL in Mariupol.
Der größte Teil der Wasserinfrastruktur befindet sich in den südlichen und östlichen Teilen des Landes – Gebiete mit intensiver landwirtschaftlicher Produktion und großen Industrieanlagen der Metallverarbeitung, des Bergbaus und der chemischen Produktion. „Diese Regionen sind in diesem Krieg besonders gefährdet und stehen exemplarisch dafür, wie wichtig es ist, die Wassersysteme vor Verschmutzung und Gewalt zu schützen“, sagt Peter Gleick, Mitbegründer und Senior Fellow des Pacific Institute for Studies in Development, Environment, and Security in Oakland, USA. Er ist einer der Autoren der Studie und betreut auch die öffentlich zugängliche Datenbank des Instituts zur Chronologie globaler Wasserkonflikte.
Schwere Umweltverschmutzung bedroht auch Europas größtes landwirtschaftliches Bewässerungssystem:
Im Süden der Ukraine, der viel zitierten Kornkammer Europas, liegt der Kakhovka-Stausee mit seinem Bewässerungssystem für die großflächige landwirtschaftliche Produktion. Es ist das größte Bewässerungskanalsystem Europas mit einer Gesamtlänge von über 1.600 Kilometern. Das weit verzweigte Netz der Bewässerungskanäle ist auch zu einem Entsorgungsplatz für militärische Objekte geworden. Der Zerfall von Kriegsgerät und die Zersetzung von Munition unter Wasser führen zur Freisetzung von Schwermetallen und giftigen Sprengstoffen, deren Auswirkungen über Jahrzehnte andauern können.
Überflutete Gruben verunreinigen Trinkwasserquellen und Oberflächengewässer:
Im Osten des Landes befinden sich große Industrieanlagen der Metallverarbeitung, des Bergbaus und der chemischen Produktion, die ebenfalls betroffen sind. Eine besondere Gefahr stellt hier der Anstieg von kontaminiertem Grubenwasser dar. Die Region Donbass, deren Kohlerevier 13-mal so groß ist wie das deutsche Ruhrgebiet, verfügt über ein ausgedehntes Netz von 220 unterirdischen Bergwerken. Obwohl viele Bergwerke in den letzten Jahrzehnten stillgelegt worden sind, muss das Grubenwasser ständig abgepumpt werden, damit es nicht ansteigt und in geologisch verbundene Bergwerke überläuft. Mehrere Stromausfälle und direkte Schäden haben diesen Prozess zum Erliegen gebracht. Allein in den ersten drei Monaten des Konflikts wurden sechs Bergwerke vollständig und zwei zeitweise überflutet. Grubenwässer mit hohen Sulfat-, Chlorid- und Schwermetallkonzentrationen können in Grund- und Oberflächengewässer gelangen.
Der Zustand der Stauseen am Fluss Dnjepr birgt große Risiken, etwa die Freisetzung von radioaktivem Material:
Besorgniserregend sind die durch Angriffe verursachten baulichen Schäden an den großen Stauseen entlang des Dnjepr, die neben der Landwirtschaft auch für die Energieerzeugung und Kühlung von Kernkraftwerken wichtig sind. Ein Dammbruch am Dnjepr birgt zudem die Gefahr einer sekundären radioaktiven Kontamination durch unkontrollierte Freisetzung von radioaktivem Material, das sich nach der Katastrophe im Kernkraftwerk Tschernobyl 1986 in den Sedimenten angereichert hat – nach dem Unfall fungierten die Stauseen der Dnjepr-Kaskade als Senken für Radiocäsium. Das KKW Zaporizhzhia, das größte Kernkraftwerk Europas, liegt am Ufer des Kakhovka -Stausees. Dessen Wasser wird für das Kühlsystem des Reaktors benötigt. Ein Dammbruch würde daher die Sicherheit des Kernkraftwerks gefährden.
Nur einige der Folgen lassen sich abschätzen, beispielsweise anhand von vorangegangenen Katastrophen:
Zum gegenwärtigen Zeitpunkt ist eine umfassende Bewertung der Auswirkungen auf die Süßwasserressourcen aufgrund des eingeschränkten Zugangs zu den betroffenen Gebieten und möglicher Diskrepanzen in den verfügbaren Berichten nur begrenzt möglich. Hinzu kommt, dass Wassereinzugsgebiete grenzüberschreitend sind und sich Schadstoffe, die in die Umwelt gelangen, weit ausbreiten können. 98 Prozent der Einzugsgebiete der ukrainischen Flüsse fließen in das Schwarze und das Asowsche Meer, die restlichen zwei Prozent in die Ostsee. Für einige Ereignisse gibt es Vergleiche aus der Vergangenheit, wie zum Beispiel die katastrophalen Überschwemmungen nach der Beschädigung des Wasserkraftwerks am Dnjepr im Zweiten Weltkrieg und die Verbreitung von Radionukliden durch Wasser nach der Katastrophe von Tschernobyl.
Jetzt Maßnahmen zur Wiederherstellung ergreifen:
„Unsere Studie zeigt nur einige Beispiele für Schäden und mögliche langfristige und weitreichende Folgen. Die Einzugsgebiete von Süßwasser-Ökosystemen sind grenzüberschreitend und die internationale Gemeinschaft, einschließlich der Forschung, sollte jetzt dringend Maßnahmen ergreifen, um den Wassersektor in der Ukraine wiederherzustellen“, sagt Klement Tockner, einer der Autoren der Studie und Generaldirektor der Senckenberg Gesellschaft für Naturforschung.
Der wissenschaftliche Artikel zeigt Richtungen für zukünftige Forschung auf. So können beispielsweise räumliche mathematische und kartografische Modelle unter Verwendung von Fernerkundungsdaten angewandt werden, um Überschwemmungen nach Dammbrüchen, die Ausbreitung von Schadstoffen oder von unterirdischen Grubenwässern zu simulieren und die Qualität von Wasser für Trink- und Bewässerungszwecke zu bewerten.
Wissenschaftliche Ansprechpartner:
Dr. Oleksandra Shumilova
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
oleksandra.shumilova@igb-berlin.de
Prof. Klement Tockner
Senckenberg Gesellschaft für Naturforschung (SGN)
klement.tockner@senckenberg.de
Originalpublikation:
Shumilova, O., Tockner, K., Sukhodolov, A. et al. Impact of the Russia–Ukraine armed conflict on water resources and water infrastructure. Nat Sustain (2023). https://doi.org/10.1038/s41893-023-01068-x
Weitere Informationen:
https://www.igb-berlin.de/news/krieg-der-ukraine-bedroht-suesswasserressourcen-u…
Inflation und Zinssätze bleiben langfristig hoch
Pascal Ausäderer Presse und Redaktion
ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung GmbH Mannheim
Das Inflationsziel der EZB von 2,0 Prozent wird im Zeitraum 2023-2025 voraussichtlich stärker überschritten als im November 2022 angenommen. Die Lohnentwicklung im Euroraum hat unter Finanzmarktexpertinnen und-experten erneut zu höheren Inflationserwartungen geführt, während die Energiepreise einen dämpfenden Effekt hatten. Die Experten/-innen gehen davon aus, dass die EZB die Zinsen in den kommenden Sitzungen weiter anheben wird, und zwar stärker als im November 2022 erwartet. Im Vergleich zum Jahr 2022 sollen die die Zinserhöhungen im Jahr 2023 allerdings nicht mehr so hoch ausfallen. Für 2024 und 2025 erwarten die Befragten wieder eine Senkung des Leitzinses.
Dies sind die Ergebnisse der Sonderfrage des ZEW-Finanzmarkttests vom Februar 2023, in der die Befragten ihre Einschätzung der Inflations- und Leitzinsentwicklung im Euroraum in den Jahren 2023 bis 2025 zum Ausdruck brachten.
In der Umfrage vom Februar 2023 erwarten die Finanzmarktexperten/-innen im Median Inflationsraten für die Jahre 2023, 2024 und 2025 von 6,0, 3,5 bzw. 2,5 Prozent. Die Befragten gehen somit weiterhin davon aus, dass sich die Inflation ab 2023 über die Zeit abschwächen wird. Die Inflationsprognosen für 2024 sind jedoch etwas höher als im November 2022. So wurden im November 2022 für die Jahre 2023 und 2024 noch Inflationsraten im Median von 6,0 und 3,1 Prozent erwartet.
Lohnentwicklungen befeuern die Inflation während Energiepreise die Inflation drücken
Wie in der Umfrage vom November 2022 begründet die Mehrheit der Finanzmarktexperten die höheren Inflationsprognosen im Februar 2023 mit der Entwicklung der Löhne und Gehälter im Euroraum (rund 65 Prozent sahen darin einen positiven oder stark positiven Einfluss gegenüber 60 Prozent im November 2022).
Im Gegensatz zur Umfrage vom November 2022 sind die Teilnehmer nun jedoch der Ansicht, dass die Entwicklung der Energiepreise die Inflation nach unten gedrückt hat. Während im November 2022 60 Prozent der Teilnehmer angaben, dass die Energiepreise einen positiven Einfluss auf ihre Inflationserwartungen hatten, sind nun 65 Prozent der Meinung, dass dies ein negativer Einflussfaktor war. In geringerem Maße kann dieselbe Beobachtung für die Entwicklung der Rohstoffpreise (ohne Energie) gemacht werden, da rund 50 Prozent der Teilnehmer der Ansicht waren, dass sie sich negativ auf ihre Inflationserwartungen auswirkten (und rund 30 Prozent waren der Ansicht, dass sie keinen Einfluss hatten), während im November 2022 rund 52 Prozent der Ansicht waren, dass sie einen positiven Einfluss hatten.
„Die Befragten erhöhten erneut ihre Inflationserwartungen, die mindestens bis zum Jahr 2025 über dem 2-Prozent-Ziel der EZB liegen dürften. Wie bereits im August und November 2022 nannten sie als einen der Haupttreiber für den Aufwärtstrend die Lohnentwicklung im Euroraum. Dies könnte zu Zweitrundeneffekten führen und damit die Inflation erneut anheizen. In diesem Zusammenhang haben die Experten/-innen auch ihre geldpolitischen Zinserwartungen für die kommenden Jahre angehoben“, kommentiert Thibault Cézanne, Researcher im ZEW-Forschungsbereich „Altersvorsorge und nachhaltige Finanzmärkte“ das Ergebnis.
Über die Befragung
Der ZEW-Finanzmarkttest ist eine seit Dezember 1991 durchgeführte Umfrage, in der monatlich die Erwartungen über die Entwicklung wichtiger internationaler Volkswirtschaften erhoben werden. Derzeit sind dies Deutschland, das Eurogebiet, die Vereinigten Staaten von Amerika sowie China. Insgesamt besteht das Panel aus etwa 350 Finanzanalysten aus Banken, Versicherungen und großen Industrieunternehmen. Angesprochen werden die Experten/-innen der Finanz-, Research- und volkswirtschaftlichen Abteilungen sowie der Anlage- und Wertpapierabteilungen dieser Unternehmen. Die meisten Teilnehmer/innen kommen aus Deutschland.
Die Finanzexpertinnen und -experten werden nach ihren Erwartungen gefragt, die sie auf einen Horizont von 6 Monaten hinsichtlich der Entwicklung der Konjunktur, der Inflationsrate, der kurz- und langfristigen Zinsen, der Aktienkurse und der Wechselkurse haben. Zusätzlich werden sie um eine Einschätzung der Ertragslage in 13 deutschen Branchen gebeten. Neben einem festen Umfrageteil werden laufend zu aktuellen Themen Sonderumfragen durchgeführt. Aus den Erwartungen der Finanzmarktexperten/-innen zur Entwicklung der wirtschaftlichen Lage in Deutschland werden die ZEW-Konjunkturerwartungen berechnet, die sich als Frühindikator für die Konjunkturentwicklung („ZEW-Index“) etabliert haben. Das ZEW kommuniziert die Ergebnisse des Finanzmarkttests darüber hinaus ausführlich im monatlich erscheinenden ZEW-Finanzmarktreport.
Wissenschaftliche Ansprechpartner:
Thibault Cézanne
Researcher im ZEW-Forschungsbereich
„Altersvorsorge und nachhaltige Finanzmärkte“
Tel: +49 (0)621 1235-287
thibault.cezanne@zew.de
Originalpublikation:
https://www.zew.de/fileadmin/ZEW-TTT-Daten/Aktuellmeldungen/2023/02_Februar/0220…
Wie angehende Lehrkräfte künftig die Klimawandelforschung in den Unterricht einbringen können
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Lehramtsstudierenden digitale Methoden an die Hand zu geben, um aktuelle Klimawandelforschung im Schulunterricht zu vermitteln: Dieses Ziel verfolgen Prof. Dr. Werner Aeschbach und Dr. Nicole Aeschbach, Wissenschaftler an der Universität Heidelberg, mit der Entwicklung eines hybrid konzipierten Angebots für Studentinnen und Studenten mit dem Studienziel Lehramt. Das Projekt „Klimaphysik meets BNE“ ist am Institut für Umweltphysik und an der Heidelberg School of Education angesiedelt und wird mit einem Tandem-Fellowship für die innovative Weiterentwicklung der digitalen Hochschullehre gefördert.
Stifterverband und Land fördern Nicole Aeschbach und Werner Aeschbach für die Entwicklung eines hybrid konzipierten Moduls zur Vermittlung neuer virtueller Lehrmethoden
Lehramtsstudierenden digitale Methoden an die Hand zu geben, um aktuelle Klimawandelforschung im Schulunterricht zu vermitteln: Dieses Ziel verfolgen Prof. Dr. Werner Aeschbach und Dr. Nicole Aeschbach, Wissenschaftler an der Universität Heidelberg, mit der Entwicklung eines hybrid konzipierten Angebots für Studentinnen und Studenten mit dem Studienziel Lehramt. Als angehende Lehrkräfte in naturwissenschaftlichen Fächern sollen sie die Möglichkeit erhalten, sich intensiv mit klimaphysikalischen Fragen zu befassen und zugleich Kompetenzen für den Einsatz neuer virtueller Methoden im Unterricht zu erwerben. Das Projekt „Klimaphysik meets BNE“ ist am Institut für Umweltphysik und an der Heidelberg School of Education angesiedelt und wird mit einem Tandem-Fellowship für die innovative Weiterentwicklung der digitalen Hochschullehre gefördert. Der Stifterverband und das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg stellen dafür Mittel in Höhe von 50.000 Euro zur Verfügung.
Das Land Baden-Württemberg hat in seinen Bildungsplänen für Allgemeinbildende Schulen die „Leitperspektive Bildung für Nachhaltige Entwicklung“ (BNE) festgeschrieben. Sie schafft einen Rahmen zur fächerübergreifenden Verankerung von Nachhaltigkeitsthemen im Unterricht. Mit ihrem Projekt „Klimaphysik meets BNE“ schlagen Werner Aeschbach und Nicole Aeschbach eine Brücke von der Leitperspektive BNE in die MINT-Fächer – Mathematik, Informatik, Naturwissenschaft und Technik. „Wir bieten Lehramtsstudierenden aus den Naturwissenschaften die Chance, fachwissenschaftlich tief in die Klimaphysik einzutauchen und gleichzeitig mit Blick auf die Unterrichtspraxis konkret anwendbare Kompetenzen für die Vermittlung dieser Inhalte – insbesondere mit digitalen Methoden – zu erwerben“, erläutert Projektleiterin Dr. Aeschbach von der Heidelberg School of Education (HSE). „Für Studentinnen und Studenten mit dem Studienziel Lehramt wollen wir ein Lehrangebot schaffen, das das wissenschaftlich wie gesellschaftlich relevante Themenfeld Klimawandel aufgreift“, ergänzt Tandempartner Prof. Aeschbach, der am Institut für Umweltphysik der Universität Heidelberg lehrt und forscht.
Im Rahmen des Projekts „Klimaphysik meets BNE“ entsteht ein hybrid konzipiertes Modul, das sich an Lehramtsstudierende naturwissenschaftlicher Fächer richtet und Formen des Online-Lernens mit virtuell erweiterten Aktivitäten in Präsenz verbindet. Das Lehrangebot vermittelt insbesondere digitale Methoden, um aktuelle Erkenntnisse aus der Forschung zum Klimawandel in den Schulunterricht einzubringen. Um diese Ansätze interdisziplinär weiterzuentwickeln, nutzen Projektteam und Studierende das „HSE Digital Teaching and Learning Lab“ – einen Arbeitsraum mit medientechnischer Ausstattung, mit dem angehende Lehrerinnen und Lehrer an neue digitale Lehr- und Lernformen für den Schulunterricht herangeführt werden sollen. Das Lab wird von der HSE betrieben, der hochschulübergreifenden Einrichtung der kooperativen Lehrerbildung, die von Universität Heidelberg und Pädagogischer Hochschule Heidelberg getragen wird.
Nicole Aeschbach baut an der HSE die Zusatz- und Querschnittsqualifikation „Nachhaltigkeit“ für Lehramtsstudierende auf und befasst sich mit Fragen der Digitalisierung in der Lehrkräftebildung. Zudem leitet sie am Geographischen Institut der Universität Heidelberg ein Forschungs- und Praxislabor, in dem sie mit ihrem Team zum Klimaschutz und zur Anpassung an die Folgen des Klimawandels forscht. Werner Aeschbach ist Inhaber einer Professur am Institut für Umweltphysik der Ruperto Carola und leitet dort die Forschungsgruppe „Hydrosphärische Tracer und Proxies“, die im Arbeitsbereich Aquatische Systeme angesiedelt ist. Er ist Sprecher der Heidelberg Graduate School for Physics (HGSFP), der Graduiertenschule für die Ausbildung von Doktorandinnen und Doktoranden in der Physik.
Mit dem Fellowship-Programm fördern der Stifterverband und das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg innovative Ideen zur Weiterentwicklung der digitalen Hochschullehre.
Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de
Weitere Informationen:
http://www.hse-heidelberg.de/forschungsprojekt-klimaphysik-bne – Projektseite „Klimaphysik meets BNE“
http://www.stifterverband.org/bwdigifellows – Fellowship-Programm für digitale Hochschullehre
Restless-Legs-Syndrom: Lassen sich durch nicht medikamentöse Verfahren die Symptome lindern?
Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)
Restless-Legs-Syndrom: Lassen sich durch nicht medikamentöse Verfahren die Symptome lindern? Für einige Verfahren zeigen sich bei dieser Forschungsfrage im Rahmen des ThemenCheck Medizin Anhaltspunkte für einen Nutzen. Stellungnahmen zur vorläufigen Bewertung erbeten bis zum 24.03.2023 .
Im Auftrag des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) untersucht derzeit ein interdisziplinäres Team von Wissenschaftlerinnen und Wissenschaftlern der Gesundheit Österreich GmbH und der Medizinischen Universität Graz den Nutzen von nicht medikamentösen Verfahren zur Linderung der Symptome bei Restless-Legs-Syndrom (RSL).
Vorläufiges Ergebnis: Das Wissenschaftsteam konnte 22 randomisierte kontrollierte Studien zu 17 unterschiedlichen nicht medikamentösen Verfahren in seine Bewertung einschließen. Bei einigen dieser Verfahren zeigte sich zumindest kurzfristig eine Verbesserung der RLS-Symptomatik.
Zu diesem vorläufigen Bericht bittet das IQWiG nun bis zum 24.03.2023 um Stellungnahmen. Es handelt sich dabei um eine Gesundheitstechnologie-Bewertung (engl. Health Technology Assessment = HTA) im Rahmen des IQWiG-Verfahrens ThemenCheck Medizin. Die Fragestellungen der ThemenCheck-Berichte gehen stets auf Vorschläge von Bürgerinnen und Bürgern zurück.
Anfrage einer Bürgerin war Ausgangspunkt des ThemenCheck-Berichts
Das Restless-Legs-Syndrom (RLS) wird auch als Syndrom der unruhigen, ruhe- oder rastlosen Beine bezeichnet. Es äußert sich durch Ziehen, Reißen, Kribbeln, Schmerzen und Krämpfe, meist verbunden mit einem unbändigen Bewegungsdrang. Die Symptome treten in der Regel in Ruhe, vor allem am Abend und in der Nacht auf, was zu starken Ein- oder Durchschlafstörungen führen kann.
Mit einer Gesamthäufigkeit von 4 bis 10 Prozent zählt das RLS zu einer der häufigsten neuro-logischen Erkrankungen in Deutschland. Von einem klinisch relevanten, behand¬lungsbedürftigen RLS sind in Deutschland etwa 1,3 Prozent der Erwachsenen betroffen.
Die Behandlung eines primären RLS hat zum Ziel, die direkten Symptome und Folgeerschein¬ungen wie Schlafstörungen zu lindern und die Lebensqualität der Betroffenen zu verbes¬sern, da es aktuell keine heilende Therapie gibt. Das primäre RLS wird heutzutage überwiegend pharmakologisch behandelt. Neben Arzneimitteln wie sogenannten Dopaminagonisten werden verschiedene nicht medikamentöse Verfahren wie Massagen, Akupunktur oder auch Wärme- und Kälteanwendungen zur Behandlung des RLS angeboten.
Vor diesem Hintergrund stellte eine Bürgerin die Frage an das IQWiG, ob es wirk¬same nicht medikamentöse Verfahren zur Behandlung der Erkrankung gibt.
Einige Verfahren bringen zumindest kurzfristig Linderung
Die vom IQWiG beauftragten Wissenschaftlerinnen und Wissenschaftler konnten für die Bearbeitung der Forschungsfrage 22 randomisierte kontrollierte Studien (RCTs) zu 17 unterschiedlichen nicht medikamentösen Verfahren in ihre Bewertung einschließen. Anhaltspunkte für eine Linderung der RSL-Symptomatik zeigen sich in den Studien für folgende Verfahren: Niedrigfrequenz-Elektrostimulation, pneumatische Kompression, Kältekammer, Behandlung mit Fußmassagegeräten, Training auf einem Vibrationsboard, Nahinfrarotlichttherapie, Akupunktur, Counterstrain Manipulation und Bewegungsprogramme wie Krafttraining der unteren Extremitäten oder Yoga.
Allerdings hebt das externe Wissenschaftsteam hervor, dass diese Aussagen auf Kurzzeiteffekte beschränkt bleiben, weil RCTs mit mittel- oder langfristigem Follow-up fehlen. Genauso halten die Wissenschaftlerinnen und Wissenschaftler fest, dass weitere Studien mit längerfristigem Follow-up notwendig seien, um die Ergebnisse zu festigen und auch die Nachhaltigkeit der gefundenen Ergebnisse beurteilen zu können.
Das IQWiG bittet um Stellungnahmen
Zu dem nun vorliegenden vorläufigen Bericht bittet das IQWiG bis zum 24.03.2023 um Stellungnahmen. Alle interessierten Personen, Institutionen und (Fach-)Gesellschaften können Stellungnahmen abgeben. Gegebenenfalls führt das IQWiG eine wissenschaftliche Erörterung zur Klärung von weitergehenden Fragen aus den schriftlichen Stellungnahmen durch. Die Ergebnisse aus der Anhörung können zu Änderungen und/oder Ergänzungen des vorläufigen Berichts führen.
Die ThemenCheck-Berichte werden nicht vom IQWiG selbst verfasst, sondern von externen Sachverständigen. Deren Bewertung wird gemeinsam mit einer allgemein verständlichen Kurzfassung (ThemenCheck kompakt) und einem IQWiG-Herausgeberkommentar veröffentlicht.
Originalpublikation:
https://www.iqwig.de/sich-einbringen/themencheck-medizin/berichte/ht21-04.html
Weitere Informationen:
https://www.iqwig.de/presse/pressemitteilungen/pressemitteilungen-detailseite_89…
Wie digital sind Kirchen in Deutschland? Bundesweite Studie gestartet
Dr. Inga Heins Hochschulkommunikation
Hochschule Macromedia, University of Applied Sciences
Digitalisierung ist in den letzten Jahren immer wichtiger geworden. Das gilt für alle Gesellschaftsbereiche und in besonderem Maße auch für den Raum der Kirchen. Gerade die Corona-Pandemie hat dabei in verschiedenen Feldern zumindest vermeintlich einen echten Digitalisierungsschub ausgelöst. Der Versicherer im Raum der Kirchen (VRK) führt deshalb aktuell in Kooperation mit der Hochschule Macromedia und weiteren Partnern eine Untersuchung zur Digitalisierung im kirchlichen Raum durch. Zahlreiche Landeskirchen, Bistümer sowie caritativ-diakonische und andere kirchliche Einrichtungen beteiligen sich daran und verbreiten den Befragungslink auch auf ihren Kanälen.
„Die Befragung richtet sich dabei genauso an Kirchenmitglieder wie an Mitarbeitende kirchlicher Einrichtungen“, erläutert VRK-Vorstand Jürgen Stobbe. Die allgemeine Nutzung digitaler Kanäle aller Befragten kommt dabei ebenso auf den Prüfstand wie bei kirchlichen Mitarbeitenden die berufliche Anwendung sowie bei kirchlichen Mitgliedern die Digitalisierung für gemeindliche und religiöse Thematiken. „Ziel ist es, ein breites Bild dieses Themas im Raum der Kirchen insgesamt zu zeichnen. Dazu möchten wir als VRK gern einen aktiven Beitrag leisten.“
Prof. Dr. Holger Sievert von der Hochschule Macromedia ergänzt als wissenschaftlicher Studienleiter: „Die Fragen orientieren sich dabei größtenteils an Fragen aus früheren Studien unterschiedlicher Provenienz mit Teil-Fragegruppen, zum Beispiel nur evangelisch oder nur katholisch, oder der Gesamtbevölkerung, um hier auch bereits bei der Ersterhebung Vergleiche zu ermöglichen.“ Spannend wird es vor allem zu schauen, wie sich bei diesem Thema kirchliche Mitarbeitende und Mitglieder verschiedener Konfessionen oder verschiedener Einrichtungen unterscheiden. „Aktuell kennen wir Einzelaspekte, aber kein Gesamtbild.“
Sievert, der die Fakultät „Kultur – Medien – Psychologie“ der Hochschule Macromedia in Köln leitet, ist Experte für digitales Kommunikationsmanagement und arbeitet sowohl für große privatwirtschaftliche Unternehmen als auch für Kirchen. Beispielsweise hat er gemeinsam mit fünf evangelischen Landeskirchen zwei Studien über Online-Gottesdienste mit je um 5.000 Befragten erstellt oder für die Landeskirchen in Baden, Bayern und Württemberg das Projekt „Die digitale Mustergemeinde“ konzeptionell und wissenschaftlich begleitet.
Generell ist die Befragung ab sofort unter https://www.surveymonkey.de/r/digitalisierung-im-raum-der-kirchen erreichbar.
Nach Abschluss und Auswertung der Befragung wird der Versicherer im Raum der Kirchen die Ergebnisse kommunizieren.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Holger Sievert, E-Mail: h.sievert@macromedia.de
Weitere Informationen:
https://www.surveymonkey.de/r/digitalisierung-im-raum-der-kirchen
Neue Studie nimmt Energiespeicher unter die Lupe
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Forscher aus Gießen und Münster veröffentlichen detaillierte Analyse zu Entwicklungsperspektiven von Festkörperbatterien / Review in Nature Energy
Die Erforschung und Entwicklung von elektrochemischen Energiespeichern gehören weltweit zu den aktivsten Arbeitsgebieten der Materialwissenschaften. Mit dem rasant wachsenden Bedarf an leistungsfähigen Batterien für zahlreiche Anwendungsgebiete nimmt das Interesse an den erreichbaren Ladekapazitäten und -geschwindigkeiten zu. Ebenso wird das Augenmerk auf die Lebensdauer, die Sicherheit und die Verfügbarkeit der stofflichen Ressourcen sowie die CO2-Bilanz größer. Vor diesem Hintergrund haben die Chemiker Prof. Dr. Jürgen Janek von der Justus-Liebig-Universität Gießen (JLU) und Prof. Dr. Wolfgang Zeier von der Westfälischen Wilhelms-Universität (WWU) Münster und dem Helmholtz-Institut Münster (HI MS; IEK-12) des Forschungszentrums Jülich die Entwicklungen der vergangenen zehn Jahre auf dem Gebiet der Festkörperbatterien unter die Lupe genommen. Dafür analysierten die Forscher den derzeitigen Stand der Technik und liefern eine kritische Betrachtung der Herausforderungen und offenen Fragestellungen, deren Bewältigung notwendig ist, um die Festkörperbatterie wettbewerbsfähig werden zu lassen. Diese kritische Einordnung der Technologie ist aktuell in der Fachzeitschrift Nature Energy veröffentlicht (review article).
Zum Hintergrund: Die Festkörperbatterie ist eine Weiterentwicklung der Lithium-Ionen-Batterie, deren Funktion gegenwärtig mit einem flüssigen, organischen Elektrolyten erreicht wird. In ihr soll ein fester Elektrolyt zum Einsatz kommen, was noch bessere Speichereigenschaften, längere Lebensdauern und erhöhte Sicherheit verspricht. Die Entwicklung von Festkörperbatterien wird seit etwa zehn Jahren durch intensive Forschungsarbeiten weltweit vorangetrieben.
„Es wird deutlich, dass das Konzept der Festkörperbatterie mittlerweile viele Varianten umfasst, deren Erfolg auch heute noch nicht sicher absehbar ist“, fasst Jürgen Janek den Stand der Entwicklung zusammen. Trotz der umfangreichen Aktivitäten in Forschungseinrichtungen und Industrieunternehmen gibt es bislang noch keinen messbaren Fortschritt gegenüber der etablierten Lithium-Ionen-Zelltechnologie mit flüssigen Elektrolyten, so ein Fazit der Wissenschaftler. Als entscheidende Herausforderungen benennen sie in der Analyse verschiedene Aspekte. So ist ein Kernpunkt die Entwicklung fester Elektrolyte, die bei möglichst geringer Lithiumkonzentration gleichzeitig höhere Batterieleistungen und Sicherheit gewährleisten. Außerdem wird ein Anodenmaterial höchster Kapazität benötigt, das ein geringeres Volumen und Gewicht der Batterie ermöglicht. Generell seien neue Ansätze in der Materialforschung durch die Kombination von Theorie und Experiment und vor allem durch die Zusammenarbeit möglichst diverser Disziplinen wichtig. „Unser Ausblick ist optimistisch. Festkörperbatterien werden zweifellos die Kommerzialisierung erreichen. Es bleibt aber offen, wann und in welchem Umfang“, sagt Wolfgang Zeier.
Bereits 2016 analysierten Prof. Dr. Jürgen Janek und Prof. Dr. Wolfgang Zeier, beide damals an der JLU tätig, die Perspektiven von Festkörperbatterien und veröffentlichten sie in Nature Energy. Diese Veröffentlichung wurde mittlerweile mehr als 2.000-fach zitiert und hat das Forschungsgebiet entscheidend mitgeprägt. In der neuen und umfassenderen Veröffentlichung in der gleichen Zeitschrift aktualisieren die beiden Autoren nun ihre Analyse. Waren 2016 noch viele grundsätzliche Fragen offen und weitgehend ungeklärt, so spielen nun zusätzlich Faktoren eine Rolle, die einerseits der technologischen Umsetzung geschuldet sind und andererseits die wichtigen Fragen der stofflichen Ressourcen und Kosten berühren.
Zu den Autoren
Die Autoren gehören zu den international führenden Wissenschaftlern im Bereich der physikalisch- und anorganisch-chemischen Materialforschung. Prof. Dr. Jürgen Janek leitet seit 1999 eine Arbeitsgruppe für Festkörperelektrochemie an der JLU. Er leitet außerdem das Zentrum für Materialforschung an der JLU und ist einer der beiden wissenschaftlichen Leiter des Labors BELLA am Karlsruher Institut für Technologie. Er ist Mitglied der Nationalen Akademie der Wissenschaften Leopoldina und wurde erst jüngst für seine Arbeiten mit einer Ehrendoktorwürde der TU Delft und dem erstmalig vergebenen Greve-Preis der Leopoldina ausgezeichnet. Prof. Dr. Wolfgang Zeier ist Professor für Anorganische Festkörperchemie an der WWU und leitet die Abteilung „Design fester Ionenleiter“ am HI MS. Die Arbeiten seiner Gruppe zu festen Ionenleitern und Festkörperbatterien wurden mehrfach ausgezeichnet, unter anderem jüngst von der International Battery Association.
Das Bundesministerium für Bildung und Forschung unterstützte die Arbeit im Rahmen des Kompetenzclusters „FESTBATT“ finanziell (Projekte 03XP0431, 03XP0430A und 03XP0430F).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Janek
Justus-Liebig-Universität Gießen (JLU)
Physikalisch-Chemisches Institut
Telefon: 0641 99-34500
E-Mail: Juergen.Janek@phys.Chemie.uni-giessen.de
Prof. Dr. Wolfgang Zeier
Westfälische Wilhelms-Universität Münster
Institut für Anorganische und Analytische Chemie
Telefon: 0251 83-36831
E-Mail: wzeier@uni-muenster.de
Originalpublikation:
Jürgen Janek and Wolfgang G. Zeier (2023): Challenges in speeding up solid-state battery development. Nature Energy (Review Article);
https://doi.org/10.1038/s41560-023-01208-9
Antibiotikaresistenzen: Tuberkulose-Therapie am Limit?
Karola Neubert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Infektionsforschung
Die Entwicklung von Antibiotikaresistenzen erschwert zunehmend die Behandlung der Tuberkulose. Besonders schwer betroffen sind Patientinnen und Patienten, die an einer multiresistenten Tuberkulose erkrankt sind. Hier ist der Erreger gegenüber den besten Tuberkulosemedikamenten, Rifampicin und Isoniazid, resistent, also unempfindlich geworden. Wenn auch die Medikamente zweiter Wahl versagen, gibt es oft keine Rettung für die Betroffenen. In einem besonders komplizierten Fall haben die Ärzte der Medizinischen Klinik Borstel, Leibniz Lungenzentrum, einen Patienten, der gegen praktisch alle Tuberkulose-Medikamente resistent war, erstmals mit außergewöhnlich hohen Dosierungen behandelt.
Die leitliniengerechte Therapie der multiresistenten Tuberkulose (MDR-TB) umfasst mindestens vier Medikamente, die je nach Ausmaß der Antibiotikaresistenzen und Verfügbarkeit der Medikamente 6-18 Monate (oder länger) beträgt. Die dabei eingesetzten Therapeutika sind weniger effektiv als Rifampicin und Isoniazid, mit deutlich höheren Therapiekosten und einem höheren Risiko für Nebenwirkungen verbunden.
Ein besonders komplizierter Fall von antibiotikaresistenter Tuberkulose wurde an der Medizinischen Klinik des Forschungszentrums Borstel, Leibniz Lungenzentrum, zwischen November 2018 und der Schließung der Klinik im November 2021 betreut: Der Patient war mit einem Tuberkulose-Stamm infiziert, der gegen praktisch alle Tuberkulose-Antibiotika resistent war. Nur Delamanid und das neu zugelassene Medikament Pretomanid waren in der Resistenztestung wirksam. In einem experimentellen Ansatz versuchte das medizinische Team, bestehende Antibiotikaresistenzen mit besonders hohen Medikamenten-Dosierungen zu überwinden. Unterstützt wurden sie dabei von Wissenschaftlerinnen und Wissenschaftlern des Nationalen Referenzzentrums für Mykobakterien und der Molekularen und Experimentellen Mykobakteriologie am Forschungszentrum Borstel, sowie von einem internationalen Team von Expertinnen und Experten.
Es gelang zunächst, die Bakterienlast so stark zu reduzieren, dass über den Zeitraum von beinahe einem Jahr keine Bakterien nachweisbar waren. Die eingesetzten Dosierungen überstiegen dabei die zugelassene Maximaldosis teilweise um das sechsfache. Mit dem Ende der Therapie nach insgesamt 28 Monaten stellte sich jedoch ein sofortiger Rückfall ein. Kurz darauf entwickelten die Tuberkulosebakterien eine zusätzliche Resistenz gegen Delamanid und auch Pretomanid. Danach gelang es nicht mehr, die Infektion zu kontrollieren und der Patient starb wenige Monate später.
„Es ist weltweit der erste Patient, bei dem Tuberkulosebakterien mit einer Resistenz gegen Pretomanid beschrieben wurden“, erklärt Professor Christoph Lange, Medizinischer Direktor am Forschungszentrum Borstel und Wissenschaftler im Deutschen Zentrum für Infektionsforschung (DZIF). Ein Alarmsignal für die Ärztinnen und Ärzte und eine Herausforderung zur Entwicklung neuer Medikamente.
„Wir haben gelernt, dass Antibiotikaresistenzen durch sehr hohe Medikamentendosierungen überwunden werden können und dass zumindest im Einzelfall diese hohen Dosierungen auch toleriert werden. Dennoch haben am Ende die Bakterien gesiegt“, sagt Erstautor Niklas Köhler, Arzt und Wissenschaftler in der Forschungsgruppe Klinische Infektiologie und im DZIF. Für Patientinnen und Patienten, bei denen die Tuberkulosebakterien gegen praktisch alle Antibiotika resistent sind, werden wir wahrscheinlich ganz neue Medikamentenkombinationen benötigen.“
Wissenschaftliche Ansprechpartner:
Prof. Christoph Lange
T +4945371883321/0
E-Mail: clange@fz-borstel.de
Originalpublikation:
Koehler N, Andres S, Merker M, Dreyer V, John A, Kuhns M, Krieger D, Choong E, Verougstraete N, Zur Wiesch PA, Wicha SG, König C, Kalsdorf B, Sanchez Carballo PM, Schaub D, Werngren J, Schön T, Peloquin CA, Schönfeld N, Verstraete AG, Decosterd LA, Aarnoutse R, Niemann S, Maurer FP, Lange C. Pretomanid- Resistant Tuberculosis. J Infect. 2023 Feb 2:S0163-4453(23)00069-5. doi: 10.1016/j.jinf.2023.01.039. Epub ahead of print. PMID: 36738862.
Weitere Informationen:
https://dzg-magazin.de/passgenau-gegen-tuberkulose/ Mehr über den individuellen Kampf gegen Tuberkulose (DZG-Magazin)
Mehr Klimaschutz im Bau
Dr. Franziska Böhl Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig
Die Anmeldung zur 14. Tagung Betonbauteile am 30. März 2023 an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) ist geöffnet! Die Tagungsreihe berichtet über den Stand der Forschung und aktuelle Entwicklungen hinsichtlich Planung, Konstruktion und Ausführung von Bauteilen aus Beton, Stahlbeton und Spannbeton. Die Vorträge befassen sich mit Hintergründen und Fortschreibung der normativen Grundlagen, baustofflichen Innovationen und neuen Anforderungen an die Planung und Ausführung von Betonbauteilen. U.a. geht es um das Carbonbetontechnikum, nachhaltige Konzepte zum Holz-Verbund-Bau und klassische Massivbauthemen.
Die sächsische Bauwirtschaft soll nachhaltiger werden, so der Tenor der aktuellen Debatte im sächsischen Landtag. An der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) ist dies bereits seit vielen Jahren ein Schwerpunkt in der Forschung. Auch die 14. Tagung Betonbauteile, die am 30. März 2023 an der Hochschule stattfindet, befasst sich mit Aspekten der Nachhaltigkeit und Ressourceneffizienz sowie mit klassischen Massivbauthemen. Das Programm zur Tagung ist nun online; die Anmeldung geöffnet.
Klaus Holschemacher, Professor für Stahlbetonbau und Leiter des Instituts für Betonbau (IfB) der Fakultät Bauwesen der HTWK Leipzig: „Die Tagungsreihe Betonbauteile berichtet im zweijährigen Rhythmus über den Stand der Forschung und aktuelle Entwicklungen hinsichtlich Planung, Konstruktion und Ausführung von Bauteilen aus Beton, Stahlbeton und Spannbeton. In diesem Jahr befassen sich die zwölf Vorträge namhafter Referenten aus Baupraxis und Wissenschaft mit Hintergründen und Fortschreibung der normativen Grundlagen, baustofflichen Innovationen und neuen Anforderungen an die Planung und Ausführung von Betonbauteilen.“
Vorträge und begleitende Fachausstellung
Im Mittelpunkt des ersten Tagungsschwerpunktes steht das Bauen mit Carbonbeton: Die Referen-ten gehen dabei intensiv auf Ausführung und Bemessung von Bauteilen aus dem Baustoff der Zu-kunft ein. Ebenso wird es einen Vortrag zum Carbonbetontechnikum der HTWK Leipzig geben. In der weltweit ersten Modellfabrik wird die automatisierte Fertigung von Bauteilen aus Carbonbeton erprobt. Im anschließenden Themenkomplex zum klassischen Massivbau werden Problemstellun-gen angesprochen, unter anderem zur Bemessung der Mindestbewehrung für Zwangbeanspru-chung, zur neuen DAfStb-Richtlinie Stahlfaserbeton, zu Bauzuständen von Halbfertigteilen und nachträglich installierten Bewehrungsanschlüssen unter Brandeinwirkung. Dies ist unterem für Bau-ingenieurinnen und Bauingenieure in der Tragwerksplanung sowie für die Bauausführung von Inte-resse. Im letzten Veranstaltungsblock gehen die Experten auf die DAfStb-Planungshilfe „Nachhaltig Bauen mit Beton“, die Holz-Beton-Verbundbauweise und die neue Normengeneration DIN 1045 ein. Abschließend stellt IfB-Mitarbeiter Dennis Messerer ein innovatives Monitoringkonzept vor, das auf der Faseroptik basiert und dazu beitragen kann, den Bauwerksbestand zu erhalten.
Begleitend zum Vortragsprogramm wird es eine Fachausstellung mit Firmen der Bauindustrie sowie von Baufachverlagen und Softwareherstellern geben, für die sich bereits mehr als zehn Aussteller angemeldet haben. Für interessierte Firmen, die bei der Fachausstellung dabei sein möchten, ste-hen noch wenige Plätze zur Verfügung. Interessenten melden sich bei den Organisatoren der Tagung.
Die Fachtagung ist eine Gemeinschaftsveranstaltung der HTWK Leipzig, des Fachverbandes Beton- und Fertigteilwerke Sachsen/Thüringen e.V. und des InformationsZentrums Beton.
Hintergrund zum Institut für Betonbau
Das Institut für Betonbau der HTWK Leipzig wurde 2006 gegründet. In den Forschungsgruppen Massivbau und Nachhaltiges Bauen spielen unter anderem umweltkonforme und nachhaltige neue Baustoffe eine wichtige Rolle in Forschungsprojekten, ebenso baustoffliche und bauteilspezifische Analysen. In der jüngsten Forschungsgruppe Sensorik und Messtechnik sollen ganzheitliche Lösungen zur Zustandsüberwachung von Bauwerken und Bauteilen, aber auch von klassischen Laborversuchen ermöglicht werden.
Wissenschaftliche Ansprechpartner:
Ansprechperson: Stefan Wappler
Wissenschaftliche Leitung: Prof. Dr.-Ing. Klaus Holschemacher
Weitere Informationen:
www.htwk-leipzig.de/forschen/aktuelles/detailansicht/artikel/5643
Forschungsprojekt „TwinMaP“ gestartet
Sybille Adamer Hochschulkommunikation
Hochschule für angewandte Wissenschaften Kempten
Wie kann ein Digitaler Zwilling eines heterogenen Maschinenparks den Gesamtprozess in der Bauteilfertigung optimieren? Dieser Frage widmet sich ein Konsortium aus Industrie und Wissenschaft im Verbundprojekt „TwinMaP“. Das Bundesministerium für Wirtschaft und Klimaschutz fördert das Vorhaben über drei Jahre mit rund 5 Mio. Euro. Ein Teilvorhaben des Projektes verantwortet das IPI – Institut für Produktion und Informatik der Hochschule Kempten am Standort Sonthofen.
Aufgrund individueller Kundenwünsche stellt die Fertigung von Bussen besondere Anforderungen an die Produktion: Bauteile müssen sowohl in hohen Stückzahlen als auch in kleinen Mengen bis hin zur Losgröße 1 gefertigt werden. Möglich wird das durch einen heterogenen Maschinenpark, der die Fertigung in hoher Stückzahl ermöglicht sowie auch Maschinen für die Fertigung einzelner Bauteile bereitstellt.
Eine große Herausforderung ist dabei die variierende Einbindung der heterogenen Maschinen in das „Industrial Internet of Things“, kurz IIoT. Bei modernen, vernetzten Maschinen kann mittels eines Digitalen Zwillings (Simulationsmodell) der Fertigungsprozess erheblich optimiert werden. Dies ist bisher jedoch nur auf Basis von Einzelmaschinen möglich. Ziel des Verbundprojektes „TwinMaP“ ist es daher, einen Digitalen Zwilling eines heterogenen Maschinenparks für die Gesamtprozessoptimierung in der Bauteilfertigung zu entwickeln.
Erforschung einer 3D-Integrationsplattform für Digitale Zwillinge von ganzen Maschinenparks
Das IPI – Institut für Produktion und Informatik der Hochschule Kempten am Standort Sonthofen forscht innerhalb des Verbundprojektes an einer 3D-Integrationsplattform für Digitale Zwillinge eines solchen Maschinenparks. „Dabei steht die neuartige Anbindung zwischen einer 3D-Integrationsplattform, den realen Maschinen und Digitalen Zwillingen im Fokus, damit komplette Prozessketten optimiert werden können“, erläutert Teilprojektleiter Professor Bernd Lüdemann-Ravit. Hierzu werden im Projekt neuartige Konnektoren entwickelt, welche ein Zusammenspiel einzelner Digitaler Zwillinge für einen gesamten Maschinenpark ermöglichen. Alle im Projekt verwendeten Digitalen Zwillinge werden dann in der 3D-Integrationsplattform zusammengeführt. Das wiederum ermöglicht Optimierungen mit Hilfe von Künstlicher Intelligenz, zum Beispiel im Hinblick auf die Auslastung der Produktion.
Das Bundesministerium für und Klimaschutz fördert das Teilvorhaben des IPI aufgrund eines Beschlusses des Deutschen Bundestages mit 993.310 Euro für eine Laufzeit von drei Jahren. Zum Forschungskonsortium gehören neben dem IPI die Daimler Buses – EvoBus GmbH, TRUMPF Laser- und Systemtechnik GmbH, ISG Industrielle Steuerungstechnik GmbH, FORCAM GmbH, SimPlan AG, VELIT Consulting GmbH & Co. KG sowie ifak e. V.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Bernd Lüdemann-Ravit
Tel. 0831 2523-9130
bernd.luedemann-ravit@hs-kempten.de
Weitere Informationen:
https://kefis.fza.hs-kempten.de/forschungsprojekt/428-twinmap
Sichere und anonyme Datenanalyse
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Forschungsprojekt AnoMoB von Fraunhofer IAO und Partnern erhält Millionen-Förderung von Bundesbildungsministerium
Das gemeinsame Projekt »Anonymisierte Erfassung und Nutzung von Mobilitäts- und Bewegungsdaten« (AnoMoB) von Fraunhofer IAO, der Hochschule Esslingen und weiteren Partnern erhält eine Förderung über 2,76 Millionen Euro. Im Fokus steht die Erforschung von Anwendungsszenarien, die eine Nutzung von Daten für neue Geschäftsmodelle bei gleichzeitigem Schutz der Privatsphäre ermöglichen.
Die Verkehrs- und Mobilitätswende stellt Kommunen und Unternehmen aktuell vor große Hürden. Es werden viele Lösungsmöglichkeiten diskutiert, von alternativen Antrieben über Sharing-Konzepte bis zu intermodalen Mobilitätsangeboten. Für politische Entscheidungen und neue Geschäftsmodelle fehlen jedoch häufig Daten als Grundlage. Da Mobilitätsdaten, also jene Daten, die zeigen, wie und wo Menschen sich bewegen, sensibel und besonders schützenswert sind, stellt deren Sammlung eine Herausforderung dar.
Daten nutzen, Privatsphäre schützen
Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO entwickelt im Forschungsprojekt »Anonymisierte Erfassung und Nutzung von Mobilitäts- und Bewegungsdaten« (AnoMoB) daher gemeinsam mit den Projektpartnern Hochschule Esslingen, der cantamen GmbH, der MOTIONTAG GmbH, Stadtmobil Hannover und der Großraum-Verkehr Hannover GmbH neue Verfahren, mithilfe derer Mobilitätsdaten sicher anonymisiert werden können. Die anonymisierten Daten sollen, ohne die Privatsphäre des Einzelnen zu gefährden, als Grundlage für neue Geschäftsmodelle, aber auch für die öffentliche Nutzung eingesetzt werden können. Beispielsweise können so wichtige Erkenntnisse zum Mobilitätsverhalten gewonnen werden, die zu einer klimafreundlicheren Mobilität und Verbesserung der Verkehrsplanung führen können. AnoMoB hat nun über 2,76 Millionen Euro Förderung vom Bundesministerium für Bildung und Forschung BMBF erhalten, um neue Wege zur Anonymisierung von Mobilitätsdaten zu erforschen. »In dem Forschungsprojekt möchten wir mittels einer vollständig anonymisierten Erhebung von Mobilitätsdaten die konkurrierenden Anforderungen des Datenschutzes und jene datengetriebener Geschäftsmodelle zusammenführen. Auf Basis unserer Ergebnisse können Unternehmen weitergehende Analysen anwenden und neue Erkenntnisse ableiten, ohne, dass Rückschlüsse auf einzelne Personen möglich sind. Von besonderem Interesse sind für uns hierbei die Betrachtung unterschiedlicher Anwendungsfälle und die Frage, inwieweit diese mit den entwickelten Verfahren ohne Performance-Verluste abbildbar sind« sagt Ingo Trautwein, wissenschaftlicher Mitarbeiter im Forschungsbereich Smart Energy and Mobility Solutions des am Fraunhofer IAO.
Methodenkombination als Lösung?
Im Projekt sollen Methoden entwickelt werden, mit denen Mobilitätsdaten datenschutzkonform erhoben und anonymisiert werden können. So sollen mehr und bessere Mobilitätsdaten zur Verfügung stehen, um einen gezielten Erkenntnisgewinn zu erzielen. Dominik Schoop, Projektleiter und Professor für IT-Sicherheit an der Hochschule Esslingen, erklärt: »Mit unseren Ansätzen wollen wir die Interessen von Mobilitätsanbietern und Menschen, die mobil sind, in Einklang bringen. Dazu werden wir verschiedene Ansätze wie Clustering, Segmentierung, aber auch homomorphe Kryptographie und Multi-Party Computation einsetzen.«
Interdisziplinäre Expertise dank breit aufgestelltem Konsortium
Im Projekt werden mehrere Anwendungsszenarien untersucht, die im betrieblichen Alltag der Projektpartner von Bedeutung sind. Zur Entwicklung der Szenarien wird maßgeblich die Expertise des Fraunhofer IAO herangezogen. Das Projekt zeichnet sich insbesondere dadurch aus, dass die Erprobung in einem breit aufgestellten Konsortium erfolgt, in dem Mobilitätsanbieter aus dem Bereich öffentlicher Verkehrsmittel (Großraum-Verkehr Hannover) und des Carsharings (Carsharing-System-Anbieter cantamen und Stadtmobil Hannover) genauso vertreten sind, wie die Firma MOTIONTAG, die als Anbieter von Apps zur Erfassung und Analyse von Mobilitätsdaten viel Erfahrung in der Erfassung und im Umgang mit Daten einbringt. So entsteht eine umfangreiche Datenbasis und die entwickelten Methoden werden in realistischen Szenarien angewandt.
Großes Potenzial für Unternehmen im Bereich Sharing- und indermodaler Mobilitätsangebote
Die Möglichkeit, im Projekt neue Geschäftsmodelle auf Basis von anonymisierten Mobilitätsdaten zu entwickeln, bietet insbesondere für Unternehmen im Bereich der Sharing- und intermodalen Mobilitätsangebote großes Potenzial. »Durch die Verfügbarkeit von anonymisierten Mobilitätsdaten können wir die Nutzerfreundlichkeit erhöhen und unsere Geschäftsmodelle besser auf die Bedürfnisse und Wünsche der Nutzer abstimmen. Das führt zu höherer Verfügbarkeit von Fahrzeugen und größerer Effizienz«, so Harald Zielstorff, Geschäftsführer cantamen GmbH. Mobilitätsplaner, die in der öffentlichen Verwaltung tätig sind, können dank der anonymisierten Mobilitätsdaten bessere Entscheidungen treffen: Mobilitätsangebote können ressourcen- und umweltschonender gestaltet und die Verkehrsplanung verbessert werden. Rückschlüsse auf das Verhalten Einzelner wird durch die Anonymisierung der Daten vermieden und die Privatsphäre der Bürger bleibt geschützt. AnoMoB macht es mit dieser Vorgehensweise somit überhaupt erst möglich, umfangreich Mobilitätsdaten zu sammeln und auszuwerten.
Das Projekt wird im Rahmen des Forschungsrahmenprogramms der Bundesregierung zur IT-Sicherheit »Digital. Sicher. Souverän.« vom Bundesministerium für Bildung und Forschung gefördert und hat eine Laufzeit von drei Jahren. Die Projektleitung liegt bei der Hochschule Esslingen.
Ansprechpartnerin Presse:
Catharina Sauer
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2242
E-Mail: Catharina.Sauer@iao.fraunhofer.de
Wissenschaftliche Ansprechpartner:
Florian Maier
Cognitive IoT Applications
Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar
Telefon +49 711 970-2397
E-Mail: florian.maier@iao.fraunhofer.de
Ingo Trautwein
Cognitive IoT Applications
Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar
Telefon +49 711 970-2128
E-Mail: ingo.trautwein@iao.fraunhofer.de
Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/sichere-und-anonyme…
Schlafentzug beeinflusst kognitive Leistung
Anne Gregory Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Wer schon mal eine Nacht schlecht oder gar nicht geschlafen hat, weiß, wie sehr sich der Schlafmangel auf die Konzentration am nächsten Tag auswirken kann. Forschende am Leibniz-Institut für Arbeitsforschung an der TU Dortmund haben untersucht, wie genau sich dieser Schlafentzug auf die Leistung des Gehirns auswirkt. Die Ergebnisse zeigen, dass sich nicht nur die Aktivität des Gehirns verändert, sondern auch die Verbindungsstärken zwischen den Nervenzellen beeinflusst werden. Beides wirkt sich maßgeblich auf die Gedächtnisleistung und das Arbeitsgedächtnis aus.
Ausreichend Schlaf ist essenziell für eine optimale Leistung am Tag. Der Schlafmangel beeinträchtigt nicht nur die Aufmerksamkeit, sondern auch die Gedächtnisleistung und Lernprozesse. Um neue Gedächtnisinhalte zu speichern, werden im Gehirn Verbindungen zwischen Nervenzellen verstärkt oder abgeschwächt. Diese Verbindung wird auch als Neuroplastizität bezeichnet. Während des Nachtschlafs werden wichtige Verbindungen verstärkt und unwichtige wieder abgeschwächt.
Bei einem Schlafmangel fällt diese Abschwächung aus. Die kortikale Erregbarkeit ist dauerhaft erhöht, was zu einer Beeinträchtigung der Signalübertragung führt. Neue, äußere Reize und Informationen können daher nur schlecht oder gar nicht verarbeitet werden und das Lernen fällt schwerer. Durch die erhöhte, kortikale Erregbarkeit wird die Neuroplastizität gestört. Das bedeutet, dass die Überaktivierung des Gehirns eine Neuvernetzung der Synapsen erschwert.
Optimale Erregbarkeit des Gehirns könnte Erkrankungen vorbeugen
Dabei gibt es jedoch einen Unterschied zwischen kompletten Schlafentzug und dem Arbeiten gegen die persönlich bevorzugten Schlaf- und Wachphasen (Chronotyp). Bei letzterem sind die Aktivität des Gehirns und die Neuroplastizität verringert. Beim Schlafentzug ist die Hirnaktivität aber erhöht. Insbesondere bei anspruchsvollen Tätigkeiten kann das Arbeiten im Einklang mit dem eigenen Chronotyp die Arbeitsleistung verbessern.
Da die Dynamik der Plastizität und der Aktivität des Gehirns vom Schlaf abhängig sind, könnte diese eine Rolle bei der Vorbeugung von Erkrankungen mit kognitiven Defiziten spielen. Beispiele für solche Erkrankungen sind Demenzen, bei denen häufig Schlafstörungen vorliegen, und schwere Depressionen. Bei Depressionen besteht eine verminderte Hirnaktivierung und Neuroplastizität, die durch einen therapeutischen Schlafentzug, der eine etablierte antidepressive Maßnahme ist, kompensiert werden könnten.
Wissenschaftliche Ansprechpartner:
Dr. Ali Salehinejad
Wissenschaftlicher Mitarbeiter Psychologie & Neurowissenschaften
Telefon: +49 231 1084-476
E-Mail: salehinejad@ifado.de
Univ.-Prof. Dr. med. Michael Nitsche
Leiter des Forschungsbereichs Psychologie & Neurowissenschaften
Telefon: +49 231 1084-301
E-Mail: nitsche@ifado.de
Originalpublikation:
Salehinejad, M. A., Ghanavati, E., Reinders, J., Hengstler, J. G., Kuo, M.-F., Nitsche, M. A., Sleep-dependent upscaled excitability, saturated neuroplasticity, and modulated cognition in the human brain. Sleep-dependent upscaled excitability, saturated neuroplasticity, and modulated cognition in the human brain eLife 11:e69308 (2022). https://doi.org/10.7554/eLife.69308
Mehr Sicherheit für Talsperren und Dämme
Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
TH Köln und Aggerverband entwickeln System zur Überwachung von Sperrbauwerken
Die unter Wasser liegenden Teile von Sperrmauern und Dämmen wurden bislang nicht kontinuierlich überwacht. Um solche Bauwerke, die zur kritischen Infrastruktur gehören, besser zu schützen, haben die TH Köln und der Aggerverband gemeinsam mit weiteren Projektpartnern im Vorhaben „Talsperrensicherheit“ (TalSich) ein automatisiertes System entwickelt. Dieses kann Gefahren und Schäden an Sperrbauwerken mit Hilfe von Sensornetzwerken, autonomen Robotern und künstlicher Intelligenz durchgehend erfassen.
In Deutschland gibt es insgesamt 357 große Stauanlagen, von denen mehr als 100 der Trinkwassergewinnung dienen. Die Talsperren mit ihren Absperrbauwerken werden auch zum Hochwasserschutz und zur Niedrigwasseranreicherung genutzt. Häufig wandeln Wasserkraftwerke in Verbindung mit Turbinen und Generatoren die potentielle Energie des Wassers zudem in elektrische Energie um. „Mit Blick auf die Versorgungssicherheit der Bevölkerung stellen Sperrmauern und Dämme damit eine besonders schützenswerte Infrastruktur dar. Sie können allerdings durch Objekte, Menschen sowie durch Bauwerksschäden gefährdet werden“, sagt Prof. Dr. Christian Wolf vom :metabolon Institut der TH Köln.
Bislang werden Absperrbauwerke deshalb in regelmäßigen Abständen von der Wasseroberfläche aus kontrolliert und von der Landseite aus ununterbrochen überwacht. Fällt dabei etwas auf, werden Unterwasserroboter zur näheren Betrachtung hinzugezogen. „Diese müssen allerdings für ihren Einsatz erst vorbereitet und dann während ihres Einsatzes intensiv betreut werden – das bindet einige Arbeitskräfte und kostet somit Geld und Zeit“, so Wolf. Um diesen Vorgang effizienter zu gestalten, hat die TH Köln mit den beteiligten Professor*innen Dr. Elena Algorri, Dr. Thomas Bartz-Beielstein und Dr. Christian Wolf sowie mit den Projektpartnern ein automatisiertes Überwachungsverfahren entwickelt, das an einer Talsperren des Aggerverbandes getestet wurde.
Sonare, Hydrophone und autonome Roboter
„Die von uns erarbeiteten technischen Lösungen umfassen Sonarköpfe, um Bewegungen zu erfassen, und Hydrophone, also Schallsensoren, zur Wahrnehmung von Geräuschen“, so Algorri. Diese Sensoren sind in einem Netzwerk verbunden und können erfasste Ereignisse, also Position und Geschwindigkeit, an den Betreiber der Talsperre melden. Ein vom Projektteam weiterentwickelter Unterwasserroboter ist in der Lage, eine Route entlang der Mauer selbstständig abzufahren und Kameraaufnahmen anzufertigen. Bislang ist der Roboter unter Laborbedingungen gefahren – die Testfahrten an der Talsperre stehen noch aus.
Darüber hinaus ist die Alpha-Version einer automatischen Analysesoftware entstanden. „Um die künstliche Intelligenz unserer Anwendung zu trainieren, haben wir verschiedene Geräuschklassen, etwa schwimmende Personen sowie Motor- oder Tretboote, definiert. Dazu wurden manuell mehr als 1.000 Audiodateien abgehört, von denen wir 600 den unterschiedlichen Klassen zugewiesen haben. So können alarmierende – also vom üblichen Betrieb abweichende – und normale Geräusche unterschieden werden. Unbekannte Geräusche werden bewertet, eingeordnet und in einer Webanwendung visualisiert“, erklärt Bartz-Beielstein.
System soll weiterentwickelt werden
„Die Datensätze der Analysesoftware decken noch nicht das gesamte Spektrum der Ereignisse ab, die für einen vollautomatisierten Betrieb des Gesamtsystems notwendig sind. Das entstandene Überwachungssystem und die Alpha-Version sind aber sehr vielversprechend und können schon jetzt einen wertvollen Beitrag zur zusätzlichen Sicherheit von Stauanlagen leisten“, sagt Wolf. Um das Gesamtsystem weiter zu validieren und zur Marktreife zu führen, zeichnet die Software daher weiterhin automatisiert Sensordaten an einer anderen Talsperre auf und soll auch nach Ende des Vorhabens, unter anderem durch studentische Projektgruppen, weiterentwickelt, getestet und um zusätzliche Datensätze ergänzt werden.
Nach Abschluss der beschriebenen KI-Entwicklung könnte das System vollautomatisiert an der Projekt-Talsperre betrieben werden und wäre zudem auch auf andere Talsperren übertragbar. Darüber hinaus könnten im Projekt entstandene Einzelkomponenten, wie der autonom fahrende Roboter, nach weiterer Optimierung auch in anderen Einsatzgebieten wie etwa Binnenhafenanlagen genutzt werden.
Über das Kooperationsprojekt
Das Projekt „Talsperrensicherheit“ (TalSich) wurde an der TH Köln von Prof. Dr. Christian Wolf vom :metabolon Insitut der TH Köln geleitet. Beteiligt innerhalb der Hochschule waren zudem Prof. Dr. Thomas Bartz-Beielstein vom Institut für Data Science, Engineering, and Analytics und Prof. Dr. Elena Algorri Guzman vom Institut für Automation & Industrial IT. Projektpartner waren der Aggerverband Gummersbach, der das Vorhaben koordiniert hat, die ATLAS GmbH aus Bremen, die ecoTech Umwelt-Meßsysteme GmbH aus Bonn und die HST Systemtechnik GmbH & Co. KG aus Meschede. Das Projekt wurde vom Bundesministerium für Bildung und Forschung über einen Zeitraum von zwei Jahren mit rund 950.000 Euro gefördert.
Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 25.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.
Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de
Hochschule Coburg untersucht die weibliche Seite der Stadt
Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Zwei Semester lang haben Coburger Studierende in den Bereichen Ökonomie, kommunale Verwaltung, Soziales und Gesundheit, Bildung, Kultur und Sicherheit eine Frage bearbeitet: Wie weiblich ist die Stadt? Jetzt haben sie ihre Entdeckungen präsentiert.
Albrecht Dürer, Albert Schweitzer und Prinz Albert: Wer eine alphabetische Liste der Namen von Coburger Straßen und Plätzen durchforstet, stößt schon beim Buchstaben A auf recht unterschiedliche Persönlichkeiten. Wobei sie so unterschiedlich auch wieder nicht sind. Zumindest nicht in jeder Hinsicht. Die meisten – fast 93 Prozent – sind Männer. „Wenn man die Straßennamen einzeln betrachtet, fällt das nicht auf“, sagt Patiani Leupolt. Sie ist Studentin der Sozialen Arbeit und steht gerade in der Hochschule Coburg vor einem Plakat, das die Geschichte der Pazifistin Anna Bernhardine Eckstein erzählt. Vor dem Ersten Weltkrieg brachte diese Coburgerin eine Friedens-Petition auf den Weg. Millionen Menschen unterschrieben. Anna B. Eckstein und ihr wichtiges Anliegen sind heute im Herzen Coburgs präsent, weil die Stadt eine Grünanlage nach ihr benannt hat. Darüber spricht Patiani Leupolt jetzt mit Tabea Kühlewindt. Gemeinsam betrachten sie das Schwarz-Weiß-Foto Ecksteins. „Es ist wichtig, dass Frauen in der Öffentlichkeit sichtbar sind”, sagt Kühlewindt.
Eine mobile Ausstellung
Die beiden Studierenden der Sozialen Arbeit haben sich als Teil einer interdisziplinären Projektwerkstatt unter Leitung von Prof. Dr. Gaby Franger-Huhle und Sozialpädagogin Beate Weigle mit der Frage „Wie weiblich ist die Stadt“ auseinandergesetzt. Um die 20 Studierende waren beteiligt und präsentieren an diesem Morgen die Ergebnisse aus zwei Semestern auf 30 Plakaten. Wenige Stunden später ist alles wieder abgebaut. „Die Ausstellung ist mobil und kann gerne ausgeliehen werden“, erklärt Weigle. Ziel der Projektwerkstatt war, kommunalpolitische, ökonomische und bildungspolitische Entwicklungen in Coburg unter dem Gesichtspunkt von Geschlechtergerechtigkeit und der Lebenssituation und Inklusion vulnerabler Gruppen von Frauen jeglicher Herkunft als Maßstab für eine nachhaltige kommunale Entwicklung zu betrachten. Das Ergebnis ist eine Momentaufnahme: Coburg im Herbst 2022.
Mit verschiedenen Methoden von Literatur- und Internetrecherche über qualitative Interviews bis zur nächtlichen Ortsbegehung haben die Studierenden beispielsweise analysiert, welche Rolle Frauen in den Strukturen, den Bedeutungen, der Wahrnehmung Coburgs und in den sozialen Räumen spielen, was die Stadt Frauen in Beruf und Alltag bietet, wie Frauen in Wirtschaft und Gesellschaft vertreten sind und wie ihre Leistungen anerkannt werden.
Teilhabe von Frauen als Bestandteil partizipativer Stadtentwicklung
Tabea Kühlewindt gehörte zu einer Gruppe, die sich mit Frauen in der Kultur beschäftigte, in Patiani Leupolts Team ging es um Anlaufstellen für Frauen. „Mich hat besonders das Frauenhaus beeindruckt“, erzählt sie. Viele Stellen in Coburg unterstützen das Projekt, besonders dankten die Studierenden der Gleichstellungsbeauftragten der Stadt, Susanne Müller. Aber nicht alle ließen sich auf das Thema ein. „Für mich war auch eine spannende Erfahrung, wie sich so ein Projekt entwickelt und wie schwierig es manchmal ist, mit Leuten ins Gespräch zu kommen“, berichtet Kühlewindt.
Die junge Frau aus Sachsen-Anhalt hat dabei viel über partizipative Stadtentwicklung gelernt. Genau wie Patiani Leupolt, die aus der Nähe von München kommt – und wie all die anderen unterschiedlichen Studierenden in der Projektwerkstatt. Wobei sie wiederum in einem Punkt gar nicht so unterschiedlich waren: 95 Prozent der Teilnehmenden dieser Wahlveranstaltung waren Frauen.
Abbau von Plastikabfall durch neu entwickelte Biokatalysatoren möglich
Jan Meßerschmidt Hochschulkommunikation
Universität Greifswald
Die Kunststoffe Polyurethan und Polyvinylalkohol können mit Hilfe von Enzymen als Biokatalysatoren unter milden Bedingungen abgebaut werden. Ein Team der Universität Greifswald hat zusammen mit dem deutschen Unternehmen Covestro und Teams aus Leipzig und Irland zwei neue Verfahren dafür entwickelt. Dies wurde jetzt in der Fachzeitschrift Angew. Chem. Int. Ed. in zwei Publikationen (DOI: 10.1002/anie.202216220 und DOI: 10.1002/anie.202216962) veröffentlicht.
Somit wurde die Voraussetzung geschaffen, beide Kunststoffe ressourcenschonend zu verwerten und umweltfreundliche Verfahren zu deren Recycling zu entwickeln, um das weltweite Problem des Plastikmülls für diese beiden industriell in großen Mengen hergestellten synthetischen Polymere zu verringern.
Kunststoffe sind aktuell noch unentbehrlich für die Herstellung von Baumaterialien, elektrischen Isolierungen, Getränke- und Lebensmittelverpackungen, Textilien und vielen weiteren Anwendungen. Leider hat die Massenproduktion von Plastik, vor allem für Verpackungen, weltweit zu einer enormen Plastikverschmutzung unserer Umwelt geführt. Die beiden Kunststoffe Polyurethan und Polyvinylalkohol machen rund acht Prozent der Kunststoffproduktion in Europa aus. Seit einigen Jahren wird intensiv an Methoden geforscht, die ein umweltfreundliches Recycling von Kunststoffen ermöglichen. Dieses würde nicht nur die Umwelt entlasten, sondern es wäre weniger Erdöl zur erneuten Herstellung von Plastik notwendig. Zudem würde erheblich weniger Treibhausgas CO2 emittiert werden, da auf eine Verbrennung des Kunststoffabfalls in Müllverbrennungsanlagen verzichtet werden kann.
Polyurethane (PUR) werden zur Herstellung von Matratzen, Dämmstoffen, Thermoplasten (z. B. für Sportschuhe) und für Beschichtungen (Dichtungsmittel, Farben und Klebstoffe) verwendet. Für diese Stoffe gibt es bereits grundlegende chemische Verfahren, um diese abzubauen. Sie erfordern jedoch einen erheblichen Energieeinsatz, da hohe Temperaturen und Drücke nötig sind. Biotechnologische Verfahren unter Einsatz von Mikroorganismen oder Enzymen als natürliche Biokatalysatoren sind eine Alternative, da diese bei moderaten Temperaturen bis ca. 40 °C und ohne Einsatz chemischer Reagenzien den Abbau der Plastikmoleküle und vor allem ein Recycling, also die Gewinnung der Bausteine zur Herstellung neuer Kunststoffe ermöglichen.
Das Team von Prof. Dr. Uwe Bornscheuer vom Institut für Biochemie der Universität Greifswald hat nun zusammen mit Wissenschaftler*innen der Firma Covestro in Leverkusen genau die Enzyme identifiziert, die nach einer chemischen Vorbehandlung in der Lage sind, Polyurethane in seine Bausteine zu zerlegen. „Die Suche nach diesen speziellen Biokatalysatoren war sehr aufwendig und wir mussten ca. zwei Millionen Kandidaten durchmustern, um die ersten drei Enzyme zu finden, die nachweislich in der Lage sind, die spezielle Bindung in Polyurethan aufzubrechen“, beschreibt Doktorand Yannick Branson (Universität Greifswald) die Herausforderung dieses Projekts. „Mit dieser bahnbrechenden Entdeckung haben wir nun die Voraussetzung geschaffen, diese Biokatalysatoren durch Methoden des Protein-Engineerings weiter zu verbessern, um sie für ein industrielles Recycling von Polyurethan maßschneidern zu können“, führt Prof. Dr. Uwe Bornscheuer (Universität Greifswald) weiter aus. „Mit Hilfe der neu identifizierten Enzyme kommen wir unserem Ziel einer vollständigen Kreislaufwirtschaft in der Kunststoffindustrie ein Stück näher“, ergänzt Dr. Gernot Jäger, der das Kompetenzzentrum für Biotechnologie der Covestro (Leverkusen) leitet.
Polyvinylalkohole (PVA) haben vielseitige Eigenschaften und werden ebenfalls breit eingesetzt, z. B. bei der Beschichtung von Fasern und als Folien für Verpackungen. Für den Abbau von PVA gab es bislang ebenfalls keine ausgereiften Verfahren. Hier konnten die Forscher*innen um Professor Bornscheuer zusammen mit einem Polymerexperten des University College Dublin (Irland) und Wissenschaftler*innen aus Leipzig ebenfalls die Grundlagen für ein biotechnologisches Verfahren entwickeln. Der Abbau von PVA konnte hier durch die geschickte Kombination von drei verschiedenen Enzymen erzielt werden, die nach und nach das Polymer so verändern, bis Bruchstücke entstehen, die stofflich verwertet werden können.
Auch wenn die jetzt veröffentlichten Erkenntnisse einen wichtigen Durchbruch darstellen, wird es voraussichtlich noch einige Jahre dauern, bis ein Industrieverfahren ausgereift ist, mit dem ein großtechnisches Recycling dieses Plastikmülls möglich sein wird.
Weitere Informationen:
Urethanases for the enzymatic hydrolysis of low molecular weight carbamates and the recycling of polyurethanes, Angew. Chem. Int. Ed., 62, e202216220
Der Artikel ist zu finden unter: https://doi.org/10.1002/anie.202216962
Urethanasen für die enzymatische Hydrolyse niedermolekularer Carbamate und das Recycling von Polyurethanen (auf Deutsch), Angew. Chem. Int. Ed., 135, e202216220
Der Artikel ist zu finden unter: https://doi.org/10.1002/ange.202216962
Synthesis of modified poly(vinyl alcohol)s and their degradation using an enzymatic cascade, Angew. Chem. Int. Ed., 62, e202216220.
Der Artikel ist zu finden unter: https://doi.org/10.1002/anie.202216220
Synthese modifizierter Poly(vinylalkohole) und deren Abbau durch eine Enzymkaskade, Angew. Chem., 135, e202216220 (auf Deutsch).
Der Artikel ist zu finden unter: https://doi.org/10.1002/ange.202216220
Video- oder Audioanfragen möglich:
Wir bieten ein Interview im Video- oder Audioformat an. In dem Interview wurden die folgenden Fragen gestellt:
Können Sie uns erklären, was Sie gemacht haben bzw. welche Beitrag Ihre aktuelle Forschung leistet?
Ist es möglich, mit diesen neuen Verfahren das weltweite Plastikproblem zu lösen?
Ist diese Methode für auch für Kunststoffabfall in den Ozeanen anwendbar?
Ist diese Methode für auch für Mikroplastik anwendbar?
Wie lange wird es dauern, bis dieses Verfahren marktreif ist?
Ansprechpartner an der Universität Greifswald
Prof. Dr. Uwe Bornscheuer
Institut für Biochemie
Felix-Hausdorff-Straße 4, 17489 Greifswald
Telefon +49 3834 420 4367
uwe.bornscheuer@uni-greifswald.de
http://biotech.uni-greifswald.de
Fischschwärme funktionieren ähnlich wie das Gehirn
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Wie es biologischen Systemen wie dem Gehirn oder Tierschwärmen gelingt, die Vielzahl an Einzelinformationen aus verschiedenen Quellen optimal zusammenzuführen, ist wenig bekannt. Es gibt die Hypothese, dass das größte Leistungspotenzial des Gehirns an der Grenze zwischen Ordnung und Chaos liegt, im Zustand der sogenannten Kritikalität. Forschende des Exzellenzclusters „Science of Intelligence“ der Humboldt-Universität zu Berlin (HU), der Technischen Universität Berlin (TU) und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) konnten diese Hypothese nun an einem riesigen Fischschwarm nachweisen. Die Studie wurde in Nature Physics veröffentlicht.
„Es geht bei Schwarmverhalten ja darum, dass sich Informationen lawinenartig ausbreiten. In diesem Zustand reagieren die Individuen maximal schnell auf externe Reize mit einer maximal effektiven Informationsweitergabe. Wir konnten an großen Fischschwärmen zeigen, dass die Gesetzmäßigkeit der Kritikalität, die man schon für neuronale Netzwerke nachweisen konnte, diesen Zustand beschreibt“, erläutert Studienleiter Pawel Romanczuk, Professor am Institut für Biologie der HU und Forscher im Exzellenzcluster.
Kritikalität: An der Schwelle von Ordnung zum Chaos arbeitet das Gehirn am effektivsten:
Die Informationsverarbeitung im Gehirn basiert auf einem Netzwerk von rund 86 Milliarden Neuronen. Sie leiten Informationen in Form von Spannungsimpulsen weiter. Nach einer These der Neurobiologie, der so genannten „Kritikalität des Gehirns“ (the critical brain hypothesis) ist unser Gehirn deshalb so effizient in der Informationsverarbeitung, weil es sich permanent an einem kritischen Punkt zwischen zwei dynamischen Zuständen befindet, nämlich Ordnung und Chaos – wobei Ordnung bedeutet, dass die Neuronen hochsynchron aktiv sind, wie in einem neuronaler Gleitschritt, und Chaos bedeutet, dass die Zellen unabhängig voneinander Impulse aussenden. Im Zwischenzustand, der Kritikalität, ist das Gehirn maximal erregbar und schon kleine Reize bringen plötzlich eine Vielzahl von Neuronen zum Feuern, Informationen breiten sich lawinenartig aus und können besonders leicht übertragen werden, auch in weit voneinander entfernte Hirnareale.
La-Ola-Welle für die höchstmögliche Alarmbereitschaft:
Schwefelmollys sind Fische die in Schwefelquellen in Mexiko leben. Sie schwimmen zu Hunderttausenden im Schwarm und zeigen dabei ein typisches und ungewöhnliches Verhalten: Sie tauchen in Wellen auf und ab – aus der Vogelperspektive wirkt es wie eine riesige La-Ola-Welle, die sich mannigfaltig wiederholt. Wie das Forschungsteam bereits in einer früheren Studie gezeigt hat, nutzen die kleinen Fische das Wellenverhalten zunächst, um angreifende Vögel erfolgreich zu verwirren. Dieses Verhalten könnte aber auch eine andere Funktion haben: Es könnte den Schwarm in einen Zustand optimaler Alarmbereitschaft versetzen – in einer Weise, die dem oben beschriebenen Zustand der Kritikalität des Gehirns sehr ähnlich ist. Diese Wachsamkeit ist notwendig, weil die Tiere einem hohen Fraßdruck durch Vögel ausgesetzt sind – wer also nicht wachsam genug ist, wird gefressen.
Die Fische machen nämlich auch eine Wellenbewegung, wenn gar keine Vögel angreifen. „Wir wollten also herausfinden, ob diese Wellenbewegung eine Analogie zur Informationsverarbeitung des Gehirns sein könnte: wenige Oberflächenwellen, wenn keine Vögel angreifen; stärkere und mehr Wellen, wenn Vögel angreifen. Damit würde sich auch der Schwarm bei der kollektiven Tauchbewegung im Stadium der Kritikalität bewegen – mit der höchstmöglichen Alarmbereitschaft“, erläutert Erstautor Luis Gómez-Nava, Forscher im Exzellenzcluster.
Die Forschenden kombinierten empirische Daten aus Verhaltensstudien im Feld mit mathematischen Modellen und konnten so zeigen, dass die räumlich-zeitliche kollektive Dynamik großer Schwärme von Schwefelmollys tatsächlich einem erregbaren System im Stadium der Kritikalität entspricht – ähnlich eines Gehirns.
Maximale Unterscheidungsfähigkeit von Umweltreizen und hohe Reichweite:
Das Verhalten an einem kritischen Punkt ermöglicht es den Schwefelmollyschwärmen, ständig auf Störungen in der Umwelt zu achten und Informationen über die Intensität des Hinweises auch über weite Strecken weiterzugeben. Dies konnte in Zusammenarbeit mit weiteren Mitgliedern des Exzellenzclusters aus dem Bereich der künstlichen Intelligenz, Robert Lange und Professor Henning Sprekeler, gezeigt werden. Sie nutzten modernste Algorithmen des maschinellen Lernens, um die Reaktion des Schwarms auf unterschiedliche Intensitäten von Störungen in der Umgebung zu testen, und kamen zu dem Schluss, dass der Schwarm tatsächlich in der Lage ist, die Informationen über äußere Reize – wie angreifende Vögel – effizient für sich zu nutzen.
„Im Falle der Schwefelmollys korreliert die Intensität der Hinweise mit der Gefahr, da jagende Vögel oft mit dem Körper ins Wasser eindringen, was zu hochintensiven visuellen, akustischen und hydrodynamischen Hinweisen führt, während Vögel im Überflug nur einige visuelle Hinweise geben. Daher ist die Information über die Intensität des Hinweises für Fische sehr wichtig, um angemessene Reaktionen zu koordinieren, zu denen auch wiederholtes Tauchen über mehrere Minuten gehört. Darüber hinaus können diese Informationen über weite Entfernungen übermittelt werden, sodass die Fische Vorsorgemaßnahmen ergreifen können, auch wenn sie sich nicht im direkten Gefahrenbereich befinden“, sagt Koautor David Bierbach. Der Forscher im Exzellencluster hat bereits viele Verhaltensstudien mit Schwefelmollys durchgeführt.
Unterschiede Schwarm und Gehirn: Individuelles Verhalten der Tiere:
Natürlich gibt es auch wichtige Unterschiede zwischen dem Fischschwarm und neuronalen Systemen. In neuronalen Systemen ändert sich die Struktur des Interaktionsnetzwerks zwischen den einzelnen Elementen auf einer viel langsameren Zeitskala als das dynamische Verhalten im Fischschwarm.
„Die dynamische Gruppenstruktur und individuelle Verhaltensparameter wie die individuelle Geschwindigkeit oder die Aufmerksamkeit gegenüber Artgenossen haben starke Auswirkungen auf das kollektive Verhalten, was zu alternativen Mechanismen der Selbstorganisation in Richtung Kritikalität durch Modulation des individuellen Verhaltens führen kann. Es gibt hier noch viele offene Fragen an denen wir weiterforschen“, sagt Jens Krause, Professor an der HU und im Exzellenzcluster sowie Leiter einer Forschungsabteilung am IGB.
Die Ähnlichkeit zwischen dem Tauchverhalten von Fischen als „kollektivem Verstand“ und der neuronalen Aktivität im Gehirn hilft, kollektive Systeme in der Natur besser zu verstehen.
Wissenschaftliche Ansprechpartner:
Luis Gomez
Science of Intelligence Excellence Cluster (SCIoI)
+49 30 2093 98438
Email: luis.gomez@hu-berlin.de
Pawel Romanczuk
Science of Intelligence Excellence Cluster (SCIoI)
+49 30 2093 6780
Email: pawel.romanczuk@hu-berlin.de
Jens Krause
Science of Intelligence Excellence Cluster (SCIoI)
und Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: jens.krause@igb-berlin.de
Originalpublikation:
Gómez-Nava, L., Lange, R.T., Klamser, P.P. et al. Fish shoals resemble a stochastic excitable system driven by environmental perturbations. Nat. Phys. (2023). https://doi.org/10.1038/s41567-022-01916-1
Weitere Informationen:
https://www.igb-berlin.de/news/fischschwaerme-funktionieren-aehnlich-wie-das-geh…
Globale Studie der Universität Bayreuth zeigt Einflüsse des Klimawandels auf terrestrische Ökosysteme
Christian Wißler Pressestelle
Universität Bayreuth
Pflanzenökologen der Universität Bayreuth zeigen in „Nature Geoscience“, wie sich der globale Klimawandel auf terrestrische Ökosysteme auswirkt. Veränderungen in der Vegetationsaktivität konnten meist durch Veränderungen der Temperatur und der Bodenfeuchtigkeit erklärt werden. Änderungen der Sonneneinstrahlung und des CO₂-Gehalts in der Atmosphäre spielten selten eine dominante Rolle. In einigen Ökosystemen sind nach einer langjährigen Zunahme der Vegetationsaktivität Rückgänge zu beobachten. Diese Trendumkehr wirft die Frage auf, ob terrestrische Ökoysteme auch in Zukunft einen hohen Beitrag zur Bindung von atmosphärischem Kohlenstoff leisten werden.
Das Forschungsteam unter der Leitung von Prof. Dr. Steven Higgins, Inhaber des Lehrstuhls für Pflanzenökologie an der Universität Bayreuth, hat weltweite Fernerkundungsdaten aus den letzten 40 Jahren mit einem neuartigen dynamischen Modell des Pflanzenwachstums analysiert. Das neue Modell beschreibt den Einfluss wichtiger Klimaparameter wie Lufttemperatur, Bodentemperatur, Bodenfeuchte, Sonneneinstrahlung und atmosphärischer CO₂-Gehalt auf das Pflanzenwachstum. Damit ist es jetzt erstmals gelungen, messbare Veränderungen in der Vegetation von terrestrischen Ökosystemen auf einzelne Klimafaktoren zurückzuführen.
„Untersuchungen, die kausale Beziehungen zwischen klimatischen Veränderungen und Vegetationsänderungen herstellen und dabei den Einfluss einzelner sich ändernder Klimaparameter – wie beispielsweise Temperatur und Niederschlag – identifizieren, stellen einen wichtigen Fortschritt in der Ökosystemforschung dar. Sie beweisen, dass der menschengemachte Klimawandel bereits jetzt die Ökosysteme der Erde verändert. Aufgrund der so gewonnenen Erkenntnisse können wir erheblich besser verstehen und einschätzen, wie sich die Ökosysteme der Erde infolge des Klimawandels entwickeln. Die auf diese Weise gewonnenen Erkenntnisse können eine wertvolle Unterstützung für umwelt- und klimapolitische Programme sein“, sagt Higgins. „Früher konnten wir zwar Veränderungen der Vegetationsaktivität feststellen, aber es war oftmals schwierig zu erkennen, ob es wirklich der Klimawandel war, der diese Veränderungen verursacht hat. Auch der jüngste Bericht des Weltklimarats IPCC enthält überraschend wenig Fallstudien, in denen beobachtete Vegetationsveränderungen mit hoher Sicherheit auf klimatische Veränderungen zurückgeführt werden konnten“, ergänzt Dr. Timo Conradi, Ko-Autor und wissenschaftlicher Mitarbeiter am Lehrstuhl für Pflanzenökologie.
Die neue Studie beruht auf Messdaten zu insgesamt 100 Untersuchungsflächen, die über alle Kontinente verteilt sind. In dieser Stichprobe ist jedes der wichtigsten Ökosysteme der Erde mit mindestens fünf Beispielen vertreten: tropische immergrüne Wälder, boreale Wälder, gemäßigte Wälder, Savannen, Buschland, Grasland, Tundra und mediterrane Ökosysteme. Die durch Satellitenbeobachtungen ermittelten Vegetationsveränderungen an diesen Standorten wurden daraufhin untersucht, inwieweit sie mit Veränderungen der Lufttemperatur, der Bodentemperatur, der Bodenfeuchte, der Sonneneinstrahlung und dem CO₂-Gehalt der Atmosphäre erklärt werden können. In ihrer Gesamtheit lassen diese Analysen einige globale Trends erkennen: Ökosysteme an trockenen und warmen Standorten, vor allem Savannen und manche Grasländer, reagierten in erster Linie auf Veränderungen der Bodenfeuchtigkeit. Hingegen waren Ökosysteme an kühleren Standorten, wie boreale Wälder, Wälder der gemäßigten Breiten und Tundren, besonders sensibel für Temperaturänderungen. Änderungen des CO₂-Gehalts der Atmosphäre und der Sonneneinstrahlung hatten überraschenderweise nur selten einen dominierenden Einfluss auf Vegetationsänderungen.
„Unsere Ergebnisse zeigen, wie langfristige Fernerkundungsdaten die Ökosystemforschung unterstützen und erheblich voranbringen können. Gerade auf diesem Gebiet wird eine enge internationale Zusammenarbeit weiterhin erforderlich sein, um den Einfluss von Klimafaktoren auf globaler Ebene zu identifizieren und zu verstehen, wie und warum sich Ökosysteme in verschiedenen Regionen der Welt verändern“, sagt Ko-Autor Edward Muhoko M.Sc. aus Namibia, der zurzeit am Lehrstuhl für Pflanzenökologie promoviert und sich auf Geoinformationssysteme, Fernerkundungsverfahren und Geostatistik spezialisiert hat.
Die Bayreuther Forscher fanden in unterschiedlichen Klimazonen der Erde deutliche Hinweise auf Trendumkehrungen. Anscheinend haben steigende Luft- und Bodentemperaturen an vielen Standorten zunächst jahrzehntelang die Vegetationsaktivität erhöht und eine aus dem Weltraum sichtbare „Begrünung“ bewirkt. Anhaltende Temperaturerhöhungen können jedoch irgendwann zu einer Austrocknung der Böden führen, was eine Verringerung der Vegetationsaktivität zur Folge hat. Neuere Satellitenaufnahmen lassen daher an einigen Standorten eine „Verbraunung“ von Ökosystemen erkennen. Feldforschungen in tropischen Wäldern, bei denen Veränderungen der Baumgröße gemessen wurden, haben in jüngster Zeit ebenfalls Belege für diese Entwicklung geliefert. „Falls diese Trendumkehr durch weitere Studien bestätigt wird, wäre das in der Tat besorgniserregend, denn in der Vergangenheit haben die terrestrischen Ökosysteme durch ihre jahrzehntelange ‚Begrünung‘ erhebliche Anteile der anthropogenen Kohlenstoffemissionen absorbiert. Bislang hat uns diese Kohlenstoffbindung durch die Vegetation vor einem noch dramatischeren Klimawandel bewahrt“, erklärt Higgins.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Steven Higgins
Lehrstuhl für Pflanzenökologie
Universität Bayreuth
Telefon: +49-921-55-2800
E-Mail: steven.higgins@uni-bayreuth.de
Originalpublikation:
Steven I. Higgins, Timo Conradi, Edward Muhoko: Shifts in vegetation activity of terrestrial ecosystems attributable to climate trends. Nature Geoscience (2023), https://www.nature.com/articles/s41561-022-01114-x – DOI: https://doi.org/10.1038/s41561-022-01114-x
Studienangebot des Jahres 2023
Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
Fernstudium Master of Arts: Kindheits- und Sozialwissenschaften (MAKS) für den Studienpreis des Bundesverbandes der Fernstudienanbieter nominiert
Das berufsbegleitende Masterfernstudium Kindheits- und Sozialwissenschaften (M.A.), das die Hochschule Koblenz in Kooperation mit dem zfh – Zentrum für Fernstudien im Hochschulverbund anbietet, wurde zum Studiengang des Jahres nominiert. Der Bundesverband der Fernstudienanbieter hat den Studienpreis „Bildung.digital.vernetzt.“ ausgelobt und prämiert innovative Projekte und digitale Weiterbildungsangebote. Es werden Fernstudienangebote gesucht, die besondere Alleinstellungsmerkmale aufweisen, etwa im Hinblick auf die Zielgruppe oder auf eine innovative Methodik und Didaktik.
Der Weiterbildungsfernstudiengang Kindheits- und Sozialwissenschaften ist als Fernstudium konzipiert und integriert Präsenz-, Selbstlern- und Onlinephasen. Neben den monatlich stattfindenden Präsenzveranstaltungen an der Hochschule studieren die Teilnehmenden sowohl zeitlich als auch räumlich flexibel. Das Fernstudium ist bundesweit ein einmaliges Angebot zur nebenberuflichen Weiterqualifizierung kindheitspädagogischer Fachkräfte auf Masterniveau.
Die Absolvierenden qualifizieren sich mit dem Masterfernstudium für anspruchsvolle Tätigkeiten in leitenden, planenden oder forschenden Positionen kindheitswissenschaftlicher Berufsfelder. Vier wählbare Schwerpunkte ermöglichen eine gezielte und spezialisierte Weiterbildung in den Bereichen Management und Beratung, Kinderschutz und Diagnostik, Bewegung und Gesundheit und einer ganz neuen Vertiefung Trauma und Ressource. Die Weiterbildungskurse ‚Fachkraft für Kita-Sozialraumarbeit‘ an der Hochschule Koblenz und ‚Pädagogische Fachberatung für Kindertageseinrichtungen‘ an der Fachhochschule Kiel können als erbrachte Leistung anerkannt werden.
Angesprochen sind Absolventinnen und Absolventen eines ersten Hochschulstudiums, die über eine mindestens einjährige aktuelle Berufspraxis in der Arbeit mit Kindern verfügen und ihre bisherigen Erfahrungen auf akademischem Niveau vertiefen möchten. Aber auch beruflich qualifizierte Studieninteressierte ohne Hochschulabschluss können über die Teilnahme an einer Eignungsprüfung zu diesem Studiengang zugelassen werden.
Weitere Informationen: http://www.zfh.de/master/kindheit und http://www.hs-koblenz.de/maks
Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.575 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.
Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de
Internet: http://www.zfh.de
Neues Verbundprojekt macht Herstellung von Biokraftstoffen effizienter | Biokraftstoffe mit Strom boostern
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
In einem zu Jahresbeginn gestarteten Projekt unter Koordination der Technischen Universität München (TUM) will ein Bündnis aus Forschungsinstitutionen und Unternehmen den ökologischen Fußabdruck des Verkehrssektors senken. Dazu entwickeln die Beteiligten ein Raffineriekonzept, um erneuerbare Kraftstoffe im Tonnenmaßstab für eine Vielzahl von Anwendungen zu produzieren. Die Forschenden kombinieren dafür die Herstellung von E-Fuels mit der von fortschrittlichen Biokraftstoffen.
In Deutschland stehen verschiedene Technologien wie Brennstoffzellen, Batterien oder erneuerbare Kraftstoffe bereit, um CO2-Emissionen im Verkehrssektor zu minimieren. Die Elektromobilität alleine reicht nicht aus, um den Verkehr klimaneutral zu gestalten. Bestandsflotten sowie schwer zu elektrifizierende Anwendungen etwa in der Schiff- und Luftfahrt benötigen noch auf lange Zeit erneuerbare Kraftstoffe in großen Mengen.
Erneuerbare Kraftstoffe ganzheitlich gedacht
Bei der Herstellung von E-Fuels, also unter Anwendung von erneuerbarem Strom und CO2 produzierte synthetische Kraftstoffe, bestehen in der nachhaltigen Bereitstellung von Kohlenstoff noch Herausforderungen – ebenso bei fortschrittlichen, aus biogenen Reststoffen hergestellten Biokraftstoffen. Diese sind in der Nutzung von Kohlenstoff wenig effizient, weil bis zu 50 Prozent des in der Biomasse verfügbaren Kohlenstoffes bei der Umwandlung zu Kraftstoffen als CO2 verloren geht. Dies vergrößert den Rohstoffbedarf.
Im neuen Verbundprojekt »Synergy Fuels« wollen die Forschenden diese Herausforderungen meistern, indem sie E-Fuels- mit Biokraftstoff-produzierenden Demonstrationsanlagen zusammenschalten. »Die stoffliche und energetische Integration der Synthesen von E-Fuels und Biokraftstoffen schafft Synergien: Die Nutzung von erneuerbarem Strom zur Umwandlung von CO2 zu flüssigen Kraftstoffen erhöht die Kohlenstoffeffizienz der biotechnologischen Verfahren. Zudem ermöglicht die langfristige Kohlenstoffbindung in Form des Nebenprodukts Pflanzenkohle sogar negative CO2-Emissionen, also eine netto Kohlenstoffabscheidung aus der Atmosphäre«, sagt Projektkoordinator Prof. Dr.-Ing. Jakob Burger, Professor für Chemische und Thermische Verfahrenstechnik am TUM Campus Straubing für Biotechnologie und Nachhaltigkeit.
So nutzt der Verbund Abwärme aus den (thermo-)chemischen Synthesen (z. B. der Methanolsynthese) für die Produktaufarbeitung. Wesentlich ist auch die Bereitstellung von biogenem CO2 für die Methanolsynthese sowie von biogenem Wasserstoff durch die thermochemische Konversion von Biomassereststoffen. Dadurch wird die Nutzung fossiler CO2-Quellen, beispielsweise Abgase der Verbrennung von Kohle oder Erdgas, oder eine aufwändige CO2-Abscheidung aus der Atmosphäre umgangen.
Kerosin und Diesel aus CO2
Das Fraunhofer IGB konzentriert sich in SynergyFuels auf die heterogenkatalytische Synthese von Mitteldestillatkraftstoffen, also Kerosin und Diesel, aus CO2 und erneuerbarem Strom. Die zu entwickelnde Prozessroute verläuft über Alkohole und Olefine als Zwischenprodukte. Das CO2 stammt direkt aus technischen Prozessgasen, zum einen aus der fermentativen Ethanolproduktion, zum anderen der thermokatalytischen Biomassekonversion. »So gelingt es uns, Power-to-X- und Biomasse-basierte Verfahren wertschöpfend zu verbinden. Dabei ist uns wichtig, nicht nur linear entlang einzelner Prozessketten zu denken, sondern wie in einer Raffinerie verschiedene Stoffströme durch Prozessvernetzung möglichst effizient zu nutzen«, stellt Dr. Arne Roth, Projektleiter am Fraunhofer IGB in Straubing, klar. Die Arbeiten erfolgen dabei von kleinskaligen Tests im Labor bis in den Technikumsmaßstab zur Produktion von Kraftstoffmustern.
Schnelle Markteinführung der produzierten Kraftstoffe
»Wir benötigen hocheffiziente Verfahren, um nachhaltige Drop-in-Kraftstoffe in industriellen Mengen zu vertretbaren Preisen herzustellen. Unser Verbund pilotiert diese Verfahren, damit eine schnelle Markteinführung der neuen Kraftstoffe gelingt«, sagt Prof. Burger. Drop-in bedeutet, dass die Kraftstoffe nahtlos dem bestehenden Kraftstoffpool zugemischt werden können und so die fossilen Kraftstoffe ersetzen, ohne die Motoren technisch zu ändern.
In den Raffinerieverbund werden in den nächsten vier Jahren neun Syntheseanlagen in Ostbayern integriert, darunter bestehende in Straubing und Sulzbach-Rosenberg. Diese Anlagen produzieren eine breite Palette von erneuerbaren Kraftstoffen im Tonnenmaßstab. Die Projektbeteiligten überprüfen deren physikalische Eigenschaften wie Schmierfähigkeit oder Kälteverhalten. Anwendungspartner aus den Bereichen Luft- und Schifffahrt sowie Fahrzeuge und mobile Maschinen demonstrieren die Eignung der Kraftstoffe im Realbetrieb.
An dem Projekt »Synergien durch Integration von Biomassenutzung und Power-to-X in der Produktion erneuerbarer Kraftstoffe (Synergy Fuels)« beteiligen sich neben der TUM als Koordinator und dem Fraunhofer IGB auch das Technologie- und Förderzentrum (TFZ), das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik (UMSICHT) sowie die Industrieunternehmen Clariant, Martech GmbH und Volkswagen AG. Das Bundesministerium für Digitales und Verkehr (BMDV) fördert das Vorhaben über die Förderrichtlinie »Maßnahmen zur Entwicklung regenerativer Kraftstoffe« mit 13,6 Millionen Euro.
Technische Universität München (TUM)
Die Technische Universität München (TUM) ist mit rund 600 Professorinnen und Professoren, 50.000 Studierenden sowie 11.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Mumbai, Peking, San Francisco und São Paulo vertreten.
An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006, 2012 und 2019 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands.
Wissenschaftliche Ansprechpartner:
Dr. Arne Roth
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Leiter Innovationsfeld Nachhaltige katalytische Prozesse
Schulgasse 11a
94315 Straubing
Telefon +49 9421 9380-1030
E-Mail: arne.roth@igb.fraunhofer.de
Prof. Dr.-Ing. Jakob Burger
Technische Universität München (TUM)
Campus Straubing für Biotechnologie und Nachhaltigkeit
Professur für Chemie und Thermische Verfahrenstechnik
Telefon: +49 9421 187-275
E-Mail: synergyfuels@cs.tum.de
Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2023/biokraft…
Weitere Informationen:
https://www.igb.fraunhofer.de/de/forschung/katalysatoren.html
Zum Weltkrebstag 2023: DGU mahnt erneut Verbesserung der Prostatakrebs-Früherkennung an
Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.
Am 4. Februar 2023 ist Weltkrebstag: Wie die Deutsche Krebshilfe weist auch die Deutsche Gesellschaft für Urologie e.V. (DGU) anlässlich dieses wichtigen Aktionstages auf Defizite bei Prävention und Früherkennung von Krebs in Deutschland hin und ruft Bürgerinnen und Bürger dazu auf, sich auf ihrem Patientenportal www.urologische-stiftung-gesundheit.de über die Möglichkeiten der Vorbeugung und der Früherkennung urologischer Krebserkrankungen zu informieren.
Mit Blick auf die häufigste Tumorerkrankung des Mannes wiederholt die wissenschaftliche Fachgesellschaft ihre Forderung gegenüber den Verantwortlichen im Gesundheitswesen, die Empfehlungen des Europäischen Rates zur Früherkennung des Prostatakarzinoms mit hoher Priorität auf nationaler Ebene umzusetzen.
Urologische Tumoren machen mittlerweile bis zu einem Viertel aller in Deutschland pro Jahr neu gestellten Krebsdiagnosen aus. Prostata-, Blasen-, Nierenzell- und Hodenkarzinome sind dabei die häufigsten. Das Prostatakarzinom weist sowohl in Deutschland als auch in der EU die mit Abstand höchste Inzidenz der Krebsneuerkrankungen unter Männern auf und steht hinsichtlich der Mortalität in Deutschland inzwischen an zweiter Stelle: Im Jahr 2019 wurden in Deutschland 68.579 Neuerkrankungen dokumentiert; im gleichen Jahr verstarben 15.040 Männer an diesem Tumor.
Vor diesem Hintergrund hat sich die DGU seit Jahren für eine Weiterentwicklung der Prostatakrebs-Früherkennung stark gemacht und auf der Grundlage neuester evidenzbasierter Studiendaten bereits seit Längerem ein zeitgemäßes Früherkennungsverfahren gefordert, das nicht ausschließlich auf der Tastuntersuchung der Prostata beruht. „Im Einklang mit den jüngsten Empfehlungen des Europäischen Rates fordern wir die Entwicklung eines Früherkennungsprogramms, das an Früherkennung interessierten Männern den Zugang zu einer fachärztlichen Beratung, einem PSA-Test und untersuchungsbefundabhängig ein multiparametrisches MRT der Prostata ermöglicht und haben Ende 2022 in einem Brief an Bundesgesundheitsminister Prof. Dr. med. Karl Lauterbach appelliert, dies mit hoher Priorität umzusetzen“, sagt DGU-Generalsekretär Prof. Dr. med. Maurice Stephan Michel. „Wenngleich wir erfreulicherweise mit dem Gemeinsamen Bundesausschuss (G-BA) in konstruktiven Gesprächen zum Thema sind, bleiben wir besorgt, dass die Früherkennung des Prostatakarzinoms in Deutschland im Vergleich zu anderen europäischen Ländern zurückfällt und mahnen unsere Forderung nach einer schnellen Umsetzung anlässlich des diesjährigen Weltkrebstages öffentlich an“, so Prof. Michel weiter.
Anfang Februar hatte die Deutsche Gesellschaft für Urologie e.V. auch den Minister für Soziales, Gesundheit und Integration des Landes Baden-Württemberg und derzeitigen Vorsitzenden der Gesundheitsministerkonferenz, Manfred Lucha, über die Situation bei der Früherkennung des Prostatakarzinoms informiert. Der Minister hatte sich zuletzt der Männergesundheit angenommen und darauf hingewiesen, dass Männer Vorsorge- und Früherkennungsuntersuchungen deutlich weniger häufig wahrnehmen als Frauen und dadurch vermeidbaren Schaden an ihrer Gesundheit erleiden. „Bedauerlicherweise kommt beim Prostatakarzinom hinzu, dass den Männern, die bereit sind, an dieser Früherkennungsmaßnahme teilzunehmen, mit der alleinigen Tastuntersuchung derzeit in Deutschland ein Verfahren angeboten wird, das klar unzureichend ist“, unterstreicht DGU-Präsident Prof. Dr. med. Martin Kriegmair den dringenden Handlungsbedarf bei der Männergesundheit.
Weitere Informationen
Pressekontakt der Deutschen Gesellschaft für Urologie e.V.
Bettina-C. Wahlers
Sabine M. Glimm
Wettloop 36c
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de
Wasserkrisen durch Klimawandel: gefährlicher als bisher gedacht
Dr. Florian Aigner PR und Marketing
Technische Universität Wien
Dass der Klimawandel in den Wasserkreislauf des Planeten eingreift, ist bekannt. Neue Analysen zeigen: Das Abflussverhalten reagiert vielerorts empfindlicher als bisher angenommen.
Der Klimawandel verändert die globale Luftzirkulation, dadurch ändern sich in großen Teilen der Erde auch Niederschlag und Verdunstung. Das beeinflusst auch die Wassermenge in den Flüssen, die lokal genutzt werden kann. Prognosen über derartige Auswirkungen des Klimawandels berechnete man bisher meist auf Basis physikalischer Modelle – auch das IPCC (das Intergovernmental Panel on Climate Change) wendet diese Strategie an.
Neue Datenanalysen, die unter der Leitung von Prof. Günter Blöschl von der TU Wien durchgeführt wurden, zeigen nun allerdings: Bisherige Modelle unterschätzen systematisch, wie sensibel die Wasser-Verfügbarkeit auf bestimmte Klima-Parameter reagiert. Eine Analyse von Messdaten aus über 9.500 hydrologischen Einzugsgebieten aus der ganzen Welt zeigt, dass der Klimawandel in noch stärkerem Ausmaß als bisher erwartet zu lokalen Wasser-Krisen führen kann. Die Ergebnisse wurden nun im Fachjournal „Nature Water“ publiziert.
Modell-Ansatz und Messdaten-Ansatz
„In der Klimatologie-Community versteht man heute sehr gut, welche Auswirkungen der Klimawandel auf die Atmosphäre hat. Welche Konsequenzen das aber lokal auf Flüsse und die Verfügbarkeit von Wasser haben kann, fällt allerdings in das Gebiet der Hydrologie“, erklärt Prof. Günter Blöschl vom Institut für Wasserbau und Ingenieurhydrologie der TU Wien.
Lokal lässt sich oft sehr gut erklären, wie die Wasserverfügbarkeit von äußeren Parametern wie Niederschlagsmenge oder Temperatur zusammenhängt – das wird an vielen Messstellen weltweit untersucht, ganz besonders ausführlich etwa in Blöschls Hydrologielabor in Petzenkirchen, wo auf 60 Hektar Fläche zahlreiche Sensoren installiert wurden. Doch globale Schlüsse kann man aus solchen Einzelbeobachtungen nicht ziehen: „Wie der Wasserhaushalt von äußeren Parametern abhängt, ist von Ort zu Ort unterschiedlich, auch die lokale Vegetation spielt hier eine sehr wichtige Rolle“, sagt Günter Blöschl. Ein simples physikalisches Modell zu entwickeln, mit dem man an allen Orten der Welt diese Zusammenhänge berechnen kann, ist kaum möglich.
Günter Blöschl arbeitete daher mit Kolleginnen und Kollegen aus China, Australien, den USA und Saudi Arabien zusammen, um eine möglichst große Datenbank über hydrologische Einzugsgebiete aus der ganzen Welt aufzubauen und zu analysieren. Über 9.500 solche Gebiete wurden einbezogen, mit Zeitreihen, die mehrere Jahrzehnte in die Vergangenheit reichen.
Das Wassersystem reagiert auf Klimawandel sensibler als gedacht
„Wir stützen uns in unserer Analyse also nicht auf physikalische Modelle, sondern auf tatsächliche Messungen“, betont Günter Blöschl. „Wir sehen uns an, wie stark sich die Menge des verfügbaren Wassers in der Vergangenheit geändert hat, wenn sich äußere Bedingungen änderten. Wir können dadurch also herausfinden, wie sensitiv Änderungen von Klima-Parametern mit einer Änderung der lokalen Wasser-Verfügbarkeit zusammenhängen. Und das erlaubt uns dann auch Vorhersagen für die Zukunft, in der sich das globale Klima erwärmt haben wird.“
Und dabei zeigte sich: Der Zusammenhang von Niederschlag und Wassermenge in den Flüssen ist viel sensitiver als man bisher dachte – und somit viel sensitiver als man in den derzeit üblichen Modellen zur Vorhersage des Klimawandels annimmt.
Prognosemodelle über die Auswirkungen des Klimawandels auf die Wasserversorgung müssen daher grundlegend überarbeitet werden. „Bisher gehen in die Modelle, wie sie auch das IPCC derzeit verwendet, Abflussmessungen meist gar nicht ein“, sagt Günter Blöschl. „Mit den jetzt verfügbaren Messreihen sollte es nun möglich werden, auch die dahinterliegenden physikalischen Vorhersagemodelle entsprechend anzupassen.“
Gefährlicher als angenommen
Die Ergebnisse des Forschungsteams rund um Günter Blöschl zeigen jedenfalls, dass die Gefahr des Klimawandels auf die Wasserversorgung in vielen Teilen der Erde bisher unterschätzt wurde. Besonders für Afrika, Australien und Nordamerika sagen die neuen Daten bis 2050 ein deutlich höheres Risiko für Wasser-Versorgungskrisen voraus als bisher angenommen.
Wissenschaftliche Ansprechpartner:
Univ.Prof. Günter Blöschl
Institut für Wasserbau und Ingenieurhydrologie
Technische Universität Wien
Karlsplatz 13, 1040 Wien
+43-1-58801-2231
bloeschl@hydro.tuwien.ac.at
Originalpublikation:
H. Zheng et al., Future global streamflow declines are probably more severe than previously estimated, Nature Water, 2023. https://doi.org/10.1038/s44221-023-00030-7
76 Prozent der erfassten Insektenarten nicht von Schutzgebieten abgedeckt
Sebastian Tilch Medien und Kommunikation
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Die Zahl der Insekten ist in vielen Teilen der Welt rückläufig. Schutzgebiete könnten einen wesentlichen Beitrag zur Erhaltung bedrohter Insektenarten leisten, doch Forschende unter Leitung des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv), des Helmholtz-Zentrums für Umweltforschung (UFZ), der Friedrich-Schiller-Universität Jena und der Universität Queensland zeigen, dass 76 Prozent der erfassten Insektenarten nicht ausreichend durch Schutzgebiete abgedeckt sind. In der Zeitschrift One Earth empfehlen sie Entscheidungsträgern, die mit Abstand größte Artengruppe bei der Umsetzung der neuen Ziele der UN-Konvention zur biologischen Vielfalt angemessen zu berücksichtigen.
Geschätzt über 80 Prozent aller Tierarten sind Insekten. Diese Artengruppe spielt in fast allen Ökosystemen eine entscheidende Rolle. Insekten bestäuben über 80 Prozent der Pflanzen, haben eine Schlüsselfunktion im natürlichen Nährstoffkreislauf und bei der Schädlingsbekämpfung und dienen Tausenden von Wirbeltierarten als wichtige Nahrungsquelle. Dennoch wurden Insekten in der Vergangenheit von Naturschutzprogrammen weitgehend übersehen – und selbst auf der Roten Liste der bedrohten Arten der Weltnaturschutzorganisation IUCN machen sie nur acht Prozent aus.
Frühere Studien haben gezeigt, dass Schutzgebiete bedrohte Insektenarten erhalten können, wenn sie auf dieses Ziel zugeschnitten sind und mit ihren Verbreitungsgebieten übereinstimmen. Um festzustellen, welcher Anteil der Insektenarten weltweit in Schutzgebieten vorkommt, hat ein Forschungsteam unter der Leitung von iDiv, UFZ und den Universitäten Jena und Queensland die Daten von 89.151 Insektenarten, deren Verbreitung in der größten Biodiversitätsdatenbank, der Global Biodiversity Information Facility (GBIF), registriert ist, mit globalen Karten von Schutzgebieten abgeglichen. Einen Anhaltspunkt für eine ausreichende Abdeckung von Arten durch Schutzgebiete bieten die Globalen Standards der IUCN für die Identifizierung von Schlüsselgebieten der biologischen Vielfalt (Key Biodiversity Areas).
Das Forschungsteam stellte fest, dass 76 Prozent der weltweit erfassten Insektenarten in Schutzgebieten nur unzureichend vertreten sind, darunter mehrere stark gefährdete Arten wie die Dinosaurierameise (Nothomyrmecia macrops), die Blutrote Hawaii-Wasserjungfer (Megalagrion leptodemas) und die Bärenspinnerart Apantesis phalerata. Bei 1.876 Arten aus 225 Familien überschneiden sich die weltweiten Verbreitungsgebiete überhaupt nicht mit Schutzgebieten.
Der Erstautor der Studie, Dr. Shawan Chowdhury, Postdoktorand am iDiv, UFZ und an der Universität Jena, zeigte sich überrascht über das Ausmaß der Unterrepräsentation. „Viele Insektendaten stammen aus Schutzgebieten, daher dachten wir, dass der Anteil der Arten, die in Schutzgebieten zu finden sind, höher sein würde“, sagt Chowdhury. „Das Defizit ist auch viel größer als bei Wirbeltieren, bei denen eine ähnliche Analyse eine unzureichende Schutzgebietsabdeckung für 57 Prozent der Arten ergeben hat.“
Insekten waren in einigen Regionen besser geschützt als in anderen, beispielsweise in Amazonien, Süd- und Mittelamerika, Afrika südlich der Sahara, Westaustralien und auch Mitteleuropa. In Nordamerika, Osteuropa, Süd- und Südostasien sowie weiten Teilen Australiens hingegen war der Schutz durch Schutzgebiete für viele Arten unzureichend.
„Insekten wurden bei der Ausweisung neuer Schutzgebiete häufig nicht als Schwerpunktgruppe berücksichtigt“, sagt Chowdhury. „In der Regel sind es die Wirbeltiere, auf die die Schutzziele zugeschnitten werden, und deren Anforderungen an den Lebensraum sind häufig ganz andere als die der Insekten. Für eine Artengruppe, die einen so großen Teil des Tierreichs ausmacht und vielfältige Ökosystemfunktionen erfüllt, ist das beunruhigend.“
Die Mitgliedsstaaten des UN-Übereinkommens über die biologische Vielfalt (CBD) haben kürzlich ein neues globales Rahmenwerk für die biologische Vielfalt verabschiedet, unter anderem mit dem Ziel 3, das dazu aufruft, mindestens 30 Prozent der Land-, Binnengewässer-, Küsten- und Meeresflächen durch Schutzgebiete effektiv zu erhalten. Nach Ansicht der Autorinnen und Autoren sollten Insekten bei der Auswahl und Planung neuer Gebiete viel stärker berücksichtigt werden.
„Um dies weltweit umsetzen und den Erfolg effektiv bewerten zu können, sind jedoch wesentlich bessere Daten erforderlich, vor allem in Regionen mit hoher biologischer Vielfalt wie den Tropen, die in den Monitoringprogrammen bisher völlig unterrepräsentiert sind“, sagt Letztautor Prof. Richard Fuller von der Universität Queensland.
„Bürgerwissenschaft könnte einen enormen Einfluss auf die Schließung der Datenlücke bei der Verbreitung von Insekten haben. Wissenschaftler und politische Entscheidungsträger müssen jetzt aktiv werden und bei der Ermittlung von Gebieten helfen, die für den Schutz von Insekten wichtig sind.“
Die Studie wurde u.a. von der Deutschen Forschungsgemeinschaft (DFG; FZT-118) unterstützt. Sie ist ein Produkt der sDiv-Synthesearbeitsgruppe sMon. iDiv’s Synthesezentrum sDiv finanziert Arbeitsgruppentreffen, bei denen Forschende aus aller Welt gemeinsam wissenschaftliche Fragen bearbeiten.
Wissenschaftliche Ansprechpartner:
Dr. Shawan Chowdhury
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig
Friedrich-Schiller-Universität Jena
Helmholtz-Zentrums für Umweltforschung (UFZ)
Tel.: +49 341 9733178
E-Mail: shawan.chowdhury@idiv.de
Prof. Richard Fuller
Universität Queensland/Australien
Tel.: +61 7 334 69912
E-Mail: r.fuller@uq.edu.au
Originalpublikation:
Chowdhury, S., Zalucki, M. P., Hanson, J. O., Tiatragul, S., Green, D., Watson, J. E. M., Fuller, R. A. (2023): Three quarters of insect species are insufficiently represented by protected areas. One Earth. DOI: 10.1016/j.oneear.2022.12.003 https://www.cell.com/one-earth/fulltext/S2590-3322(22)00631-5
Innovationskraft für eine nachhaltige Arbeitswelt
Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Ministerpräsident Kretschmann besucht Stuttgarter Technologie- und Innovationscampus S-TEC
Nachhaltigkeit und Klimaschutz stehen ganz oben auf der Agenda von Politik, Wirtschaft und Wissenschaft. Um sich ein Bild davon zu machen, mit welchen Innovationen ressourceneffizientes Wirtschaften gelingt, besuchte Ministerpräsident Winfried Kretschmann am 31. Januar 2023 den Stuttgarter Technologie- und Innovationscampus S-TEC im Fraunhofer-Institutszentrum Stuttgart.
Ob Klimawandel, Fachkräftemangel oder digitale Transformation: Die Bewältigung der anstehenden Herausforderungen erfordert ein Umdenken auf vielen Ebenen. Dies gelingt nur, wenn Politik, Wirtschaft und Wissenschaft an einem Strang ziehen, interdisziplinär zusammenarbeiten und zukunftsrelevante Forschungsthemen mit hohem technischen und organisatorischen Innovationscharakter vorantreiben – auf globaler, aber vor allem und zuerst auf regionaler Ebene. Baden-Württemberg zählt seit Jahrzehnten zu den führenden Innovationsregionen in Europa. Doch das Land befindet sich in hartem Wettbewerb um die weltweit intelligentesten Technologien, besten Ideen und klügsten Köpfe.
»Wir haben in Baden-Württemberg eine herausragende Forschungslandschaft zu sehr innovativen und zukunftsrelevanten Technologien und Themen mit unterschiedlichen Schwerpunkten. Orte wie der S-TEC-Campus hier in Stuttgart sind Leuchttürme mit internationaler Strahlkraft in Forschung und Transfer in die Wirtschaft – und das macht Baden-Württemberg so besonders: Wirtschaft und Forschung arbeiten Hand in Hand«, sagte Ministerpräsident Winfried Kretschmann.
Mit dem Ziel, sich ein Bild von den wichtigsten Handlungsfeldern auf dem Weg in eine nachhaltige und ressourcenschonende Zukunft zu machen, hat Ministerpräsident Winfried Kretschmann den Stuttgarter Technologie- und Innovationscampus S-TEC im Fraunhofer-Institutszentrum Stuttgart besucht. Hier kooperieren Institute der Fraunhofer-Gesellschaft sowie der Universität Stuttgart mit Start-ups sowie weiteren Unternehmen aus der Region, um in zahlreichen Zentren zu unterschiedlichen Themenschwerpunkten Methoden, Verfahren, Prozesse, Produktionssysteme und Geschäftsmodelle zu entwickeln und in die Anwendung zu bringen.
»Als Regierungschef bin ich immer Lernender geblieben und auch neu- und wissbegierig auf alles, was uns voranbringt. Zum Beispiel hier in Stuttgart, wo kluge Köpfe an den Herausforderungen von jetzt und morgen arbeiten und damit das Land zukunftsfest gestalten«, so Kretschmann weiter.
S-TEC bringt als »Transfermaschine« Forschung in die industrielle Anwendung
»Die S-TEC-Zentren – es sind mittlerweile mehr als 10! – tragen seit nunmehr fünf Jahren erfolgreich zur Umsetzung er Forschungsstrategie des Landes bei. Ob mit Industriekooperationen, beispielsweise im Rahmen von Quick Checks, Exploring Projects oder dem CyberLänd, das Baden-Württemberg auf dem Weg ins Metaverse schicken wird: der Innovationscampus ist eine ›Transfermaschine‹, die Ergebnisse der Wissenschaft hoch effizient in die Unternehmen und Märkte bringt und somit in die wirtschaftliche Zukunftsfähigkeit des Landes einzahlt. Ich freue mich sehr, dass der baden-württembergische Ministerpräsident Kretschmann das fünfjährige S-TEC-Jubiläum zum Anlass genommen hat, sich unser innovatives Forschungs- und Transferumfeld aus der Nähe anzuschauen«, erklärte Prof. Thomas Bauernhansl, Leiter des Fraunhofer IPA und Sprecher des Institutsleiterrats des Fraunhofer-Campus in Stuttgart.
Campustour: mit neuen Technologien zu Nachhaltigkeit und Ressourceneffizienz
Im Fokus der Campustour mit fünf verschiedenen Stationen standen Technologien und digitale Werkzeuge rund um die Themen Nachhaltigkeit und Ressourceneffizienz. Allen voran die Einsatzmöglichkeiten der Künstlichen Intelligenz (KI), die das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO gemeinsam mit dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA im KI-Fortschrittszentrum erforscht: vom Schweißen mit Cobots bis hin zu KI-basierten digitalen Außendienst-Assistenten.
Unter dem Titel »Präzisionsmedizin von der Diagnostik bis zur Therapie« stellten das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB sowie das Fraunhofer IPA neueste Entwicklungen rund um eine schnelle DNA-gestützte Diagnostik von Sepsis-Erregern, virusbasierte Technologien zur Etablierung einer onkolytischen Virus-Plattform sowie die standardisierte automatisierte Produktion von neuartigen Zell- und Gentherapeutika vor. Das Fraunhofer-Institut für Bauphysik IBP präsentierte zum Thema »Nachhaltigkeit durch Klimaneutralität und Bioökonomie«, wie smarte Produktfunktionen ein Produkt nachhaltiger machen und wie die Anforderungen der EU-Taxonomie im Maschinenbau effizient umgesetzt werden können; beides Themen aus dem neuen S-TEC-Zentrum für Klimaneutrale Produktion und Ganzheitliche Bilanzierung. An aktuellen Beispielen zeigte das Fraunhofer IGB, dass sich Abwasser und Abfälle mittels Bioraffinerien nutzen lassen, um wertvolle Produkte für Industrie und Landwirtschaft herzustellen. Wie interdisziplinäre und branchenübergreifende Zusammenarbeit die Herstellung personalisierter Produkte ermöglicht, stellte das Leistungszentrum »Mass Personalization« der Fraunhofer-Institute IAO, IBP, IGB und IPA und der Universität Stuttgart in aller Kürze vor.
Die Möglichkeiten der Digitalisierung standen im Mittelpunkt der letzten beiden Stationen »Digitalisierte Batteriezellproduktion« und »Digitale Werkzeuge für Ressourceneffizienz und Nachhaltigkeit«. Die Wertschöpfungskette in der Batteriezellproduktion durchgängig zu digitalisieren, gehört zu den Aufgaben des Zentrums für Digitalisierte Batteriezellproduktion (ZDB) am Fraunhofer IPA. Mit dem CAPE®-System (Clean And Protective Environment) haben die Wissenschaftlerinnen und Wissenschaftler ein zeltähnliches Reinraumsystem entwickelt, mit dem sich kostengünstig, schnell und flexibel eine Reinraumumgebung herstellen lässt.
Wie Unternehmen in Baden-Württemberg bei ihrer Transformation in die Klimaneutralität unterstützt werden können, zeigte das Fraunhofer IAO im Rahmen der letzten Station: Im Projekt »Ultraeffizienzfabrik« wurde ein Werkzeug entwickelt, das es ermöglicht, Potenziale in den Handlungsfeldern Energie, Material, Emissionen, Mensch und Organisation zu identifizieren und unternehmensübergreifend umzusetzen. Ziel des gemeinsamen Vorhabens des Fraunhofer IAO und IPA ist es, die Vision einer symbiotisch-verlustfreien Produktion in einer lebenswerten Umgebung zu erreichen. Visualisierungs- und Kollaborationstechniken spielen im Kontext der Ressourcenschonung und Effizienzsteigerung eine wichtige Rolle: Am Beispiel der am Fraunhofer IAO entwickelten Multiviewer-Kollaborationswand (CoLEDWall) konnte Ministerpräsident Kretschmann in die Rolle eines Entwicklers schlüpfen und ein realistisches 3D-Modell erleben und bearbeiten. Institutsleiter Prof. Oliver Riedel hob hervor, dass die Zusammenarbeit im virtuellen Raum damit eine neue Ära erreicht habe: die Echtzeit-Ansicht desselben virtuellen 3D-Objekts aus jeweils individuellen Perspektiven der am Entwicklungsprozess beteiligten Personen. Wie man noch tiefer in komplexe Planungsmodelle eintauchen kann, zeigte die Virtual-Reality-Demonstration des Flugfeldklinikums. Die virtuelle Begehung eines solch komplexen Objekts offenbart Fehler, bevor sie in der Realität entstehen. Das spart nicht nur Zeit und Steuergelder, sondern vor allem auch Ressourcen – denn ein Rück- oder Umbau bedeutet Verschwendung und belastet unsere Umwelt.
Die Stuttgarter Fraunhofer-Institute setzen ihre Werkzeuge auch für ihre eigenen Zukunftsprojekte ein. So gab Dr. Florian Herrmann, stv. Institutsleiter des Fraunhofer IAO, Ministerpräsident Kretschmann zum Ausklang einen visionären Einblick des klimaneutralen Campus. Ministerpräsident Winfried Kretschmann hat aus der interaktiven Campustour viele Impulse und Ideen mitgenommen, um seinen eingeschlagenen Innovationskurs fortzusetzen und die Innovationskraft Baden-Württembergs zu stärken.
Der Stuttgarter Technologie- und Innovationscampus S-TEC ist ein in Zentren organisiertes Netzwerk für Unternehmen und wissenschaftliche Einrichtungen am Standort Stuttgart. Die Fraunhofer-Institute und Institute der Universität Stuttgart arbeiten gemeinsam mit Projektpartnern aus der baden-württembergischen Industrie an zentralen Zukunftsthemen. Gefördert durch das Land Baden-Württemberg, ermöglicht dieses Transferkonzept die Entwicklung und Realisierung innovativer Lösungen– dynamisch, effizient und partnerschaftlich.
Pressekommunikation:
Jörg-Dieter Walz | Telefon +49 711 970-1667 | joerg-dieter.walz@ipa.fraunhofer.de
Wissenschaftliche Ansprechpartner:
Dr. Kai Kohler
Telefon +49 711 970-1600 | kai.kohler@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de
Weitere Informationen:
https://s-tec.de/
https://www.ipa.fraunhofer.de/de/ueber_uns/zusammenarbeit/industry-on-campus/s-t…
Anhang
Pressemitteilung
Post-COVID: Versichertendaten zeigen Assoziation mit Autoimmunerkrankungen
Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Nach einer überstandenen COVID-19-Infektion leiden Betroffene deutlich häufiger an einer Autoimmunerkrankung als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Bei Menschen mit einer SARS-COV-2-Infektion, nachgewiesen durch einen PCR-Test, kamen 15,05 Diagnosen auf 1.000 Versichertenjahre. Dagegen waren dies bei Menschen ohne SARS-COV-2-Infektion nur 10,55 Diagnosen. Insbesondere Entzündungen der Blutgefäße (Vaskulitiden) wie Morbus Wegner, Morbus Behcet oder Arteriitis temporalis wiesen die größten Assoziationen mit COVID-19 auf.
An der Studie sind mehrere gesetzliche Krankenkassen beteiligt. Die Koordination übernehmen das Zentrum für Evidenzbasierte Gesundheitsversorgung (ZEGV) der Dresdner Hochschulmedizin und das Robert Koch-Institut.
„Dies ist eine der ersten großen kontrollierten Kohortenstudien zu COVID-19 und Autoimmunerkrankungen. Die umfangreiche Datengrundlage unserer Partner erlaubt uns, Aussagen zu bleibenden Folgen der COVID-19-Pandemie zu treffen. In allen Alters- und Geschlechtsgruppen traten Autoimmunkrankheiten in der Zeit nach der Infektion signifikant häufiger auf“, sagt Prof. Jochen Schmitt vom Universitätsklinikum Carl Gustav Carus Dresden. Um die Zusammenhänge zwischen COVID-19 und den Erkrankungen zu verstehen, sei weitere Forschung notwendig. „Künftige Analysen sollten einen Fokus auf chronische Erkrankungen legen, die in der Pandemie entstanden sind. Zudem ist es wichtig, die Krankheitslast, die uns womöglich lange erhalten bleibt, zu quantifizieren.“
Unter Post-COVID werden längerfristige, mindestens drei Monate nach einer SARS-CoV-2-Infektion fortbestehende oder neu hinzukommende Krankheitssymptome und gesundheitliche Einschränkungen zusammengefasst. Bislang ist es eine offene Forschungsfrage, welche Symptome Post-COVID umfassen kann und wie viele Menschen davon betroffen sind. Um sich diesen Fragen zu nähern, sind kontrollierte Studien notwendig. Darin müssen Personen nach gesicherter SARS-CoV-2-Infektion ausreichend lange und im Vergleich zu einer gut definierten Kontrollgruppe auf ihren Gesundheitszustand hin nachbeobachtet werden.
Datenbasis der vorliegenden Studie sind Abrechnungsdaten der Jahre 2019 bis Juni 2021 von 38,9 Millionen gesetzlich Versicherten. Diese stammen von der AOK PLUS, der BARMER, der DAK-Gesundheit, der IKK classic, der Techniker Krankenkasse sowie aus der Forschungsdatenbank der InGef, über die ein wesentlicher Teil der Daten von Betriebskrankenkassen einbezogen wurde. In die Analyse gingen Daten von 640.000 Personen mit labormedizinisch nachgewiesener COVID-19-Erkrankung im Jahr 2020 ein, darunter 76.000 mit vorbestehender Autoimmunerkrankung. Für jede infizierte Person schlossen die Forschenden drei nichtinfizierte Versicherte in die Studie ein, die hinsichtlich Alter, Geschlecht, Vorerkrankungen, der Inanspruchnahme von Gesundheitsleistungen und Nachbeobachtungszeit vergleichbar waren. Infizierte und Nicht-Infizierte wurden hinsichtlich 41 vorab festgelegter Erkrankungen verglichen, die drei bis 15 Monate nach Infektions- bzw. Einschlussdatum neu dokumentiert wurden. Davon wiesen 30 eine hinreichend große Inzidenz auf, um Schätzwerte auszuweisen.
Es wird bereits länger spekuliert, dass die durch Virusinfektionen, wie SARS-CoV2, verursachten Autoantikörper bei einem Teil der Infizierten eine Autoimmunerkrankung auslösen können. Diese Ergebnisse beziehen sich hier auf die Nachverfolgung jener Betroffenen mit einer Infektion des Wildtyps des Virus. Erkenntnisse über andere Varianten des Virus bestehen aktuell nicht. „Das Ergebnis der Studie zeigt eindrücklich, welche wichtigen Erkenntnisse wir aus Patientendaten gewinnen können. Die Hochschulmedizin Dresden ist sehr froh, starke Partner an ihrer Seite zu wissen, die uns bei dieser Arbeit unterstützen. Ergebnisse aus solchen Studien helfen nicht nur der Medizin, sondern kommen vor allem den Patientinnen und Patienten in der Diagnostik und Therapie zugute“, sagt Prof. Michael Albrecht, Medizinischer Vorstand am Universitätsklinikum Dresden.
Die Studie ist Teil des vom Robert Koch Institut geleiteten und vom Bundesgesundheitsministeriums geförderten Projektes „Postakute gesundheitliche Folgen von COVID-19“ https://rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Long-COVID/Projekt-Post….
Sie schließt an eine vor kurzem bei PLOS Medicine veröffentlichen Studie an, welche sich mit einer Vielzahl von mit COVID-19 assoziierten Symptomen beschäftigte.
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004122#s….
Bisher ist nur eine andere Kohortenstudie aus England als Preprint veröffentlich worden. Diese weist für eine kürzere Beobachtungszeit der Personen und 11 ausgewählte Erkrankungen ein Überschussrisiko für eine neue Autoimmunerkrankung von 0,72 auf 1000 Personenjahre, statt 4,50 wie in dieser Studie, auf.
https://www.medrxiv.org/content/10.1101/2022.10.06.22280775v1.full
Die Ergebnisse wurden als Preprint veröffentlicht („Incident autoimmune diseases in association with a SARS-CoV-2 infection: A matched cohort study “,
https://www.medrxiv.org/content/10.1101/2023.01.25.23285014v1
Kontakt für Medienschaffende
Universitätsklinikum Carl Gustav Carus Dresden
Pressestelle
Annechristin Bonß
Tel.: 0351 458 14162
E-Mail: pressestelle@uniklinikum-dresden.de
Wissenschaftliche Ansprechpartner:
Zentrum für Evidenzbasierte Gesundheitsversorgung
Prof. Dr. Jochen Schmitt und Falko Tesch, Autoren der Studie
Tel.: 0351 458 89211
E-Mail: correspondence.zegv@ukdd.de
Originalpublikation:
Die Ergebnisse wurden als Preprint veröffentlicht („Incident autoimmune diseases in association with a SARS-CoV-2 infection: A matched cohort study “,
https://www.medrxiv.org/content/10.1101/2023.01.25.23285014v
Weitere Informationen:
https://rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Long-COVID/Projekt-Post…
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1004122#s…
https://www.medrxiv.org/content/10.1101/2022.10.06.22280775v1.ful
Anhang
Pressemitteilung
BürgerwissenschaftlerInnen für Energiewende gesucht. EfficientCitzens startet Teilnahmeaufruf für HausbesitzerInnen
Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Energiekrise, Klimawandel, Inflation: Das Thema energetische Sanierung ist hochaktuell. Mit einem bundesweiten Teilnahmeaufruf ist jetzt das Projekt EfficientCitizens gestartet. Gesucht werden HauseigentümerInnen, die als BürgerwissenschaftlerInnen an dem Forschungsvorhaben zum Thema Gebäudesanierung teilnehmen wollen. Das Citizen Science-Projekt wird vom inter 3 Institut für Ressourcenmanagement und dem Beratungsunternehmen co2online durchgeführt und vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.
Ziel ist es, zu erproben, inwieweit in Zeiten knapper Beratungskapazitäten die Sanierung von Eigenheimen auch durch einen Austausch auf Augenhöhe zwischen HauseigentümerInnen vorangebracht werden kann.
Erfahrungsaustausch auf Augenhöhe zum Thema Gebäudesanierung
Können sogenannte SanierungsbotschafterInnen helfen, die Energiewende voranzubringen? Kann ein nachbarschaftlicher Austausch eine nützliche Vorstufe zur Energieberatung sein? Bei der Beantwortung dieser Forschungsfragen arbeiten HauseigentümerInnen als BürgerwissenschaftlerInnen aktiv mit. Bereits in die Konzeption des Forschungsdesigns für die nun startende Feldstudie waren ausgewählte EigentümerInnen und EnergieberaterInnen eingebunden.
„In einem Workshop haben wir diskutiert, wie der Austausch ablaufen kann, welche Vorbereitung die BürgerwissenschaftlerInnen dafür brauchen und wie mögliche Effekte identifiziert werden können“, sagt Dr. Susanne Schön, Projektleiterin bei inter 3: „Jetzt sind wir neugierig, was wir in der Feldstudie gemeinsam mit den BürgerwissenschaftlerInnen herausfinden werden.“
Dabei soll der Erfahrungsaustausch zwischen erfahrenen Sanierern und Sanierungsinteressierten die professionelle Energieberatung, nicht ersetzen. Aber er soll den Haushalten Mut machen, die Sanierung anzugehen und bestmöglich vorzubereiten. Interessierte HauseigentümerInnen können sich noch bis zum 10.02.2023 registrieren auf https://www.efficient-citizens.de/mitmachen/.
Das Projekt Efficient Citizens wird mit Förderung des BMWK bis 2024 im Programm „Energiewende und Gesellschaft“ umgesetzt. Im wissenschaftlichen Beirat begleiten die Verbraucherzentrale Nordrhein-Westfalen, die Klimaschutz- und Energieagentur Baden-Württemberg GmbH, der Bauherren-Schutzbund e.V. sowie der Bundesverband Gebäudeenergieberater, Ingenieure, Handwerker e.V. das Vorhaben.
Hintergrund: Wer steht hinter dem Projekt EfficientCitizens?
Mit mehr als zwanzig Jahren Erfahrung in der sozialwissenschaftlichen und transdisziplinären Forschungs- und Transferarbeit übernimmt das inter 3 Institut für Ressourcenmanagement die Leitung und die wesentliche operative Forschungsarbeit im Projekt. Als Praxispartner in einer Vielzahl transdisziplinärer Forschungsverbünde und mit einem großen Akteursnetzwerk, konzentriert sich co2online auf die inhaltlichen Aspekte der Energieeffizienz, ermöglicht den Feldzugang zur Akquise der BürgerwissenschaftlerInnen und entwickelt den Ansatz bürgerwissenschaftlicher SanierungsbotschafterInnen weiter, um ihn praktisch anschlussfähig zu machen. Beide Partner haben bereits in anderen Forschungsprojekten kooperiert und sind gut aufeinander eingespielt.
Wissenschaftliche Ansprechpartner:
Helke Wendt-Schwarzburg
wendt-schwarzburg@inter3.de
+49(0)30 34 34 74 46
Weitere Informationen:
https://www.efficient-citizens.de/ Webseite des Projekts
https://www.efficient-citizens.de/mitmachen/ Direkt zur Anmeldung als BürgerwissenschaftlerIn
Anhang
PM_EfficientCitizens_inter 3
Wie sich nicht-einheimische Baumarten auf die biologische Vielfalt auswirken
Beate Kittl Medienkontakt WSL Birmensdorf
Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft WSL
Nicht-einheimische Waldbaumarten können die heimische Artenvielfalt verringern, wenn sie in einheitlichen Beständen angepflanzt sind. Hingegen sind ihre Auswirkungen auf Bodeneigenschaften gering. Zu diesem Ergebnis kommt eine internationale Übersichtsstudie mit Beteiligung der Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL.
Fluch oder Segen? An gebietsfremden* Baumarten scheiden sich die Geister. Viele Forstleute pflanzen neben einheimischen Arten auch gebietsfremde, die der zunehmenden Sommertrockenheit trotzen können. In verschiedenen Teilen Europas sind Letztere bereits wichtige Holzlieferanten. Auf der anderen Seite befürchten Naturschützer ökologische Schäden, wenn beispielsweise einheimische Arten verdrängt oder Baumkrankheiten und Schadinsekten eingeschleppt werden.
Nun hat sich ein Team europäischer Forschender, geleitet von Thomas Wohlgemuth von der WSL, den Stand des Wissens zu den ökologischen Folgen von eingeführten Baumarten in Europa angeschaut. Es analysierte die Ergebnisse von insgesamt 103 Studien zu sieben solchen Arten. Alle diese Studien hatten untersucht, wie sich von gebietsfremden Baumarten dominierte Bestände im Vergleich zu Beständen einheimischer Baumarten auf die Artenvielfalt oder den Bodenzustand unter den Bäumen auswirkten. Zu den untersuchten Organismen gehörten Pflanzen, Moose, Mikroorganismen und Insekten vom Boden bis in die Baumkronen.
Von den sieben untersuchten eingeführten Arten wird in der Schweiz aktuell nur die Douglasie in grösserer Anzahl im Wald gepflanzt. Während Förster früher ihren schnellen, geraden Wuchs und ihr vielseitig verwendbares Holz schätzten, ist es heute ihre höhere Trockenheitstoleranz im Vergleich zur Fichte. Andere Arten sind problematisch, weil sie sich unkontrolliert ausbreiten können. So ist die nordamerikanische Robinie invasiv und kann heimische Arten verdrängen. Sie wurde bereits vor 400 Jahren nach Europa gebracht und in der Schweiz unter anderem dazu verwendet, um Böden zu befestigen.
Negativ-Effekte auf Artenvielfalt überwiegen
Über die gesamten 103 Studien hinweg gesehen überwogen die negativen Konsequenzen der gebietsfremden Arten für die Biodiversität. So zeigen 65 Studien, dass auf und bei Douglasien weniger Insektenarten leben. Auch Robinien verringern die Vielfalt der Insekten, Eukalyptus diejenige der Vögel. Das sei wenig überraschend, meint Wohlgemuth, Leiter der WSL-Forschungseinheit Walddynamik. Denn: «Diese Ergebnisse treffen auf Vergleiche zwischen Reinbeständen zu.» In zusammenhängenden, einheitlichen Pflanzungen schneiden viele eingeführte Arten klar schlechter ab als einheimische.
Doch gebietsfremde Arten haben nicht nur negative Auswirkungen. Die meisten beeinflussen die Bodeneigenschaften nicht. Die leicht abbaubaren Nadeln der Douglasien können sogar mehr Nährstoffe verfügbar machen als die schwerer abbaubare Fichtennadeln. «Wenn es nur um Bodeneigenschaften geht, hat die Douglasie keinen negativen Einfluss,» sagt Wohlgemuth. Generell fanden gleich viele Studien positive wie negative Effekte der sieben nicht-einheimischen Arten auf den Boden.
Ausserdem macht es einen Unterschied, ob die gebietsfremden Arten näher oder entfernter mit europäischen Baumarten verwandt sind. «Baumarten ohne nähere Verwandte wie Eukalyptus und Akazie aus Australien verringern die Artenvielfalt über alle Studien hinweg stärker als näher verwandte Arten wie zum Beispiel Douglasie und Spätblühende Traubenkirsche aus Nordamerika», ergänzt Martin Gossner, Leiter der WSL-Gruppe Waldentomologie und Zweitautor der Studie.
Auf die Bewirtschaftung kommt es an
Die Bewirtschaftung hat einen wesentlichen Einfluss darauf, ob Douglasien oder andere Baumarten insgesamt gut oder schlecht für einen Wald sind. Einheitliche und dichte Douglasien-Bestände sind als Lebensraum für viele Organismen ungeeignet. Das Gleiche gilt jedoch auch für die Fichten, die in den letzten 100 Jahren in Tieflagen Mitteleuropas grossflächig für die Holzgewinnung angepflanzt wurden. Hingegen würden Douglasien in Beständen einheimischer Waldbäume, einzeln oder in kleinen Gruppen, das Ökosystem kaum stören, meint Wohlgemuth: «Wir folgern, dass der Einfluss auf die einheimische Biodiversität gering ist, wenn man die Douglasie beimischt.»
Sollen nun Förster gebietsfremde Baumarten anpflanzen oder nicht? Trotz gewisser negativer Aspekte rät Wohlgemuth nicht zum Totalverzicht. «Gerade bei der Douglasie zeigen die Fakten, dass dosierte Beimischung in Beständen die einheimische Biodiversität wenig beeinträchtigt, gleichzeitig aber Ökosystemleistungen wie die Gewinnung von Bauholz erhalten werden können. Dies vor allem, wenn andere, weniger dürrerestistente Nadelbäume im Hinblick auf den ungebremsten Klimawandel zunehmend fehlen.»
Wissenschaftliche Ansprechpartner:
Dr. Thomas Wohlgemuth
Leiter Forschungseinheit Walddynamik a.i., Mitglied der Direktion
thomas.wohlgemuth@wsl.ch
+41 44 739 23 17
Originalpublikation:
Wohlgemuth, T.; Gossner, M.M.; Campagnaro, T.; Marchante, H.; Van Loo, M.; Vacchiano, G.; Castro-Díez, P.; Dobrowolska, D.; Gazda, A.; Keren, S.; Keserű, Z.; Koprowski, M.; La Porta, N.; Marozas, V.; Nygaard, P.H.; Podrázský, V.; Puchałka, R.; Reisman-Berman, O.; Straigytė, L.; … Silva, J.S., 2022: Impact of non-native tree species in Europe on soil properties and biodiversity: a review. NeoBiota, 78: 45-69. doi: 10.3897/neobiota.78.87022
Weitere Informationen:
https://www.wsl.ch/de/newsseiten/2023/01/wie-sich-nicht-einheimische-baumarten-a…
Wissenschaft und Familie: Männer sind gefragt! Wie wir den Sprung zur Vereinbarkeit von Karriere und Familie schaffen
Silke Paradowski Science Communication Centre – Abteilung Kommunikation
Technische Universität Darmstadt
Darmstadt, 27. Januar 2023. Podiumsdiskussion der vom Land Hessen geförderten LOEWE-Forschungsverbünde FLOW FOR LIFE und emergenCITY der TU Darmstadt, Moderator Jochen Breyer, 24. März 2023, 11:30–12:45 Uhr, TU Darmstadt
An deutschen Universitäten und auch in anderen Berufsfeldern in Deutschland wird seit sehr vielen Jahren über den geringen Frauenanteil in höheren Karrierestufen geklagt – an Universitäten vor allem über die geringe Anzahl der Professorinnen. Dabei strengen sich Universitäten nun schon lange sehr an, diesen Zustand zu ändern. So gibt es immer mehr Frauenförderprogramme und jährlich werden neue Aktivitäten erdacht und umgesetzt. Aber trotz aller Bemühungen steigt der Frauenanteil unter Professorinnen kaum. Warum?
Wichtige Gründe dafür sind gesamtgesellschaftlicher Art, die sich nicht allein über Aktivitäten an Universitäten eliminieren lassen. Das Ausscheiden vieler Frauen aus der Wissenschaft nach der Promotion im Alter um die 30 Jahre ist leider eine Tatsache. Viele meinen oder erleben, dass eine wissenschaftliche Karriere nicht oder nur sehr schwer mit ‚Familie‘ vereinbar ist. Warum?
Zum einen erfordern wissenschaftliche Karrieren einen intensiven Zeiteinsatz und in experimentellen Fächern ist auch eine sehr hohe Präsenzzeit – unter anderem wegen der Arbeit in Laboren – unabdingbar. Außerdem liegen Laboraufenthalte und Messzeiten häufig jenseits ‚normaler‘ Regelarbeitszeiten. Auch ist eine Karriere in der Wissenschaft mit zahlreichen Konferenzreisen, beruflichen Ortswechseln und Auslandsaufenthalten verbunden. Dazu kommt, dass der größte Anteil an Hausarbeit, Versorgung oder Betreuung von Familienmitgliedern in Deutschland weiterhin von Frauen geleistet wird.
Dabei gibt e*s Lösungen für diese Herausforderungen, die aber nicht oder nur sporadisch umgesetzt werden, auch, weil es uns in Deutschland an Vorbildern fehlt – Vorbilder besserer Elternzeit- und Teilzeitsysteme, wie sie zum Beispiel in skandinavischen Ländern bestehen, insbesondere aber auch Männer, die anderen Männern als Vorbilder dienen und Mut machen könnten. Männer, die die Karriere ihrer Partnerinnen unterstützen, indem sie wesentliche Beiträge im Haushalt, bei der Kinderbetreuung oder bei der Pflege anderer Familienmitglieder leisten. Solche Beispiele finden sich auch hier bei uns: Männer, die sich entschieden haben, ihre eigene Karriere ganz oder zum Teil zurückzustellen sowie Partnerschaften, in denen beide beruflich vorankommen – die dual career couples. Über die damit verbundenen Herausforderungen und möglichen Lösungsansätze möchten wir ins Gespräch kommen – gemeinsam mit engagierten Männern die wir zu diesem Anlass auf unser Podium geholt haben.
Moderiert wird die Diskussion von Jochen Breyer, vor allem bekannt als sympathischer und kompetenter Sportmoderator, der sich bei seiner Arbeit als Journalist immer wieder auch durch seinen Mut auszeichnet, gesellschaftskritische Themen anzusprechen und näher zu beleuchten.
Wissenschaft und Familie: Männer sind gefragt!
Podiumsdiskussion mit Moderator Jochen Breyer, am 24. März 2023, 11:30 – 12:45 Uhr, Wilhelm-Köhler-Saal, Gebäude S1|03, Hochschulstraße 1, TU Darmstadt
Auf dem Podium sind zu Gast:
– Dr. Franz Baumdicker: Mathematiker, Forschungsgruppenleiter an der Universität Tübingen, verheiratet mit einer Mathematikprofessorin der TU Darmstadt. Beide verfolgen eine Karriere in der Wissenschaft und teilen die Elternzeiten und Betreuung ihrer drei Kinder untereinander auf. Er spricht über die Herausforderungen und Vorteile als dual career couple.
– Dr. Sebastian Braun: Biologe, Wissenschaftler an der Universität Lund, Schweden. Seine Frau (Ärztin) und er arbeiten beide in Teilzeit und haben drei Kinder. Er spricht über schwedische Konzepte und Beispiele aus seinem Umfeld.
– Dr. Kim Bräuer: Soziologin, TU Braunschweig – Arbeit und Organisation, wissenschaftliche Arbeiten zu Vätern in Elternzeit. Sie leitet das Väter-Projekt „You don’t need to be Superheroes“: Einblicke in die vielfältigen Lebenslagen von Vätern. Hat selbst ein Kind.
– Dr. Florian Kaffarnik: Biologe, verheiratet mit einer Germanistik-Professorin der TU Darmstadt. Er hat sich gegen eine eigene Karriere in der Wissenschaft entschieden und kümmert sich um die drei gemeinsamen Kinder und den Haushalt.
Die Veranstaltung wird von den LOEWE-Forschungsverbünden FLOW FOR LIFE und emergenCITY der TU Darmstadt gemeinsam mit ProLOEWE organisiert.
LOEWE ist das hessische Programm zur Förderung von Spitzenforschung und bundesweit einmalig. Die Abkürzung steht für Landes-Offensive zur Entwicklung wissenschaftlich-ökonomischer Exzellenz.
Weitere Informationen zu den LOEWE-Vorhaben finden sie unter www.tu-darmstadt.de/flowforlife, www.emergencity.de oder proloewe.de.
Pressekontakte:
Jörg Feuck
Sprecher der Technischen Universität Darmstadt
presse@tu-darmstadt.de
Tanja Desch
Geschäftsführerin
Netzwerk der LOEWE-Forschungsvorhaben des Landes Hessen
tanja.desch-proloewe@uni-kassel.de
Energiespeicherforschung an der EAH Jena: Projekt zur Entwicklung hocheffizienter Wärmespeicher bewilligt
Marie Koch Marketing und Kommunikation
Ernst-Abbe-Hochschule Jena
Ab Juli 2023 startet an der Ernst-Abbe-Hochschule (EAH) Jena ein durch die Carl-Zeiss-Stiftung gefördertes Projekt zur Entwicklung hocheffizienter Wärmespeicher für die gewerbliche Wärmewende.
Die Gewährleistung einer CO2-neutralen und von Öl- und Gasimporten unabhängigen Wärmeversorgung von Neubau- und Bestandsquartieren ist eine der zukünftigen Herausforderungen auf dem Weg zur Klimaneutralität und Rohstoffunabhängigkeit Deutschlands. In den Quartieren ist speziell die Versorgung von Unternehmen des Gewerbe- und Dienstleistungssektors mit erneuerbarer Wärme bei Temperaturen größer 100 °C mit am Markt verfügbaren Technologien kaum zu realisieren.
Vor diesem Hintergrund starten am 01. Juli 2023 offiziell die Arbeiten am Projekt „Adsorptionswärmespeicher für die gewerbliche Wärmewende“. Es wird mit 892.500 Euro von der Carl-Zeiss-Stiftung gefördert. Das Ziel des Projektes ist es, einen Zeolith-basierten Wärmespeicher zu entwickeln und labortechnisch zu erproben, der in der Lage ist, regenerative Wärme zu speichern und bei gewerblich relevanten Temperaturen > 100 °C bereitzustellen.
Im Detail sollen das Engineering eines Wärmespeichers durch Simulationsrechnungen und umfangreiche Laborversuche erarbeitet und die Umsetzung an einem Industriestandort vorbereitet werden. Dazu gehören neben der Betrachtung konstruktiver Merkmale auch die Ermittlung optimaler verfahrenstechnischer Parameter und werkstofftechnische Analysen.
„Wir hoffen, mit dem Projekt zeigen zu können, dass wir durch den intelligenten Einsatz innovativer Wärmespeicher einen maßgeblichen Beitrag zur Wärmewende und Klimaneutralität in Deutschland leisten können. Da die Zeit drängt, ist uns die Anwendungsnähe und frühzeitige Einbindung von Partnern aus der Wirtschaft extrem wichtig.“ so der Leiter des Projektes, Prof. Dr.-Ing. Stefan Rönsch. Er lehrt und forscht an der EAH Jena. Zu seinen Forschungsthemen gehören insbesondere die chemischen und thermischen Energiespeicher.
Die Projektbearbeitung erfolgt in Kooperation zwischen der EAH Jena (Arbeitsgruppe für Erneuerbare Energien und Speicher & Arbeitsgruppe Funktionskeramik) sowie der Universität Stuttgart (Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung). Begleitet wird das Projekt zudem durch ein hochkarätiges Projektkonsortium unterschiedlichster Wirtschaftspartner, welchem die Chemiewerk Bad Köstritz GmbH, die WIN Wartung- und Instandhaltung GmbH, die TWS Thüringer Wärmeservice GmbH und die Energiedienste der Landeshauptstadt Stuttgart GmbH angehören.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Stefan Rönsch
Professur für Umweltwirtschaft
Ernst-Abbe-Hochschule Jena
Fachbereich Wirtschaftsingenieurwesen
E-Mail: stefan.roensch@eah-jena.de
Weitere Informationen:
https://www.eah-jena.de/erneuerbare-energien-und-speicher
Die Wege des Wassers: Spurensuche mit DNA
Dr. Angelika Jacobs Kommunikation
Universität Basel
Die Analyse mikrobieller Umwelt-DNA hilft zu verstehen, wie der Wasserkreislauf einer Region funktioniert. Mit dieser Methode hat der Basler Hydrogeologe Oliver Schilling das Wassersystem am Mount Fuji untersucht. Daraus lassen sich auch Erkenntnisse für die Schweiz gewinnen.
Woher kommt das Wasser, das die Menschen in einer Region mit Trinkwasser versorgt? Wie speisen sich diese Quellen und wie lange dauert es, bis versickertes Wasser wieder an die Oberfläche gelangt? Dieser hydrologische Kreislauf ist ein komplexes Zusammenspiel verschiedener Faktoren. Versteht man das System besser, lässt sich etwa nachvollziehen, warum die Verschmutzung an manchen Stellen grösser ist als an anderen, und es hilft dabei, ein nachhaltiges Wassermanagement zu implementieren.
Wichtige Hinweise zum Verständnis liefert die Umwelt-DNA beziehungsweise environmental DNA (eDNA). Kombiniert mit der Auswertung anderer natürlicher Stoffe (Tracer) wie etwa Edelgasen, gewähren diese mikrobiellen Daten Einsichten in das Fliessverhalten und den Kreislauf von komplexen Grundwassersystemen. «Das ist eine riesige Toolbox, die neu ist für unseren Forschungsbereich», sagt Oliver Schilling, Professor für Hydrogeologie an der Universität Basel und der Eawag, dem Wasserforschungs-Institut des ETH-Bereichs. Die quantitative Hydrogeologie bildet ab, wo und wie schnell sich neues Grundwasser bildet.
Ab 2018 führte Schilling am Mount Fuji in Japan verschiedene Messungen durch, um nachzuvollziehen, woher das Quellwasser kommt respektive wo es durchfliesst, bevor es in Hunderten natürlichen Quellen wieder an die Oberfläche tritt. Seine Erkenntnisse publizierte er nun im Fachmagazin „Nature Water“, dessen Erstausgabe soeben erschienen ist.
Wasserherkunft aus eDNA lesen
Die Wahl des Berges war kein Zufall: «Die geologische Lage des Mount Fuji ist auf der Erde einmalig, da nur genau dort drei kontinentale tektonische Platten aufeinandertreffen. Das Grundwassersystem ist dadurch hoch komplex und nicht so gut mit Standardmethoden zu untersuchen», erklärt Oliver Schilling.
Auf die Idee, in dem Gebiet mikrobielle eDNA zu untersuchen, kam er dank des Hinweises eines japanischen Kollegen. «Er erzählte mir von Wasserquellen am Mount Fuji, die auffällige Signaturen aufweisen: Die im Wasser enthaltene eDNA zeige das Vorkommen von Organismen, die nur in einer Tiefe von 500 bis 1000 Metern vorkommen», erinnert er sich. Ein Hinweis darauf, dass ein Teil des Quellwassers aus tiefem Grundwasser stammt. «Es war das erste Indiz dafür, dass mikrobielle eDNA einen Hinweis auf die Fliesspfade des Grundwassers liefern könnte, wenn man sie mit anderen, unabhängigen Tracern wie etwa Edelgasen kombiniert», so Schilling weiter.
Seine Neugierde war geweckt. Damals als PostDoc an der Université Laval in Québec tätig, reiste er während seiner Ferien nach Japan und führte zusammen mit seinem japanischen Kollegen verschiedene Messungen durch. Zudem vertiefte er sich in bereits vorhandene, primär japanische Fachliteratur. Neben der eDNA analysierte der Hydrogeologe zwei weitere Grundwassertracer, die aufgrund der besonderen geologischen Lage des Mount Fuji vermehrt vorkommen: das Edelgas Helium sowie das Spurenelement Vanadium. «Alle drei natürlichen Tracer erzählen die gleiche Geschichte: Es gibt am Mount Fuji eine systematische Tiefenzirkulation des Wassers. Solche Analysen sind der Schlüssel, um das System zu verstehen», fasst Oliver Schilling zusammen.
Auch Erkenntnisse für die Schweiz möglich
Diese neue Tracer-Anwendung kann weltweit zur Untersuchung von Grundwassersystemen eingesetzt werden. In der Schweiz zum Beispiel, um herauszufinden, woher das Wasser stammt, das für die Aufbereitung zu Trinkwasser aus dem Untergrund gepumpt wird. «So deutet ein grosser Anteil an eDNA von kälteliebenden Mikroben im Grundwasser darauf hin, dass Schmelzwasser aus Schnee und Gletschern einen wesentlichen Anteil am Grundwasser hat», erklärt Oliver Schilling.
Mit Blick in die Zukunft heisst das: «Wenn wir die Bedeutung dieser natürlichen Wasserreserven für eine Region kennen, können wir frühzeitig Alternativen suchen, damit betroffene Gebiete von saisonaler Wasserknappheit möglichst verschont bleiben», so der Hydrogeologe weiter. Mit der Gletscherschmelze und Schneemangel im Zuge des Klimawandels gehen für viele Gebiete in der Schweiz zunehmend wichtige Wasserspeicher verloren, die Bäche und das Grundwasser speisen. Dies wird sich insbesondere in den immer häufigeren heissen, trockenen Sommermonaten negativ auf die Wasserverfügbarkeit auswirken.
Eine Möglichkeit, akutem Wassermangel im Sommer vorzubeugen, wäre, im Winterhalbjahr mehr Regenwasser in Reservoiren zu fassen, beispielsweise durch künstliche Anreicherung von Grundwasser oder mit einer angepassten Bewirtschaftung von Stauseen. «Die Analyse mikrobiologischer eDNA bietet sich hierbei als ein neues Werkzeug an, um hydrologische Modelle, die für das Grundwassermanagement genutzt werden, besser zu eichen», so Schilling. Das wiederum sei wichtig für realistische Prognosen zu Wasserverfügbarkeit und –qualität und ermöglicht eine nachhaltige und langfristige Planung zur Bewirtschaftung des Grundwassers – unserer kostbarsten und ergiebigsten Trinkwasserressource.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Oliver Schilling, Universität Basel, Departement Umweltwissenschaften, E-Mail: oliver.schilling@unibas.ch, Tel. +41 61 207 35 92
Originalpublikation:
Oliver Schilling et al.
Revisiting Mt. Fuji’s groundwater origins with helium, vanadium and eDNA tracers
Nature Water (2023); doi: 10.1038/s44221-022-00001
Info-Abend: Berufsbegleitend zum Bachelor weiterqualifizieren
Ulrike Cron Presse- und Öffentlichkeitsarbeit
Zentrum für Fernstudien im Hochschulverbund – zfh
TH Aschaffenburg stellt Bachelorstudiengänge Wirtschaftsingenieurwesen und Elektro- und Informationstechnik vor
Am Freitag, den 27. Januar 2023 findet an der Technischen Hochschule Aschaffenburg ein Informationsabend speziell für die berufsbegleitenden Bachelorstudiengänge Elektro- und Informationstechnik und Wirtschaftsingenieurwesen statt. Auch über das Modulstudium, das aus individuell gewählten Modulen beider Studienangeboten zusammengestellt werden kann und mit einem Zertifikat der Hochschule abschließt, können sich Interessierte informieren. Das Team an der TH Aschaffenburg stellt die Studienangebote und das flexible Blended-Learning-Konzept vor. Anschließend steht der Studiengangsleiter Prof. Dr.-Ing. Michael Mann für eine ausführliche Beratung zur Verfügung. Wer teilnehmen möchte, wird gebeten, sich per Mail unter: berufsbegleitend-studieren@th-ab.de anzumelden. Alle Interessierten sind herzlich willkommen an der TH Aschaffenburg, Würzburger Straße 45, 63743 Aschaffenburg, Gebäude 40, Raum 150.
Gerade im technischen Bereich sind qualifizierte Fachkräfte gesucht – hier haben gut ausgebildete Bewerberinnen und Bewerber beste Karrierechancen. Die Studienangebote der TH Aschaffenburg richten sich an Techniker/innen, Meister/innen und qualifizierte Facharbeiter/innen, die sich für die nächste Karrierestufe weiterbilden möchten.
Das zfh – Zentrum für Fernstudien im Hochschulverbund kooperiert bei der Durchführung der beiden berufsbegleitenden Bachelor-Fernstudiengänge mit der Technischen Hochschule Aschaffenburg und der Hochschule Darmstadt.
Elektro- und Informationstechnik (B. Eng.) – berufsbegleitend
Dieses Studienangebot richtet sich vorwiegend an technisches Personal mit abgeschlossener Berufsausbildung auf den Gebieten der Elektro- und Informationstechnik. Ebenfalls angesprochen werden Personen mit Fach- oder allgemeiner Hochschulreife, die über eine einjährige einschlägige Berufstätigkeit verfügen, und Studienabbrecher. Mit dem Studium qualifizieren sie sich für steigende berufliche Anforderungen und erhöhen ihre Aufstiegschancen. Der Studienabschluss Bachelor of Engineering ist die Grundlage für Ingenieurtätigkeiten von der Automobilindustrie bis zur Energieversorgung.
Wirtschaftsingenieurwesen (B. Eng.) – berufsbegleitend
Das Studium Wirtschaftsingenieurwesen mit dem Abschluss Bachelor of Engineering vermittelt sowohl Grundlagen in Ingenieur- als auch in Wirtschaftswissenschaften. Damit bildet das Studium Generalisten für technologie-orientierte Unternehmen aus. Es bereitet auf Managementaufgaben an der Schnittstelle zwischen Technik und Wirtschaft vor. Die Studierenden erlernen Arbeitsweisen als Ingenieur/in und als Betriebswirt/in. Schlüsselkompetenzen wie Projektmanagement, Personalführung oder interkulturelles Verständnis zählen ebenfalls zu den Studieninhalten.
Modulstudium
Wer kein komplettes Studium absolvieren oder sich in einzelnen Bereichen weiterqualifizieren bzw. sein Wissen auf einen aktuellen Stand bringen möchte, kann ausgewählte Module belegen und diese mit einem Zertifikat abschließen. Auch diese Variante lässt sich mit dem Berufsleben kombinieren. Anhand von Lehrbriefen und E-Learning-Einheiten bereiten sich die Studierenden zeit- und ortsunabhängig auf zwei Präsenztage pro Modul vor. An der Hochschule vor Ort vertiefen sie mit den Lehrenden ihr selbsterworbenes Wissen.
Die TH Aschaffenburg kooperiert bei diesen Studienangeboten mit der Hochschule Darmstadt. Das zfh – Zentrum für Fernstudien im Hochschulverbund in Koblenz unterstützt die Hochschulen bei der Durchführung der Fernstudienangebote.
Weitere Informationen unter:
https://www.th-ab.de/berufsbegleitend
http://www.zfh.de/bachelor/wirtschaftsingenieur/
http://www.zfh.de/bachelor/elektrotechnik/
Über das zfh
Das zfh – Zentrum für Fernstudien im Hochschulverbund bildet gemeinsam mit 21 staatlichen Hochschulen den zfh-Hochschulverbund. Das zfh ist eine wissenschaftliche Institution des Landes Rheinland-Pfalz mit Sitz in Koblenz und basiert auf einem 1998 ratifizierten Staatsvertrag der Bundesländer Rheinland-Pfalz, Hessen und Saarland. Gemäß Staatsvertrag fördert und unterstützt das zfh die Hochschulen bei der Entwicklung und Durchführung ihrer Fernstudienangebote. Neben den 15 Hochschulen dieser drei Bundesländer haben sich weitere Hochschulen aus Bayern, Berlin, Brandenburg, Nordrhein-Westfalen und Schleswig-Holstein dem Verbund angeschlossen. Das erfahrene Team des zfh übernimmt für die Hochschulen die Öffentlichkeitsarbeit und das Marketing der Fernstudiengänge sowie die Studierendenverwaltung und unterstützt bei der Studienorganisation. Mit einem Repertoire von über 100 berufsbegleitenden Fernstudienangeboten in wirtschaftswissenschaftlichen, technischen/naturwissenschaftlichen und sozialwissenschaftlichen Fachrichtungen ist der zfh-Verbund bundesweit größter Anbieter von Fernstudiengängen an Hochschulen mit akkreditiertem Abschluss. Alle zfh-Fernstudiengänge mit dem akademischen Ziel des Bachelor- oder Masterabschlusses sind von den Akkreditierungsagenturen ACQUIN, AHPGS, ASIIN, AQAS, FIBAA bzw. ZEvA zertifiziert und somit international anerkannt. Neben den Bachelor- und Masterstudiengängen besteht auch ein umfangreiches Angebot an Weiterbildungsmodulen mit Hochschulzertifikat. Derzeit sind 6.640 Fernstudierende an den Hochschulen des zfh-Verbunds eingeschrieben.
Redaktionskontakt:
zfh – Zentrum für Fernstudien im Hochschulverbund
Ulrike Cron
Presse- und Öffentlichkeitsarbeit
Konrad-Zuse-Straße 1
56075 Koblenz
Tel.: +49 261/91538-24, Fax: +49 261/91538-724
E-Mail: u.cron@zfh.de
Internet: http://www.zfh.de
Drohnen sammeln Umweltdaten
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Bäume kartieren, Hitzeinseln finden: Für die kleinräumige Beobachtung der Umwelt bieten Forschungsdrohnen viele neue Optionen.
Die Erdbeobachtung, auch Fernerkundung genannt, liefert über Satellitendaten weltweit täglich hoch relevante Informationen über den Zustand und den Wandel unseres Planeten. Mit Hilfe der Daten können beispielsweise Informationen über Hitzeinseln in Städten, Dürren oder den Zustand von Wäldern gesammelt werden.
Aktuell erschließt sich die Erdbeobachtung zusätzliche Datenquellen: Mit Sensoren, die auf handelsüblichen Drohnen installiert sind, erhält sie weitere detaillierte Umweltinformationen – und zwar in einer so hohen räumlichen Auflösung, wie sie sich mit Satellitendaten nicht erreichen lässt.
„Die sehr hohen Auflösungen im Zentimeterbereich eröffnen neue Anwendungsgebiete und Forschungsfragen“, sagt die Wissenschaftlerin Dr. Mirjana Bevanda vom Earth Observation Research Hub der Julius-Maximilians-Universität Würzburg (JMU), einem Zusammenschluss der beiden JMU-Lehrstühle für Fernerkundung sowie für Globale Urbanisierung und Fernerkundung. „Wir gewinnen damit hoch relevante Informationen für die urbane Forschung, für Ökologie und Naturschutz.“
Hitzeinseln und Stadtbäume kartieren
Für eine Machbarkeitsstudie hat Mirjana Bevanda mit Antonio Castañeda und weiteren Kolleginnen und Kollegen im Jahr 2022 die Neue Universität am Sanderring und Teile des Würzburger Ringparks mit Drohnen aufgenommen. Zum Einsatz kamen dabei Lidar, eine Form des dreidimensionalen Laserscannings, sowie Wärme- und Multispektralsensoren. Letztere erfassen fünf bis zehn Lichtwellenlängen und damit deutlich mehr als eine einfache Fotokamera.
Ziel der Studie ist es zu erkunden, welchen Mehrwert die gewonnen Daten für Forschungen im städtischen Raum bieten, etwa zur Erfassung und Analyse der urbanen Struktur oder zur Kartierung von Stadtbäumen oder Hitzeinseln.
„Wir können damit einen Beitrag leisten, um beispielsweise den Hitzeinseleffekt mit gezielten Gegenmaßnahmen zu verringern“, erklärt Professor Hannes Taubenböck. Dieser Effekt tritt auf, wenn sich Städte mit ihren vielen Steinen und Asphaltflächen im Sommer stärker aufheizen als das Umland. Das belastet nicht nur die Menschen in der Stadt, sondern auch Tiere und Pflanzen.
Drohnen eröffnen auch bei der Kartierung von Stadtbäumen neue Optionen. „Wir könnten jeden Baum einzeln beschreiben, auch in seiner vertikalen Struktur, und Rückschlüsse auf seine Vitalität ziehen“, sagt Professor Tobias Ullmann.
Auf vielen Studiengebieten aktiv
Das Team vom Earth Observation Research Hub der JMU ist mit Drohnen auch in Kanada und anderen Studiengebieten aktiv und dokumentiert deren Veränderungen über die Zeit. Mit Partnern, etwa aus der Biologie, nimmt es auch ökologische Aspekte in den Blick. So werden unter anderem Umweltdaten aus dem JMU-Universitätsforst im Steigerwald, von Kalkmagerrasen in Unterfranken oder von hochalpinen Strukturen der Zugspitze bearbeitet.
„Die Datenaufnahme mit Drohnen ist zwar sehr aufwendig, unter anderem wegen der nötigen Genehmigungsverfahren. Aber die gewonnenen Daten und besonders deren Detailgrad ist für viele Forschungsfragen sehr relevant“, sagt Tobias Ullmann.
Im Mittelpunkt der Würzburger Studien stehen methodische Ansätze, um die Datenaufnahme und deren Verarbeitung effizienter zu machen. Außerdem sollen die für die einzelnen Forschungsfragen relevanten Umweltinformationen identifiziert werden. „Aus dieser Arbeit wollen wir langfristig neue Erkenntnisse für die Erdbeobachtung gewinnen, die sich wiederum auf weltraumgestützte Systeme übertragen lassen“, so Mirjana Bevanda.
Kontakte bestehen auch zur JMU-Informatik. „Wir machen Feldarbeit und werten die gewonnenen Daten für die Umweltforschung aus. Aber die Entwicklung neuer Sensoren und Systeme ist nicht unsere Expertise. Hier sehen wir großes Potential in der Zusammenarbeit mit verschiedenen Arbeitsgruppen der Informatik”, sagt Hannes Taubenböck.
Einsatz im Masterstudiengang EAGLE
Die Studien zur Erdbeobachtung mit Forschungsdrohnen – die Fachleute sprechen von Unoccupied Aerial Systems (UAS) – fließen in die Lehre im internationalen Würzburger Masterstudiengang EAGLE ein (Applied Earth Observation and Geoanalysis of the Living Environment). Schließlich soll die zukünftige Generation von Forschenden auch auf diesem Feld ausgebildet werden.
Dafür engagiert sich unter anderem Antonio Castañeda, EAGLE-Alumnus aus Kolumbien. Er ist aktuell Doktorand am Earth Observation Research Hub, sein Schwerpunkt liegt auf der UAS-basierten Fernerkundungsforschung.
„Die Integration von UAS in die Lehre ermöglicht den Studierenden ganz neue Erfahrungen in Missionsplanung, Sensorgeometrie, Datenhaltung und Auswertung“, so Tobias Ullmann. Sie werden so mit neuen Herausforderungen konfrontiert, die es in der weltraumgestützten Erdbeobachtung meist nicht gibt.
Wissenschaftliche Ansprechpartner:
Dr. Mirjana Bevanda, Prof. Dr. Tobias Ullmann, Prof. Dr. Hannes Taubenböck, Earth Observation Research Hub, Universität Würzburg, mirjana.bevanda@uni-wuerzburg.de
Weitere Informationen:
https://www.geographie.uni-wuerzburg.de/fernerkundung/startseite/ Earth Observation Research Hub Würzburg
http://www.eagle-science.org Masterstudiengang EAGLE (Applied Earth Observation and Geoanalysis of the Living Environment)
Künstliche Intelligenz für das Stromnetz der Zukunft
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Das Stromnetz wird zunehmend dezentralisiert und digitalisiert, was neue Herausforderungen für die Netzbetreiber mit sich bringt. Lösungen für diese Herausforderungen könnten im Einsatz von Künstlicher Intelligenz (KI) liegen. Das Projekt „Data4Grid“ der Deutschen Energie-Agentur erforscht die Möglichkeiten des Einsatzes von KI und Datenanalyse in Stromverteilnetzen. Der Expertenbericht ist jetzt online verfügbar und untersucht unter anderem den Umgang mit sensiblen Daten und den rechtlichen Rahmen für KI in der Energiewirtschaft. Das Fraunhofer-Institut für Energiewirtschaft und Energiesystem IEE erstellte ein wissenschaftliches Gutachten zum Thema Datenanalyse und KI im Stromverteilnetz.
Das von der Deutschen Energie-Agentur (dena) durchgeführte Projekt „Data4Grid“ hatte zum Ziel, das Potenzial der Nutzung von Datenanalyse und künstlicher Intelligenz im Stromverteilnetz zu untersuchen. Kern des Projekts war es, neue Chancen und Herausforderungen zu identifizieren, die sich aus der Integration dieser Technologien in das Stromnetz ergeben, und deren mögliche Auswirkungen auf die kritische Infrastruktur zu bewerten. Die Projektergebnisse sind nun als Abschlussbericht online verfügbar.
Eine der wichtigsten Erkenntnisse des Berichts ist, dass KI das Potenzial besitzt, das Stromnetz zu revolutionieren, indem sie einen effizienteren und zuverlässigeren Betrieb ermöglicht. So kann KI beispielsweise eingesetzt werden, um das Management dezentraler Energieressourcen wie Solar- und Windparks zu optimieren und die Widerstandsfähigkeit des Stromnetzes gegen Störungen und Ausfälle zu verbessern. Außerdem kann KI zur Steigerung der Effizienz des Stromnetzes eingesetzt werden, indem sie Ausfälle von Anlagen vorhersagt und verhindert und den Einsatz von Energiespeichersystemen optimiert. Der Einsatz von KI im Stromnetz birgt jedoch auch potenzielle Risiken, die im Bericht adressiert werden. Diese Risiken gilt es sorgfältig abzuwägen und geeignete Maßnahmen zu ergreifen, um sie zu mindern.
Im Rahmen des Projekts hat das Fraunhofer IEE ein wissenschaftliches Gutachten zum Thema „Datenanalyse und KI im Stromverteilernetz“ mit dem Fokus auf den Einsatz innerhalb kritischer Infrastruktur beigetragen. Eine zunehmend dezentrale, volatile Erzeugungsstruktur und flexible Lasten stellen Netzbetreiber vor neue Herausforderungen. Das Gutachten liefert eine umfassende Analyse der potenziellen Vorteile und Risiken, die mit dem Einsatz von KI im Stromnetz verbunden sind. Es untersucht die Rolle von Daten im Energiesystem und die verschiedenen rechtlichen Rahmenbedingungen, die den Einsatz von KI in der Branche regeln.
Neben dem Gutachten enthält der Abschlussbericht einen vom Fraunhofer IEE entwickelten Implementierungsleitfaden für innovative KI-Anwendungen im Stromnetz. Darin werden die wichtigsten Schritte und Überlegungen behandelt, die in den verschiedenen Phasen einer Einführung von Datenanalysen im Unternehmen von Bedeutung sind sowie reale Anwendungsfälle zur Veranschaulichung des Prozesses.
„Insgesamt bieten das Data4Grid-Projekt und der dazugehörige Abschlussbericht wertvolle Einblicke in das Potenzial von KI im Stromnetz sowie in die mit ihrem Einsatz verbundenen Vorteile und Risiken. Die Ergebnisse unterstreichen die Notwendigkeit eines umfassenden Ansatzes für die Integration von KI in das Stromnetz, einschließlich eines gründlichen Verständnisses der rechtlichen Rahmenbedingungen und der Bedeutung von Datenmanagement und -sicherheit.“, stellt Dr. Sebastian Wende-von Berg vom Fraunhofer IEE abschließend fest.
Wissenschaftliche Ansprechpartner:
Dr. Sebastian Wende-von Berg
Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2023/kuenstliche-…
Kollisionsrisiko und Lebensraumverlust: Windräder in Wäldern beeinträchtigen bedrohte Fledermausarten
Dipl. Soz. Steven Seet Wissenschaftskommunikation
Leibniz-Institut für Zoo- und Wildtierforschung (IZW) im Forschungsverbund Berlin e.V.
Um Klimaschutzziele zu erreichen, boomt in Deutschland der Ausbau erneuerbarer Energien – insbesondere der Windkraft. Mehr als 30.000 Anlagen wurden bislang auf dem Festland installiert, jetzt beginnt ein Ringen um weitere, rarer werdende, geeignete Standorte. So rücken auch Wälder als Standorte in den Fokus. Ein Forschungsteam des Leibniz-Instituts für Zoo- und Wildtierforschung (Leibniz-IZW) wies jetzt in einem Aufsatz in der Fachzeitschrift „Current Biology“ nach, dass die Windenergieerzeugung an diesen Standorten mit Kollisionsrisiken und Lebensraumverlusten und somit mit erheblichen Nachteilen verbunden für bedrohte Fledermausarten sein könnte.
Große Abendsegler (Nyctalus noctula) haben ein hohes Kollisionsrisiko und sind vermehrt an Windkraftanlagen in Wäldern anzutreffen, wenn diese in der Nähe von ihren Quartieren stehen. Fern der Quartiere meiden Große Abendsegler jedoch die Anlagen, was praktisch zu einem Lebensraumverlust für diese Art führt.
Große Abendsegler leiden den Ergebnissen der Untersuchung nach doppelt unter dem Windenergieausbau im Wald: Sie sind der wachsenden Gefahr ausgesetzt, mit den Anlagen zu kollidieren und dadurch getötet zu werden, wenn diese in der Nähe von Fledermausquartieren gebaut werden, und sie verlieren einen Teil ihres Jagdlebensraumes, da sie die Anlagen fern ihrer Quartiere meiden. In ihrem Aufsatz folgert das Team aus den Resultaten, dass der Windkraftausbau in Wäldern mit großer Sorgfalt und Umsicht erfolgen muss. Zu Quartierstandorten von Fledermäusen sollte ein Mindestabstand von 500 m eingehalten und der verursachte Lebensraumverlust kompensiert werden, indem an anderer Stelle Wälder aus der Nutzung genommen werden.
Die Windenergieproduktion ist ein wichtiges Standbein für die Energiewende in Deutschland und leistet einen erheblichen Beitrag zur Senkung der Treibhausgasemissionen. Mehr als acht Prozent der Windkraftanlagen in Deutschland befinden sich bereits in Wäldern. Ihr Anteil soll in den nächsten Jahren deutlich zunehmen, weil geeignete Standorte in der offenen Fläche rar werden. „In Wäldern kommt eine Vielzahl von Fledermausarten vor, da es hier viele Baumquartiere und zudem viele geeignete Jagdlebensräume mit hohen Insektenvorkommen gibt“, sagt Christian Voigt, Leiter der Abteilung für Evolutionäre Ökologie am Leibniz-IZW. „Darunter sind auch Arten wie der Große Abendsegler, der in Deutschland am häufigsten an Windkraftanlagen zu Tode kommt. Laut dem Bundesamt für Naturschutz nehmen die Bestände dieser Art deutschlandweit ab. Es ist deshalb dringend geboten, die Interaktion der Fledermäuse mit den Windkraftanlagen im Wald genauer unter die Lupe zu nehmen.“
Voigt und seine Kolleg:innen untersuchten das Raumnutzungsverhalten von Großen Abendseglern mit Hilfe miniaturisierter GPS-Logger. Diese Logger dokumentierten die Flugpfade von 60 Großen Abendseglern mit hoher zeitlicher und räumlicher Auflösung über 1-2 Nächte, bevor die Logger selbständig wieder vom Tier abfielen. „Wir stellten fest, dass Große Abendsegler besonders dann mit hoher Wahrscheinlichkeit Windkraftanlagen anflogen, wenn diese in der Nähe von Fledermausquartieren standen“, sagt Voigt. Fledermäuse nutzen exponierte Strukturen oftmals als sozialen Treffpunkt. Vermutlich fliegen sie deshalb vermehrt Windkraftanlagen über den Baumkronen an, wenn die Anlagen in der Nähe von Quartieren stehen. Dies birgt ein hohes Risiko für die Tiere, mit den Rotorblättern zu kollidieren. „Windkraftanlagen müssten demnach in ausreichender Entfernung zu bestehenden Baumquartieren aufgestellt werden“, fordert Christine Reusch, Erstautorin des Aufsatzes. „Da Quartiere jedoch auch neu entstehen können, besteht die Gefahr, dass vermeintlich sichere Windkraftanlagen, die während der Genehmigungsphase in ausreichend großem Abstand zu Fledermausquartieren aufgestellt wurden, später zur Todesfalle werden“, schließt Reusch.
Die Autor:innen stellten auch fest, dass die Großen Abendsegler jenseits von Baumquartieren die Windkraftanlagen mieden. Hierzu führten sie eine Datenanalyse durch, in der alle Ortungen in der Nähe von Quartieren unberücksichtigt blieben. Diese Analyse ergab, dass Fledermäuse jenseits von Quartieren Windkraftanlagen meiden. „Was sich nach einer guten Nachricht anhört, birgt auch ein Problem“, sagt Voigt. „Durch das Meidungsverhalten verlieren Große Abendsegler wichtige Jagdlebensräume.“ Die Forschenden empfehlen daher, Windkraftanlagen erstens nicht in Wäldern aufzustellen und zweitens besonders achtsam zu sein, falls es keine Alternativen gibt. Es sollte ein Mindestabstand von 500 m zwischen Windkraftanlagen und bekannten Fledermausquartieren in den Genehmigungsverfahren berücksichtigt werden und der Lebensraumverlust in der Nähe der Windkraftanlagen an anderer Stelle kompensiert werden. Ein naturverträglicher Ausbau ist angesichts der komplexen Interaktion der Fledermäuse an Windkraftanlagen in Wäldern eine große Herausforderung, so Voigt und Reusch.
Wissenschaftliche Ansprechpartner:
PD Dr. Christian Voigt
Leiter der Abteilung für Evolutionäre Ökologie
Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
Telefon: +49(0)30 5168 511
E-Mail: voigt@izw-berlin.de
Originalpublikation:
Reusch C, Paul AA, Fritze M, Kramer-Schadt S, Voigt CC (2022): Wind energy production in forests conflicts with tree-roosting bats. Current Biology. DOI: 10.1016/j.cub.2022.12.050
Luftgüte: Lehrmeinung muss revidiert werden
Dr. Christian Flatz Büro für Öffentlichkeitsarbeit
Universität Innsbruck
Langzeitmessungen im Stadtgebiet von Innsbruck zeigen, dass der Anteil von bodennahem Ozon in Atmosphärenmodellen tendenziell überschätzt wird. Als Konsequenz muss eine für die Luftgüteprognose grundlegende Lehrmeinung für den urbanen Raum neu interpretiert werden. Die Messungen eines internationalen Teams um den Atmosphärenforscher Thomas Karl von der Universität Innsbruck belegen außerdem, dass direkte Stickstoffdioxid-Emissionen überbewertet werden.
Der 40 Meter hohe Messturm des Innsbruck Atmospheric Observatory an der Universitätskreuzung im Stadtgebiet von Innsbruck liefert laufend Daten über die Zusammensetzung der bodennahen Atmosphäre. Pro Stunde werden 36.000 Datenpunkte erfasst. Mit einem speziellen Messverfahren – der sogenannten Eddy-Kovarianz-Methode – lässt sich die Konzentration von Luftbestandteilen laufend überwachen. Ein internationales Team um Thomas Karl vom Institut für Atmosphären- und Kryosphärenwissenschaften der Universität Innsbruck hat diese Daten nun dazu genutzt, die Chemie von Ozon, Stickstoffmonoxid und Stickstoffdioxid im urbanen Raum detailliert zu studieren. Der hohe Anteil von Dieselfahrzeugen in europäischen Städten führt zu starken Stickstoffmonoxid-Konzentrationen. Dieses reagiert mit Ozon, wodurch Stickstoffdioxid entsteht. In der Atmosphäre zerfällt Stickstoffdioxid wieder zu Stickstoffmonoxid und atomarem Sauerstoff, der sich sofort mit Luft-Sauerstoff zu Ozon verbindet.
Lehrmeinung muss präzisiert werden
Dieser chemische Zyklus wurde vor über 60 Jahren im ersten Lehrbuch zur Luftverschmutzung von Philip Leighton mathematisch beschrieben. Das Verhältnis der beiden Prozesse wird seither als Leighton-Beziehung bezeichnet. Computermodelle der Atmosphärenchemie nutzen die Leighton-Beziehung, um die Komplexität zu minimieren, indem sie die Konzentration von Ozon, Stickstoffmonoxid und Stickstoffdioxid aus der Konzentration der jeweils beiden anderen ableiten. In der Praxis dient dies zum Beispiel dazu, die Ozonkonzentration in Gebieten abzuleiten, die durch Stickoxide verschmutzt sind. Die Daten der Innsbrucker Atmosphärenforscher zeigen nun, dass bei Vorhandensein von hohen Stickstoffmonoxid-Emissionen, rechnerische Vereinfachungen, die Leighton vorgenommen hat, zu falschen Ergebnissen führen. „In Städten mit hohen Stickstoffmonoxid-Emissionen wird dieses Verhältnis um bis zu 50 Prozent überschätzt“, warnt Thomas Karl. „Dies führt dazu, dass Modellrechnungen die Konzentration von bodennahem Ozon im urbanen Raum überschätzen. Dies spiegelt sich auch in den Luftgütevorhersagen wider.“ Nicht vernachlässigt werden darf dieser Effekt in der Modellierung der untersten Schicht der Atmosphäre, bis zu 200 Meter über dem Boden.
Verantwortlich für den von den Innsbrucker Wissenschaftlern untersuchten Effekt sind neben dem Vorhandensein hoher Stickstoffmonoxid-Emissionen, die im urbanen Raum stärkeren Turbulenzen. Die Durchmischung der Gase kombiniert mit den relativ rasch ablaufenden chemischen Prozessen führen dazu, dass mehr Ozon in Stickstoffdioxid umgewandelt wird. Die Daten der Forscher zeigen auch, dass der direkte Ausstoß von Stickstoffdioxid durch den städtischen Verkehr demgegenüber weitgehend vernachlässigbar ist. „Wichtig bleibt festzustellen, dass umweltpolitische Vorschriften nicht auf Modellrechnungen rekurrieren, sondern abhängig von tatsächlich gemessenen Schadstoffkonzentrationen in Kraft treten“, betont Thomas Karl.
Die Ergebnisse wurden nun in der Fachzeitschrift Science Advances veröffentlicht. Die Forschungen wurden gemeinsam mit dem National Center for Atmospheric Research (USA), der Case Western Reserve University (USA), der Wageningen University (NL) und Luftblick (AT) durchgeführt und unter anderem vom Österreichischen Wissenschaftsfonds FWF und der Europäischen Weltraumorganisation ESA finanziell unterstützt.
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dipl.-Ing. Dr. Thomas Karl
Institut für Atmosphären- und Kryosphärenwissenschaften
Universität Innsbruck
Tel.: +43 512 507 54455
E-Mail: thomas.karl@uibk.ac.at
Web: http://acinn.uibk.ac.at/
Originalpublikation:
High Urban NOx Triggers a Substantial Chemical Downward Flux of Ozone. Thomas Karl, Christian Lamprecht, Martin Graus, Alexander Cede, Martin Tiefengraber, Jordi Vila-Guerau de Arellano, David Gurarie, Donald Lenschow. Science Advances 2023 DOI: 10.1126/sciadv.add2365
Weitere Informationen:
https://www.atm-phys-chem.at/facilities/iao/ – Innsbruck Atmospheric Observatory
https://www.atm-phys-chem.at/ – Atmospheric Physics and Chemistry Group, Universität Innsbruck
„Schweizer Taschenmesser“ für Influenzaviren
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Wie Viren ihre wenigen Proteine für unterschiedlichste Funktionen nutzen – Team des Forschungscampus Mittelhessen identifiziert Mechanismus für die Steuerung des viralen M1-Proteins
In jedem Jahr erkranken weltweit Millionen von Menschen an der Influenza, der sogenannten „echten“ Grippe. Obwohl Influenza-Viren nur über ein gutes Dutzend an Virusproteinen verfügen, erfüllen sie damit sehr erfolgreich unterschiedlichste Aufgaben – vom Eindringen in die Zellen des Atemtrakts über die Vervielfältigung des RNA-Erbguts bis hin zur Bildung neuer Viren. Ein Forschungsteam der Justus-Liebig-Universität Gießen (JLU) und der Philipps-Universität Marburg hat jetzt untersucht, wie insbesondere das virale M1-Protein für zahlreiche verschiedene Prozesse zuständig sein kann – ähnlich wie ein „Schweizer Taschenmesser“. Die Forschungsergebnisse, die Ansatzpunkte für neue Influenza-Therapien bieten könnten, sind jetzt in der Zeitschrift „mBio“ veröffentlicht worden.
Das M1-Protein ist nicht nur für die Stabilität des Viruspartikels verantwortlich, sondern reguliert unter anderem auch das Ablesen des Virusgenoms und fördert den Zusammenbau der einzelnen Virusbestandteile sowie das Herausschleusen aus der Wirtszelle (die so genannte Knospung). Bei diesen Prozessen liegt das virale M1-Protein in unterschiedlichen Formen vor, entweder als größerer Molekülkomplex (Multimer), um bei der Knospung zu helfen, oder aber auch als kleineres Einzelmolekül (Monomer).
Den Forschenden konnten nun erklären, wie sich der Zustand des M1-Protein ändern kann und damit die Virusinfektion in so unterschiedlichen Funktionen unterstützt. Wie die Gießener Arbeitsgruppen von Prof. Dr. Lienhard Schmitz (biochemisches Institut) und Prof. Dr. Stephan Pleschka (Institut für Medizinische Virologie) in Zusammenarbeit mit der Arbeitsgruppe von Prof. Dr. Michael Kracht (Rudolf-Buchheim-Institut für Pharmakologie) sowie Dr. Uwe Linne (Abteilung für Massenspektrometrie und Elementanalytik der UMR) zeigten konnten, begrenzt das Anfügen einer Phosphatgruppe (Phosphorylierung) an das M1-Protein seine Fähigkeit zur Ausbildung von Multimeren. Für die Virusvermehrung ist das essentiell.
Über die Phosphorylierung wird ebenfalls die Bindung des M1-Proteins an ein Netzwerk von zellulären signalübertragenden Proteinen begrenzt, für das die beteiligten Forschenden eine Rolle bei der Vermehrung der Influenzaviren nachweisen konnten. „Wir gehen davon aus, dass damit neue therapeutische Optionen für die Behandlung von Influenza-Infektionen verbunden sein könnten“, erklärt Prof. Schmitz. „Dafür wird es künftig notwendig sein, Regulatoren dieser M1-Phosphorylierung zu identifizieren.“
Campus-Schwerpunkt „Mikroorganismen und Viren“
Das Erkennen übergreifender Strategien von Mikroben und Viren sowie deren Interaktion untereinander und mit dem Wirt ist das zentrale Ziel der gemeinsamen Forschungsaktivitäten der Forschenden im Campus-Schwerpunkt „Mikroorganismen und Viren“ des Forschungscampus Mittehlhessen (FCMH). https://www.fcmh.de/mv
Wissenschaftliche Ansprechpartner:
Prof. Dr. Lienhard Schmitz
Biochemisches Institut der Justus-Liebig-Universität Gießen (JLU)
Friedrichstrasse 24, 35392 Gießen
Telefon: 0641 99-47570
E-Mail: Lienhard.Schmitz@biochemie.med.uni-giessen.de
Prof. Dr. Stephan Pleschka
Institut für Medizinische Virologie der Justus-Liebig-Universität Gießen (JLU)
Schubertstraße 81, 35392 Gießen
Telefon: 0641 99-47750
E-Mail: Stephan.Pleschka@viro.med.uni-giessen.de
Originalpublikation:
Liu, L., Weber, A., Linne, U., Shehata, M., Pleschka, S., Kracht, M., & Schmitz, M. L. (2023). Phosphorylation of Influenza A Virus Matrix Protein 1 at Threonine 108 Controls Its Multimerization State and Functional Association with the STRIPAK Complex. mBio, 2023 Jan 5. Advance online publication.
https://doi.org/10.1128/mbio.03231-22
Winterblues: Tageslicht ist bestes Gegenmittel
Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Viele kennen das Gefühl: In der kalten, dunklen Jahreszeit fühlt man sich antriebslos, die Stimmung ist gedrückt. Vom „Winterblues“ ist dann häufig die Rede. Doch was passiert dabei mit Körper und Geist und was kann man dagegen tun? Prof. Dr. Maria Strauß von der Universitätsmedizin Leipzig beantwortet die wichtigsten Fragen zu diesem Thema.
Was passiert mit Körper und Geist des Menschen, wenn er einen „Winterblues“ bekommt und was sind die Ursachen dafür?
Die Ursachen sind sehr komplex und letztendlich nicht gänzlich verstanden. Allerdings gibt es Hinweise dafür, dass der Lichtmangel während der dunklen Jahreszeit eine wesentliche Rolle bei der Entwicklung eines „Winterblues“ spielt. Durch den zunehmenden Lichtmangel im Herbst und Winter wird das Schlafhormon Melatonin nicht nur nachts, sondern auch tagsüber vermehrt ausgeschüttet. Dadurch reagiert der Mensch mit Abgeschlagenheit und vermehrter Müdigkeit. Gleichzeitig wird auch weniger Serotonin ausgeschüttet. Letzteres kann unter anderem dazu führen, dass die Stimmung nicht mehr ausgeglichen ist.
Welche Menschen sind besonders gefährdet?
Bei Menschen, die bereits von einer Depression betroffen waren, kann es in der dunklen Jahreszeit zu einem erneuten Auftreten von Symptomen kommen. Auch gibt es Hinweise, dass Menschen mit Verwandten, die zu saisonal bedingten Stimmungsschwankungen neigen, möglicherweise ein höheres Risiko für ein saisonal bedingtes Stimmungstief haben.
Wie kann man einem „Winterblues“ vorbeugen?
Das beste Mittel, um einem „Winterblues“ vorzubeugen, ist Tageslicht. Empfehlenswert sind zum Beispiele tägliche Spaziergänge an der frischen Luft. Aber auch sportliche Aktivitäten, eine angemessene Balance zwischen Stress und Erholungsphasen und regelmäßige soziale Kontakte sind hilfreich. Mit Beginn der dunklen Jahreszeit ändert sich auch der Alltag. Es fallen eine Reihe von Aktivitäten weg, welche im Sommer vorwiegend draußen stattfinden. Eine Umstrukturierung des Alltags mit passenden Aktivitäten für die dunkle Jahreszeit kann vorbeugend wirken. Schließlich kann dem Lichtmangel mit einer Lichttherapie begegnet werden. Für die Lichttherapie werden spezielle Lampen mit sehr hellem Licht, also mindestens 2500 Lux, besser 10.000 Lux, verwendet, welche täglich für etwa 30 Minuten zum Beispiel auf den Frühstückstisch gestellt werden. Wichtig ist, dass alle paar Sekunden direkt in die Lichtquelle geschaut wird. Auch wenn es sich beim „Winterblues“ um keine Erkrankung handelt, sollte die Nutzung einer Lichtlampe vorher mit einem Arzt besprochen werden. Ein frühzeitiger Beginn der vorbeugenden Maßnahmen im September/Oktober ist sinnvoll.
Wie erkennt man einen „Winterblues“ überhaupt im Unterschied zur Depression?
Symptome eines „Winterblues“ können ein Stimmungstief, Antriebs- und Lustlosigkeit, vermehrte Erschöpfung, Mattigkeit und Energielosigkeit sein. Ähnliche Symptome können auch bei einer Depression auftreten. Allerdings schwankt die Stimmung bei einem „Winterblues“ nur tageweise, und die Ausprägung ist geringer als bei einer Depression. Hält die Symptomatik allerdings über mehr als zwei Wochen kontinuierlich an, oder es kommen weitere Symptome wie Hoffnungslosigkeit, Appetitminderung, Schlaflosigkeit, Schuldgefühle oder Suizidgedanken dazu, kann eine Depression vorliegen. In diesen Fällen reichen die Maßnahmen gegen einen „Winterblues“ alleine nicht aus und es sollte zusätzlich die professionelle Hilfe eines Arztes oder psychologischen Psychotherapeuten in Anspruch genommen werden.
Was ist Ihr aktueller Forschungsstand zum Thema „Winterblues“?
Letztlich ist der Mechanismus nicht gänzlich verstanden. Wir wissen aber, dass Tagesslicht eine wichtige Rolle spielt. Unsere Forschungsanliegen sind, die neurobiologischen Zusammenhänge auf Neurotransmitter-Ebene besser zu verstehen und hier zum Beispiel Marker zu finden, zum Beispiel in der Elektroenzephalographie oder Bildgebung, um zwischen „Winterblues“ und Depression besser unterscheiden zu können.
(Die Elektroenzephalographie, kurz EEG, ist ein neurologisches Diagnoseverfahren zur Erfassung von elektrischen Strömen des Gehirns.)
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Maria Strauß
Telefon: +49 341 9724500
E-Mail: maria.strauss@uniklinik-leipzig.de
Europäisches Monitoring-Projekt zum Schutz der Biodiversität in Agrarlandschaften gestartet
Sabine Heine Presse und Kommunikation
Leibniz-Institut zur Analyse des Biodiversitätswandels
Mit dem Projekt “BioMonitor4CAP” ging jetzt ein internationales Forschungsprojekt an den Start, das zum Ziel hat, landwirtschaftliche Verfahren und Strategien zu identifizieren, die einen bestmöglichen Erhalt der biologischen Vielfalt zur Folge haben. Hier gilt es neue, fortschrittliche Methoden des Biodiversitätsmonitorings zu entwickeln, um eine ergebnisorientierte Politik in europäischen Agrarlandschaften zum Schutz der Biodiversität umzusetzen. Zwanzig Partnerorganisationen aus 10 europäischen Ländern und Peru nehmen an diesem Projekt teil, das durch das Forschungs- und Innovationsprogramm “Horizon Europe” finanziert wird.
Die Hälfte der europäischen Landfläche besteht aus landwirtschaftlichen Nutzflächen. Dabei ist die intensive Landwirtschaft einer der wichtigsten Faktoren, der die Lebensraum- und Artenvielfalt in Agrarlandschaften beeinträchtigt. Die EU-Strategien „Biodiversität 2030“ und „Farm to Fork“ zielen darauf ab, den Verlust der biologischen Vielfalt aufzuhalten und gleichzeitig das menschliche Wohlergehen zu gewährleisten. Noch ist unklar, wie diese Strategien effizient umgesetzt werden. Das LIB wird in diesem Projekt seine Expertise einbringen, um die Auswirkungen der verschiedenen Bewirtschaftungsformen in Vorhersagemodelle zu bringen, die dem Schutz der Artenvielfalt am besten dienen.
Demnach müssen für eine nachhaltige Entwicklung effizientere und objektiver beurteilbare Strategien und Methoden gefordert werden, um die biologische Vielfalt und ihren Verlust oder ihre Wiederherstellung in Raum und Zeit zu überwachen.
Im Rahmen des BioMonitor4CAP-Projekts werden kosteneffiziente und zuverlässige Systeme zum Monitoring der biologischen Vielfalt getestet, validiert und entwickelt, die sowohl auf landwirtschaftlichen Flächen als auch in besonders schützenswerten Natura-2000-Gebieten funktionieren. Klassische Indikatorensysteme für die biologische Vielfalt werden mit technologiegestützten Ansätzen wie akustischen, optischen oder molekularen Methoden kombiniert. Im Rahmen des Projekts werden Vorhersagemodelle entwickelt, mit denen geeignete Änderungen in der Landbewirtschaftung zur Verbesserung der biologischen Vielfalt in landwirtschaftlichen Betrieben empfohlen werden können. „Solche Biodiversitätsmonitoringsysteme werden benötigt, um eine ergebnisorientierte Politik in europäischen Agrarlandschaften umzusetzen“, sagen Prof. Christoph Scherber, Koordinator des BioMonitor4CAP-Projekts und Leiter des Zentrums für Biodiversitätsmonitoring (zbm) am Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) und Dr. Nils Borchard, Deutsche Landwirtschafts-Gesellschaft (DLG). “Die Implementierung neu entwickelter Biodiversitätsmonitoringsysteme unterstützt eine ergebnisorientierte Politikberatung und Entscheidungsfindung in europäischen Agrarlandschaften“, ergänzt Scherber.
Mitte Dezember 2022 trafen sich alle Projektpartner zum BioMonitor4CAP-Auftakttreffen im LIB Museum Koenig Bonn. Das Team erarbeitete Konzepte, um eine möglichst produktive Vorgehensweise zu gewährleisten. Das LIB wird in diesem Projekt seine Expertise insbesondere für die faunistische Auswertung und die Untersuchung der Auswirkungen der verschiedenen Bewirtschaftungsformen zum Beispiel auf die Vogel- und Insektenvielfalt einbringen. Das Projekt wird mehrere Interessengruppen einbeziehen, um eine erfolgreiche Umsetzung der neu entwickelten Biodiversitätsmonitoringsysteme zu gewährleisten.
Über das LIB
Das Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) widmet sich der Erforschung der biologischen Vielfalt und ihrer Veränderung. Seit dem 1. Juli 2021 arbeiten unsere Forschenden an zwei Standorten: dem Zoologischen Forschungsmuseum Alexander Koenig in Bonn sowie dem ehemaligen Centrum für Naturkunde in Hamburg. Generaldirektor ist Prof. Dr. Bernhard Misof, der das LIB standortübergreifend leitet.
Über die Leibniz-Gemeinschaft
Zur Leibniz-Gemeinschaft gehören zurzeit 96 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung sowie drei assoziierte Mitglieder. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Leibniz-Institute arbeiten strategisch und themenorientiert an Fragestellungen von gesamtgesellschaftlicher Bedeutung Bund und Länder fördern die Institute der Leibniz-Gemeinschaft daher gemeinsam.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Scherber
Leibniz-Institut zur the Analyse des Biodiversitätswandels, Museum Koenig Bonn
Leiter Zentrum für Biodiversitätsmonitoring (zbm)
Tel: +49 228 9122-450
c.scherber@leibniz-lib.de
Ernährungssysteme der Zukunft
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Zentrum für Nachhaltige Ernährungssysteme (ZNE) der Justus-Liebig-Universität Gießen nimmt Arbeit auf – Globale Nachhaltigkeitsziele im Blick
Bevölkerungswachstum, Klimawandel, Hungersnöte … Die Herausforderungen sind immens, Lösungsansätze müssen die globalen Zusammenhänge in den Blick nehmen: So gilt es einerseits, die Ernährung für eine wachsende Weltbevölkerung sicherzustellen und gleichzeitig eine Landwirtschaft zu fördern, die sich an den 17 nachhaltigen Entwicklungszielen / Sustainable Development Goals (SDGs) ausrichtet. Damit muss eine Vielzahl an positiven Ökosystemleistungen wie Biodiversität und genetische Vielfalt als auch Ressourcenschutz einhergehen. An der Justus-Liebig-Universität Gießen (JLU) ist nun das Zentrum für Nachhaltige Ernährungssysteme (ZNE) gegründet worden, um den interdisziplinären, wissenschaftlichen Austausch zu drängenden Fragen im Bereich der Transformation von Ernährung zu fördern und innovative Lösungsansätze zu entwickeln, um nachhaltige Ernährungssysteme zu schaffen. Das neue Zentrum wird den Wissenstransfer in die Praxis begleiten und die Forschungsergebnisse in die Lehre integrieren.
„Ein nachhaltiges Ernährungssystem ist umweltfreundlich, gesundheitsfördernd, ethisch verantwortlich, alltagsangepasst, ermöglicht soziokulturelle Vielfalt, ist sozialverträglich in allen Schichten der Gesellschaft umsetzbar und ökonomisch tragfähig“, sagt Prof. Dr. Ramona Teuber, Inhaberin der Professur für Marktlehre der Agrar- und Ernährungswirtschaft und wissenschaftliche Leiterin des ZNE. In enger Anlehnung an die Definition des Sachverständigenrates für Ernährungssicherheit und Ernährung (High Level Panel of Experts on Food Security and Nutrition, HLPE) des UN-Ausschusses für Welternährungssicherheit aus dem Jahr 2017 soll dem ZNE daher folgende Definition zugrunde liegen: „Ein Ernährungssystem ist ein System, das von der Produktion von Lebensmitteln bis hin zum Konsum und den gesundheitlichen Folgen dieses Konsums reicht, alle Ressourcen, inklusive Lebensmittelabfällen und -verlusten berücksichtigt, und zudem von verschiedenen Rahmenbedingungen (ökonomisch, politisch, naturräumlich) beeinflusst wird.“
Seinen Sitz hat das Ende 2022 neu gegründete Zentrum im Zeughaus in Gießen in unmittelbarer Nachbarschaft zum Zentrum für internationale Entwicklungs- und Umweltforschung (ZEU), das ebenfalls in der Senckenbergstraße 3 beheimatet ist.
„Das neu gegründete Zentrum für Nachhaltige Ernährungssysteme wird einen bedeutenden Beitrag zu existentiell wichtigen gesellschaftlichen, ökonomischen und ökologischen Fragestellungen leisten“, erklärte JLU-Präsident Prof. Dr. Joybrato Mukherjee anlässlich einer kleinen internen Eröffnungsfeier. „Ich bin sicher, dass das ZNE als interdisziplinär angelegte Forschungsplattform eine Ausstrahlung weit über die Grenzen der JLU haben wird.“
Das ZNE wird als „Think Tank“ zu den Nachhaltigkeits- und Internationalisierungszielen der JLU beitragen, indem sowohl Forschung als auch Lehre in diesen beiden Querschnittsdimensionen gestärkt werden, die im Entwicklungsplan JLU 2030 festgehalten sind. In der Gründungsphase des Zentrums gilt es nun, die Konzepte und Strukturen mit Leben zu füllen und konkrete Forschungsprojekte gemeinsam anzugehen.
Prof. Dr. Klaus Eder, Dekan des Fachbereichs 09 – Agrarwissenschaften, Ernährungs-wissenschaften und Umweltmanagement, ging auf die nötige Vernetzung ein: „Die langfristige Sicherung der Ernährung der Weltbevölkerung unter den Gesichtspunkten der Nachhaltigkeit ist eine derart wichtige und komplexe Aufgabe, sodass alle Fachbereiche und Zentren eingeladen sind, daran mitzuwirken und im ZNE neue Impulse beizusteuern.“ Die Vorstellung der Ziele des ZNE übernahm Prof. Teuber, die auch auf die günstigen Rahmenbedingungen an der JLU einging.
Bereits seit vielen Jahren arbeiten Professuren des Fachbereichs 09 über Disziplin- und Fachbereichsgrenzen hinweg zusammen an Fragestellungen zu nachhaltigen Ernährungssystemen. Das Land Hessen fördert beispielsweise seit Januar 2021 den LOEWE-Schwerpunkt Integrierte Tier-Pflanze-Agrarökosysteme (GreenDairy); der Deutsche Akademische Austauschdienst (DAAD) fördert im Programm „exceed – Hochschulexzellenz in der Entwicklungszusammenarbeit“ den Aufbau eines internationalen Forschungs-
schwerpunkts „SDGNexus Network“. Das International PhD Program for Agricultural Economics, Bioeconomy and Sustainable Food Systems (IPPAE) für Nachwuchswissenschaftlerinnen und -wissenschaftler arbeitet an ähnlichen Fragestellungen. Diese zum Teil schon jahrzehntelang vorhandene Expertise soll nun im Zentrum für nachhaltige Ernährungssysteme gebündelt und durch die Etablierung bzw. Besetzung neuer Professuren auf lange Sicht fachlich erweitert und gestärkt werden.
Die Koordination des ZNE wird bis Ende 2025 aus dem Innovations- und Strukturentwicklungsbudget des Hessischen Ministeriums für Wissenschaft und Kunst (HMWK) finanziert.
Wissenschaftliche Ansprechpartner:
Zentrum für Nachhaltige Ernährungssysteme (ZNE)
Dr. Susanne Kühner, Koordinatorin
Senckenbergstraße 3, 35390 Gießen
Telefon: 0641 99-37022
E-Mail: Susanne.Kuehner@agrar.uni-giessen.de
Niedriges Niveau bei Pflanzenschutzmittelrückständen in Lebensmitteln aus Deutschland
Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
BVL-Auswertung für 2021: Belastung mit Rückständen ist abhängig von der Herkunft der Lebensmittel
In Lebensmitteln aus Deutschland und der EU werden weiterhin nur selten zu hohe Rückstände von Pflanzenschutzmitteln nachgewiesen. In deutschen Erzeugnissen ist im Jahr 2021 der Anteil an Überschreitungen der zulässigen Höchstgehalte im Vergleich zum Vorjahr gesunken. Bei Lebensmitteln aus anderen Staaten, insbesondere aus Nicht-EU-Staaten, gab es dagegen einen Anstieg der Überschreitungen, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) berichtet.
Die Ergebnisse sind Teil der „Nationalen Berichterstattung
Pflanzenschutzmittelrückstände in Lebensmitteln 2021“, die das BVL veröffentlicht hat. Von den Untersuchungseinrichtungen der amtlichen Lebensmittelüberwachung der Bundesländer sind hierfür insgesamt mehr als 8,3 Millionen Analysen an 20.603 Lebensmittelproben durchgeführt worden. Dabei wurde bestätigt, dass die Belastung mit Pflanzenschutzmittelrückständen in Abhängigkeit von der Herkunft variiert.
Betrachtung nach der Herkunft
Für Lebensmittel aus Deutschland war die Anzahl an Überschreitungen nach einem leichten Anstieg im Vorjahr wieder rückläufig und lag 2021 bei 1,1 % (2020: 2,0 %). Bei Erzeugnissen aus anderen EU-Mitgliedstaaten stieg die Überschreitungsquote leicht auf 1,8 % (2020: 1,3 %) an. Einen deutlichen Anstieg der Quote von 7,8 % (2020) auf 10,9 % gab es dagegen bei Lebensmitteln aus Nicht-EU-Staaten.
Betrachtung nach verschiedenen Lebensmittelgruppen
Während bei Getreide, Lebensmitteln tierischen Ursprungs sowie Säuglings- und Kleinkindernahrung die Überschreitungsquote sank, wurde bei verarbeiteten Lebensmitteln eine Zunahme an Überschreitungen der Rückstandshöchstgehalte nachgewiesen. Bei Obst und Gemüse blieb die Anzahl an Überschreitungen auf Vorjahresniveau. Vor allem bei Lebensmitteln, deren Verzehr besonders hoch ist, wie Äpfel, Karotten, Kartoffeln oder Tomaten, traten wie in den Vorjahren nur wenige Überschreitungen auf. Bei häufig untersuchten Lebensmitteln (mit mindestens 100 untersuchten Proben) wiesen in Lake eingelegte Weinblätter (71,8 %), Granatäpfel (33,0 %), Sesamsamen (8,7 %) und frische Kräuter (8,2 %) die höchsten Überschreitungsquoten auf.
Dabei muss berücksichtigt werden, dass für Weinblätter im Vergleich zu Trauben sehr niedrige, allgemeine Rückstandshöchstgehalte auf dem Niveau der analytischen Bestimmungsgrenze festgesetzt sind. Eine Beeinträchtigung der Verbraucherinnen und Verbraucher durch die festgestellten Höchstgehaltsüberschreitungen in Weinblättern ist nicht zu erwarten. Jedoch sind die rechtlich verbindlichen Rückstandshöchstgehalte grundsätzlich einzuhalten. Daher werden einige dieser auffälligen Erzeugnisse, u. a. Weinblätter, Granatäpfel und Sesamsamen, bereits verstärkten Kontrollen bei der Einfuhr in die EU unterzogen.
Manche auffälligen Wirkstoffe nicht mehr zugelassen
Bei den überwiegend risikoorientierten Kontrollen wurden die Lebensmittel auf 1.061 verschiedene Stoffe untersucht. Zwar wurden bei 216 (20,4 %) Wirkstoffen Überschreitungen der Rückstandshöchstgehalte festgestellt, jedoch generell auf niedrigem Niveau. Zu den Wirkstoffen, bei denen es relativ häufig zu Überschreitungen kam, gehörten Dithiocarbamate, Metalaxyl, Ethylenoxid, Chlorat und Chlorpyrifos. Die drei letztgenannten sind in der EU in Pflanzenschutzmitteln nicht mehr zugelassen.
Hintergrund
Rückstände von Pflanzenschutzmitteln in Lebensmitteln sind zulässig, sofern sie die geltenden Rückstandshöchstgehalte nicht überschreiten und demnach gesundheitlich unbedenklich sind. Auch eine Überschreitung des festgesetzten Rückstandshöchstgehalts ist nicht gleichbedeutend mit einer Gesundheitsgefahr für Verbraucherinnen und Verbraucher. Die Festsetzung eines Höchstgehaltes erfolgt ausgehend von der Menge an Rückständen, die bei ordnungsgemäßer Anwendung des Pflanzenschutzmittels zu erwarten ist. Eine Gesundheitsgefahr darf dabei nicht gegeben sein.
Weiterführende Informationen
• Hintergrundinformation „Nationale Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021_hintergrund
• Zusammenfassung des Berichts „Nationale Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021_zus
• Bericht zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_2021
• Tabellen zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2021“:
www.bvl.bund.de/psmr_tabellen2021
• Hintergrundinformation „Bericht aus dem Europäischen Schnellwarnsystem für Lebensmittel und Futtermittel 2021“:
https://www.bvl.bund.de/RASFF_Jahresbericht_2021
Anhang
ANHANG ZUR PRESSEMITTEILUNG
Ölkonzern Exxon kannte Klimawirkung ganz genau: neue Studie in ‚Science‘
Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Klimaszenarien des Ölkonzerns ExxonMobil haben bereits sehr früh die globale Erwärmung als Folge des Verfeuerns fossiler Brennstoffe genau vorhergesagt. Während bekannt ist, dass das Unternehmen die Risiken der globalen Erwärmung herunterspielte, wurden in der neuen Studie zum ersten Mal die internen Prognosen des Unternehmens zwischen 1977 und 2003 systematisch und quantitativ ausgewertet. Die jetzt im hochrangigen Fachjournal ‚Science‘ veröffentliche Analyse von Wissenschaftlerinnen und Wissenschaftlern der US-Universität Harvard und des Potsdam-Instituts für Klimafolgenforschung (PIK) ist verblüffend.
„Was ExxonMobil erstaunlich genau wusste, und was ExxonMobil dann bekanntlich leider tat, steht in scharfem Kontrast“, erklärt Stefan Rahmstorf vom PIK, Ko-Autor der Studie. „Eine Exxon-Projektion sagte sogar schon 1977 korrekt voraus, dass die Nutzung fossiler Brennstoffe ein ‚kohlendioxidinduziertes Superinterglazial‘ verursachen würde. Das ist eine Warmzeit, die nicht nur viel wärmer ist als alles in der Geschichte der menschlichen Zivilisation, sondern sogar wärmer als die letzte Warmzeit vor 125.000 Jahren. Durch den unaufhörlichen Ausstoß von Treibhausgasen sind wir heute schon weit auf dem Weg dorthin.“
In der ersten systematischen Bewertung der Klimaprognosen der fossilen Brennstoffindustrie überhaupt haben die Forschenden die Erkenntnisse der Klimawissenschaft, die Exxon schon vor Jahrzehnten hatte, mit Zahlen belegt: dass die Verbrennung fossiler Brennstoffe zu einer globalen Erwärmung von 0,20 ± 0,04 Grad Celsius pro Jahrzehnt führen würde. Die Ergebnisse haben sie in einem Diagramm zusammengefasst, das alle von Wissenschaftlern von Exxon und der ExxonMobil Corp. zwischen 1977 und 2003 erstellten Prognosen zur globalen Erwärmung zeigt, beruhend auf statistischen Analysen von bislang unveröffentlichten Daten aus den unternehmenseigenen Dokumenten.
Bekannt war bereits, dass Exxon seit den 1970er Jahren von der Bedrohung durch die globale Erwärmung wusste. Die jetzt veröffentlichte Studie ist nun die erste quantitative Überprüfung der frühen Klimawissenschaft des Unternehmens. Vorherige Untersuchungen konzentrierten sich auf die widersprüchliche interne und externe Rhetorik von Exxon zum Klimawandel. Die neue Analyse untersucht die im Unternehmen vorliegenden Daten.
„Wir stellen fest, dass die meisten ihrer Projektionen eine Erwärmung vorhersagen, die mit späteren Beobachtungen übereinstimmt“, heißt es in dem Bericht. „Ihre Vorhersagen stimmten auch mit denen unabhängiger akademischer und staatlicher Modelle überein und waren mindestens so gut wie diese.“
Unter Verwendung etablierter statistischer Verfahren kommt die Studie zu dem Ergebnis, dass 63-83 % der von den ExxonMobil-Wissenschaftlerinnen und Wissenschaftlern gemeldeten globalen Erwärmungsprognosen mit den später beobachteten Temperaturen übereinstimmten. Darüber hinaus wiesen die von den ExxonMobil-Wissenschaftlerinnen und Wissenschaftlern modellierten Projektionen einen durchschnittlichen „Skill Score“ (Maß der Vorhersagegüte) von 72 ± 6 % auf, wobei der höchste Wert bei 99 % lag. Das ist sogar deutlich besser als die Vorhersagen des bekannten NASA-Wissenschaftlers James Hansen zur globalen Erwärmung, die 1988 dem US-Kongress vorgelegt wurden.
„Öffentliche Erklärungen des Unternehmens […] widersprachen seinen eigenen wissenschaftlichen Daten“
Die Studie kommt zu dem Schluss, dass die internen Analysen von „Exxon und ExxonMobil Corp. […] genau vorausgesagt haben, wann die vom Menschen verursachte globale Erwärmung zum ersten Mal in den Messdaten festgestellt werden würde, und sogar das ‚Kohlenstoffbudget‘ für eine Begrenzung der Erwärmung auf unter 2°C realistisch abgeschätzt haben. In jedem dieser Punkte widersprachen die öffentlichen Erklärungen des Unternehmens zur Klimawissenschaft jedoch seinen eigenen wissenschaftlichen Daten.“
Die Studie verleiht den laufenden juristischen und politischen Ermittlungen gegen ExxonMobil zusätzliches Gewicht.
„Diese Ergebnisse bestätigen und präzisieren die Aussagen von Wissenschaftlern, Journalistinnen, Anwälten, Politikerinnen und anderen, dass ExxonMobil die Bedrohung durch die vom Menschen verursachte globale Erwärmung sowohl vor als auch parallel zur Orchestrierung von Lobby- und Propagandakampagnen zur Verzögerung von Klimaschutzmaßnahmen genau vorhergesehen hat, und widerlegen die Behauptungen der ExxonMobil Corp. und ihrer Verteidiger, dass diese Aussagen falsch seien“, schreiben die Autorinnen und Autoren in der Studie.
„Dies ist der Sargnagel für die Behauptungen von ExxonMobil, dass das Unternehmen zu Unrecht der bewussten Klimavergehen beschuldigt wurde“, kommentiert der Hauptautor von der Harvard University, Geoffrey Supran (seit Anfang 2023 ist er an Professor an der Rosenstiel School of Marine, Atmospheric and Earth Science der University of Miami). „Unsere Analyse zeigt, dass ExxonMobils eigene Daten im Widerspruch zu ihren öffentlichen Erklärungen stehen, in denen Unsicherheiten übertrieben, Klimamodelle kritisiert, der Mythos globaler Abkühlung verbreitet und Unwissenheit darüber vorgetäuscht wurde, wann – oder ob – die vom Menschen verursachte globale Erwärmung messbar sein würde, während man zum Risiko gestrandeter fossiler Investitionen schwieg.“
Originalpublikation:
Supran, G., Oreskes, N., Rahmstorf, S. (2023): Assessing ExxonMobil’s global warming projections. Science [DOI:10.1126/science.abk0063]
Weitere Informationen:
https://doi.org/10.1126/science.abk0063
Menschenwürde schlägt Heimatliebe
Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Eine Umfrage unter Augsburger Lehramtsstudierenden zeigt: Die Bildungsziele und die Beziehung zur Werteentwicklung künftiger Lehrpersonen haben sich geändert. Der Lehrstuhl für Schulpädagogik bietet hier anknüpfend seit diesem Wintersemester das neue Zertifikat „Wertebildung“ an.
„Liebe zur Heimat“, „Ehrfurcht vor Gott“ und „Selbstbeherrschung“: Sind das aus heutiger Sicht noch zentrale Werte, die Lehrpersonen ihren Schülern vermitteln sollten? Oder sind „Achtung vor der Würde des Menschen“, „Verantwortungsbewusstsein für Natur und Umwelt“ und Erziehung im „Geiste der Demokratie“ inzwischen nicht dringendere und zeitgemäßere Bildungs- und Erziehungsziele? Um herauszufinden, wie angehende Lehrpersonen zu diesen Fragen stehen, führte der Lehrstuhl für Schulpädagogik im letzten Sommersemester eine Umfrage unter Augsburger Lehramtsstudierenden durch. Das Ergebnis der Umfrage zeigt deutlich, dass sich die Bildungsziele künftiger Lehrpersonen verändert haben und heute andere Werte bedeutsam sind als früher. Darüber hinaus zeigt die Umfrage, dass die Augsburger Lehramtsstudierenden ein hohes Bewusstsein für die globalen und gesellschaftspolitischen Herausforderungen unserer Zeit haben. Wertebildung als Teil des Lehramtsstudiums sollte dementsprechend einen höheren Stellenwert einnehmen. Daher hat der Lehrstuhl für Schulpädagogik unter der Leitung von Prof. Dr. Klaus Zierer das Zertifikat „Wertebildung“ entwickelt. Interessierte Studierende können dieses freiwillig innerhalb von zwei Semestern durch die Absolvierung dreier Module erwerben.
Umfrage unter Lehramtsstudierenden
Im Sommersemester wurden 586 Lehramtsstudierende der Universität Augsburg zu ihren zentralen Bildungs- und Erziehungszielen befragt. Grundlage der Umfrage des Lehrstuhls für Schulpädagogik (Prof. Dr. Klaus Zierer) bildeten die in Artikel 131 der Bayerischen Verfassung zusammengefassten obersten staatlichen Bildungs- und Erziehungsziele. Neben den zentralen in der Bayerischen Verfassung verankerten Werten wurden noch drei weitere Bereiche untersucht. Diese waren „epochaltypische Schlüsselprobleme“, die „17 SDGs (Sustainable Development Goals) der Vereinten Nationen“ und „Werte allgemein“.
Die Auswertung der Umfrage ergab, dass „Achtung vor der Würde des Menschen“, „Verantwortungsbewusstsein für Natur und Umwelt“ und eine Erziehung im „Geiste der Demokratie“ für Lehramtsstudierende die drei wichtigsten Bildungs- und Erziehungsziele sind. Demgegenüber wurde auch deutlich, welche pädagogischen Ideale die Befragten als am wenigsten drängend empfinden, nämlich: „Liebe zur bayerischen Heimat“, „Ehrfurcht vor Gott“ und „Selbstbeherrschung“. Prof. Klaus Zierer bewertet die Ergebnisse der Umfrage wie folgt: „Man merkt, dass die Bayerische Verfassung vor gut 75 Jahren in Kraft getreten ist. Patriotische Grundhaltung, religiöser Glaube und Zurückstellung eigener Bedürfnisse zugunsten der Gemeinschaft sind für die nächste Generation von Lehrpersonen keine vorrangigen Erziehungsziele mehr.“ Um so wichtiger sei Wertebildung als Studieninhalt und als gesamtgesellschaftliches Thema, betont der Augsburger Schulpädagoge.
Das Zertifikat „Wertebildung“
Um die Beschäftigung mit dem Thema Wertevermittlung weiter voranzutreiben, bietet der Lehrstuhl für Schulpädagogik nun seit diesem Wintersemester das neue Zertifikat „Wertebildung“ an. Es kann durch Absolvierung verschiedener Module innerhalb von zwei Semestern erworben werden. Bei dem Zertifikat handelt es sich um ein freiwilliges Zusatzangebot für Lehramtsstudierende. Grundlegende Ziele des Zertifikats sind die Entwicklung eines Bewusstseins für Wertebildung und -erziehung, das Kennenlernen wichtiger Grundbegriffe und Konzepte sowie die Auseinandersetzung mit exemplarischen Handlungsfeldern. Das grundlegende Modul 1 ist eine interdisziplinäre Ringvorlesung zum Thema „Perspektiven einer zukunftsweisenden Wertebildung – Aktuelle Fragen und Probleme der Schulpädagogik“ mit verschiedenen Dozierenden und externen Kooperationspartnern. Im Modul 2 können sich die Studierenden für einen der drei Schwerpunkte „Umweltbildung und Nachhaltigkeit“, „Medienbildung und Digitalisierung“ oder „Demokratiebildung und Soziales Lernen“ entscheiden. Alternativ können Studierende auch keinen Schwerpunkt wählen, sondern aus diesen drei Bereichen frei wählen. Im Modul 3 werden die erworbenen Kompetenzen in einer Projektarbeit vertieft.
Wertebildung und gesellschaftliche Verantwortung
Professor Klaus Zierer betont: „Unsere Studierenden zeichnen sich durch hohe Sensibilität für globale und gesellschaftspolitische Herausforderungen aus. So überrascht es nicht, dass Umweltschutz, Friedenssicherung und Bildungsgerechtigkeit für die jungen Menschen die bedeutendsten epochaltypischen Herausforderungen unserer Zeit sind.“ Hinzu kämen Frieden und Gerechtigkeit sowie die Bekämpfung von Armut und Hunger als die drei priorisierten SDGs (Sustainable Development Goals). Da es bei der Wertebildung im Kern um Haltungsbildung gehe, bilde der Sokratische Eid als Berufseid für Lehrpersonen auch für das neue Zertifikat „Wertebildung“ die moralische Grundlage. Der Sokratische Eid sei als Selbstverpflichtung gedacht und rücke die Verantwortung jedes Einzelnen ins Zentrum. Denn auch Sokrates hielt sogar im Angesicht des eigenen Todes an seiner Haltung fest und opferte diese selbst für das Leben nicht. Zierer folgert abschließend aus der Umfrage, dass „unsere Lehramtsstudierenden ein starkes Wertebewusstsein haben. Genau das wollen wir noch intensiver im Studium aufgreifen und es soll sich so noch weiterentwickeln können.“ Mit dem Zertifikat „Wertebildung“ ist ein wichtiger Schritt in diese Richtung gelungen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaus Zierer
Universität Augsburg
Ordinarius für Schulpädagogik
Telefon: +49 821 598-5575
E-Mail: klaus.zierer@phil.uni-augsburg.de
Weitere Informationen:
https://www.uni-augsburg.de/de/fakultaet/philsoz/fakultat/schulpadagogik/zertifi…
Wie verändert die Digitalisierung unsere Gesellschaft?
Linda Schädler Abteilung Kommunikation
Universität Mannheim
Ergebnisse des landesweiten Forschungsprojekts „Gesellschaft im digitalen Wandel“ werden auf einer Webseite präsentiert
Die Digitalisierung ist ein Teil unseres Lebens geworden. Wie aber verändert sie unser Leben und unsere Gesellschaft? Das ist die Ausgangsfrage, die über dem 2019 ins Leben gerufenen Forschungsverbund „Gesellschaft im digitalen Wandel – Digitalisierung im Dialog“ (digilog@bw) stand. Drei Jahre lang haben Wissenschaftlerinnen und Wissenschaftler von acht universitären und außeruniversitären Einrichtungen aus ganz Baden-Württemberg in 20 Teilprojekten aus unterschiedlichen Disziplinen dazu geforscht, welche Auswirkungen die Digitalisierung auf jede einzelne Person und die Gesellschaft hat. Das von der Universität Mannheim koordinierte Projekt ist vorerst abgeschlossen. An einer Fortsetzung der Kooperation wird gearbeitet. In einem Blog, der schon über die ganze Projektlaufzeit begleitend geführt wurde, stellen die beteiligten Wissenschaftlerinnen und Wissenschaftler ihre Forschungsergebnisse vor. Zudem wurde ein Video der Abschlussveranstaltung, bei der eine Auswahl der Forschungsergebnisse vorgestellt wurde, auf YouTube veröffentlicht.
Prof. Dr. Sabine Sonnentag und Julia Iser vom Lehrstuhl Arbeits- und Organisationspsychologie der Universität Mannheim haben sich damit beschäftigt, wie Berufstätige arbeitsbezogene digitale Technologien in anderen Lebensbereichen (z.B. im Privaten) nutzen, wie sie die Grenzen zwischen den unterschiedlichen Lebensbereichen gestalten und wie sie dabei Gebrauch von den vorhandenen Handlungsmöglichkeiten machen. Als Ergebnis haben sie einen Wikipedia-Artikel zur Boundary Management Theorie veröffentlicht. Die Theorie beschäftigt sich mit den Grenzen zwischen verschiedenen Rollen, die eine Person innehaben kann (z.B. Rolle als angestellte Person, Rolle als Elternteil, Rolle als Vereinsmitglied etc.). In der Arbeits- und Organisationspsychologie wird sie in der Forschung zu Konflikten zwischen Arbeit und Privatleben verwendet.
Google, Instagram, TikTok und Co nehmen mittlerweile aufgrund ihrer Reichweite eine Vorrangstellung bei der Informationsverbreitung ein. Die Informationen, die den Nutzerinnen und Nutzern angezeigt werden, werden von Algorithmen gesteuert. Prof. Dr. Ralf Müller-Terpitz, Inhaber des Lehrstuhls für Öffentliches Recht, Recht der Wirtschaftsregulierung und Medien an der Universität Mannheim hat untersucht, welche rechtlichen Vorgaben an eine transparente Gestaltung solcher algorithmischer Entscheidungsprozesse gestellt werden können oder sollten. Seine Ergebnisse hat er in Form des Artikels „Algorithmen-Transparenz von Medienintermediären“ in der Zeitschrift UFITA – Archiv für Medienrecht und Medienwissenschaft veröffentlicht.
Sarah Lutz und Frank M. Schneider vom Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim haben untersucht, welche Auswirkungen – positive wie negative – die Nutzung digitaler Geräte auf die mentale Gesundheit hat. Ihre Ergebnisse haben sie als Blogbeitrag veröffentlicht, in dem sie auch praktische Ratschläge geben, wie eine Mediennutzung, die sich positiv auf das psychische Wohlbefinden auswirkt, gelingen kann.
Weitere Ergebnisse des Forschungsprojekts werden fortlaufend unter #outputdigilog auf dem Blog des Verbunds veröffentlicht: https://digilog-bw.de/blog
Die Aufzeichnung der Abschlussveranstaltung ist auf Youtube zu finden: https://www.youtube.com/watch?v=9RCDRN7Enfg&list=PLfBve91jdJ85auQSjBF4KjBeCQ…
Kontakt:
Katja Bauer
Stellv. Pressesprecherin
Universität Mannheim
Tel. 0621 181-3597
E-Mail: katja.bauer@uni-mannheim.de
Methanemissionen aus Stauseen reduzieren. TH Köln optimiert Prototyp zur Methangasernte
Sybille Fuhrmann Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln
In Stauseen lagern sich nicht nur vermehrt Sedimentschichten aus Materialien wie Kies oder Sand, sondern auch aus organischen Bestandteilen wie Blättern an. Durch den Abbau dieser organischen Stoffe entstehen teils erhebliche Mengen des Treibhausgases Methan. Damit dieses nicht in die Atmosphäre entweicht und dem Klima schadet, haben die TH Köln, die Universität Koblenz-Landau und die D-Sediment GmbH in zwei Projekten einen Prototyp zur Methangasernte weiterentwickelt. Mit Hilfe des optimierten Verfahrens lässt sich nun mehr als doppelt so viel Methan aus Stauseen entnehmen wie bisher und gleichzeitig die Stauraumverlandung beheben.
„Stauseen sind nicht nur für die Trink- und Brauchwasserversorgung relevant, sondern dienen auch dem Hochwasserschutz sowie der Energieerzeugung und stellen wichtige Lebensräume dar“, sagt Prof. Dr. Christian Jokiel vom Labor für Wasser und Umwelt der TH Köln. „Das Absperren von Fließgewässern unterbindet jedoch den natürlichen Transport des Sediments und es kommt zur sogenannten Stauraumverlandung: Sedimente lagern sich vor Absperrbauwerken ab. Dadurch verringert sich nicht nur das Stauvolumen, durch den Abbau von organischem Material im sich anhäufenden Sediment entsteht zudem das Treibhausgas Methan, das bis zu 80-mal so klimaschädlich ist wie Kohlenstoffdioxid.“
Um die Verlandung und die Methanemissionen zu reduzieren, hat das Projektteam die Wupper-Vorsperre nördlich von Hückeswagen untersucht und dort einen Prototyp zur Gasernte getestet. „Die Vorsperre mit ihrem Volumen von 307.000 Kubikmetern gibt jährlich so viele klimaschädliche Treibhausgase ab wie ein Pkw auf anderthalb Millionen Fahrkilometern“, erklärt Mara Offermann, wissenschaftliche Mitarbeiterin am Labor für Wasser und Umwelt der TH Köln. Zudem habe die Analyse ergeben, dass bei höheren Temperaturen deutlich mehr Methan freigesetzt werde. Mit Blick auf steigende Temperaturen durch den Klimawandel sei daher in Zukunft mit vermehrten Methangasemissionen aus Stauräumen zu rechnen.
Neuer Saugkopf und 3D-gedrucktes Schwimmerventil
Bei der Entwicklung des Prototyps konnte das Team auf Ergebnisse aus dem Vorgängerprojekt MELIST zurückgreifen. Dabei ist ein Hochdrucksauger entstanden, der an einer schwimmenden Plattform installiert ist – der sogenannte Saugkopf. Dieser löst die Sedimente, wodurch Methangas freigesetzt, aufgefangen und abgesaugt wird. Das Wasser-Sediment-Gas-Gemisch wird auf der Plattform getrennt und das Gas durch eine Vakuumpumpe abgesaugt. Anschließend kann das Sediment dem Fließgewässer unterhalb des Staudamms wieder zugeführt werden.
„Diesen Ansatz, der schon in MELIST zu guten Ergebnissen geführt hat, konnten wir nun weiter verbessern“, so Offermann. „Dazu haben wir das bereits bestehende System um einen neuen Saugkopf, der die Sedimentverlagerung erleichtert und das Gas effektiver aufnimmt, sowie ein 3D-gedrucktes Schwimmerventil ergänzt. Das Ventil ermöglicht in Kombination mit einem Überlauf, dass sich das System selbst reguliert, wodurch der Strombedarf reduziert wird.“ Darüber hinaus seien weitere Bestandteile wie Pumpen und die Steuerung optimiert worden.
Methanernte pro Betriebsstunde mehr als verdoppelt
Durch die Umbauten sei der Prototyp jetzt deutlich effizienter, sagt Offermann: „Wir haben insgesamt drei Modellmaßnahmen an der Wupper-Vorsperre durchgeführt, in denen wir den Prototyp jeweils zwei bis drei Wochen getestet haben. Im Rahmen dieser Untersuchungen konnten wir durch unsere Verbesserungen am Prototyp die Gasernte pro Betriebsstunde von 41 Litern auf ein Gasvolumen von 96 Liter pro Stunde steigern.“
In zwei weiteren aktuell laufenden Forschungsprojekten arbeitet das Team des Labors für Umwelt und Wasser der TH Köln derzeit an Lösungen zur Gasspeicherung und -verwertung sowie der Automatisierung der Plattform. Damit soll zum einen Methan als Ressource zur Stromversorgung zugänglich und zum anderen der Prototyp selbst energiesparender und damit effektiver gemacht werden.
Über die Projekte
Die Projekte „Analyse des Emissionsminderungspotenzials des modifizierten ,RemoGas‘-Verfahrens zur Methanernte während der Sedimentremobilisierung in wasserwirtschaftlichen Stauräumen“ und „Entwicklung und Erprobung eines Verfahrens zur Methangaselimination aus wasserwirtschaftlichen Stauräumen bei der Umlagerung von Sedimenten“ wurden von Prof. Dr. Christian Jokiel vom Labor für Wasser und Umwelt der TH Köln geleitet. Projektpartner waren das Institut für Umweltwissenschaften der Universität Koblenz-Landau und die D-Sediment GmbH. Die Projekte wurden von der Deutschen Bundesstiftung Umwelt (DBU) mit rund 470.000 Euro gefördert.
Die TH Köln zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften. Sie bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind rund 25.000 Studierende in etwa 100 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin.
Kontakt für die Medien
TH Köln
Referat Kommunikation und Marketing
Presse- und Öffentlichkeitsarbeit
Marcel Hönighausen
0221-8275-5205
pressestelle@th-koeln.de
Bildmaterial zur honorarfreien Verwendung bei Copyright-Angabe stellen wir Ihnen gerne zur Verfügung. Bitte wenden Sie sich dazu an pressestelle@th-koeln.de.
Zukunftskompetenzen für die Welt von heute
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Am 26. Januar 2023 stellt Bildungsforscher Ulf Daniel Ehlers in einer Online-Veranstaltung der HWR Berlin Modelle und Profile für Hochschulentwicklung und gute, zukunftsfähige Lehre zur Diskussion.
In der Reihe „Gute Lehre zukunftsfähig gestalten“ der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) geht es in einer Online-Veranstaltung am 26. Januar 2023 ab 17 Uhr um die zentrale Frage, welche Kompetenzen heute schon für die Welt von morgen gefragt sind und wie sich Hochschulen und Hochschullehre neu ausrichten müssen. In seinem Vortrag mit anschließender Diskussion thematisiert Bildungsforscher und Professor für Bildungsmanagement und Lebenslanges Lernen an der Dualen Hochschule Baden-Württemberg Prof. Dr. Ulf Daniel Ehlers Future Skills und individuelle Kompetenzstrategien.
Klimawandel, Energiekrise, digitale Transformation – für Mit- und Umgestaltung zur nachhaltigen Bewältigung fundamentaler Herausforderungen braucht es Zukunftskompetenzen für die Welt von heute. Menschen müssen in der Lage sein, in hochkomplexen Handlungsfeldern selbstorganisiert komplexe Probleme lösen zu können, handlungsfähig zu sein. Hochschulbildung muss darauf reagieren, um angesichts globaler Aufgaben, sich immer schneller wandelnder gesellschaftlicher Umbrüche und innovationsgetriebener, agiler Arbeitsfelder bestehen zu können.
Für Ehlers ist das Konzept der Future Skills mehr als eine Renaissance des Kompetenzbegriffes und berührt die Grundfesten des Bildungssystems und des Umgangs mit Arbeit. Das geht über Digitalisierung hinaus. Der Bildungsforscher stellt Modelle und Profile für die Hochschulentwicklung der nächsten 15 Jahre vor und auf den Prüfstand.
Medienvertreter*innen sind herzlich eingeladen, an der Veranstaltung teilzunehmen.
Mehr Informationen und Anmeldung zur Online-Veranstaltung
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/943-fut…
Zur HWR-Veranstaltungsreihe „Gute Lehre zukunftsfähig gestalten“
https://www.hwr-berlin.de/aktuelles/neuigkeiten/neuigkeit-detail/3084-gute-lehre…
Zum eLerner Bog der HWR Berlin
https://blog.hwr-berlin.de/elerner/archiv/
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit rund 12 000 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in rund 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Wissenschaftliche Ansprechpartner:
Katja Drasdo
E-Mail: elearning@hwr-berlin.de
Ungewöhnliche Frosch-Invasion
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Der Johnstones Pfeiffrosch ist eine der erfolgreichsten invasiven Amphibienarten weltweit – trotz geringer genetischer Vielfalt
Senckenberg-Wissenschaftler*innen haben mit einem internationalen Team den invasiven Johnstones Pfeiffrosch genetisch mit einem weiteren eingewanderten und einem heimischen Frosch verglichen. In ihrer nun im Fachjournal „NeoBiota“ erschienenen Studie zeigen die Forschenden, dass die Invasion der winzigen Amphibien nicht, wie bislang angenommen, durch ihre genetische Vielfalt begünstigt wurde. Vielmehr erlauben anthropogene und ökologische Faktoren die Ausbreitung der Frösche – mit Auswirkungen auf das Naturschutzmanagement.
Er ist nur etwa 17 bis 35 Millimeter groß und ein sehr erfolgreicher tierischer Einwanderer, der sich über die gesamte Karibik und weite Teile des Festlandes von Mittel- und Südamerika ausgebreitet hat: der Johnstones Pfeiffrosch (Eleutherodactylus johnstonei). „Der ursprünglich auf den Kleinen Antillen beheimatete Frosch blickt auf eine lange Ausbreitungsgeschichte, die mindestens bis 1880 zurückreicht“, erklärt PD Dr. Raffael Ernst von den Senckenberg Naturhistorischen Sammlungen Dresden. „Heute gilt der Johnstones Pfeiffrosch als eine der am weitesten verbreiteten und erfolgreichsten invasiven Amphibienarten – er wird nur noch übertroffen von der Aga-Kröte Rhinella marina und dem amerikanischen Ochsenfrosch Lithobates catesbeianus. Dies hat nicht nur Auswirkungen auf die heimischen Ökosysteme, sondern auch auf den Immobilienmarkt – die nächtlichen, ohrenbetäubenden Konzerte der winzigen Frösche führen in Teilen Südamerikas bereits zu einem Verfall der Grundstückspreise.“
Die Verbreitung des Frosches ist häufig auf menschliche Einflüsse, wie den Pflanzenhandel, zurückzuführen. So fühlen sich die Tiere auch in einigen Botanischen Gärten Deutschlands, der Schweiz oder der Niederlande wohl – außerhalb der Gewächshäuser sind die kleinen Frösche in Europa aber nicht überlebensfähig. Ein internationales Team um Ernst hat nun untersucht, welche Faktoren – außer den menschlichen Eingriffen – zu der erfolgreichen Invasion der Amphibien führen. Hierzu verglichen sie die genetischen Muster des Johnstones Pfeiffroschs mit seinen ebenfalls gebietsfremden Verwandten Eleutherodactylus antillensis und der auf einer Insel endemischen Art Eleutherodactylus portoricensis.
„Es wird allgemein angenommen, dass genetische Vielfalt eine erfolgreiche Invasion begünstigt – dieser Annahme wollten wir mit soliden Daten auf den Grund gehen“, so Doktorandin Franziska Leonhardt. „Unsere Ergebnisse zeigen – entgegen der gängigen These –, dass unsere beiden eingewanderten Frösche im Vergleich zur heimischen Art genetisch verarmt sind. Selbst in deren Ursprungspopulationen weisen die Tiere eine geringe genetische Vielfalt und Differenzierung zwischen den Populationen auf. Erfolgreiche invasive Arten sind demnach genetisch nicht zwingend vielfältiger als ihre nicht-invasiven Artgenossen.“
Die Forschenden schlussfolgern, dass genetische Vielfalt per se nicht zu einem höheren Invasionserfolg führt. Vielmehr seien ökologische und anthropogene Faktoren von hoher Bedeutung für den Einwanderungsprozess des Johnstones Pfeiffroschs. Hierzu gehören wiederkehrende Einfuhrereignisse, die Etablierung von Populationen in spezifischen, den heimischen Lebensräumen ähnelnden Mikrohabitaten, wie den europäischen Gewächshäusern, sowie Menschen, die zur Verbreitung des Fröschchens beitragen.
„Zusammengenommen scheinen diese Aspekte einen größeren Einfluss auf das Ausbreitungspotenzial der Frösche zu haben als deren genetische Vielfalt“, resümiert Ernst und gibt einen Ausblick: „Um erfolgreiche Managementmaßnahmen für die invasiven Frösche ergreifen zu können und die heimische Tierwelt effektiv zu schützen, müssen diese Faktoren zukünftig berücksichtigt werden.“
Wissenschaftliche Ansprechpartner:
PD Dr. Raffael Ernst
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351 7958 414315
raffael.ernst@senckenberg.de
Originalpublikation:
Leonhardt F, Arranz Aveces C, Müller A, Angin B, Jegu M, Haynes P, Ernst R (2022) Low genetic diversity in a widespread whistling alien: A comparison of Eleutherodactylus johnstonei Barbour, 1914 (Eleutherodactylidae) and congeners in native and introduced ranges. NeoBiota https://doi.org/10.3897/neobiota.79.86778
Weitere Informationen:
http://Einen kurzen Videoclip zu Johnstones Pfeiffrosch finden Sie auf dieser Seite unter „Karibische Invasoren“: https://sgn.one/h3p
Wie COVID-19 das Herz dauerhaft schädigt
Stefan Zorn Stabsstelle Kommunikation
Medizinische Hochschule Hannover
MHH-Forschungsteam zeigt erstmals auf, wie die Entzündung bei COVID 19 die kleinsten Gefäße im Herzen verändert
Schwere Krankheitsverläufe einer COVID-19-Infektion beeinträchtigen nicht nur die Lungenfunktion, sondern können auch lebensbedrohliche Folgen für das Herz hervorrufen. Das Spektrum reicht von einer akuten Herzmuskelentzündung (Myokarditis) bis zu einer chronischen Einschränkung der Pumpfunktion des Herzens. Die grundlegenden Schädigungsmuster konnten bis zum heutigen Tag nicht gänzlich nachgewiesen werden. Ein interdisziplinäres Forschungsteam um Professor Dr. Danny Jonigk, Christopher Werlein und Privatdozent (PD) Dr. Mark Kühnel vom Institut für Pathologie der Medizinischen Hochschule Hannover (MHH) hat jetzt mit Hilfe innovativer molekularer Verfahren und eines hochauflösenden Mikroskopieverfahrens gezeigt, wie die andauernde Entzündung bei COVID-19 das Herzgewebe angreift und langfristig die kleinsten Herzkranzgefäße umbaut, indem spezielle Vorläuferzellen des Immunsystems aus dem Blut in das Herz gelotst werden. Die Studie wurde im renommierten Fachjournal Angiogenesis publiziert.
Fehlaktivierte Entzündungszellen
Etwa jeder Dritte klagt nach einer schweren COVID-19-Erkrankung über Beschwerden und Funktionseinschränkungen des Herzens. Um die Mechanismen dieser langanhaltenden Herzmuskelschädigung aufzuklären, haben die Forschenden Herzgewebe von Patientinnen und Patienten mit schweren COVID-19-Verläufen untersucht und diese mit Gewebeproben nach schweren Grippe-Infektionen durch das Influenzavirus sowie nach schweren, durch andere Viren verursachte Herzmuskelentzündungen verglichen. Obwohl bei der COVID 19 Herzschädigung – anders als bei den Vergleichsproben – äußerlich keine klassische Entzündung des Herzgewebes festzustellen war, fand das Forschungsteam jedoch eine große Ansammlung von fehlaktivierten Entzündungszellen: sogenannte Makrophagen und ihre Vorläuferzellen, die Monozyten. „Diese Monozyten haben eine herausragende Bedeutung als Vorläuferzellen der Blutgefäßneubildung und können in kürzester Zeit das Blutgefäßsystem umbauen“, erklärt Christopher Werlein, Erstautor der Studie.
COVID-19 greift alle Gefäße im Körper an
Ausgelöst durch die Infektion mit dem Coronavirus SARS-CoV-2 sammeln sich in den nur wenige Millimeter dicken Herzgefäßen kleinste Verstopfungen an. „Diese Ultrathromben verändern den Blutstrom erheblich und damit auch die Sauerstoffversorgung“, betont PD Dr. Kühnel. Das ruft die Monozyten auf den Plan, die sich an die inneren Gefäßwände heften und dort neue Verzweigungen ausbilden. Diesen Gefäßumbau – in der Fachsprache intussuszeptive Angiogenese genannt – hat das Team bereits zuvor in anderen Organen von COVID 19 Betroffenen als charakteristisches Schädigungsmuster beschrieben. Was möglicherweise als kurzfristige Rettungsreaktion des Körpers gedacht ist, um den verminderten Blutfluss und die Unterversorgung mit Sauerstoff auszugleichen, könnte zur chronischen Schädigung des Herzens und zu Long Covid führen, vermuten die Forschenden. „Auf jeden Fall bestätigen die neuesten Untersuchungen unsere frühere Annahme, dass SARS-CoV-2 systemisch alle Gefäße im Körper angreift und diese langfristig umbaut“, betont Professor Jonigk.
Die Arbeit ist in Kooperation mit dem Deutschen Zentrum für Lungenforschung (DZL) am Standort Hannover BREATH, der Universitätsklinik Aachen, der Universitätsmedizin Mainz und der Georg-August-Universität Göttingen entstanden.
SERVICE:
Die Originalarbeit „Inflammation and vascular remodeling in COVID-19 hearts” finden Sie unter: https://link.springer.com/article/10.1007/s10456-022-09860-7
Weitere Informationen erhalten Sie bei PD Dr. Mark Kühnel, kuehnel.mark@mh-hannover.de, Telefon (0511) 532-4492.
Digitaler, keine Noten, weniger Frontalunterricht: Wie könnte Schule in Zukunft aussehen?
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Veraltete Unterrichtskonzepte, schleppende Digitalisierung, zu wenig individuelle Förderung: Die Kritik am Schulsystem in Deutschland ist groß. Wie es besser gehen könnte, daran forschen Wissenschaftler:innen an der TU Dresden. Die Universitätsschule entwickelt neue Lernformen, am Exzellenzcluster CeTI untersucht man den Einsatz digitaler Lernmittel und die Psychologie des Lehrens und Lernens geht der Frage nach, wie Schüler:innen stärker motiviert werden können.
Auch die Ausbildung der angehenden Lehrer:innen steht auf dem Prüfstand. „Wir stehen vor der Herausforderung, Lehrkräfte auszubilden, die ihre Schüler:innen auf das nächste Jahrhundert vorbereiten“, weiß Professor Rolf Koerber vom Institut für Berufspädagogik und Berufliche Didaktiken. Lehrerkräfte von heute werden Schüler:innen unterrichten, die noch weit über das Jahr 2100 hinaus leben werden. Ziel des Lehramtsstudium sei es deshalb, die Studierenden dafür zu sensibilisieren, sich und ihre Methoden regelmäßig selbst zu reflektieren und immer weiterentwickeln zu wollen. Projektarbeit, gut und professionell gemacht, aber auch das Classroom Management sind Aspekte der Didaktik, die heute einen viel höheren Stellenwert im Lehramtsstudium genießen als früher.
An der Universitätsschule Dresden gehört das längt zum Alltag. Der gemeinsame Schulversuch der Landeshauptstadt Dresden und der TU Dresden wurde als öffentliche Schule in kommunaler Trägerschaft im Schuljahr 2019/20 gestartet. Aktuell ist eine Gemeinschaftsschule vom ersten bis zum zwölften Jahrgang im Aufbau. Professorin Anke Langner hat das Forschungsprojekt Universitätsschule maßgeblich konzipiert und kann erklären, worin sie sich von anderen Schulen unterscheidet. „Der Unterricht erfolgt projektbezogen. Das heißt, die Kinder gehen einer Forschungsfrage nach und lernen in diesem Prozess, sich zu strukturieren und Methoden der Wissensaneignung zu verinnerlichen“, erklärt die Bildungswissenschaftlerin. Während Schüler:innen sich mit dem Thema weitgehend selbstständig, aber unterstützt durch Lernbegleiter:innen beschäftigen, eignen sie sich Fachwissen an.
Daneben unterscheidet sich die Universitätsschule in weiteren Aspekten von anderen Schulen. So haben die Schüler:innen hier keine Ferien zu festen Zeiten, sondern können flexibel Urlaub nehmen. Es gibt über den gesamten Tag Lernangebote, um den Lernprozess zu entschleunigen. Auch auf eine Benotung wird verzichtet. „Was aber nicht bedeutet, dass es kein Feedback gibt“, fügt Anke Langner hinzu. Auch an der Universitätsschule wird genau beobachtet, auf welchem Stand sich ein Schüler oder eine Schülerin gerade befindet. „Wenn zu wenig transparent gemacht wird, wie die Noten zustande kommen, kann das dem Lerneffekt schaden“, weiß auch Professorin Susanne Narciss. Die Psychologin plädiert daher für klare Leistungskriterien und Feedback, aus dem die Schüler:innen Rückschlüsse ziehen können, wie sie sich verbessern können.
Einen großen Stellenwert legt die Universitätsschule auf digitale Wissensvermittlung. Das Digitale wird neben Schreiben, Rechnen und Lesen als vierte Kulturtechnik in den Lernprozess eingebunden. Wie das funktionieren kann, weiß Katharina Porepp vom Exzellenzcluster CeTI. Ihrer Meinung nach hängt Schule in Deutschland hinsichtlich der Digitalisierung gut 20 Jahre hinterher. Sie ist sich dennoch sicher, dass im Klassenraum der Zukunft verstärkt digitale Medien zum Einsatz kommen. Mithilfe von Tablets mit Eingabestiften oder VR-Brillen lasse sich Unterricht viel interaktiver gestalten. „Man behält nur 10 Prozent von dem, was man liest, aber 90 Prozent von dem, was man tatsächlich erlebt“, erklärt Katharina Porepp. Mithilfe von VR-Brillen werden immersive Lernerlebnisse erzeugt. Die Größenverhältnisse im Universum, mathematische Ebenenberechnungen oder andere abstrakte Unterrichtsinhalte werden so anschaulicher und damit verständlicher.
„Der zentrale Motor für Lernen aber ist“, macht die Psychologin Susanne Narciss deutlich, „dass wir feststellen, dass wir etwas dazulernen.“ Wenn Lehrkräfte Fehler als Lerngelegenheiten und nicht als Misserfolge vermitteln, kann dies zur Steigerung der Lernbereitschaft bei Schüler:innen beitragen. Während „One-size-fits-all“-Strategien und klassischer Frontalunterricht die Motivation zum Lernen zerstören können, führen neue didaktische Ansätze, innovative Unterrichtskonzepte sowie mehr digitale Lernunterstützung zu einer Steigerung des Lernanreizes.
Kontakt:
Pressestelle der TU Dresden
pressestelle@tu-dresden.de
Wissenschaftliche Ansprechpartner:
Prof. Rolf Koerber
Institut für Berufspädagogik und Berufliche Didaktiken
Tel: +49 351 463-42333
E-Mail: rolf.koerber@tu-dresden.de
Prof. Anke Langner
Projektleiterin Universitätsschule Dresden
Tel: +49 351 463-32235
E-Mail: anke.langner@tu-dresden.de
Prof. Susanne Narciss
Professur für Psychologie des Lehrens und Lernens
Tel.+49 351 463-36059
E-Mail: Susanne.Narciss@tu-dresden.de
Katharina Porepp
Exzellenzcluster CeTI
E-Mail: katharina.porepp@tu-dresden.de
Weitere Informationen:
Video zur Schule der Zukunft
Welche Mechanismen wirken bei einer Paracetamol-Vergiftung der Leber?
Anne Gregory Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Vergiftungen mit Paracetamol (APAP) sind die zweithäufigste Ursache für Lebertransplantationen weltweit. Doch noch sind nicht alle Zusammenhänge bekannt, die zu einer Leberschädigung durch APAP führen. Mit Hilfe funktioneller Bildgebung untersucht das Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) daher in einem neuen Forschungsprojekt zum einen, wie eine vorübergehende Gallenstauung nach einer APAP-Vergiftung zur Leberschädigung beiträgt. Zum anderen wird erforscht, ob diese Leberschädigung durch Medikamente reduziert werden kann. Gefördert wird das Projekt von der Deutschen Forschungsgemeinschaft (DFG) und hat eine Laufzeit von drei Jahren.
Die IfADo-Forschende haben in früheren Forschungsarbeiten bereits ein bisher unbekanntes Phänomen im Zusammenhang mit einer Leberschädigung durch APAP identifiziert: Nach der Verabreichung einer für die Leber giftigen Dosis APAP an Mäuse kommt es nach zwei bis sechs Stunden zu einem vorübergehenden Stillstand des Gallenfluss mit erhöhter Konzentration an Gallensäure im Blut und Lebergewebe. Diese starke Zunahme der Gallensäurekonzentration in den Leberzellen führt zu deren Zelltod. Eine wichtige Beobachtung dabei war, dass mittels der Substanz Myrcludex B, das die Aufnahme von Gallensäure in Leberzellen hemmt, sowohl die Anreicherung von Gallensäure als auch die durch APAP verursachte Leberschädigung stark reduziert wurde.
Basierend auf diesen Vorarbeiten wird jetzt erforscht, welche Mechanismen der vorübergehenden Gallenstauung nach einer APAP-Vergiftung genau zur Leberschädigung beitragen. Dabei soll vor allem untersucht werden, an welcher Stelle des Gallefluss APAP eine Stauung verursacht. Außerdem wird die therapeutisch sinnvolle Wirkung von Medikamenten beobachtet. Die Forschenden gehen den Fragen nach, ob mit Hilfe von Medikamenten die Leberschädigung in Folge einer APAP-Vergiftung reduziert werden kann und wenn ja, zu welchem Zeitpunkt nach Vergiftung eine Verabreichung sinnvoll ist. Abschließend wird geprüft, ob sich die in Mäusen beobachteten Mechanismen auch auf den Menschen übertragen lassen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Jan G. Hengstler
Leiter des Forschungsbereichs Toxikologie
Telefon: +49 231 1084-348
E-Mail: hengstler@ifado.de
Dr. Ahmed Ghallab
Gruppenleiter IntravitalTox
Telefon: +49 231 1084-356
E-Mail: ghallab@ifado.de
Multiresistente Bakterien vermehrt in Abwässern aus Kliniken nachgewiesen
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Umfangreiche Studie zum Vorkommen von Acinetobacter in der Umwelt – Multiresistente Stämme überleben auch ohne Sauerstoff
Gegen Antibiotika resistente Bakterien, oftmals landläufig auch als Krankenhauskeime bezeichnet, werden offenbar tatsächlich vor allem durch Kliniken in die Abwassersysteme eingeleitet, wie eine Studie des Instituts für Angewandte Mikrobiologie der Justus-Liebig-Universität Gießen (JLU) zum Vorkommen von Acinetobacter-Bakterien nahelegt. Die Forscherinnen und Forscher wiesen Vertreter der Bakteriengattung zwar sowohl in landwirtschaftlichen, ländlichen und städtischen Proben nach – aber nur im Abwasser der städtischen Kläranlagen, die auch Krankenhausabwässer reinigen, konnten sie multiresistente Acinetobacter-Stämme nachweisen. Damit stellte das Team erstmals und systematisch deutliche Unterschiede zur Verbreitung von multiresistenten Acinetobacter-Bakterien in der Umwelt fest.
Die Zunahme von Antibiotikaresistenzen ist ein weltweites und immer drängenderes Problem. Mit dem „One Health“-Ansatz – also dem Zusammenwirken von Human- und Veterinärmedizin sowie den Umweltwissenschaften – soll die Resistenzausbreitung eingedämmt werden. Acinetobacter-Arten kommen überall in der Umwelt vor. Bisher ist allerdings noch wenig darüber bekannt, wie sich resistente Stämme von Acinetobacter baumannii und verwandte klinisch relevante Arten in der Umwelt verbreiten. Auch die Frage, ob Resistenzen stabil erhalten bleiben, wenn derartige Bakterien zum Beispiel über das Abwasser oder aber auch durch landwirtschaftliche Einträge in die Umwelt freigesetzt werden, ist noch zu klären.
Interessanterweise waren Stämme der eigentlich auf Sauerstoff angewiesenen Gattung Acinetobacter auch nach sauerstofffreier Behandlung von Gülle und Klärschlämmen in Biogasanlagen und Faultürmen nachweisbar und überlebensfähig. Die Forscherinnen und Forscher erklären das mit der Fähigkeit der Bakterien, auch unter sauerstofffreien Bedingungen Polyphosphat als Energiequelle zu nutzen. Es handelt sich um ein Phänomen, das bereits im Zusammenhang der biologischen Phosphoreliminierung aus Abwasser bekannt ist, aber bislang nicht in Zusammenhang mit der Überdauerung antibiotikaresistenter Bakterien gebracht wurde.
Die Studie zeigt aber auch weiterhin große Wissenslücken bei der Verbreitung von Antibiotikaresistenzen in der Umwelt. In weitergehenden Untersuchungen soll daher vor allem untersucht werden, wie sich die resistenten Bakterien im gereinigtem Abwasser und in Klärschlämmen verhalten, und wie der Austausch von Resistenzen mit anderen Bakterien erfolgt, nachdem sie in die Umwelt freigesetzt werden.
Acinetobacter baumannii und verwandte Arten sind opportunistische Krankheitserreger, die vor allem bei immungeschwächten Patienten in Krankenhäusern Infektionserkrankungen verursachen. Waren derartige Infektionen durch Acinetobacter vor wenigen Jahren noch eher selten, verursachen vor allem multiresistente Stämme zunehmend große Probleme bei der Behandlung infizierter Personen. Die WHO hat deshalb Carbapenem-resistente Acinetobacter baumannii bereits 2017 auf die Prioritätsliste von Pathogenen gesetzt, bei denen die herkömmlichen Antibiotika zunehmend unwirksam sind. Das Europäische Zentrum für die Prävention und die Kontrolle von Krankheiten (ECDC) berichtet in einer kürzlich veröffentlichten Studie von 35.000 Todesfällen in der EU durch antibiotikaresistente Bakterien im Zeitraum zwischen 2016 und 2020 mit einem Anstieg von Acinetobacter-assoziierten Fällen von 121 Prozent im Vergleich zum Zeitraum 2018/2019.
Die Studie wurde finanziert durch das BMBF (Projekt ARMIS: Antimicrobial Resistance Manure Intervention Strategies) und die DFG. Dipen Pulami führte die Untersuchungen, die zu dieser Publikation führten, im Rahmen seiner Promotion durch, die durch ein Graduiertenstipendium der JLU gefördert wurde.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dr. Ing. Peter Kämpfer
Professur für Mikrobiologie der Recyclingprozesse
Telefon: 0641 99-37352
E-Mail: peter.kaempfer@umwelt.uni-giessen.de
Dr. Stefanie Glaeser
Professur für Mikrobiologie der Recyclingprozesse
Telefon: 0641 99-37373
E-Mail: stefanie.glaeser@umwelt.uni-giessen.de
Originalpublikation:
Dipen Pulami, Peter Kämpfer, Stefanie P. Glaeser: High diversity of the emerging pathogen Acinetobacter baumannii and other Acinetobacter spp. in raw manure, biogas plants digestates, and rural and urban wastewater treatment plants with system specific antimicrobial resistance profiles. Science of The Total Environment, Volume 859, Part 1,
2023
https://doi.org/10.1016/j.scitotenv.2022.160182
COVID-19: Unterschiedliche Immunantwort bei Kindern und Erwachsenen bleibt lange bestehen
Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Unterschiede in der Immunantwort bei Kindern und Erwachsenen auch nach milden oder asymptomatischen Verläufen / Studie der baden-württembergischen Unikliniken unter Leitung der Universitätskliniken Freiburg und Ulm / Studie in Nature Communications
Welche Art der Immunantwort Kinder und Erwachsene nach einer milden oder asymptomatischen Infektion mit SARS-CoV-2 ausbilden, haben Forscher*innen der Universitätskliniken Freiburg, Heidelberg, Tübingen und Ulm in einer gemeinsamen Studie untersucht. Es zeigte sich, dass bei Kindern selbst nach zwölf Monaten noch eine Immunantwort nachweisbar war, diese aber über die Zeit deutlich an Stärke verloren hat.
Während bei Erwachsenen die Immunantwort vor allem von Gedächtnis-B- und -T-Zellen getragen wird, übernehmen bei Kindern spezifische Serum-Antikörper, die von Plasmazellen produziert werden, eine zentrale Funktion. Die Studie erschien am 28. November 2022 im internationalen Fachmagazin Nature Communications.
„Wir fanden heraus, dass im Beobachtungszeitraum von einem Jahr spezifische Antikörper abnahmen, aber die neutralisierende Antikörperaktivität und -breite in beiden Altersgruppen zunahmen. Bestimmte Gedächtniszellen bleiben stabil und reifen mit der Zeit. Obwohl die Immunität gegen SARS-CoV-2 quantitativ abnimmt, hat sich die Qualität durch eine Reifung kontinuierlich gebessert, bei Kindern sogar deutlicher als bei Erwachsenen“, sagt Privatdozentin Dr. Marta Rizzi, Forschungsgruppenleiterin an der Klinik für Rheumatologie und Klinische Immunologie des Universitätsklinikums Freiburg und Professorin für klinische und experimentelle Immunologie an der Medizinischen Universität Wien. Rizzi hat die Studie gemeinsam mit Dr. Aleš Janda vom Universitätsklinikum Ulm geleitet.
„Unsere Daten tragen zur Erkenntnis der Entwicklung des Immunsystems in verschiedenen Lebensphasen bei. Sehr wahrscheinlich kann man durch die gefundenen Unterschiede auch Rückschlüsse auf andere virale Infektionen ziehen. Die COVID-19-Pandemie hat uns dabei geholfen, das Immunsystem in unterschiedlichen Altersgruppen besser zu verstehen“, ergänzt Janda, Oberarzt an der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Ulm. „Wir freuen uns, dass es uns die Finanzierung durch das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg ermöglicht hat, diese enge und effektive Kooperation zwischen den vier Universitätskliniken in Baden-Württemberg aufzubauen“, sagen Rizzi und Janda.
Die Studie ist Teil der COVID-19-Haushaltsstudie Baden-Württemberg, einer gemeinsamen Initiative der Universitätskinderkliniken in Freiburg, Heidelberg, Tübingen und Ulm (www.corona-kinderstudie.de). Die Forschenden analysierten die Dynamik der Immunantwort in 28 Familien bis zu 12 Monate nach einer leichten oder asymptomatischen Infektion.
Wissenschaftliche Ansprechpartner:
PD Dr. Marta Rizzi
Gruppenleiterin
Klinik für Rheumatologie und Klinische Immunologie
Universitätsklinikum Freiburg
Telefon: 0761-270-62170
marta.rizzi@uniklinik-freiburg.de
MUDr. Aleš Janda, M.Sc., Ph.D.
Oberarzt an der Klinik für Kinder- und Jugendmedizin
Universitätsklinikum Ulm
Telefon: 0731-500-57154
ales.janda@uniklinik-ulm.de
Originalpublikation:
Original-Titel der Studie: High antibody levels and reduced cellular response in children up to one year after SARS-CoV-2 infection
DOI: (2022)13:7315
Link zur Studie: https://www.nature.com/articles/s41467-022-35055-1
Hochschule Coburg testet Kraftstoff aus Klärschlamm
Natalie Schalk Referat Marketing und Kommunikation
Hochschule Coburg
Klimawandel und steigende Energiekosten erfordern neue Ideen. Eine wird gerade an der Hochschule Coburg getestet: Bio-Kraftstoff aus Klärschlamm.
Die Europäische Union fördert aktuell das Projekt To-Syn-Fuel, in dem es darum geht, biogene Abfallstoffe umzuwandeln in nachhaltige Kraftstoffe und grünen Wasserstoff. Durchgeführt wird das Forschungsprojekt vom Fraunhofer Institut Umsicht im oberpfälzischen Sulzbach-Rosenberg, wo auch der neue Bio-Kraftstoff entwickelt wurde – und zwar aus Klärschlamm. Jetzt wird er in einem VW mit Dieselmotor auf dem neuen Rollenprüfstand der Hochschule Coburg getestet. „Ziel unserer Untersuchungen ist die Analyse von Verbrauchs- und Emissionswerten im Vergleich zum Standardkraftstoff“, erklärt Prof. Dr. Markus Jakob. Er forscht und lehrt an der Fakultät Maschinenbau und Automobiltechnik insbesondere zur motorischen Verbrennung. Gemeinsam mit Chemikerin Anja Singer leitet Jakob die Fuel Research Group der Hochschule und forscht an der Schnittstelle zwischen Chemie und Maschinenbau an Lösungen, um Energie zu speichern und zu transportieren – auf nachhaltige Weise.
Klimaneutrales Rohöl
Mit dem „thermo-katalytischen Reforming“ (TCR-Verfahren), das Fraunhofer entwickelt hat, wird Biomasse in ihre Bestandteile zerlegt, veredelt und gereinigt. Ergebnis sind drei Produkte: Synthesegas mit einem sehr hohen Wasserstoffgehalt, „Biokohle“ und ein Bio-Rohöl, das den Ausgangsstoff für synthetische Kraftstoffe bildet. Solche nachhaltigen Energieträger wie der neue Bio-Kraftstoff aus Klärschlamm haben Fraunhofer zufolge einen um 85 Prozent geringeren CO2-Fußabdruck als konventionelle fossile Kraftstoffe. „Perspektivisch könnten sie in hunderten dezentralen Kleinanlagen hergestellt werden“, sagt der Coburger Kraftstoff-Forscher Jakob. „Bayern hat das Potential, ab 2030 rund 400 000 Tonnen Klärschlamm in normkonforme Kraftstoffe umsetzen.“
Um die fossilen Energieträger vollständig aus dem Straßenverkehr zu verbannen, würden die absoluten Mengen noch nicht ausreichen. „Da aus dem TCR-Verfahren bereits normkonforme Kraftstoffe hergestellt werden können, ist es aber auf einfache Weise möglich, die verfügbaren Mengen des neuen Kraftstoffs den bekannten Serienkraftstoffen beizumischen.“