Rekonstruktion kosmischer Geschichte kann Eigenschaften von Merkur, Venus, Erde und Mars erklären
Dr. Markus Pössel Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Astronomen ist es gelungen, die Eigenschaften der inneren Planeten unseres Sonnensystems aus unserer kosmischen Geschichte heraus zu erklären: durch Ringe in der Scheibe aus Gas und Staub, in der die Planeten entstanden sind. Die Ringe hängen mit Eigenschaften zusammen wie dem Übergang von einer äußeren Region, in der sich Eis bilden kann, zu einer inneren Region, in der Wasser nur als Wasserdampf existieren kann. Die Astronomen nutzten eine Reihe von Simulationen, um verschiedene Möglichkeiten der Entwicklung der inneren Planeten zu untersuchen. Die Ergebnisse wurden in der Fachzeitschrift Nature Astronomy veröffentlicht.
In groben Zügen ist das Bild der Astronomie von der Entstehung unseres Sonnensystems seit Jahrzehnten unverändert. Aber die Details sind nach wie vor Gegenstand aktueller Forschung. Jetzt hat eine Gruppe von Astronomen unter der Leitung von Andre Izidoro von der Rice University, zu der auch Bertram Bitsch vom Max-Planck-Institut für Astronomie gehört, eine Erklärung für die Eigenschaften der inneren Planeten unseres Sonnensystems gefunden.
Eine wirbelnde Scheibe und Ringe, die alles verändern
Um einen jungen Stern bildet sich eine „protoplanetare Scheibe“ aus Gas und Staub, und in dieser Scheibe wachsen immer größere kleine Körper, die schließlich Durchmesser von Tausenden von Kilometern erreichen, das heißt: zu Planeten werden. Doch in den letzten Jahren hat sich das moderne Bild der Planetenentstehung dank moderner Beobachtungsmethoden verfeinert und in ganz bestimmte Richtungen verändert.
Die auffälligste Veränderung wurde durch ein Foto ausgelöst: das erste Bild, das die ALMA-Beobachtung nach ihrer Fertigstellung im Jahr 2014 aufnahm. Das Bild zeigt die protoplanetare Scheibe um den jungen Stern HL Tauri in nie dagewesener Detailtreue. Was dabei sichtbar wurde, hatten die Astronom*innen zuvor noch nie so direkt gesehen: ein regelmäßiges Muster aus Ringen und Lücken in dieser Scheibe.
Im Vergleich mit Simulationen protoplanetarer Scheiben wurde klar, dass solche Ringe und Lücken in der Regel mit „Druckschwellen“ verbunden sind, also Regionen, in denen der lokale Druck etwas niedriger ist als in den umliegenden Regionen. Das Auftreten solcher Druckschwellen ist typischerweise mit Veränderungen in der Scheibenzusammensetzung verbunden, vor allem in der Größe der Staubkörner.
Drei Übergänge, drei Ringe
Insbesondere gibt es Druckschwellen in drei wichtigen Übergangsregionen, die direkt mit grundlegenden physikalischen Eigenschaften zusammenhängen. In unmittelbarer Nähe des Sterns, bei Temperaturen über 1400 Kelvin, können Silikatverbindungen (ähnlich jenen aus denen Sandkörner bestehen) nur als Gas vorkommen. Insbesondere können innerhalb dieser Grenze überhaupt keine Planeten entstehen. Außerhalb der Grenze, also unterhalb der genannten Temperatur, gehen die Silikatverbindungen direkt in einen festen Zustand über (sie „kondensieren“). Damit ist eine innere Grenze für die Planetenbildung definiert.
Weiter außen, bei 170 Kelvin (-100 Grad Celsius), gibt es einen Übergang zwischen Wasserdampf einerseits und Wassereis andererseits, die so genannte (Wasser-)Schneelinie. (Der Grund dafür, dass diese Temperatur so viel niedriger ist als die uns vertraute Übergangstemperatur von 0 Grad Celsius, bei denen Wasser auf der Erde gefriert, ist der im Vergleich zur Erdatmosphäre viel geringere Druck). Bei noch niedrigeren Temperaturen, 30 Kelvin (-240 Grad Celsius), liegt die CO-Schneegrenze; unterhalb dieser Temperatur bildet Kohlenmonoxid ein festes Eis.
Druckschwellen als Pebble-Fallen
Was bedeutet das für die Entstehung von Planetensystemen? Eine Reihe früherer Simulationen hatten bereits gezeigt, wie solche Druckschwellen die Bildung von Planetesimalen erleichtern – also die Entstehung jener kleinerer Objekte mit einem Durchmesser zwischen 10 und 100 Kilometern, von denen man annimmt, dass sie die Bausteine für Planeten sind.
Die Planetenentstehung beginnt ja mit ungleich kleineren Objekten, nämlich mit Staubkörnern. Diese Staubkörner neigen dazu, sich in der Region etwas niedrigeren Drucks zu sammeln, die man in einer Druckschwelle findet. Körner einer bestimmten Größe driften natürlicherweise immer weiter nach innen, also auf den Stern zu, bis sie durch den höheren Druck am inneren Rand der Druckschwelle gestoppt werden.
Mit zunehmender Konzentration der Staubkörner an der Druckschwelle und insbesondere mit zunehmendem Verhältnis von festem Material (das dazu neigt, weiter zusammenzuklumpen) zu Gas (das die Staubkörner auseinander drückt) wird es für diese Körner leichter, sich zu sogenannten Pebbles zusammenzuschließen. Das ist der nächste Schritt auf dem Entwicklungsschritt hin zu größeren Objekten: Pebbles, wörtlich „Kieselsteinchen“, sind Klumpen von einigen Millimetern bis zu einigen Zentimetern Größe.
Die Rolle von Druckschwellen für das (innere) Sonnensystem
Aber was ist die Rolle solcher Strukturen für die großräumigen Eigenschaften von Planetensystemen wie unserem eigenen Sonnensystem? Dort haben wir es ja mit einer charakteristischen Verteilung von felsigen, terrestrischen inneren Planeten und äußeren Gasplaneten zu tun. Mit der offenen Frage, wie sich diese Verteilung erklären lässt, beschäftigten sich Andre Izidoro (Rice University) und Bertram Bitsch vom Max-Planck-Institut für Astronomie und ihre Kollegen. Auf der Suche nach Antworten kombinierten sie mehrere Simulationen, die verschiedene Phasen der Planetenbildung abdecken.
Konkret konstruierten die Astronomen ein Modell einer Gasscheibe mit drei Druckschwellen: an der Grenze, ab der Silikate gasförmig werden, sowie an den Wasser- und CO-Schneelinien. Anschließend simulierten sie, wie Staubkörner in der Gasscheibe wachsen (und zum Teil ja auch wieder auseinanderfallen), die Bildung von Planetesimalen, das Wachstum von Planetesimalen zu Planetenembryonen (von 100 km Durchmesser auf 2000 km) in der Nähe unserer Erde (im Abstand „1 Astronomische Einheit“, der mittleren Entfernung der Erde von der Sonne), das Wachstum von Planetenembryonen zu Planeten für die terrestrischen Planeten sowie die Ansammlung von Planetesimalen in einem neu gebildeten Asteroidengürtel.
In unserem eigenen Sonnensystem beherbergt der Asteroidengürtel zwischen den Umlaufbahnen von Mars und Jupiter zahlreiche kleinere Körper (davon geschätzt zwischen 100 und 1000 mit Durchmessern von 10 Kilometern und mehr), von denen man annimmt, dass sie Überreste oder Kollisionsfragmente von Planetesimalen in jener Region sind, die nie zu Planetenembryonen, geschweige denn zu Planeten heranwuchsen.
Variationen über ein planetarisches Thema
Bei Simulationen dieser Art ist die folgende Frage von einigem Interesse: Was, wenn die Ausgangsbedingungen nur ein wenig anders wären? Wäre das Endergebnis dasselbe (oder zumindest ähnlich), oder komplett anders? Das Verständnis dieser Art von Variationen ist wichtig, um zu verstehen, welche der Zutaten für das Ergebnis der Simulation entscheidend sind. Aus diesem Grund analysierten Bitsch und seine Kollegen eine Reihe verschiedener Szenarien mit unterschiedlichen Eigenschaften für die Zusammensetzung und das Temperaturprofil der protoplanetaren Scheibe. In einigen der Simulationen berücksichtigten sie dabei nur die Silikat- und Wassereis-Druckschwellen, in anderen alle drei Druckschwellen.
Die Ergebnisse zeigen einen direkten Zusammenhang zwischen dem Aussehen unseres Sonnensystems und der Ringstruktur seiner protoplanetaren Scheibe. Bertram Bitsch vom Max-Planck-Institut für Astronomie, der sowohl an der Planung dieses Forschungsprogramms als auch an der Entwicklung einiger der verwendeten Methoden beteiligt war, sagt: „Für mich war es eine völlige Überraschung, wie gut unsere Modelle die Entwicklung eines Planetensystems wie unseres Sonnensystems abbilden konnten – bis hin zu den leicht unterschiedlichen Massen und chemischen Zusammensetzungen von Venus, Erde und Mars.“
Wie erwartet, bildeten sich in diesen Modellen Planetesimale in natürlicher Weise in der Nähe der Druckschwellen: in einem „kosmischen Stau“ für nach innen driftende Pebbles, die dann durch den höheren Druck an der inneren Grenze des Druckschwelle aufgehalten wurden.
Rezept für unser (inneres) Sonnensystem
Für die inneren Regionen der simulierten Systeme konnten die Forscher auf diese Weise herausfinden, welche Bedingungen für die Entstehung unseres eigenen Sonnensystems nötig sind: Enthält die Region direkt außerhalb der innerste Druckschwelle (gasförmige vs. feste Silikate) Planetesimale mit einer Gesamtmasse von rund 2,5 Erdmassen, so wachsen jene zu etwa marsgroßen Körpern heran – passend zu den inneren Planeten im Sonnensystem.
Eine massereichere Scheibe oder aber auch eine höhere Effizienz bei der Bildung von Planetesimalen würde stattdessen zur Entstehung von „Super-Erden“ führen, deutlich massereicheren Felsplaneten. Deren Umlaufbahnen wären vergleichsweise eng am Stern, direkt an der Grenze der innersten Druckschwelle. Die Existenz dieser Grenze kann natürlicherweise auch erklären, warum es keinen Planeten gibt, der näher an der Sonne liegt als Merkur – das nötige Material wäre in dieser Nähe des Sterns einfach verdampft.
Die Simulationen gehen sogar so weit, dass sie die leicht unterschiedliche chemische Zusammensetzung von Mars auf der einen und Erde und Venus auf der anderen Seite erklären: In den Modellen sammeln Erde und Venus das meiste Material, aus dem sich ihre Masse bilden wird, aus Regionen, die näher an der Sonne liegen als die derzeitige Umlaufbahn der Erde. Die Mars-Analoga in den Simulationen dagegen entstanden hauptsächlich aus Material aus Regionen, die etwas weiter von der Sonne entfernt sind.
Wie man einen Asteroidengürtel baut
Jenseits der Marsumlaufbahn entstand in den Simulationen eine Region, die anfangs nur spärlich mit Planetesimalen besiedelt oder in einigen Fällen sogar völlig leer war – der Vorläufer des heutigen Asteroidengürtels unseres Sonnensystems. Einige Planetesimale aus den Zonen innerhalb oder direkt jenseits des Asteroidengürtels verirrten sich jedoch später in die Region des Asteroidengürtels und blieben dort hängen.
Zusammenstöße jener Planetesimale führten zur Entstehung kleinerer Brocken und damit dem, was wir heute als Asteroiden beobachten. Die Simulationen sind sogar in der Lage, die verschiedenen Asteroidenpopulationen zu erklären: Die als S-Typ-Asteroiden bezeichneten Körper, die größtenteils aus Siliziumdioxid bestehen, wären die Überreste von versprengten Objekten aus der Region rund um den Mars, während die C-Typ-Asteroiden, die überwiegend Kohlenstoff enthalten, aus der Region direkt außerhalb des Asteroidengürtels gekommen wären.
Äußere Planeten und Kuipergürtel
In dieser äußeren Region, knapp außerhalb der Druckschwelle, die die innere Grenze für das Vorhandensein von Wassereis markiert, zeigen die Simulationen den Beginn der Bildung von Riesenplaneten an. Die Planetesimale in der Nähe dieser Grenze haben in den meisten der Simulationen eine Gesamtmasse zwischen dem 40- und 100-fachen der Masse der Erde. Das mit Abschätzungen zur Gesamtmasse der Kerne der Riesenplaneten Jupiter, Saturn, Uranus und Neptun in unserem Sonnensystem überein.
Unter diesen Verhältnissen sollten die massereichsten Planetesimale schnell an Masse zunehmen. In den vorliegenden Simulationen wurde diese (anderweitig bereits gut untersuchte) spätere Entwicklung dieser Riesenplaneten nicht weiterverfolgt. Dabei liegen die Umlaufbahnen jener Riesen anfänglich recht eng beieinander. Uranus und Neptun wandern erst später nach außen zu ihren heutigen Abständen von der Sonne.
Nicht zuletzt können die Simulationen eine weitere Klasse von Objekten und ihre Eigenschaften erklären: die so genannten Kuiper-Gürtel-Objekte. Sie entstehen außerhalb der dritten, äußersten Druckschwelle, welche die innere Grenze für die Existenz von Kohlenmonoxid-Eis markiert. Die Simulationen zeigen sogar, woher die leichten Unterschiede in der Zusammensetzung der bekannten Kuipergürtel-Objekte stammen: Sie ntsprechen den Unterschieden zwischen Planetesimalen, die sich ursprünglich außerhalb der CO-Schneelinie gebildet hatten und dort geblieben sind, und Planetesimalen, die sich aus der angrenzenden inneren Region der Riesenplaneten in den Kuipergürtel verirrt haben.
Zwei mögliche Ergebnisse und ein seltenes Sonnensystem
Insgesamt gab es bei den Simulationen zwei grundlegend unterschiedliche Ergebnisse: Entweder bildete sich sehr früh eine Druckschwelle an der Wassereis-Schneelinie aus. In dem Falle entwickelten sich innere und äußere Region des Planetensystems bereits recht früh unabhängig voneinander, nämlich ab den ersten hunderttausend Jahren. Das führte zur Entstehung massearmer erdähnlicher Planeten im inneren Planetensystem, wie in unserem eigenen Sonnensystem.
Bildet sich die Wasser-Schneegrenze-Druckschwelle dagegen später oder war sie insgesamt nicht so ausgeprägt, dann konnte mehr Masse in den inneren Bereich driften. Das wiederum führte zur Entstehung von Super-Erden oder Mini-Neptunen im inneren Teil des Planetensystems. Die Statistik derjenigen Exo-Planetensysteme, die Astronom*innen bisher gefunden haben, zeigt, dass dieser Fall bei weitem wahrscheinlicher ist – und unser eigenes Sonnensystem ein vergleichsweise seltenes Ergebnis darstellt.
Ausblick
Die hier beschriebene Studie konzentriert sich auf das innere Sonnensystem mit seinen terrestrischen (erdähnlichen) Planeten. Als nächstes wollen die beteiligten Astronomen Simulationen durchführen, die auch die äußeren Regionen, wo sich in unserem Sonnensystrem Jupiter, Saturn, Uranus und Neptun befinden, genauer untersuchen. Ziel ist es, am Ende eine vollständige Erklärung für die Eigenschaften unseres und anderer Sonnensysteme zu finden.
Zumindest für das innere Sonnensystem wissen wir jetzt, dass und wie die wichtigsten Eigenschaften der Erde und ihres nächsten Nachbarplaneten auf eine recht grundlegende Physik zurückgeführt werden können: den Übergang zwischen Wassereis und Wasserdampf und die damit verbundene Druckschwelle in der Scheibe aus Gas und Staub, die unsere junge Sonne umgab.
Hintergrundinformationen
Die hier beschriebenen Ergebnisse wurden als A. Izidoro et al. „Planetesimal rings as the cause of the Solar System’s planetary architecture“ in der Zeitschrift Nature Astronomy veröffentlicht.
Der beteiligte MPIA-Forscher ist Bertram Bitsch, unabhängiger Forschungsgruppenleiter in der Abteilung Planeten- und Sternentstehung, in Zusammenarbeit mit Andre Izidoro, Rajdeep Dasgupta, Andrea Isella (alle Rice University), Sean N. Raymond (Université de Bordeaux) und Rogerio Deienno (Southwestern Research Institute).
Das ALMA-Bild samt hochauflösender Versionen kann von den ESO-Webseiten heruntergeladen werden unter: https://www.eso.org/public/germany/images/eso1436a/
Journalist*innen, die Zugang zu dem genannten Fachartikel (insbesondere auch vor Ablauf der Sperrfrist) benötigen, wenden sich bitte an press@nature.com
Wissenschaftliche Ansprechpartner:
Bertram Bitsch
Max-Planck-Institut für Astronomie, Heidelberg
Tel. +49 6221 528-427
bitsch@mpia.de
Originalpublikation:
Die hier beschriebenen Ergebnisse wurden als A. Izidoro et al. „Planetesimal rings as the cause of the Solar System’s planetary architecture“ in der Zeitschrift Nature Astronomy veröffentlicht.
Weitere Informationen:
http://Online-Version der Pressemitteilung: https://www.mpg.de/18026335/1214-astr-ringe-und-planetenentstehung-106969-x
http://Das ALMA-Bild samt hochauflösender Versionen kann von den ESO-Webseiten heruntergeladen werden unter: https://www.eso.org/public/germany/images/eso1436a/
IAB-Arbeitsmarktbarometer: Stärkster Rückgang seit April 2020
Sophia Koenen, Jana Bart, Inna Felde, Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das IAB-Arbeitsmarktbarometer ist im Dezember um 2,4 Punkte auf 101,5 Punkte gesunken. Dieser vierte Rückgang in Folge ist der stärkste seit April 2020. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) liegt damit noch leicht im positiven Bereich.
Beide Komponenten des Barometers sinken deutlich. Die Komponente des Frühindikators für die Entwicklung der Arbeitslosigkeit ist gegenüber dem Wert von November um 2,6 Punkte auf 98,9 Punkte zurückgegangen. Damit liegt sie erstmals seit Sommer 2020 wieder unter der mittleren Marke von 100 Punkten. Dies lässt über die nächsten Monate saisonbereinigt eine leicht steigende Arbeitslosigkeit erwarten. „Die Omikron-Variante zieht die Corona-Krise weiter in die Länge. Gerade für die Langzeitarbeitslosigkeit ist das kritisch“, berichtet Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.
Die Beschäftigungskomponente liegt im Dezember 2021 bei 104,1 Punkten und damit um 2,2 Punkte niedriger als im November. Der Beschäftigungstrend flacht also ab, bleibt aber weiterhin positiv. „Insgesamt wird der Arbeitsmarkt auch bei einem erneuten Lockdown nicht einbrechen, viele Firmen werden ihre Leute halten“, so Weber. Nach zwei Lockdowns seien Erfahrungen und Instrumente vorhanden. Zudem werde es weiterhin zusätzliche Jobs in Branchen wie IT oder Erziehung geben. Die Beschäftigung in unmittelbar betroffenen Bereichen wie der Veranstaltungswirtschaft könne aber Schaden nehmen.
Das IAB-Arbeitsmarktbarometer ist ein seit November 2008 bestehender Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit“ und „Beschäftigung“ bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).
Zum Download stehen bereit:
– eine Zeitreihe des IAB-Arbeitsmarktbarometers einschließlich seiner Einzelkomponenten „Arbeitslosigkeit“ und „Beschäftigung“ unter https://www.iab.de/presse/abzeitreihe.
– eine Grafik mit den aktuellen Werten des IAB-Arbeitsmarktbarometers und seiner Komponenten sowie eine Zeitreihengrafik unter https://www.iab.de/presse/abgrafik.
Roboter sammeln Unterwasser-Müll auf
Christine Lehner Corporate Communications Center
Technische Universität München
Das Sammeln von Müll in Ozeanen und Meeren ist sehr aufwendig und teuer. Ein Team der Technischen Universität München (TUM) entwickelt in einem europäischen Kooperationsprojekt ein Robotersystem, das Abfall Unterwasser ortet und einsammeln kann. Dabei kommen Methoden des maschinellen Lernens zum Einsatz.
In unseren Meeren und Ozeanen befinden sich aktuell zwischen 26 und 66 Millionen Tonnen Plastikmüll. Der größte Anteil davon liegt auf dem Meeresboden. Eine gewaltige Bedrohung für im Meer lebende Pflanzen und Tiere sowieso das ökologische Gleichgewicht der Meere.
Doch das Reinigen der Gewässer ist aufwendig, teuer und oft auch gefährlich, weil meist Taucher eingesetzt werden müssen. Außerdem konzentrieren sich Reinigungsaktionen meist auf die Wasseroberfläche. Ein Team der TUM hat sich mit acht europäischen Partner-Instituten im Project „SeaClear“ zusammengetan und entwickelt ein Robotersystem, das auch Unterwasser Müll einsammeln kann.
Vier Roboter agieren gemeinsam
Das System setzt sich aus vier einzelnen Roboter-Komponenten zusammen: Ein autonom fahrendes Roboter-Boot führt einen ersten Scan des Meeresbodens durch und lokalisiert dabei größere Müllansammlungen. Dann wird ein Beobachtungs-Roboter ins Wasser gelassen, der den Müll in der Tiefe aufspürt und gleichzeitig weitere Informationen wie Nahaufnahmen des Meeresbodens an die Rechner liefert.
Bei klarem Wasser und guten Sichtverhältnissen sorgt zusätzlich eine Drohne aus der Luft dafür, dass weiterer Müll im Wasser erkannt wird. Mit Hilfe all dieser Informationen wird eine virtuelle Karte erzeugt. Ein Sammel-Roboter fährt dann bestimmte Punkte an der Karte ab und sammelt den Müll auf. Dabei werden größere Teile mit Hilfe eines Greifers in einem Korb, der mit dem Schiff verbunden ist, abtransportiert.
Herausforderung Strömung
„Autonome Roboter für den Einsatz Unterwasser zu entwickeln stellt eine ganz besondere Herausforderung“ sagt Dr. Stefan Sosnowski, Technischer Leiter des SeaClear-Projekts am Lehrstuhl für Informationstechnische Regelung an der TUM. Denn anders als an Land herrschen im Wasser ganz besondere Bedingungen. „Sobald ein Stück Müll identifiziert und geortet wurde, muss sich der Roboter zunächst in dessen Nähe bewegen. Dabei kann er mitunter auf starke Strömungen treffen, gegen die er sich durchsetzen muss. Das richtig auszusteuern, ist Aufgabe der TUM im SeaClear-Projekt.“
Effizientes Machine Learning
Dafür verwendet das Team Methoden des maschinellen Lernens. Eine Künstliche Intelligenz (KI) berechnet und lernt, wann und unter welchen Bedingungen sich der Roboter auf eine bestimmte Weise bewegt. So können genaue Vorhersagen über sein Verhalten getroffen werden.
„Eine weitere Herausforderung ist, dass wir nicht die gewohnte Rechenleistung wie an Land zur Verfügung haben“ sagt Prof. Sandra Hirche, Leiterin des Lehrstuhls und SeaClear Projektkoordinatorin. „Es gibt keine Anbindung an große Rechenzentren mit Hochleistungscomputern. Die Algorithmen, die wir entwickeln, müssen daher möglichst effizient und ressourcenschonend sein. Deswegen arbeiten wir schon seit einiger Zeit an Methoden mit hoher „Sampling Efficiency“, die mit möglichst wenig Daten möglichst gute Vorhersagen treffen können. Nicht benötigte Informationen werden von der KI einfach vergessen.“
Erfolgsquote von 90%
Wenn das SeaClear-System einmal voll einsatzfähig ist, soll es Unterwasserabfälle mit einer prognostizierten Quote von 80% klassifizieren und zu 90% erfolgreich einsammeln – vergleichbar mit dem Erfolg beim Einsatz von Tauchern. Erste Versuche mit dem Prototyp wurden im Oktober 2021 unter klaren Wasser- und Sichtverhältnissen im kroatischen Dubrovnik durchgeführt. Im Mai 2022 soll es weitere Versuche im Hamburger Hafen geben.
Mehr Informationen:
SeaClear ist ein EU-gefördertes Horizon-2020-Projekt, das am 1. Januar 2020 gestartet ist. Es läuft bis Dezember 2023. Das Gesamtbudget beträgt ca. 5 Mio. Euro. Am Projekt sind acht Partner aus fünf Ländern und 49 Forscher beteiligt. Die acht Partner sind: TU Delft, Hamburg Port Authority, TU Cluj-Napoca, Subsea Tech, Technische Universität München (TUM), Fraunhofer CML, Universität Dubrovnik und DUNEA.
Hochauflösende Bilder und Videos:
https://mediatum.ub.tum.de/1638148
https://www.youtube.com/channel/UCMcJY8uxgCodSuMRF3KHiZQ
Publikation:
P. Bevanda, S. Sosnowski, S. Hirche, Koopman operator dynamical models: Learning, analysis and control, Annual Reviews in Control , 2021, 52, 197-212 , doi:10.1016/j.arcontrol.2021.09.002
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sandra Hirche
Technische Universität München
Lehrstuhl für Informationstechnische Regelung
Tel: +49 (89) 289-25723
Hirche@tum.de
www.tum.de
Originalpublikation:
DOI:10.1016/j.arcontrol.2021.09.002
Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37116
Digitale Transformation im Hochschulbereich: Erster University Innovation Report präsentiert Innovationen und Konzep
Mag. Christoph Pelzl, MSc Kommunikation und Marketing
Technische Universität Graz
Als Teil ihrer Digitalisierungsstrategie fördert die TU Graz seit März 2019 Digitalisierungsprojekte in Forschung, Lehre und Verwaltung, die an der Universität selbst erprobt werden. Der University Innovation Report 2021 präsentiert nun erste erfolgreich etablierte Projekte zur Bewältigung der digitalen Transformation im Hochschulbereich.
Die TU Graz setzt sich seit 2017 intensiv mit digitaler Transformation auseinander und hat 2018 als erste österreichische Universität eine Digitalisierungsstrategie beschlossen. Seither wird im Rahmen des strategischen Projekts „Digitale TU Graz“ an Digitalisierungsprozessen für die universitären Kernbereiche Lehre, Forschung und Verwaltung gearbeitet. Die Devise: Digitale Technologien sollen dort eingesetzt werden, wo sie den Mitarbeitenden, Forschenden und Studierenden konkret nützen und neue Möglichkeiten eröffnen.
Marktplatz forciert Austausch über innovative Ideen
Eines der Leuchtturmprojekte der „Digitalen TU Graz“ ist das partizipative Innovationsprogramm „Digitaler TU Graz Marketplace“, das methodische und technische Innovationen in Form geförderter Pilotprojekte nachhaltig in die Universitätspraxis überführt. Forschende, Lehrende und Studierende der TU Graz reichen Pilotprojekte ein und entwickeln sie gemeinsam. Ein Fachgremium bestehend aus Forschenden der Bereiche Computer Science, Psychologie, Bildungswissenschaften sowie Lehr- und Lernforschung wählt die Projekte aus und begleiten sie. Von insgesamt 40 Einreichungen seit 2019 wurden bisher 23 Projekte gefördert.
Die Projekte reichen von digitalen Innovationen in der Lehre, von MOOCs (Massive Open Online Courses) oder Ideen, die den Alltag an der Universität erleichtern, bis hin zu digitalem Forschungsdatenmanagement. Sie alle werden nun erstmals gebündelt im University Innovation Report 2021 vorgestellt: www.tugraz.at/go/university-innovation-report. Die Tools, Applikationen und didaktischen Konzepte sind an der TU Graz teilweise schon ausgerollt, teilweise sind sie noch im Entwicklungsprozess.
Digitale Assets für den gesamten Hochschulsektor
Bereits im Einsatz ist das „Learning Goal Widget“, ein Online-Tool zur Lernzielverfolgung. „Lehrende bekommen mit dem Tool die Möglichkeit, ihre Lehrveranstaltungen noch besser zu strukturieren, Studierende wiederum eine gute Übersicht über die Themen der Lehrveranstaltung und Informationen zur Prüfungsvorbereitung“ erklärt Katharina Maitz vom Instituts für Interactive Systems and Data Science und wissenschaftliche Mitarbeiterin im Marketplace-Projekt. Das Tool wird an der TU Graz bereits verwendet und soll zukünftig auch als Open Source-Plugin für Lernplattformen anderer Hochschulen zur Verfügung stehen (weitere Details im Report auf Seite 27).
Im Bereich der Administration und Verwaltung wird an Lösungen gearbeitet, die Mitarbeitende und Studierende im Arbeits- bzw. Universitätsalltag entlasten und auf die Serviceorientierung abzielen. So stehen in einem Projekt beispielsweise digitale und kryptografisch gesicherte Bildungsnachweise (Projektname: Verifiable Credentials for Student Mobility) im Fokus. Ziel sind Abschlussdiplome bzw. Beglaubigungen von absolvierten Prüfungen in digitaler Form, die Studierende ihren zukünftigen Arbeitgeber*innen oder anderen Universitäten über Schnittstellen als maschinenlesbare Daten übermitteln können, bei gleichzeitiger Wahrung der Privatsphäre. Auch hier handelt es sich um Open-Source-Lösungen, die Institutionen außerhalb der TU Graz für sich nutzen und weiterentwickeln können (Details auf Seite 36).
Im Forschungsbereich werden sieben Pilotprojekte gefördert, die sich mit dem Thema Forschungsdaten-Management aus unterschiedlichen Perspektiven und in verschiedenen Bereichen beschäftigen. So wird der Einsatz von elektronischen Laborbüchern analysiert und zur Anwendung gebracht, die Veröffentlichung und Langzeitarchivierung von Forschungsdaten auf geeigneten Repositorien wie beispielsweise dem TU Graz Repository vorbereitet und durchgeführt sowie die Auswertung von Daten mithilfe von CyVerse Austria getestet – einer gemeinsamen Plattform von TU Graz, Uni Graz und Med Uni Graz im Rahmen des interuniversitären Kooperation BioTechMed Graz (Informationen zu den Projekten ab Seite 37).
„Der Weg von einer digitalen Idee hin zu einem nachhaltig flächendeckenden Service ist ein langer. Wie der Prozess erfolgreich durchlaufen werden kann, zeigt der University Innovation Report“, so die Vizerektorin für Digitalisierung und Change Management Claudia von der Linden, die mit Verweis auf den Report und das strategische Projekt „Digitale TU Graz“ einmal mehr die Vorreiterrolle der TU Graz auf diesem Gebiet unterstreicht. Diese spiegelt sich auch in der Förderung des Bundesministeriums für Bildung, Wissenschaft und Forschung (BMBWF) wider, das im Rahmen der Ausschreibung „Digitale und soziale Transformation in der Hochschulbildung“ 12,2 Millionen Euro in richtungsweisende Digitalisierungsprojekte der TU Graz und deren Kooperationspartner investiert hat.
Der University Innovation Report 2021 ist mit zahlreichen interaktiven Elementen ausgestattet, die weiterführende Informationen in Form von Abstracts, Kurzvideos, Chats und visuellen Werkzeugen wie Canvas oder Screencasts liefern. Am besten funktioniert das über die mobile Plattform Learning Toolbox App (verfügbar für Android und iOS). Die Inhalte können aber auch in einem normalen Browser angesehen werden.
Wissenschaftliche Ansprechpartner:
Katharina MAITZ
BA BA MA PhD
TU Graz | Institute of Interactive Systems and Data Science
Tel.: +43 316 873 32803
k.maitz@tugraz.at
Weitere Informationen:
https://www.tugraz-verlag.at/gesamtverzeichnis/interdiszipinaeres/university-inn… (University Innovation Report 2021)
Anhang
University Innovation Report 2021
„In die Zukunft schauen, wenn man die Gegenwart nur schwer aushält“
Viola van Melis Zentrum für Wissenschaftskommunikation
Exzellenzcluster „Religion und Politik“ an der Westfälischen Wilhelms-Universität Münster
Bleigießen oder Jahreshoroskope: Wahrsagerei hatte laut Historikerin Ulrike Ludwig immer wieder Konjunktur in Krisen wie Pandemien, religiöser Spaltung oder Kriegsjahren – „,Werde ich glücklich, bleibe ich gesund?‘ Wahrsagen zeigte stets das menschliche Bedürfnis nach Sicherheit vor der unsicheren Zukunft“ – Früher auch Instrument der Politik gegen Fake News
Bleigießen zu Silvester, Jahreshoroskope, Tarot-Karten: Wahrsagen war Historikern und Historikerinnen zufolge zu allen Zeiten ein Versuch, mit der unsicheren Zukunft umzugehen. „Wahrsagerei war vor allem in Krisenzeiten beliebt, wenn die Sorge vor der Zukunft, wie heute in der Pandemie, schwer auszuhalten war. Angesichts von Seuchen, religiösem Streit, Missernten oder Kriegsjahren suchten etwa die Menschen der Frühen Neuzeit dringend nach Vorhersagen. Aber auch zum persönlichen Schicksal befragte man überirdische Mächte“, erläutert die Historikerin Prof. Dr. Ulrike Ludwig vom Exzellenzcluster „Religion und Politik“ der Uni Münster. „Zum Neujahr 1522 etwa trieben die Menschen dieselben Fragen um wie bei einer Silvesterfeier heute: Werde ich glücklich, werde ich reich, bleibe ich gesund?“ Quellen aus dieser Zeit wie Jahreshoroskope oder die weitverbreiteten Losbücher offenbaren die menschlichen Bedürfnisse hinter der Suche nach Prognosen. Wer in die Zukunft blickte, suchte Handlungsfähigkeit in der Gegenwart. „Dabei haben auch früher die Menschen nicht blind geglaubt, was ihnen gewahrsagt wurde aus den Sternen, der Kristallkugel oder der eigenen Hand.“ Wahrsagerei wurde auch spielerisch in geselliger Runde betrieben, etwa mit Orakelbüchern, in denen man mit vielen simplen, aber durch ihre Kombination schwierig durchschaubaren Verrätselungstechniken Antworten auf Lebensfragen ermittelte.
„Wahrsagerei hat den Menschen oft Orientierung gegeben, aber ihnen die Entscheidungen meist nicht abgenommen“, führt die Historikerin aus. Wer im 17. Jahrhundert eine schlechte Weissagung über die anstehende Hochzeit erhielt, sagte sie trotzdem nicht ab. „Vielmehr versuchte er oder sie, alles dafür zu tun, dass die Ehe doch noch unter einem möglichst– wie wir heute noch sagen – guten Stern geschlossen wurde. Etwa dadurch, dass ein astrologisch günstigerer Hochzeitstag gewählt wurde.“ Weit verbreitet, aber nie unumstritten: „Wahrsagerei wurde auch immer wieder hinterfragt und verhöhnt.“ Prominent war der Historikerin zufolge von Anfang an kirchliche Kritik. Aber auch der Humanist und satirische Autor Sebastian Brant (gestorben 1521) stellte dem gelehrten Astrologen einen Narren zur Seite. „Und in den berühmten Tagebüchern von Samuel Pepys (1633 – 1703) lesen wir, dass dieser nur Spott für Wahrsager und ihre Klientel übrighatte.“
Wahrsagen auch in der Politik: August von Sachsen bis François Mitterand
Obwohl westliche Politikerinnen und Politiker Wahrsagerei verpönen – anders als solche in Taiwan und weiteren ostasiatischen Ländern –, ließen sich dennoch der US-amerikanische Präsident Ronald Reagan und der französische Staatspräsident François Mitterrand während ihrer Amtszeit regelmäßig wahrsagerisch beraten. Das hat in der Geschichte Vorläufer, wie Ulrike Ludwig schildert: „In der Zeit der Vormoderne war Wahrsagerei in der Politik ein legitimes Instrument: Könige und Fürsten ließen von ihren Hofastrologen die Sterne befragen, um sich auf Krisen wie Epidemien, Missernten oder Kriege, aber auch auf Herausforderungen bei den Verhandlungen um die nächste Steuererhöhung oder diplomatischen Missionen vorbereitet zu wissen.“ Ein extremes Beispiel: Kurfürst August von Sachsen (1526 – 1586), nicht zu verwechseln mit August dem Starken, setzte systematisch auf wahrsagerische Kontrolle aller eingehenden Nachrichten, etwa zu Heiratsplänen Elisabeths II. und Todesfällen, geheimen Allianzen, Handelserfolgen und Kuriositäten – letztlich, um nicht Fake News aufzusitzen. „In einer Zeit unsicherer Informationen nutzte er jede Chance, um gesichertes Wissen zu erlangen.“
Traditionen des Wahrsagens oder moderne Prognostik
Mit der Zeit der Aufklärung um 1700 übernahm das ‚rationale‘ Denken auch das Geschäft der Zukunftsvorhersage: Statt Befragung von Göttern und transzendenten Mächten entwickelten die Menschen wissenschaftlich überprüfbare Methoden, die modellgeleitete Prognostik. „Aber auch in der modernen Prognostik zeigen die Trefferquoten, dass wir die Möglichkeiten, mit Modellrechnungen die Zukunft zu antizipieren, tendenziell überschätzen“, so Ulrike Ludwig.
„Wahrsagerische Praktiken brauchten für ihre Akzeptanz immer eine Rückbindung an Traditionen“, sagt die Wissenschaftlerin. „Es sind die alten Bräuche der Vorfahren, auf deren Wirksamkeit man vertraute, wenn der Wunsch nach Wissen über die Zukunft am größten war.“ Doch viele wahrsagerische Methoden, die Eingang in heutige Darstellungen der Geschichte gefunden haben, sind spätere – moderne – Erfindungen. „Eines der beliebtesten Wahrsage-Motive, die Tarot-Karten und damit auch das Kartenlegen, kommt vermehrt erst ab dem 19. Jahrhundert zum Einsatz“, so Ulrike Ludwig. Sie äußerte sich im Rahmen des Themenjahres „Tradition(en)“ am Exzellenzcluster (http://go.wwu.de/yd3ey), das sich anhand ausgewählter Beispiele vom Alten Ägypten bis in die Gegenwart mit der Entstehung, Überlieferung und dem Wandel von Traditionen etwa in Literatur, Recht und Religionen befasst.
Am Exzellenzcluster erforscht Prof. Dr. Ulrike Ludwig in ihrem Projekt „Wahrsagerei und Politik in der Frühen Neuzeit“. Im Rahmen des Themenjahres diskutiert sie im Sommer 2022 in der Gesprächsreihe „Tradition(en): interdisziplinär und transepochal“ den Zusammenhang von „Tradition und Rationalität“. Die Ausstellung „Zeichen der Zukunft“ im Germanischen Nationalmuseum in Nürnberg im vergangenen Jahr hat Prof. Ludwig mitkonzipiert. (sca/vvm)
Originalpublikation:
Ulrike Ludwig et al. (Hg.): Zeichen der Zukunft. Wahrsagen in Ostasien und Europa / Signs of the Future. Divination in East Asia and Europe, Heidelberg: arthistoricum.net, 2021.
Weitere Informationen:
https://www.uni-muenster.de/Religion-und-Politik/aktuelles/2021/PM_Wahrsagerei.h…
Mut zur Lücke – auch im Genom
Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
Die Nutzung genetischer Information ist für die moderne Pflanzenzucht unerlässlich geworden. Auch wenn die Sequenzierung der DNA seit der ersten Entschlüsselung des menschlichen Genoms im Jahr 2003 deutlich günstiger geworden ist, macht die Erhebung genetischer Informationen auch heute noch einen großen Teil der Kosten in der Tier- und Pflanzenzucht aus. Ein Trick, diese Kosten zu senken, besteht darin, nur einen sehr kleinen und zufällig ausgewählten Teil des Genoms zu sequenzieren und die verbliebenen Lücken mit mathematisch-statistischen Mitteln zu vervollständigen.
Hierfür hat ein interdisziplinäres Forschungsteam der Universität Göttingen einen neuen methodischen Ansatz entwickelt, der in der Fachzeitschrift PLoS Genetics veröffentlich wurde.
„Kernidee der Methode ist es, sogenannte Haplotypenblöcke, also längere Abschnitte im Genom, die in verschiedenen Pflanzen durch Vererbung sehr ähnlich sind, zu erkennen und diese Mosaikstruktur zur Komplettierung zu nutzen“, sagt Dr. Torsten Pook vom Zentrum für Integrierte Züchtungsforschung der Universität Göttingen. „In Zuchtpopulationen haben die so ergänzten Sequenzen eine Qualität, als hätten wir ein hundertfaches an Informationen des DNA-Strangs erhoben.“ Ziel der Forschenden ist es, im Rahmen des Projektes MAZE Maispflanzen mit geringer Anfälligkeit gegen Frost- und Dürreschäden zu züchten. Die KWS Saat SE, ein Partner des Projekts, wendet die Methode aufgrund ihrer hohen Kosteneffizienz bereits in Zuchtprogrammen an.
„Ein weiterer Vorteil ist, dass wir durch das Verfahren nicht nur Unterschiede in einzelnen Nukleotiden im DNA-Strang feststellen, sondern auch strukturelle Veränderungen erkennen können, die bisher züchterisch praktisch gar nicht nutzbar sind“, so Pook. Nach aktuellem Stand ist die Methode bisher allerdings nur für durch Inzucht entstandene Linien in der Pflanzenzüchtung effizient nutzbar. Eine Folgestudie, um das Verfahren auch auf Organismen mit regulärem zweifachem Chromosomensatz, wie den meisten Wirbeltieren einschließlich des Menschen, zu erweitern, ist bereits in Planung.
Wissenschaftliche Ansprechpartner:
Dr. Torsten Pook
Georg-August-Universität Göttingen
Zentrum für Integrierte Züchtungsforschung
Albrecht-Thaer-Weg 3, 37075 Göttingen
Telefon: (0551) 39-25609
Email: torsten.pook@uni-goettingen.de
Internet: http://www.uni-goettingen.de/de/585938.html
Originalpublikation:
Torsten Pook et al. Increasing calling accuracy, coverage, and read-depth in sequence data by the use of haplotype blocks. PLoS Genetics (2021). https://journals.plos.org/plosgenetics/article?id=10.1371/journal.pgen.1009944.
Klima und Boden entscheiden über die Ausprägung von Pflanzenmerkmalen
Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
Einem internationalen Forschungsteam gelang es, global wirkende Faktoren zu erkennen, die die Vielfalt der Formen und Funktionen von Pflanzen hervorrufen. Unter der Leitung der Universität Zürich, des Max-Planck-Instituts für Biogeochemie in Jena sowie der Universität Leipzig, trugen die Forschenden weltweit Pflanzendaten zusammen und analysierten sie. Sie zeigten erstmalig für Merkmale wie Größe, Aufbau und Lebensspanne der Pflanzen, wie stark diese durch Klima- und Bodeneigenschaften bestimmt werden. Daraus abgeleitete Erkenntnisse könnten entscheidend sein, um Erdsystemmodelle hinsichtlich der Rolle von Pflanzenvielfalt zu verbessern.
Auf den ersten Blick erscheint die Vielfalt der Formen und Funktionen von Pflanzen kaum erfassbar. Sie kann jedoch anhand morphologischer, physiologischer und biochemischer Merkmale beschrieben werden. Schon früher wurde gezeigt, dass Merkmale arten-übergreifend in zwei Hauptkategorien fallen, innerhalb derer jede Pflanze ein Gleichgewicht halten muss: zum einen die Größe und zum anderen die Ökonomie des Stoffwechsels. In einer aktuellen Studie in Nature Ecology and Evolution konnte ein Forscherteam anhand eines stark vergrößerten, globalen Datensatzes für 17 verschiedene Pflanzenmerkmale nun erstmals bestätigen, dass diese zwei Hauptkategorien für alle untersuchten Pflanzen weltweit gültig sind.
In der Kategorie Größen halten Pflanzen unter anderem die Wuchshöhe, die Blattgröße und die Größe der Samen in Balance. Diese Merkmale werden auch von hydraulischen Komponenten des Wassertransports in den Pflanzen beeinflusst. Die ökonomische Kategorie beschreibt, wie schnell und effektiv die Pflanze Energie und Biomasse durch Photosynthese gewinnt und damit auch wie lange sie unter den jeweiligen Bedingungen überlebt. Bestimmt wird diese Kategorie durch messbare Merkmale wie z.B. den Aufbau und die Zusammensetzung der Blätter hinsichtlich Blattfläche, sowie Stickstoff-, Phosphor- und Kohlenstoffgehalt der Trockenmasse. Mithilfe der zwei universal gültigen Hauptkategorien sind Lebensstrategien aller Pflanzenarten, die in weltweit zusammengetragenen Daten der TRY-Datenbank erfasst sind, nun gut erklärbar.
Die Merkmale einer Pflanze als Ganzes sowie der gesamten Vegetation werden aber durch unterschiedlichste externe Faktoren wie z.B. Klima, Bodenbeschaffenheit und menschliche Eingriffe beeinflusst. Welche Faktoren entscheidend sind, konnte auf der globalen Ebene bislang nicht bestimmt werden. Zur Beantwortung dieser Frage analysierte das Forscherteam, geleitet von Julia Joswig an der Universität Zürich und am Max-Planck-Institut für Biogeochemie in Jena, die Pflanzenmerkmale von über 20.000 Arten. Entscheidend hierbei war die Tatsache, dass über die Standort-Daten der Pflanzen auch die Informationen zum Klima und der Bodenbeschaffenheit mitberücksichtigt wurden.
“Unsere Studie belegt eindeutig, dass Pflanzenmerkmale weltweit nur durch gemeinsame Effekte von Klima und Boden erklärbar sind”, so Joswig, und weiter: “Dies deutet darauf hin, dass Aspekte des Klimawandels und der Bodenerosion, die beide zum Beispiel durch eine veränderte Landnutzung auftreten, immer auch gemeinsam erforscht werden sollten.”
Viele der hier beschriebenen Zusammenhänge waren aus kleinteiligen, lokalen Studien bekannt. “Aber dass diese Prozesse nun global aufgezeigt und ihre Bedeutung quantifiziert werden konnte, ist ein wichtiger Meilenstein”, fügt Prof. Miguel Mahecha von der Universität Leipzig hinzu. “Denn an Studien dieser Art können sich globale Erdsystem-Modelle orientieren, um die komplexe Wechselwirkung von Klima-Boden und Biodiversität darzustellen, was eine wichtige Voraussetzung für zukünftige Vorhersagen ist”, so Mahecha weiter.
Die Studie zeigt erwartungsgemäß, wie sich die Wuchshöhe von Pflanzenarten entlang der Breitengrade verändert, aufgrund des unterschiedlichen Klimas. Die Ökonomie der Pflanzen zeigt diesen Gradienten aber nicht. Ebenso ist die Bodenqualität nur zum Teil vom Klima geprägt, weshalb es einen Breitengrad-unabhängigen Anteil in der Bodeninformation gibt. Joswig und ihre Kolleg*innen zeigen, dass diese Bodeninformation aber auch für die Ökonomie relevant ist. Bodenbildende Faktoren sind neben dem Klima: Im Boden lebende Organismen, die Geologie und die Topographie sowie natürlich der Zeitfaktor. Der Globale Wandel betrifft das Klima, die Organismen und teilweise die Topographie. Die Studie legt daher nahe, die Risiken für Pflanzen besonders in Bezug auf den Klimawandel und die Bodenerosion zu erforschen.
Danksagung: Diese Studie nutzte Pflanzeneigenschaftsdaten aus einer Sammlung von Datensätzen, die in der TRY-Datenbank des MPI-BGC zur Verfügung gestellt werden.
Wissenschaftliche Ansprechpartner:
Julia Joswig
julia.joswig@geo.uzh.ch
Miguel Mahecha
miguel.mahecha@uni-leipzig.de
Originalpublikation:
Climatic and soil factors explain the two-dimensional spectrum of global plant trait variation
Joswig, J.S.; Wirth C.; Schuman, M. C.; Kattge, J.; Reu, B.; Wright, I. J.; Sippel, S: D.; Rüger, N.; Richter R., Schaepman M.E., van Bodegom, P.M.; Cornelissen, J. H. C.; Díaz, S.; Hattingh, W. N.; Kramer, K.; Lens, F.; Niinemets, Ü., Reich, B.; Reichstein, M.; Römermann, C.; Schrodt, F.; […] & Mahecha, M.D.
Nature Ecology and Evolution (2021)
DOI 10.1038/s41559-021-01616-8
Jenseits von Afrika: Der Weg des Homo sapiens
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Welche Wege hat der Homo sapiens auf seinem Weg von Afrika nach Europa und Asien in den vergangenen Jahrhunderttausenden genommen? Die Klimabedingungen wechselten und damit auch die Lebensbedingungen. Teils erschwerten Wüsten den Vormarsch, teilweise auch dichter Wald. Ein Forscherteam entschlüsselte in den vergangenen zwölf Jahren im Rahmen des Sonderforschungsbereichs 806 “Unser Weg nach Europa” das komplexe Zusammenspiel von kulturellen Innovationen und Umwelt, die die Wanderungen prägten. Nach Abschluss des interdisziplinären Verbundprojektes legen die Forschenden nun ein Buch mit den wichtigsten Ergebnissen unter Federführung der Universitäten Bonn und Köln vor.
Die Wiege des Menschen befindet sich in Afrika – das ist seit einem halben Jahrhundert bekannt. Vor einem Jahrzehnt beherrschte noch die Idee die wissenschaftlicher Diskussion, dass vor rund 70.000 Jahren eine kleine Gruppe des Homo sapiens von Afrika nach Europa einwanderte. Durch anatomische und intellektuelle Überlegenheit soll sie bei ihrem Vormarsch archaische lokale Populationen verdrängt haben, wodurch der Homo sapiens als einziger genetischer Zweig der Menschheit überlebte.
“Dieses Bild hat sich grundlegend verändert, seit sich herausgestellt hat, dass die Neandertaler zumindest zu einem kleinen Teil zum Genom des Homo sapiens beigetragen haben”, sagt der Paläobotaniker Prof. Dr. Thomas Litt von der Universität Bonn, hauptverantwortlicher Herausgeber des Buches und stellvertretender Sprecher des Sonderforschungsbereichs. “Die Genetik erzählt nicht ganz dieselbe Geschichte – oder einen anderen Teil der Geschichte – wie die Paläontologie und die Archäologie.” Das Team versuchte deshalb, dieses kontroverse Bild besser zu verstehen, indem es Informationen zur Natur und Umwelt sowie die Rolle der Kultur dieser prähistorischen Bevölkerungsdynamik analysierte. Die Forschenden konzentrierten sich auf verschiedene Zeitabschnitte: von der Entstehung des modernen Menschen, seine Ausbreitung, die Wiederbesiedlung des eiszeitlichen Europas, die neolithische Besiedlung sowie die Migration der sesshaften Gesellschaften.
Die neuen Erkenntnisse zeigen, dass nicht nur eine Migrationswelle, sondern mehrere afrikanische Homo-sapiens-Populationen auf ihrer bis zu 5.000 Kilometer langen Reise nach Europa und Asien geführt haben. Verbesserte radiometrische Datierungen von Homo-sapiens-Fossilien legen darüber hinaus nahe, dass das Ursprungsgebiet des modernen Menschen nicht nur Ostafrika, sondern auch Süd- und Nordwest-Afrika umfasst. Die Zeitskala des Homo sapiens reicht nun bis auf 300.000 Jahre zurück. Das Team um Prof. Litt untersuchte, wann und wo aus paläoökologischer und paläoklimatologischer Sicht Migrationskorridore oder -barrieren vorhanden waren.
Keine wissenschaftlichen Belege für die West-Route
Die Wissenschaft ging bislang davon aus, dass es zwei mögliche Hauptrouten des modernen Menschen nach Europa gab: Die westliche über die Straße von Gibraltar und die östliche über die Levante. Trotz der geringen Entfernung über die Straße von Gibraltar konnten die Forschenden in den vergangenen zwölf Jahren keinen Beleg für direkte kulturelle Kontakte zwischen Marokko und der Iberischen Halbinsel beziehungsweise Hinweise für die Überquerung der Meerenge während des Paläolithikums finden. “Dies ist eines der großen Fragezeichen in der Geschichte der menschlichen Besiedlung im westlichen Mittelmeerraum”, sagt Litt zu diesem überraschenden Ergebnis. Offenbar sei die Straße von Gibraltar damals aufgrund starker Meeresströmung eher eine Barriere gewesen.
“Somit ist die Levante als einzige permanente Landverbindung zwischen Afrika und Eurasien die Schlüsselregion als Migrationsweg des modernen Menschen”, sagt Litt. Seine Arbeitsgruppe forschte intensiv an Bohrkernen etwa aus dem Toten Meer oder dem See Genezareth, in denen Pflanzenpollen konserviert sind. Daraus lassen sich Veränderungen des Pflanzenkleids ablesen und die Umwelt- und Klimaverhältnisse rekonstruieren. Litt: “Diese Daten verdeutlichen, dass die Lavente nur als Korridor in Frage kam, wenn unter günstigeren Bedingungen etwa weder Wüsten noch dichte Wälder den Vormarsch erschwerten.“
Fast Hundert Forschende waren beteiligt
Insgesamt zwölf Jahre hat das interdisziplinäre Forschungsteam aus Archäologie, Geowissenschaften, Bodenkunde, Ethnologie und Geografie im Sonderforschungsbereich 806 “Unser Weg nach Europa” die Wanderungen des Homo sapiens entschlüsselt. Etwa Hundert Forschende waren involviert und viele Hundert wissenschaftliche Beiträge wurden bereits veröffentlicht. Beteiligt waren neben den Universitäten Köln und Bonn die Rheinisch-Westfälische Hochschule Aachen sowie zahlreiche Kooperationspartner aus den USA, Afrika, dem Nahen Osten und Europa. Die wesentlichen Ergebnisse sind nun in dem 372 Seiten umfassenden Buch zusammengefasst, das der Paläobotaniker Prof. Dr. Thomas Litt (Bonn), der Ur- und Frühgeschichtler Prof. Dr. Jürgen Richter und der Geographiedidaktiker Prof. Dr. Frank Schäbitz (beide Universität Köln) gemeinsam herausgegeben haben. “Das Buch soll für alle Leser attraktiv und relevant sein, die daran interessiert sind, die Vorgeschichte unserer eigenen Spezies, ihre Migrationsrouten und ihre Motivation zur Wanderung, ausgelöst durch komplexe Interaktionen ihrer Kultur und Umwelt, zu verstehen”, sagt Litt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Litt
Institut für Geowissenschaften
Universität Bonn
Tel. 0228/732736
E-Mail: t.litt@uni-bonn.de
Originalpublikation:
Thomas Litt, Jürgen Richter, Frank Schäbitz (Hrsg.): The Journey of Modern Humans from Africa to Europe – Culture-Environmental Interaction and Mobility, Schweizerbart Science Publishers, 372 S., 39,90 Euro
Darum schwimmen Fische die La-Ola-Welle
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tausende Fische bewegen sich wie eine riesige La-Ola-Welle im Wasser, tauchen ab und kommen bis zu zwei Minuten lang immer wieder an die Oberfläche zurück. Was Menschenmassen im Fußballstadion zum Spaß ausführen, hat bei den Fischen einen ernsten Grund: Nicht von Vögeln gefressen zu werden. Ein Team unter der Leitung des Exzellenzclusters „Science of Intelligence“ der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) hat nun herausgefunden, dass die von winzigen Fischen in Mexiko kollektiv erzeugten La-Ola-Wellen sowohl die Angriffslust der Raubvögel als auch deren Jagderfolg verringern.
Die Quellen von Baños del Azufre, in der Nähe der mexikanischen Stadt Teapa, sind ein unwirtlicher Lebensraum. Da es sich um vulkanische Quellen handelt, enthält das Wasser viel giftigen Schwefelwasserstoff und sehr wenig Sauerstoff. Nur speziell angepasste Fische wie der Schwefelmolly (Pocilia sulphuraria) können dort überleben.
Schwarmverhalten bei Vogelangriff ähnelt La-Ola-Welle:
Doch das Wasser ist nicht die einzige Herausforderung, mit der diese Fische fertig werden müssen. Während Schwefelmollys die meiste Zeit nahe der Wasseroberfläche verweilen, um zu atmen, werden sie von vielen verschiedenen Vogelarten angegriffen. Doch diese zwei Zentimeter kleinen Fische sind gewappnet; sie treten in großen Schwärmen auf, die oft mehr als 100.000 Individuen umfassen. Wenn sich ein Vogel nähert oder angreift, reagieren die Fische gemeinsam, indem sie gestaffelt abtauchen, wobei jeder Fisch mit seinem Schwanz die Wasseroberfläche berührt. Aus der Ferne sieht es so aus, als würde der Schwarm auffällige Wellen erzeugen, die denen ähneln, die zum ersten Mal während der Fußballweltmeisterschaft 1986 in Mexiko in Fußballstadien zu sehen waren – und seitdem als „La-Ola-Wellen“ bekannt sind. Im Englischen werden sie auch „Mexican waves“ genannt.
Interessant ist, dass die Fische diese Wellen mehrmals hintereinander ausführen, manchmal bis zu 2 Minuten lang. Das Berliner Forschungsteam untersuchte mit mexikanischen Kolleg*innen von der Universität Tabasco, ob diese Wellenbewegung einen Einfluss auf das Verhalten der Vögel hat, die die Fische jagen.
Vögel verzögern ihren Angriff und sind weniger erfolgreich:
Und tatsächlich fanden die Forschenden heraus, dass Eisvögel (Chloroceryle americana) umso länger mit einem erneuten Angriff warteten, je mehr Wellen sie nach ihrem ersten Angriff erlebten. „Manchmal verließen die Vögel sogar den Ort des Geschehens, bevor sie zum nächsten Angriff übergingen“, erläutert Carolina Doran, eine Autorin der Studie.
Jedoch lösen nicht alle angreifenden Vogelarten bei den Fischen diese wiederholten Wellen aus. Der Schwefeltyrann (Pitangus sulphuratus) greift nämlich auf eine andere Art an als der Eisvogel, der mit seinem ganzen Körper ins Wasser eintaucht. Der Schwefeltyrann steckt nur seinen Schnabel ins Wasser und verursacht so keine so große Störung an der Wasseroberfläche. Die Angriffe des Schwefeltyrannen führen dazu, dass die Fische nur eine einzige Welle erzeugen, was es den Vögeln ermöglicht, ihre Angriffe immer wieder und mit sehr hoher Frequenz zu wiederholen.
Diese Beobachtung veranlasste die Forschenden dazu, die Wirkung von Wellen auf Schwefeltyrannen ebenfalls zu untersuchen. Sie lösten wiederholte Fischwellen aus, wenn Schwefeltyrannen ihre Jagd begannen, indem sie gezielt kleine Gegenstände ins Wasser einwarfen. Wenn sie mit mehreren Wellen konfrontiert wurden, verzögerten die Schwefeltyrannen ihre Angriffe, wie es Eisvögel tun. Außerdem sank ihr Angriffserfolg und sie wichen eher auf andere Flussabschnitte aus.
Mehr als nur ein Fluchtreflex: Die Welle soll Verwirrung stiften und könnte auch ein Signal für den Vogel sein, dass er entdeckt worden ist:
Dass Fische abtauchen, um Vögeln zu entkommen, ist ein häufig beobachtetes Phänomen, aber das wiederholte Abtauchen, selbst wenn der angreifende Vogel nicht in der Nähe ist, ist einzigartig: „Da die beobachteten Wellen auffällig, wiederholt und regelmäßig waren und die Intervalle zwischen den einzelnen Wellen immer ähnlich lang waren, egal wie oft die Fische ihre Wellenbewegung wiederholten, gehen wir davon aus, dass die Wellenbewegungen mehr als eine reine Fluchtreaktion sind“, erklärt Dr. David Bierbach, ein Autor der Studie.
Die Autor*innen vermuten, dass die Wellen dazu dienen könnten, den angreifenden Vogel zu verwirren, insbesondere wenn die Wellen vor dem Vogel „weglaufen“.
Aber das ist vielleicht nicht der einzige Grund: Die Wellenbewegung könnte sich im Zuge der Evolution als ein Signal der Fische an die Vögel entwickelt haben, von dem sowohl die Fische als auch die Vögel profitieren. Vögel können Zeit und Energie sparen, wenn sie den Fischschwarm in Wellenbewegung nicht angreifen, da ihre Erfolgsaussichten gering sind. Für die Fische wiederum ist es von Vorteil, ein Signal zu geben, wenn sie einen Räuber entdecken, denn der Räuber wird daraufhin woanders jagen. „Eine solche Win-win-Situation ist notwendig, damit sich ein kollektives Signal zwischen Beute- und Räuberarten entwickeln kann“, erklärt Professor Jens Krause, ein Autor der Studie. „Letztendlich müssen wir uns diese Systeme genauer ansehen, um zu verstehen, wie sich kollektive Verhaltensweisen wie ein Wahrnehmungssignal wirklich entwickelt haben“, ergänzt Juliane Lukas, eine Autorin der Studie.
In einem nächsten Schritt wollen die Forschenden die offene Frage beantworten, wie viele einzelne Fische an den Wellen teilnehmen müssen, um den Effekt der Verzögerung von Angriffen und der Verringerung des Angriffserfolgs zu erzielen.
Wissenschaftliche Ansprechpartner:
Dr. David Bierbach
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: david.bierbach@igb-berlin.de
Originalpublikation:
DOI:https://doi.org/10.1016/j.cub.2021.11.068
Weitere Informationen:
https://www.igb-berlin.de/news/darum-schwimmen-fische-die-la-ola-welle
Fettgewebe wichtiger Replikationsort von SARS-CoV-2
Dr. Franziska Ahnert Presse- und Öffentlichkeitsarbeit
Heinrich-Pette-Institut – Leibniz-Institut für Experimentelle Virologie
Adipositas ist ein wichtiger Risikofaktor für schwere Krankheitsverläufe bei Patienten mit COVID-19. Ein multidisziplinäres Forschungsteam aus dem Leibniz-Institut für Experimentelle Virologie (HPI) und dem Universitätsklinikum Hamburg-Eppendorf (UKE) konnte nun eine wichtige Rolle des Fettgewebes für die Virusvermehrung von SARS-CoV-2 nachweisen. Die Ergebnisse, die auch neue therapeutische Strategien zur Behandlung von SARS-CoV-2-Infektionen aufzeigen, sind in der Online-Ausgabe der renommierten Fachzeitschrift Cell Metabolism erschienen.
Weltweit stellt überhöhtes Körpergewicht eine schwerwiegende Bedrohung für die öffentliche Gesundheit dar. Laut Weltgesundheitsorganisation hat die Prävalenz der Adipositas in den letzten Jahrzehnten dramatisch zugenommen und mittlerweile epidemische Ausmaße angenommen. Etwa 39% der Erwachsenen (>18 Jahre) sind übergewichtig (BMI≥25 kg/m²) und 13% adipös (BMI≥30 kg/m²). Geschätzt sind 19% der Kinder und Jugendlichen übergewichtig und 7% adipös. Die Prävalenzen können länderabhängig stark variieren.
In der COVID-19 Pandemie hat sich wiederholt gezeigt, dass Adipositas ein Risikofaktor für schwere Krankheitsverläufe darstellt. Allerdings war die Rolle des Fettgewebes für die Virusinfektion und Virusvermehrung von SARS-CoV-2 sowie mögliche Konsequenzen für den Stoffwechsel zu großen Teilen ungeklärt. Dieser Fragestellung wurde nun in einer multidisziplinär angelegten Studie nachgegangen.
Das Forschungsteam unter der Leitung von Prof. Dr. Gülşah Gabriel (HPI) und Prof. Dr. Jörg Heeren (UKE) konnte in Autopsieproben von COVID-19-Verstorbenen zeigen, dass SARS-CoV-2 häufig im Fettgewebe von COVID-19-Patienten nachweisbar ist. Bemerkenswerterweise wurde das Virus vorwiegend im Fettgewebe von männlichen Personen nachgewiesen, die übergewichtig oder adipös waren. Bei weiblichen Personen wurde SARS-CoV-2 ebenfalls in Fettgeweben nachgewiesen, wobei es keine eindeutige Korrelation zwischen der Fettmasse und den Virus-mRNA-Spiegeln gab. In einem präklinischen Modell einer COVID-19-Erkrankung wurde zudem gezeigt, dass sich SARS-CoV-2 vom Respirationstrakt ausgehend in das Fettgewebe ausbreitet und sich dort weiter vermehrt. Dies führt zu einer lokalen Entzündung und hat Folgen für den gesamten Stoffwechsel. „Unsere Ergebnisse zeigen, dass die bei Patienten mit COVID-19 beschriebenen Veränderungen des Stoffwechsels durch die SARS-CoV-2-Infektion der Fettgewebe erklärbar sind“, erläutert Jörg Heeren, Professor für Immunstoffwechsel am Institut für Biochemie und Molekulare Zellbiologie des UKE.
Zudem konnte in reifen Adipozyten (Fettzellen) in Zellkultur gezeigt werden, dass der intrazelluläre Fettstoffwechsel für die Ausbreitung von SARS-CoV-2 ein maßgeblicher Faktor ist. So reduziert die Blockierung des Fettabbaus durch einen Lipase-Inhibitor die Virusreplikation in reifen Adipozyten um das 100-fache. Durch die gleichzeitige Verabreichung eines Medikamentes, welches zur Cholesterin-Senkung eingesetzt wird, konnte die Replikation noch weiter unterdrückt werden. „Da es sich dabei um zwei bereits gegen andere Krankheitsbilder zugelassene Wirkstoffe handelt, könnten unsere Ergebnisse eine Basis für neue Behandlungsstrategien gegen COVID-19 darstellen“, erläutert Gülşah Gabriel, Leiterin der HPI-Abteilung „Virale Zoonosen – One Health“ und Professorin für Virologie an der Stiftung Tierärztliche Hochschule Hannover (TiHo), die Ergebnisse.
Diese multidisziplinäre Studie wurde in der Abteilung Virale Zoonosen – One Health am Leibniz-Institut für Experimentelle Virologie (HPI), in den Instituten für Biochemie und Molekulare Zellbiologie, für Rechtsmedizin, für Klinische Chemie und Laboratoriumsmedizin, für Neuropathologie sowie den Kliniken für Allgemein-, Viszeral- und Thoraxchirurgie und für Intensivmedizin am Universitätsklinikum Hamburg-Eppendorf durchgeführt. Beteiligt war ebenfalls die Abteilung Computational Biology of Infection Research vom Helmholtz Zentrum für Infektionsforschung in Braunschweig.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Gülşah Gabriel (HPI, TiHo), Tel.: 040/48051-315, guelsah.gabriel@leibniz-hpi.de
Prof. Dr. Jörg Heeren (UKE), Tel.: 040/7410 51715, heeren@uke.de
Originalpublikation:
Martin Zickler, Stephanie Stanelle-Bertram, Sandra Ehret, Fabian Heinrich, Philine Lange, Berfin Schaumburg, Nancy Mounogou Kouassi, Sebastian Beck, Michelle Y. Jäckstein, Oliver Mann, Susanne Krasemann, Maria Schröder, Dominik Jarczak, Axel Nierhaus, Stefan Kluge, Manuela Peschka, Hartmut Schlüter, Thomas Renné, Klaus Püschel, Andreas Klötgen, Ludger Scheja, Benjamin Ondruschka, Jörg Heeren and Gülşah Gabriel (2021). Replication of SARS-CoV-2 in adipose tissue determines organ and systemic lipid metabolism in hamsters and humans. Cell Metabolism (2021).
https://doi.org/10.1016/j.cmet.2021.12.002
Weitere Informationen:
http://www.hpi-hamburg.de HPI-Webseite
Anhang
PDF der Pressemitteilung
Innovative Düngeverfahren: Weniger Emissionen bei Gülle-Düngung wachsender Bestände
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Verbundprojekt mit Beteiligung der Uni Hohenheim untersucht, wie möglichst wenig Treibhausgas- und Ammoniakemissionen beim Düngen mit Gülle und Gärresten entstehen.
Bis zu 55 Prozent weniger Ammoniak-Emissionen durch innovative Methoden: Wirtschaftsdünger, wie Gülle oder Gärreste aus Biogasanlagen ließen sich erheblich umweltschonender auf die Äcker und Wiesen ausbringen. Das zeigen erste Ergebnisse eines Verbundprojekts mit Beteiligung der Universität Hohenheim in Stuttgart. Das Projekt nimmt ein Problem ins Visier, das die Düngeverordnung von 2017 sowie deren Novelle von 2020 noch verschärft hat, da verstärkt bereits bewachsene Felder gedüngt werden, bei denen der Dünger nicht in den Boden eingearbeitet werden kann. Für das vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) mit etwa 1,7 Millionen Euro geförderte Verbundprojekt erhält Dr. Reiner Ruser vom Fachgebiet Düngung und Bodenstoffhaushalt der Universität gut 360.000 Euro an Fördermitteln. Das macht es dort zu einem Schwergewicht der Forschung.
„Wirtschaftsdünger setzen nicht nur große Mengen an Ammoniak frei, das auch die menschliche Gesundheit schädigen kann. Den Pflanzen geht dadurch auch Stickstoff als wichtiger Nährstoff verloren“, erklärt Dr. Ruser. „So müssen nach der europäischen Richtlinie zur Luftreinhaltung bis 2030 die Ammoniakemissionen in Deutschland um 29 Prozent gegenüber 2005 reduziert werden.“
Außerdem trägt unter anderem aufgrund des intensiven Einsatzes von Stickstoffdünger in Deutschland die Landwirtschaft mit etwa sieben Prozent zu den gesamten Treibhausgasemissionen bei. Rund die Hälfte davon wird aus landwirtschaftlich genutzten Böden in Form von Lachgas (N2O) freigesetzt, das ein wesentlich stärkeres Treibhausgaspotenzial hat als Kohlendioxid.
Eine große Rolle bei der Freisetzung dieser Gase spielen neben der Düngermenge auch die Techniken, mit denen der Dünger auf die Äcker und Grünflächen ausgebracht wird. Wie innovative, emissionsarme Ausbringungstechniken aussehen können, untersuchen Forschende im Verbundprojekt „Minderung von Ammoniak- und Treibhausgasemissionen und Optimierung der Stickstoffproduktivität durch innovative Techniken der Gülle- und Gärresteausbringung in wachsende Bestände“ – GülleBest.
Ansäuern reduziert die Ammoniakfreisetzung
Erste Ergebnisse zeigen deutliche Unterschiede bei der Ammoniakfreisetzung. Vor allem das Ansäuern von Gülle und Gärresten erweist sich als besonders effektiv: „Wenn wir einen pH-Wert von ca. 6,0 erreichen, den üblicherweise auch der Boden aufweist, können wir die Ammoniak-Emissionen um bis zu 55 Prozent reduzieren“, sagt Dr. Ruser, Mitarbeiter von Prof. Dr. Torsten Müller im Fachgebiet Düngung und Bodenstoffhaushalt.
Auch die Befürchtung, dass es dadurch zu einer vermehrten Freisetzung von Lachgas kommen könnte, hat sich nicht bestätigt. Was ihn und seinen Doktoranden Christoph Essich, dessen Arbeitsschwerpunkt auf der Erfassung der Lachgas-Emissionen liegt, besonders freut.
Allerdings ist die Technik zur Ansäuerung in Deutschland noch nicht weit verbreitet und weitere Untersuchungen zur Optimierung der Ansäuerung, wie pH-Wert, Arbeitssicherheit im Umgang mit konzentrierter Schwefelsäure und mögliche alternative Methoden sind aus Sicht der Wissenschaftler sinnvoll.
Innovative Ausbringungstechniken können Emissionen reduzieren
Vor allem in Kombination mit der so genannten Schleppschuhtechnik ist die Ansäuerung auf Grünlandböden sehr effektiv. Dabei handelt es sich um einen Metallschuh, der das Gras zur Seite drückt, so dass die Gülle direkt auf den Boden gelangen kann. Außerdem werden im Projekt GülleBest die Schlitztechnik auf Acker- und Grünland sowie die Ausbringung über einen Schleppschlauch auf Acker untersucht. Bei der Schlitztechnik wird die Grasnarbe aufgeschnitten, bevor anschließend die Gülle injiziert wird, und Schleppschläuche ermöglichen die Ausbringung sehr dicht am Boden zwischen Weizenreihen.
Zusammen mit den Projektpartnern testen Dr. Ruser und Christoph Essich verschiedene Ansätze bei wachsenden Beständen, wie beispielsweise auf Feldern, auf denen Winterweizen oder Gras wächst, in einem Netzwerk abgestimmter Feldversuche. Zusätzlich erfassen die Forschenden die Stickstoff-Aufnahme durch die Pflanzen und beurteilen die ökonomischen und betrieblichen Vor- und Nachteile.
Bislang führen alle getesteten Techniken zu vergleichbaren Erträgen, sowohl beim Kornertrag des Winterweizens als auch bei der Biomasse-Produktion des Grünlands, unterscheiden sich aber in ihren Ammoniakemissionen. So könnten gerade bei wachsenden Kulturen innovative, emissionsarme Techniken dazu beitragen, den Nährstoffbedarf der Kulturen optimal zu bedienen und Stickstoffdünger einzusparen. Durch die Reduzierung von klima- und umweltbelastenden Emissionen im Pflanzenbau leisten sie zudem einen wichtigen Beitrag zum Umwelt- und Klimaschutz.
Ziel: Ableitung von Düngeempfehlungen für möglichst viele Standorte
Übergeordnetes Ziel von GülleBest ist es, aus den gewonnenen Daten Düngeempfehlungen für organische Dünger bei unterschiedlichen Bodenbeschaffenheiten und Standortseigenschaften für Winterweizen und Grünland ableiten zu können. „Durch die Vorgaben der 2017 in Kraft getretenen Düngeverordnung verlagert sich die Ausbringung zunehmend ins Frühjahr und in bereits mit Pflanzen bewachsene Felder, beispielsweise mit Wintergetreide“, sagt Dr. Ruser. „Dadurch können flüssige Wirtschaftsdünger nicht in den Boden eingearbeitet werden, und die Gefahr erhöhter Ammoniakemissionen steigt.“
Weitere Informationen:
Projekt-Website: https://www.guellebest.de/
Expertenliste Precision Farming / Smart Farming / Farming 4.0 / Landwirtschaft 4.0: https://www.uni-hohenheim.de/expertenliste-precision-farming
Expertenliste Klimawandel: https://www.uni-hohenheim.de/expertenliste-klimawandel
HINTERGRUND: „Minderung von Ammoniak- und Treibhausgasemissionen und Optimierung der Stickstoffproduktivität durch innovative Techniken der Gülle- und Gärresteausbringung in wachsende Bestände“ – GülleBest
Ziel des Verbundprojektes GülleBest ist es, innovative und emissionsarme Ausbringungstechniken zu untersuchen, um Düngeempfehlungen für unterschiedliche Bodenbeschaffenheiten, Nutzpflanzen und organische Dünger treffen zu können.
Am Projekt beteiligt sind neben den Hohenheimer Forschenden die Christian-Albrechts-Universität zu Kiel, die Hochschule Osnabrück und die Samson Agro A/S. Die Gesamtkoordination liegt beim Thünen-Institut in Braunschweig. Projektstart war am ersten September 2018, das voraussichtliche Ende wird der 31. März 2022 sein.
Für das vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) über die Bundesanstalt für Landwirtschaft und Ernährung (BLE) mit etwa 1,7 Millionen Euro geförderte Verbundprojekt erhält die Universität Hohenheim gut 360.000 Euro an Fördermitteln.
HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.
Mehr Schwergewichte der Forschung: https://www.uni-hohenheim.de/drittmittelstarke-forschungsprojekte
Kontakt für Medien:
Dr. Reiner Ruser, Universität Hohenheim, Fachgebiet Düngung und Bodenstoffhaushalt,
T +49 (0)711 459-23291, E Reiner.Ruser@uni-hohenheim.de
Zu den Pressemitteilungen der Universität Hohenheim
http://www.uni-hohenheim.de/presse
Neue Studie aus Bayreuth: Vermeintlich gleichartige Mikroplastik-Partikel zeigen unterschiedlich hohe Toxizität
Christian Wißler Pressestelle
Universität Bayreuth
Weltweit befassen sich immer mehr Studien mit Auswirkungen von Mikroplastik, vor allem im Hinblick auf die Umwelt und die Gesundheit. Oft verwenden sie kugelförmige Polystyrol-Mikropartikel und sind dabei zu teilweise widersprüchlichen Ergebnissen gelangt. Ein interdisziplinäres Forschungsteam der Universität Bayreuth hat einen Grund dafür entdeckt: Handelsübliche, vermeintlich gleiche Polystyrol-Teilchen unterscheiden sich je nach Hersteller signifikant in Bezug auf ihre Strukturen und Eigenschaften. Deshalb haben ihre Wechselwirkungen mit lebenden Zellen unterschiedliche Folgen für den Zellstoffwechsel. Im Journal of Hazardous Materials stellen die Wissenschaftler*innen ihre Studie vor.
Die neuen Forschungsergebnisse wurden exemplarisch an Modellzelllinien von Mäusen gewonnen. „Unsere Studie zeigt eindrucksvoll, wie problematisch es ist, verallgemeinernde Aussagen über gesundheitliche oder ökologische Auswirkungen von Mikroplastik machen zu wollen. Wenn gleich große Partikel des gleichen Kunststofftyps in der gleichen Form bei vertieften Analysen überraschende chemische und physikalische Unterschiede aufweisen und wenn sich diese Unterschiede auf Interaktionen mit lebenden Zellen auswirken – dann ist Vorsicht gegenüber voreiligen Schlussfolgerungen geboten“, sagt Prof. Dr. Christian Laforsch, Sprecher des SFB Mikroplastik an der Universität Bayreuth.
„Unsere Befunde enthalten klare Hinweise darauf, dass die in Wirkungsstudien derzeit gern verwendeten Polystyrol-Mikropartikel bisher nur schlecht charakterisiert sind. Weil hochrelevante Unterschiede unentdeckt blieben, haben widersprüchliche Ergebnisse, die unter vermeintlich gleichen Bedingungen erzielt wurden, der Forschung Rätsel aufgegeben. Künftig werden wir in Bayreuth die in unseren Versuchen eingesetzten Mikropartikel noch genauer unter die Lupe nehmen. Die Replizierbarkeit von Experimenten muss in der Mikroplastik-Forschung höchste Priorität haben – gerade wenn es um die Untersuchung gesundheitlicher Auswirkungen geht“, ergänzt Anja Ramsperger, eine der Erstautor*innen der Studie.
Die deutlichen Unterschiede zwischen handelsüblichen Polystyrol-Partikeln, die von verschiedenen Herstellern stammen, betreffen zunächst ihren Gehalt an Monomeren. Diese Grundbausteine der langkettigen Kunststoffmoleküle, die bei der Herstellung der Kunststoffe verkettet werden, können schädlich auf Zellen oder Organismen wirken. Weitere Unterschiede betreffen die elektrische Ladungsverteilung an der Oberfläche der Partikel, das sogenannte Zeta-Potenzial. Die Experimente wurden im Rahmen des SFB 1357 Mikroplastik in Laboratorien der Universität Bayreuth und des Leibniz-Instituts für Polymerforschung in Dresden durchgeführt. Die Ergebnisse zeigen eindeutig: Wenn Polystyrol-Mikropartikel mit einem höheren Zeta-Potenzial und einer einheitlichen Ladungsverteilung an der Oberfläche in Kontakt mit lebenden Zellen gebracht werden, kommt es zu weitaus häufigeren Interaktionen als bei der Verwendung anderer Polystyrol-Mikropartikel. Im Zuge häufiger Wechselwirkungen können vergleichsweise viele Partikel in die Zellen gelangen. Hier beeinträchtigen sie den Stoffwechsel und die Vermehrung der Zellen – vor allem dann, wenn die Partikelkonzentrationen hoch sind.
„Mittlerweile gibt es zahlreiche toxikologische Studien, die den Auswirkungen von Mikroplastik auf lebende Organismen auf die Spur kommen wollen. Aber erst wenn wir die chemische Zusammensetzung und die Oberflächeneigenschaften der dabei verwendeten Partikel im Detail kennen, lassen sich diese Studien wissenschaftlich vergleichen. Nur auf dieser Basis wird es möglich sein, die Eigenschaften zu entschlüsseln, die bestimmte Arten von Mikroplastik für die Umwelt und den Menschen potenziell gefährlich machen“, betont Ramsperger.
Die neue Studie beruht auf einer engen interdisziplinären Kooperation im DFG-Sonderforschungsbereich 1357 Mikroplastik an der Universität Bayreuth. Die beteiligten Autor*innen forschen und lehren auf Gebieten der Tierökologie, der Biomaterialforschung, der Bioprozesstechnik, der Biophysik und der Anorganischen Chemie. Weiterer Forschungspartner im Rahmen des SFB war das Leibniz-Institut für Polymerforschung in Dresden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Laforsch
Tierökologie I
Sprecher des SFB 1357 “Mikroplastik”
Universität Bayreuth
Telefon: +49 (0)921 55- 2651
E-Mail: christian.laforsch@uni-bayreuth.de
Originalpublikation:
A.F.R.M. Ramsperger, J. Jasinski, M. Völkl et al.: Supposedly identical microplastic particles substantially differ in their material properties influencing particle-cell interactions and cellular responses. Journal of Hazardous Materials (2021), DOI: https://doi.org/10.1016/j.jhazmat.2021.127961
Damit Fondue-Fleisch nicht krank macht
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Lebensmittelbedingte Infektionen mit Campylobacter-Bakterien lassen sich durch gute Küchenhygiene vermeiden
Fleisch-Fondue oder Raclette-Essen mit gleichzeitiger Zubereitung von rohem Fleisch, frischem Gemüse und verschiedenen Saucen sind in der kalten Jahreszeit beliebt. Dabei können aber im rohen Fleisch vorhandene Krankheitserreger auf verzehrfertige Lebensmittel übergehen, wenn sie auf demselben Teller liegen oder mit demselben Besteck in Kontakt kommen. Am Essenstisch und bei der Zubereitung in der Küche sollte beim Umgang mit rohen Lebensmitteln vom Tier auf eine gute Küchenhygiene geachtet werden. Dazu hat das Bundesinstitut für Risikobewertung (BfR) in einem Merkblatt zum Schutz vor lebensmittelbedingten Infektionen mit Campylobacter und anderen Lebensmittelkeimen Verbrauchertipps veröffentlicht. Damit weist das BfR zum Schutz vor Infektionen nochmals auf die Notwendigkeit der Lebensmittelhygiene hin: „Durch konsequentes Trennen von rohem Fleisch, vor allem von Geflügel, und Lebensmitteln, die ohne weiteres Erhitzen verzehrt werden, lassen sich Campylobacter-Infektionen vermeiden“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Zur guten Küchenhygiene gehört außerdem konsequentes Reinigen von Händen, Küchenutensilien und Zubereitungsflächen nach Kontakt mit rohen Lebensmitteln vom Tier und vor der Zubereitung weiterer Bestandteile einer Mahlzeit.“ Eine Infektion mit Campylobacter-Keimen ist die häufigste gemeldete lebensmittelbedingte bakterielle Erkrankung in Deutschland und in der EU. In Deutschland wurden im Jahr 2020 insgesamt 46.519 Fälle registriert. Besonders häufig infizieren sich kleine Kinder und junge Erwachsene. Die Folge sind Durchfallerkrankungen, in Einzelfällen aber auch schwerwiegende Nervenerkrankungen oder Gelenkentzündungen.
Auch die europäischen Behörden richten ihr besonderes Augenmerk auf die Häufigkeit von Campylobacter-Erkrankungen des Menschen, beispielsweise im Bericht zur Zoonosensituation in der EU im Jahr 2019. Die Campylobacteriose ist seit Jahren europa- und deutschlandweit die am häufigsten gemeldete bakterielle lebensmittelbedingte Erkrankung, wobei sich der Infektionstrend in den Jahren 2015 bis 2019 stabilisiert hat. Infektionen mit Campylobacter-Bakterien treten vermehrt in den Sommermonaten auf. Auch Deutschland verzeichnete im Jahr 2020 wie in den Vorjahren einen saisonalen Verlauf mit den höchsten Fallzahlen in den Monaten Juni bis September. Darüber hinaus zeigt sich ein jährlich wiederkehrender kurzzeitiger Anstieg der Fallzahlen am Jahresanfang. In einer kürzlich veröffentlichten Studie konnte das Robert Koch-Institut (RKI) einen Zusammenhang zwischen Campylobacter-Enteritis-Erkrankungen nach Weihnachten und Silvester und Fleischfondue- oder Raclette-Essen an den Feiertagen zeigen, insbesondere, wenn Hühnerfleisch angeboten wurde.
Campylobacter-Bakterien kommen weltweit bei Haus- und Nutztieren sowie in der Umwelt vor. Sie gelangen oft bereits beim Melken oder Schlachten auf die Lebensmittel. Besonders häufig wird Campylobacter in rohem Geflügelfleisch nachgewiesen. Aber auch andere rohe oder unzureichend erhitzte Lebensmittel vom Tier können den Erreger enthalten, z. B. Hühnereier, Rohmilch und Rohfleischerzeugnisse wie Hackepeter (Mett). Durch mangelnde Küchenhygiene können die Bakterien bei der Zubereitung auch auf andere Lebensmittel gelangen und ggf. nach Verzehr dieser zu einer Erkrankung führen. Schon sehr geringe Mengen an Campylobacter-Keimen können beim Menschen Darminfektionen verursachen, die typischerweise mit Bauchschmerzen und Durchfall einhergehen. Als seltene Komplikationen können auch Nervenerkrankungen (Guillain-Barré-Syndrom) und Gelenkentzündungen auftreten.
Um dem Verzehr von mit Campylobacter kontaminierten Lebensmitteln vorzubeugen, sollte in der Küche darauf geachtet werden, dass es zu keiner Verschleppung von Keimen, also einer Kreuzkontamination kommt. Als Kreuzkontamination wird die Keimübertragung von einem meist rohen Lebensmittel auf ein anderes Lebensmittel bezeichnet. Die Bakterien können direkt von einem Lebensmittel auf das andere übergehen, wenn diese unverpackt in Kontakt kommen. Möglich ist aber auch die indirekte Übertragung über Hände, Geräte, Arbeitsflächen, Messer oder andere Küchenutensilien. Beispielsweise können Bakterien von ungegartem Fondue-Fleisch auf gegartes Fleisch oder fertigen Salat übertragen werden, wenn das Besteck und der Teller nicht gewechselt werden.
Da Campylobacter-Keime nicht zum Verderb der Lebensmittel führen, lässt sich ihr Vorkommen weder am Aussehen noch am Geruch einer Speise erkennen. Wie die meisten Lebensmittelinfektionserreger lässt sich Campylobacter durch Erhitzen abtöten, also durch Kochen, Braten oder Pasteurisieren. Voraussetzung ist, dass für mindestens zwei Minuten eine Temperatur von 70 °C im Kern des Lebensmittels erreicht wurde. Das Tiefgefrieren von Lebensmitteln kann Campylobacter hingegen nicht vollständig abtöten, sondern nur die Anzahl der Keime reduzieren.
Das Merkblatt „Schutz vor lebensmittelbedingten Infektionen mit Campylobacter“ steht auf der Internetseite des BfR zur Verfügung und kann zudem auch kostenfrei bestellt werden:
http://www.bfr.bund.de/cm/350/verbrauchertipps-schutz-vor-lebensmittelbedingten-…
Das BfR hat zum Thema Küchenhygiene zudem zwei Videoclips „Was tun mit dem Huhn?“ und „Dem Keim auf der Spur“ veröffentlicht:
http://www.bfr.bund.de/de/was_tun_mit_dem_huhn_-191706.html?current_page=1
https://www.bfr.bund.de/de/dem_keim_auf_der_spur-202987.html?current_page=1
Bericht der EFSA und ECDC:
https://www.ecdc.europa.eu/sites/default/files/documents/zoonoses-EU-one-health-…
Presseinformation zur RKI-Studie zu Campylobacter-Enteritis-Erkrankungen nach Weihnachten und Silvester:
https://www.rki.de/DE/Content/InfAZ/C/Campylobacter/Presseinfo_2021_11_26.html
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Max-Planck-Institut Magdeburg begleitet die Verwirklichung eines realen Power-to-X Systems
Gabriele Ebel M.A. Presse- und Öffentlichkeitsarbeit / Public Relations
Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg
In dem Modellprojekt „Energieregion Staßfurt“ soll Wasserstoff aus grünem Strom vor Ort erzeugt und genutzt werden. Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg begleiten das Projekt, in Kooperation mit dem Fraunhofer IFF Magdeburg. Sie werden unter wissenschaftlichen Gesichtspunkten eine geeignete Elektrolysetechnologie auswählen und ihr Verhalten im zukünftigen realen Betrieb mathematisch modellieren sowie Alterungserscheinungen in Elektrolyseuren analysieren.
Die „Energieregion Staßfurt“, gelegen im Salzlandkreis in Sachsen-Anhalt, ist ein klimafreundliches Leuchtturmprojekt. Für das Wasserstoff-Projekt haben sich die Stadt Staßfurt, die Stadtwerke Staßfurt, der Energielieferant Erdgas Mittelsachsen und das Energieunternehmen MVV in der „Wasserstoff-Region“ Salzlandkreis zusammengeschlossen. Ziel ist es, die gesamte Wertschöpfungskette regional abzubilden: von der Stromerzeugung aus erneuerbaren Energien in lokalen Wind- und Photovoltaikparks bis hin zur Nutzung des klimafreundlich hergestellten Wasserstoffs. Ein bestehender nahegelegener Windpark soll um Windenergieanlagen erweitert und ggf. durch Photovoltaikanlagen bei steigendem Wasserstoffbedarf ergänzt werden.
Der grüne Wasserstoff soll durch ein Wasser-Elektrolyse-System mit 1 Megawatt Leistung am Standort in Staßfurt gewonnen werden. Der Strom aus den eigenen Wind- und Solarparks wird dabei in reinen Wasserstoff umgewandelt (Power-to-X). Der Elektrolyseur wird in diesem Projekt ausschließlich und kontinuierlich durch den Windpark mit grünem Strom betrieben. Mit dem grünen Wasserstoff aus der Region sollen zukünftig Linienbusse und Abfallsammelfahrzeuge angetrieben werden. Darüber hinaus sind eine oder mehrere Wasserstoff-Tankstellen für die öffentliche Nutzung vorgesehen.
Geeignete Elektrolysetechnologie betrachten und auswählen
Bei der Planung und technischen Auslegung der Elektrolyseanlage kommt die wissenschaftliche Expertise des Max-Planck-Instituts Magdeburg ins Spiel. Die Wissenschaftlerinnen und Wissenschaftler der Abteilung Prozesstechnik (PSE, Leitung: Prof. Dr.-Ing. Kai Sundmacher) werden unter wissenschaftlichen Gesichtspunkten eine geeignete Elektrolysetechnologie auswählen. In enger Abstimmung mit dem Energieunternehmen MVV werden die Einsatzszenarien und Betriebsbedingungen der Elektrolyseanlage definiert. Zwei unterschiedliche Technologien für die Niedrigtemperaturelektrolyse sollen systematisch betrachtet werden und schließlich in eine Auswahlempfehlung münden.
Die Betriebsdynamik des gesamten Elektrolysesystems soll mit Hilfe von Simulationen genauer untersucht werden. Dafür wird ein mathematisches Modell der Elektrolyseanlage in einer geeigneten Softwareumgebung entwickelt.
Sicheren und stabilen Betrieb bei optimalem Wirkungsgrad gewähren
Während ihrer gesamten Lebensdauer soll eine Elektrolysezelle sicher und stabil betrieben werden können – bei einem optimalen Wirkungsgrad. Dennoch wird die Zelle, abhängig von den Betriebsbedingungen, zu einem gewissen Grad altern. Die Wissenschaftlerinnen und Wissenschaftler aus der Forschungsgruppe Elektrochemische Energieumwandlung (EEC, Leitung: Dr.-Ing. Tanja Vidaković-Koch) konzentrieren sich daher darauf, die Rolle von Alterungsphänomenen in Elektrolyseuren während des Betriebs besser zu verstehen. Dafür setzt die Gruppe innovative nichtlineare dynamische Diagnose-Methoden ein, die zusätzliche Einblicke in die Mikroprozesse, die in der Zelle ablaufen, ermöglichen.
Grundlagen für ein reales Power-to-X-Projekt schaffen
Die wissenschaftliche Vorauswahl der Elektrolysetechnologie durch die PSE Forschungsgruppe des Max-Planck-Instituts Magdeburg legt die Grundlage für die später zu installierende Anlage in Staßfurt. Die Forschungsergebnisse aus der dynamischen Simulation der Elektrolyseanlage werden verwendet, um das Verhalten der Anlage im realen Betrieb schon in der technischen Planungs- und Auslegungsphase zu berücksichtigen.
In einer nachfolgenden zweiten Förderperiode sollen die gewonnenen Erkenntnisse am Praxisbeispiel der „Energieregion Staßfurt“ angewendet und erprobt und somit in ein reales Power-to-X-System überführt werden.
Zudem wird das Modell für den Entwurf von optimalen Betriebsführungsstrategien der realen Elektrolyseanlage eingesetzt. Weiterhin könnten die von der EEC-Gruppe entwickelten dynamischen Methoden in der zukünftigen Elektrolyseanlage vor Ort angewendet werden, um Alterungsprozesse im realen Betrieb zu untersuchen.
Darüber hinaus unterstützen die Wissenschaftlerinnen und Wissenschaftler der Gruppe Prozesstechnik die Erdgas Mittelsachsen GmbH bei der Entwicklung und Realisierung eines Regelungssystems zur sicheren und netzverträglichen Beimischung von Wasserstoff in das Erdgasnetz.
Das Forschungsprojekt wird von der Landesinvestitionsbank Sachsen-Anhalt mit 1 Million Euro bis Ende 2022 gefördert.
Weitere Informationen:
https://www.mpi-magdeburg.mpg.de/pm-power-to-x-elektrolyse
https://www.stassfurt.de/de/wirtschaftsstandort/energieregion-stassfurt.html
TU Berlin forscht an 6G-Mobilfunknetz
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Die Fakultät Elektrotechnik und Informatik der TU Berlin erhält 13 Millionen Euro vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen seines Forschungs-Hubs „6G Research and Innovation Cluster“ (6G-RIC)
Das Funknetz 6G wird voraussichtlich ab 2030 das zentrale Nervensystem unseres vernetzten Lebens bilden und es ermöglichen, Daten bis zu tausendmal schneller zu übertragen als mit 5G, bei gleichzeitig höherer Energieeffizienz und Ausfallsicherheit. Damit Deutschland bei dieser Technologie nicht in Abhängigkeit von anderen kommt, will das BMBF schon heute die technologischen Grundlagen für 6G und dessen Anwendung legen. Dazu hat es im Rahmen seiner 6G-Forschungsinitiative vier Hubs gegründet. Beim Hub 6G-RIC sind insgesamt neun Fachgebiete aus der Fakultät Elektrotechnik und Informatik der TU Berlin beteiligt. Sein Ziel ist es, wissenschaftlich-technische Grundlagen für die nächste Generation der Mobilfunknetze über alle Technologieebenen hinweg zu schaffen.
Es ist der Vorstoß in einen neuen Wellenlängen-Bereich: Während die Frequenzen von 5G zwischen drei und 30 Gigahertz (GHz) liegen, sollen für 6G zusätzlich hohe Frequenzen bis in den Terahertz-Bereich genutzt werden. „Dies führt zu größeren Bandbreiten und somit auch zu höheren Übertragungsraten, die neue Anwendungen erschließen. Die Möglichkeit, durch die Nutzung größerer Bandbreiten mehr Redundanz zu schaffen, erhöht zudem die Ausfallsicherheit des Netzes.“, erklärt Prof. Dr.-Ing. Slawomir Stanczak. Er leitet die „Network Information Theory Group“ am Institut für Telekommunikationssysteme der TU Berlin und die Abteilung „Wireless Communications and Networks“ am Fraunhofer Heinrich-Hertz-Institut (HHI). Zudem koordiniert er den Forschungs-Hub 6G-RIC.
Mensch und Maschine Hand in Hand
Die hohen Frequenzen werden völlig neue Anwendungen ermöglichen, wie Telepräsenz und gemischte Realitäten, in denen die reale mit der virtuellen Welt verknüpft wird. Außerdem der Einsatz von mobilen Roboter-Schwärmen sowie hochspezialisierte Anwendungen, etwa in der Telemedizin, der Landwirtschaft oder in der Produktion. „Insbesondere werden Anwendungen möglich, bei denen Maschinen und Menschen bei riskanten Aufgaben zeitgleich zusammenarbeiten“, sagt Stanczak. „Stellen Sie sich vor, Service-Roboter helfen bei der Versorgung von pflegebedürftigen Menschen oder bei der Begleitung von Pflegepersonen“, beschreibt Stanczak einen potenziellen Anwendungsfall. „Oder mobile Roboter-Schwärme unterstützen Menschen bei der Feldarbeit.“ All diese Arbeiten würden durch mobile Datenübertragung erleichtert, benötigten aber neue Lösungen mit blitzschnellen Reaktionszeiten. „6G ist das Netz der Mensch-Maschine-Kollaboration“, erklärt Slawomir Stanczak.
Digitale Zwillinge und weltweite Netzabdeckung
Eine weitere Anwendung der 6G-Technik werden sogenannte Digitale Zwillinge sein, also exakte virtuelle Abbilder von realen Objekten und Vorgängen. Die Abläufe etwa in zukünftigen Fabriken könnten so schnell sein, dass ein direktes Eingreifen von Menschen zu gefährlich ist. Mit VR-Brille und anderen Hilfsmitteln könnte aber ein Digitaler Zwilling der Fabrik problemlos begangen werden und Technikern hilfreiche Einblicke geben. 6G kann hier wieder durch die drahtlose, schnelle Datenübertragung und die kurzen Reaktionszeiten punkten. Ein weiteres Ziel von 6G ist eine weltumspannende Netzabdeckung durch Schwärme von Nanosatelliten, die etwa die Versorgungslage mit schnellen Datenverbindungen auf dem afrikanischen Kontinent wesentlich verbessern könnten.
Stärkere Dämpfung der Wellen als Vor- und Nachteil
Es ist ein physikalisches Gesetz, dass hochfrequente Wellen, die häufig zwischen ihren Wellenbergen und -tälern wechseln, auch stärker mit dem sie umgebenden Medium wechselwirken und sich dabei abschwächen. „Dieses als Dämpfung bekannte Phänomen ist Fluch und Segen zugleich“, sagt Slawomir Stanczak. Die Verluste in der Luft führten dazu, dass die Wellen stärker auf ihre Zielobjekte fokussiert werden müssten. Komplexe Systeme aus vielen Einzelantennen müssen dazu angesteuert und sich bewegende Objekte zudem aufwendig nachverfolgt werden. Zudem wirkt sich der störende Dopplereffekt (sich bewegende Sender drücken ihre ausgesandten Wellen zusammen oder ziehen sie auseinander) bei hohen Frequenzen besonders stark aus. Auf der anderen Seite sei die Dämpfung aber auch ein Vorteil, so Stanczak. Denn die ihretwegen wesentlich stärker zielgerichteten Signale seien auch schwerer von anderer Seite abzuhören. „Außerdem sind breitbandige Signale schwieriger zu stören, was das Militär schon seit langem ausnutzt“, erzählt Stanczak.
Technologische Souveränität Europas sicherstellen
Diesen Herausforderungen stelle sich 6G-RIC vor allem durch intensive Grundlagenforschung zur Signalverarbeitung, sagt Slawomir Stanczak. Weil die herkömmliche Digitaltechnik hier an ihre Grenzen stoße, werde zum einen mehr auf analoge Technik wie zu Beginn des Informationszeitalters gesetzt. „Heute ist es allerdings auch möglich, mit Hilfe von Künstlicher Intelligenz das Verhalten von analoger Hardware digital zu simulieren.“ Letztlich also so etwas wie die informationstechnische Quadratur des Kreises. Was am Ende entstehen soll: Eine flexible Technologieplattform mit offenen Schnittstellen, die Anreize schafft für Start-Ups und neue Lieferanten von Technik-Komponenten. So kann auch schon die Hardware auf branchenspezifische Lösungen zugeschnitten werden, etwa für Hafenanlagen, Land- und Forstwirtschaft, vernetzte Mobilität und industrielle Anwendungen. „Wenn wir heute die Grundlagen legen, haben wir die Chance, mit 6G an die Weltspitze zu kommen und die technologische Souveränität Europas in diesem Bereich sicherzustellen“, sagt Stanczak. „Dies kann in einer Welt mit ständig wechselnden Rahmenbedingungen nur von Vorteil sein.“
Die neun Fachgebiete aus der Fakultät Elektrotechnik und Informatik bei 6G-RIC im Einzelnen:
• Das Fachgebiet für Kommunikations- und Informationstheorie (TUB-CommIT), geleitet von Alexander von Humboldt Professor Giuseppe Caire, bringt seine weitreichende Expertise in der informationstheoretischen Beschreibung drahtloser Kommunikation ein.
• Das Fachgebiet Mixed Signal Circuit Design (TUB-MSC), geleitet von Prof. Friedel Gerfers, verfügt über ein breites Spektrum an Vorarbeiten im Bereich energieeffizienter HF-Schaltungen und Systeme.
• Das Fachgebiet Security in Telecommunications (TUB-SecT), geleitet von Prof. Jean-Pierre Seifert, bringt umfangreiche Vorarbeiten zu Grundlagen für Sicherheit und Zuverlässigkeit in Telekommunikationssystemen ein.
• Das Fachgebiet Telekommunikationsnetze (TUB-TKN), geleitet von Prof. Falko Dressler, erforscht Methoden der Drahtloskommunikation mit Fokus auf WLAN, 5G und 6G sowie Visible Light Communication.
• Das Fachgebiet Netzwerkinformationstheorie (TUB-NetIT) von Prof. Slawomir Stanczak verfügt über weitreichende Kompetenz im Bereich Informationstheorie, drahtloser Kommunikation, Signalverarbeitung, Physical Layer Security sowie Over the Air Computation mit Anwendungen im maschinellen Lernen.
• Das Fachgebiet Hochfrequenzsysteme (TUB-HFS) von Prof. Wilhelm Keusgen beschäftigt sich mit der Mikrowellen- und Höchstfrequenztechnik mit starken Bezügen zur System- und Nachrichtentechnik.
• Das Fachgebiet Data Communications and Networking (TUB-DCN) von Prof. Stefan Schmid
• Das Fachgebiet Regelungssysteme (TUB-Control) von Prof. Jörg Raisch
• Der Lehrstuhl für Photonische Kommunikationssysteme (TUB-PKS) von Prof. Ronald Freund mit langjähriger Erfahrung in der Optimierung optischer Übertragungssysteme
Weiter Auskünfte erteilt Ihnen gern:
Prof. Dr.-Ing. Slawomir Stanczak
Technische Universität Berlin
Fakultät Elektrotechnik und Informatik
Fachgebiet Netzwerk-Informationstheorie
E-Mail: slawomir.stanczak@tu-berlin.de
Tel.: + 49 30 31002 702
Klimapolitik: Wie man den Emissionshandel vor preisverzerrender Finanzspekulation schützen kann
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Der CO2-Emissionshandel – ein Schlüsselelement der europäischen Klimapolitik – kann vor Verzerrungen durch Finanzspekulanten geschützt werden, wie eine neue Untersuchung zeigt. Der Preis für CO2-Emissionszertifikate im Rahmen des EU-Systems hat sich im Laufe dieses Jahres zwischenzeitlich fast verdreifacht und schwankt nun so stark wie noch nie. Zunehmend werden Finanzspekulationen für diese Preisentwicklung verantwortlich gemacht, aber es fehlt der Nachweis, ob Spekulation tatsächlich das Funktionieren des Handelssystems gefährden kann. Die Forschenden schlagen nun Methoden zum Erkennen von preisverzerrender Spekulationen und Verbesserungen bei der Marktaufsicht vor.
„Während einige Akteure die Risiken durch Finanzspekulation übertreiben, nicht zuletzt wegen der politischen Auswirkungen hoher CO2-Preise, spielen andere es herunter, was oft ebenfalls politisch motiviert ist“, so Michael Pahle, der mit Simon Quemin Autor des neuen Berichts ist, er ist Ökonom am Potsdam-Institut für Klimafolgenforschung. Die derzeitige hitzige Debatte gipfelte bereits in der Forderung Spaniens und Polens, Spekulationen durch die Europäische Wertpapier- und Marktaufsichtsbehörde (ESMA) zu überprüfen.
+++Zahl der neuen Finanzakteure im Emissionshandel hat sich in nur drei Jahren verdreifacht+++
Für ihre eigene Untersuchung greifen die Forscher auf Daten zurück, die im Rahmen der EU-Finanzmarktverordnung seit 2018 erhoben werden. Sie überwacht die so genannten Termin-Kontrakte; diese sind für Spekulation das Finanzprodukt der Wahl, weil sie schnell und häufig gehandelt werden und nicht direkt von den Regulierungsbehörden des Emissionshandelssystems überwacht werden. Die Daten zeigen, dass sich die Zahl der neuen Finanzakteure, hauptsächlich Investmentfonds, in den letzten drei Jahren mehr als verdreifacht hat. Die Zahle der Akteure allein gibt jedoch keinen Aufschluss darüber, inwieweit sich deren Handel auf die Preisbildung auswirkt.
Um diese Frage zu beantworten, haben die Autoren eine Methode entwickelt, mit der sie das Verhalten der Finanzakteure auf dem CO2-Markt nach deren Handelsmotiven gruppieren, und in unterschiedliche Marktfunktionen einteilen: Einerseits nützliche Spekulation, insbesondere Absicherungen, das sind Vertragsgeschäfte, die es regulierten Unternehmen ermöglichen, das Risiko unsicherer künftiger Kohlenstoffpreise auszulagern. Andererseits schädliche Spekulation, die zu übermäßigen Preisschwankungen führen kann, zu Preisblasen und möglicherweise zu einem strategischen Horten von Zertifikaten durch große Investmentfonds, um die Preise zu treiben. Diese Risiken werden mit der Zeit zunehmen, da die Emissions-Zertifikate auf dem Markt zwangsläufig knapper werden müssen – der Ausstoß an CO2 soll sinken, das hat die Politik vorgegeben
+++Regulierer können Datenqualität und Diagnostik verbessern und Behörde zur Marktaufsicht schaffen+++
„Um sich auf dieses Risiko vorzubereiten, können Regulierer drei Dinge tun. Erstens müssten sie die Datenverfügbarkeit und -qualität erhöhen, um die neuen Formen des Handels genauer erfassen zu können. Zweitens sollten sie ihre Diagnostik verbessern, indem sie Methoden wie die von uns vorgeschlagenen benutzen, um schädliche Spekulation früher und besser erkennen zu können. Drittens sollten sie eine spezielle Marktaufsichtsbehörde schaffen, die Umwelt- und Finanzmarktgesichtspunkte integriert betrachtet“, so Simon Quemin. „Die Analyse der Spekulation auf anderen Rohstoffmärkten kann als Vergleichsmaßstab dienen. Auf diese Weise könnte die neue Behörde evidenzbasierte Maßnahmen ergreifen und die Spekulation eindämmen, wenn dies gerechtfertigt ist.“
Maßnahmen in diese Richtung sind enorm wichtig, da bloßes Abwarten tiefgreifende Folgen für die regulierte Wirtschaftszweige und für die Verbraucher haben kann. „Wenn wir der Spekulation freien Lauf lassen, kann dies früher oder später das Funktionieren der Märkte für CO2-Emissionszertifikate untergraben“, erklärt Michael Pahle. „Wenn wir hingegen jetzt eine bessere Überwachung und integrierte Regulierung einführen, kann dies das EU-Emissionshandelssystem vor exzessiven Finanzspekulationen schützen und so den Weg für eine strengere und robustere Kohlenstoffbepreisung ebnen – auch in anderen Emissionshandelssystemen weltweit, wie in den USA und China. „
Weblink zum Papier, sobald es veröffentlicht ist: https://www.ssrn.com/index.cfm/en
Originalpublikation:
Arbeitspapier: Simon Quemin, Michael Pahle (2021): Financials threaten to undermine the functioning of emissions allowance markets. Social Science Research Network [DOI wird erst am Mittwoch zugeordnet]
Weitere Informationen:
Auf Anfrage kann die Manuskript-Fassung zur Verfügung gestellt werden.
Aufbruchsstimmung im deutschen Gesundheitswesen
Katrin Schubert Pressestelle
Universität Witten/Herdecke
ATLAS-Projekt der Universität Witten/Herdecke präsentiert Trendstudie zur Zukunft der Gesundheitswirtschaft
Die digitale Revolution des Gesundheitswesens ist in vollem Gange. Künstliche Intelligenz (KI), das Internet der medizinischen Dinge (IoMT), Robotik, 3D-Druck und Big Data entfesseln enorme Kräfte für einen fundamentalen Transformationsprozess. Das Forschungsteam des „ATLAS Digitale Gesundheitswirtschaft“ der Universität Witten/Herdecke (UW/H) beschreibt in einer aktuellen Studie, welche Umwälzungen und Herausforderungen sich für Industrie, Krankenkassen und Leistungserbringer im Gesundheitswesen abzeichnen.
Für die Analyse hat das ATLAS-Team auf Basis von Experteninterviews, internationalen Studien und Beispielen aus Nordrhein-Westfalen, Deutschland und der Welt digitale Transformationsfelder der Gesundheitswirtschaft identifiziert und daraus Handlungs- und Strategieempfehlungen abgeleitet. „Die Trendstudie beschreibt eine Aufbruchsstimmung im deutschen Gesundheitswesen“, sagt Projektleiterin Prof. Dr. Sabine Bohnet-Joschko, „und sie gibt einen Einblick in die Breite und Tiefe der Expertise, die im deutschen Gesundheitswesen bereits vorhanden ist und Ausgangspunkt für die erfolgreiche Mitgestaltung der digitalen Transformation darstellt.“
Das Ergebnis ist eine 56-Seiten starke Trendstudie mit dem Titel „KOOPERATIV & VERNETZT – Digitale Transformationsfelder der Gesundheitswirtschaft“, die Interessierten unter https://www.atlas-digitale-gesundheitswirtschaft.de/projekt/trendstudie/ zum Download zur Verfügung steht.
NRW-Wirtschaftsminister Prof. Andreas Pinkwart ordnet in seinem Vorwort zur Studie ein: „Die Bedürfnisse einzelner Stakeholder in der Gesundheitswirtschaft zu kennen, aber auch von ihnen im Hinblick auf Trends und Innovationspotential zu lernen, ist ein wichtiges Anliegen.“ Er ergänzt und lobt: „Die Digitalisierung der Gesundheitswirtschaft braucht den dynamischen Wissenstransfer zwischen Wissenschaft und Wirtschaft. Von ATLAS ITG gehen dazu wichtige Impulse aus.“
Die identifizierten Trends sind dabei eindeutig
Das Gesundheitswesen der Zukunft fordert von allen Beteiligten eine Stärkung der Kooperationsfähigkeit, auch über Sektoren- und Versorgungsgrenzen hinweg. So kann beispielsweise eine durch Künstliche Intelligenz unterstützte mobile Ultraschallbehandlung dazu beitragen, klinische Workflows effizienter zu gestalten. Auch im Hinblick auf Datenschutzbelange bieten sich direkte Kooperationen zwischen Kostenträgern, Leistungserbringern und Entwicklern der Software an.
Gleichzeitig gewinnt die Patientenperspektive im Behandlungspfad an Bedeutung. Expertinnen und Experten sehen speziell in der Integration patientengenerierter gesundheitsbezogener Daten – insbesondere über Smartwatches und andere Wearables – große Chancen für Diagnostik und Therapie, aber auch für die Forschung.
Da für den gesamten Prozess der digitalen Transformation kompetentes Fachpersonal, darunter insbesondere Schnittstellenprofis zwischen verschiedenen Professionen und der IT, gebraucht wird, kann es erfolgsversprechend sein, in Ergänzung zur Gewinnung und Ausbildung junger Nachwuchsfachkräfte auf eine Strategie des digitalen „Up-Skillings“ von Fachkräften zu setzen. Auch Kooperationen etablierter Unternehmen der Gesundheitswirtschaft mit (jungen) Technologieunternehmen identifiziert die Studie als eine gute Strategie.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sabine Bohnet-Joschko (Projektleiterin), sabine.bohnet-joschko@uni-wh.de
Dr. Katharina Pilgrim (Koordinatorin), katharina.pilgrim@uni-wh.de
Presseteam:
Katrin Schubert unter Tel +49 (0)2302 / 926-858 oder E-Mail: Katrin.Schubert@uni-wh.de
Originalpublikation:
„KOOPERATIV & VERNETZT – Digitale Transformationsfelder der Gesundheitswirtschaft“, https://www.atlas-digitale-gesundheitswirtschaft.de/projekt/trendstudie/
Weitere Informationen:
https://www.uni-wh.de/detailseiten/news/aufbruchsstimmung-im-deutschen-gesundhei…
Konstanzer Homeoffice-Studie: Mobiles Arbeiten besonders bei Jüngeren gefragt
Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Konstanzer Langzeitstudie stellt fest, dass besonders jüngere Arbeitnehmer*innen dem Arbeiten im Homeoffice positiv gegenüberstehen. Ein Sechstel von ihnen würde für garantierte Homeoffice-Tage sogar Gehaltseinbußen in Kauf nehmen.
Rein in das Homeoffice, raus aus dem Homeoffice, und dann wieder zurück – der wellenförmige Verlauf der Pandemie führt zu vielen Anpassungsphasen bei Arbeitnehmer*innen und Betrieben und zu zahlreichen Zwischenformen zwischen Homeoffice in Vollzeit und klassischer Präsenzpflicht am Arbeitsplatz. Dabei ist die erforderliche Anpassungsleistung bei beiden Gruppen enorm. Die Konstanzer Homeoffice-Studie des Organisationsforschers Prof. Dr. Florian Kunze (Exzellenzcluster „The Politics of Inequality“, Universität Konstanz) und seiner Mitarbeiterin Sophia Zimmermann geht diesen Entwicklungen seit dem Frühjahr 2020 in einer empirischen Längsschnittstudie nach. Sie befragen dazu stets dieselben Personen, die für die Erwerbsbevölkerung mit Büro- und Wissenstätigkeiten repräsentativ ausgewählt wurden. So können sie die Entwicklung der Situation über die Zeit verfolgen.
„Unsere jüngste Befragung im November 2021 zeigt nicht nur, dass der Wunsch nach Homeoffice stabil geblieben ist“, sagt Florian Kunze. „Gerade unter den Jüngeren würden viele sogar in Kauf nehmen, etwas weniger zu verdienen, wenn sie dafür regelmäßig von zu Hause aus arbeiten dürften. Dabei ist die Arbeitsplatzsituation in Deutschland von einer hybriden Arbeitskultur, in der Homeoffice, mobile Arbeitsformen und Präsenzarbeit Hand in Hand gehen, noch recht weit entfernt.“
Die Befunde:
• Der durchschnittliche Wunsch der Arbeitnehmer*innen nach Homeoffice liegt seit Beginn der Pandemie vor ca. 20 Monaten stabil bei ca. 2,9 Tagen in der Woche.
• Dabei unterscheiden sich die Altersgruppen. Den 18-35-jährigen ist Homeoffice so wichtig, dass ca. ein Sechstel von ihnen sogar Gehaltseinbußen dafür in Kauf nehmen würde.
• Nur 18 Prozent der Befragten meinen, dass Homeoffice Produktivität und Arbeitsprozesse stört. Unter den befragten Führungskräften liegt dieser Wert mit 26 Prozent deutlich höher. 70 Prozent der Beschäftigten kommen trotz Präsenzarbeit noch vorwiegend digital zusammen.
Auch nach der Rolle der Betriebe für das Impf- und Infektionsgeschehen fragten die Forschenden:
• Mehr als die Hälfte der Befragten wurde vom Arbeitgeber zur Impfung aufgefordert oder bekam im Betrieb eine Impfung angeboten.
• Ein Drittel der Befragten gab an, dass 3G-Regelungen an ihrem Arbeitsplatz nicht eingehalten würden.
Faktenübersicht:
• Prof. Dr. Florian Kunze ist Professor für Organisational Studies am Fachbereich Politik- und Verwaltungswissenschaft sowie Principal Investigator am Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz. Er forscht zu Digitalisierung und neuen Formen der Arbeit, zum demographischen Wandel in öffentlichen und privaten Organisationen und effektivem Führungsverhalten.
• Sophia Zimmermann ist Doktorandin an der Professur für Organisational Studies. Ihre Forschungsschwerpunkte liegen im Bereich der Entwicklung von Mitarbeiterkompetenzen für den digitalen Wandel und der effektiven Gestaltung von Telearbeit.
• Die Online-Befragung wurde über das Online-Umfrageinstitut Respondi durchgeführt und umfasste bisher 14 Befragungszeitpunkte. An der jüngsten Befragungswelle (12.-18.11.2021) nahmen 688 Personen teil, die die Erwerbsbevölkerung in Bürotätigkeiten repräsentativ nach Alter und Geschlecht abbilden.
• Die Umfrage ging aus dem Projekt „Digitalisierung, Automatisierung und die Zukunft der Arbeit in postindustriellen Wohlfahrtsstaaten“ am Exzellenzcluster „The Politics of Inequality“ an der Universität Konstanz hervor.
Hinweis an die Redaktionen:
Die wichtigsten Ergebnisse haben die Forschenden in einem Fact Sheet zusammengefasst, das hier heruntergeladen werden kann: https://www.uni-konstanz.de/typo3temp/secure_downloads/64520/0/29f1c462aca320f22…
Eine ausführliche Erläuterung zum Fact Sheet findet sich hier: https://www.uni-konstanz.de/typo3temp/secure_downloads/64520/0/29f1c462aca320f22…
Umfangreiche Informationen und Empfehlungen zum Umgang mit dem Arbeiten im Homeoffice in Zeiten der COVID-19-Pandemie liefert auch ein Policy Paper der Autoren vom Juli 2020, das hier heruntergeladen werden kann:
https://kops.uni-konstanz.de/bitstream/handle/123456789/51524/Kunze_2-926cp7kvkn…
Ein Bild von Florian Kunze findet sich hier zum Download:
Bild: https://cms.uni-konstanz.de/fileadmin/exzellenz/inequality/Personen/Kunze_Floria…
Bildunterschrift: Prof. Dr. Florian Kunze, Professor für Organisational Studies am Fachbereich Politik- und Verwaltungswissenschaft sowie Principal Investigator am Exzellenzcluster „The Politics of Inequality“ der Universität Konstanz.
Bild: Ines Janas.
Ein Bild von Sophia Zimmermann steht hier zum Download bereit:
Bild: https://cms.uni-konstanz.de/fileadmin/exzellenz/inequality/Personen/Zimmermann_S…
Bildunterschrift: Sophia Zimmermann, wissenschaftliche Mitarbeiterin an der Professur für Organisational Studies des Fachbereichs Politik- und Verwaltungswissenschaft der Universität Konstanz.
Bild: Ines Janas.
Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Urzelle LUCA entstand durch Wasserstoffenergie
Dr.rer.nat. Arne Claussen Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
Evolutionsbiologie: Publikation in Frontiers in Microbiology
Woher kam der Urstoffwechsel, aus dem das Leben entstand? Forschende der Heinrich-Heine-Universität Düsseldorf (HHU) haben jetzt den Stoffwechsel der allerersten Lebensform, der Urzelle LUCA, rekonstruiert. Dabei kam ans Licht, dass fast alle chemischen Reaktionen, die am Aufbau der molekularen Bausteine der Urzelle beteiligt waren, Energie freisetzen. Somit diente der Urstoffwechsel selbst als interne Energiequelle, sofern der älteste und zugleich modernste Energieträger vorhanden war: Wasserstoffgas, H2.
Das Team um Prof. Dr. William Martin, Leiter des HHU-Instituts für Molekulare Evolution, erforscht, wie und wo das frühe Leben auf der Erde entstand. Dazu führen sie einerseits chemische Versuche im Labor mit simulierten Hydrothermalquellen durch, andererseits sammeln sie die Spuren vom Ursprung des Lebens im Erbgut heutiger Mikroben und deuten diese im Kontext der Bedingungen auf der frühen Erde. Schon 2016 fanden sie heraus, dass der letzte gemeinsame Vorfahre allen Lebens LUCA (für last universal common ancestor) hydrothermale Tiefseequellen besiedelte.
In ihrer neuen Publikation untersuchen sie, wo LUCAs Stoffwechsel entstand, indem sie die Fragen klärten, wie LUCA seine Grundbausteine aufbaute und woher die dafür erforderliche Energie kam. Hierzu konnte Martins Team 402 Stoffwechselreaktionen identifizieren, die sich vom Ursprung des Lebens vor rund 4 Milliarden Jahren bis heute kaum verändert haben. Diese waren demnach schon in LUCA vorhanden und werfen Licht auf die Frage, wie LUCA mit Energie umging und woher er seine Energie bezog.
Jessica Wimmer, Doktorandin am Düsseldorfer Institut und Erstautorin der neuen Studie, interessierte sich vor allem für die Energiebilanz von LUCAs Stoffwechselreaktionen, denn: Alles Leben braucht Energie. Dazu untersuchte sie mit ihrem Forschungsteam bei ursprünglichen Mikroben die biochemischen Reaktionen, mit denen diese ihre Grundbausteine für Zellstruktur und -funktion aufbauen. Daraus ergab sich ein umfassendes Reaktionsnetzwerk, das bereits bei LUCA vorgelegen haben muss.
Es sind insgesamt 402 einzelne chemische Reaktionen, bei denen die 20 Aminosäuren entstehen, aus denen wiederum alle in Lebewesen vorkommenden Proteine aufgebaut sind; ferner bilden diese Reaktionen die Basen der Nukleinsäuren, die sich in der DNA bzw. RNA wiederfinden und 18 wichtige Vitamine, die für den Stoffwechsel unerlässlich sind. All diese Komponenten entstehen bei primitiven Mikroben – aber auch in Wimmers Computerberechnungen – aus den grundlegenden Molekülen Wasserstoff (H2), Kohlendioxid (CO2) und Ammoniak (NH3), die es an Hydrothermalquellen der frühen Erde in ausreichender Menge gab.
Wimmer zu ihrer Forschungsfrage: „Wir wollten wissen, woher der ursprüngliche Stoffwechsel seine Energie bezog. Denn vor vier Milliarden Jahren gab es noch keine Enzyme, die in heutigen Zellen die Reaktionen katalysieren. Die Reaktionen mussten vielmehr in der damaligen Umwelt von sich aus stattfinden können. Es gab schon viele Vermutungen, woher die treibende Energie hätte stammen können. Im Stoffwechsel selber hatte aber noch niemand gesucht.“ Dazu untersuchte das Team die Energiebilanz jeder Reaktion anhand ihrer freien Energie, auch Gibbs-Energie genannt.
Ihr Ergebnis: LUCA war für seinen Stoffwechsel auf keine externen Energiequellen wie UV-Licht, Meteoriteneinschläge, Vulkanausbrüche oder Radioaktivität angewiesen. Vielmehr liefern – in einer Umgebung, die sich bei Hydrothermalquellen finden lässt – die grundlegenden Reaktionen selbst die Energie für den Stoffwechsel. Oder anders ausgedrückt: Der Großteil von LUCAs chemischen Reaktionen setzt sogar Energie frei.
Die Energie für das Leben ist im Leben selbst enthalten. „Das ist deshalb aufregend,“ sagt Prof. Martin, Letztautor der Studie, „weil der sonst so komplizierte Stoffwechsel auf einmal eine natürliche Tendenz offenbart, sich unter den richtigen Bedingungen von alleine zu entfalten.“
Um zu diesem überraschenden Schluss zu gelangen, untersuchte das Team die Energetik der 402 Reaktionen mit Computermodellen unter vielen unterschiedlichen Umweltbedingungen, um energetisch günstige von energetisch ungünstigen Konstellationen zu unterscheiden. Denn ob eine Reaktion Energie freisetzt, hängt zum Teil von den herrschenden Umweltbedingungen ab. Sie spielten pH-Werte von 1 (sauer) bis 14 (alkalisch), Temperaturen von 25 bis 100 °C sowie unterschiedliche Konzentrationsverhältnisse der Ausgangsstoffe (Reaktanden) zu den Reaktionsprodukten durch, Auch die energetische Rolle des Wasserstoffs wurde bewertet. Wimmer: „Ohne Wasserstoff geht gar nichts, weil dieser benötigt wird, um das CO2 überhaupt in den Stoffwechsel einzuschleusen.“
Die energetisch optimalen Bedingungen lagen im Bereich eines alkalischen pH-Wertes um etwa 9 und einer Temperatur von 80 °C. Wasserstoff diente zur CO2-Fixierung. Prof. Martin ordnet diese Ergebnisse ein: „Dieses Milieu entspricht genau der Umgebung, die man im Hydrothermalfeld ‚Lost City‘ im Atlantis-Massiv, einem unterseeischen Gebirge im Mittelatlantik, vorfindet. In dieser Umgebung könnten rund 97 Prozent der 402 Reaktionen spontan ablaufen, also ohne zusätzliche Energiezufuhr. In dieser Umgebung ist Wasserstoff in jeder Hinsicht chemisches Sonnenlicht. Die moderne Energieforschung nutzt genau die gleichen Eigenschaften des Wasserstoffs wie das Leben. Nur hat das Leben schon vier Milliarden Jahre Erfahrung damit, wir fangen gerade erst an.“
Jessica Wimmer ergänzt: „Wir haben gezeigt, dass die Energie am Ursprung des Lebens rein chemischer Natur ist. Wir brauchen kein Sonnenlicht, keine Meteoriten, kein UV Licht: nur H2 und CO2, plus etwas Ammoniak und Salz. Und aus unserem biosynthetischen Netzwerk können wir auf die Eigenschaften von LUCA zurückschließen, über Milliarden von Jahren hinweg.“
Originalpublikation:
Jessica L. E. Wimmer, Joana C. Xavier, Andrey d. N. Vieira, Delfina P. Pereira, Jacqueline Leidner, Filipa L. Sousa, Karl Kleinermanns, Martina Preiner, William F. Martin, Energy at origins: Favorable thermodynamics of biosynthetic reactions in the last universal common ancestor (LUCA), Frontiers in Microbiology (2021).
DOI: 10.3389/fmicb.2021.793664
Technologieentwicklung für kohlenstoffreie Energiesysteme geht in die Umsetzung
Dr. Hans Sawade Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
Das Programm „WIR! – Wandel durch Innovation in der Region“, seit 2017 am Start, schreitet voran. 23 Bündnisse, im August 2021 im Rahmen von „WIR!“ ausgewählt, befinden sich nun in ihrer sechsjährigen Umsetzungsphase.
„Wir unterziehen CAMPFIRE jetzt einer „Soll-Ist-Analyse“ hinsichtlich neuer notwendiger Lösungs- und Strategieansätze einschließlich der bis jetzt abgeleiteten Förderprojekte und weisen in einem erweiterten Konzept unsere nächsten Schritte aus“, erklärt Dr. Angela Kruth, Koordinatorin & Sprecherin von CAMPFIRE.
Deutschlands Ziel ist es, bis zum Jahr 2045 weitgehend treibhausgasneutral zu werden. Mindestens 80 Prozent der Stromversorgung und 60 Prozent der gesamten Energie-versorgung sollen dann aus Erneuerbaren Energien bereitgestellt werden. Das gegen-wärtige Energiesystem soll dabei in ein emissionsfreies, auf erneuerbaren Energien basierendes Energiesystem transformiert werden.
„Im Rahmen der Soll-Ist-Analyse von CAMPFIRE überprüfte unser unternehmens-geführtes Strategieteam und unser Fachbeirat den CAMPFIRE-Ansatz für ein zukünftiges globales, kohlenstofffreies Ammoniak-Wasserstoff-Energiesystem und entwickelte die notwendigen Strategie dazu weiter“, so Dr. Angela Kruth.
„CAMPFIRE“ steht für einen nachhaltigen Strukturwandel in der Region Nord-Ost mittels Aufbau innovativer Pfade und der Erschließung wirtschaftlicher Vorteile für kleine und mittelständige Unternehmen in der Region Nord-Ost, die hauptsächlich in Mecklenburg-Vorpommer (M-V) liegt. Die mittlerweile 72 Partner, vorrangig ansässig in der Region Nord-Ost, verfolgen gemeinsam das Ziel der Entwicklung exportfähiger Technologien zur NH3-Erzeugung, Transport sowie Nutzung als Kraftstoff und Energiespeicher.
In der nächsten Phase der Umsetzung geht es vorrangig um den Technologietransfer und die Verstetigung wissenschaftlicher Erfindungen im Markt mit dem Ziel der Erzeugung von Ammoniak (NH3) zur Nutzung als Kraftstoff zu Wasser und zu Land. Dazu zählt die Realisierung erforderlicher Forschungsschnittstellen im Rahmen von TransHyDE, dem CAMPFIRE-Umsetzungsprojekt. Es ist eines der drei Wasserstoff-Leitprojekte des Bundesministeriums für Bildung und Forschung (BMBF) aus dem Zukunftspaket zur Umsetzung der 2020 beschlossenen „Nationalen Wasserstoffstrategie“ in Deutschland. Im Detail bedeutet es die Adressierung von Forschungsschnittstellen zur saisonalen Erzeugung von grünem Ammoniak, zum Bau von Betankungsanlagen für den Import von grünem NH3 von Schiff zu Land sowie von Schiff zu Schiff, die Schaffung lastflexibler Ammoniak-Anlagen zur saisonale Erzeugung von NH3 aus erneuerbarer Energie inclusive dynamischer Wandlungstechnologien für eine stationäre und mobile Energieversorgung sowie den Bau von Ammoniak-zu-Wasserstoff-Tankstellen in Verbindung mit dem Aufbau der dazugehörigen Logistik sowie die Schaffung von Rahmenbedingungen zur Nutzung von NH3 und Wasserstoff für Brennstoffzellen, Ammoniakcracker und saisonale Mikro-Haber-Boschverfahren zur Energiespeicherung.
Über allem steht eine kohlenstoffreie, sichere Energieversorgung. Langfristig entstehen effektive wirtschaftliche Wege zur Verminderung des globalen Kohlendioxidgehaltes in der Erdatmosphäre. „Wir sorgen jetzt in Phase Nr. 2 von „WIR!“ mit der Schaffung einer „Open Innovation Plattform“ für eine Verstetigung der industriellen und wissenschaftlichen Schwerpunktsetzung von „CAMPFIRE“. Unser Ziel ist dabei die Gründung der CAMPFIRE gAG“, so Angela Kruth.
„WIR!“ richtet sich an breit angelegte regionale Bündnisse wie das regionale Partner-Bündnis „CAMPFIRE“ unter der Koordination des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) in Greifswald und der strategisch-technologischen Leitung des Zentrums für Brennstoffzellentechnik in Duisburg. Auf dem Industriegelände der YARA Rostock am Standort Poppendorf werden im Rahmen des CAMPFIRE-Umsetzungs-projekte im BMBF – Leitvorhaben TransHyDE dafür industrierelevante Prüf- und Testfelder im COIL – CAMPFIRE Open Innovation Lab für die neuen Ammoniak-Technologien aufgebaut.
Die Fördermaßnahme „WIR!“ ist Teil der Programmfamilie „Innovation & Strukturwandel“, mit der das BMBF den Wandel in strukturschwachen Regionen unterstützt. Allein bis 2025 stehen für „Innovation & Strukturwandel“ rund 600 Millionen Euro bereit.
Presse-Kontakt:
Dr. Gesine Selig
Pressesprecherin
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 3942
mobil: +49 163 554 3942
e-mail: gesine.selig@inp-greifswald.de
https://www.leibniz-inp.de
Weitere Informationen:
http://www.wir-campfire.de
Anhang
CAMPFIRE-Logo
Wie Lieferketten widerstandsfähiger werden
Nicolas Vogt Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management
Lieferketten sind bei unvorhergesehenen Ereignissen störungsanfällig, das hat die Corona-Krise deutlich gezeigt. Eines von vielen Beispielen für gestörte Lieferketten ist die derzeitige Halbleiterknappheit, mit der nicht nur die Autohersteller zu kämpfen haben. Was aber können Unternehmen tun, um sich auf schwierige Situationen vorzubereiten? Wie können sie eigene Schwächen frühzeitig erkennen? Forscher der WHU – Otto Beisheim School of Management haben durch das Konsortialprojekt SPAICER eine Antwort darauf gefunden. Das Konzept eines datengestützten Resilienzindexes eröffnet die Möglichkeit, Schwächen in Lieferketten zu simulieren, noch bevor diese überhaupt unterbrochen werden.
Resilienz – die Fähigkeit, bei Störungen Auswege zu finden und weiterhin zu funktionieren – ist für Unternehmen der zentrale Faktor, um erfolgreich in Krisensituationen bestehen zu können. Sie kann durch gute Vorbereitung, gezielte Reaktionen auf Störungen und durch Anpassungsfähigkeit an neu entstandene Situationen erhöht werden. Aber wie kann ein Unternehmen erkennen, wie resilient es ist?
Diese Lücke könnte ein datengestützter Resilienzindex schließen. Das Konzept eines simulationsbasierten Ansatzes des SPAICER-Projekts geht darauf ein, wie gut ein Unternehmen mit möglichen Störungen umgehen kann. Dabei kann der Index Aufschluss über die Resilienz eines Unternehmens geben, indem er simuliert, inwiefern sich die Leistungsfähigkeit einer Firma ändert, wenn sie mit speziellen, schwierigen Situationen konfrontiert wird. Ist eine Firma resilient, wird sich ihre Leistung auch bei Störungen von Lieferketten kaum verschlechtern. Wichtig ist dabei, dass mit dem Resilienzindex nicht nur eine einmalige Einschätzung erfolgt, sondern ein kontinuierlicher Prozess eingeleitet wird, der zum Tagesgeschäft eines Unternehmens gehört und für den entsprechende Ressourcen bereitgestellt werden sollten.
Der datengestützte Ansatz hat den entscheidenden Vorteil, objektiv und präzise Schwachstellen identifizieren zu können und berücksichtigt dabei auch die Individualität der Unternehmen. Darüber hinaus könnte dieser Index effizienter als bisherige Indizes sein. Es werden kontinuierlich große Datenmengen erhoben und ausgewertet, ohne dass dafür ein übermäßiger Einsatz von Personal erforderlich wäre.
Schwierigkeiten sieht das SPAICER-Konsortium nur in der oft noch eingeschränkten Verfügbarkeit von Daten. Um die Verfügbarkeit der Daten zu verbessern, ist es für Unternehmen ratsam, in die eigene IT-Infrastruktur zu investieren und ein einheitliches „Datenökosystem“ aufzubauen.
Wissenschaftliche Ansprechpartner:
Jan Sporkmann, Lehrstuhl für Logistikmanagement an der WHU: Jan.Sporkmann@whu.edu
Originalpublikation:
Öksüz, N.; Bouschery, S.; Schlappa, M.; Unterberg, M.; Sporkmann, J. (2021): Towards an Artificial Intelligence based Approach for Manufacturing Resilience, in: 22. VDI-Kongress AUTOMATION 2021 – Navigating towards resilient production. VDI Automatisierungskongress (AUTOMATION-2021), 29./30. Juni 2021.
Weitere Informationen:
https://www.whu.edu/de/forschung/whu-knowledge/wie-lieferketten-widerstandsfaehi… Lesen Sie den vollständigen Artikel auf WHU Knowledge
3 Fragen an 3 Forschende: Wie der Klimawandel unsere Gewässer verändert
Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Vor kurzem ging der Weltklimagipfel in Glasgow zu Ende und auch in Deutschland soll der Klimaschutz einen höheren Stellenwert bekommen. Prof. Rita Adrian, Prof. Sonja Jähnig und Prof. Mark Gessner vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) beleuchten, wie sich der Klimawandel auf die Binnengewässer und ihre Artenvielfalt auswirkt und ob der aktuelle politische Diskurs Anlass zur Hoffnung gibt.
Frau Adrian, Sie können als Mitautorin des Weltklimaberichts sowohl die wissenschaftlichen als auch die politischen Diskussionen unmittelbar mitverfolgen. Welche Rolle spielen Gewässer in den aktuellen Debatten?
Binnengewässer werden oftmals nicht explizit neben den Meeren und dem Land genannt und häufig dem Land zugeordnet. Das war auch bei der COP26-Konferenz so. Der Vielfalt der Ökosysteme kann natürlich nicht im Detail Rechnung getragen werden. Eine Erwähnung von Binnengewässern – als wesentliche Süßwasser-Ressource und sich im Zuge der globalen Erwärmung stark verändernde Ökosysteme – halte ich jedoch für sehr wichtig.
„Die Zwei-Grad-Marke haben wir für Seen schon überschritten und es ist dennoch nicht Thema im politischen Diskurs.“ – Rita Adrian
Es geht auch darum, die essenziellen Leistungen von Binnengewässern stärker in das Bewusstsein von Politiker*innen und der Gesellschaft zu rücken. Menschen sind unmittelbar von der Erwärmung der Gewässer betroffen. Gerade Seen können sich noch stärker erwärmen als die Luft. Dort haben wir im Oberflächenwasser das Zwei-Grad-Ziel im langjährigen Jahresmittel schon überschritten.
Die Erwärmung führt zu höheren Nährstoffbelastungen und vermehrten Algenblüten. Das kann sich auf die Trinkwasserversorgung auswirken, denn weltweit spielen Oberflächengewässer als Ressource eine entscheidende Rolle. Außerdem verlieren Seen ihren Freizeitwert, wenn sich die Wasserqualität weiter verschlechtert. Wenn Seen wärmer werden, werden sie weniger häufig vollständig durchmischt, der Sauerstoffgehalt sinkt. Das wird wiederum problematisch für Fische und andere Lebewesen. Aber es ist nicht nur eine Frage der Qualität sondern vor allem auch der Quantität: Ganze Regionen sind von Wasserverknappung und Rückgang der Grundwasserstände betroffen. Dies alles findet nicht nur im Mittelmeerraum, sondern vor unserer Haustüre statt. Ganz wesentlich ist: Aquatische Ökosysteme haben einen inhärenten Wert, den es zu schützen gilt.
Frau Jähnig, die Klimakrise überdeckt die Biodiversitätskrise. Inwiefern werden Ihrer Meinung nach die verschiedenen ökologischen Krisen nach wie vor isoliert voneinander betrachtet? Und wie wirkt das eine auf das andere?
In der Tat sind beide Krisen eng verknüpft – und dem wird nicht immer Rechnung getragen. Im Abschlussdokument der COP26-Konferenz wird die Verbindung nur einmal kurz erwähnt. Durch den Klimawandel gehen Lebensräume verloren, beispielsweise weil Gewässer temporär trockenfallen. Etwa die Hälfte aller Fließgewässer weltweit trocknen zeitweise aus. Und dieser Trend wird weiter zunehmen. Im Gewässer müssen Tiere, die nur eine geringe Temperaturspanne tolerieren, in andere Regionen ausweichen. Das ist nicht immer möglich. Die Verschlechterung der Wasserqualität, von der Frau Adrian spricht, spielt natürlich auch eine Rolle. Außerdem begünstigt der Klimawandel die Ausbreitung gebietsfremder Arten, die mit den heimischen Tieren konkurrieren oder ihnen durch Fraßdruck oder Krankheitsübertragung schaden.
„Klima- und Biodiversitätsschutz schließen sich nicht aus, im Gegenteil.“ – Sonja Jähnig
Ein Punkt, der mir sehr am Herzen liegt, ist die Auflösung des vermeintlichen Zielkonflikts zwischen Klima- und Biodiversitätsschutz bei der Wasserkraft. Die Wasserkraft ist zwar eine erneuerbare, aber keine umweltfreundliche Energiequelle. Gerade die sogenannte kleine Wasserkraft trägt nur zu einem verschwindend geringen Anteil zur Energiewende bei, verschlechtert den ökologischen Zustand der Gewässer und ihrer Lebewesen aber erheblich. Daher haben kürzlich 65 Fachwissenschaftler*innen aus 30 wissenschaftlichen Institutionen in einer gemeinsamen Stellungnahme dringend empfohlen, die Förderung ineffizienter Kleinwasserkraftwerke aus EEG- oder Steuermitteln zu beenden.
Klimaschutz und Biodiversitätsschutz gehen tatsächlich oft Hand in Hand. Wenn Flüssen zum Beispiel mehr Platz eingeräumt wird, trägt das maßgeblich zum Schutz vor Hochwasser bei und unterstützt gleichzeitig artenreiche und vielfältige Lebensräume. Dort können nämlich sogenannte Refugialräume wie Altarme, Pools, oder Wurzelunterstände entstehen, die eine Wiederbesiedlung mit Lebewesen nach Perioden mit stark schwankendem Wasserstand gewährleisten.
Die COP26-Rahmenentscheidung erkennt an, „dass die Auswirkungen des Klimawandels viel geringer sein werden bei einem Temperaturanstieg um 1,5 Grad verglichen mit zwei Grad“ und sagt zu, die „Bemühungen zur Begrenzung des Temperaturanstiegs auf 1,5 Grad fortzusetzen“. Herr Gessner, aus Sicht eines Gewässerforschers: Eine gute Entscheidung ? Oder werden wir selbst bei Erreichen dieses Ziels kritische Auswirkungen spüren? Welche Folgen könnten uns bei 1,5 oder 2 Grad Erwärmung erwarten?
Ja, das verstärkte Bekenntnis zur Begrenzung der Erwärmung ist grundsätzlich ein gutes Ergebnis. Es kommt aber jetzt darauf an, auch wirksame Maßnahmen zu ergreifen, damit dieses Ziel erreicht wird. Damit hat sich die Staatengemeinschaft immer noch schwer getan.
Für Gewässer können die Schwellenwerte von 1,5 oder 2 Grad allerdings nicht eins zu eins übertragen werden. Frau Adrian hat es schon gesagt: Viele Seen haben diese Marke sowieso schon gerissen. Für den Stechlinsee im Norden Brandenburgs beispielsweise haben wir seit Ende der sechziger Jahren eine Erwärmung des Oberflächenwassers von rund 2 Grad gemessen. Und unsere Langzeitdaten vom gut untersuchten Müggelsee in Berlin zeigen sogar eine Erhöhung der sommerlichen Temperaturen von 0.6 Grad pro Dekade zwischen 1978 und 2020.
Neben den langfristigen Temperaturtrends sind aber mindestens drei weitere Faktoren entscheidend. Da ist erstens das Mischungsregime. In Seen unserer Breiten wird der gesamte Wasserkörper normalerweise zweimal im Jahr vollständig durchmischt. Das geschieht im Frühling und im Herbst. Im Sommer und Winter hingegen bleiben die beiden Schichten scharf voneinander getrennt. In einigen größeren Seen bei uns, wie beispielsweise dem Stechlin, wird die Erwärmung dazu führen, dass im Winter keine Schichtung mehr auftritt. Das zeigen die Modelle unserer Seenphysiker. In der kühlen Jahreszeit werden diese Seen also durchgehend gemischt und bekommen dadurch einen grundlegend anderen Charakter. Eine Temperatuerhöhung von 1,5 bis 2 Grad im Winter macht hier einen großen Unterschied.
„Der jahreszeitliche Zyklus von Seenschichtung und Durchmischung verändert sich in unseren Breitengraden deutlich. Seen bekommen dadurch einen grundlegend anderen Charakter.“ – Mark Gessner
Daran gekoppelt sind Einflüsse auf den Chemismus und die Biologie. Nehmen Sie die Sauerstoffverhältnisse. Das ist der zweite wichtige Aspekt, den ich ansprechen wollte. In der warmen Jahreszeit verlängert sich die Schichtungsphase und das führt zu verstärkter Sauerstoffzehrung im Tiefenwasser. Bei vollständiger Aufzehrung des Sauerstoffs, wie wir sie im Stechlinsee jetzt unterhalb von 40 Metern Tiefe sehen, sind die Auswirkungen auf Fische und andere Organismen enorm und das gilt auch für die Nährstoffdynamik im See.
Zusätzlich zu solchen langjährigen Temperatur- und Sauerstofftrends dürfen wir außerdem extreme Wetterereignisse nicht vergessen. Für die Zukunft wird eine Zunahme der Häufigkeit und Intensität solcher Ereignisse. Dazu gehören Hitzewellen genauso wie Stürme. Das ist ein dritter wesentlicher Aspekt, den wir beachten müssen, wenn wir Vorhersagen über die Reaktion von Seen auf den Klimawandel machen wollen. Hitzewellen können Massenentwicklung potenziell giftiger Blaualgen auslösen, ebenso wie Fischsterben. Und auch Stürme können eine Ursache für solche Entwicklungen sein. Am Stechlinsee haben wir solche Beobachtungen dokumentiert und auch in einem großen Freilandversuch nachvollziehen können. Dabei haben wir gesehen, dass wahrscheinlich gerade vom Menschen wenig beeinflusste oder restaurierte Klarwasserseen von Sturmereignissen besonders betroffen sind.
Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Rita Adrian
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: adrian@igb-berlin.de
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: sonja.jaehnig@igb-berlin.de
Prof. Dr. Mark Gessner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Email: gessner@igb-berlin.de
Weitere Informationen:
https://www.igb-berlin.de/news/wie-der-klimawandel-unsere-gewaesser-veraendert
Studie der Uni Bonn: Fleischarme Kost hat viele Vorteile
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Was ist besser: den Fleischkonsum moderat zu reduzieren und mehr Obst, Gemüse und Vollkornprodukte zu essen, wie es die Deutsche Gesellschaft für Ernährung anrät? Es unseren südlichen Nachbarn nachzutun und öfter mal zu Fisch und Meeresfrüchten zu greifen? Oder gar komplett auf vegane Ernährung umzustellen? Eine neue Studie der Universität Bonn zeigt, dass die Antwort auf diese Fragen nicht so eindeutig ausfällt, wie man denken könnte – je nachdem, welche Auswirkungen man sich genau anschaut. Die Ergebnisse sind in der Zeitschrift Science of The Total Environment erschienen.
950 Kilogramm Lebensmittel und Getränke nehmen jede Bürgerin und jeder Bürger der EU im Jahr zu sich – ein kleiner Berg, so schwer wie ein Kleinwagen. Weltweit ist die Ernährung für ein Viertel der menschlichen Treibhausgas-Emissionen verantwortlich. Ein großer Teil davon geht auf das Konto der Nutztierhaltung: Tiere wandeln nur einen kleinen Teil der verfütterten Kalorien in Fleisch um. Wiederkäuer erzeugen zudem Methan, das die Erderwärmung weiter beschleunigt.
Was wir essen, hat darüber hinaus auch Folgen für unsere Gesundheit und das Tierwohl. Will man Ernährungsformen miteinander vergleichen, sollte man auch diese Aspekte in den Blick nehmen. Die Fachwelt bezeichnet die optimale Gesundheit von Mensch, Tier und Umwelt auch als „One Health“-Perspektive. „Studien, die diesen Blickwinkel auf Ernährungsfragen anwenden, sind aber noch rar“, erklärt Juliana Paris vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn.
Aktuelle Ernährungsweise mit drei Alternativen verglichen
Paris hat zusammen mit Kolleginnen und Kollegen eine Analyse durchgeführt, die diese Forschungslücke ein Stück weit schließen möchte. „Dazu haben wir uns exemplarisch angesehen, welche Produkte bei Menschen in Nordrhein-Westfalen auf dem Speiseplan stehen“, erklärt sie. „Diese Referenzkost haben wir dann mit drei verschiedenen Szenarien verglichen: einer Umstellung nach den Empfehlungen der Deutschen Gesellschaft für Ernährung (DGE), dem Wechsel zu einer Mittelmeer-Diät mit mehr Fisch und Meeresfrüchten sowie der Änderung hin zu einer veganen Ernährung.“
In jedem dieser drei Szenarien wurden die Lebensmittel so gewählt, dass sie sich so wenig wie möglich von der Referenzernährung unterschieden. „Das heißt beispielsweise, dass wir in der Mittelmeer-Variante den Anteil von Fisch und Meeresfrüchten, Gemüse und Getreideprodukten erhöht haben“, sagt Paris. Zudem sollte die Produkt-Auswahl insgesamt dieselben Nährstoffe in ähnlichen Mengen enthalten wie bislang. Die Forschenden erhielten so für jedes Szenario einen „Lebensmittel-Korb“, den sie dann weiter analysierten.
„Dazu haben wir uns auf verschiedene Datenbanken gestützt“, sagt Dr. Neus Escobar vom Institut für Angewandte Systemanalyse in Österreich, die die Arbeit betreut hat. „Mit ihrer Hilfe konnten wir zum Beispiel den Effekt jeder Ernährung auf bestimmte Umweltaspekte abschätzen – etwa die bei ihrer Produktion entstehende Menge an Klimagasen oder den Wasserverbrauch. Ähnlich gingen wir vor, um die Auswirkung der jeweiligen Ernährung auf die Gesundheit zu bewerten.“ So ist beispielsweise von rotem Fleisch bekannt, dass es das Risiko bestimmter Krebsarten und von Herz-Kreislauf-Erkrankungen erhöht.
Die Konsequenzen für das Tierwohl schätzten die Forschenden anhand mehrerer Indikatoren. Darin floss unter anderem ein, wie viele Tiere durch den Konsum der Lebensmittel ihr Leben verlieren und unter welchen Bedingungen sie gehalten werden. „Wir haben aber auch anhand der Zahl von Neuronen oder der Größe des Gehirns im Verhältnis zum Körper abgeschätzt, inwiefern die jeweiligen Tiere unter ihrer Nutzung tatsächlich leiden“, erklärt Juliana Paris.
Fisch statt Steak hilft der Umwelt, doch schadet dem Tierwohl
Jede der drei Ernährungsformen wäre aus One-Health-Perspektive nachhaltig von Vorteil. Aber nicht unter jedem Aspekt: So schnitt die vegane Ernährung in vielen Bereichen am besten ab. Allerdings ist die Erzeugung veganer Lebensmittel mit einem erhöhten Wasserverbrauch verbunden. „Außerdem müssen Veganerinnen und Veganer bestimmte Nährstoffe separat zuführen, etwa Vitamin B12, Vitamin D oder auch Kalzium“, sagt Paris.
Die mediterrane Diät (obwohl gesund) hat aufgrund des hohen Anteils an Nüssen und Gemüse ebenfalls einen erhöhten Wasserbedarf zur Folge. Wird – wie in der Studie angenommen – das konsumierte Fleisch komplett durch Fisch ersetzt, sind zudem ihre Effekte auf das Tierwohl erstaunlich negativ: Da Fische und Meeresfrüchte deutlich kleiner sind als etwa Kühe oder Schweine, leiden unter dieser Ernährungsform erheblich mehr Tiere. Negativ wirkt sich zudem auch der vermehrte Konsum von Honig aus, der eine intensive Bewirtschaftung von Bienenvölkern verlangt. „Es wäre also von Vorteil, den Proteinbedarf insgesamt weniger aus tierischen Quellen zu decken“, betont Neus Escobar. „Zudem ernähren sich viele Menschen heute deutlich zu reichhaltig. Würden sie ihre Nahrungsmenge auf das reduzieren, was sie wirklich brauchen, hätte das möglicherweise zusätzliche positive Effekte.“
Die Empfehlungen der DGE gehen laut Studie zwar in die richtige Richtung. Mit Blick auf die menschliche Gesundheit sind die beiden anderen Optionen jedoch besser. Dennoch zeigen die Daten auch hier: Wer öfter Mal auf Fleisch verzichtet und sich stattdessen Vollkornprodukte, Gemüse und Obst auf den Teller lädt, der tut nicht nur sich etwas Gutes, sondern auch den Tieren und der Umwelt.
Förderung:
Die Studie wurde durch das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen gefördert.
Wissenschaftliche Ansprechpartner:
Juliana Minetto Gellert Paris
Junior Researcher – „One Health and Urban Transformations”
Zentrum für Entwicklungsforschung (ZEF)
Universität Bonn
Tel.: +49 159/05133950
E-Mail: jparismi@uni-bonn.de
www.onehealth-survey.de
Originalpublikation:
Juliana Minetto Gellert Paris, Timo Falkenberg, Ute Nöthlings, Christine Heinzel, Christian Borgemeister & Neus Escobar: Changing dietary patterns is necessary to improve the sustainability of Western diets from a One Health perspective. Science of the Total Environment. https://doi.org/10.1016/j.scitotenv.2021.151437
Corona-Drittimpfung unerlässlich bei fehlender Immunantwort
Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Studie zeigt Wirkung der Boosterimpfung für Menschen ohne Immunantwort
In einer neuen Studie des Deutschen Zentrums Immuntherapie unter Leitung der Medizinischen Klinik 3 – Rheumatologie und Immunologie (Direktor: Prof. Dr. med. Georg Schett) am Universitätsklinikum Erlangen der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wurden Patientinnen und Patienten, die auf zwei Impfungen gegen das neue Coronavirus keine Immunantwort entwickelten und damit keinen Schutz vor einer Infektion hatten, einer dritten Impfung unterzogen. Die Ergebnisse zeigen, dass diese Personen – medizinisch auch „Impfversager/-in“ genannt – nach der Drittimpfung in den allermeisten Fällen einen sehr guten Impfschutz aufbauen.*
„Wir hatten bereits in einer früheren Studie (https://pubmed.ncbi.nlm.nih.gov/33958324/) zeigen können, dass Patientinnen und Patienten mit Autoimmunerkrankungen wesentlich häufiger als gesunde Menschen keinen adäquaten Immunschutz nach zweimaliger Corona-Impfung aufweisen“, sagt Studienleiter Dr. David Simon von der Medizinischen Klinik 3. In diesen Untersuchungen sprach einer von zehn Patient/-innen mit einer Autoimmunerkrankung nicht ausreichend auf die Corona-Impfung an, während bei Gesunden nur einer von hundert keinen ausreichenden Immunschutz nach zweimaliger Impfung aufbaute. Damit sind Patient/innen mit Autoimmunerkrankungen besonders anfällig für Impfdurchbrüche.
„Durch die konsequente Durchführung von Tests, die die Antiköperantwort nach der Impfung untersuchen, konnten bereits im Frühjahr all jene Patientinnen und Patienten aus der Studie identifiziert werden, die keine entsprechende Immunantwort auf die Corona-Impfung entwickelten“ erklärt Dr. Koray Tascilar von der Medizinischen Klinik 3. Dabei handelte sich in erster Linie um Menschen mit Autoimmunerkrankungen wie Arthritis. Die Betroffenen wurden über diese Situation aufgeklärt und bereits im Sommer 2021, als eine der ersten Patientinnen und Patienten einer Drittimpfung unterzogen. Auf die Drittimpfung bildeten die allermeisten dieser Patient/-innen mit primären Impfversagen eine robuste Immunantwort gegen das neue Coronavirus.
Die Daten der Studie belegen die Bedeutung der Drittimpfung. Der Status „vollimmunisiert“ nach zwei Impfungen gilt nicht für alle Menschen nach zwei Impfdosen. Gerade bei Patientinnen und Patienten mit Autoimmunerkrankungen ist eine fehlende Immunantwort nach zwei Impfdosen gar nicht so selten, sodass bei diesem Personenkreis eine Überprüfung des Immunstatus nach der Impfung wichtig erscheint, um frühzeitig Impfversager/-innen zu identifizieren und Impfdurchbrüche zu verhindern. „Geimpft und erkrankt“ ist somit möglich, wobei es sowohl primäre Impfversager/-innen gibt als auch solche, die ihre Immunantwort nach einiger Zeit wieder verlieren. Autoimmunerkrankungen begünstigen beide Situationen. Diese Untersuchungen legen daher nahe, dass gerade Risikogruppen, wie Patientinnen und Patienten mit Autoimmunerkrankungen, von einer raschen Drittimpfung profitieren.
Die Untersuchungen wurden im Rahmen des Deutschen Zentrums Immuntherapie (DZI) durchgeführt und von der Deutschen Forschungsgemeinschaft über den Sonderforschungsbereich 1181 und die Forschergruppe 2886 unterstützt.
* https://pubmed.ncbi.nlm.nih.gov/34819271/
Kontakt für Medien:
PD Dr. David Simon
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
david.simon@uk-erlangen.deWissenschaftliche Ansprechpartner:
PD Dr. David Simon
Lehrstuhl für Innere Medizin III
Tel.: 09131/85-39109
david.simon@uk-erlangen.de
Originalpublikation:
https://pubmed.ncbi.nlm.nih.gov/34819271/
Weitere Informationen:
https://pubmed.ncbi.nlm.nih.gov/33958324/ Eine Vorgängerstudie zeigte, dass Patientinnen und Patienten mit Autoimmunerkrankungen wesentlich häufiger als gesunde Menschen keinen adäquaten Immunschutz nach zweimaliger Corona-Impfung aufweisen.
Wie man im Grundwasser Nitratkonzentrationen senken kann
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Deutschlands Grundwasser enthält zu viel Nitrat, das auf lange Sicht auch das Trinkwasser gefährdet. Natürlich vorkommende Bakterien können dessen Abbau beschleunigen, solange sie dafür ausreichend organischen Kohlenstoff zur Verfügung haben. Der kann ebenfalls natürlich im Untergrund vorkommen, ist allerdings begrenzt und teilweise schon knapp. Durch verschiedene Substanzen könnte dieses Abbauvermögen aufrechterhalten werden. Ihre Wirkung bei unterschiedlichen Temperaturen hat Felix Ortmeyer untersucht. Sein Ergebnis: Bei der typischen Grundwassertemperatur von etwa zehn Grad Celsius wirkt Ethanol als Kohlenstofflieferant am besten.
Gemeinsam mit anderen Forschenden hat der Geowissenschaftler der Ruhr-Universität Bochum (RUB) seine Arbeit am 8. November 2021 in der Zeitschrift Water Resources Research veröffentlicht.
Eingreifen ist dringend geboten
Auslöser der zu hohen Nitrat-Werte im Grundwasser sind häufig stickstoffhaltige Düngemittel aus der Landwirtschaft. Wegen Nichteinhaltung der Nitrat-Direktive der EU wurden Deutschland und weitere EU-Mitgliedsstaaten bereits vor dem Europäischen Gerichtshof verklagt. „Es ist also dringend geboten einzugreifen, um das Grundwasser zu schützen“, erklärt Felix Ortmeyer, der am Lehrstuhl Angewandte Geologie/Hydrogeologie der RUB arbeitet. Eine Möglichkeit, den Nitratabbau zu verbessern, ist, dem Grundwasser kohlenstoffhaltige Substanzen hinzuzufügen.
In seiner Studie hat er die Wirkung verschiedener Zusätze untersucht. Dafür baute er das Grundwassersystem im Labormaßstab nach. Sedimentgefüllte Säulen, welche natürliche Mikroorganismen enthalten, wurden von nitrathaltigem Wasser durchströmt. Bei Raumtemperatur und bei der hierzulande typischen Grundwassertemperatur von zehn Grad Celsius fügte Ortmeyer vier Substanzen hinzu und beobachtete, was passiert: Ethanol, Acetat, Ascorbinsäure und Glukose dienten als Kohlenstofflieferanten. Neben dem Nitratabbau untersuchte er in Kooperation mit der Abteilung Evolution der Pflanzen und Pilze der RUB auch die Mikrobiologie. Er konnte beobachten, dass die Zusammensetzung der mikrobiellen Gemeinschaft von der Temperatur und der Zugabe des organischen Kohlenstoffes beeinflusst wurde.
Temperatur beeinflusst die Wahl der Substanz
„Bisherige Studien hatten ergeben, dass der Nitratabbau umso besser funktioniert, je höher die Temperatur ist“, erläutert Felix Ortmeyer. „Bei Ethanol stimmt das aber nicht: Gerade bei kälteren Temperaturen, wie sie für unser Grundwasser typisch sind, erfolgte der Abbau mit Ethanol am besten.“ Bei Raumtemperatur kam Glukose am besten weg.
„Die Grundwassertemperatur ist also ein wichtiger Faktor bei der Auswahl der Substanz, die den Kohlenstoff für den Nitratabbau liefern soll“, fasst Ortmeyer zusammen. „Diese Erkenntnis ist besonders bedeutend, weil durch den Klimawandel auch mit einem Anstieg der Grundwassertemperatur zu rechnen ist.“
Wissenschaftliche Ansprechpartner:
Felix Ortmeyer
Lehrstuhl Angewandte Geologie / Hydrogeologie
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel. +49 234 32 27455
E-Mail: felix.ortmeyer@rub.de
Originalpublikation:
Felix Ortmeyer, Dominik Begerow, Marco Alexandre Guerreiro, Stefan Wohnlich, Andre Banning: Comparison of denitrification induced by various organic substances – Reaction rates, microbiology, and temperature effect, in: Water Resources Rsearch, 2021, DOI: 10.1029/2021WR029793, https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2021WR029793
Mikroplastikabrieb von Abwasserrohren aus Kunststoff
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das Kanalnetz in Deutschland erstreckt sich im öffentlichen Bereich über eine Länge von 594 000 Kilometern. Im Privatbereich kommt die anderthalb- bis zweifache Strecke dazu. Fraunhofer UMSICHT hat im Auftrag der Fachvereinigung Betonrohre und Stahlbetonrohre e.V. abgeschätzt, welche Menge an Mikroplastikpartikeln durch den Verschleiß von Abwasserrohren aus Kunststoff in die Umwelt gelangen. Die Überlegungen zeigen: Die freigesetzte Abriebmenge liegt in ähnlicher Größenordnung wie die von Rasentrimmern.
Kunststoffe sind in unserer Gesellschaft allgegenwärtig. Auch der Anteil an Kunststoffrohren im Abwassersystem steigt seit Jahren. Mittlerweile bestehen knapp 18 Prozent des öffentlichen Abwassernetzes aus Kunststoff1 – das entspricht einer Strecke von 106 920 Kilometern unter der Erde. Sie besitzen eine glatte Oberfläche und hohe Elastizität.
Dennoch geben Kunststoffrohre Mikroplastikpartikel an die Umwelt ab. »In den Kanälen herrschen sehr aggressive Bedingungen durch Feuchtigkeit, Strömung und Abrasivstoffe«, schildert Jürgen Bertling, stellvertretender Abteilungsleiter Nachhaltigkeits- und Ressourcenmanagement beim UMSICHT, »Durch den Verschleiß setzen die Rohre schließlich Mikroplastikpartikel frei.« Die partikulären, schleißenden Bestandteile stammen überwiegend aus dem Niederschlagswasser und finden sich deshalb in Regen- und Mischkanälen. Zwar geht nicht der gesamte Abrieb in die Umwelt, da Abwasserbehandlungsanlagen einen Teil zurückhalten. Allerdings wird ein Teil der zurückgehaltenen Partikel mit dem Klärschlamm wieder auf Felder ausgebracht. Reine Regenwasserkanäle führen dagegen meist ungeklärt oder nur durch einfache Absetzbecken in die Vorfluter.
46 Tonnen Mikroplastik pro Jahr im öffentlichen Bereich
Die Forschenden von Fraunhofer UMSICHT konnten in einer ersten Studie im öffentlichen Kanalnetz einen Abrieb von 120 Tonnen Mikroplastik pro Jahr abschätzen. Davon hält die Abwasserbehandlung rund 62 Prozent zurück. Die freigesetzte Abriebmenge beträgt daher 46 Tonnen pro Jahr. Im privaten Bereich gestaltet sich die Abschätzung durch die wenigen Daten schwieriger. Das Team hat angenommen, dass der Durchmesser der Rohre kleiner, aber der Kunststoffanteil demgegenüber hoch ist. Der abgeschätzte Abrieb von rund 500 Tonnen pro Jahr im Abwassernetz auf privaten Grundstücken reduziert sich durch die Abwasserbehandlung auf ca. 190 Tonnen pro Jahr.
Kunststoffrohre werden während des Einbaus häufig vor Ort gekürzt und neu gefast. In der Regel wird dies ohne besondere Vorkehrungen durchgeführt, und die Späne verbleiben im Rohr oder zum größten Teil im umgebenden Erdreich. Die Emissionen durch Schnittverluste beim Verlegen schätzen die Forschenden aber auf unter 10 Tonnen pro Jahr und damit vergleichsweise gering ein.
Mikroplastikemissionen von Kunststoffrohren eher gering
Die Ergebnisse der Abriebmengen liegen somit weit unter den Abriebmengen, die zum Beispiel durch Pellets entstehen (14924 t/a) entstehen, aber in vergleichbarer Größenordnung wie Rasentrimmer (123 t/a)3. Die Abschätzungen zeigen, dass zurzeit die Mengen an Kunststoffabrieb im Vergleich zur Gesamtmenge der Mikroplastikemissionen eher gering sind. Die emittierten Polymere PE und PVC gelten allerdings als besonders schwer abbaubar.
Von Parameterkombinationen zur wahrscheinlichen Abriebmenge
Um die jährlichen Abriebmengen erstmalig abschätzen und ggf. einen Handlungsbedarf erkennen zu können, haben die Forschenden in einem ersten Schritt zu Messverfahren und Abschätzung des Abriebs recherchiert. Daraufhin erfolgte die Abschätzung beruhend auf der Verteilung von Längen, Durchmessern und der Abriebtiefen über die Lebensdauer, die veröffentlichten Literaturwerten entnommen wurden. Die wenigen verfügbaren Daten dienten dem Team für eine erste Einschätzung. Allerdings hinterfragen sie die Vergleichbarkeit der verwendeten Ergebnisse der Darmstädter Rinne bei verschiedenen Werkstoffen in Hinblick auf Laborversuche und Lebensdauer.
»Da wir die Parameter nur sehr unsicher bestimmen können, haben wir für jeden Parameter ein gewisses Intervall geschätzt«, erklärt Jan Blömer, Abteilung Nachhaltigkeit und Partizipation. »Den Abrieb berechnen wir jeweils für 1000 Parameterkombinationen. Daraus können wir dann einen wahrscheinlichen Abrieb mit einer gewissen Schwankungsbreite bestimmen.« Der Abrieb pro Jahr ergibt sich so aus der Kanalnetzlänge multipliziert mit dem Anteil der Kunststoffrohre, der Verschleißbreite und der Verschleißtiefe geteilt durch die Lebensdauer.
Mikroplastik in der Umwelt
Große Mengen von Kunststoffen gelangen jedes Jahr in die Umwelt. 2 Fraunhofer UMSICHT arbeitet seit 2015 daran, den Erkenntnisstand rund um die Thematik Kunststoffemissionen zu verbessern. Das Forschungsteam der Konsortialstudie Mikroplastik konnte im Juni 2018 insgesamt ca. 70 Quellen für Mikroplastikemissionen identifizieren. 3 Die (primären) Mikroplastikemissionen in Deutschland haben sie auf 330 000 Tonnen pro Jahr geschätzt. Aktuell versuchen die Wissenschaftler*innen, einzelne Quellen genauer zu bestimmen und auch die Transferpfade in die Umwelt aufzuschlüsseln.
[1] Berger et al. (2020)
[2] Geyer, Jambeck und Law (2017)
[3] Bertling, Hamann und Bertling (2018)
Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/mikroplastik.html (Weitere Informationen zu Mikroplastik)
https://www.umsicht.fraunhofer.de/de/forschung-fuer-den-markt/kunststoffe-in-der… (Weitere Informationen zu Kunststoffen in der Umwelt)
https://www.umsicht.fraunhofer.de/de/kompetenzen/nachhaltigkeit-partizipation.ht… (Abteilung Nachhaltigkeit und Partizipation)
Den Schweregrad von COVID-19 besser einschätzen
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Biomediziner der LMU finden im Blut von COVID-19-Patienten einen neuen Marker. Er liefert Einblicke in das Krankheitsgeschehen und könnte zu besseren Diagnosen führen.
Infektionen mit SARS-CoV-2 laufen bei vielen Patienten symptomlos ab oder verursachen kaum Beschwerden. Sie können aber auch zu dem Krankheitsbild COVID-19 mit Veränderungen der Blutgerinnung und mit Entzündungen führen. Darüber hinaus beobachten Ärztinnen und Ärzte bei COVID-19 Störungen des Immunsystems mit niedrigen Lymphozyten-Titern im Blut.
„Wir wussten bisher, dass ein Zusammenhang zwischen Komponenten der Blutgerinnung und der Immunreaktion besteht“, sagt Prof. Dr. Thomas Brocker, der am Biomedizinischen Centrum der LMU forscht. „Die Gründe und die Mechanismen waren aber weitgehend unbekannt“, so der Wissenschaftler.
Im Fachmagazin Journal of Extracellular Vesicles berichtet Brocker jetzt zusammen mit Kolleginnen und Kollegen über die Rolle von Phosphatidylserin bei COVID-19: einem Molekül, das normalerweise in Zellwänden vorkommt. Es könnte bei pathophysiologischen Mechanismen rund um das Immunsystem und die Blutgerinnung bedeutsam sein, eignet sich perspektivisch aber auch als neuer Biomarker, um per Bluttest die Schwere der Erkrankung zu prognostizieren.
Studie mit Blutproben aus dem COVID-19-Register der LMU
Brockers Labor hatte bereits früher einen Test entwickelt, der Phosphatidylserin in oder auf Blutzellen erkennt. Im Rahmen der Studie untersuchten die Forschenden zwischen April 2020 und Februar 2021 Blutproben von 54 Patienten aus dem COVID-19-Register der LMU (CORKUM). Alle Erkrankten hatten COVID-19 in unterschiedlichen Schweregraden. Hinzu kamen Proben von 35 gesunden und 12 genesenen Spendern. Das Augenmerk der Studie lag auf mononukleären Zellen des peripheren Blutes wie Lymphozyten und Monozyten.
Alle Immunzellen wurden mit dem Phosphatidylserin-Test analysiert und per Durchflusszytometrie, einem physikalischen Verfahren, aufgetrennt. Das Gerät fertigte gleichzeitig mikroskopische Aufnahmen jeder Zelle an. Anhand der Bilddateien konnten die Forschenden erkennen, ob – beziehungsweise wo – sich Phosphatidylserin befand. Dabei zeigte sich, dass die Immunzellen das Signal nicht im Inneren trugen. „Lymphozyten aus dem Blut von COVID-19-Patienten waren mit Bruchstücken von Blutplättchen oberflächlich beladen, was wir anhand des Signals nachweisen konnten“, sagt Brocker. Blutplättchen wiederum beschleunigen die Blutgerinnung. „Damit könnte Phosphatidylserin als Signalgeber für fehlgeleitete entzündliche Prozesse oder Störungen der Blutgerinnung bei COVID-19 dienen, sprich typische Veränderungen bei COVID-19 triggern“, vermutet der LMU-Wissenschaftler.
Ein neuer Marker für COVID-19
Bei den Messungen zeigte sich auch eine Assoziation zwischen dem Schweregrad von COVID-19 und Phosphatidylserin. Erhöhte Werte während der aktiven Phase von COVID-19 korrelierten stark mit dem Schweregrad der Erkrankung und könnten perspektivisch zu besseren Diagnosen führen. „Als Marker übertraf Phosphatidylserin etablierte Labormarker für Entzündungsvorgänge im Körper, für Leukozyten und für Gerinnungsfaktoren, die momentan zur klinischen Bewertung von COVID-19 herangezogen werden“, so Brocker. Zur Einstufung werden momentan diverse Laborparameter herangezogen. Sie sind Grundlage der WHO-Skala von null Punkten (gesund) bis hin zu acht Punkten (Tod durch COVID-19).
Noch ist Brockers System für Forschungslabore ausgelegt; die wenigsten Kliniken haben Durchflusszytometer mit Möglichkeiten der Bildgebung. Deshalb wollen die LMU-Forscher jetzt herausfinden, ob sich normale Durchflusszytometer, wie sie viele Krankenhäuser im Labor haben, ebenfalls zur Messung eignen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Brocker
Biomedizinisches Centrum
Institute for Immunology
Tel: +49 89 218075674
Assistant: Marion Dorfmeister
Tel: +49 89 218075669
sekretariat.immunologie@med.uni-muenchen.de
https://www.immunologie.med.uni-muenchen.de/research/ag_brocker/index.html
Originalpublikation:
Lisa Rausch, Konstantin Lutz, Martina Schifferer, Elena Winheim, Rudi Gruber, Elina F. Oesterhaus, Linus Rinke, Johannes C. Hellmuth, Clemens Scherer, Maximilian Muenchhoff, Christopher Mandel, Michael Bergwelt-Baildon, Mikael Simons, Tobias Straub, Anne B. Krug,
Jan Kranich, Thomas Brocker (2021). Binding of phosphatidylserine-positive microparticles by PBMCs classifies disease severity in COVID-19 patients. Journal of Extracellular Vesicles
Arbeit und Wohlfahrt im Globalen Süden
Sandra Sieraad Medien und News
Universität Bielefeld
Auch für Wanderarbeiter*innen in den Fabriken des Globalen Südens – in Ländern wie China, Indien, Vietnam, Brasilien oder Südafrika – gibt es Sozialversicherungen und andere Schutzprogramme. Der Zusammenhang zwischen Arbeit und Wohlfahrt samt der Frage, wie weit solche Maßnahmen die Menschen wirklich schützen und wie sie ihre Arbeitswelt verändern, ist Thema der internationalen Onlinetagung „Neukonfiguration von Arbeit und Wohlfahrt in aufstrebenden Volkswirtschaften des Globalen Südens“ („Reconfiguring Labour and Welfare in Emerging Economies of the Global South“).
Die Konferenz wird am 7. und 8. Dezember vom Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld ausgerichtet.
„In den letzten zwanzig Jahren haben viele Länder des Globalen Südens universelle Schutzprogramme für Arbeiter*innen eingeführt, etwa Geldtransfers, Grundrente und Krankenversicherung“, berichtet Dr. Minh T.N. Nguyen, Professorin für Sozialanthropologie an der Universität Bielefeld. Sie leitet die Tagung zusammen mit Dr. Jake Lin, Ngoc Minh Luong und Yueran Tian von der Fakultät für Soziologie der Universität Bielefeld.
Die Schutzprogramme seien vor allem als Reaktion auf Unruhen und ökonomische Krisen eingeführt worden, sagt Minh Nguyen. Zwar haben die Programme einen universalen Anspruch. Doch wie wirksam die Programme tatsächlich sind, Ungleichheit zu vermindern und Bedürftige – insbesondere Wanderarbeiter*innen – zu schützen, das sei bislang unklar, so die Forscherin. Sie beobachtet, dass die Einführung von Versicherungen mit der Privatisierung von Wohlfahrt einhergeht. Für die Arbeiter*innen bedeute dies, sich eigenverantwortlich in einem Dschungel von mehr oder weniger gut zusammenpassenden Angeboten zurechtfinden zu müssen.
Um diese Entwicklungen besser zu verstehen, hat Nguyen fünfzig Kolleg*innen aus Sozialanthropologie, Soziologie, und Politikwissenschaft zu der Onlinetagung eingeladen. Die Teilnehmenden kommen aus 15 Ländern – unter anderem aus Vietnam, Brasilien und Südafrika. Auf der Tagung befassen sie sich damit, wie sich die Wohlfahrtsmaßnahmen in den Staaten des Globalen Südens in den vergangenen Jahren verändert haben und wie sie die Arbeitswelt verändern. Außerdem setzen sie sich damit auseinander, welche moralischen und politischen Triebkräfte hinter diesen Veränderungen stehen und wie diese Veränderungen im weltweiten Kontext zu verstehen sind.
Auf dem Programm steht eine Keynote von Professor Biao Xiang PhD, Direktor am Max-Planck-Institut für ethnologische Forschung in Halle an der Saale. In den Panels der Tagung geht es um Fabrikarbeit, informelle Arbeit, transnationale Arbeitsmigration, Finanzwesen und die Auswirkungen der Coronapandemie. Die Tagung steht im Kontext des Forschungsprojekts „WelfareStruggles“, das vom European Research Council unterstützt wird.
Das Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld ist eine unabhängige, thematisch ungebundene Forschungseinrichtung und steht Wissenschaftler*innen aller Länder und aller Disziplinen offen.
Wissenschaftliche Ansprechpartner:
Prof’in Dr. Minh T. N. Nguyen, Universität Bielefeld
Fakultät für Soziologie
E-Mail: minh.nguyen@uni-bielefeld.de
Weitere Informationen:
https://www.uni-bielefeld.de/(en)/ZiF/AG/2021/12-07-Nguyen.html Website der Tagung
https://cordis.europa.eu/project/id/803614/de Steckbrief zum Forschungsprojekt „WelfareStruggles“
https://aktuell.uni-bielefeld.de/2020/04/09/harte-arbeit-und-ostwestfaelische-be… Professorin Dr. Minh Nguyen im Portrait (Aktuell-Blog-Beitrag vom 04.02.2020)
Personalisierte Medizin – Funktionierende, künstliche Leberzellen aus Hautgewebe
Marcel Wyler Wissenschaftskommunikation
Universitätsspital Bern
Einer Forschungsgruppe aus dem Inselspital, Universitätsspital Bern, dem Universitäts-Kinderspital Zürich – Eleonorenstiftung und der University of California San Francisco (UCSF) ist ein wichtiger Schritt zum Bau von personalisierten, künstlichen Leberzellen gelungen. Erstmals konnten technisch hergestellte Stammzellen aus Hautgewebe durch Zufügen eines Transportproteins dazu gebracht werden, sich wie normale Leberzellen zu verhalten. An diesen Zellen können nun u.a. Medikamente getestet werden.
Der Harnstoffzyklus ist für die Entfernung stickstoffhaltiger Abbauprodukte aus dem Organismus verantwortlich. Fehlt in diesem Zyklus das Enzym OTC, kommt es zu Vergiftungen durch eine Anreicherung von Ammoniak. Ein OTC-Defekt ist die häufigste vererbte Krankheit im Harnstoffzyklus. Er ist mit Medikamenten bisher nicht heilbar.
Das OTC-Gen liegt auf dem Geschlechtschromosom (X-Chromosom). Das bedeutet, dass die Krankheit bei weiblichen Betroffenen in der Regel schwächer ausgeprägt ist. Bei männlichen Patienten, die ein X- und ein Y-Chromosom haben, wirkt sich ein Defekt des OTC-Gens dramatisch aus: Bei neugeborenen Jungen endet die Ammoniakvergiftung durch OTC-Mangel oft tödlich. Das Forschungsteam suchte nach Wegen, Medikamente gegen den OTC-Defekt im Labor zu testen.
Ein erstes Modell gebaut
Zuerst stellte das Forschungsteam in einem aufwendigen Verfahren künstliche Leberzellen aus dem Hautgewebe von Patientinnen und Patienten her. Das funktionierte so: Zunächst wurde Patientinnen und Patienten und einer Kontrollgruppe (gesunde Personen) eine sehr kleine Gewebeprobe der Haut entnommen. Die Proben wurden in einem technologischen Verfahren so verändert, dass sie sich wie sogenannte Stammzellen verhielten. Dieses Herstellungsverfahren wurde von Shin’Ya Yamanaka entwickelt, wofür er 2012 mit dem Medizin-Nobelpreis ausgezeichnet wurde. «Mittels induzierter Stammzellentechnologie ist es uns gelungen, künstliche Leberzellen herzustellen, die sich weitgehend wie Leberzellen von Patientinnen und Patienten verhalten» erläutert Dr. med. Alexander Lämmle, Oberarzt an der Kinderklinik und am Universitätsinstitut für Klinische Chemie am Inselspital. «Wir haben jedoch beobachtet, dass die künstlichen Leberzellen deutlich weniger Harnstoff ausscheiden als echte, gesunde Leberzellen und zwar unabhängig davon, ob sie von gesunden Kontrollen oder Harnstoffzyklus-Patientinnen und -Patienten stammen.» Den Forschenden gelang es, den Grund für dieses Verhalten zu ermitteln. Die technologisch hergestellten Stammzellen zeichneten sich durch einen vollständigen Mangel an Aquaporin 9, einem Transport-Eiweiss in der Zellmembran, aus. Grund für dieses Fehlen ist der noch unreife Charakter der künstlichen Leberzellen.
Aquaporin 9: der Schlüssel zur funktionierenden, künstlichen Leberzelle
Aquaporine organisieren den Transport von Wasser und bestimmter Stoffe durch die Zellmembran. Aquaporin 9 ist zuständig für den Transport von Harnstoff. Die Forscher haben in einem nächsten Schritt ein Verfahren entwickelt, bei dem die Bildung von Aquaporin 9 in den Stammzellen forciert wird. Dadurch ändern die technologisch hergestellten Leberzellen ihr Verhalten. Sie bauen Ammoniak zu Harnstoff ab und scheiden den Harnstoff aus – genauso, wie es gesunde Zellen tun. Damit ist die Grundlage für ein funktionierendes Testverfahren mit künstlichen Leberzellen geschaffen.
Einsatz der künstlichen Zellen: Medikamente testen
Bei einem OTC-Defekt funktionieren die komplexen OTC-Eiweissgebilde nicht richtig. Sie brauchen – wie die meisten grossen Eiweisse – Gehilfen oder Aufpasser, sogenannte Chaperone, damit sie richtig zusammengebaut werden und funktionieren können. Prof. Dr. med. Johannes Häberle vom Universitäts-Kinderspital Zürich – Eleonorenstiftung erläutert: «Die Chaperone sorgen dafür, dass die Faltung der Enzymmoleküle korrekt erfolgt und dass das Enzym korrekt für seinen Einsatz vorbereitet wird. Das neue Testmodell wird nun eingesetzt, um OTC-Chaperone zu testen und auf diese Weise mehr über den OTC-Defekt und über mögliche Therapien herauszufinden.»
Wissenschaftliche Ansprechpartner:
Dr. med. Alexander Laemmle, Universitätsklinik für Kinderheilkunde, Inselspital, Universitätsspital Bern und Universitätsinstitut für Klinische Chemie, Universität Bern.
Prof. Dr. med. Johannes Häberle, Leitender Arzt, Leiter Stoffwechsellabor, Universitäts-Kinderspital Zürich – Eleonorenstiftung und Zurich Center for Integrative Human Physiology (ZIHP)
Prof. Holger Willenbring, M.D., Ph.D., Professor of Surgery, Eli and Edythe Broad Center of Regeneration Medicine and Stem Cell Research, Associate Director, Liver Center, University of California, San Francisco
Originalpublikation:
Laemmle, A., Poms, M., Hsu, B., Borsuk et al. (2021): Aquaporin 9 Induction in Human iPSC-derived Hepatocytes Facilitates Modeling of Ornithine Transcarbamylase Deficiency. Hepatology. Accepted Author Manuscript
DOI: https://doi.org/10.1002/hep.32247
Anhang
Medienmitteilung DE
Müllschlucker: Korallen filtern Mikroplastik aus Meerwasser
Caroline Link Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Riffbildende Korallen bauen kleine Kunststoffpartikel dauerhaft in ihr Kalkskelett ein – Studie in Gießener Meerwasser-Aquarien erbringt ersten Nachweis für Lebewesen, die langfristig Mikroplastik aus der Umwelt entfernen
In den Weltmeeren findet man immer mehr winzige Partikel aus Kunststoff, das sogenannte Mikroplastik. Wo sich diese Abfallteilchen aus Autoreifen, Windeln, zerfallenden Plastiktüten und anderen Produkten langfristig einlagern, ist nicht abschließend erforscht. Bislang standen vor allem unbelebte Speicherorte im Fokus wie das arktische Eis, Sedimente in küstennahen Bereichen und die Tiefsee. Doch auch Lebewesen können Mikroplastik dauerhaft einlagern, wie eine Untersuchung der Justus-Liebig-Universität Gießen (JLU) in Meerwasser-Aquarien zeigt. Demnach nehmen Korallen aktiv Mikroplastik auf und bauen die Teilchen in ihr Kalkskelett ein. Die riffbildenden Tiere tragen so zur Reinigung des Meerwassers bei. Die Studie hat das Fachmagazin Global Change Biology veröffentlicht.
„Korallen sind die ersten Organismen, die als lebende Senke für Mikroplastik im Meer entdeckt wurden“, sagt Dr. Jessica Reichert, JLU-Korallenforscherin und Studienleiterin. Die Tiere könnten in Riffen weltweit bis zu 20.000 Tonnen Mikroplastik im Jahr binden, schätzen sie und ihr Team. Das entspricht etwa einem Prozent des Mikroplastiks im Riffwasser – allein für diese eine Tiergruppe. Dr. Reichert: „Unsere Studie lässt Korallenriffe in neuem Licht erscheinen. Sie können nicht nur dabei helfen, das ökologische Gleichgewicht der Ozeane zu erhalten, sondern auch als Langzeitspeicher für Mikroplastik dienen.“
Für die Studie untersuchten Reichert und ihr Team vier Korallenarten, die im Indopazifik beheimatet sind, wo rund 90 Prozent aller Korallenriffe liegen: Geweihkorallen, Pfötchenkorallen, kleinpolypige Steinkorallen und blaue Korallen. In den Gießener Meerwasser-Aquarien simulierten sie über 18 Monate eine starke Mikroplastik-Belastung. Wie die Tiere die etwa 100 Mikrometer kleinen Teilchen in ihre Körper aufnehmen, beobachtete das Team live durchs Mikroskop. Genaue Mengen lieferten Gewebe- und Skelettanalysen von 54 Korallen. Demnach lagern Korallen bis zu 84 Mikroplastikpartikel pro Kubikzentimeter in ihre Körper ein – vor allem im Skelett, aber auch im Gewebe. Ein Beispiel: Eine Koralle im Versuch nahm bis zu 600 Mikroplastikpartikel auf, während sie ihre Körpergröße von fünf auf zehn Zentimeter verdoppelte.
Doch wie genau gelangen die winzigen Kunststoffteilchen in die Koralle? Korallen ernähren sich von Plankton, das sie mit speziellen Zellen aus dem Wasser filtern. Dabei kann es passieren, dass auch andere kleine Teilchen aufgenommen werden. „Solche ungenießbaren Teilchen scheidet die Koralle normalerweise wieder aus“, sagt Dr. Reichert. „Manchmal aber läuft bei der Selbstreinigung etwas schief. Die Koralle verschluckt sich sozusagen und der Partikel bleibt im Körper.“
Auch wenn die permanente Aufnahme von Mikroplastik zunächst einen positiven Effekt auf marine Ökosysteme zu haben scheint, so kann es für die Koralle und ganze Riffsysteme gefährlich werden. Bereits 2019 hat das Gießener Team zusammen mit Forschenden aus Australien gezeigt, dass einige Korallenarten bei Mikroplastik-Belastung schlechter wachsen oder gar krank werden, z.B. Korallenbleiche oder Nekrosen zeigen. Mit der aktuellen Studie kommt ein neues Puzzlestück hinzu.
„Wir wissen nicht, welche langfristigen Folgen die Einlagerung von Mikroplastik für die Korallen haben wird, „, sagt die Gießener Forscherin. „Aber es könnte die Stabilität und Widerstandsfähigkeit der Riffe beeinträchtigen. Mikroplastik wäre dann eine zusätzliche Bedrohung für die ohnehin durch den Klimawandel gefährdeten Korallenriffe auf der ganzen Welt.“
Die Studie wurde im Rahmen des Projektes „Ocean 2100“ des deutsch-kolumbianischen Exzellenzzentrums für Meeresforschung CEMarin (Center of Excellence in Marine Sciences) durchgeführt und vom Deutschen Akademischen Austauschdienst (DAAD) gefördert. In der Gießener Meerwasser-Aquarienanlage von „Ocean 2100“ simulieren Forschende die Zukunft der Ozeane, etwa im Hinblick auf Klimawandel oder Mikroplastik-Belastung. Ziel ist es, besser einschätzen zu können, wie sich der globale Wandel in der Zukunft auf riffbildende Korallen auswirkt.
Wissenschaftliche Ansprechpartner:
Dr. Jessica Reichert
Spezielle Zoologie und Biodiversitätsforschung
Heinrich-Buff-Ring 26-32 (iFZ), 35392 Gießen
Telefon: 0641 99-35728
Originalpublikation:
Jessica Reichert, Angelina L. Arnold, Nils Hammer, Ingo B. Miller, Marvin Rades, Patrick Schubert, Maren Ziegler, Thomas Wilke: Reef-building corals act as long-term sink for microplastic. Global Change Biology, Oktober 2021, DOI: https://doi.org/10.1111/gcb.15920
Weitere Informationen:
https://doi.org/10.1111/gcb.15920
Die Zukunft der Blutdruckmessung: Kontinuierlich. In Echtzeit. In-Ear.
Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Die Deutsche Hochdruckliga ist an der Entwicklung einer neuartigen Blutdruck-Messmethode beteiligt. Die Messung des Blutdrucks erfolgt dann sensorbasiert und kontinuierlich über ein Hörgerät oder einen in-ear-Kopfhörer. Die Vorteile? Oft kommt es im Alltag oder in der Nacht zu gefährlichen Blutdruckspitzen, die bei der herkömmlichen Messung nicht erkannt werden. Darüber hinaus erlaubt das System ein echtes Monitoring von Hochrisikopatientinnen und -patienten – Smartwatches hingegen messen den Blutdruck nicht, sondern schätzen ihn lediglich ab.
Die Deutsche Hochdruckliga ist zusammen mit dem Hörgerätehersteller Kind assoziierter Partner des Projekts „Mikroelektronik für permanente, nichtinvasive Blutdruckmessung im Ohr“ im Rahmen der BMBF-geförderten Forschungsinitiative „Neue Elektroniksysteme für intelligente Medizintechnik (Smart Health)“. Herr Hartmut Richter (audiofon hearing system) koordiniert die Entwicklungsarbeit der Verbundpartner (Bartels mikrotechnik, Bosch, FZI Forschungszentrum Informatik, Hahn Schickard).
Ziel des Vorhabens ist die Entwicklung eines Mikrosystems zur permanenten, nichtinvasiven Blutdruckmessung im Ohr, inklusive der dafür benötigten Sensor-Aktor-Komponenten sowie der Steuerungsplattform. Ein solches System würde belastungsfreie Langzeitmessungen ermöglichen und einen enormen Fortschritt für die Diagnose und Therapie von Herz-Kreislauf-Erkrankungen bedeuten. Die unmittelbaren, medizinischen Informationen durch belastungsfreie Langzeitmessungen über akute Veränderungen, mögliche Auslöser oder postoperative Verläufe, welche ein solches Systems ohne die Risiken invasiver Verfahren liefern könnte, würde die Diagnose und Therapie von Herz-Kreislauf-Erkrankungen revolutionieren. So würde detailliertes Wissen über kardiopulmonale Verläufe von Patienten dazu führten, individualisierte Therapiekonzepte mit denkbarer Unterstützung durch technische Patient-The-Loop-Systeme zu ermöglichen. Auch gibt es Krankheiten, wie z.B. Ohnmachtsanfälle (Synkopen), orthotostische Dysregulationen, ungeklärte Herzrhythmusstörungen, bei denen das Wissen über den Blutdruckverlauf eine wertvolle Information sein kann. Die zusätzlich gewonnenen Informationen könnten darüber hinaus neue medizinische Forschungsfelder eröffnen, wie die Blutdruckentwicklung während körperlicher Aktivitäten/Sport.
In Vorarbeiten konnte bereits gezeigt werden, dass sich mittels passiver Messung des Drucksignals im Ohr Vitalparameter wie Puls und Atmung extrahieren lassen. Zudem wurde ein Verfahren erarbeitet und patentiert (Az. 10 2016 002 596.4), welches basierend auf einer aktiven Druckbeaufschlagung in einer abgedichteten Luftkammer im äußeren Gehörgang bei gleichzeitiger Erfassung des Drucksignals die kontinuierliche Bestimmung des absoluten Blutdrucks im Ohr ermöglicht. Die kontinuierlich erhobenen Werte lassen sich dann in einer App auf dem Smartphone ablesen und archivieren.
„Im Vergleich zur Blutdrucküberwachung mit einer SmartWatch, die den Blutdruck anhand von Pulswellen oder Änderungen der Blutfülle von Hautarealen nur mehr oder weniger abschätzen und relative Blutdruckänderungen messen, handelt es sich bei dem neuen System um eine medizinisch genaue kontinuierliche Messung in Echtzeit mit absoluten Blutdruckwerten“, erklärt Dr. Siegfried Eckert, Bad Oeynhausen, der das Projekt seitens der Deutschen Hochdruckliga begleitet und betreut.
Durch die Unterstützung der assoziierten Partner deutschen Hochdruckliga und KIND können schon im Entwicklungsprozess Standards und Normen eingehalten werden, um eine nachhaltige Entwicklung für eine zukünftige Produktentwicklung nach Projektende zu gewährleisten. „Wir sind optimistisch, das System binnen der nächsten zwei Jahre zur Produktreife zu führen“, so Dr. Eckert abschließend heute auf der Pressekonferenz der Deutschen Hochdruckliga.
Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Weitere Informationen:
https://www.hypertoniekongress.de/
Vitamin D-angereicherte Lebensmittel könnten Krebssterblichkeit senken
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wissenschaftler im Deutschen Krebsforschungszentrum (DKFZ) zeigen mit einer Modellrechnung, dass eine Anreicherung von Lebensmitteln mit Vitamin D die Krebssterblichkeit ähnlich effektiv senken könnte wie eine Substitution in Form von Vitaminpräparaten.
Milch und Joghurt, Orangensaft oder Frühstücksflocken mit einer Extraportion Vitamin D? In Kanada, Schweden, Finnland oder Australien ist das längst Alltag in jedem Supermarkt. Staatliche Programme regeln in diesen Ländern, welche Lebensmittel mit welcher Vitamindosis angereichert werden.
Eine ausreichende Versorgung mit Vitamin D galt immer schon als Voraussetzung für gesunde Knochen. Daneben wird heute außerdem die Rolle von Vitamin D in der Prävention einer Vielzahl von chronischen Erkrankungen untersucht, unter anderem von Krebs. Zur Frage, wie sich die Vitamin D-Versorgung auf die Krebs-Sterberaten auswirkt, sind in den vergangenen Jahren drei Metaanalysen großer randomisierter klinischer Studien erschienen. Die Untersuchungen* kamen zu einem übereinstimmenden Ergebnis: Bei einer Vitamin D-Supplementierung sinkt die Krebssterblichkeit um rund 13 Prozent – über alle Krebsarten hinweg.
Könnte dieser Effekt auch erreicht werden, wenn Menschen das Vitamin nicht mit der täglichen Pille, sondern über angereicherte Lebensmittel zu sich nehmen? Mit dieser Frage hat sich Hermann Brenner vom DKFZ beschäftigt. „Es ist nahezu unmöglich, den Effekt von Vitamin D-angereicherten Lebensmitteln auf die Krebssterblichkeit mit einer klassischen klinischen Studie direkt zu untersuchen“, erklärt der Epidemiologe. „Deshalb haben wir einen indirekten Weg gewählt, um diese Frage mithilfe sorgfältiger Modellrechnungen bestmöglich zu beantworten.“
Mit einer systematischen Recherche der wissenschaftlichen Fachliteratur untersuchten Brenner und sein Team zunächst, welche Steigerung des Vitamin-D-Spiegels sich durch angereicherte Lebensmittel erreichen lässt. Dabei ermittelten sie einen durchschnittlichen Anstieg, der einer Einnahme von 400 internationalen Einheiten (IU) des Vitamins entspricht. „Damit liegen wir in einen Dosisbereich, der sich in den Substitutionsstudien als wirksam erwiesen hat: Die Einnahme von 400 Einheiten pro Tag ging mit einer um 11 Prozent geringeren Krebssterblichkeit einher“, erklärt Brenner.
Die Kosten für eine Anreicherung mit Vitamin D schätzen die Wissenschaftler auf nur etwa fünf Prozent der Summe, die erforderlich wäre, die Bevölkerung ab einem Alter von 50 Jahren mit Vitamin D-Tabletten zu versorgen. „Im Vergleich zu den eingesparten Krebsbehandlungskosten wären die Kosten vernachlässigbar gering. Und wir würden weitaus größere Kreise erreichen, etwa Menschen mit einem geringeren Gesundheitsbewusstsein, die häufig besonders niedrige Vitamin-D- Spiegel haben“, ergänzt Tobias Niedermaier, der Erstautor der Studie.
„Natürlich gibt es wie bei allen Modellrechnungen noch Unsicherheiten darüber, wie stark den Lebensmitteln zugesetztes Vitamin D die Krebssterblichkeit tatsächlich senken kann“, resümiert Hermann Brenner. „Wir beobachten jedoch in Studien zur Lebensmittelanreicherung einen Anstieg des Vitaminspiegels in einer Größenordnung, die in den Supplementierungsstudien mit einem deutlichen Rückgang der Krebssterblichkeit verbunden war. Daher halten wir es für plausibel, dass sich die Ergebnisse übertragen lassen.“ Brenner und seine Kollegen schlagen daher vor, das Potenzial dieses kostengünstigen und möglicherweise sehr effektiven Ansatzes, Krebstodesfälle zu vermeiden, in weiteren Studien sorgfältig zu prüfen.
Neben der Zufuhr von Vitamin D über die Nahrung kann eine ausreichende Versorgung auch durch Sonnenbestrahlung sichergestellt werden: Der Krebsinformationsdienst des DKFZ empfiehlt, sich bei Sonnenschein im Freien zwei- bis dreimal pro Woche für etwa zwölf Minuten aufzuhalten. Gesicht, Hände und Teile von Armen und Beinen sollten für diese Zeitspanne unbedeckt und ohne Sonnenschutz sein.
Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, and Hermann Brenner: Potential of vitamin D food fortification in prevention of cancer deaths – a modelling study
Nutrients 2021, DOI: https://doi.org/10.3390/nu13113986
*Substitutionsstudien:
• Keum N, Lee DH, Greenwood DC, Manson JE, Giovannucci E. Vitamin D supplementation and total cancer incidence and mortality: a meta-analysis of randomized controlled trials. Ann Oncol. 2019;30(5):733-43.
• Haykal T, Samji V, Zayed Y, Gakhal I, Dhillon H, Kheiri B, et al. The role of vitamin D supplementation for primary prevention of cancer: meta-analysis of randomized controlled trials. J Community Hosp Intern Med Perspect. 2019;9(6):480-8.
• Zhang X, Niu W. Meta-analysis of randomized controlled trials on vitamin D supplement and cancer incidence and mortality. Biosci Rep. 2019;39(11)
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de
Originalpublikation:
Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, and Hermann Brenner: Potential of vitamin D food fortification in prevention of cancer deaths – a modelling study
Nutrients 2021, DOI: https://doi.org/10.3390/nu13113986
Booster-Impfung mit mRNA-Impfstoffen auch für Schwangere und Stillende geeignet?
Sara Schönborn Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Gynäkologie und Geburtshilfe e.V.
Warum die Deutschen Fachgesellschaften für Schwangerschaft, Geburt und Stillzeit keinen Grund dafür, sehen schwangere und stillende Frauen von einer Booster-Impfung auszugrenzen, erläutern sie in einer neuen wissenschaftlichen Empfehlung.
Die Ständige Impfkommission (STIKO) hat sich für bestimmte Gruppen am 07.10.2021 für eine Booster-Impfung gegen COVID-19 mit einem mRNA-Impfstoff ausgesprochen1 . Es ist zu erwarten, dass diese Empfehlung zukünftig uneingeschränkt für alle BürgerInnen gelten wird. Dies vorwegnehmend und vor dem Hintergrund aktuell rasch steigender Infektionszahlen sowie analog zur Stellungnahme der Österreichischen Gesellschaft für Gynäkologie und Geburtshilfe (OEGGG) vom 08.11.20212 sehen die Deutschen Fachgesellschaften für Schwangerschaft, Geburt und Stillzeit keinen Grund dafür, schwangere und stillende Frauen von einer Booster-Impfung auszugrenzen. Mit Verweis auf den ausführlichen Bericht zur Nutzen-Risiko-Bewertung einer Impfung mit einem mRNA-Impfstoff in der Schwangerschaft und Stillzeit im Epidemiologischen Bulletin Nr. 38 vom 23.09.20213 schließen sich die aufgeführten Fachgesellschaften dem Wortlaut der OEGGG an.
Die Empfehlung zur Boosterung ist durch die derzeit rapide steigenden Infektionszahlen sowie den nachweislich nach sechs Monaten sinkenden Antikörperspiegel in der allgemeinen Population mit parallel steigenden Impfdurchbruchsinfektionen begründet4 . In den Ausführungen der STIKO wird ab sechs Monaten nach der 2. Impfung die Verabreichung einer 3. Impfung mit einem mRNA-Impfstoff empfohlen. Insbesondere Personen mit höherem Erkrankungsrisiko sind angesprochen. Für die spezifische Booster-Impfung in der Schwangerschaft stehen aufgrund der relativ kurzen Verfügbarkeit bzw. Anwendung einer 3. Verabreichung der Impfung noch keine abrufbaren Daten zur Verfügung. Die amerikanische Gesellschaft für Gynäkologie und Geburtshilfe (ACOG) sowie die amerikanische Society for Maternal-Fetal Medicine (SMFM) und das britische Royal College of Obstetricians and Gynaecologists (RCOG) empfehlen jedoch für alle schwangeren Frauen, inklusive MitarbeiterInnen im medizinischen Bereich, die Verabreichung einer 3. Dosis mittels dem mRNA-Impfstoff Comirnaty® von BioNTech/ Pfizer ab sechs Monaten nach der ersten Impfserie mittels diesem Impfstoff5,6,7. Die 3. Impfung – die sogenannte Boosterung – kann laut dem amerikanischen Expertenkonsensus zu jeder Zeit in der Schwangerschaft bzw. nach der Geburt verabreicht werden.
In Anbetracht des derzeitigen Infektionsgeschehens, dem größeren Risiko für einen schweren Verlauf in der Schwangerschaft sowie der Unbedenklichkeit der Impfung für das Ungeborene (basierend auf den derzeitig verfügbaren Daten für die ersten zwei Impfdosen), wird eine Booster-Impfung mit Comirnaty® in der Schwangerschaft empfohlen. Bezüglich des optimalen Zeitpunkts der Verabreichung der 3. Impfung in der Schwangerschaft gibt es noch keine belastbaren Daten – somit ist dieser, je nach Intervall zur 2. Impfung bzw. ab dem 2. Trimenon (analog zu den ersten 2 Impfdosen), möglich.
Originalpublikation:
https://www.dggg.de/stellungnahmen
Weitere Informationen:
https://www.dggg.de/
Internationaler Männertag: Mehrheit der Männer scheut Krebsfrüherkennung
Dr. Marita Völker-Albert Pressestelle
Bundeszentrale für gesundheitliche Aufklärung
Krebserkrankungen sind die zweithäufigste Todesursache in Deutschland: Nach Angaben des Statistischen Bundesamtes starben im vergangenen Jahr rund 231.270 Menschen an Krebs, Männer waren mit 54 Prozent häufiger betroffen als Frauen. Je früher eine Krebserkrankung erkannt wird, desto größer ist in der Regel die Chance, sie zu heilen, so die Deutsche Krebsgesellschaft. Doch nur rund 40 Prozent der Männer nehmen regelmäßig die gesetzlich geregelten Krebsfrüherkennungsuntersuchungen in Anspruch.
Krebserkrankungen sind die zweithäufigste Todesursache in Deutschland: Nach Angaben des Statistischen Bundesamtes starben im vergangenen Jahr rund 231.270 Menschen an Krebs, Männer waren mit 54 Prozent häufiger betroffen als Frauen. Je früher eine Krebserkrankung erkannt wird, desto größer ist in der Regel die Chance, sie zu heilen, so die Deutsche Krebsgesellschaft. Doch nur rund 40 Prozent der Männer nehmen regelmäßig die gesetzlich geregelten Krebsfrüherkennungsuntersuchungen in Anspruch. Zum Internationalen Männertag am 19. November 2021 weist die Bundeszentrale für gesundheitliche Aufklärung (BZgA) in ihrem Portal http://www.maennergesundheitsportal.de auf die Bedeutung von Früherkennungsuntersuchungen für die Männergesundheit hin. Zudem empfiehlt sie, auch in Zeiten der Corona-Pandemie Früherkennungsuntersuchungen konsequent wahrzunehmen.
Untersuchungen zur Früherkennung dienen dazu, mögliche Erkrankungen in einem frühen Stadium zu entdecken. Die Kosten für die gesetzlich geregelte Krebsfrüherkennung tragen die gesetzlichen und privaten Krankenkassen.
Bestimmte Krebsarten führen erst relativ spät zu Symptomen. Dies ist beispielsweise bei Prostatakrebs der Fall, der bei Männern häufigsten Krebserkrankung. Ab einem Alter von 45 Jahren haben Männer einmal pro Jahr Anspruch auf eine Untersuchung zur Früherkennung von Prostatakrebs.
Auch bei Darmkrebs treten Beschwerden meist erst spät auf, zudem erkranken Männer früher und häufiger an Darmkrebs als Frauen. Umso wichtiger ist die Teilnahme an Früherkennungsuntersuchungen, denn wird der Krebs früh erkannt, steigen die Heilungschancen. Ab 50 Jahren haben Männer alle zehn Jahre Anspruch auf eine Darmspiegelung.
Zwischen 18 und 34 Jahren können Krankenversicherte zudem einmalig einen Gesundheits-Check-up durchführen lassen. Ab dem 35. Lebensjahr ist die ärztliche Gesundheitsuntersuchung alle drei Jahre möglich. Der Check-up dient der Früherkennung insbesondere von Herz-Kreislauf-Erkrankungen wie Bluthochdruck, von Diabetes mellitus sowie von Nierenerkrankungen. Werden diese Krankheiten frühzeitig erkannt, kann man(n) rechtzeitig gegensteuern.
Weiterführende Informationen zu den Möglichkeiten der Vorsorge und Früherkennung unter: http://www.maennergesundheitsportal.de
Ein Faktenblatt zum Thema Männergesundheit finden Sie unter:
http://www.bzga.de/presse/daten-und-fakten/maennergesundheit/
Die Bundeszentrale für gesundheitliche Aufklärung (BZgA) spricht mit ihren Internetseiten http://www.frauengesundheitsportal.de und http://www.maennergesundheitsportal.de gezielt Frauen und Männer an, um sie über die Möglichkeiten einer geschlechtsspezifischen Gesundheitsvorsorge zu informieren. Die Inhalte dienen der allgemeinen Information und können die persönliche Beratung durch eine Ärztin, einen Arzt oder qualifiziertes medizinisches Fachpersonal nicht ersetzen.
Neue Studie: Regenfälle verursachen Mikroplastik-Transport in die Atmosphäre
Christian Wißler Pressestelle
Universität Bayreuth
Ozeane, Seen und Flüsse enthalten an ihrer Oberfläche oft eine große Zahl von Mikroplastik-Partikeln. Einschlagende Regentropfen bewirken, dass viele Tröpfchen mit einer fast ebenso hohen Mikroplastik-Konzentration in die Luft geschleudert werden. Verdunsten sie in der Luft, gelangen die Partikel in die Atmosphäre. Diese Prozesse beschreiben Forscher*innen der Universität Bayreuth in einer neuen, in „Microplastics and Nanoplastics“ veröffentlichten Studie. In einer ersten, in mehrfacher Hinsicht noch mit Unsicherheiten behafteten Abschätzung kommen sie zu dem Ergebnis: Weltweit könnten infolge von Regenfällen jährlich bis zu 100 Billionen Mikroplastik-Partikel in die Atmosphäre gelangen.
Die Untersuchungen zeigen: Schlägt ein Regentropfen auf eine Wasseroberfläche auf, werden Tröpfchen aus einem kleinen ringförmigen Bereich um die Einschlagsstelle in die Luft geschleudert. Sie stammen aus einer Tiefe von wenigen Millimetern unterhalb der Wasseroberfläche. Die in den Tröpfchen enthaltenen Mikroplastik-Partikel haben fast die gleiche Konzentration wie in dieser schmalen Wasserschicht. Auch ihre Flugbahnen in der Luft sowie ihre Flugdauer haben die Bayreuther Wissenschaftler*innen berechnet. Daraus ergibt sich ein klares Bild: Das Wasser von Regentropfen, das frei von Mikroplastik ist, landet in den Ozeanen, während plastikhaltiges Wasser aus den Ozeanen in die Luft gelangt. Wenn die Tröpfchen so lange in der Luft fliegen, bis sie verdunsten, entlassen sie die Mikroplastik-Partikel in die Atmosphäre. Dies geschieht besonders häufig oberhalb der Wasseroberflächen von Ozeanen, wo Windverhältnisse und Temperaturen eine vergleichsweise lange Flugdauer und eine rasche Verdunstung begünstigen. Die meisten der in die Luft geschleuderten Mikroplastik-Partikel fallen allerdings aufgrund einer kurzen Flugdauer wieder zurück ins Wasser.
„Es war eine riesige Herausforderung festzustellen, wie viele Tröpfchen durch einen einzigen einschlagenden Regentropfen hochgeschleudert werden, wie groß und wie schnell diese Tröpfchen sind und wie viele Mikroplastik-Partikel sie möglicherweise enthalten. Experimente allein hätten zu wenige Informationen geliefert. Deshalb haben wir für Simulationen dieser Prozesse einen völlig neuen Code erarbeitet und ein Computermodell entwickelt, das es erlaubt, diese Fragen mit hoher Genauigkeit und in einer noch nie dagewesenen Detailtiefe zu beantworten“, sagt der Koordinator der Studie, Prof. Dr. Stephan Gekle, Professor für die Simulation und Modellierung von Biofluiden an der Universität Bayreuth. „Wie realistisch unsere Simulationen sind, zeigt sich beim Vergleich mit technisch anspruchsvollen Experimenten: Hochgeschwindigkeitsaufnahmen von einschlagenden Regentropfen bestätigen die auf unserem Modell basierenden Berechnungen“, sagt Erstautor Moritz Lehmann, Physik-Doktorand an der Universität Bayreuth.
Um herauszufinden, wie viele Mikroplastik-Partikel durch diese Prozesse letztlich in der Atmosphäre landen, haben die Bayreuther Forscher*innen eine Vielzahl empirisch verfügbarer Daten zusammengeführt und in ihre Berechnungen einbezogen. Diese Daten betreffen unter anderem die Mikroplastik-Konzentrationen an Meeresoberflächen, die jährlichen Niederschlagsmengen, die von der Regenintensität abhängige Größe der Regentropfen und die zeitliche Verteilung der Regenintensität. Eine erste Abschätzung führt zu dem Ergebnis, dass durch die Einschläge von Regentropfen auf Wasseroberflächen weltweit bis zu 100 Billionen Mikroplastik-Partikel pro Jahr in die Atmosphäre gelangen könnten.
Die Autor*innen betonen, dass diese Abschätzung noch mit zahlreichen Unsicherheiten und Ungenauigkeiten behaftet ist: Turbulenzen im Wind, welche die Einschlagskraft von Regentropfen beeinflussen können, wurden in die Berechnungen noch nicht einbezogen. Zudem weisen die Meeresoberflächen auf der Erde nicht überall eine gleich hohe Konzentration von Mikroplastik-Partikeln auf – im Gegenteil, die Unterschiede sind sehr groß. Satellitenmessungen in Verbindung mit Wettermodellen könnten aber schon bald genaueren Aufschluss über die „Hotspots“ geben, an denen besonders viele Mikroplastik-Partikel aus dem Ozean in die Atmosphäre transportiert werden.
Forschungsförderung und Kooperation:
Die in der Fachzeitschrift „Mikroplastics and Nanoplastics“ veröffentlichte Studie ist aus einem Forschungsprojekt des von der DFG geförderten Sonderforschungsbereichs „Mikroplastik“ an der Universität Bayreuth hervorgegangen. Das Bayreuther Forschungsteam unter der Leitung von Prof. Dr. Stephan Gekle hat dabei mit Prof. Dr. Andreas Held, Professor für Umweltchemie und Luftreinhaltung an der TU Berlin, zusammengearbeitet.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stephan Gekle
Biofluid Simulation and Modeling
Universität Bayreuth
Telefon: +49 (0)921 55-4462
E-Mail: stephan.gekle@uni-bayreuth.de
Originalpublikation:
Moritz Lehmann, Lisa Marie Oehlschlägel, Fabian P. Häusl, Andreas Held, Stephan Gekle: Ejection of marine microplastics by raindrops: a computational and experimental study. Microplastics and Nanoplastics (2021), DOI: https://doi.org/10.1186/s43591-021-00018-8
Studien weisen gute Wirkung von Boosterimpfung nach Johnson&Johnson-Impfung sowie Kreuzimpfungen nach
Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Die Ständige Impfkommission des Bundes empfiehlt nach einer einmaligen Corona-Impfung mit Johnson&Johnson eine zweite Impfung mit dem Impfstoff von Biontech oder Moderna. Bisher gab es allerdings nur Hinweise darauf, dass die zweite Impfung den Impfschutz erhöht. Ein Team um die Professorin für Immunologie, Martina Sester, hat nun nachweisen können, dass sich der Impfschutz durch die freiwillige zweite Impfung tatsächlich signifikant erhöht. Zudem legte ihre Arbeitsgruppe die erste Studie weltweit vor, die alle fünf in Deutschland zugelassenen Impfschemata direkt miteinander vergleicht.
Der Impfstoff des Herstellers Johnson&Johnson ist der einzige zugelassene Impfstoff in Europa, der nach nur einer Gabe seine schützende Wirkung voll entfaltet. Diese Schutzwirkung ist allerdings geringer als bei den Impfstoffen, die doppelt verimpft werden. Zudem gibt es die meisten Impfdurchbrüche, also Corona-Infektionen von geimpften Personen, bei denjenigen, die mit Johnson&Johnson geimpft wurden. Die Ständige Impfkommission des Bundes empfiehlt daher, dass sich mit Johnson&Johnson Geimpfte freiwillig nach der obligatorischen Einfachimpfung nochmals mit einem mRNA-Impfstoff von Biontech oder Moderna impfen lassen. „Daten zur Immunogenität dieser Boosterimpfung gibt es aber bisher nicht“, erläutert Martina Sester, Professorin für Transplantations- und Infektionsimmunologie an der Universität des Saarlandes. Die Stiko empfiehlt diese Boosterimpfung aufgrund der Annahme, dass es tatsächlich eine verbesserte Impfschutzwirkung nach einer Auffrischung mit einem mRNA-Impfstoff gibt.
„Wir haben nun anhand einer kleineren Probandengruppe in Zusammenarbeit mit der Sportmedizin (Prof. Tim Meyer) nachweisen können, dass eine Zweitimpfung mit dem Vakzin von Biontech-Pfizer nach Johnson&Johnson tatsächlich die Immunantwort signifikant erhöht“, sagt die Expertin für Immunologie, die bereits mehrere hochrangig publizierte Studien zur Wirksamkeit der Covid-Impfstoffe publiziert hat (Links s.u.). „Wir konnten nach einer Booster-Impfung mit Biontech einen deutlichen Anstieg der Antikörper-Konzentration feststellen, die das so genannte Spike-Protein der Viren blockieren.“ Mit diesem „Schlüssel“ gelingt es den Viren, in die menschlichen Zellen einzudringen und sich zu vermehren. Durch die erhöhte Anzahl der Antikörper wird den Viren diese Möglichkeit genommen. Außerdem erhöht sich durch die Zweitimpfung durch Biontech die Zahl der so genannten T-Zellen im Immunsystem der Johnson&Johnson-Geimpften, welche das Virus direkt angreifen. „In der Studie haben wir zwar nur 15 Probandinnen und Probanden untersucht. Aber wir haben bei ausnahmslos allen eine deutlich messbare Steigerung der Impfwirkung feststellen können, so dass wir mit dieser Studie die Empfehlung der Stiko klar bestätigen können: Eine Booster-Impfung mit Biontech nach Johnson&Johnson ist absolut empfehlenswert. Gut verträglich ist sie außerdem, wie uns die Teilnehmenden bestätigen konnten, die ihre Impfreaktionen in einem Fragebogen festgehalten haben“, so Martina Sester.
Die Studie wurde in Zusammenarbeit mit dem Institut für Sport- und Präventivmedizin (Prof. Tim Meyer) durchgeführt und wurde bereits vor einer endgültigen Veröffentlichung in einem Fachjournal auf einem so genannten Preprint-Server veröffentlicht (Erläuterungen s.u.): https://www.researchsquare.com/article/rs-1056375/v1
In einer zweiten Studie, die ebenfalls als Preprint erschienen ist, vergleichen Martina Sester und ihre Kolleginnen und Kollegen in der weltweit ersten Studie die Impfwirkungen aller fünf in Deutschland zugelassenen Impfschemata direkt miteinander: Zum einen die der so genannten „homologen“ Impfungen (Biontech-Biontech, Moderna-Moderna, AstraZeneca-AstraZeneca), zum anderen die zugelassenen „heterologen“ Impfschemata (AstraZeneca-Biontech, AstraZeneca-Moderna). „Wir konnten unsere Beobachtungen einer vorangegangenen Studie bestätigen, dass die zweifache Astra-Impfung die geringste Immunogenität aufweist; bei den anderen Kombinationen sehen wir sehr eindrücklich, dass die Varianten mit Moderna eine stärkere Immunantwort induzieren als die jeweiligen Kombinationen mit Biontech. Dies deckt sich mit den Effektivitätsdaten zur Wirkung der Impfstoffe, geht aber bei Moderna-Kombis auch mit etwas mehr Nebenwirkungen einher“, fasst Martina Sester die zentralen Beobachtungen dieser Studie zusammen. Kurz gesagt: Die heterologe Kombination aus AstraZeneca und Moderna hat die deutlichste Immunantwort aufgebaut, gefolgt von der heterologen Kombination AstraZeneca-Biontech. Danach folgt die doppelte Moderna-Impfung, die derjenigen mit Biontech etwas überlegen ist. Die homologe Kombination aus einer zweifachen AstraZeneca-Impfung erzielte insgesamt die schwächste Wirkung der fünf verglichenen.
Die Datengrundlage dieser Studie ist größer als die der vorangenannten. Hier flossen die Daten von insgesamt rund 550 gesunden Personen ein, so dass die Aussagekraft der Daten sehr valide ist. Die Kenntnis zur unterschiedlichen Wirkung der Impfstoffkombinationen könnten auch bei der Optimierung der Impfreaktionen durch Folgeimpfungen bei Risikopatienten relevant sein.
Link zur Studie, die ebenfalls auf einem Preprint-Server erschienen ist: https://www.researchsquare.com/article/rs-1034243/v1
Die Veröffentlichung auf Preprint-Servern wird grundsätzlich nur in Ausnahmefällen als Möglichkeit in Betracht gezogen. Üblicherweise warten Wissenschaftlerinnen und Wissenschaftler nach dem Einreichen einer wissenschaftlichen Arbeit, bis ein Gremium aus Fachleuten die Arbeit geprüft und für schlüssig befunden hat, so dass die Arbeit in einem anerkannten Fachmagazin (wie beispielsweise Science oder Nature) erscheinen kann. Aufgrund der Dringlichkeit, anderen Forschungsteams auf der Welt Daten bei der Suche nach einem Ausweg aus der Corona-Pandemie einen möglichst umfassenden Zugang zu wissenschaftlichen Erkenntnissen zu geben, hat sich die Gruppe um Martina Sester dazu entschieden, die Studien bereits vorab zu veröffentlichen. Sie sind derzeit auch zur Begutachtung bei hochrangigen Peer-Review-Journalen eingereicht.
Weitere Covid-Impfstudien der Arbeitsgruppe um Prof. Sester:
Wie Covid-19-Impfungen bei Organtransplantierten die Immunantwort mobilisieren: https://idw-online.de/de/news774835 (American Journal of Transplantation)
Forschungsergebnisse zur ersten Daten der heterologen Impfstoffkombination wurden im Fachjournal Nature Medicine veröffentlicht: https://idw-online.de/de/news773322 (Nature Medicine)
Wissenschaftliche Ansprechpartner:
Prof. Dr. Martina Sester
Transplantations- und Infektionsimmunologie
Tel.: (06841) 1623557
E-Mail: martina.sester@uks.eu
Originalpublikation:
Immunogenicity and reactogenicity of heterologous Ad26.COV.2 and BNT162b2 vaccination
Head-to-head analysis of immunogenicity and reactogenicity of heterologous ChAdOx1 nCoV-19-priming and BNT162b2 or mRNA-1273-boosting with homologous COVID-19 vaccine regimens
Weitere Informationen:
https://www.researchsquare.com/article/rs-1056375/v1
https://www.researchsquare.com/article/rs-1034243/v1
Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung
Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Unser Älterwerden scheint über die letzten Jahrzehnte unkomplizierter und insgesamt positiver geworden zu sein. Viele Studien zur Lebensqualität der heutigen Älteren belegen dies. Aus Sicht älterer Menschen selbst ist das eigene Älterwerden aber nicht wirklich besser geworden.
Viele Studien zeigen, dass die heutigen Älteren gesünder, funktionstüchtiger, schlauer, selbstbewusster, zufriedener und weniger einsam sind als Gleichaltrige vor 20 oder 30 Jahren. Dies hat sich international und auch in Deutschland gezeigt. Forscher*innen an unterschiedlichen wissenschaftlichen Einrichtungen in Deutschland und den USA haben nun anhand einer Auswertung von deutschen und amerikanischen Daten – erhoben zu unterschiedlichen historischen Zeitpunkten –untersucht, ob sich diese Verbesserungen auch in positiveren Sichtweisen dem eigenen Alter und Altern gegenüber niedergeschlagen haben.
Dazu wurden verschiedene Facetten von Alterssichtweisen älterer Menschen Anfang/Mitte der 1990er Jahre mit denen von Gleichaltrigen Mitte/Ende der 2010er Jahre verglichen. Eine dieser Facetten war die Frage nach dem subjektiven Alter „Wie alt fühlen Sie sich?”. Einbezogen wurden Daten aus international hochanerkannten deutschen und nordamerikanische Studien: den Berliner Altersstudien und der Studie „Mittleres Lebensalter in den USA“ (MIDUS). Das auch für die Forscher*innen überraschende Hauptergebnis war, dass in keinem der einbezogenen Indikatoren und in keinem der beiden Länder Hinweise auf Verbesserungen in den Alterssichtweisen von älteren Menschen über 15 bis 20 Jahre hinweg beobachtet werden konnten. „Die Vielzahl von historischen Verbesserungen im Älterwerden sind demzufolge nicht im Erleben des eigenen Älterwerdens angekommen“, sagt Denis Gerstorf, Professor für Entwicklungspsychologie an der Humboldt-Universität zu Berlin und einer der Autoren der Studie.
Ist das eine schlechte Botschaft? Die Forscherinnen und Forscher des Papiers plädieren für eine differenzierte Interpretation dieser Befunde. „Es gibt Hinweise, dass sich gesellschaftliche Altersbilder im Laufe der letzten Jahrzehnte vielfach verschlechtert haben. Demzufolge wäre dann Stabilität in den Sichtweisen des eigenen Alters ja durchaus eine Art Leistung im Sinne einer Abgrenzung“, betont Hans-Werner Wahl, Senior-Professor an der Universität Heidelberg und Erstautor der Studie. Vielleicht – so eine mögliche zweite Interpretation – koppeln sich generell Bewertungen des eigenen Lebens (Stichwort „Individualisierung“) immer mehr von allgemein beobachtbaren Veränderungen ab? Und drittens überlagern sich immer mehr ein „junges Alter“ als einer Erfolgsgeschichte der Moderne mit einem immer länger werdenden „alten Alter“ und damit einhergehenden Befürchtungen von Demenz und Autonomieverlust. Im Ergebnis könnte diese komplexe Mélange von Faktoren zu nivellierenden Effekten geführt hat.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Werner Wahl, Universität Heidelberg, wahl@nar.uni-heidelberg.de
Prof. Dr. Denis Gerstorf, Humboldt Universität zu Berlin, denis.gerstorf@hu-berlin.de
Originalpublikation:
Wahl, H.-W., Drewelies, J., Duezel, S., Lachman, M. E., Smith,
J., Eibich, P., Steinhagen-Thiessen, E., Demuth, I.,
Lindenberger, U., Wagner, G. G., Ram, N., & Gerstorf, D.
(2021). Subjective age and attitudes toward own aging across
two decades of historical time. Psychology and Aging. Advance
online publication
https://doi.org/10.1037/pag0000649
Anhang
PM HU: Altern im Wandel
Ungehobene Datenschätze: Eintauchen in das Geoportal der Bundesanstalt für Gewässerkunde
Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Der Bedarf von Wissenschaft, Behörden und Wirtschaft an Geodaten wächst. Mit dem Geoportal, dem gewässerkundlichen, geografischen Informations- und Analysesystem der BfG, können Datenbestände des Bundes und der Länder kostenfrei recherchiert und heruntergeladen werden. Verbesserte Funktionalitäten erleichtern den Zugang für die Nutzer/-innen.
Fast alle Umweltinformationen besitzen heute einen direkten oder indirekten Raumbezug. Damit gewinnen sogenannte Geodaten zunehmend an Bedeutung für Forschung, Behörden und die Wirtschaft. Daten spielen aber auch im Journalismus eine zunehmend wichtige Rolle. Mit dem Geoportal der BfG, können Sie selbst die Geodaten der BfG erkunden. Ein Großteil der Informationen und Daten sind unmittelbar über die Metadaten-Recherche, sowie über Fach- und Kartenanwendungen zugänglich.
Die BfG hat ihr Geoportal rundherum erneuert. Die Fachleute der BfG haben dabei insbesondere die Suchfunktionen weiter optimiert. Auch die Ergebnisanzeige wurde modernisiert und neu gestaltet. Eine weitere wichtige Verbesserung ist die Einführung des Facetten-Filters, über welchen Nutzer/-innen die Trefferanzeige jetzt genauer eingrenzen können.
Die letzte umfassende Überarbeitung fand im Juni 2020 statt. Damals wurde die Startseite grundlegend erneuert, mit einem besonderen Augenmerk auf eine einfache und intuitive Nutzung. Als zentrales Element erhielt die Metadatensuche ein Update und die Fach- und Kartenanwendungen werden den Nutzer/-innen nun über eine moderne Kacheloptik übersichtlich präsentiert. Einen Überblick zu den Leistungen des Portals und zwei ausgewählten Anwendungen finden Sie in drei Produkt-Steckbriefen.
„Durch unsere langjährige hydrologische und ökologische Praxis sowie die Tätigkeiten an den Wasserstraßen des Bundes und auch in den Einzugsgebieten ist ein umfangreicher Bestand an gewässerkundlichen Informationen entstanden. Darin stecken unsere Erfahrung und unser Wissen. Mit dem Geoportal leisten wir einen substanziellen Beitrag zur Verfügbarkeit umweltbezogener Daten im Dienst der Allgemeinheit. Das haben nicht zuletzt die vergangenen Monate gezeigt. Es freut mich, dass z. B. die auf Landesdaten basierenden Hochwassergefahren- und Hochwasserrisikokarten im Kontext der Sturzflutereignisse an Ahr und Erft von unterschiedlichsten Anwenderkreisen sehr stark gefragt waren“, sagt Birgit Esser, Leiterin der Bundesanstalt für Gewässerkunde.
Ohne Metadaten haben Geodaten wenig Wert
Metadaten, auch Metainformationen genannt, sind „Daten über Daten“. Sie stellen eine strukturierte Beschreibung der eigentlichen Geodaten und Geodienste dar und erlauben es den Nutzer/-innen, die eigentlichen Ressourcen aufzufinden, zu beurteilen, einzuordnen und schlussendlich abzurufen und zu verwenden. Zudem sind Metadaten ein elementarer Baustein einer funktionierenden Geodateninfrastruktur, in der Geodaten vernetzt über das Internet zur Verfügung gestellt werden. Das Geoportal der BfG ist ein aktiver Knoten im Netz der nationalen und internationalen Geodateninfrastruktur, wodurch die Metadaten der BfG auch in anderen Portalen (z. B. Geoportal-DE) auffindbar sind.
Neben der Metadatenrecherche werden über das Geoportal der BfG webbasierte und zum Teil kartengestützte Anwendung präsentiert und zugänglich gemacht, die ganz konkrete Fragestellungen aus der Gewässerkunde adressieren, etwa Hochwassergefahren- und Hochwasserrisikokarten in Deutschland.
Die BfG betreibt das Geoportal seit dem Jahr 2005. Seither haben sich die Messtechnik, die Menge an verfügbaren Daten, aber auch die Möglichkeiten zur Informationsverarbeitung drastisch verbessert. Auch in Zukunft arbeiten die BfG-Fachleute an neuen Diensten sowie einer kontinuierlichen Weiterentwicklung des Portals.
Wissenschaftliche Ansprechpartner:
Dr. Ralf Busskamp, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5255, Email: busskamp@bafg.de
Weitere Informationen:
https://www.bafg.de/DE/Service/presse/2021-11-05_Geoportal.html?nn=168662
Bewertung und Monitoring von Moorflächen – Forschung für den Klimaschutz
Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)
Moorböden sind die effektivsten Kohlenstoffspeicher aller Landlebensräume. In dem von der Bundesanstalt für Landwirtschaft und Ernährung (BLE) betreuten Verbundprojekt BEWAMO* werden derzeit wichtige Grundlagen für einen effektiven Moorbodenschutz gelegt.
Mit seiner Entwicklungsarbeit ermöglicht das Konsortium aus der Humboldt-Universität Berlin, der Christian-Albrechts-Universität Kiel, der Universität Potsdam, dem Thünen-Institut sowie der EFTAS Fernerkundung Technologietransfer GmbH, dass Moorbodenschutz künftig auf eine hohe Klimawirksamkeit ausgerichtet und der Maßnahmenerfolg fernerkundungsbasiert per Satellit erfasst werden kann.
Berliner und Kieler Forschende entwickeln derzeit ein Tool, mit dem Moorflächen hinsichtlich ihrer Fähigkeit, Kohlenstoff zu speichern und ihres Potenzials, CO2-Emissionen zu reduzieren, bewertet werden können. Das Tool soll zudem passende Agrarumweltmaßnahmen benennen und Methoden für ein anschließendes Monitoring aufzeigen. Dazu arbeiten die Forschenden mit 15 landwirtschaftlichen Betrieben, Wasser- und Bodenverbänden sowie Behörden in Brandenburg und Schleswig-Holstein zusammen.
Welche Moore eignen sich für eine Wiedervernässung? Kohlenstoffdynamik als Bewertungskriterium
Um die Kohlenstoffvorräte und mögliche Verluste sowie das Emissionsminderungspotenzial in Moorböden zu bewerten, kombinieren die Wissenschaftlerinnen und Wissenschaftler Bodenparameter mit historischen und aktuellen Messdaten zu Klima und Landnutzung. Auf dieser Grundlage erarbeiten sie Bewertungskriterien, um geeignete Gebiete für die Wiedervernässung entwässerter Moorböden zu priorisieren.
Am Thünen-Institut werden die betrieblichen Kosten möglicher künftiger Moorbodenschutzmaßnahmen berechnet. Abhängig vom Moorflächenanteil, der aktuellen Produktionsausrichtung und der betrieblichen Anpassungsfähigkeit, zum Beispiel durch die Kompensation der Futtermengenverluste, können diese sehr unterschiedlich ausfallen: So sind die Kosten auf intensiv genutzten Milchviehbetrieben deutlich höher als auf Betrieben mit Mutterkuhhaltung.
Monitoring mittels Bodenfeuchte
Für den Schutz entwässerter Moorböden ist eine Erhöhung der Grundwasserstände notwendig. Die Kontrolle dieser Maßnahmen erfolgt durch ein im Projekt entwickeltes Monitoring, bei dem der Feuchtezustand der Moorböden flächenhaft mit Mitteln der Satellitenfernerkundung beobachtet und bewertet wird. Die Wissenschaftlerinnen und Wissenschaftler nutzen dafür zeitlich und räumlich hochauflösende Radardaten der Sentinel-Satelliten.
Mehr Informationen unter http://www.unter-2-grad.de/projekte/bewamo/
Hintergrund
Bund und Länder haben am 20. Oktober 2021 eine Zielvereinbarung zum Klimaschutz durch Moorbodenschutz unterzeichnet: Bis 2030 sollen die jährlichen Treibhausgasemissionen aus entwässerten Moorböden um fünf Millionen Tonnen CO2-Äquivalent gemindert werden. Die Vereinba-rung schafft die Grundlage für einen Ausbau des flächenwirksamen Moorbodenschutzes.
Das Projekt BEWAMO ist Teil einer Forschungsinitiative des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) zu Klimaschutz und Klimaanpassung in der Landwirtschaft. Seit 2018 werden 32 Verbundvorhaben, in denen Wissenschaft, Wirtschaft und Praxis gemeinsam an Lösungen für eine klimagerechte Landwirtschaft arbeiten, im BMEL-Innovationsprogramm gefördert. Die Bundesanstalt für Landwirtschaft und Ernährung (BLE) betreut die Forschungsinitiative als Projektträger.
Weitere Informationen:
http://* BEWAMO steht für „Ein Bewertungstool für Kategorien der Schutzwürdigkeit und für ein fernerkundungsbasiertes Monitoring landwirtschaftlich genutzter Moore“
http://www.unter-2-grad.de/projekte/bewamo/
Möglicher Zusammenhang mit COVID-19-Infektionen: Veränderungen im Darmmikrobiom nachgewiesen
Birte Vierjahn Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Personen mit einer COVID-19-Infektion haben eine weniger vielfältige Darmflora. Das hat ein Forschungsteam der Medizinischen Fakultät der Universität Duisburg-Essen (UDE) festgestellt. Bei COVID-19-Erkrankten häufen sich Bakterien, die mit verschiedenen entzündlichen Erkrankungen in Verbindung stehen – gleichzeitig gibt es weniger entzündungshemmende Bakterien. Die kürzlich in „Frontiers in Cellular and Infection Microbiology“ veröffentlichte Studie wurde von der Stiftung Universitätsmedizin Essen gefördert.
Insgesamt wurden für die Studie 212 Personen untersucht, davon 117 mit einer COVID-19-Infektion und 95 negativ getestete, die sich wegen anderer Beschwerden in der Universitätsmedizin Essen vorgestellt haben.
Das Team konnten zwei Effekte beobachten: Zum einen war die Zahl der Enterobakterien, die bei vielen entzündlichen Erkrankungen in der Darmflora auftreten, auch bei COVID-19-Infizierten erhöht. Gleichzeitig war die Zahl der Bifidobakterien verringert, die zu den für den Darm nützlichen Milchsäureproduzenten gehören. Zum anderen kamen bei schweren COVID-Verläufen Bakterien seltener vor, die eine wichtige kurzkettige Fettsäure produzieren, von der positive Wirkungen auf das Immunsystem bekannt sind. Das Forschungsteam hält es für möglich, dass Stoffwechselprodukte der Darmbakterien über das Blut die Immunantwort in der Lunge beeinflussen.
In der Literatur gibt es bereits bei anderen Erkrankungen Hinweise darauf, dass das Darmmikrobiom die Immunantworten in entfernten Organen wie der Lunge beeinflusst, man spricht hier von der sogenannten „gut-lung axis“ (etwa: Darm-Lungen-Achse).
Redaktion: Dr. Milena Hänisch, Tel. 0201/723 1615, milena.haenisch@uk-essen.de
Wissenschaftliche Ansprechpartner:
PD Dr. Jan Kehrmann, Klinische Mikrobiomforschung und Immunregulation, Tel. 0201 / 723-85913, jan.kehrmann@uk-essen.de
Originalpublikation:
https://www.frontiersin.org/articles/10.3389/fcimb.2021.747816/full
Mikrolabor auf einem Chip: Wasser gerne, aber bitte sauber
Dr. Stefan Kiesewalter Kommunikation
Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM
Ein mikrofluidischer Chip nimmt eine Wasserprobe auf, versetzt ihn mit den erforderlichen Chemikalien und befördert ihm zum Ort der Detektion. Wozu das Ganze? Auf diese Weise soll das Wasser vollautomatisiert und mit verschiedenen Parametern analysiert werden und das auch möglichst kostengünstig. Im Projekt MICROCHIP ist aus diesem Vorhaben ein weiterentwickelter Chipprototyp für Wasseranalysegeräte entstanden.
Ob im Wasserwerk, Labor, in einem Schwimmbecken oder aus dem Wasserhahn – wer möchte da nicht eine schnelle und einfache Wasseranalyse zur Hand haben. Mit dem im Projekt MICROCHIP entwickelten mikrofluidischen Lab-on-a-Chip lassen sich Proben aus wenigen Tropfen in kurzer Zeit vollautomatisiert analysieren. Wenn dann auch noch Personal ohne Schulung in die Lage versetzt wird, sechs für die Wasseranalytik relevante Parameter parallel mit einem kostengünstigen Messgerät zu detektieren, spart das zusätzlich Zeit und Kosten. Zudem sind bei dieser Methodik Anwenderfehler ausgeschlossen. Reagenzien können nicht verwechselt werden und die zu dem Verfahren passende Wassermenge ist durch den Chip fest vorgegeben.
Spiegel statt Durchsicht
Der Chip erreicht eine hohe Messgenauigkeit. Dazu verhelfen ihm unter anderem eine verlängerte sogenannte Pfadlänge und ein angepasstes Design, die den Chip kompakt halten. An Stelle einer ursprünglich geplanten Durchsichtlösung setzten die Projektpartner auf eine sogenannte Spiegellösung. Das Re-Design der Hardware mit verschiedenfarbigen LEDs ermöglicht letztlich eine Analytik für das auf Photometrie basierende Messverfahren, bei dem gefärbte Wasserproben ausgewertet werden.
Kreditkartenformat voll mit Technik
Der Chip erreicht letztlich ungefähr die Größe einer Kreditkarte, verbunden mit einer Menge Technik wie eine Elektronikplatine mit photometrischen Sensoren, Ultraschallmischer, Druckreservoirs sowie eine Schlauchpumpe Einschub für den Chip nebst Andruckmechanismus im kleinen Gehäuse untergebracht werden mussten. Im Vergleich zu bisherigen Lösungen ist diese wesentlich kostengünstiger. Die Projektpartner zeigen, dass es möglich ist, multi-Parameter Wasseranalysen in einem Kunststoffchip durchzuführen. Sie verzichten auf aufwendige und teure Technologien wie Blister und Gefriertrocknung. Sie trocknen die Reagenzien stattdessen direkt in Kammern im Kunststoffchip. Mit einer einfachen Schlauchpumpe wird die Messflüssigkeit gezielt durch den Chip dirigiert. Dadurch messen die Sensoren die durch die Reagenzien gefärbte Flüssigkeit in derselben Messkammer wie die zuvor farblose Vergleichsprobe. Hergestellt wird der Chip im Spritzgussverfahren. Damit der Chip nach außen hin auch druckdicht ist, werden die Kanäle im einer schwarzen Ober- und einer transparenten Unterschale mittels Laserstrahlverfahren verschweißt.
Bisherige vergleichbare Systeme für die automatisierte Wasseranalyse nach Zugabe der Wasserprobe in Polymerchips sind entweder zu voluminös, analysieren weniger Parameter parallel. Bereit für eine Massenfertigung ist der im Konsortium entwickelte und umgesetzte Demonstrator zwar noch nicht. Die Ergebnisse der Entwicklung und Tests fließen allerdings bereits bei einem der Projektpartner, der Water-i.d. GmbH, bei der Herstellung von weiteren Wasseranalysegeräten und –Reagenzien mit ein.
Projektinformation
Das Projekt wurde mit Mitteln des Bundesministeriums für Bildung und Forschung (Förderkennzeichen: 01QE1721C) gefördert. Die Arbeiten wurden als EUROSTARS-Verbundvorhaben durchgeführt, welches aus dem deutschen Konsortium unter Führung der WATER-i.d GmbH, mit Beteiligung der Firma 420nm UG, dem Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM sowie der britischen Firma Water Treatment Products Ltd und dem türkischen Partner ENELSA Endüstriyel Elektronik Ins bestand.
Wissenschaftliche Ansprechpartner:
Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM
Rainer Gransee
Carl-Zeiss-Straße 18-20
55129 Mainz
Telefon +49 6131 990-219
rainer.gransee@imm.fraunhofer.de
Anhang
Mikrolabor auf einem Chip: Wasser gerne, aber bitte sauber
Corona und Gesellschaft: Nur rund zwölf Prozent haben Verständnis für Querdenker
Florian Klebs Hochschulkommunikation
Universität HohenheimRepräsentative Online-Befragung der Universität Hohenheim zu Querdenker-Sympathisant:innen: Pessimistisch, systemkritisch und orientierungslos
Weitere Ergebnisse und Expert:innen zum Thema Corona-Krise und ihre Folgen unter https://www.uni-hohenheim.de/expertenliste-corona-krise
Nur eine Minderheit von zwölf Prozent der deutschen Internetnutzer:innen hat Verständnis für die so genannten Querdenker, rund drei Viertel stehen der Protestbewegung eher ablehnend gegenüber. Das zeigt eine repräsentative Online-Befragung der Universität Hohenheim in Stuttgart unter etwas mehr als 2.000 Internetnutzer:innen. Diejenigen, die mit den Querdenkern sympathisieren, ordnen sich stärker dem rechten politischen Spektrum zu und halten das deutsche gesellschaftliche und politische System für ungerecht. Zudem glauben sie, wenig politischen Einfluss ausüben zu können, haben geringes Vertrauen in Politik, Journalismus und Wissenschaft, und sie sehen ihre wirtschaftliche Zukunft bedroht. Sie informieren sich stärker in sozialen Medien als andere Internetnutzer:innen. Nachzulesen sind die Ergebnisse der Studie unter: https://www.db-thueringen.de/receive/dbt_mods_00049284
Viele Menschen, die die Corona-Maßnahmen kritisieren, sammeln sich in so genannten „Querdenker“-Gruppen. Sie fühlen sich in ihrer Freiheit eingeschränkt und protestieren bundesweit gegen die ergriffenen Mittel zur Eindämmung der Pandemie. Dabei fordern sie nicht nur die sofortige Aufhebung sämtlicher Maßnahmen, sondern kritisieren auch das politische System an sich.
Wer sind die Menschen, die mit diesen Gruppen sympathisieren, und was sind ihre Einstellungen und Überzeugungen? Mit dieser Frage haben sich Tilman Klawier und Dr. Fabian Prochazka an der Universität Hohenheim beschäftigt. Herausgekommen ist eine Studie, welche die politischen und gesellschaftlichen Einstellungen von Sympathisant:innen der „Querdenker“-Bewegung erfasst. In der repräsentativen Online-Befragung im Frühjahr 2021 äußerten sich etwas mehr als 2.000 Internetnutzer:innen zu ihren Einstellungen und ihrem Verständnis für die Proteste der „Querdenker“.
Pessimistische Sicht der wirtschaftlichen Situation, systemkritisch und orientierungslos
Insgesamt gehören zu denjenigen, die mit den Querdenkern sympathisieren, ähnlich viele Männer wie Frauen. Auch hinsichtlich des Alters gibt es kaum Unterschiede zum Durchschnitt der Bevölkerung. „Unter ihnen finden wir überproportional viele Menschen, die sowohl ihre eigene als auch die wirtschaftliche Zukunft Deutschland eher pessimistisch sehen“, fasst Tilman Klawier ein Ergebnis der Studie zusammen. „So gehen 40 Prozent davon aus, dass sich ihre wirtschaftliche Situation verschlechtern werde. Bei allen Befragten sind dies nur 28 Prozent.“
Die Forscher interessierten sich auch dafür, inwiefern die Menschen die deutsche Politik und Gesellschaft als gerecht empfinden und wie groß das Gefühl der Orientierungslosigkeit und Undurchschaubarkeit gesellschaftlicher Entwicklungen bei den Befragten ist. Im Durchschnitt sehen alle Befragten das politische und gesellschaftliche System eher kritisch, bei den Querdenker-Sympathisant:innen ist diese Einstellung allerdings besonders ausgeprägt. Dazu kommt bei ihnen noch ein etwas stärkeres Gefühl der Orientierungslosigkeit.
„So hat es uns auch nicht überrascht, dass diese Menschen tendenziell weniger Vertrauen in Wissenschaft, Politik und Journalismus haben,“ sagt Dr. Fabian Prochazka, der vor Kurzem auf eine Juniorprofessur an die Universität Erfurt gewechselt ist. „Wobei das Vertrauen in Politikerinnen und Politiker besonders niedrig ist. Querdenker-Sympathisantinnen und -Sympathisanten glauben zwar häufiger, politische Prozesse zu verstehen, aber sie sehen sich weniger in der Lage, auch Einfluss zu nehmen.“
Menschen, die mit Querdenkern sympathisieren, ordnen sich selbst deutlich häufiger rechts der politischen Mitte ein als die Gesamtheit der befragten Internetnutzer:innen. Dagegen ist der linke Rand des politischen Spektrums unter den Querdenker-Sympathisant:innen etwas geringer ausgeprägt. Das spiegelt sich auch im Wahlverhalten wider: AfD-Wählende sind unter ihnen am stärksten vertreten, während Wählerinnen und Wähler der Unionsparteien, der SPD und der Grünen unterrepräsentiert sind. „Interessant für uns war aber auch, dass sich fast jede vierte Person, die mit den Querdenkern sympathisiert, nicht im Links-Rechts-Spektrum einordnen kann oder will“, sagt Tilman Klawier.
Die Sicht der Querdenker-Sympathisant:innen auf Corona
Querdenker-Sympathisant:innen sind deutlich weniger bereit sich gegen COVID-19 impfen zu lassen. Umgekehrt lehnen aber auch nicht alle Menschen, die Verständnis für die Querdenker zeigen, eine Impfung ab. Immerhin 15 Prozent von ihnen hatten Anfang 2021 eine hohe Impfbereitschaft, weitere 14 Prozent waren unentschlossen. Ebenso äußern nicht alle Personen mit mangelnder Impfbereitschaft auch Verständnis für die Querdenker.
Besonders ausgeprägt bei den Sympathisant:innen von Querdenkern im Vergleich zu allen Internet-Nutzer:innen ist die Überzeugung, dass Corona nicht schlimmer als eine Grippe und Mund-Nasen-Masken schädlich für die Menschen seien. Aussagen wie „Mit der Corona-Impfung sollen den Menschen Mikrochips implantiert werden“ und „5G-Masten verbreiten das Coronavirus“ finden aber auch bei ihnen wenig Zustimmung. Allerdings ist unter Querdenker-Sympathisant:innen der Glaube an übernatürliche Kräfte und spirituelle Erfahrungen etwas stärker ausgeprägt als im Mittel bei allen Befragten.
Die Rolle der Medien
Querdenker-Sympathisant:innen nutzen seltener Fernsehen, Zeitungen und Nachrichtenwebsites als alle befragten Internetnutzer:innen. Über das politische Geschehen informieren sie sich hingegen häufiger in den sozialen Medien. Insbesondere der Instant-Messaging-Dienst Telegram dient hier als Nachrichtenkanal. Andere Medienangebote, die während der Corona-Pandemie kritisch über die Schutzmaßnahmen der Regierung berichteten, sind unter Querdenker-Sympathisant:innen im Vergleich zur Gesamtbevölkerung zwar deutlich bekannter, aber der Anteil der Nutzer:innen ist dennoch relativ gering. Ebenso folgt in den sozialen Medien nur eine Minderheit Personen, die öffentlich fundamentale Kritik an den Corona-Schutzmaßnahmen der Bundesregierung üben.
Weitere Informationen:
Link zur Studie: Klawier, Tilman / Prochazka, Fabian (2021): Wer hat Verständnis für die „Querdenker“? Ergebnisse einer repräsentativen Befragung. Online unter: https://www.db-thueringen.de/receive/dbt_mods_00049284
Expertenliste: Corona-Krise und ihre Folgen
Die weltweite Corona-Pandemie hat bereits jetzt einschneidende Folgen: der Bildungssektor, die Wirtschaft, die Arbeitswelt allgemein, aber auch das menschliche Miteinander werden voraussichtlich auch nach der Krise anders sein als vorher. Um damit sinnvoll umgehen zu können, sind sowohl in der Krise selbst als auch für die Zeit danach wissenschaftliche Fakten wichtiger denn je. Expertinnen und Experten der Universität Hohenheim informieren über die verschiedenen Aspekte der Corona-Krise und ihre Folgen. Ergebnisse und Experten: https://www.uni-hohenheim.de/expertenliste-corona-krise.
Text: Stuhlemmer
Wissenschaftliche Ansprechpartner:
M.A. Tilman Klawier, Universität Hohenheim, Fachgebiet Kommunikationswissenschaft, insbesondere interaktive Medien- und Onlinekommunikation
T +49 (0)711 459-24478, E tilman.klawier@uni-hohenheim.de
Kohlendioxidausstoß bei der Zementproduktion kann langfristig drastisch reduziert werden
Kathrin Voigt Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Mainzer Chemiker entwickeln Methode zur Herstellung von Zement durch Vermahlen anstelle des umweltschädlichen Brennens von Kalk / Überführung vom Labormaßstab auf industrielles Niveau denkbar
Globale Erwärmung und bezahlbares Wohnen sind zwei dominierende Themen der öffentlichen Debatte. Klimaschutz erreicht man durch Reduktion des Treibhausgases Kohlendioxid (CO₂). Wohnraum schafft man durch verstärkten Wohnungsbau. Dazu braucht es Beton, den wichtigsten Baustoff unserer modernen Welt. Beton erscheint auf den ersten Blick unproblematisch: Er enthält keinerlei fossile Brennstoffe, er ist ungiftig und schwimmt nicht als Plastikmüll in den Ozeanen. Aber der Eindruck täuscht, denn die Zementherstellung ist derzeit mit einem Anteil von rund 8 Prozent beziehungsweise 2,7 Milliarden Tonnen jährlich der größte industrielle Emittent an den weltweiten CO₂-Emissionen, die durch die Verbrennung fossiler Brennstoffe – meist Kohle – beim Brennen mit Temperaturen um 1.000 Grad Celsius und Sintern bei etwa 1.450 Grad Celsius entstehen.
Beton ist vielseitig einsetzbar, preiswert, sprichwörtlich hart und er lässt sich in fast jede beliebige Form gießen. Er besteht im Prinzip nur aus Sand, Kies, Wasser und dem Bindemittel Zement, der wiederum aus Kalk, Ton und einigen anderen Komponenten gebrannt wird und beim Aushärten stabile Kalziumsilikat-Hydrate bildet, die für die Eigenschaften des Betons verantwortlich sind.
Im Brennen des Kalks (CaCO₃) liegt jedoch genau das Problem, denn hier wird für jedes produzierte Molekül Kalziumoxid (CaO), den sogenannten „gebrannten Kalk“, ein Molekül des Treibhausgases CO₂ freigesetzt. Bei einer Weltjahresproduktion von rund 4,5 Milliarden Tonnen Zement sind das immerhin rund 2,7 Milliarden Tonnen CO₂. Dies entspricht etwa der Hälfte der CO₂-Emissionen aus dem Verkehr. China ist für etwa 50 Prozent, Deutschland für circa 1,5 Prozent der Emissionen durch die Zementproduktion verantwortlich.
Klimaschädliches Kalkbrennen wird durch Vermahlen des Rohkalks mit Natriumsilikat umgangen
Chemiker der Johannes Gutenberg-Universität Mainz (JGU) haben nun eine Methode entwickelt, die den CO₂-Ausstoß der Zementproduktion langfristig drastisch reduzieren könnte. Dabei wird der Rohkalk (CaCO₃) nicht mehr in kohlenbefeuerten Brennöfen in gebrannten Kalk überführt, sondern lediglich mit festem Natriumsilikat (Na₂SiO₃) vermahlen. Durch diesen Mahlschritt wird ein „aktiviertes“ Zwischenprodukt hergestellt, das die Bestandteile des Zements in gleichmäßiger Verteilung enthält. Bei der Umsetzung mit Natronlauge bildet sich ein Produkt, das in seiner Struktur den Kalziumsilikat-Hydraten gleicht. Die Bildung der Zementpaste und das Abbinden mit Wasser laufen über eine komplexe Reaktionskaskade ab, deren Elementarschritte mit Hightechmethoden analytisch aufgeklärt werden konnten.
Während das Brennen des Kalks Temperaturen von 1.000 bis 1.500 Grad Celsius erfordert, läuft der Mahlschritt bei Raumtemperatur ab. Der mechanische Energieeintrag zur Mahlung konventionellen Zements beträgt mit 120 Kilowattstunden pro Tonne lediglich etwa 10 Prozent der Energie, die für den Brennprozess aufgebracht wird. Dies entspricht jedoch nur der Energieeinsparung – und dem damit verbundenen Ausstoß von CO₂ – durch Verbrennung fossiler Brennstoffe bei der Zementherstellung. Viel wichtiger aber ist, dass durch Umgehung des Kalkbrennens im Idealfall CO₂-Emissionen im Milliarden-Tonnen-Bereich umgangen werden könnten. Da das Mahlen ein Standardverfahren in der Zementindustrie ist, wäre die Umsetzung des Verfahrens vom Labormaßstab in industrielle Größenordnung denkbar.
Verfahren ist potenziell für großtechnische Herstellung geeignet
Die Mainzer Chemiker räumen allerdings ein, dass die Kosten- und Energieabschätzung lediglich grobe Näherungen sind und Laboruntersuchungen nicht mit einem industriellen Prozess verglichen werden können, bei dem Entwicklung, Design, Durchführbarkeit, Wartung und andere Parameter berücksichtigt werden müssen. Doch dafür sei viel Entwicklungsarbeit nötig. „Es kann sich hier um einen ersten Schritt für eine nicht-konventionelle Art der Zementherstellung, aber nicht die voll entwickelte Lösung handeln“, betont Erstautor Marcel Maslyk.
Ähnlich sehen dies auch Prof. Dr. Wolfgang Tremel und Dr. Ute Kolb von der JGU: „Das Verfahren ist potenziell geeignet, Zement für großtechnische Prozesse herzustellen“, so die beiden Gruppenleiter. „Eine Durchführung im technischen Maßstab würde aber viele Jahre benötigen und damit weder kurz- noch mittelfristig Abhilfe bei den CO₂-Emissionen schaffen können.“
Bildmaterial:
https://download.uni-mainz.de/presse/09_chemie_zementproduktion_konventionell.jp…
Konventionelle Herstellung von Zement durch Brennen von Kalk (CaCO₃) und Sand (SiO₂): Bei der Reaktion wird Kohlendioxid (CO₂) freigesetzt.
https://download.uni-mainz.de/presse/09_chemie_zementproduktion_alternativ.jpg
Neue alternative Herstellung von Zement durch Mahlen von Kalk (CaCO₃) und Sand (SiO₂): Kohlendioxid (CO₂) bleibt gebunden.
Weiterführende Links:
https://www.ak-tremel.chemie.uni-mainz.de/ – AK Wolfgang Tremel ;
https://www.ak-kolb.chemistry.uni-mainz.de/ – AK Ute Kolb ;
https://www.fb09.uni-mainz.de/department-chemie/ – Department Chemie an der JGU
Lesen Sie mehr:
https://www.uni-mainz.de/presse/77344.php – Pressemitteilung „Abwehrmechanismus von Algen schützt zuverlässig vor marinem Fouling“ (21.12.2016) ;
https://www.uni-mainz.de/presse/60990.php – Pressemitteilung „Künstliches Enzym kann natürlichen Entgiftungsmechanismus in Leberzellen imitieren“ (04.06.2014) ;
https://www.uni-mainz.de/presse/55401.php – Pressemitteilung „Mainzer Wissenschaftler erzeugen neuartiges flexibles Mineral inspiriert von Tiefseeschwämmen“ (15.03.2013) ;
https://www.uni-mainz.de/presse/52490.php – Pressemitteilung „Von der Natur inspiriert: Lacke mit bakteriziden Nanopartikeln gegen marines Fouling“ (02.07.2012)
Wissenschaftliche Ansprechpartner:
Prof. Dr. Wolfgang Tremel
Anorganische Nanomaterialien und Biomaterialien, Heterogene Katalyse
Department Chemie
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-25135 oder 39-25333
Fax: +49 6131 39-25605
E-Mail: tremel@uni-mainz.de
https://www.ak-tremel.chemie.uni-mainz.de/head-of-the-group/
Originalpublikation:
M. Maslyk et al., Multistep Crystallization Pathways in the Ambient-Temperature Synthesis of a New Alkali-Activated Binder, Advanced Functional Materials, 1. November 2021,
DOI: 10.1002/adfm.202108126
https://onlinelibrary.wiley.com/doi/10.1002/adfm.202108126
Es geht darum, Menschen mit Wasser zu versorgen – Ein Videoportrait über den Wasserbau-Experten Franz Nestmann
Jorinne Sturm Presse- und Öffentlichkeitsarbeit
Hector Fellow Academy (HFA) gGmbH
Karlsruhe: In einem neuen Videoporträt stellt die Hector Fellow Academy den Experten für Strömungsmechanik und Wasserbau, Prof. Dr.-Ing. Franz Nestmann, vor. Nestmann leitete bis 2021 das Institut für Wasser- und Gewässerdynamik am Karlsruher Institut für Technologie (KIT). 2009 erhielt er den Hector Wissenschaftspreis, seit 2013 ist er Mitglied der Hector Fellow Academy. Im Zentrum von Nestmanns wissenschaftlichen Arbeit steht Wasser – als Basis für Ernährung und Energieversorgung sowie als Transportmittel und ökologischem Lebensraum. Der Film ist seit gestern auf dem YouTube-Kanal der Academy verfügbar (https://youtu.be/Cr2TPexP1UU)
Franz Nestmann ist ein international anerkannter Experte für Wasserbau. Seine wissenschaftlichen Ergebnisse kommen beim Bau von Wasserkraftwerken ebenso zum Einsatz wie beim ökologisch verträglichen Ausbau von Flüssen als Wasserstraßen oder auch bei der Trinkwasserversorgung in entlegenen Weltregionen. Die theoretischen Erkenntnisse für die praktischen Anwendungen erarbeitet Nestmann mit seinen Institutsmitarbeiter*innen in Karlsruhe.
Zu ihnen gehört auch der Doktorand Andreas Müller, dessen Promotionsstelle mit Hilfe der Hector Fellow Academy finanziert wird. Müller erforscht, wie Flusseinbauten – so genannte Lenkbuhnen – Gewässer strukturieren und die Flussufer schützen können. „Durch eine gute Gewässerstruktur bekommen beispielsweise Fische unterschiedliche Lebensräume geboten: flaches oder tiefes Wasser, Bereiche mit schneller und solche mit langsamer Strömung“, sagt Müller: „So werden ausgebaute, monotone Fließgewässer zu ökologisch wertvollen Lebensräumen.“
Anwendung finden die Forschungsergebnisse aus Nestmanns Institut nicht nur in Deutschland, sondern weltweit. Die Erkenntnisse aus dem Kraftwerksbau überträgt der Ingenieur beispielsweise auf kleine Wasserkraftwerke in Vietnam. Sie stellen die regenerative Energie für die Trinkwasserversorgung in entlegenen Gebirgsregionen zur Verfügung. „Dank des Hector Fellow Wissenschaftspreises hat meine Arbeit auch in Asien an Bekanntheit gewonnen“, sagt Nestmann: „Das war ein wesentlicher Grundstein dafür, dass wir in diesen Ländern aktiv werden und einen Beitrag zur Wasserversorgung der Bevölkerung leisten konnten.“ Das Thema hat für Nestmann große Bedeutung, wie er sagt: „Bei einer wachsenden Weltbevölkerung wird es zu allererst darum gehen, die Menschen mit Wasser zu versorgen und mit Lebensmitteln.“
In regelmäßigen Abständen stellt die Hector Fellow Academy ihre Mitglieder in Videoportraits vor. Hierin geben die Wissenschaftler*innen einen allgemeinverständlichen Einblick in ihre Forschung und ihre Motivation. In jedem Jahr wird die oder der neue Preisträger*in portraitiert; zudem entsteht im Zusammenhang mit dem jährlich stattfindenden HFA-Symposium zu wechselnden gesellschaftspolitisch relevanten Themen jeweils ein neuer Hector Fellow-Film. Sämtliche Videos über die Hector Fellows sind auf dem YouTube-Kanal der Hector Fellow Academy unter https://www.youtube.com/channel/UCqxMrca-TYq6EzaJjtWW-kg zu finden.
Über die Hector Fellow Academy
Im Jahr 2013 hat Hans-Werner Hector, einer der Gründer des Softwareunternehmens SAP, die Hector Fellow Academy ins Leben gerufen. Sein Ziel: den Forschungs- und Wissenschaftsstandort Deutschland zu stärken, zukunftsweisende gesellschaftspolitische Diskurse in Gang zu setzen und zur Lösung globaler Herausforderungen beizutragen. Mittlerweile haben 25 herausragende Forscher*innen aus den Natur- und Ingenieurwissenschaften sowie aus Medizin und Psychologie den einmal jährlich vergebenen Hector Wissenschaftspreis erhalten. Die Preisträger*innen waren zum Zeitpunkt ihrer Ehrung an einer deutschen Universität oder Forschungseinrichtung tätig. Die Wissenschaftsakademie bietet diesen Hector Fellows nicht nur eine Plattform zum Austausch und Förderung für gemeinsame interdisziplinäre Forschungsprojekte. Sie hat es sich auch zur Aufgabe gemacht, den Erfahrungsschatz ihrer Mitglieder an die nächste Generation weiterzugeben. Dazu finanziert die Hector Fellow Academy Promotionsstellen von Absolvent*innen mit überdurchschnittlichem Master-Abschluss und hat den Hector Research Career Development Award (Hector RCD Award) ins Leben gerufen. Weitere Informationen: https://www.hector-fellow-academy.de
Weitere Informationen:
https://www.hector-fellow-academy.de/hector-fellows/profile/franz-nestmann.html
Nur jeder zweite Beschäftigte sieht das eigene Unternehmen für die neue Arbeitswelt gerüstet
Hendrik Baumann Pressestelle
Bertelsmann Stiftung
Nach anderthalb Jahren Pandemie vermissen viele Arbeitnehmer:innen von ihrem
Unternehmen noch immer einen klaren Plan für die Zukunft. Die Zufriedenheit mit dem Homeoffice bleibt auf hohem Niveau, doch es zeigen sich auch negative Folgen des flexiblen Arbeitens. Frauen beklagen häufiger als Männer eine Verschlechterung der beruflichen Situation.
Gütersloh, 12. November 2021. Nach Ansicht ihrer Beschäftigten verfügen noch immer zu wenige Unternehmen in Deutschland über eine erkennbare Strategie für die neue Arbeitswelt. Wie eine repräsentative Ipsos-Umfrage im Auftrag der Bertelsmann Stiftung ermittelte, sind mit 52 Prozent nur rund die Hälfte der Arbeitnehmer:innen der Auffassung, dass ihr Unternehmen eine klare Position zur Gestaltung der künftigen Arbeitsprozesse habe. Der Wert stimmt umso bedenklicher, da sich seit der vorangegangenen Befragung im Dezember 2020 keine Veränderungen zeigen. Damals hatten ebenfalls nur 50 Prozent ihrem Unternehmen attestiert, einen Plan für die Zukunft zu besitzen. „Offenbar sind sich viele Unternehmen auch nach anderthalb Jahren Pandemie noch immer nicht darüber im Klaren, wie das Arbeiten unter den flexiblen und digitalisierten Bedingungen erfolgen soll. Diese Unentschlossenheit verunsichert einen großen Teil der Belegschaft und kann das Fundament der Unternehmenskultur erschüttern“, sagt Jörg Habich, Experte für Führungsfragen der Bertelsmann Stiftung.
Ungeachtet der Zukunftsskepsis deuten die Ergebnisse darauf hin, dass sich die Arbeitnehmer:innen mit der „neuen Normalität“ längst arrangiert haben. Jeweils 70 Prozent der Befragten geben an, dass sich die Beziehung zu Kolleg:innen und zur Führungskraft sowie die Wahrnehmung der Unternehmenskultur seit Ausbruch der Corona-Krise nicht verändert hätten. Generell treten dabei keine großen Unterschiede zwischen den Beschäftigten vor Ort und denen im Homeoffice auf – doch im Detail gibt es auffällige Abweichungen. So empfinden Mitarbeiter:innen im Homeoffice die Situation in den Bereichen Work-Life-Balance, Wohlbefinden, Motivation, Arbeitsbelastung und Produktivität nach wie vor etwas positiver als die Kolleg:innen, die weiterhin am Arbeitsplatz beschäftigt sind. Zugleich fällt es den Beschäftigten im Homeoffice schwerer, die sozialen Beziehungen am Arbeitsplatz zu pflegen sowie den Kontakt zu anderen Teams aufrechtzuerhalten. Insgesamt ist die Zufriedenheit mit der Tätigkeit im Homeoffice seit Ende 2020 von 80 auf 88 Prozent angestiegen.
Veränderte Arbeitsbedingungen bringen Nachteile für Frauen mit sich
In den Umfragedaten zeichnen sich allerdings auch die negativen Auswirkungen ab, die mit der flexiblen Arbeitswelt einhergehen. So fällt es insgesamt knapp jedem Zweiten schwer, nach der Arbeit abzuschalten sowie Beruf und Privatleben zu trennen. Vor allem jüngere Arbeitnehmer:innen unter 35 Jahren berichten verstärkt von höherem Leistungsdruck und einer Verschlechterung der Work-Life-Balance. „Die Unternehmen sind gefordert, auf diese wachsende Entgrenzung zu reagieren. Sie können ihre Beschäftigten beispielsweise durch Informations- und Coachingangebote unterstützen. Außerdem ist es sehr wichtig, dass die Führungskräfte diese Probleme wahrnehmen und gemeinsam mit den Mitarbeitenden nach Lösungen suchen“, erklärt Ingrid Feinstein, Director für Employee Research bei der Ipsos GmbH.
Wie die Befragung zeigt, bringt der Wandel der Arbeitsbedingungen insbesondere für Frauen Schwierigkeiten mit sich. Sie geben öfter als Männer an, dass sich Arbeitsbelastung, Wohlbefinden und Produktivität verschlechtert hätten. Zudem äußern sie häufiger Zweifel, ob die Gleichbehandlung in ihrem Unternehmen weiter vorangetrieben wird. Dieses Thema ist ihnen bei der Wahl des Arbeitgebers wichtiger als Männern, während die Aspekte Weiterbildung und Karriere für sie eine geringere Rolle spielen. Bereits Ende 2020 hatte eine Befragung der Bertelsmann Stiftung ergeben, dass Frauen in der Corona-Situation in die traditionelle Aufgabenteilung zurückzufallen drohen. Die Kombination aus höherer Belastung sowie dem Zurückstellen der beruflichen Ambitionen sei für Frauen ein großes Hindernis auf dem Weg zu mehr Gleichberechtigung, warnen die Expert:innen der Bertelsmann Stiftung.
„Wettbewerbsvorteil im Kampf um Talente“
Trotz der Defizite und Anpassungsschwierigkeiten haben sich die Arbeitnehmer:innen im Großen und Ganzen an die neuen Rahmenbedingungen gewöhnt. „Die Unternehmen können die neu gewonnene Flexibilität nicht zurücknehmen. Daher müssen sie sich endlich konsequent mit der Frage beschäftigen, wie zukunftsfähige Modelle der Zusammenarbeit in ihrer jeweiligen Organisation gestaltet sein müssen und wie sie umzusetzen sind“, rät Jörg Habich. Aus Sicht des Experten sind dabei weniger die Technik und die Prozesse auschlaggebend für den Erfolg, sondern vielmehr die unternehmenskulturellen und strategischen Weichenstellungen. „Die intelligente Einbettung flexibler Arbeitszeiten und Büroraumkonzepte in die Unternehmenskultur stellt einen zunehmenden Wettbewerbsvorteil im Kampf um Talente dar. Hier wird auch das Homeoffice noch viel zu selten als strategische Option, zum Beispiel für das Personalmarketing, betrachtet“, sagt Habich. Daher sollten sich Personalabteilungen viel stärker in die Transformation einbringen und Ideen entwickeln, wo und vor allem wie der soziale Austausch der Beschäftigten künftig stattfindet. Von zentraler Bedeutung sei es auch, Führungskräfte gezielt für die veränderten Aufgaben in einer mobilen und digitalen Arbeitswelt sowie für ihre wichtiger werdende Rolle als Moderator:innen zu befähigen.
Zusatzinformationen
Für die Studie hat das Markt- und Meinungsforschungsunternehmen Ipsos im Juni 2021 insgesamt 1.250 Arbeitnehmer:innen zwischen 18 und 65 Jahren aus unterschiedlichen Branchen befragt. 48 Prozent der Befragten waren männlich, der Altersdurchschnitt lag bei 49 Jahren. 18 Prozent haben gemäß eigenen Angaben eine Führungsverantwortung inne. 22 Prozent sind in Teilzeit beschäftigt. 38 Prozent gaben an, dass sie zumindest teilweise im Home-Office arbeiten. Die Verteilungen können als repräsentativ für die Unternehmenslandschaft in Deutschland angesehen werden.
Unser Experte:
Jörg Habich, Telefon: 0 52 41 81 81 277
E-Mail: joerg.habich@bertelsmann-stiftung.de
Weitere Informationen:
http://www.bertelsmann-stiftung.de
Menschliche Einflüsse verändern ein ozeanweites Naturgesetz
Jana Gregor Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Mathematik in den Naturwissenschaften (MPIMIS)
Im Rahmen einer weltweiten Kooperation haben Umweltwissenschaftler erstmals in globalem
Maßstab die gleichmäßige Verteilung der Meeresbiomasse auf verschiedene Größenklassen – von Bakterien bis zu Walen – untersucht. Durch Quantifizierung des Ausmaßes menschlicher Einflüsse auf dieses Ökosystem zeigt sich eine dramatische Verschiebung einer der bedeutendsten Größenordnungen der Natur.
Zurzeit treffen sich die politischen Entscheidungsträger in Glasgow zur 26. UN-Klimakonferenz, und vor wenigen Wochen fand die UN-Konferenz zur biologischen Vielfalt statt. Das weltweite Interesse an diesen internationalen Konferenzen unterstreicht den dringenden Handlungsbedarf, wenn es um die menschlichen Einflüsse auf das Klima und die biologische Vielfalt geht. Der Zusammenhang zur Biomasse, also der Gesamtmasse aller Organismen, und den anthropogenen Einflüssen auf sie ist jedoch noch weitgehend unerforscht, insbesondere im Zusammenhang mit den Ozeanen, die den größten Teil unseres Planeten bedecken. Wissenschaftler des Max-Planck-Instituts für Mathematik in den Naturwissenschaften (Deutschland), des Institut de Ciència i Tecnologia Ambientals (Spanien), der Queensland University of Technology (Australien), des Weizmann Institute of Science (Israel) und der McGill University (Kanada) haben aktuelle wissenschaftliche Daten in der Ozeanbeobachtung und Meta-Analysen genutzt, um aufzuzeigen, dass das menschliche Handeln bereits einen massiven Einfluss auf die größeren Arten im Ozean hat und eines der größten Muster des Lebens grundlegend verändert hat – ein Muster, das die gesamte biologische Vielfalt des Ozeans umfasst, von Bakterien bis zu Walen. Ihre aktuellen Forschungsergebnisse wurden in der aktuellen Ausgabe der Science Advances veröffentlicht.
Messungen der Menge an Meeresplankton in den 1970er Jahren veranlassten die Forscher damals zu der Annahme, dass die Biomasse in allen Größenordnungen in etwa gleich groß ist: Bakterien sind zwar 23 Größenordnungen kleiner als ein Blauwal, aber sie sind auch 23 Größenordnungen zahlreicher. Diese Hypothese des Größenspektrums ist seither unbeanstandet geblieben, auch wenn sie nie in einem globalen Maßstab verifiziert wurde. Die Autoren nahmen sich vor, diese seit langem bestehende Hypothese zum ersten Mal für alle Meeresbewohner zu untersuchen. Sie verwendeten historische Rekonstruktionen und Modelle des marinen Ökosystems, um die Biomasse vor industriellen Aktivitäten (vor 1850) einzuschätzen, und verglichen diese Daten mit der heutigen Zeit. „Es war eine Herausforderung, diese Messungen über einen so großen Maßstab hinweg angemessen zu vergleichen“, erinnert sich der Alexander von Humboldt-Forschungsstipendiat Dr. Ian Hatton, Hauptautor der Studie. „Während kleine Wasserorganismen anhand von mehr als 200.000 weltweit gesammelten Wasserproben ermittelt werden, können größere Meereslebewesen ganze Ozeanbecken durchqueren und müssen mit vollkommen anderen Methoden erfasst werden.“
Ihr Vorgehen ermöglichte es den Forschenden, 12 Hauptgruppen von Wasserlebewesen über etwa 33000 1°-Gitterpunkte des gesamten Ozeans zu identifizieren. Die Auswertung der „unberührten“ Ozeanbedingungen (vor 1850) bestätigte im Wesentlichen die ursprüngliche Hypothese: Es gibt eine bemerkenswert konstante Biomasse von etwa 1 Gigatonne in jeder der 23 Größenklassen, die sich über eine Größenordnung erstrecken. Allerdings existieren in beiden Extrembereichen auch Abweichungen. Während Bakterien in den kalten und dunklen Teilen des Ozeans reichlich vorhanden sind, sind die größten Wale relativ selten, was eine Abgrenzung zur ursprünglichen Hypothese darstellt.
Im Gegensatz zu einem weitgehend konstanten Biomasse-Spektrum im unberührten Ozean ergab eine Untersuchung des Spektrums in der heutigen Zeit eine neue Perspektive auf die Auswirkungen des Menschen auf die Biomasse des Ozeans. Obwohl Fischerei und Walfang nur weniger als 3 Prozent des menschlichen Nahrungsbedarfs ausmachen, sind ihre Auswirkungen auf das Biomasse-Spektrum verheerend: Große Fische und Meeressäuger wie Delfine haben einen Verlust an Biomasse von 2 Gt (60 % Rückgang) erlitten, wobei die größten Wale eine beunruhigende Dezimierung von fast 90 % erfahren haben. Die Autoren schätzen, dass diese Verluste bereits jetzt die potenziellen Rückgänge der Biomasse selbst unter extremen Klimawandelszenarien übersteigen.
„Der Mensch ist zweifellos zum größten Raubtier des Meeresökosystems geworden, aber es scheint wahrscheinlich, dass wir das System weit mehr beeinflusst haben, als nur die größten Fische zu entfernen. Unser Gesamtverhalten in den letzten 200 Jahren hat möglicherweise bis zu zwei Größenordnungen mehr Energie entzogen als die eliminierten Fische“, so Dr. Hatton. Daraus lässt sich schließen, dass der Mensch nicht nur die größten Raubtiere im Meer ersetzt hat, sondern auch den Energiefluss im Meeresökosystem erheblich verändert hat. Die von den Wissenschaftlern vorgelegten Ergebnisse haben den bedeutenden Einfluss des Menschen auf die Verteilung der Biomasse über die verschiedenen Größenbereiche quantifiziert und verdeutlichen das Ausmaß, in dem anthropogene Aktivitäten das Leben auf globaler Ebene verändert haben.
Wissenschaftliche Ansprechpartner:
Dr. Ian Hatton
mailto:i.a.hatton@gmail.com
Originalpublikation:
Ian A. Hatton, Ryan F. Heneghan, Yinon M. Bar-On, and Eric D. Galbraith
The global ocean size-spectrum from bacteria to whales
Science Advances • 10 Nov 2021 • Vol 7, Issue 46 •
DOI: 10.1126/sciadv.abh3732
Vulkane sind mitschuldig am Zusammenbruch chinesischer Dynastien
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Vulkanausbrüche haben in den letzten 2000 Jahren regelmässig zum Sturz chinesischer Dynastien beigetragen. Eine interdisziplinäre Studie unter Beteiligung der Universität Bern hat erstmals vulkanische Klimaschocks eindeutig als eine der Ursachen für die Zusammenbrüche identifiziert.
Wenn Vulkane ausbrechen, hat das einschneidende Folgen fürs Klima – und damit für die Gesellschaft. Grosse Eruptionen erzeugen eine Schwefelsäurewolke, die ein oder zwei Jahre lang einen Teil des Sonnenlichts blockiert. In Asien kann das unter anderem zu kalten Sommern im Norden und einem schwächeren Monsun und damit zu weniger Niederschlag im Süden führen, was beides die Ernteerträge verringert.
Welch dramatische Folgen die vorübergehende Abkühlung und die schlechten Ernten in China während den beiden letzten Jahrtausenden hatten, zeigt eine internationale Studie, die soeben in der Fachzeitschrift «Communications Earth & Environment» erschienen ist. Erarbeitet wurde sie von Forschenden aus den Bereichen Geschichte, Klimaforschung, Vulkanologie sowie von Eiskernspezialistinnen und -spezialisten. Von der Universität Bern war Michael Sigl, Assistenzprofessor für Klima- und Umweltphysik und Mitglied des Oeschger-Zentrums für Klimaforschung an der Untersuchung beteiligt. Er sagt: «Wir konnten zum ersten Mal zeigen, dass es in China nach Vulkanausbrüchen deutlich wahrscheinlicher war, dass Dynastien zusammenbrachen. Diese Ursache hat System.»
Allerdings, so gibt Umweltchemiker Michael Sigl zu bedenken, seien die Zusammenhänge und Wechselwirkungen komplex: Einerseits sind Dynastien anfälliger für einen Zusammenbruch, wenn es bereits Kriege und Konflikte gibt. Andererseits werden Konflikte wahrscheinlicher, wenn eine klimatische Abkühlung zu Missernten führt. Kommt dazu: «Grössere Eruptionen können zu einer doppelten Gefährdung der Ernte durch ausgeprägte Kälte und Trockenheit während der Wachstumsperiode führen.» Die Auswirkungen könnten durch Folgen wie Viehsterben, beschleunigte Bodendegradation und höhere Ernteschäden durch Schädlinge noch verschlimmert werden.
Rekonstruktion mit Hilfe von Eisbohrkernen
Die Forschenden rekonstruierten insgesamt 156 explosive Vulkanausbrüche von 1 n. Chr. bis 1915. Sie stützen sich dabei auf Eisbohrkerne aus Grönland und der Antarktis, in denen sie erhöhte Schwefelkonzentrationen nachwiesen und datierten. Parallel dazu wurden historische Dokumente aus China zu 68 Dynastien analysiert. Bis vor wenigen Jahren konnten Eiskerne aus den Polarregionen noch nicht mit der nötigen Genauigkeit datiert werden, um den Zusammenhang zwischen Eruptionen und den gesellschaftlichen Umbrüchen klar zu erkennen. Heute aber lassen sich erhöhte Schwefelkonzentrationen für die letzten 2000 Jahre auf zwei Jahre genau bestimmen.
Der Vergleich von Daten aus historischen Quellen und Umweltarchiven führte zu differenzierten Resultaten. Die Forschenden zeigen, dass kleinere, von Vulkanen ausgelöste Klimaschocks zum Zusammenbruch von Dynastien führen können, falls der politische und sozioökonomische Druck auf ein politisches Regime bereits hoch ist. Grössere Schocks hingegen können zu Untergang führen, auch wenn zuvor kein erheblicher Stress vorhanden ist. Weitere Faktoren, die zum Zusammenbruch einer Dynastie beitragen, sind schlechte Führung, Korruption in der Verwaltung und demografischer Druck.
Klimawandel verstärkt gesellschaftlich Folgen von Vulkanausbrüchen
Was lässt sich aus der Rolle, die vergangene Vulkanausbrüche für gesellschaftliche Umwälzungen gespielt haben, für die Gegenwart lernen? «Die Eruptionen im 20. und 21. Jahrhundert waren viel kleiner und seltener als viele der Ausbrüche im kaiserlichen China», erklärt Michael Sigl, «aber auch solche Vulkanereignisse können grosse Folgen haben.» So könnten etwa die lediglich mässigen Eruptionen in den 1970er bis 1990er Jahren zusammen mit menschlichen industriellen Schwefelemissionen zu Dürren in der Sahelzone beigetragen haben. Sie forderten in dieser wirtschaftlich marginalisierten Region rund 250’000 Todesopfer und trieben 10 Millionen Menschen in die Flucht. Entsprechend gehen die Autorinnen und Autoren der Studie davon aus, dass künftige grössere Eruptionen in Verbindung mit dem Klimawandel in einigen der bevölkerungsreichsten und am stärksten marginalisierten Regionen der Erde tiefgreifende Auswirkungen auf die Landwirtschaft haben könnten.
Das Oeschger-Zentrum für Klimaforschung (OCCR)
Das Oeschger-Zentrum ist eines der strategischen Zentren der Universität Bern. Es ist ein führendes Klimaforschungszentrum und bringt Forscherinnen und Forscher aus 14 Instituten und vier Fakultäten zusammen. Das OCCR forscht interdisziplinär an vorderster Front der Klimawissenschaften. Das Oeschger-Zentrum wurde 2007 gegründet und trägt den Namen von Hans Oeschger (1927-1998), einem Pionier der modernen Klimaforschung, der in Bern tätig war.
Wissenschaftliche Ansprechpartner:
PROF. DR. MICHAEL SIGL
Physikalisches Institut, Klima- und Umweltphysik (KUP) / Oeschger-Zentrum für Klimaforschung (OCCR), Universität Bern
Telefon: +41 31 684 86 52 / + 41 31 536 59 44 (Homeoffice)
E-Mail-Adresse: michael.sigl@climate.unibe.ch
Originalpublikation:
Chaochao Gao, Francis Ludlow et al: Volcanic climate impacts can act as ultimate and proximate causes of Chinese dynastic collapse, 11.11.21, Nature Communications Earth & Environment, doi:10.1038/s43247-021-00284-7
Weitere Informationen:
https://tinyurl.com/KlimaVulkanausbrueche
https://www.nature.com/articles/s43247-021-00284-7
https://www.oeschger.unibe.ch/index_ger.html
Anhang
Medienmitteilung als PDF
Studie: Zentrale Umwelt- und Wirtschaftsakteure fordern ambitioniertere Klimapolitik der nächsten Bundesregierung
Alina Zurmühlen Pressestelle
Hertie School
Laut einer Umfrage des Centres for Sustainability der Berliner Hertie School und des Oeschger-Zentrums für Klimaforschung der Universität Bern wünschen sich die wichtigsten Akteure der deutschen Umwelt- und Wirtschaftspolitik eine deutlich ambitioniertere Klimapolitik von der nächsten Bundesregierung. In der Studie befragten die Forschenden 47 Bundesministerien, Nichtregierungsorganisationen, Verbände und weitere Organisationen, die Einfluss auf die bundesdeutsche Klimapolitik nehmen. Es bestehe ein breiter Konsens, etwa zur Verschärfung klimapolitischer Maßnahmen, zu höheren CO2-Preisen und zu institutionellen Reformen der bundesdeutschen Klimagovernance.
Prof. Dr. Christian Flachsland, Direktor des Centres for Sustainability und Co-Autor der Studie sagt: «Die Ergebnisse weisen darauf hin, dass sich über 80 Prozent der führenden Organisationen aus Wirtschaft, Verwaltung, Zivilgesellschaft und Wissenschaft einen strategischeren Planungsprozess wünschen. Dazu zählt auch, dass das Kanzleramt eine verstärkt koordinierende Rolle in der regierungsübergreifenden Klimapolitik einnehmen sollte. 70 Prozent der Befragten fordern dies.»
Prof. Dr. Karin Ingold, Politikwissenschaftlerin und Projektverantwortliche der Universität Bern, sagt: „Die große Zustimmung der deutschen Organisationen zu ambitionierter Klimapolitik und höheren CO2-Preisen auf europäischer Ebene kann ein wichtiger Faktor für einen umfassenderen Klimaschutz im gesamten europäischen Wirtschaftsraum haben.»
Dr. Lukas Fesenfeld, Politikwissenschaftler und Erstautor der Studie von der Universität Bern, sagt: «Besonders überraschend waren für uns die Befragungsergebnisse zur CO2-Bepreisung. Circa 90 Prozent der Befragten wünschen sich, dass die Bundesregierung vor allem auf CO2-Preise als Klimaschutzinstrument setzt und eine deutliche Mehrheit wünscht sich einen Mindestpreis.»
Dr. Sebastian Levi, Politikwissenschaftler und Co-Autor der Studie der Hertie-School, sagt: «Aus den gesammelten Daten können wir deutlich ablesen, dass sich die Mehrzahl der großen deutschen Verbände, Nichtregierungsorganisation und Ministerien von der nächsten Bundesregierung eine ökologisch wirksame und sozial gerechte Klimapolitik wünscht. SPD, Grüne und FDP sollten dies während der Koalitionsverhandlungen im Blick behalten. Einnahmen der CO2-Bepreisung könnten beispielsweise für eine pauschale Pro-Kopf-Rückerstattung für private Haushalte sowie zur Förderung von Klimaschutzmaßnahmen verwendet werden. Der Rest der Einnahmen könnte Geringverdienern und Unternehmen zur Entlastung zur Verfügung stehen.»
Weitere wichtige Kennzahlen der Studie im Überblick:
– Über 80% der befragen Organisationen wünschen sich, dass die nächste Bundesregierung einen strategischen, regierungsübergreifenden Planungsprozess anstößt.
– Über 95% der Befragten fordern, dass die nächste Bundesregierung zur Umsetzung der Klimaziele umfassende Politikpakete verabschiedet.
– Mehr als 90% fordern, dass ökologische Wirksamkeit zur Erreichung der Pariser Klimaziele sowie soziale Gerechtigkeit die zentralen Entscheidungskriterien für diese Klimaprogramme werden.
– Mehr als 90% der Befragten wünschen sich, dass die Bundesregierung vor allem auf CO2-Preise als Klimaschutzinstrument setzt.
– Mehr als 60% der Befragten befürworten, dass die Bundesregierung vor allem auf regulatorische Maßnahmen (z.B. strengere Emissionsstandards und Verbote) setzt.
– Eine deutliche Mehrheit (75%) aller befragten Organisationen fordert, dass grundsätzlich ein Mindestpreis pro Tonne CO2 im Rahmen des Emissionshandels festgelegt wird.
– Im Durchschnitt fordern diejenigen Befragten, die ihre Präferenz angaben, dass die nächste Bundesregierung möglichst rasch den CO2-Preis auf mindestens 50 Euro (derzeit 25 Euro) pro Tonne CO2 erhöht. Ab 2025 sollte er bei mindestens 88 Euro, ab 2030 bei mindestens 126 Euro liegen.
Die Studie basiert auf Ergebnissen einer repräsentativen Zielgruppenumfrage unter den 47 wichtigsten deutschen Akteuren, die Einfluss auf Deutschlands Klimapolitik nehmen. In einem nächsten Schritt wollen die Forschenden herausarbeiten, welche Koalitionsmuster es unter den Stakeholdern aus Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft gibt.
Hier finden Sie alle Studienergebnisse:
Fesenfeld, L.P., Maier, M., Montfort S., Ingold, K., Flachsland, C. and Levi, S., Akteursbefragung zur deutschen Klimaschutzpolitik (2021). Available at SSRN:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3961307
Die Hertie School in Berlin bereitet herausragend qualifizierte junge Menschen auf Führungsaufgaben im öffentlichen Bereich, in der Privatwirtschaft und der Zivilgesellschaft vor. Sie bietet Masterstudiengänge, Executive Education und Doktorandenprogramme an. Als universitäre Hochschule mit interdisziplinärer und praxisorientierter Lehre, hochklassiger Forschung und einem weltweiten Netzwerk setzt sich die Hertie School auch in der öffentlichen Debatte für „Good Governance“ und moderne Staatlichkeit ein. Die Hertie School wurde 2003 von der Gemeinnützigen Hertie-Stiftung gegründet und wird seither maßgeblich von ihr getragen. Sie ist staatlich anerkannt und vom Wissenschaftsrat akkreditiert. www.hertie-school.org
Das Oeschger-Zentrum für Klimaforschung (OCCR) ist eines der strategischen Zentren der Universität Bern. Es bringt Forscherinnen und Forscher aus 14 Instituten und vier Fakultäten zusammen. Das OCCR forscht interdisziplinär an vorderster Front der Klimawissenschaften. Das Oeschger-Zentrum wurde 2007 gegründet und trägt den Namen von Hans Oeschger (1927-1998), einem Pionier der modernen Klimaforschung, der in Bern tätig war. www.oeschger.unibe.ch
Pressekontakt
Alina Zurmühlen, Pressereferentin, Hertie School
+49 (0) 30 259 219 – 246
zurmuehlen@hertie-school.org
Wenn Algorithmen kreativ werden
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Ein besseres Verständnis von Lernmechanismen trägt dazu bei, die Funktionsweise unseres Gehirns besser zu verstehen und intelligente, anpassungsfähige Maschinen zu bauen. Um dies zu erreichen, schlagen Forscher der Universität Bern einen neuen Ansatz vor, in dem Algorithmen die biologische Evolution nachahmen und durch kreative Weiterentwicklung besser lernen.
Unsere Gehirne sind unglaublich anpassungsfähig. Jeden Tag bilden wir Erinnerungen, erwerben neues Wissen oder verfeinern bestehende Fähigkeiten. Dies steht im Gegensatz zu unseren heutigen Computern, die in der Regel nur vorprogrammierte Aktionen ausführen können. Unsere eigene Anpassungsfähigkeit ist das Ergebnis der sogenannten synaptischen Plastizität. Die Synapsen sind die Verbindungsstellen zwischen Nervenzellen. Sie können sich auf verschiedene Weise verändern, abhängig davon, wie sie verwendet werden.
Diese Plastizität der Synapsen ist ein wichtiger Forschungsgegenstand der Neurowissenschaften, da sie zentral ist für Lernprozesse und das Gedächtnis. Um diese Prozesse des Gehirns besser zu verstehen und anpassungsfähige Maschinen zu bauen, erstellen Forschende aus den Gebieten der Neurowissenschaften und der künstlichen Intelligenz (KI) Modelle der Mechanismen, die diesen Prozessen zugrunde liegen. Solche Lern- und Plastizitätsmodelle tragen dazu bei, die biologische Informationsverarbeitung zu verstehen sollen es zusätzlich Maschinen ermöglichen, schneller zu lernen.
Algorithmen ahmen die biologische Evolution nach
Im Rahmen des Human Brain Project der EU haben nun Forscher des Instituts für Physiologie der Universität Bern einen neuen Ansatz entwickelt, der auf sogenannten evolutionären Algorithmen basiert. Diese Computerprogramme suchen nach Lösungen für Probleme, indem sie den Prozess der biologischen Evolution nachahmen, wie etwa das Konzept der natürlichen Selektion. So wird die biologische Fitness, die den Grad der Anpassung eines Organismus an seine Umgebung beschreibt, ein Vorbild für evolutionäre Algorithmen. Bei den evolutionären Algorithmen besteht die «Fitness» eines Lösungskandidaten darin, wie gut er das zugrunde liegende Problem löst.
Überraschende Kreativität
Der neu entwickelte Ansatz wird als «evolving-to-learn» (E2L-Ansatz) oder «lernfähig werden» bezeichnet. Das Forschungsteam um Dr. Mihai Petrovici vom Institut für Physiologie der Universität Bern und Kirchhoff-Institute for Physics der Universität Heidelberg, konfrontierte dabei die evolutionären Algorithmen mit drei typischen Lernszenarien. Im ersten musste der Computer ein sich wiederholendes Muster in einem kontinuierlichen Strom von Eingaben erkennen, ohne dass er eine Rückmeldung darüber erhielt, wie gut er dabei war. Im zweiten Szenario erhielt der Computer virtuelle Belohnungen, wenn er sich in der gewünschten Weise verhielt. Im dritten Szenario des «geführten Lernens» schliesslich wurde dem Computer genau mitgeteilt, wie stark sein Verhalten vom gewünschten Verhalten abweicht.
«Für jedes dieser Szenarien waren die evolutionären Algorithmen in der Lage, Mechanismen der synaptischen Plastizität zu entdecken, und dadurch eine neue Aufgabe erfolgreich zu lösen», sagt Dr. Jakob Jordan, der Ko-Erstautor vom Institut für Physiologie der Universität Bern. Dabei zeigten die Algorithmen überraschende Kreativität: «Beispielsweise hat der Algorithmus ein neues Plastizitätsmodell gefunden, in dem von uns definierte Signale zu einem neuen Signal kombiniert werden. Tatsächlich beobachten wir, dass Netzwerke, die dieses neue Signal benutzen, schneller lernen als mit bisher bekannten Regeln», betont Dr. Maximilian Schmidt vom RIKEN Center for Brain Science in Tokyo, Ko-Erstautor der Studie. Die Ergebnisse wurden im Journal eLife publiziert.
«Wir sehen E2L als vielversprechenden Ansatz, um Einblicke in biologische Lernprinzipien zu gewinnen und den Fortschritt hin zu leistungsstarken Maschinen zu beschleunigen», sagt Mihai Petrovici. «Wir hoffen, dadurch die Forschung zur synaptischen Plastizität im Nervensystem voranzutreiben», ergänzt Jakob Jordan. Die neu gewonnenen Erkenntnisse ermöglichen neue Einblicke in die Funktionsweise von gesunden und erkrankten Gehirnen. Sie können auch den Weg für die Entwicklung intelligenter Maschinen ebnen, die sich besser an die Bedürfnisse ihrer Nutzer anpassen können.
Diese Arbeit wurde von der Europäischen Union (Human Brain Project) und der Manfred Stärk Stiftung unterstützt. Das Gauss Center for Supercomputing e.V. kofinanzierte dieses Projekt durch die Bereitstellung von Rechenzeit durch das John von Neumann Institute for Computing (NIC) auf dem GCS Supercomputer JUWELS am Jülich Supercomputing Center (JSC). Die Ressourcen von Fenix Infrastructure wurden verwendet und teilweise aus dem Forschungs- und Innovationsprogramm Horizon 2020 der Europäischen Union durch das ICEI-Projekt finanziert. Alle Netzwerksimulationen wurden mit NEST durchgeführt.
Berner Beitrag am Human Brain Project
Das Human Brain Project (HBP) ist das grösste Projekt für Hirnforschung in Europa und gehört zu den umfangreichsten Forschungsprojekten, die jemals von der Europäischen Union finanziert wurden. An der Schnittstelle von Neurowissenschaften und Informationstechnologie erforscht das HBP das Gehirn und seine Krankheiten mit Hilfe hochmoderner Methoden der Informatik, Neuroinformatik und künstlichen Intelligenz und treibt damit Innovationen in Bereichen wie Brain-Inspired Computing und Neurorobotik voran. Langfristiges Ziel des Human Brain Projects ist die Schaffung von EBRAINS, einer dauerhaften gemeinsamen Plattform für Neurowissenschaften und Computing in Form einer europäischen Forschungsinfrastruktur, die über den Projektzeitraum 2023 hinaus bestehen bleibt.
Das Institut für Physiologie der Universität Bern ist am HBP mit den Gruppen von Dr. Mihai Petrovici und Prof. Dr. Walter Senn beteiligt. 2020 erhielt es dafür einen Förderbeitrag von 2.5 Mio Euro. Die Gruppen entwickeln theoretische Modelle von Nervenzellen und Netzwerken im Hirn, welche eine Verbindung zwischen Verhalten, Lernen, und den entsprechenden Vorgängen und Veränderungen im Hirn herstellen. Die Theorien sind auf biophysikalischen Begriffen aufgebaut und erlauben eine Rekonstruktion der biologischen Vorgänge in sogenannter neuromorpher Hardware, also in Computer-Chips, die ähnlich funktionieren wie das Gehirn selbst.
Wissenschaftliche Ansprechpartner:
DR. JAKOB JORDAN
Institut für Physiologie, Universität Bern
Telefon: +41 31 684 8718
E-Mail-Adresse: jakob.jordan@unibe.ch
Originalpublikation:
Jakob Jordan, Maximilian Schmidt, Walter Senn und Mihai A. Petrovici: Evolving interpretable plasticity for spiking networks, eLife, 28. Oktober 2021, doi: 10.7554/eLife.66273, https://elifesciences.org/articles/66273
Weitere Informationen:
https://tinyurl.com/unibe-kreative-Algorithmen
https://ebrains.eu/services/brain-inspired-technologies/
https://physio.unibe.ch/~petrovici/group/
https://physio.unibe.ch/~senn/group/
Anhang
Medienmitteilung als PDF
Orientierung im Gesundheitssystem ist für viele schwierig
Sandra Sieraad Medien und News
Universität Bielefeld
Internationale Studie zur Gesundheitskompetenz in 17 Ländern veröffentlicht
Für die Bevölkerung wird es immer schwieriger, sich im Gesundheitssystem zu orientieren und sich in der Vielfalt der unterschiedlichen Gesundheitsinformationen zurecht zu finden. Das ergibt die neue europäische Studie “European Health Literacy Population Survey 2019-2021 (HLS₁₉)“. 17 Länder haben an der Studie teilgenommen, darunter auch Deutschland mit der Universität Bielefeld und der Hertie School Berlin. Die Studie wurde unter anderem durch die World Health Organisation (WHO) Europa initiiert.
Noch nie zuvor wurde die Gesundheitskompetenz in so vielen Ländern erhoben und gleichzeitig so differenziert betrachtet. Denn neben allgemeiner Gesundheitskompetenz wurden erstmals auch neue Themen aufgenommen. Die Fähigkeit, sich im Gesundheitssystem zurechtzufinden (navigatioale Gesundheitskompetenz), die digitale Gesundheitskompetenz, die kommunikative Gesundheitskompetenz, die impfbezogene Gesundheitskompetenz sowie ökonomische Folgen von Gesundheitskompetenz sind in die Studie einbezogen worden. Seit 2019 haben die beteiligten Länder daran gearbeitet, zu einem gemeinsamen konzeptionellen und methodischen Ansatz sowie neuen Messinstrumenten für die Erhebung und Auswertung zu kommen.
Die Ergebnisse der durch die WHO Europa und das Netzwerk zur Messung der Gesundheitskompetenz der Bevölkerung und von Organisationen (M-POHL) initiierten Studie wurden am 8. November vorgestellt – dies unter anderem unter Beteiligung von Hans Henri P. Kluge (WHO Regional Director for Europe), Ruediger Krech (Director of the Department of Ethics and Social Determinants of Health der WHO) und Prof. Dr. Ilona Kickbusch (Graduate Institute for International and Development Studies, Genf) sowie Prof Dr. Jürgen Pelikan, dem Koordinator des HLS₁₉. Regionaldirektor Dr. Henri P. Kluge erläuterte: “Gesundheitskompetenz ist eine Kernkompetenz. Die HLS₁₉ Studie gibt wichtige Hinweise für eine evidenzbasierte Gesundheitspolitik, die darauf zielt, zu einer besseren Gesundheitskompetenz zu kommen und Menschen zu motivieren, ihr Gesundheitsverhalten entsprechend zu verändern.“
Umgang mit Gesundheitsinformationen in Deutschland besonders schwierig
Im internationalen Vergleich gaben die Befragten in Deutschland besonders häufig Schwierigkeiten im Umgang mit Gesundheitsinformationen an – dies vor allem mit Blick auf die Navigation im Gesundheitssystem und den dazu nötigen Informationen: Rund 70 Prozent finden es sehr schwierig, herauszufinden welche Unterstützungsmöglichkeiten es gibt, die ihnen helfen können, sich im Gesundheitssystem zurechtzufinden. Nahezu 50 Prozent haben Schwierigkeiten, zu beurteilen, welche Art der Gesundheitsversorgung sie im Falle eines Gesundheitsproblems benötigen.
Die Leiterin der deutschen Studie, Professorin Dr. Doris Schaeffer von der Universität Bielefeld, führt dieses Ergebnis in erster Linie auf die Strukturen des deutschen Gesundheitssystems mit seinen abgegrenzten Sektoren und zahlreichen Schnittstellen zurück: „Im Unterschied zu den meisten anderen in die Untersuchung einbezogenen Ländern ist das Gesundheitssystem in Deutschland sehr komplex und instanzenreich. Für die Nutzer*innen ist es daher schwer überschaubar. Dadurch ist es nicht einfach, sich im Gesundheitssystem zu orientieren und direkt, ohne große Umwege, die richtige Stelle für das eigene Anliegen zu finden. Durch die Sektorierung und die Zersplitterung entstehen zudem zahlreiche Versorgungsbrüche. Sie sind besonders häufig bei den Versorgungsverläufen von Menschen mit langandauernden Gesundheits- und Krankheitsproblemen zu beobachten. Die neue Regierung steht damit vor einer großen Aufgabe und muss vor allem darauf achten, die Navigation zu erleichtern und zu einem nutzerfreundlichen Gesundheitssystem zu gelangen, in dem hoher Wert auf Gesundheitsinformation und die Förderung von Gesundheitskompetenz gelegt wird.“
Wie wichtig das ist, zeigen auch die neuen Daten zur allgemeinen Gesundheitskompetenz: Im Schnitt verfügt nahezu die Hälfte (46 Prozent) der Befragten in den beteiligten 17 Ländern über eine geringe Gesundheitskompetenz. Auch hier fallen die Werte für Deutschland schlechter aus. Eine Förderung der Gesundheitskompetenz ist hier deshalb besonders notwendig.
Ansatzpunkte dazu lassen sich ebenfalls aus den Ergebnissen der internationalen Studie ableiten; denn länderübergreifend fällt die Beurteilung gesundheitsrelevanter Informationen am schwersten. So hat rund jede*r zweite Befragte der internationalen Studie Probleme damit, die Vor- und Nachteile verschiedener Behandlungsmöglichkeiten einzuschätzen. Auch der Nutzen der Gesundheitsinformationen in den Medien wird als wenig hilfreich eingeschätzt: Rund 40 Prozent haben Schwierigkeiten, aufgrund von Informationen in den Medien zu entscheiden, wie man sich vor Krankheiten schützen kann – ein mit Blick auf die Corona-Pandemie alarmierendes Ergebnis. Besorgniserregend ist auch, dass ein verhältnismäßig hoher Anteil der Befragten – rund ein Drittel – Probleme hat, Informationen über den Umgang mit psychischen Gesundheitsproblemen zu finden. In Deutschland trifft dies sogar auf über die Hälfte der Bevölkerung zu. Dies ist umso problematischer, weil der Anteil psychischer Belastungen in letzter Zeit zugenommen hat.
Gesundheitskompetenz ist sozial ungleich verteilt
Doch nicht nur der hohe Anteil geringer Gesundheitskompetenz in der Gesamtbevölkerung ist alarmierend, sondern auch die Tatsache, dass Gesundheitskompetenz sozial ungleich verteilt ist. So bestätigt sich in der internationalen Studie, was bereits die deutschlandweite Befragung ergab: Einige Bevölkerungsgruppen haben größere Schwierigkeiten im Umgang mit Gesundheitsinformationen als andere. Dazu zählen insbesondere Menschen mit geringen finanziellen Ressourcen, niedrigem sozialen Status und niedrigem Bildungsniveau. Doch auch die Gesundheitskompetenz von Menschen im höheren Lebensalter ist geringer als die des Durchschnitts der Befragten. Dies ist deshalb heikel, weil sie besonders auf Gesundheitsinformationen angewiesen sind.
Geringe Gesundheitskompetenz ist – wie die neue internationale Studie zeigt – folgenreich für die Gesundheit und auch für das Gesundheitssystem. Sie geht mit einem ungesünderen Gesundheitsverhalten, schlechterem subjektiven Gesundheitszustand und einer intensiveren Inanspruchnahme des Gesundheitssystems, etwa von Hausärzten, der Krankenhaus- oder Notfallversorgung einher. Damit unterstreichen die Ergebnisse einmal mehr die Bedeutung von Gesundheitskompetenz als wichtige Einflussgröße auf die Gesundheit und als Stellschraube für die Kosten im Gesundheitssystem. Gerade die Corona-Pandemie hat die Notwendigkeit eines kompetenten Umgangs mit Gesundheits- und Krankheitsinformation gezeigt. Umso wichtiger ist es, dass die Förderung von Gesundheitskompetenz in der Bevölkerung aber auch im Gesundheits- und Bildungssystem stärker in den Fokus der Politik genommen wird.
Mit dem Internationalen Health Literacy Survey (HLS₁₉) wurde von bis 2019 bis 2020 eine neue international Erhebung der Gesundheitskompetenz der Bevölkerung in Ländern der WHO Region Europa vorbereitet und durchgeführt. Dabei sind Österreich, Belgien, Bulgarien, Tschechische Republik, Dänemark, Frankreich, Deutschland, Ungarn, Irland, Israel, Italien, Norwegen, Portugal, Russland, Slowakei, Slowenien und die Schweiz. Ziel ist es zur Weiterentwicklung der Forschung über Gesundheitskompetenz in Europa beizutragen, eine Datenbasis für eine evidenzbasierte Gesundheitskompetenzpolitik zu schaffen, eine Grundlage für die Interventionsentwicklung bereitzustellen sowie die Bedeutung von Gesundheitskompetenz auf der politischen Ebene zu stärken.
Kontakt:
Prof’in Dr. Doris Schaeffer
Fakultät für Gesundheitswissenschaft
Telefon: 0521 106-4669
E-Mail: doris.schaeffer@uni-bielefeld.de
Wissenschaftliche Ansprechpartner:
Prof’in Dr. Doris Schaeffer
Fakultät für Gesundheitswissenschaft
Telefon: 0521 106-4669
E-Mail: doris.schaeffer@uni-bielefeld.de
Altern im Wandel – zwischen gesellschaftlicher und persönlicher Wahrnehmung
Frank Aischmann Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
Unser Älterwerden scheint über die letzten Jahrzehnte unkomplizierter und insgesamt positiver geworden zu sein. Viele Studien zur Lebensqualität der heutigen Älteren belegen dies. Aus Sicht älterer Menschen selbst ist das eigene Älterwerden aber nicht wirklich besser geworden.
Viele Studien zeigen, dass die heutigen Älteren gesünder, funktionstüchtiger, schlauer, selbstbewusster, zufriedener und weniger einsam sind als Gleichaltrige vor 20 oder 30 Jahren. Dies hat sich international und auch in Deutschland gezeigt. Forscher*innen an unterschiedlichen wissenschaftlichen Einrichtungen in Deutschland und den USA haben nun anhand einer Auswertung von deutschen und amerikanischen Daten – erhoben zu unterschiedlichen historischen Zeitpunkten –untersucht, ob sich diese Verbesserungen auch in positiveren Sichtweisen dem eigenen Alter und Altern gegenüber niedergeschlagen haben.
Dazu wurden verschiedene Facetten von Alterssichtweisen älterer Menschen Anfang/Mitte der 1990er Jahre mit denen von Gleichaltrigen Mitte/Ende der 2010er Jahre verglichen. Eine dieser Facetten war die Frage nach dem subjektiven Alter „Wie alt fühlen Sie sich?”. Einbezogen wurden Daten aus international hochanerkannten deutschen und nordamerikanische Studien: den Berliner Altersstudien und der Studie „Mittleres Lebensalter in den USA“ (MIDUS). Das auch für die Forscher*innen überraschende Hauptergebnis war, dass in keinem der einbezogenen Indikatoren und in keinem der beiden Länder Hinweise auf Verbesserungen in den Alterssichtweisen von älteren Menschen über 15 bis 20 Jahre hinweg beobachtet werden konnten. „Die Vielzahl von historischen Verbesserungen im Älterwerden sind demzufolge nicht im Erleben des eigenen Älterwerdens angekommen“, sagt Denis Gerstorf, Professor für Entwicklungspsychologie an der Humboldt-Universität zu Berlin und einer der Autoren der Studie.
Ist das eine schlechte Botschaft? Die Forscherinnen und Forscher des Papiers plädieren für eine differenzierte Interpretation dieser Befunde. „Es gibt Hinweise, dass sich gesellschaftliche Altersbilder im Laufe der letzten Jahrzehnte vielfach verschlechtert haben. Demzufolge wäre dann Stabilität in den Sichtweisen des eigenen Alters ja durchaus eine Art Leistung im Sinne einer Abgrenzung“, betont Hans-Werner Wahl, Senior-Professor an der Universität Heidelberg und Erstautor der Studie. Vielleicht – so eine mögliche zweite Interpretation – koppeln sich generell Bewertungen des eigenen Lebens (Stichwort „Individualisierung“) immer mehr von allgemein beobachtbaren Veränderungen ab? Und drittens überlagern sich immer mehr ein „junges Alter“ als einer Erfolgsgeschichte der Moderne mit einem immer länger werdenden „alten Alter“ und damit einhergehenden Befürchtungen von Demenz und Autonomieverlust. Im Ergebnis könnte diese komplexe Mélange von Faktoren zu nivellierenden Effekten geführt hat.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Werner Wahl, Universität Heidelberg, wahl@nar.uni-heidelberg.de
Prof. Dr. Denis Gerstorf, Humboldt Universität zu Berlin, denis.gerstorf@hu-berlin.de
Originalpublikation:
Wahl, H.-W., Drewelies, J., Duezel, S., Lachman, M. E., Smith,
J., Eibich, P., Steinhagen-Thiessen, E., Demuth, I.,
Lindenberger, U., Wagner, G. G., Ram, N., & Gerstorf, D.
(2021). Subjective age and attitudes toward own aging across
two decades of historical time. Psychology and Aging. Advance
online publication
https://doi.org/10.1037/pag0000649
Anhang
PM HU: Altern im Wandel
Mit duktilen Gussrohren und Steinwolle zu einem besseren Stadtklima
Beatrice Liebeheim-Wotruba Referat Hochschulmarketing & Kommunikation
Hochschule Ruhr West
Hitzewellen, lange Trockenzeit, Starkregen und Überschwemmungen – extreme Wetterereignisse als Folge des Klimawandels zeigen die hohe Vulnerabilität der Städte. Das Projekt BoRSiS (Boden-Rohr-System als innovatives Element der klimaangepassten Stadtentwässerung) setzt sich mit Anpassungsstrategien an den Klimawandel auseinander und entwickelt ein marktfähiges und praxisnahes Speicherkonzept aus Steinwolle und duktilen Gussrohren. Neben Professoren der HRW sind die Hochschule Bochum, Industrievertreter, ein Baumökologe sowie die Stadt Detmold in das Projekt eingebunden.
Mülheim an der Ruhr, 5. November 2021: Schattenspendende Bäume spielen für ein besseres und (kühleres) Mikroklima in Städten bei zunehmender Sommerhitze eine wichtige Rolle. Um sie zu wässern werden immer mehr Baumrigolen eingesetzt. Rigolen sind (unterirdische) Speicherkörper z. B. aus Kies, wo das Wasser im Porenvolumen gespeichert wird, Mulden sind Vertiefungen auf der Oberfläche, welche für die Speicherung des Wassers dienen. Dort kann das (Stark-)Regenwasser aber nur kurz gespeichert werden, da das Speichervolumen auf den Baumstandort begrenzt ist. Das Ziel von BoRSiS ist es, im Leitungsgraben von Rohren unter den Gehwegen oder Straßen Wasser zu speichern und zeitverzögert zur Bewässerung von Stadtbäumen abzugeben. Durch die Nutzung des Leitungsgrabens steht ein erweiterter Speicher für Niederschlagswasser und für den Wurzelraum zur Verfügung, ohne dass ein zusätzlicher Platzbedarf auf der Oberfläche (gegenüber Versickerungsmulden) erforderlich ist.
Um den bisher ungenutzten Leitungsgraben überhaupt als Speicher für Niederschlagswasser und Wurzelraum nutzen zu können, ist eine Abkehr von der bisherigen Praxis erforderlich. Derzeit werden Leitungsgräben hoch verdichtet, um eine stabile Bettung der Rohre zu gewährleisten. Wurzeln sollen soweit möglich vom Leitungsgraben ferngehalten werden. Rohre aus duktilem Gusseisen, wie sie von den Mitgliedern des Industriepartners EADIPS®/FGR® e. V. hergestellt werden, können in porenreiche, grobe Schottermaterialien gebettet werden. Sie gelten als wurzelfest, sodass Baumwurzeln in den Leitungsgraben dieses Boden-Rohr-Systems einwachsen können ohne das Rohr zu schädigen. Außerdem wird ein neuartiges Material für den Leitungsgraben getestet. Der Industriepartner Rockflow hat einen Leitungsgraben aus Steinwolle entwickelt, der gegenüber Kieskörpern mit 95 Prozent ein höheres Speichervermögen besitzt.
Neben wasserwirtschaftlichen Fragestellungen werden auch geotechnische (Lastabtrag der Verkehrslasten, Kontakterosion) ökonomische (Kosten-Nutzen-Analysen, Fragestellungen zur Abwassergebühr bei gemeinsamer öffentlicher und privater Nutzung) und ökologische (Anforderungen durch die Bäume, Analyse der Wirksamkeit) Aspekte berücksichtigt. Durch die
interdisziplinäre Zusammenarbeit wird ein ganzheitlicher, innovativer Lösungsansatz entwickelt, dessen praxisnahe Umsetzung durch die Praxispartner noch erhöht wird.
Der besondere Mehrwert im Projekt liegt somit insbesondere in der interdisziplinären, ganzheitlichen Herangehensweise zur Lösung wichtiger gesellschaftlicher Problemstellungen als Folge des Klimawandels. Es werden grundlegende offene sowie praxisrelevante Fragen zur Umsetzung des Boden-Rohr-Systems untersucht. Das Projekt ist prädestiniert für ein Promotionsvorhaben zum ganzheitlichen Starkregen- und Klimaanpassungskonzept sowie zum Regenwassermanagement inklusive eines Monitoringkonzeptes.
Beteiligt an diesem Verbundprojekt sind neben den HRW Instituten Bauingenieurwesen und Wirtschaft die Hochschule Bochum (Wasserbau und Hydromechanik), die Fachgemeinschaft Euopean Association for Ductile Iron Pipe Systems (EADIPS), das Unternehmen Rockflow und auch die Stadt Detmold. Die geplante kooperative Promotion wird durch das Institut für Wasserbau und Wasserwirtschaft an der Universität Duisburg-Essen begleitet. Konsortialführer ist Prof. Dr. Markus Quirmbach vom Institut Bauingenieurwesen. Das Projekt ist geplant bis September 2024. Finanziert wird das Projekt neben Eigenanteilen der Industriepartner durch eine Förderung des Bundesministeriums für Bildung und Forschung (BMBF) im Förderprogramm „Forschung an Fachhochschulen“ unter dem Förderkennzeichen 13FH002KA0.
Medienkontakt
Hochschule Ruhr West
Beatrice Liebeheim | Kommunikation
Telefon: 0208/ 882 54 251
Mobil: 0151/ 55 11 74 50
E-Mail: beatrice.liebeheim@hs-ruhrwest.de
Wissenschaftliche Ansprechpartner:
Wissenschaftlicher Kontakt
Hochschule Ruhr West
Prof. Dr. Markus Quirmbach | Institut Bauingenieurwesen
Telefon: 0208/ 882 54 463
E-Mail: markus.quirmbach@hs-ruhrwest.de
EU fördert zwei Forschungsprojekte mit Freiburger Beteiligung zur Unterstützung des European Green Deal
Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Projekt SUPERB unterstützt Entscheidungsträger*innen bei Maßnahmenplanungen zur Wiederherstellung von Biodiversität und Ökosystemleistungen der Wälder
• Projekt PAUL entwickelt neue Technologien zur direkten Messung von Treibhausgasemissionen in der Atmosphäre über Städten
Im Rahmen des EU-Forschungs- und Innovationsprogramms „Horizon 2020“ fördert die Europäische Union 73 Forschungsprojekte zur Unterstützung des European Green Deal – an zwei von ihnen sind Wissenschaftler*innen der Universität Freiburg beteiligt: „SUPERB – Systemic Solutions For Upscaling Urgent Ecosystem Restoration For Forest Related Biodiversity And Ecosystem Services” sowie „PAUL – Pilot Application In Urban Landscapes, Towards Integrated City Observatories For Greenhouse Gases”.
SUPERB soll ein dauerhaftes förderliches Umfeld für einen Wandel hin zu einer großflächigen Wiederherstellung von Wäldern und Waldlandschaften vor dem Hintergrund des Klimawandels schaffen. Die Wiederherstellung der Wälder zielt darauf ab, Biodiversität und die Bereitstellung von Ökosystemleistungen inklusive Klimaschutz zu fördern. Das Projekt soll Entscheidungsträger*innen in den verschiedenen Regionen Europas befähigen, auf einer wissenschaftlichen Basis und gemeinsam mit Stakeholdern möglichst rasch fundierte Entscheidungen für Wiederherstellungsmaßnahmen umzusetzen. Das European Forest Institute (EFI) in Finnland koordiniert das Vorhaben. Es beginnt im Dezember 2021 und hat eine Laufzeit von vier Jahren. Von der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg sind Prof. Dr. Jürgen Bauhus und Dr. Metodi Sotirov beteiligt. SUPERB erhält circa 20 Millionen Euro, wovon 732.500 Euro auf die Universität Freiburg entfallen.
Im Projekt PAUL wollen Forscher*innen neue Technologien zur direkten Messung von Treibhausgasemissionen und -reduktionen in Städten entwickeln. Projektkoordinator ist die Europäische Forschungsinfrastruktur „Integrated Carbon Observation System“ (ICOS) in Finnland. PAUL ist bereits im Oktober 2021 gestartet und läuft für fünf Jahre. Aus Freiburg beteiligt ist Prof. Dr. Andreas Christen vom Institut für Geo- und Umweltnaturwissenschaften. Christen koordiniert ein Arbeitspaket zur Entwicklung und zum Aufbau atmosphärischer Observatorien in verschiedenen europäischen Städten, um Emissionen und deren Reduktionen zu bestimmen. PAUL wird auch Integrationsstellen mit dem Projekt „Urbisphere“ haben, wofür Christen den ERC Synergy Grant des Europäischen Forschungsrats eingeworben hat. Beide Projekte führen Messungen in der Atmosphäre der Stadt Paris durch und stärken sich inhaltlich und logistisch. PAUL erhält 13 Millionen Euro, wovon 495.166 Euro an die Universität Freiburg gehen.
Der European Green Deal ist der Fahrplan der Europäischen Kommission für eine klimaneutrale nachhaltige EU-Wirtschaft. Dieses Ziel soll erreicht werden, indem klima- und umweltpolitische Herausforderungen als Chancen für Innovationen gesehen werden und der Übergang zu einer klimaneutralen Wirtschaft in allen Sektoren inklusiv gestaltet wird.
Weitere Informationen:
Projekt SUPERB https://cordis.europa.eu/project/id/101036849
Projekt PAUL https://www.icos-cp.eu/projects/icos-cities-project
Pressemitteilung des Ministeriums für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg
https://mwk.baden-wuerttemberg.de/de/service/presse-und-oeffentlichkeitsarbeit/p…
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jürgen Bauhus
Institut für Forstwissenschaft
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3677
E-Mail: waldbau@waldbau.uni-freiburg.de
Prof. Dr. Andreas Christen
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3591
E-Mail: andreas.christen@meteo.uni-freiburg.de
Christian Jäger
Leiter EU-Büro
Freiburg Research Services
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-8845
E-Mail: christian.jaeger@zv.uni-freiburg.de
Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/eu-foerdert-zwei-forschungsprojekte-mit-f…
Forschende aus Paderborn und Hannover entwickeln vereinfachte Methode zum Erfassen von drei Dimensionen in Fotos
Johanna Pietsch Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Projektabschluss am Heinz Nixdorf Institut
Die sogenannte Tiefenschätzung dient der dreidimensionalen Wahrnehmung von Szenen in Fotoaufnahmen und spielt in Anwendungsbereichen wie der Robotik oder dem autonomen Fahren eine wichtige Rolle. Seit 2019 haben Wissenschaftler des Heinz Nixdorf Instituts der Universität Paderborn gemeinsam mit dem Forschungszentrum L3S der Leibniz Universität Hannover (Arbeitsgruppe Visual Analytics, Prof. Dr. Ralph Ewerth) an maschinellen Lernmethoden gearbeitet, die diesen Prozess universeller und kostengünstiger gestalten sollen. Nach zwei Jahren Laufzeit des Projekts „Schwach überwachtes Lernen von Tiefenschätzung in monokularen Bildern“, das von der Deutschen Forschungsgemeinschaft (DFG) mit knapp 175.000 Euro gefördert worden ist, kann die Projektgruppe nun auf Ergebnisse für diverse Anwendungsbereiche blicken.
Von der zweiten zur dritten Dimension
Mit einer herkömmlichen Kamera wird die aufgenommene dreidimensionale Welt in eine zweidimensionale Aufnahme umgeformt. Fotografiert man jedoch mit mehreren Linsen oder mit bestimmten Sensoren, die die Tiefe der dargestellten Objekte messen können, lässt sich die dritte Dimension rekonstruieren und so eine dreidimensionale Darstellung erzeugen. Für jedes Pixel wird dabei ein Wert festgelegt, der den Abstand zur Kameralinse misst. Derartige Informationen für einzelne Bilder werden auf einer sogenannten Tiefenkarte gesammelt, deren Erstellung zum Erlernen von vorhersagbaren Modellen allerdings nicht nur zeitaufwändig, sondern durch die Verwendung teurer und energie-hungriger Sensoren wie LiDAR vor allem auch sehr kostenintensiv ist. Ein breiter Einsatz in beliebigen Szenerien ist dementsprechend noch nicht umsetzbar.
„Um Methoden zur Tiefenschätzung weiter anwendbar machen zu können, haben wir uns in dem Kooperationsprojekt mit Herangehensweisen beschäftigt, bei denen schwächere Informationen zum Trainieren möglicher Modelle, mit denen Tiefenkarten vorhergesagt werden können, ausreichen. Durch Sensoren, die nur ungefähre Werte produzieren, oder durch synthetische Werte, die künstlich generiert werden, wird der Prozess deutlich kostengünstiger“, erläutert Julian Lienen, wissenschaftlicher Mitarbeiter der ehemaligen Fachgruppe „Intelligente Systeme und Maschinelles Lernen“ am Heinz Nixdorf Institut der Universität Paderborn unter der Leitung von Prof. Dr. Eyke Hüllermeier. Die Verallgemeinerung konventioneller maschineller Lernmethoden und die Konstruktion von synthetischen Trainingsdaten, die die Wissenschaftler im Rahmen ihrer Forschung mit den schwachen Informationen generiert haben, senken die Anforderungen zum Einsatz von Tiefenschätzungsmodellen. So reichen nun Toleranzbereiche oder relative Informationen über die einzelnen Pixel aus, um die jeweilige Tiefe richtig einzuschätzen und hochqualitative Tiefenkarten zu erzeugen. Durch den damit erzielten Kostenvorteil konnte der potenzielle Anwendungsbereich von Methoden zur Tiefenschätzung erweitert werden.
Weichenstellung für dreidimensionale Fotoaufnahmen mit dem Smartphone
Laut Lienen sei es durchaus denkbar, dass selbst Smartphones mit kostengünstigen Kamerasensoren in Zukunft standardmäßig mit einer hochqualitativen Tiefenschätzung ausgestattet werden könnten. Auch für den Bereich Augmented Reality bedeuten die Forschungsergebnisse einen Zugewinn. „Es ist möglich, dass sich die bisher entwickelten Methoden ausweiten und auch auf Videoaufnahmen anwenden lassen. Dadurch lassen sich weitere kostengünstige Datenquellen erschließen, die die Generalisierbarkeit der erlernten Modelle erhöhen können. Gerade im Bereich der Augmented Reality könnten dann computergenerierte Szenen optisch so an die reale Lebenswelt angepasst werden, dass sich kaum ein Unterschied zur Realität festmachen lässt“, zeigt Lienen abschließend auf.
Wissenschaftliche Ansprechpartner:
Julian Lienen, wissenschaftlicher Mitarbeiter der ehemaligen Fachgruppe „Intelligente Systeme und Maschinelles Lernen“ am Heinz Nixdorf Institut der Universität Paderborn, E-Mail: julian.lienen@upb.de
Weitere Informationen:
https://www.upb.de/
Intelligente Lösungen für das „Öko Smart Home“
Michael Patrick Zeiner Bildung
Verband Deutscher Maschinen- und Anlagenbau e.V.
Erfolgreicher Abschluss des Maschinenhaus-Transferprojekts des VDMA an der Hochschule Aalen.
Die Fach- und Führungskräfte von morgen für Mechatronik und Technik begeistern – das hat sich die Hochschule Aalen zusammen mit dem Verband Deutscher Maschinen- und Anlagenbau e.V. (VDMA) zur Aufgabe gemacht. Zum Abschluss des gemeinsamen Maschinenhaus-Transferprojekt fand jetzt eine Projektwoche statt, in der Studierende interdisziplinär an Aufgabenstellungen rund um den Klimaschutz, die Ressourcenoptimierung und Digitalisierung im Smart Home arbeiteten.
Wie kann ein ökologisches, nachhaltiges Leben im eigenen Zuhause aussehen? Mit dieser Fragestellung beschäftigten sich mehr als 70 Mechatronik-Studierende der Hochschule Aalen im Maschinenhaus-Transferprojekt des VDMA. „Autonom agierende, intelligente Produktionsanlagen, Roboter, Elektromobilität, Künstliche Intelligenz oder die Sensor- und Kameraintegration in Fahrzeugen und autonomes Fahren sind nur einige Beispiele, welchen Einfluss die Digitalisierung und Vernetzung derzeit schon haben. An der Hochschule Aalen bilden wir die Fach- und Führungskräfte von morgen aus, die diese Zukunftstechnologien anwenden und weiterentwickeln“, sagt Prof. Dr. Ulrich Schmitt, der sich in seinem derzeitigen Forschungssemester u.a. mit der Vorbereitung, Durchführung und Evaluation des Projekts beschäftigt. „Studierende, die sich über derartige Lehrformate gleich zu Studienbeginn in der Rolle von Ingenieurinnen und Ingenieuren ausprobieren können, erfahren hautnah am praktischen Beispiel, welche beruflichen Anwendungsmöglichkeiten die zu lernenden theoretischen Inhalte bieten“, meint Uwe Krüger, Organisationsberater vom HIS-Institut für Hochschulentwicklung e.V..
„Das Ziel der Maschinenhaus-Initiative des VDMA, ist es, den Studienerfolg in den Ingenieurwissenschaften zu erhöhen und Hochschulen in der Lehre zu beraten und unterstützen“, erläutert Projektleiter und VDMA-Bildungsreferent Michael Patrick Zeiner die Intention der Zusammenarbeit. „Die Hochschule Aalen war sehr daran interessiert, ihre Lehre weiterzuentwickeln und hat mit der Einführung einer Projektwoche ein großartiges Angebot geschaffen, die Studierenden praxisnah, interdisziplinär und mit Spaß an die Themen der Zukunft heranzuführen.“
In der Projektwoche an der Hochschule Aalen ging es zum Beispiel unter anderem darum, wie sich die Temperatur eines Zimmers oder der gesamten Wohnung mit möglichst geringem Ressourceneinsatz regeln lässt, wie ein Gewächshaus intelligent und ressourcenschonend betrieben werden oder in welcher Weise sich ein Haus energetisch selbst versorgen und nachhaltig sein kann. „Die Studierenden erkennen bei dem Projekt ihre eigenen Stärken und Talente, den Mehrwert eines interdisziplinären Teams sowie die Möglichkeiten der Schwerpunkte ihres Studiums“, sagt Schmitt. „Die Studienangebote an der Hochschule Aalen werden ständig weiterentwickelt und an die Bedarfe der Industrie angepasst. Die neuen Berufsbilder reichen von der Entwicklung über die Produktion, die Erprobung und Inbetriebnahme bis zur Projektierung und in den Vertrieb. Das Transferprojekt mit dem VDMA setzen wir als Studiengang gezielt bei der Weiterentwicklung der mechatronischen Lehre ein“, sagt Mitinitiator Prof. Dr. Peter Eichinger.
„Die Lehrenden des Studiengangs Mechatronik haben im Rahmen des Projekts in beeindruckender Manier Absprachen miteinander und mit Partnern aus Unternehmen der Region getroffen, um für Studierende und Unternehmen ein hoch attraktives Studienangebot anbieten zu können“, hebt VDMA-Bildungsreferent Michael Patrick Zeiner hervor. Er überreichte zum Abschluss des Projekts und zur Würdigung des Engagements der Fakultät für Optik und Mechatronik das „Maschinenhaus-Zertifikat“. Die Hochschule Aalen hat damit als 59. Fachbereich in Deutschland das Maschinenhaus-Transferprojekt erfolgreich abgeschlossen.
Hintergrund
Über die VDMA-Initiative „Maschinenhaus – Plattform für innovative Lehre“
Mit der Maschinenhaus-Initiative unterstützt der VDMA seit 2013 Fakultäten und Fachbereiche des Maschinenbaus, der Elektrotechnik und der Informatik bei der Weiterentwicklung der Lehre und der Erreichung von mehr Studienerfolg. Das Maschinenhaus versteht sich dabei als „Plattform für innovative Lehre“, die Akteure aus Hochschulen, Politik und Unternehmen miteinander vernetzt. Damit soll den hohen Studienabbruchquoten in den ingenieurwissenschaftlichen Studiengängen entgegengewirkt und ein qualitativ hochwertiges Ingenieurstudium sichergestellt werden.
In aktuell 62 laufenden oder bereits abgeschlossenen Transferprojekten im gesamten Bundesgebiet gelangt die Theorie in die Praxis und in individuellen Workshops wird der Status quo der Lehre analysiert und neue Maßnahmen konzipiert. Bereits erfolgreich praktizierte Good-Practice-Beispiele innovativer Hochschullehre sammelt die Maschinenhaus-Initiative in einer Toolbox (https://maschinenhaus-toolbox.de/).
Alle weiteren Informationen zur Maschinenhaus-Initiative und dem Hochschul-Engagement des VDMA finden Sie unter https://www.vdma.org/ingenieurausbildung.
Über die Hochschule Aalen
Die Hochschule Aalen ist laut aktuellen Umfragen eine der beliebtesten Hochschulen in Deutschland. Sie zeichnet sich durch innovative Studiengänge aus, die auf die Anforderungen einer zukunftsgerichteten, digitalen und nachhaltigen Gesellschaft und Industrie ausgerichtet sind. Auf einem modernen und stetig wachsenden Campus mitten im Süden können die rund 5.600 Studierenden in top ausgestatteten Laboren und Werkstätten alle notwendigen Fähigkeiten erwerben, die sie für einen erfolgreichen Berufseinstieg benötigen.
Die Hochschule Aalen zählt bundesweit zu den forschungsstärksten Hochschulen für angewandte Wissenschaften. Forscherteams tragen zur Verbesserung der IT-Sicherheit bei, erforschen Supermagnete für Elektromobilität, verlängern die Lebensdauer von Lithiumionen-Akkus in Elektrofahrzeugen, erarbeiten ressourcenschonende Energiekonzepte und treiben autonomes Fahren, 3D-Druck und die Industrie 4.0 voran.
Dazu arbeitet die Hochschule Aalen eng mit den Unternehmen der Region zusammen, darunter auch zahlreiche Weltmarktführer. Bereits während ihres Studiums können die Studierenden durch Projektarbeiten, im Praxissemester oder bei der Abschlussarbeit wertvolle Kontakte für ihre berufliche Zukunft knüpfen. Das erweitert genau wie ein Auslandsaufenthalt schon früh den Horizont. Die Hochschule Aalen hat rund 130 Partnerhochschulen in der ganzen Welt und hilft den Studierenden bei der Organisation des Auslandsaufenthalts. Auch wer eine gute Idee hat und lieber selbst gründen will, wird unterstützt und zum Beispiel im Innovationszentrum INNO-Z gefördert.
Rückfragen zur Initiative des VDMA:
Verband Deutscher Maschinen- und Anlagenbau (VDMA) e.V.
Michael Patrick Zeiner
Referent für Bildungspolitik
Telefon +49 69 6603-1160
E-Mail michael.zeiner@vdma.org
Ansprechpartner/-in an der Hochschule:
Viktoria Kesper
Pressesprecherin
Telefon 07361/576-1050
E-Mail viktoria.kesper@hs-aalen.de
kommunikation@hs-aalen.de
Originalpublikation:
https://www.vdma.org/viewer/-/v2article/render/35436522
Anhang
21 11 02 VDMA-PI Transferabschluss_HS Aalen
Ein natürlicher CO2-Speicher dank symbiotischer Bakterien
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Seegraswiesen bieten einen vielseitigen Lebensraum an vielen Küsten. Zudem speichern sie große Mengen Kohlendioxid (CO2) aus der Atmosphäre im Ökosystem. Um zu wachsen, brauchen die Seegräser Nährstoffe, vor allem Stickstoff. Bisher glaubte man, dass die Pflanzen den Stickstoff vorwiegend aus dem Wasser und Sediment aufnehme – die allerdings extrem nährstoffarm sind. Nun zeigt eine in Nature veröffentlichte Studie von Forschenden des Bremer Max-Planck-Instituts für Marine Mikrobiologie, dass Seegras im Mittelmeer in seinen Wurzeln eine Symbiose mit einem Bakterium unterhält, welches den für das Wachstum notwendigen Stickstoff liefert. Das war bisher nur von Landpflanzen bekannt.
Seegräser sind weit verbreitet in den flachen Küstenregionen gemäßigter und tropischer Meere. Sie bedecken bis zu 600.000 Quadratkilometer weltweit, was etwa der Fläche von Frankreich entspricht. Sie bilden die Grundlage für das gesamte Ökosystem, das zahlreichen Tieren, darunter auch bedrohte Arten, wie Meeresschildkröten, Seepferdchen und Seekühe, ein Zuhause ist und vielen Fischarten eine sichere Kinderstube bietet. Außerdem schützen Seegräser die dahinterliegenden Küsten vor Abtragung durch Sturmfluten und nehmen jedes Jahr Millionen von Tonnen an Kohlendioxid auf, das für lange Zeiten im Ökosystem als sogenannter „blauer Kohlenstoff“ gespeichert wird.
Üppiges Leben trotz Nährstoffarmut
Der Lebensraum vieler Seegräser ist für einen Großteil des Jahres arm an Nährstoffen, wie beispielsweise Stickstoff. Der Stickstoff ist zwar in seiner elementaren Form (N2) reichlich im Meer vorhanden, doch in dieser Form können ihn die Seegräser nicht aufnehmen. Dass die Pflanzen dennoch üppig gedeihen, liegt an ihren jetzt entdeckten kleinen Helfern: bakterielle Symbionten, die N2 innerhalb der Wurzeln fixieren und den Pflanzen in nutzbarer Form zur Verfügung stellen. Wiebke Mohr und ihre Kolleginnen und Kollegen vom Max-Planck-Institut für Marine Mikrobiologie in Bremen, Hydra Marine Sciences in Bühl und dem Schweizer Wasserforschungsinstitut Eawag beschreiben nun in ihrer Studie, wie diese innige Beziehung zwischen Seegras und Bakterium organisiert ist.
Harmonie in den Wurzeln
„Bislang vermutete man, dass der sogenannte fixierte Stickstoff für die Seegräser von Bakterien stammt, die rund um die Wurzeln der Pflanzen im Meeresboden leben“, erklärt Mohr. „Wir zeigen nun, dass die Beziehung viel enger ist: Die Bakterien leben in den Wurzeln der Seegräser. Das ist das erste Mal, dass so eine im wahrsten Sinn des Wortes innige Symbiose bei Seegräsern gezeigt wird. Bisher war sie nur von Landpflanzen bekannt, insbesondere bei landwirtschaftlich wichtigen Arten, wie den Hülsenfrüchtlern, Weizen oder auch Zuckerrohr.“ Auch diese lassen sich den Luftstickstoff von Bakterien aufbereiten, denen sie im Gegenzug Kohlenhydrate und andere Nährstoffe liefern. Einen sehr ähnlichen Austausch von Stoffwechselprodukten gibt es auch zwischen dem Seegras und seinem Symbionten.
Die Bakterien, die in den Pflanzenwurzeln leben, sind eine Neuentdeckung. Mohr und ihr Team gaben ihnen den Namen Celerinatantimonas neptuna, nach ihrem Gastgeber, dem Neptungras (Posidonia). Verwandte von C. neptuna wurden bisher auch bei Algen im Meer gefunden, etwa beim Seetang. „Als die Seegräser vor etwa 100 Millionen Jahren vom Land ins Meer gezogen sind, haben sie wohl die Bakterien von den großen Algen übernommen“, vermutet Mohr. „Sie haben das an Land höchst erfolgreiche System sozusagen kopiert und sich dann, um im nährstoffarmen Meerwasser überleben zu können, einen marinen Symbionten erworben.“ Die aktuelle Studie beschäftigte sich mit Seegras der Gattung Posidonia im Mittelmeer. Möglicherweise bewährt sich das Konzept aber auch andernorts. „Genanalysen deuten darauf hin, dass es auch an tropischen Seegräsern und in Salzwiesen solche Symbiosen gibt“, sagt Mohr. „So schaffen es diese Blütenpflanzen, verschiedenste, augenscheinlich nährstoffarme Lebensräume zu besiedeln, im Wasser ebenso wie an Land.“
Symbiose im Wandel der Jahreszeiten
Je nach Jahreszeit sind in den Küstengewässern unterschiedlich viele Nährstoffe vorhanden. Im Winter und Frühjahr reichen die im Wasser und Sediment vorhandenen Nährstoffe den Seegräsern aus. „Die Symbionten sind dann zwar vereinzelt in den Wurzeln der Pflanzen vorhanden, sind aber wahrscheinlich nicht sehr aktiv“, so Mohr. Im Sommer, wenn das Sonnenlicht zunimmt und immer mehr Algen wachsen und die wenigen vorhandenen Nährstoffen aufzehren, wird der Stickstoff schnell knapp. Dann übernehmen die Symbionten. Sie liefern den Seegräsern direkt den Stickstoff, den sie brauchen. So ist es möglich, dass die Seegräser im Sommer, wenn eigentlich karge Zeiten anbrechen, ihr größtes Wachstum aufweisen.
Viele Methoden ergeben ein klares Bild
Die nun vorliegende Studie schlägt eine Brücke über das gesamte Ökosystem, von der Produktivität des Seegrases bis hin zu den dafür verantwortlichen Symbionten im Wurzelwerk. Um das zu ermöglichen nutzten die Forschenden eine Vielzahl verschiedener Methoden und kamen der Symbiose so detailliert wie möglich auf die Spur: Sauerstoffmessungen unmittelbar vor Ort verrieten die Produktivität der Seegraswiese. Mikroskopietechniken, bei denen einzelne Bakterienarten farblich markiert werden können (das sogenannte FISH) halfen dabei, die Bakterien in und zwischen den Wurzelzellen der Seegräser zu lokalisieren. Im NanoSIMS, einem hochmodernen Massenspektrometer, zeigten sie die Aktivität der einzelnen Bakterien. Sogenannte genomische und transkriptomische Analysen ergaben, welche Gene für die Interaktion vermutlich besonders wichtig sind und dass diese stark genutzt werden. So gelang den Forschenden eine fundierte und detaillierte Beschreibung dieser erstaunlichen Zusammenarbeit. „Als nächstes wollen wir nun diese neuen Bakterien genauer untersuchen“, sagt Mohr. „Wir wollen sie im Labor isolieren um genauer zu untersuchen, wie die Symbiose funktioniert und entstanden ist. Spannend wird sicher auch die Suche nach vergleichbaren Systemen in anderen Regionen und Lebensräumen.“
Wissenschaftliche Ansprechpartner:
Dr. Wiebke Mohr
Abteilung Biogeochemie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-6300
E-Mail: wmohr@mpi-bremen.de
Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de
Originalpublikation:
Wiebke Mohr, Nadine Lehnen, Soeren Ahmerkamp, Hannah K. Marchant, Jon S. Graf, Bernhard Tschitschko, Pelin Yilmaz, Sten Littmann, Harald Gruber-Vodicka, Nikolaus Leisch, Miriam Weber, Christian Lott, Carsten J. Schubert, Jana Milucka, Marcel M. M. Kuypers (2021): Terrestrial-type nitrogen-fixing symbiosis between seagrass and a marine bacterium. Nature (2021)
DOI: 10.1038/s41586-021-04063-4 (https://doi.org/10.1038/s41586-021-04063-4)
Weitere Informationen:
https://www.mpi-bremen.de/Page5462.html
Anhang
Ein Teil der Bucht von Fetovaia, wo die meisten Proben dieser Studie gesammelt wurden.
MCC: Eine Tonne CO₂ aus der Luft filtern kostet tausend Kilowattstunden Energie
Ulrich von Lampe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Das Zehntausend-Seelen-Dorf Hilwil bei Zürich ist eine Art Mekka für Klimaschutz-Bewegte: Schon seit 2017 betreibt dort die Firma Climeworks eine futuristisch anmutende Pilotanlage für „Direct Air Caputure“ – und holt mit chemischen Filtern jährlich 900 Tonnen des wichtigsten Treibhausgases Kohlendioxid (CO₂) aus der Atmosphäre. Dass dies nicht nur imposant aussieht, sondern auch in großem Umfang sinnvoll sein könnte, belegt jetzt eine neue Studie unter Mitwirkung des Berliner Klimaforschungsinstituts MCC (Mercator Research Institute on Global Commons and Climate Change). Sie wurde in der renommierten Fachzeitschrift Nature Energy veröffentlicht.
Die Studie zeigt erstmals den Ressourcenverbrauch über den gesamten Lebenszyklus solcher Filter-Anlagen hinweg. Mit im Blick sind auch die für den Filterbetrieb nötige Chemikalie („Sorbtionsmittel“) sowie der Abtransport und die Speicherung des entnommenen CO₂. Betrachtet werden die Ressourcen Energie, Materialien, Landfläche und Wasser sowie die vor allem beim Bau und schlussendlichen Abriss der Anlagen freigesetzten Feinstaub-Emissionen. Die Analyse basiert auf Daten von Climeworks für die sogenannte TSA-Filtertechnologie sowie von der kanadischen Firma Carbon Engineereing für das konkurrierende HAT-Aq-Verfahren. Die Studie untersucht auch die Folgen veränderter technischer Rahmenbedingungen, etwa eines „grüneren“ Energiemixes oder einer CO₂-ärmeren Wertschöpfungskette für das Sorbtionsmittel.
„Unser systematischer Ansatz ermöglicht es, die Luftfilter-Anlagen wirklich vergleichbar zu machen mit allen anderen Klimaschutz-Optionen“, erklärt Felix Creutzig, Leiter der MCC-Arbeitsgruppe Landnutzung, Infrastruktur und Transport und Co-Autor. In der Studie wird bereits die CO₂-Entnahme über Bioenergie-Plantagen nach dem gleichen Schema klassifiziert, ebenso die Emissionsminderung durch Elektroautos statt Verbrenner sowie durch Wärmepumpen statt Gasthermen. „Die Luftfilter schaffen viel Klimaschutz auf besonders wenig Platz, das ist angesichts der weltweit knappen Ressource Land ein großer Pluspunkt“, sagt Creutzig. „Auf kurze Sicht ist es kosteneffektiver, durch Elektrifizierung des Endverbrauchs CO₂-Ausstoß zu vermeiden – doch in ein oder zwei Jahrzehnten, mit fortschreitender Dekarbonisierung der Wirtschaft, kann auch diese Option in großem Stil einen effizienten Beitrag für den Klimaschutz leisten.“
Mit dem von Climeworks verwendeten TSA-Verfahren eine Tonne CO₂ aus der Luft zu filtern, erfordert unter heutigen Rahmenbedingungen 1000 Kilowattstunden grüner Energie – das ist viel, aber bei der Verkehrs- und Wärmewende liegt der zusätzliche Grünstrom-Bedarf in der gleichen Größenordnung. Außerdem benötigt man dann 36 Kilogramm Material, 7 Tonnen Sorbtionsmittel, 3 Kubikmeter Wasser sowie ein Jahr lang 11.000 Quadratmeter Platz; zudem werden anteilig 180 Gramm Feinstaub emittiert. Die Studie gewichtet den Ressourcenverbrauch auch nach seiner Klimawirkung. Demnach sind konventionell mit Energie aus Erdgas betriebene Luftfilter derzeit CO₂-ineffizient: Unter dem Strich werden für eine Tonne herausgefiltertes CO₂ früher oder später 300 Kilogramm CO2-Äquivalente emittiert. Das von der Firma Carbon Engineering verwendeten HAT-Aq-Verfahren schneidet mit 580 Kilo im Vergleich noch schlechter ab. Dagegen liegen diese Werte in einem Szenario mit CO₂-armer Wärme- und Stromversorgung deutlich niedriger, nämlich bei 150 und 260 Kilo.
„Die Gefahr ist groß, dass die Technologie der Luftfilter noch nicht in ausreichender Größenordnung einsatzbereit ist, wenn sie in ein oder zwei Jahrzehnten gebraucht wird“, sagt Kavya Mahdu, Doktorandin an der Universität Freiburg und Leitautorin der Studie. „Denn die bisherige Unsicherheit über den genauen technischen Aufwand führt dazu, dass sich auch keine klaren Vorstellungen über Geschäftsmodelle und eine sachgerechte staatliche Förderung herausbilden können. Unsere Arbeit liefert einen Beitrag, um die eklatante Innovations- und Politiklücke in diesem Bereich zu schließen.“
Wissenschaftliche Ansprechpartner:
https://www.mcc-berlin.net/ueber-uns/team/creutzig-felix.html
Originalpublikation:
Mahdu, K., Pauliuk, S., Dhathri, S., Creutzig, F., 2021, Understanding environmental trade-offs and resource demand of direct air capture technologies through comparative life-cycle assessment, Nature Energy
https://doi.org/10.1038/s41560-021-00922-6
Weitere Informationen:
https://www.mcc-berlin.net
Anhang
MCC: Eine Tonne CO₂ aus der Luft filtern kostet tausend Kilowattstunden Energie
Ergänzung vom 29.10.2021
KORREKTUR: Die im letzten Absatz der Pressemeldung und im Zitationshinweis genannte Leitautorin schreibt sich „Madhu“, nicht „Mahdu“.
Post-COVID: Analysen zeigen mögliche gesundheitliche Auswirkungen von COVID-19 auch bei Kindern und Jugendlichen
Claudia Kallmeier Pressestelle
Technische Universität Dresden
COVID-19-Patienten erhielten mehr als drei Monate nach der akuten Infektion häufiger ärztliche Diagnosen physischer und psychischer Symptome und Erkrankungen als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Nicht nur Erwachsene, auch Kinder und Jugendliche sind demnach potenziell von Post-COVID betroffen.
Gemeinsame Pressemitteilung von Universitätsklinikum Dresden/Zentrum für Evidenz-basierte Gesundheitsversorgung (ZEGV), AOK Bayern – Die Gesundheitskasse, AOK PLUS Sachsen und Thüringen, BARMER, DAK-Gesundheit, InGef – Institut für angewandte Gesundheitsforschung Berlin und Techniker Krankenkasse
COVID-19-Patienten erhielten mehr als drei Monate nach der akuten Infektion häufiger ärztliche Diagnosen physischer und psychischer Symptome und Erkrankungen als Menschen ohne COVID-19-Diagnose. Das ergeben Analysen von umfangreichen Krankenversicherungsdaten. Nicht nur Erwachsene, auch Kinder und Jugendliche sind demnach potenziell von Post-COVID betroffen: Zu den am stärksten mit COVID-19 assoziierten dokumentierten Symptomen und Erkrankungen zählen bei Kindern und Jugendlichen unter anderem Unwohlsein und rasche Erschöpfung, Husten, Schmerzen im Hals- und Brustbereich sowie Angststörungen und Depression. Erwachsene verzeichneten insbesondere vermehrt ärztliche Diagnosen von Geschmacksstörungen, Fieber, Husten und Atembeschwerden. An der Studie sind mehrere gesetzliche Krankenkassen unter Koordination des Zentrums für Evidenzbasierte Gesundheitsversorgung (ZEGV) der Dresdner Hochschulmedizin und des Robert Koch-Instituts beteiligt.
Die Ergebnisse wurden als Preprint veröffentlicht („Post-COVID in chil-dren, adolescents, and adults: results of a matched cohort study in-cluding more than 150,000 individuals with COVID-19“, https://www.medrxiv.org/content/10.1101/2021.10.21.21265133v1).
„Dies ist international eine der ersten, großen kontrollierten Kohortenstudien zu Post-COVID. Die umfangreiche Datengrundlage unserer Partner und innovative methodische Verfahren erlauben erstmals auch belastbare Aussagen zu längerfristigen Folgen von COVID-19 bei Kindern und Jugendlichen“, sagt Prof. Dr. Jochen Schmitt vom Universitätsklinikum Dresden. Um die Zusammenhänge zwischen COVID-19 und den Erkrankungen zu verstehen, sei weitere Forschung notwendig. „Künftige Analysen sollten einen Fokus auf die Persistenz möglicher Gesundheitsprobleme in der Studienpopulation legen. Zudem ist es wichtig, die Übertragbarkeit der Ergebnisse auf spätere Phasen der Pandemie und damit einhergehende veränderte Versorgungsbedingungen zu untersuchen“, ergänzt Dr. Martin Rößler vom Universitäts-klinikum Dresden.
Unter Post-COVID werden längerfristige, mindestens drei Monate nach einer SARS-CoV-2-Infektion fortbestehende oder neu hinzukommende Krankheitssymptome und gesundheitliche Einschränkungen zusammengefasst. Bislang ist jedoch nicht klar, wodurch sich Post-COVID genau auszeichnet und wie viele Menschen davon betroffen sind. Um sich diesen Fragen zu nähern, ist man auf kontrollierte Studien angewiesen, in denen Personen nach gesicherter SARS-CoV-2-Infektion ausreichend lange und im Vergleich zu einer gut definierten Kontrollgruppe auf ihren Gesundheitszustand hin nachbeobachtet werden. Bisherige internationale Studien dieser Art weisen auf längerfristige gesundheitliche Auswirkungen bei Erwachsenen hin – die Analyse von ZEGV, RKI und Krankenkassen liefert nun erstmals auch Erkenntnisse zu Post-COVID bei jüngeren Altersgruppen auf Grundlage deutscher Krankenkassendaten. Datenbasis der Studie sind Abrechnungsdaten der Jahre 2019 und 2020 von ca. 38 Millionen gesetzlich Versicherten der AOK Bayern, der AOK PLUS Sachsen und Thüringen, der BARMER, der DAK-Gesundheit, der Techniker Krankenkasse sowie der InGef Forschungsdatenbank, über die ein wesentlicher Teil der Daten von Betriebskrankenkassen einbezogen wurde.
In die Analyse gingen Daten von mehr als 150.000 Personen mit labormedizinisch nachgewie-sener COVID-19-Erkrankung im ersten Halbjahr 2020 ein, darunter fast 12.000 Kinder und Jugendliche. Für jede infizierte Person wurden fünf nichtinfizierte Versicherte in die Studie eingeschlossen, die hinsichtlich Alter, Geschlecht, Vorerkrankungen und Nachbeobachtungszeit vergleichbar waren. Infizierte und nicht-Infizierte wurden hinsichtlich 96 vorab festgelegter Symptome und Erkrankungen verglichen, die drei Monate nach Infektions- bzw. Einschlussdatum neu dokumentiert wurden.
Die Analysen zeigen, dass bei Erwachsenen, aber auch bei Kindern und Jugendlichen mehr als drei Monate nach COVID-19-Diagnose häufiger neue Symptome und Erkrankungen diagnostiziert wurden als bei vergleichbaren Personen ohne COVID-19-Diagnose. Die neu dokumentierten Diagnosen betreffen sowohl physische als auch psychische Erkrankungen sowie eine Vielzahl unterschiedlicher Organsysteme und Symptomkomplexe. In Bezug auf alle betrachteten Symptome und Erkrankungen lag die Häufigkeit neu dokumentierter Diagnosen bei Kindern und Jugendlichen mit COVID-19 um ca. 30% höher als bei Kindern ohne COVID-19-Diagnose. Dies ergab der Vergleich von Diagnoseraten bezogen auf 1.000 Personenjahre, deren Berechnung die unterschiedlichen Nachbeobachtungszeiten der in die Studie eingeschlossenen Personen berücksichtigt. Die Diagnoserate betrug bei Kindern mit COVID-19 ca. 437 und bei Kindern ohne COVID-19-Diagnose ca. 336. Bei Erwachsenen mit COVID-19-Diagnose lag die Diagnoserate mit rund 616 um ca. 33% höher als die Diagnoserate von 464 der Kontrollgruppe ohne COVID-19. Insgesamt waren Kinder und Jugendliche seltener betroffen als Erwachsene.
Die Studie ist Teil des Projektes “Post-COVID-19 Monitoring in Routine Health Insurance Data” (POINTED). In früheren Analysen wurden bereits Risikofaktoren für schwere COVID-19-Verläufe auf Basis von Krankenkassendaten untersucht (siehe Veröffentlichung im EpidBull 19/2021:https://www.rki.de/DE/Content/Infekt/EpidBull/Archiv/2021/19/Art_02.html)
Kontakt:
Pressestelle des Universitätsklinikums Carl Gustav Carus:
E-Mail: pressestelle@uniklinikum-dresden.de
Tel.: 0351 458-4162
AOK Bayern
Michael Leonhart
Tel.: 089 62730-146
E-Mail: presse@by.aok.de
AOK PLUS
Hannelore Strobel
Tel.: 0800 10590-11144
E-Mail: presse@plus.aok.de
BARMER
Athanasios Drougias
Tel.: 0800 333004991421
E-Mail: athanasios.drougias@barmer.de
DAK-Gesundheit
Jörg Bodanowitz
Tel.: 040 2364855-9411
E-Mail: joerg.bodanowitz@dak.de
InGef – Institut für angewandte Gesundheitsforschung Berlin GmbH
Malte Harlinghausen
Unternehmenskommunikation
Tel.: 030 586945 161
E-Mail: Malte.Harlinghausen@SpectrumK.de
Techniker Krankenkasse
Gabriele Baron
Tel. 040 – 69 09-17 09
E-Mail: gabriele.baron@tk.de
Wissenschaftliche Ansprechpartner:
Zentrum für Evidenzbasierte Gesundheitsversorgung, Universitätsklinikum Carl Gustav Carus und Medizinische Fakultät der TU Dresden
Autoren der Studie:
Dr. Martin Rößler/Prof. Dr. Jochen Schmitt
E-Mail: correspondence.zegv@ukdd.de (direkte Kontaktaufnahme)
Tel.: 0351 458-89211 (Sekretariat)
Anpassung an den Klimawandel: Großtechnische Umsetzung von Gemüseproduktion mit Wasserwiederverwendung
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Vom Pilotprojekt in die großtechnische Realisierung: Das im Forschungsprojekt HypoWave erfolgreich entwickelte Verfahren einer landwirtschaftlichen Lebensmittelproduktion mit recyceltem Wasser geht erstmals im großen Maßstab in die Anwendung. Im Zuge des Nachfolgeprojekts HypoWave+ hat der Forschungsverbund mit den Vorbereitungen für die hydroponische Gemüseproduktion mit aufbereitetem Bewässerungswasser auf einem Hektar Fläche begonnen.
Die landwirtschaftliche Produktion ist weltweit immer stärker auf Bewässerung angewiesen. Doch regionale Wasserknappheiten und daraus resultierende Nutzungskonflikte nehmen zu. Ertragreiche Ernten sind auch in Deutschland aufgrund von lang anhaltender Hitze und trockenen Böden keine Selbstverständlichkeit. Gesucht werden neue, wassersparende Anbauverfahren. Mit dem Forschungsprojekt HypoWave+ unter der Leitung der Technischen Universität Braunschweig fördert das Bundesministerium für Bildung und Forschung (BMBF) deshalb die Umsetzung einer alternativen landwirtschaftlichen Anbauform in Kombination mit Wasserwiederverwendung im großtechnischen Maßstab.
HypoWave-Verfahren: Alternative für die Landwirtschaft
Das hydroponische Verfahren, bei dem Pflanzen in Gefäßen ohne Erde über eine Nährlösung unter Verwendung von recyceltem Wasser versorgt werden, war in einem Vorgängerprojekt im niedersächsischen Hattorf erfolgreich erprobt worden. „Jetzt geht es darum, die Erfahrungen mit dem wassereffizienten Verfahren auf der Basis von recyceltem Wasser in die Großproduktion zu bringen und wissenschaftlich zu begleiten“, sagt Projektleiter Thomas Dockhorn von der TU Braunschweig. Mit dem neuen HypoWave-Verfahren könne nicht nur eine Alternative zur Bewässerung mit Trink- und Grundwasser erschlossen werden. Die Anbauform bediene sich zugleich einer optimierten Nährstoffversorgung, da den Pflanzen lebenswichtige Nährstoffe wie z.B. Stickstoff und Phosphor aus dem aufbereiteten Wasser zugeführt werden.
Trotz Wasserknappheit: Regionale Lebensmittelerzeugung in Zeiten des Klimawandels
Die Wissenschaftler*innen planen gemeinsam mit niedersächsischen Landwirten auf einem Hektar Anbaufläche die Produktion von bis zu 700 Tonnen Tomaten und Paprika unter Glas. Das Gemüse soll im regionalen Lebensmitteleinzelhandel bis auf eine kurze Winterpause ganzjährig verkauft werden. „Im Zuge der wissenschaftlichen Begleitung von HypoWave+ konzentrieren wir uns auf Fragen des Qualitätsmanagements und der Marktfähigkeit des Verfahrens“, sagt Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung in Frankfurt. Wichtig sei es, nicht nur für diesen Standort eine tragfähige Lösung zu entwickeln, sondern daraus auch Empfehlungen für andere Orte und Landwirte ableiten zu können. Der Klimawandel schreitet sichtbar voran. Der regionale wasserschonende und ganzjährig im Gewächshaus mögliche Gemüseanbau könne daher zu einer echten Option für Landwirte werden. „Dafür wollen wir die notwendigen Weichen stellen“, sagt Winker.
Das Forschungsprojekt HypoWave+
Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „HypoWave+ – Implementierung eines hydroponischen Systems als nachhaltige Innovation zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung“ zur Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ im Rahmen des Bundesprogramms „Wasser: N“. Wasser: N ist Teil der BMBF-Strategie Forschung für Nachhaltigkeit (FONA). Die Fördersumme beträgt 2,8 Millionen Euro. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), der Wasserverband Gifhorn (WVGF), IseBauern GmbH & Co. KG, aquatune GmbH (a Xylem brand), Ankermann GmbH & Co. KG, Huber SE und INTEGAR – Institut für Technologien im Gartenbau GmbH.
Bildmaterial unter www.flickr.com/photos/102295333@N04/albums/72157688518183561
Wissenschaftliche Ansprechpartner:
Dr. Martina Winker
Projektkoordinatorin HypoWave+
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-53
winker@isoe.de
Weitere Informationen:
http://www.hypowave.de
Wie aus chronischer Darmentzündung Krebs entstehen kann
Frederike Buhse Presse- und Öffentlichkeitsarbeit
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Ein Kieler Forschungsteam des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ hat einen neuartigen Mechanismus gefunden, der die DNA-Reparatur bei Menschen mit chronischen Darmentzündungen stören und so zu Darmkrebs führen kann.
Chronisch-entzündliche Darmerkrankungen (CED) sind schubweise auftretende Entzündungen des Magen-Darm-Trakts, die mit blutigen Stuhlgängen, Durchfällen und starken Beeinträchtigungen der Lebensqualität einhergehen. Menschen mit einer CED haben ein erhöhtes Risiko, auch an Darmkrebs zu erkranken. Dieser wird bei CED-Patientinnen und -Patienten dadurch begünstigt, dass die DNA in den Darmschleimhautzellen durch chronische Entzündungsprozesse beschädigt wird. Wird die DNA in einer Zelle geschädigt, so schützt sich im gesunden Zustand die Zelle vor der Anreicherung eines fehlerhaften Genoms dadurch, dass sie sich nicht mehr weiter teilt. Unter Entzündungsbedingungen sind diese Schutzmechanismen jedoch aufgehoben und begünstigen die Entstehung von Darmkrebs. Warum aber bei chronischer Entzündung diese Schutzmechanismen aufgehoben sind, ist bislang nicht verstanden.
Ein Team aus dem Exzellenzcluster „Precision Medicine in Chronic Inflammation“ (PMI) hat nun gezeigt, dass das Gen XBP1, welches ein Risikogen für CED ist, ganz entscheidend darauf einwirkt, wie eine Darmschleimhautzelle mit entstandenem DNA-Schaden umgeht und sich somit vor der Entstehung von Krebs schützt. Zusätzlich konnte das Team um Professor Philip Rosenstiel und PD Dr. Konrad Aden vom Institut für klinische Molekularbiologie (IKMB) der Christian-Albrechts-Universität zu Kiel (CAU) und des Universitätsklinikums Schleswig-Holstein (UKSH), Campus Kiel, erste Hinweise auf den möglichen dahinterliegenden Mechanismus finden. Ihre Ergebnisse haben sie im renommierten Fachjournal „Gastroenterology“ veröffentlicht.
Risikogen verschlechtert DNA-Reparatur
Im gesunden, nicht-veränderten Zustand kodiert das Gen XBP1 für ein Protein, das für das molekulare Gleichgewicht in der Darmschleimhaut sorgt und vor Entzündungen schützt. Bei CED-Patientinnen und Patienten kann ein Funktionsverlust dieses Gens im Darm zu einer gestörten Barriere und ungebremster Entzündung führen. Das Kieler Forschungsteam hat in der nun erschienenen Studie gezeigt, dass das Gen auch für die Entstehung von Darmkrebs eine Rolle spielen könnte. Fehlt das Gen in den Deckzellen der Darmschleimhaut wird ein wichtiger Reparaturmechanismus des Erbgutes nicht mehr korrekt ausgeführt. „Wenn das CED-Risikogen XBP1 in Darmepithelzellen fehlt, dann kommt es zu Schäden der DNA und zu vermehrter Zellteilung. Tiere mit einem defekten XBP1 Gen entwickelten einen invasiven Darmkrebs“, berichtet die Erstautorin Lina Welz, die als Clinician Scientist des Exzellenzclusters PMI parallel am IKMB als Doktorandin forscht und am UKSH, Campus Kiel, in der Klinik für Innere Medizin I ihre Facharztweiterbildung absolviert.
Mechanismus über Tumorsuppressor p53 und mTOR Signalweg
Im nächsten Schritt wollten die Forschenden genauer verstehen, über welchen Mechanismus das Gen XBP1 die DNA-Reparatur reguliert und daher bei Fehlfunktion zu Krebs führt. Hierbei stießen die Forschenden auf den bereits bekannten molekularen Schalter p53, einen sogenannten Tumorsuppressor, welcher die Zelle vor der malignen Entartung schützt. p53 gilt als „Wächter des Genoms“ und spielt eine entscheidende Rolle bei der Kontrolle des Zellwachstums. Das Forschungsteam konnte zeigen, dass XBP1 die Aktivität des p53 Tumorsuppressors koordiniert. Darüber hinaus konnten sie einen neuen Mechanismus identifizieren, wie der Tumorsuppressor p53 das unkontrollierte Wachstum von intestinalen Epithelzellen unterdrückt. „Unsere Ergebnisse weisen darauf hin, dass XBP1 und p53 gemeinsam über den sogenannten mTOR Signalweg verhindern, dass sich eine geschädigte Darmepithelzelle unkontrolliert vermehrt und damit entarten kann“, sagt einer der Seniorautoren PD Dr. Konrad Aden, Senior Clinician Scientist des Exzellenzclusters PMI und Oberarzt in der Klinik für Innere Medizin I am UKSH, Campus Kiel.
Möglicher Therapieansatz
Der mTOR-Signalweg wird in der Medizin schon länger für andere Krankheiten als therapeutisches Ziel genutzt und könnte einen neuen frühen Zugang zur Krebstherapie bieten. Die Forschenden haben Mäuse und Zellsysteme mit erhöhten DNA-Schäden und defektem XBP1-Gen mit einem spezifischen Hemmstoff des mTOR-Wegs, dem Wirkstoff Rapamycin, behandelt. „In unseren Modellen konnten durch Rapamycin die vermehrte Zellteilung und die daraus resultierenden Folgeschäden deutlich reduziert werden“, berichtet Aden.
„Obwohl wir schon länger wissen, dass aus chronischen Darmentzündungen Krebs entstehen kann, wissen wir nur relativ wenig über die zugrundeliegenden Prozesse. Unsere Ergebnisse liefern nun eine neue Verknüpfung von Entzündung, gestörter Zellteilung und Reparatur des Erbgutes“, berichtet Seniorautor Professor Philip Rosenstiel, Direktor des IKMB. „Wir werden daher in weiteren Studien untersuchen, wie die gezielte Hemmung des mTOR-Signalweges für die Prävention von Darmentzündungen und von Darmkrebs genutzt werden kann“, so Rosenstiel.
„Dieser wissenschaftliche Erfolg einer Clinician Scientist des Clusters beweist auch die Leistungsfähigkeit des Clinician-Scientist-Programms im Exzellenzcluster PMI, welches es Ärztinnen und Ärzten ermöglicht parallel zu ihrer Facharztweiterbildung gleichberechtigt forschen zu können. Durch die so geschaffenen Forschungsfreiräume und die gute wissenschaftliche Infrastruktur gelingt es klinisch tätigen Ärztinnen und Ärzten, wie hier Lina Welz, solche herausragenden wissenschaftlichen Leistungen zu erzielen“, betont Professor Stefan Schreiber, PMI-Sprecher, Direktor des IKMB, CAU und UKSH, und Direktor der Klinik für Innere Medizin I des UKSH, Campus Kiel.
Fotos stehen zum Download bereit:
https://www.precisionmedicine.de/de/pressemitteilungen/pressebilder-2021/16-entz…
Mikroskopische Aufnahme von entzündetem Darmgewebe, rechts ist der DNA-Reparaturmechanismus gestört, was ein verstärktes, tumorbegünstigendes Wachstum bedingt.
© IKMB, Uni Kiel
Der Exzellenzcluster „Präzisionsmedizin für chronische Entzündungserkrankungen/Precision Medicine in Chronic Inflammation“ (PMI) wird von 2019 bis 2025 durch die Exzellenzstrategie des Bundes und der Länder gefördert (ExStra). Er folgt auf den Cluster Entzündungsforschung „Inflammation at Interfaces“, der bereits in zwei Förderperioden der Exzellenzinitiative (2007-2018) erfolgreich war. An dem neuen Verbund sind rund 300 Mitglieder in acht Trägereinrichtungen an vier Standorten beteiligt: Kiel (Christian-Albrechts-Universität zu Kiel, Universitätsklinikum Schleswig-Holstein, Muthesius Kunsthochschule, Institut für Weltwirtschaft und Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik), Lübeck (Universität zu Lübeck, Universitätsklinikum Schleswig-Holstein), Plön (Max-Planck-Institut für Evolutionsbiologie) und Borstel (Forschungszentrum Borstel – Leibniz Lungenzentrum).
Ziel ist es, die vielfältigen Forschungsansätze zu chronisch entzündlichen Erkrankungen von Barriereorganen in ihrer Interdisziplinarität verstärkt in die Krankenversorgung zu übertragen und die Erfüllung bisher unbefriedigter Bedürfnisse von Erkrankten voranzutreiben. Drei Punkte sind im Zusammenhang mit einer erfolgreichen Behandlung wichtig und stehen daher im Zentrum der Forschung von PMI: die Früherkennung von chronisch entzündlichen Krankheiten, die Vorhersage von Krankheitsverlauf und Komplikationen und die Vorhersage des individuellen Therapieansprechens.
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Wissenschaftliche Geschäftsstelle, Leitung: Dr. habil. Susanne Holstein
Postanschrift: Christian-Albrechts-Platz 4, D-24118 Kiel
Telefon: (0431) 880-4850, Telefax: (0431) 880-4894
Twitter: PMI @medinflame
Pressekontakt:
Frederike Buhse
Telefon: (0431) 880 4682
E-Mail: fbuhse@uv.uni-kiel.de
https://precisionmedicine.de
Link zur Meldung:
https://www.precisionmedicine.de/de/detailansicht/news/wie-aus-chronischer-darme…
Wissenschaftliche Ansprechpartner:
Lina Welz
Klinik für Innere Medizin I, UKSH Kiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-62011
l.welz@ikmb.uni-kiel.de
PD Dr. Konrad Aden
Klinik für Innere Medizin I, UKSH Kiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-15167
k.aden@ikmb.uni-kiel.de
Prof. Dr. Philip Rosenstiel
Institut für Klinische Molekularbiologie, CAU, UKSH
Tel.: 0431/500-15111
p.rosenstiel@mucosa.de
Originalpublikation:
Welz L, Kakavand N, Hang X, Laue G, Ito G, Silva MG, Plattner C, Mishra N, Tengen F, Ogris F, Jesinghaus M, Wottawa F, Arnold P, Kaikkonen L, Stengel S, Tran F, Das S, Kaser A, Trajanoski Z, Blumberg R, Roecken C, Saur D, Tschurtschenthaler M, Schreiber S, Rosenstiel P and Aden K. Epithelial XBP1 coordinates TP 53-driven DNA damage responses and suppression of intestinal carcinogenesis. Gastroenterology (2021), https://doi.org/10.1053/j.gastro.2021.09.057
Es wird heiß: Forschen bei 2000°C
Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Ein neuer Hochtemperaturofen ermöglicht es, im KI-Produktionsnetzwerk an der Universität Augsburg faserverstärkte keramische Verbundwerkstoffen für Luft- und Raumfahrt zu erforschen.
Rot glühen Hitzeschilde von Raumfähren beim Wiedereintritt in die Atmosphäre. Obwohl enorme Kräfte und Temperaturen wirken, geschieht nichts, denn: Sie bestehen aus keramischen Verbundwerkstoffen. Wissenschaftlerinnen und Wissenschaftler der Universität Augsburg forschen im Rahmen des KI-Produktionsnetzwerks im Bereich „Generative Designmethoden und Werkstoffentwicklung“, wie diese Materialien entstehen und verbessern sie. Seit kurzem ergänzt ein besonderer Hochtemperaturofen die Laborausstattung. Er ermöglicht einzigartige Einblicke in die Herstellung keramischer Verbundwerkstoffe.
Der Ofen
Der Hochtemperaturofen, der das Team rund um Prof. Dr. Dietmar Koch (Leiter des Lehrstuhls für Materials Engineering an der Universität Augsburg, Direktoriumsmitglied KI-Produktionsnetzwerk) unterstützt, erlaubt den Forschenden im Bereich der keramischen Verbundwerkstoffe den dafür nötigen Vorgang der thermischen Hochtemperaturbehandlung genau zu untersuchen. Im Unterschied zu handelsüblichen Backöfen wird das Gerät bis zu 2000°C heiß. Bei einem Hochtemperaturvorgang ist er mit Schutzgasen wie Stickstoff oder Argon gefüllt, damit Sauerstoff – ein hoch reaktives Gas – nicht Teil der chemischen Reaktion wird. Was ihn zudem besonders macht, sind seine Messsysteme, die es ermöglichen, jeden Schritt der Herstellung keramischer Verbundwerkstoffe mitzuverfolgen:
Keramische Verbundwerkstoffe
„Unser Ausgangsmaterial sind polymere Faserverbundwerkstoffe“, erklärt Professor Koch. Dabei handelt es sich um Verstärkungsfasern aus Kohlenstoff oder um keramische SiC Fasern, die in einer Matrix – in diesem Fall ein Polymer, also einem Kunststoff − eingebettet und damit verbunden sind. Diese werden in dem Hochtemperaturofen mit Wärme behandelt, von dem Polymer bleibt eine poröse Kohlenstoffstruktur zurück. „Im Ofen schmelzen wir anschließend Silicium und geben die poröse Kohlenstoffstruktur hinein. Diesen Prozess nennt man Silicierung“, erläutert Koch. Dabei entsteht Siliciumcarbid, eine keramische Matrix, die gemeinsam mit den Verstärkungsfasern einen keramischen Verbundwerkstoff bildet. Er hält extrem hohen Temperaturen stand, ist leicht und weist hervorragende mechanische Eigenschaften auf – zum Beispiel ein schadenstolerantes Verhalten. Das bedeutet, dass keramische Verbundwerkstoffe nicht so leicht zerspringen wie der Porzellanteller zuhause. Grund hierfür sind die enthaltenen Fasern, die die Energie eines Schlages auffangen. Insgesamt macht all dies die Verbundkeramiken interessant für Luft- und Raumfahrt.
„Wir wollen verstehen, wie sich das Material verändert und welche Parameter wichtig sind, um gute Bauteileigenschaften zu erhalten“, erklärt Koch weiter. Deshalb ist beispielsweise eine Wärmebildkamera integriert, welche die Temperaturverteilung auf der gesamten Oberfläche des Werkstücks anzeigt sowie ein Pyrometer, das punktuell und exakt die Temperatur feststellt. Ein Infrarotspektrometer erlaubt es, austretende Gase zu erkennen und zu analysieren, während eine Waage Masseänderungen – sei es Abnahme durch entweichende Gase oder Zunahme bei der Silicierung – im Auge behält. Und auch die Änderung der Probengeometrie, also grob gesagt des „Aussehens“ eines Werkstücks, wird mitverfolgt.
Digitaler Zwilling
Um die entscheidenden Parameter aus der Datenmenge herauszufiltern, erhalten die Forschenden Unterstützung von einer KI, denn: „Wenn ein Experiment eine hohe Festigkeit zum Ergebnis hat und man diesen Zustand wünschenswert findet, dann interessiert uns, welche Umstände hierzu geführt haben. Die Temperatur? Die Länge des Hochtemperaturvorgangs? Die Möglichkeiten sind vielfältig“, konkretisiert Koch. Deshalb werden alle Daten aus dem Prozess sowie aus der Überwachung des Werkstückes dazu verwendet, im Bereich „Digitale Zwillinge für Produkt, Werkstoff, Prozess und Produktionsnetzwerk“ des KI-Produktionsnetzwerks einen „digitalen Zwilling“ von ihm abzubilden. Dieser „virtuelle Ofen“ kann alle Möglichkeiten durchprobieren und entsprechende Zusammenhänge finden. „Die Forschung um und mit dem Hochtemperaturofen zeigen, wie eng verzahnt die einzelnen Forschungsaspekte des KI-Produktionsnetzwerk sind und wie sie sich gegenseitig bereichern“, kommentiert der Direktor des KI-Produktionsnetzwerks, Prof. Dr. Markus Sause, den Neuerwerb.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dietmar Koch
Lehrstuhlinhaber
Materials Engineering
Telefon: +49 821 598 – 69220
Mail: dietmar.koch@mrm.uni-augsburg.de
Zäh und trotzdem abbaubar
Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Chemikern der Universität Konstanz gelingt die Herstellung einer neuen Art von Polyethylen
Polyethylen ist der am häufigsten hergestellte Kunststoff der Welt. Er wird aufgrund seiner Eigenschaften wie Zähigkeit in sehr vielen verschiedenen, auch langlebigen Anwendungen eingesetzt. Die Arbeitsgruppe von Prof. Dr. Stefan Mecking im Fachbereich Chemie der Universität Konstanz kann nun durch die Einführung polarer Gruppen in die Molekülketten von Polyethylen dazu beitragen, die Eigenschaften des neuen Materials zu erweitern und gleichzeitig die problematische Umweltbeständigkeit des Kunststoffs zu verringern. Die erwünschten vorteilhaften Eigenschaften von Polyethylen bleiben dabei erhalten. Die Ergebnisse der Laborstudie sind im Wissenschaftsjournal Science vom 29. Oktober 2021 nachzulesen.
Bei Polyethylen handelt es sich um ein unpolares hydrophobes Material, das – ähnlich wie Wachs – sehr wasserabweisend ist. Um die Materialeigenschaften zu erweitern und beispielsweise die Haftung auf Metalloberflächen zu verbessern, besteht seit langem das Anliegen, bei der Herstellung von Polyethylen einen kleinen Anteil polarer Gruppen einzubauen. Das erwies sich in der Vergangenheit als schwierig, da die herkömmlichen Katalysatoren, die bei der Herstellung von Polyethylen bislang verwendet werden, durch polare Reagenzien zerstört werden.
Kleine Mengen Kohlenmonoxid und ein geeigneter Katalysator
Den Doktoranden Maximilian Baur, Tobias O. Morgen und Lukas Odenwald sowie dem Postdoktoranden und Humboldt-Stipendiaten Fei Lin ist es am Lehrstuhl für Chemische Materialwissenschaft gelungen, in die Molekülketten, aus denen die Kunststoffe bestehen, Ketogruppen einzubauen. Dies gelingt durch Verwendung eines Katalysators, welcher aufgrund seiner Position im Periodensystem der Elemente mit dem Kohlenmonoxid, das als Reagenz zur Erzeugung der Ketogruppen dient, verträglich ist.
Entscheidend ist dabei auch, dass nur eine begrenzte Menge an Ketogruppen erzeugt wird, um die typischen und vorteilhaften mechanischen Eigenschaften von Polyethylen wie seine Zähigkeit zu bewahren. „Es ist ein lange verfolgtes Ziel der Wissenschaft und Technik, solche Gruppen in die Polyethylenkette einzubauen. Das dieses nun gelungen ist, eröffnet neue Perspektiven“, fasst Stefan Mecking zusammen.
Der neue Kunststoff ist besser abbaubar
Eine weitere Besonderheit des neuen Kunststoffes ist, dass die kleinen Mengen an Ketogruppen die Abbaubarkeit verbessern können. Im Labormaßstab konnte gezeigt werden, dass unter simuliertem Sonnenlicht ein langsamer Abbau der Ketten einsetzt, was für Polyethylene nicht der Fall ist. „Das Material bietet Ansätze, nicht-persistentes Polyethylen zu entwickeln. Dazu sind aber sicherlich weitergehende Studien nötig, auch um das Langzeitverhalten zu verstehen“, äußert sich Stefan Mecking vorsichtig.
Die Arbeitsgruppe konnte indes in ihren Laborversuchen zeigen, dass das neue Material bezüglich seiner Mechanik und Verarbeitbarkeit dieselben wünschenswerten Eigenschaften besitzt wie herkömmliches Polyethylen.
Faktenübersicht:
• Originalpublikation: Maximilian Baur, Fei Lin, Tobias O. Morgen, Lukas Odenwald & Stefan Mecking: Polyethylene materials with in-chain ketones from non-alternating catalytic copolymerization, Science 29. Oktober 2021, DOI: 10.1126/science.abi8183 (voraussichtlich ab dem 29. Oktober 2021 verfügbar)
• SPERRFRIST: 28. OKTOBER 2021, 20 UHR MEZ (14 UHR U.S. Eastern Time)
• In der Arbeitsgruppe für Chemische Materialwissenschaft von Prof. Dr. Stefan Mecking gelingt die Einführung polarer Ketogruppen in die Molekülketten von Polyethylen
• Trägt dazu bei, Polyethylen als Werkstoff zu verbessern und gleichzeitig seine problematische Persistenz in der Umwelt zu verringern.
• Finanzierung der Studie mit den Mitteln des 2019 an Stefan Mecking verliehenen Advanced Grant des Europäischen Forschungsrates (ERC).
Hinweis an die Redaktionen:
Ein Foto kann im Folgenden heruntergeladen werden:
https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2021/Mecking/zaeh_und_trotzd…
Bildunterschrift: Materialproben aus neuartigem Polyethylen mit eingebauten Sollbruchstellen in den Molekülketten.
Bildnachweis: Maximilian Baur, AG Mecking, Universität Konstanz
Wissenschaftliche Ansprechpartner:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Originalpublikation:
DOI: 10.1126/science.abi8183
Mikroorganismen bilden elementaren Kohlenstoff
Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Rein biologisch: Forschende identifizieren einen neuen Weg zur Bildung von reinem Kohlenstoff durch Mikroorganismen
Kohlenstoff kommt auf der Erde in verschiedenen Strukturen und Formen vor. Elementarer Kohlenstoff entsteht meist durch hohen Druck und hohe Temperaturen. Nun haben Forschende erstmals Mikroorganismen identifiziert, die elementaren Kohlenstoff bilden. Das Team, dem auch Dr. Gunter Wegener vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen und dem Max-Planck-Institut für Marine Mikrobiologie Bremen angehört, hat nun seine Ergebnisse dazu in der Zeitschrift Science Advances veröffentlicht.
Das Leben auf der Erde basiert auf Kohlenstoff. Im Laufe der Evolution haben Lebewesen erlernt, eine große Menge unterschiedlicher Kohlenstoffverbindungen zu bilden und verarbeiten. So ist Kohlenstoff der Angelpunkt der meisten biologisch erzeugten organischen Verbindungen wie Proteine, Kohlenhydrate, Fette und DNA. All diese Verbindungen enthalten neben Kohlenstoff viele weitere Elemente wie Wasserstoff, Stickstoff oder Sauerstoff.
Elementarer Kohlenstoff wird auf der Erde ohne das Zutun von Leben aus organischen Kohlenstoffverbindungen gebildet, wenn große Hitze und Druck alle anderen Elemente wie Wasserstoff und Stickstoff austreiben. So wird beispielsweise aus Holz tief im Boden bei erhöhten Temperaturen erst Kohle, dann bilden sich mit weiter zunehmendem Druck und steigender Temperatur reine Kohlenstoffverbindungen wie Anthrazit und Graphit. Dies sind kristalline Formen des Kohlenstoffs. Werden Holz, Gas oder Öl verbrannt, bildet sich Ruß, eine weitgehend ungeordnete Form des Kohlenstoffs. Dass Lebewesen selbst elementaren Kohlenstoff bilden, war bisher nicht bekannt.
Der Bremer Wissenschaftler Dr. Gunter Wegener kultiviert seit mehr als 15 Jahren Mikroorganismen, die Methan ohne Sauerstoff verbrauchen, um Energie zu gewinnen. Diese den Archaeen zugerechneten Mikroorganismen leben mit bakteriellen Partnern in einer Symbiose. Viel Energie ist aus diesem Prozess für beide Partner nicht herauszuholen, und so wachsen die Konsortien mit für Mikroorganismen sehr langen Verdoppelungszeiten von mehreren Monaten. Schon vor längerer Zeit haben nun Forschende festgestellt, dass die mikrobiellen Konsortien ungewöhnlich dunkel, geradezu schwarz sind. Ein Teil dieser schwarzen Masse wurde schon früh als Metallsulfide beschrieben. Diese bilden sich aus dem zum Nährmedium hinzugesetzten Eisen und dem durch die Partnerbakterien produzierten Sulfid.
Wegeners Kolleg:innen Dr. Kylie Allen und Prof. Robert White an der Virginia Tech (USA) sind ständig auf der Suche nach neuen Biomolekülen und deren Funktionen. Auf ihrer Suche extrahierten sie auch methanoxidierende Kulturen aus dem Labor von Gunter Wegener mit organischen Lösungsmitteln. Zurück blieb eine schwarze Masse, die auch durch starke Säuren und Basen nicht gelöst werden konnte. „Erst waren wir ratlos, was diese schwarze Masse wohl war“, erklärt Robert White. „Dann nutzten wir andere Methoden, um diesen Stoff als Festphase zu analysieren. Dabei fanden wir heraus, dass es sich um nahezu reinen Kohlenstoff handelte. Dieser Kohlenstoff liegt gänzlich ungeordnet vor, wir sprechen daher auch von amorphem Kohlenstoff.“ Woher stammte dieser elementare Kohlenstoff? Eine rein chemische Herkunft hatte das Team ausgeschlossen. Nun fütterten sie die Kultur mit Substraten mit isotopisch markiertem Kohlenstoff, der im Abbauprozess verfolgt werden kann, und analysierten den gebildeten Kohlenstoff. „So konnten wir nachweisen, dass tatsächlich die methanoxidierenden Archaeen für die Bildung des elementaren Kohlenstoffs verantwortlich sind“, sagt Gunter Wegener.
Als nächsten Schritt untersuchten die Forschenden die nächsten Verwandten der Methanoxidierer, die methan-bildenden Archaeen – auch Methanogene genannt. „Wenn auch nicht in dem gleichen Maße, erzeugten viele der getesteten Stämme ebenfalls elementaren Kohlenstoff“, sagt Robert White.
Die Studie erzeugt jedoch im Moment mehr neue Fragen als Antworten. Etwa: Wie wird dieser Kohlenstoff gebildet? Die Bildung von elementaren Kohlenstoff braucht normalerweise hohen Druck und hohe Temperaturen. Beides hat es in den Kulturen nicht gegeben. „Diese Bildungsweise von elementarem Kohlenstoff durch Lebewesen ist uns Wissenschaftlern komplett neu. In den Archaeen müssen bisher völlig unbekannte Reaktionen am Werk sein“, erklärt Kylie Allen, die Erstautorin der Studie. „Noch wissen wir überhaupt noch nicht, welche biochemischen Reaktionen und Enzyme hier am Werk sind.“
Auch das Warum ist noch nicht geklärt. „Elementarer Kohlenstoff ist ein guter elektrischer Leiter. Womöglich ist der Kohlenstoff der Schlüssel zur Symbiose zwischen den Archaeen und ihren Partnern“, mutmaßt Gunter Wegener. Über Kohlenstoff-basierte Verbindungen könnten elektrische Ladungen bestens transportiert werden. Auch ist gänzlich ungeklärt, wieviel elementarer Kohlenstoff durch Mikroorganismen in der Natur gebildet wird. „Weil der Kohlenstoff in Sedimenten abgelagert wird und dort über lange Zeiträume bleibt, könnten unsere Ergebnisse zudem auf eine bislang unbekannte, natürliche Kohlenstoffsenke hinweisen.“ Das Team wird den offenen Fragen auf den Grund gehen, unter anderem im Rahmen des Exzellenzclusters „Der Ozeanboden – unerforschte Schnittstelle der Erde“, der am MARUM angesiedelt ist.
Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.
Wissenschaftliche Ansprechpartner:
Dr. Gunter Wegener
Organische Geochemie, Projektleiter „Alkane Oxidizing Archaea“
MARUM – Zentrum für Marine Umweltwissenschaften und Max-Planck-Institut für Marine Mikrobiologie Bremen
Telefon: 0421 2028 8670
E-Mail: gwegener@marum.de
Originalpublikation:
Kylie D. Allen, Gunter Wegener, D. Matthew Sublett Jr, Robert J. Bodnar, Xu Feng, Jenny Wendt, Robert H. White: Biogenic formation of amorphous carbon by anaerobic methanotrophs and select methanogens. Science Advances 2021. DOI: 10.1126/sciadv.abg9739
Weitere Informationen:
http://www.marum.de
Grüner Wasserstoff aus Neuseeland
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Um den Klimawandel zu begrenzen, sind weltweite gemeinsame Anstrengungen notwendig, und es müssen internationale Allianzen geschmiedet werden. Koordiniert von Dr. Paul Jerabek (Helmholtz-Zentrum Hereon) und Prof. Sally Brooker (University of Otago in Dunedin) nimmt nun eine bilaterale Wasserstoffallianz zwischen Neuseeland und Deutschland ihre Arbeit auf. Sie hat das Ziel, eine deutsch-neuseeländische Forschungspräsenz zur Erforschung und Weiterentwicklung grüner Wasserstofftechnologien in Neuseeland aufzubauen. Finanziert wird das Projekt vom Bundesministerium für Bildung und Forschung (BMBF) und dem neuseeländischen Ministry of Business, Innovation and Education (MBIE).
Grüner Wasserstoff stellt als Energieträger für viele stationäre und mobile Anwendungen einen der wichtigsten Eckpfeiler einer emissionsneutralen und nachhaltigen Energiewirtschaft dar. Dabei ist er gleichzeitig eine unverzichtbare Ressource für viele chemische Industrieprozesse. Klimaneutraler grüner Wasserstoff wird elektrolytisch unter Verwendung erneuerbarer Energien wie durch Wasser- oder Windkraft erzeugt und verursacht daher keine Treibhausgasemissionen. Zum Erreichen des gesteckten Ziels der deutschen Klimaneutralität bis 2045 muss ein starker Fokus auf die Erforschung und Weiterentwicklung grüner Wasserstofftechnologien von seiner Herstellung über Speicherung und Transport bis zur Anwendung gelegt werden.
Hand in Hand für ein gemeinsames Ziel
Einen Schritt hierzu stellt der Aufbau einer deutsch-neuseeländischen Forschungspräsenz mit dem Schwerpunkt „grüner Wasserstoff“ in Neuseeland dar. Das BMBF unterstützt den Forscher und Koordinator der deutschen Seite Dr. Paul Jerabek vom Hereon-Institut für Wasserstofftechnologie mit 768.000 EUR über einen Zeitraum von fünf Jahren. Damit werden die Konstruktion und Anschaffung wichtiger Gerätschaften für das an der University of Otago zu etablierende und in naher Zukunft gemeinsam betriebene Forschungslabor und Testfeld für die neuen Technologien ermöglicht sowie auch Vernetzungsaktivitäten wie gegenseitige Forschungsaufenthalte von beteiligten Wissenschaftlerinnen und Wissenschaftlern und die Organisation von regelmäßigen Workshops und Symposien in beiden Ländern.
Neuseeland will beim Übergang zu grünem Wasserstoff als künftige Hauptressource für die Dekarbonisierung nachziehen. Die weltweite Nachfrage nach Wasserstoff steigt, doch zum jetzigen Zeitpunkt werden die jährlich produzierten 45 bis 65 Millionen Tonnen Wasserstoff fast ausschließlich aus fossilen Brennstoffen generiert und verursachen damit Emissionen.
Starke Perspektiven
„Aus deutscher Sicht ist Neuseeland perfekt für die gemeinschaftliche Entwicklung, Erprobung und Etablierung grüner Wasserstofftechnologien geeignet: Das Land ist äußerst innovationsfreundlich, reich an erneuerbaren Energiequellen und hat wie Deutschland den starken Willen möglichst zeitnah komplett klimaneutral zu werden“, sagt Dr. Jerabek zu den Chancen der gemeinsamen Forschungspräsenz. Und er ergänzt: „Das Konsortium – bestehend aus zahlreichen akademischen und industriellen Partnern beider Länder – ermöglicht uns eine große Bandbreite und zahlreiche Synergieeffekte bei den geplanten Aktivitäten: Von experimenteller und theoretischer Grundlagenforschung zur optimalen Erzeugung und Speicherung von grünem Wasserstoff über anwendungsorientierte Systemintegration bis hin zu techno-ökonomischen sowie sozio-ökologischen Analysen bezüglich der entwickelten Technologien werden sehr viele Themenfelder von unserem Team abgedeckt!“
Innovationen für die Wasserstofftechnologie
Prof. Brooker beschreibt Deutschland als „idealen Kooperationspartner“, da Neuseeland seine reichhaltigen Ressourcen an erneuerbarer Elektrizität nutzen will, um rasch von fossilen Brennstoffen auf erneuerbare Energien und grüne Wasserstofftechnologien umzusteigen, mit dem Ziel zu einem weltweiten Exporteur erneuerbarer Energien zu werden. „Ich bin begeistert, dass die fünfjährige Finanzierung nun von neuseeländischer und deutscher Seite bestätigt wurde“, sagt Prof. Brooker. Und außerdem: „Paul hat sehr viel Zeit und Mühe investiert, um diese Partnerschaft aufzubauen und die BMBF-Fördermittel hierfür einzuwerben. Damit können wir jetzt gemeinsam dieses aufregende und zukunftsrelevante Vorhaben durchführen“.
Als Teil des Projekts wird auch die Etablierung eines deutsch-neuseeländischen Innovationscampus für grünen Wasserstoff auf der neuseeländischen Südinsel geplant, in dem akademische und industrielle Forschungspartner zusammenarbeiten, und das sich auf die Entwicklung, Erprobung und Vermarktung von Wasserstofftechnologien in Neuseeland konzentriert. Hierzu arbeiten die Koordinatoren mit Experten des privaten Sektors im „New Zealand Hydrogen Council“ zusammen, um ein neuseeländisches „Team Green Hydrogen“ zu bilden. Unter anderem gibt es bereits Verbindungen zum Flughafen Christchurch, zu Airbus und zu Air New Zealand. Das Projekt eröffnet den beteiligten Industriepartnern aus Neuseeland und Deutschland neue Perspektiven und liefert die Blaupause für die Implementierung der Technologie weltweit.
Wissenschaftliche Ansprechpartner:
Dr. Paul Jerabek I Helmholtz-Zentrum Hereon I Institut für Wasserstofftechnologie I T: +49 (0) 4152 87-2681 I paul.jerabek@hereon.de I www.hereon.de
Weitere Informationen:
https://www.hereon.de/institutes/hydrogen_technology/index.php.de
Ariadne-Projekt zeigt: Die nächsten 10 Jahre sind für eine klimafreundliche Industriewende entscheidend
Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Der vor kurzem veröffentlichte Ariadne-Szenarienreport von mehr als 10 Forschungsinstituten, unter anderem dem Fraunhofer ISI, zeigt verschiedene Transformationspfade zur Klimaneutralität 2045 im Modellvergleich auf. Der Zeithorizont bis 2030 ist entscheidend, um die Umstellung auf eine CO2-neutrale Industrieproduktion bis zum Jahr 2045 und das Ziel der langfristigen Treibhausgas-Neutralität zu erreichen. Bis 2030 müssen CO2-neutrale Verfahren in der Industrie vom Pilot- und Demonstrations-Maßstab auf industrielles Niveau skaliert und wirtschaftlich betrieben werden können. Die Ergebnisse dieser Studie zur Industriewende werden am 26.10.2021 in einem Webinar vorgestellt.
Das kürzlich novellierte deutsche Klimaschutzgesetz sieht auf dem Weg zur Klimaneutralität 2045 ein wichtiges Zwischenziel vor: Bis 2030 müssen sämtliche Treibhausgas-Emissionen um mindestens 65 Prozent gegenüber 1990 gesenkt werden.
Zeithorizont bis 2030 für die Industriewende entscheidend
Im Jahr 2018 betrugen die Emissionen des Industriesektors in Deutschland 190 Millionen Tonnen CO2-Äquivalente, welche mehrheitlich durch Unternehmen der energieintensiven Industriezweige verursacht wurden. Bis 2030 müssen diese Emissionen laut Sektorziel auf 118 Millionen Tonnen sinken. Das entspricht einer Reduktion von rund 57% gegenüber 1990. Eine hohe Abhängigkeit von fossilen Brennstoffen, technische Restriktionen und kaum vermeidbare Prozessemissionen stellen den Sektor vor große Herausforderungen. Diese setzten zur Erreichung von nahezu Klimaneutralität in 2045 einen tiefgreifenden Wandel in den Grundstoffindustrien voraus. Dabei ist der Zeithorizont bis 2030 entscheiden, denn bis dahin muss es gelingen, CO2-neutrale Verfahren vom Pilot- und Demonstrations-Maßstab auf industrielles Niveau zu skalieren und wirtschaftlich zu betreiben.
Transformation der Industrie durch CO2-neutrale Prozesse
Die Produktion von Grundstoffen wie Rohstahl, Zementklinker, Olefinen, Ammoniak und Methanol ist besonders emissionsintensiv. Eine Umstellung dieser Verfahren auf (nahezu) CO2-neutrale Prozesse ist eine zentrale Grundlage der Transformation des Industriesektors. Durch Signalwirkungen entlang der Wertschöpfungskette kann diese Umstellung ebenfalls die Transformation in anderen Bereichen der Industrie beschleunigen. Die Szenarien gehen davon aus, dass erste Anlagen bereits ab 2025 in Betrieb gehen, gefolgt von einer stärkeren Verbreitung bis 2030. In der Stahlindustrie entspricht dies mindestens fünf Millionen Tonnen Rohstahlproduktion über Wasserstoff-Direktreduktion bis 2030 – also fast einem Fünftel der heutigen Primärstahlproduktion. Der Einsatz von Direktreduktion über Erdgas kann hier als Brückentechnologie dienen um den Aufbau entsprechender Produktionskapazitäten voranzutreiben.
Dekarbonisierung der Industrie vorantreiben
Im Jahr 2018 entstanden etwa zwei Drittel der CO2-Emissionen der Industrie durch die Bereitstellung von Prozesswärme, hauptsächlich durch die Nutzung von Kohle und Erdgas. Eine Umstellung auf eine CO2-neutrale Prozesswärmeversorgung ist damit ein wichtiger Bestandteil der Dekarbonisierung der Industrie. Die Studie schätzt, dass so Minderungen von bis zu 30 Millionen Tonnen CO2-Äquivalente bis 2030 gegenüber 2018 erreicht werden können. Weitere wichtige Vermeidungshebel sind eine deutliche Steigerung der Energie- und Materialeffizienz, die verstärkte Nutzung von Kreislaufwirtschaft sowie der Einsatz von CO2-Abscheidung und Verwendung sowie Speicherung (CCU/S, Carbon Capture and Utilization / Storage) in der Zement- und Kalkherstellung.
Hohe Investitionen für Modernisierungen sind notwendig
In vielen Bereichen der Industrie sind Neubauten oder umfassende Modernisierungen des Bestandes notwendig. Im Zeitraum 2030 bis 2035 erreichen viele Anlagen der Chemie- und der Primärstahlindustrie das Ende ihrer rechnerischen Lebensdauer. Mögliche Re-Investitionen in fossile Anlagen sollten vermieden werden. Um den Wechsel von billigen fossilen Energieträgern auf teure CO2-neutrale Sekundärenergieträger (Strom, Wasserstoff, synthetisches Methan) zu gewährleisten, sind klare regulatorische Rahmenbedingungen sowie verlässliche Perspektiven für den wirtschaftlichen Betrieb notwendig.
Künftiger Strombedarf der Industrie wird eine große Herausforderung
In allen Szenarien werden zukünftig hohe Mengen an erneuerbarem Strom und Wasserstoff eingesetzt. Abhängig von dem gesetzten Technologie-Schwerpunkt verdoppelt sich der Stromeinsatz in der Industrie nahezu von heute 226 TWh (Terrawattstunden) auf bis zu 413 TWh in 2045. Im extremen Fall einer »Wasserstoffwelt« steigt der industrielle Einsatz von Wasserstoff auf bis zu 342 TWh in 2045, sowohl für die energetische als auch die stoffliche Nutzung. Der Einsatz von synthetischem Methan beträgt im Extremfall 347 TWh in 2045. Die Verfügbarkeit von CO2-neutralem Strom, Wasserstoff oder synthetischem Gas ist somit eine Grundvoraussetzung für das Erreichen der Klimaziele im Industriesektor. Bereits bis 2030 werden signifikante Mengen dieser klimaneutralen Sekundärenergieträger in der Industrie benötigt, um das Sektorziel des Klimaschutzgesetzes zu erreichen. Dies sollte beim Aufbau von Infrastruktur für Transport und Erzeugung berücksichtigt werden, so die Studie.
Dr. Andrea Herbst, wissenschaftliche Mitarbeiterin im Competence Center Energietechnologien und Energiesysteme am Fraunhofer ISI, stellt abschließend fest: »Ein nahezu klimaneutraler Industriesektor im Jahr 2045 ist möglich, aber mit sehr hohen Anstrengungen verbunden. Zentrale Herausforderungen sind die höheren laufenden Kosten CO2-neutraler Technologien, der Infrastrukturausbau, die effektive Umsetzung von CO2-Preis-Signalen entlang der Wertschöpfungsketten und die Reduzierung von Unsicherheiten bezüglich großer strategischer Investitionen sowie eine klare Perspektive für den wirtschaftlichen Betrieb von CO2-neutralen Verfahren. Dies muss begleitet werden von einer Erweiterung des regulatorischen Rahmens, welche deutlich über die derzeit implementierten und beschlossenen Maßnahmen hinausgeht.«
Dr. Andrea Herbst wird die Ergebnisse des Kapitels zur Industriewende am Dienstag, dem 26.10.2021 in einem Webinar von 10 bis 11.30 Uhr präsentieren.
Medienkontakt
Anne-Catherine Jung
Leiterin Presse und Kommunikation
Telefon +49 721 6809-100
presse@isi.fraunhofer.de
Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.
Wissenschaftliche Ansprechpartner:
Dr. Andrea Herbst, Telefon +49 721 6809-439, E-Mail andrea.herbst@isi.fraunhofer.de
Weitere Informationen:
https://eveeno.com/147983006 Webinar-Anmeldung: Ariadne-Szenarien Klimaneutralität 2045: Fokuswebinare Industrie, Wärme und Strom
https://ariadneprojekt.de/publikation/deutschland-auf-dem-weg-zur-klimaneutralit… Ariadne-Bericht: Deutschland auf dem Weg zur Klimaneutralität 2045: Szenarien und Pfade im Modellvergleich
Raucherentwöhnung mittels transkranieller Magnetstimulation: Wirksamkeit erstmals in großer Studie belegt
Sandra Wilcken Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung
Jedes Jahr sterben deutschlandweit mehr als 120.000 Menschen an den gesundheitlichen Folgen des Rauchens [1]. Als Behandlungsalternative zu pharmakologischen und verhaltenstherapeutischen Ansätzen zur Raucherentwöhnung wird die repetitive transkranielle Magnetstimulation (rTMS) erforscht. In einer großen multizentrischen Studie mit 262 PatientInnen hat sich diese nicht invasive Methode der Hirnstimulation nun als wirksamer Ansatz bei der Behandlung der Tabakabhängigkeit erwiesen: Die Anwendung der rTMS führte nach 6 Wochen zu mehr als einer Verdopplung der Abstinenzraten gegenüber der Kontrollgruppe [2].
„Das ist in Ergänzung zu den bisherigen Behandlungsoptionen bei Tabakabhängigkeit ein beachtliches Ergebnis“, kommentiert Prof. Dr. Walter Paulus von der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN). In den USA haben diese Ergebnisse bereits zur Zulassung der rTMS für die Behandlung von RaucherInnen geführt. Um zu beurteilen, welchen Stellenwert die Anwendung in Deutschland hat, bedarf es weiterer Forschung.
Seit Jahren mehren sich die Hinweise, dass die repetitive transkranielle Magnetstimulation (rTMS) über die Behandlung anderer psychiatrischer Leiden hinaus auch bei der Behandlung von Suchterkrankungen eine Rolle spielen könnte. Allerdings hatten die bisherigen Studien zumeist nur eine kleine Anzahl von PatientInnen eingeschlossen. An der nun in der Fachzeitschrift „World Psychiatry“ veröffentlichten Studie waren dagegen 262 PatientInnen beteiligt, die an 12 US-amerikanischen und 2 israelischen Zentren rekrutiert wurden. Hierbei wurde eine spezielle Form der rTMS, einer sogenannte deep TMS, eingesetzt, mit einer weniger fokal wirkenden Stimulationsspule (eine sog. H4 Spule). „Das randomisierte und placebokontrollierte Design dieser Studie erfüllt die höchsten Standards und macht die Ergebnisse gegenüber früheren Untersuchungen belastbarer“, so die Einschätzung von Prof. Dr. Frank Padberg von der Psychiatrischen Uniklinik München, der das vom Bundesministerium für Bildung und Forschung geförderte German Center for Brain Stimulation (GCBS) koordiniert.
Magnetstimulation mit psychotherapeutischen Kurzinterventionen
Alle PatientInnen in der aktuellen Studie hatten mindestens einen erfolglosen Versuch hinter sich, mit dem Rauchen aufzuhören. Bei zwei Dritteln der Teilnehmenden waren drei oder mehr Anläufe gescheitert. „Eine weitere Besonderheit der Studie ist, dass zusätzlich zu dieser speziellen Form der rTMS auch verhaltenstherapeutische Kurzinterventionen eingesetzt wurden“, erklärt Prof. Padberg. Unmittelbar vor der Behandlung wurden fünf Minuten lang suchtspezifische Symptome provoziert: Die StudienteilnehmerInnen sollten sich die Auslöser ihres Suchtverlangens vorstellen und wurden mit einer Audiodatei und Bildern zum Rauchen konfrontiert. Danach erfolgte die Hirnstimulation (in jeder Sitzung 60 Einheiten von je drei Sekunden Dauer mit jeweils 30 Pulsen) mittels einer Magnetspule, die über den Regionen des lateralen präfrontalen Kortex und der Inselrinde platziert wurde. Jeder oder jede zweite Teilnehmende wurde dabei aber nur zum Schein stimuliert – diese Placebogruppe diente zum Vergleich. Nach der Stimulation wurde ein Motivationsgespräch als zweiminütige Kurzintervention geführt.
Sechs Wochen Behandlung mit 18 Sitzungen
In den ersten 3 Wochen erfolgte die Behandlung werktäglich, in den folgenden 3 Wochen einmal wöchentlich. Nach 18 Wochen hatten es in der Gruppe der mit rTMS Behandelten laut Fragebogen 19,4 % geschafft, mindestens 4 Wochen durchgehend nicht zu rauchen, was die ForscherInnen mittels Urinproben auf Nikotinabbauprodukte kontrollierten. In der Vergleichsgruppe lag der Anteil bei lediglich 8,7 %. Nach den ersten 6 Wochen hatten sich sogar 28,0 % der mit rTMS Behandelten von den Zigaretten befreien können, in der Placebogruppe waren es nur 11,7 %. Durchschnittlich rauchten die PatientInnen der Verumgruppe weniger Zigaretten und hatten ein vermindertes Verlangen danach (sog. Craving).
Zulassung in den USA bereits erteilt
„Die Studie etabliert ein sicheres Behandlungsprotokoll zur Raucherentwöhnung durch die Stimulation relevanter Hirnregionen“, schreiben die AutorInnen. Es sei die erste große, multizentrische, randomisierte, kontrollierte Studie zur Hirnstimulation in der Suchtmedizin. Für die US-amerikanische Food and Drug Administration (FDA) waren die Daten hinlänglich überzeugend, um diese rTMS-Methode erstmals als Hilfe bei der Raucherentwöhnung Erwachsener zuzulassen. „Da es sich um einen ganz speziellen rTMS-Ansatz handelt, ist das Verfahren hierzulande noch nicht einfach verfügbar. Zur genauen Beurteilung des Stellenwertes bedarf es – trotz der klaren Ergebnisse dieser Studie – weiterer Forschung“, so Prof. Padberg.
Referenzen
1. Tabakatlas Deutschland 2020 https://www.dkfz.de/de/tabakkontrolle/Buecher_und_Berichte.html
2. Zangen A, Moshe H, Martinez D, Barnea-Ygael N, Vapnik T, Bystritsky A, Duffy W, Toder D, Casuto L, Grosz ML, Nunes EV, Ward H, Tendler A, Feifel D, Morales O, Roth Y, Iosifescu DV, Winston J, Wirecki T, Stein A, Deutsch F, Li X, George MS. Repetitive transcranial magnetic stimulation for smoking cessation: a pivotal multicenter double-blind randomized controlled trial. World Psychiatry. 2021 Oct;20(3):397-404. doi: 10.1002/wps.20905
Kontakt zu Prof. Dr. Walter Paulus
wpaulus@gwdg.de
Kontakt zu Prof. Dr. Frank Padberg
psychosomatik@med.uni-muenchen.de
Pressestelle der DGKN
Dipl.-Biol. Sandra Wilcken
c/o albertZWEI media GmbH
Tel.: +49 (0) 89 461486-11
E-Mail: presse@dgkn.de
Die Deutsche Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung vertritt seit 1950 die Interessen von MedizinerInnen und WissenschaftlerInnen, die auf dem Gebiet der klinischen und experimentellen Neurophysiologie tätig sind. Die wissenschaftlich-medizinische Fachgesellschaft mit rund 3800 Mitgliedern fördert die Erforschung von Gehirn und Nerven, sichert die Qualität von Diagnostik und Therapie neurologischer Krankheiten und treibt Innovationen auf diesem Gebiet voran. https://dgkn.de/
Weitere Informationen:
https://dgkn.de/ – Website der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung
Zahl gebietsfremder Arten in Hamburg und Umgebung steigt – Portal für die Meldung von Funden erweitert
Mareen Gerisch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut zur Analyse des Biodiversitätswandels
Immer mehr gebietsfremde Insekten, Fische oder Vögel lassen sich langfristig in und um Hamburg nieder. Das Fundstellenportal www.neobiota-hamburg.de für Hamburg und Umgebung, das über gebietsfremde sowie invasive Arten informiert, erhält weitere Zuschüsse und wird ausgebaut. Auf dem Portal können Bürgerinnen und Bürgern Funde direkt melden.Mit den zusätzlichen Geldern sollen die Inhalte noch besser mit den behördlichen Datenbanken vernetzt und noch einfacher für Nutzerinnen und Nutzer zugänglich gemacht werden. Von der Beteiligung von Bürgerinnen und Bürger konnte die Forschung am Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB) bereits profitieren.
Bürgerwissenschaftlerinnen und -wissenschaftler, die sich an dem Projekt beteiligen, haben bereits mehr als 500 Funde im Portal gemeldet. Es konnte so sogar eine noch bis dato unbekannte Art für Hamburg nachgewiesen werden.
Weitere Partner sind die Hamburger Behörde für Umwelt, Klima, Energie und Agrarwirtschaft (BUKEA), die Universität Hamburg sowie die BürgerStiftung Hamburg, die das Portal im Rahmen des Themenfonds „NATUR erleben – verstehen – schützen“ fördert.
Wirtschaftssenator Michael Westhagemann: „Die Wirtschaftsbehörde unterstützt den Aufbau des Neobiota-Portals finanziell und inhaltlich durch die Mitarbeiterinnen und Mitarbeiter der Pflanzengesundheitskontrolle am Großmarkt. Die Bestimmung invasiver Arten ist insbesondere für die Sicherheit unserer Flora und Fauna wichtig, täglich werden unsere Pflanzen und Pflanzenerzeugnisse durch Kontrolleurinnen und Kontrolleure untersucht und bei Befall EU-weit gemeldet. Nun besteht auch die Möglichkeit für alle Hamburgerinnen und Hamburger gebietsfremde Arten in das Portal einzugeben. Ein tolles Projekt!“
Umweltsenator Jens Kerstan: „Das Interesse an dem neuen Portal in der Öffentlichkeit ist groß. Ich freue mich sehr darüber, dass etwa 1.000 Besucherinnen und Besucher monatlich auf das Neobiota-Portal zugreifen und sich informieren. Hier sind zahlreiche Arten beschrieben und mithilfe einer Karte wird dargestellt, wo sie bereits entdeckt wurden. Das Portal hilft dabei, bereits bekannte gebietsfremde Arten zu identifizieren. Eine wunderbare Hilfe für die vielen Hamburger Bürgerwissenschaftlerinnen und -wissenschaftler.“
Das Fundstellenportal und die Seite des „AHlert -Nord“-Monitoring-Programms der Umweltbehörde für Imkerinnen und Imker sind offenbar besonders beliebt. Im Rahmen des Monitorings in Kooperation mit den Ländern Niedersachsen, Schleswig-Holstein und Mecklenburg-Vorpommern kontrollierten in diesem Jahr 53 Imkerinnen und Imker ihre Bienenstöcke auf Anflüge der Asiatischen Hornisse und meldeten über das Portal Ihre Beobachtungen. Darüber hinaus finden sich auch Informationen auf der Website.
Initiiert wurde das Projekt von einem Team um Dr. Martin Husemann, Leiter der Sektion Hemimetabole und Hymenoptera am Standort Hamburg des LIB: „Je mehr Menschen sich beteiligen, desto vollständiger zeichnet sich auf der virtuellen Karte ab, wo in Hamburg gebietsfremde Arten zu finden sind. Zudem können wir durch die Meldungen Ausbreitungen nachvollziehen und Früherkennung neuer Arten leisten.“ Das helfe dabei, die heimische Biodiversität genauer zu verstehen, Bedrohungen zu identifizieren und langfristig das Ökosystem in Hamburg besser zu schützen. Zudem sei denkbar, dass das Angebot künftig auch über die Region hinaus genutzt werden könne.
Dass das Portal funktioniert und angenommen wird, zeigt auch der Erstnachweis der Marmorierten Baumwanze Halyomorpha halys, die über das Portal bereits an zwei Stellen in Hamburg gemeldet wurde. Die ursprünglich aus Asien stammende Art ist im Süden Europas mittlerweile ein gefürchteter Schädling im Obstanbau und hat sich auch im Süden Deutschlands bereits fest etabliert – auch wenn sie hier bisher weniger Schaden anrichtet. Aus diesem Grund ist es wichtig, die Verbreitung der Art weiter zu verfolgen und hiermit speziell zur Meldung dieser Art aufzurufen.
Auch die Asiatische Hornisse Vespa velutina kommt weiterhin in Hamburg vor. Bisher wurde in diesem Jahr nur ein Volk nachgewiesen – demnach weniger als im letzten Jahr. Das verringerte Vorkommen ist vermutlich, neben dem kalten Winter, auch das Resultat der gezielten Bekämpfungsmaßnahmen, die auch durch die Meldungen über das Portal möglich geworden sind. Um die Art weiter einzudämmen, ist die Umweltbehörde auch auf Meldungen aus der Bevölkerung angewiesen: Vor allem jetzt im Herbst wo die Blätter fallen, sind die Nester, die oft hoch in den Baumkronen sind, besser zu finden.
Wissenschaftliche Ansprechpartner:
Dr. Martin Husemann
Leiter der Sektion Hemimetabole und Hymenoptera
Zoologisches Museum Hamburg
Leibniz-Institut zur Analyse des Biodiversitätswandels (LIB)
Telefon: 040 42838 2373
E-Mail: Martin.Husemann@uni-hamburg.de
Weitere Informationen:
http://www.neobiota-hamburg.de
Summ-summ, schwirr’n Pestizide herum?
Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Bioanalytiker der Hochschule Coburg untersuchen Mikroorganismen auf Chitinpanzern von Bienen. Sie wollen herausfinden, wie sich Pflanzenschutzmittel hier auswirken.
Was Rapsfelder und Obstplantagen schützt, bedeutet für manche Organismen den Tod: Insektizide und Fungizide werden in der Landwirtschaft gegen Schädlinge und Pilze eingesetzt. Sie sind giftig. Das ist ihr Sinn. Zunehmend wird aber hinterfragt, welche Folgen solche Pflan-zenschutzmittel auch für andere Lebewesen haben. Mikrobiologen der Hochschule Coburg haben das in Versuchen mit Bienen untersucht – denn die haben nicht nur eine wichtige Funktion als Bestäuber in der Natur, in der Forschung werden sie auch gerne als Modellorganismen genutzt: „Honigbienen können leicht gezüchtet und untersucht werden“, sagt Leon Sohl. Er hat seine Masterarbeit in Bioanalytik darüber geschrieben, inwiefern Insektizide und Fungizide einen Einfluss auf die Außenhaut der Tiere haben.
Das Mikrobiom auf der Oberfläche war dabei erstmals zentraler Gegenstand der Forschung. „Das Mikrobiom ist eine Gemeinschaft von Mikroorganismen“, Sohl überlegt, wie er es beschreiben kann: „wie bei einer Gruppe von Menschen, unter denen ein paar Lehrer und Lehrerinnen sind, Leute die Taxi fahren, Sportler, Studierende – so ist das auch beim Mikrobiom: Da gibt es zum Beispiel Proteobakterien und Actinobakterien und auch verschiedene Pilze, die alle ihre Aufgaben haben.“ Solche Mikroorganismen sind wichtige Bestandteile allen Lebens. „Fungizide und Insektizide können das Mikrobiom verändern“, ergänzt Fabienne Reiß. Sie forscht an der Hochschule über Biozide in Baustoffen, schreibt ihre Doktorarbeit darüber, welchen Einfluss sie auf das Mikrobiom des Erdbodens haben und unterstützt Leon Sohl bei seinen Versuchen.
Viele Teile, ein großes Forschungsprojekt
Reiß‘ Doktorarbeit ist Teil des großen Forschungsverbundes „BayÖkotox“, der durch das Bayerische Landesamt für Umwelt koordiniert und durch das Bayerische Staatsministerium für Umwelt und Verbraucherschutz finanziert wird. Bayerische Wissenschaftler versuchen hier in unterschiedlichen Teilprojekten herausfinden, wie sich chemische Stoffe und Partikel auf Lebewesen und Umwelt auswirken. Das Teilprojekt an der Hochschule Coburg betreuen Prof. Dr. Matthias Noll und Prof. Dr. Stefan Kalkhof. Über den Ökotox-Verbund kam Noll in Kontakt zu Prof. Dr. Ricarda Scheiner, die an der Universität Würzburg am Lehrstuhl für Verhaltensphysiologie und Soziobiologie eine Bienenstation betreut. So landeten Würzburger Fungizid-Bienen in Coburg.
Leon Sohl hat einige der Versuchsbienen selbst in Würzburg gefangen: „Wir stecken sie in Röhrchen und geben danach flüssigem Stickstoff dazu: Alles friert sofort ein.“ Das Oberflächenmikrobiom dieses Moments wird konserviert, festgehalten wie auf einem Foto. Einige der Tiere sind mit Zuckerwasser gefüttert worden, andere mit den in Bayern verbreiteten Fungizidmitteln Cantus Gold und Difcor oder den Insektizidprodukten Mospilan und Steward. Und einige auch mit einer Kombination dieser Pflanzenschutzmittel.
Biene auf der Werkbank
Reiß und Sohl sitzen an einer sterilen Sicherheitswerkbank im Biochemie-Labor der Hoch-schule Coburg, Sohl greift mit einer Pinzette eine tote Biene aus einem Schälchen, Reiß lässt mit einer Pipette eine durchsichtige Flüssigkeit auf eine andere Biene in einem Glasröhrchen tropfen. „Flügel, Exoskelett, Beine werden präpariert und anschließend die DNA extrahiert.“ Sohl präzisiert, dass ein kleiner Abschnitt des bakteriellen 16S rRNA-Gens und der pilzlichen ITS-Region analysiert werden, um dann ganz genau sagen zu können, um welches Bakterium oder welchen Pilz es sich hier handelt. Am Ende steht fest, wie viele und welche Bakterien und Pilze auf der Biene gelebt haben. Untersucht wurden die sozial lebende Honigbiene (Apis mellifera) und auch die Rote Mauerbiene (Osmia bicornis), eine solitäre Wildbienenart.
In den Versuchen wurde nachgewiesen, dass sich das Außenhautmikrobiom bei verschiedenen Bienenarten unterscheidet und dass Pflanzenschutzmittel einen Einfluss darauf haben. Allerdings in geringerem Ausmaß als vorher angenommen wurde. Reiß zuckt die Schultern. „So ist das in der Forschung: Man weiß nie, was rauskommt.“ Manchmal stehen am Ende eines Projekts mehr Fragen als Antworten: Wie verändert sich das Oberflächenmikrobiom, wenn die Bienen nicht mit Bioziden gefüttert werden, ihr Körper aber behandelte Blüten streift? Und welche Auswirkungen haben die Veränderungen des Mikrobioms überhaupt? „Es gibt Anzeichen, dass gewisse Bakterien auf der Oberfläche der Bienen vor Varroamilbenbefall schützen, und die Würzburger untersuchen zum Beispiel, inwiefern sich das Verhalten der Bienen durch den Pestizideinsatz verändert“, erklärt Sohl. Er will nach der Masterarbeit erst einmal eine Arbeitsstelle in der Industrie antreten. Aber die Forschung in Coburg geht weiter. Das Team der Bioanalytik will das Thema mit weiteren Methoden genauer analysieren.
Long COVID: potentieller therapeutischer Angriffspunkt entdeckt
Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
In einer neuen Studie hat eine Lübecker Forschungsgruppe untersucht, wie COVID-19 auf Endothelzellen im Gehirn wirkt. Zusammen mit weiteren Forscherinnen und Forschern aus Frankreich, Spanien und Deutschland fanden die Lübecker heraus, dass SARS-CoV-2 zu einem Gefäßuntergang im Gehirn führt, der durch die Spaltung eines Proteins namens NEMO vermittelt wird und durch eine spezifische pharmakologische Intervention unterbunden werden kann.
Diese neuen Erkenntnisse über die Wirkung von SARS-CoV-2 auf das Gefäßsystem des Gehirns bieten einen potenziellen therapeutischen Angriffspunkt für Long COVID. Die Studie unter der Leitung von Markus Schwaninger, Institut für Experimentelle und Klini-sche Pharmakologie und Toxikologie der Universität Lübeck, zeigt, dass Endothelzellen im Gehirn mit SARS-CoV-2 infiziert werden können, und dass eine solche Infektion zum Zelltod führt. Endothelzellen bilden die innere Schicht aller Gefäße im Körper, wobei die Endothelzellen des Gehirns spezielle Eigenschaften aufweisen, um eine dichte Schnittstel-le zwischen Blut und Gewebe, die so genannte Blut-Hirn-Schranke, zu bilden. Im Falle ei-nes Zelltods bleibt lediglich die äußere Hülle der Gefäße übrig, die aber nicht mehr von Blut durchströmt werden kann.
Einsatz hochentwickelter Technik
Die Folgen entdeckten sie in Gehirnproben von verstorbenen COVID-19-Patienten und Patientinnen, und in Zell- und Tiermodellen einer SARS-CoV-2-Infektion. Durch diese Modelle und den Einsatz hochentwickelter Techniken wie Einzelzell-RNA-Sequenzierung, Massenspektrometrie und Super-Resolution-Mikroskopie fanden sie heraus, dass die SARS-CoV-2-Hauptprotease Mpro ein Protein des Menschen, NEMO genannt, spaltet. Dieses Protein ist für das Überleben von Gehirnendothelzellen notwendig; seine Spaltung führt zum Untergang von Blutgefäßen durch sogenannte Nekroptose.
Die Autoren und Autorinnen konnten zeigen, dass die Blockierung der Nekroptose die Durchblutung des Gehirns von Mäusen verbessert. Auf diese Weise könnten Long COVID-Symptome wie das sogenannte Fatigue-Syndrom oder kognitive Beeinträchtigungen, die selbst Kinder und Betroffene mit anfänglich leichten Symptomen betreffen, behandelt werden.
Diese wegweisende Studie, die in Nature Neuroscience veröffentlicht wurde, liefert den ersten Beweis für eine direkte Wirkung von SARS-CoV-2 auf die Gefäße des Gehirns und bietet eine neuartige Strategie zur Überwindung neurologischer Folgen von COVID-19.
Wissenschaftliche Ansprechpartner:
Dr. Jan Wenzel, PhD
Universität zu Lübeck
Institut für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7224
E-Mail: jan.wenzel@uni-luebeck.de
Prof. Dr. Markus Schwaninger
Universität zu Lübeck
Direktor des Instituts für Experimentelle und Klinische Pharmakologie und Toxikologie
Center of Brain, Behavior and Metabolism
Ratzeburger Allee 160
23562 Lübeck
Tel.: 0451 3101 7200
E-Mail: markus.schwaninger@uni-luebeck.de
Originalpublikation:
https://www.nature.com/articles/s41593-021-00926-1
Neue Studie: Chancengerechtigkeit in der Bildung hat sich verbessert
Michael Sonnabend Kommunikation
Stifterverband
Stifterverband und McKinsey: Beteiligung von Nichtakademikerkindern am Bildungsweg hat sich auf allen Ebenen verbessert – Aber: Soziale Herkunft entscheidet immer noch über Bildungserfolg – Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule.
Die Chancengerechtigkeit in der Bildung in Deutschland hat sich für Kinder aus Nichtakademikerfamilien in den letzten Jahren über alle Bildungsstufen verbessert. Gelingt ihnen der Wechsel an eine Hochschule, dann sind sie sogar ähnlich erfolgreich wie Akademikerkinder. Trotz dieser positiven Entwicklung gilt aber: Nach wie vor entscheidet in Deutschland die soziale Herkunft über den Bildungserfolg. Größte Hürde bleibt der Übergang von der weiterführenden Schule zur Hochschule. Das sind Ergebnisse der gemeinsamen Studie von Stifterverband und McKinsey & Company mit dem Titel „Vom Arbeiterkind zum Doktor – Der Hürdenlauf auf dem Bildungsweg der Erststudierenden“. Für die Studie wurde systematisch analysiert, wie genau sich in Deutschland die Bildungswege von Nichtakademiker- und Akademikerkindern unterscheiden. Die aktuellen Zahlen wurden dann mit einer identischen Erhebung aus dem Jahr 2017/18 verglichen.
Obwohl die meisten Kinder in einer Grundschulklasse aus einem nichtakademischen Haushalt kommen, bewältigen im Vergleich mit Kindern aus Akademikerhaushalten immer noch vergleichsweise wenige von ihnen die mentalen, kulturellen und finanziellen Hürden der Bildungslaufbahn. Die Studie zeigt: Von 100 Arbeiterkindern, die eine Grundschule besuchen, sitzen später nur 27 (+ 5, im Vergleich 2017/2018) in einem Hörsaal. Von den 100 Akademikerkindern schreiben sich hingegen später 79 (- 4) an einer Hochschule ein. Die COVID-19-Pandemie könnte den aktuell tendenziell positiven Trend allerdings wieder temporär verschlechtern: Besonders Kinder aus Nichtakademikerhaushalten hatten geringere digitale Möglichkeiten, um zu lernen.
„Deutschland verschenkt nach wie vor zu viel Bildungspotenzial“, stellt McKinsey- Partnerin Julia Klier mit Blick in deutsche Grundschulklassen fest. Die meisten Kinder kommen dort aus nichtakademischen Haushalten (71 Prozent). Doch nur 46 Prozent von ihnen wechseln später auf eine Schule, die den Hochschulzugang ermöglicht. Zwar hat sich der Wert seit der letzten Erhebung von Stifterverband und McKinsey um 2 Prozentpunkte verbessert. Aber bei den Akademikerkinder sind es mit 83 Prozent fast doppelt so viele. Die größte Hürde ist nach wie vor der Übergang vom Klassenzimmer in den Hörsaal.
Obwohl sich die Quote hier deutlich um 11 Prozentpunkte verbessert hat, liegt sie bei nur 59 Prozent. Zum Vergleich: Bei den Akademikerkindern gehen fast alle (95 Prozent) von einer weiterführenden Schule an die Uni. Julia Klier: „Um Hürden für Nichtakademikerkinder zu überwinden, sollte es beispielsweise mehr Werbeaktionen der Hochschulen in den Schulen geben und bereits erfolgreiche Initiativen wie Talent-Scouting-Programmen sowie Buddy- und Tandemprogramme für Erstsemester ausgebaut werden, um mentale Barrieren abzubauen.“
Wenige Erfahrungen im Umfeld, unzureichende mentale und finanzielle Hilfe von den Eltern, aber auch Informationsdefizite sind der Studie zufolge oft die Gründe, warum nur wenige Nichtakademikerkinder den Schritt von der weiterführenden Schule in den Hörsaal wagen. „Die neue Bundesregierung muss alles daransetzen, die Chancengerechtigkeit in der Bildung weiter massiv auszubauen. Deutschland braucht jedes einzelne Talent“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes. „Finanzielle Hürden sollten durch eine umfassende BaföG-Reform abgebaut werden. Nur 15 Prozent der jungen Menschen aus Arbeiterfamilien können sich bei der Studienfinanzierung gänzlich auf ihre Eltern verlassen.“
Um den Zugang zur Hochschule zu erleichtern, sollten deshalb unter anderem ein höherer und ortsabhängiger Wohnzuschuss berücksichtigt werden, eine Förderung über die minimale Regelstudienzeit hinaus möglich sein und aktuelle Einkommensbescheide unkomplizierter berücksichtigt werden. Die Antragsstellung sollte bundesweit einheitlich und digitalisiert werden. „Darüber hinaus brauchen Schulen moderne Lehrpläne, die gut auf die gesellschaftlichen Herausforderungen und die Anforderung der Hochschulen vorbereiten“, so Meyer-Guckel.
Wissenschaftliche Ansprechpartner:
Dr. Felix Süßenbach
felix.suessenbach@stifterverband.de
Originalpublikation:
Die Studie „Vom Arbeiterkind zum Doktor“ zum Download finden Sie unter:
https://www.stifterverband.org/medien/vom_arbeiterkind_zum_doktor
Warum systemische Risiken häufig unterschätzt werden – und wie Wissenschaft helfen kann
Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Systemische Risiken werden von der Gesellschaft oft widersprüchlich bewertet und unterschätzt, was dazu führt, dass die Politik verzögert Maßnahmen ergreift. Wie kann die Wissenschaft in solchen Fällen unterstützen? Ein Team des Instituts für transformative Nachhaltigkeitsforschung (IASS) hat Empfehlungen für Politik und Wissenschaft zur Governance von systemischen Risiken wie etwa des Klimawandels entwickelt.
In ihrer im ‚Journal of Risk Analysis‘ erschienenen Studie untersuchen die Risikoforschenden Pia-Johanna Schweizer, Robert Goble und Ortwin Renn, warum systemische Risiken in der öffentlichen Wahrnehmung eine untergeordnete Rolle spielen und welche Dynamik damit verbunden ist.
Einer der Gründe dafür sei, dass Menschen auf kulturelle Erinnerungen an Risiken und Gefahren aus früheren Generationen zurückgreifen, die in heutigen Situationen nicht mehr schützen. So führt beispielsweise der Klimawandel dazu, dass sich die Klimaverhältnisse auch im Norden stark verändern und es zu häufigeren Extremwetter-Ereignissen kommt. Sogenannte Kipppunkte im Erdsystem lassen sich jedoch erst nach Überschreiten des kritischen Punktes nachvollziehen, doch dann ist es zu spät, um gegenzusteuern.
Vor dem Erreichen eines Kipppunktes erscheinen systemische Risiken für viele Menschen räumlich und zeitlich weit entfernt und dadurch weniger gefährlich als Risiken, die die Menschen unmittelbar bedrohen, so folgern die Autoren. Insbesondere seien sie weniger leicht verständlich und aufgrund ihrer Komplexität sowie Nichtlinearität weniger präsent im Bewusstsein der meisten Menschen.
„Selbst wenn ein systemisches Risiko wie der Klimawandel die Funktion lebenswichtiger Systeme der Gesellschaft bedroht, verspüren Viele weniger Dringlichkeit, das eigene Verhalten zu ändern oder strengere Regulierungsmaßnahmen zu akzeptieren“, erläutert IASS-Wissenschaftlerin Schweizer. „Wir Gesellschaftswissenschaftler beobachten hier zwei Effekte, die ineinandergreifen: Zum einen fragen sich die Menschen, was sie mit ihren eigenen Handlungen bewirken können, wenn große Konzerne und die Mehrheit der Menschen am ‚business as usual‘ festhalten. Zum anderen haben Menschen die fatalistische Wahrnehmung, dass es eh zu spät ist, um systemischen Risiken wie dem Klimawandel entgegen wirken zu können.
Die Autorin und die Autoren skizzieren ebenso die dynamischen Prozesse der gesellschaftlichen Wahrnehmung systemischer Risiken und untersuchten für ihre Analyse die Gründe für die mangelnde Aufmerksamkeit der Politik als auch der Öffentlichkeit dafür. „Wir konnten feststellen, dass sich die Wahrnehmung systemischer Risiken bei einem Großteil der Bevölkerung durch soziale Kommunikationsprozesse eher verringert als verstärkt“, sagt Hauptautorin Schweizer, „was effektiv zu einer geringeren Handlungsbereitschaft führt etwa im Falle des Klimawandels. Die gegenwärtigen Bemühungen sind unzureichend, um die Temperaturziele des Pariser Abkommens noch einzuhalten. Vielmehr wird darauf vertraut, dass Techniken wie Climate- und Geo Engineering-Techniken, die gegenwärtig noch nicht im großen Stil anwendbar sind, in Zukunft wesentlich dazu beitragen werden, die Klimaziele zu erreichen.“
Risiko wird im öffentlichen Diskurs heruntergespielt
Beim Umgang mit systemischen Risiken bezeichnet das Autorenteam die mangelnde Handlungs- und Änderungsbereitschaft als das maßgebliche Hindernis einer effektiven Risiko-Governance. Die folgenden Faktoren (unter anderen) führten ihrer Meinung nach zur Unterschätzung des Risikos:
1. Weil die meisten Wirkweisen von systemischen Risiken komplex und dynamisch sind, scheinen sie der menschlichen Intuition zu widersprechen. Die Menschen neigten dazu, sie als weniger plausibel und naheliegend einzustufen.
2. Die Wissenschaft könne keine unumstößlichen und eindeutigen Modelle für systemische Risiken liefern. Was dazu führe, dass Menschen Informationen, die mit Unsicherheit, Ungewissheit und Mehrdeutigkeit verbunden sind, als noch nicht ausgegoren und vor allem als wenig handlungsrelevant einschätzten, selbst wenn diese Informationen auf einer soliden wissenschaftlichen Analyse beruhen.
3. Erforderlich sei mehr Vertrauen in wissenschaftliche Einschätzungen. Die Wenigsten seien in der Lage, die Korrektheit wissenschaftlicher Argumente in einer öffentlichen Debatte zu beurteilen. Dass sich zudem die Anhaltspunkte im Laufe der Zeit ändern und oft widersprüchlich sind, irritiert und frustriert viele, was letztlich zu Fatalismus und damit einhergehender Untätigkeit führe.
4. Die Fehldeutung von systemischen Risiken werde durch digitale Kommunikationsmittel verbreitet, welche die Echokammern im öffentlichen Diskurs noch verstärken. Infolgedessen polarisieren sich die Wissenslager und differenzierte Ansätze werden ausgeblendet, die für den Umgang mit systemischen Risiken entscheidend wären.
Für die Wissenschaft ergeben sich für das IASS-Autorenteam daher zwei Aufgaben: Eine sei Entscheidungsfindungsprozesse mit Expertise zu unterstützen. Wissenschaftlerinnen und Wissenschaftler sollten in interdisziplinären Teams ihr Wissen um die komplexen Wirkmechanismen von systemischen Risiken zusammentragen und gegenüber Politik und Öffentlichkeit durch nachvollziehbare Narrative und realitätsnahe Illustrationen in Form von grafischen Darstellungen und Simulationen zu kommunizieren. Ebenso empfiehlt das Autorenteam Gaming-Tools, um einen partizipativen, deliberativen Ansatz für eine umfassende Risiko-Governance zu vermitteln.
Diese kommunikativen Formen der Verständigung sollen Entscheidungsträgerinnen und -träger wie auch die Öffentlichkeit gleichermaßen befähigen, umsichtige und dem Problem angemessene Maßnahmen einzuleiten.
Die andere Aufgabe sei es, bei der Risiko-Governance einen integrativen Ansatz zu verfolgen, um viele wissenschaftliche Disziplinen genauso wie Organisationen und Behörden zusammenzuführen. Ziel sei es, Kommissionen oder Steuerungsgruppen interdisziplinär, querschnittsorientiert und integrativ auszurichten. Einfließen müssen verschiedene Interessen, Perspektiven und Wertvorstellungen, um Risiken umfassend bewerten zu können.
Systemische Risiken können verheerende Auswirkungen haben, so das Fazit des Autorenteams. Jedoch könne diese Gefahr gemindert und systemische Risiken besser gemanagt werden, wenn erkannt wird, welche sozialen Prozesse die Wahrnehmung von systemischen Risiken beeinflussen.
Wissenschaftliche Ansprechpartner:
Dr. Pia-Johanna Schweizer
Forschungsgruppenleiterin am IASS
Tel. +49 (0)331 288 22-457
E-Mail pia-johanna.schweizer@iass-potsdam.de
Originalpublikation:
Pia-Johanna Schweizer, Robert Goble und Ortwin Renn: Social Perception of Systemic Risks, Risk Analysis 2021. DOI: 10.1111/risa.13831
Weitere Informationen:
https://www.iass-potsdam.de/de/news/warum-systemische-risiken-haeufig-unterschae…
Flutgebiete fit machen für den Klimawandel
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Wie kann man beim Wiederaufbau in den Katastrophengebieten an der Ahr und verschiedenen Flüssen in Nordrhein-Westfahlen die Siedlungs- und Infrastrukturen an künftige Starkregen und Hochwasser anpassen, um Schäden und Opfer zu verringern? Dies untersucht ein Team unter der Leitung des Raumplaners Prof. Jörn Birkmann von der Universität Stuttgart und des Experten für Wasserwirtschaft Prof. Holger Schüttrumpf von der RWTH Aachen. Das Projekt (voraussichtlicher Start November 2021) wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund fünf Millionen Euro gefördert.
180 Tote, Schäden in Höhe von 30 Milliarden Euro: Das Hochwasser an der Ahr und an verschiedenen Flüssen in Nordrhein-Westfalen im Juli 2021 gehört zu den größten Naturkatastrophen, die Deutschland nach dem zweiten Weltkrieg getroffen haben, und in Folge des Klimawandels dürften solche Extremereignisse noch zunehmen. Die Herausforderungen für die betroffenen Regionen sind enorm, aber, so Bundesforschungsministerin Anja Karliczek: „Der Wiederaufbau bietet die Chance, die Regionen zukunftsfähig und klimaresilient zu gestalten – damit die Menschen dort wieder gut und sicher leben können. Unser Ziel muss sein, dass die Regionen in Zukunft widerstandsfähiger gegenüber Extremwetter und weiteren Folgen des Klimawandels sind.“
Unterstützen soll diesen Prozess ein wissenschaftliches Projekt mit Experten aus ganz Deutschland, das die Cluster „Räumliches Risikomanagement und Anpassung“ (Sprecher Prof. Jörn Birkmann, Institut für Raumordnung und Entwicklungsplanung der Universität Stuttgart, IREUS) und „Hochwasser-Risiko-Analysen“ (Sprecher Prof. Holger Schüttrumpf, RWTH Aachen) umfasst. Mit beteiligt sind u.a. auch Forschende der Universität Potsdam, des Deutschen GeoForschungsZentrums GFZ, des Helmholtz-Zentrums für Umweltforschung UFZ, der TU Kaiserslautern, der Hochschule Koblenz sowie weitere Praxispartner.
„Wir wollen zum Beispiel prüfen, wie man über die gesetzlich festgelegten Überschwemmungszonen hinaus hochwasserangepasste Siedlungs- und Infrastrukturen strategisch fördern kann. Dazu gehört die Frage, wie und wo man Wassermassen ableiten kann, damit diese eben nicht zu zahlreichen Opfern und massiven Schäden führen wie 2021“, erklärt Jörn Birkmann. Dies könne unter anderem durch Notwasserwege oder die gezielte Ableitung von Starkregen auf Sportplätze oder Freiflächen in Städten und Dörfern geschehen. Zudem soll untersucht werden, welche Haushalte vom Fluss wegziehen möchten und ob es in den jeweiligen Orten Wohnstandorte gibt, die eine höhere Sicherheit gegenüber Extremereignissen bieten. Dabei geht es nicht nur um die räumliche Exposition eines Standorts, sondern auch um Fragen der Verwundbarkeit, erläutert Birkmann: „Einstöckige Schulgebäude in direkter Nähe zu kleinen Flüssen zum Beispiel sind nicht hilfreich, da Kinder – als besonders verwundbare Gruppe – im Fall der Fälle nicht in ein höheres Stockwerk evakuiert werden können.“
Wissenschaftliche Ansprechpartner:
Prof. Jörn Birkmann, Universität Stuttgart, Institut für Raumordnung und Entwicklungsplanung, Tel. ++ 49 (0)711 685-66333, E-Mail joern.birkmann@ireus.uni-stuttgart.de
Auch ohne Arztbesuch: Neues nicht-klinisches Modell sagt zuverlässig Risiko für Herz-Kreislauf-Erkrankungen vorher
Susann-C. Ruprecht Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Ob Blutdruckmessung oder Blutfettanalyse – eine zuverlässige Risiko-Abschätzung für Herz-Kreislauf-Erkrankungen setzt bislang medizinische Untersuchungen und damit den Besuch einer Arztpraxis voraus. Ein Team um Dr. Catarina Schiborn und Prof. Matthias Schulze vom DIfE hat nun in Kooperation mit dem Deutschen Krebsforschungszentrum in Heidelberg ein Vorhersagemodell entwickelt, mit dessen Hilfe sich auch ohne Arztbesuch einfach und präzise ermitteln lässt, wie hoch das Risiko eines Menschen ist, innerhalb der nächsten zehn Jahre einen Herzinfarkt oder Schlaganfall zu erleiden. Das Modell lässt sich auch für Empfehlungen nutzen, wie das individuelle Erkrankungsrisiko gesenkt werden kann.
Unter dem Begriff Herz-Kreislauf-Erkrankungen werden die vielfältigen Erkrankungen des Herzens und der Blutgefäße zusammengefasst. Dazu zählen insbesondere Herzinfarkt und Schlaganfall sowie Erkrankungen der Herzkranzgefäße. Herz-Kreislauf-Erkrankungen sind hierzulande mit 40 Prozent aller Sterbefälle die häufigste Todesursache. Neben unveränderbaren Faktoren wie Alter, Geschlecht und genetischer Veranlagung hat der Lebensstil einen großen Einfluss auf die Gesundheit des Herz-Kreislauf-Systems. Ein verändertes Ernährungs-, Bewegungs- und Rauchverhalten sowie die Behandlung von Bluthochdruck, Übergewicht, Diabetes und Fettstoffwechselstörungen sind demnach wichtige Stellschrauben, um das individuelle Erkrankungsrisiko zu senken. Wie hoch dieses für einen Menschen ist, ließ sich bislang jedoch nur aufwendig ermitteln.
Einfache Risikoermittlung birgt großes Präventionspotential
Eine zuverlässige, evidenzbasierte Risikoabschätzung für Herz-Kreislauf-Erkrankungen beschränkt sich aktuell weitestgehend auf den klinischen Bereich, denn sie erfordert meist körperliche Untersuchungen und Blutanalysen durch medizinisches Personal. „Die wenigen Vorhersagemodelle, die sich unabhängig von einer medizinischen Untersuchung nutzen lassen, haben methodische Einschränkungen und ihre Anwendung erfordert beispielsweise Informationen zur Aufnahme einzelner Nährstoffe wie Ballaststoffe.
Dadurch sind sie ohne eine umfassende Datenerhebung zur Ernährung kaum anwendbar“, erklärt Dr. Catarina Schiborn, wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie am DIfE.
Ziel der Wissenschaftlerin war es daher, ein evidenzbasiertes Vorhersagemodell zu entwickeln, welches das Erkrankungsrisiko unabhängig vom Arztbesuch ermittelt und dabei leicht zu erfassende Informationen nutzt. „Ein solches Werkzeug würde die Präventionsmöglichkeiten erheblich verbessern, denn durch den breiten Einsatz könnten Hochrisikopersonen frühzeitig auch im Rahmen von zum Beispiel Gesundheitskampagnen und -screenings erkannt, informiert und im weiteren Verlauf behandelt werden“, sagt Schiborn.
Daten von 27.500 Menschen als Basis
Für die Entwicklung des Vorhersagemodells hat das Forscherteam auf die Gesundheits- und Lebensstil-Daten von rund 27.500 Teilnehmenden der EPIC-Potsdam-Studie zurückgegriffen. In die statistischen Modellierungen flossen Parameter ein, die für die Vorhersage von Herz-Kreislauf-Erkrankungen relevant sind. Dazu zählen Faktoren wie Alter, Geschlecht, Hüftumfang, Rauchverhalten, Bluthochdruck und Typ-2-Diabetes sowie Erkrankungsfälle in der Familie. Außerdem erfasst das Modell Ernährungsgewohnheiten, wie beispielsweise den Verzehr von Vollkornprodukten, rotem Fleisch und Pflanzenölen. Anhand dieser Daten gelang es den Forschenden zuverlässig zu berechnen, wie groß das Risiko eines Menschen ist, innerhalb der kommenden zehn Jahre einen Herzinfarkt oder einen Schlaganfall zu erleiden.
Um zu bewerten, wie gut das Modell das Eintreten dieser sogenannten Endpunkte vorhersagt, nutzten die Forschenden Daten der vom Deutschen Krebsforschungszentrum koordinierten Heidelberger EPIC-Studie. Zudem verglichen sie ihre Berechnungen mit etablierten Vorhersagemodellen, die klinische Parameter einschließen. Das Ergebnis: Das entwickelte nicht-klinische Vorhersagemodell sagt die Wahrscheinlichkeit einer Herz-Kreislauf-Erkrankung für die nächsten zehn Jahre ebenso präzise voraus wie klinische Modelle, die eine medizinische Untersuchung erfordern. Eine ebenfalls entwickelte Erweiterung, die klinische Parameter berücksichtigt, verbesserte die Vorhersagegüte nur wenig.
Fokus auf die Rolle des Lebensstils
„Dass unser Vorhersagemodell sich im Vergleich zu klinischen Tests stärker auf Verhaltensparameter stützt, ist ein großer Vorteil“, sagt Prof. Dr. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE. „So tritt die Bedeutung eines präventiven Lebensstils für die Herz- und Gefäßgesundheit in den Vordergrund, statt den Fokus auf die medikamentöse Behandlung als Konsequenz eines unvorteilhaften Lebensstils zu richten“. Da das Modell beeinflussbare Risiken wie Hüftumfang, Rauch- und Ernährungsverhalten berücksichtigt, kann es für konkrete individuelle Empfehlungen genutzt werden, wie sich das Erkrankungsrisiko durch eine Verhaltensänderung senken lässt.
In einem nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler das Vorhersagemodell in Form eines Risiko-Tests als frei verfügbaren Papier- und Online-Fragebogen zur Verfügung stellen. Geplant ist, das Online-Tool mit dem ebenfalls am DIfE entwickelten DIfE – Deutscher Diabetes-Risiko-Test® (DRT) zusammenzuführen, so dass eine kombinierte Risiko-Vorhersage für eine Typ-2-Diabetes-und Herz-Kreislauf-Erkrankung möglich ist. Wie der DRT wurde die Entwicklung des Vorhersagemodells für Herz-Kreislauf-Erkrankungen vom Deutschen Zentrum für Diabetesforschung (DZD) finanziell gefördert.
Hintergrundinformationen
Evidenzbasiert
Das Adjektiv beschreibt, dass etwas auf Grundlage empirisch zusammengetragener und bewerteter wissenschaftlicher Erkenntnisse erfolgt. Ein evidenzbasiertes Vorhersagemodell wie das Modell zur Vorhersage des 10-Jahres-Risikos für Herz-Kreislauf-Erkrankungen stützt sich also auf wissenschaftlich nachgewiesene und quantifizierbare Zusammenhänge zwischen der Erkrankung und ihren Risikofaktoren.
EPIC-Potsdam-Studie
Die European Prospective Investigation into Cancer and Nutrition (EPIC)-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie des DIfE. Sie ist Teil der EPIC-Studie, einer der größten Kohortenstudien der Welt, die das Ziel hat, Beziehungen zwischen Ernährung, Ernährungsstatus, Lebensstil und Umweltfaktoren sowie der Inzidenz von Krebs und anderen chronischen Krankheiten wie Typ-2-Diabetes zu untersuchen. Bei prospektiven Kohortenstudien wird eine große Gruppe gesunder Menschen zunächst umfangreich untersucht und anschließend über einen langen Zeitraum beobachtet, welche Krankheiten auftreten. Die Beobachtungen können Hinweise auf Risikofaktoren für häufige Erkrankungen liefern.
Die ca. 27.500 Teilnehmenden der EPIC-Potsdam-Studie wurden zwischen 1994 und 1998 rekrutiert und untersucht, zum Beispiel der Blutdruck und die Körpermaße bestimmt. Außerdem wurden sie zu ihren Ernährungsgewohnheiten und ihrem Lebensstil befragt und Blutproben entnommen. Im noch immer laufenden Nachbeobachtungszeitraum wurden die Studienteilnehmenden bislang sechsmal zu ihren Ernährungsgewohnheiten, ihrem Lebensstil und aufgetretenen Erkrankungen befragt. Seit 2014 erfolgen in begrenztem Umfang auch Nachfolgeuntersuchungen.
[https://www.dife.de/forschung/kooperationen/epic-studie/]
Wissenschaftliche Ansprechpartner:
Dr. Catarina Schiborn
Wissenschaftliche Mitarbeiterin der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2526
E-Mail: catarina.schiborn@dife.de
Prof. Dr. Matthias Schulze
Leiter der Abteilung Molekulare Epidemiologie
Tel.: +49 33 200 88 – 2434
E-Mail: mschulze@dife.de
Originalpublikation:
Schiborn, C., Kühn, T., Mühlenbruch, K., Kuxhaus, O., Weikert, C., Fritsche, A., Kaaks, R., Schulze, M. B.: A newly developed and externally validated non-clinical score accurately predicts 10-year cardiovascular disease risk in the general adult population. Sci. Rep. 11:19609 (2021). [Open Access]
https://doi.org/10.1038/s41598-021-99103-4
Harald Kunstmann: Grundwasser – Feuchter Sommer bringt Entspannung, gleicht Defizit aber nicht aus
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Für seine lösungsorientierte Forschung und Modellsysteme, welche die hydrologischen Vorgänge im Gesamtsystem darstellen, erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.
Der Sommer 2021 war durchwachsen: Während es im Juni im Süden Deutschlands durchschnittlich noch rund zwei Grad wärmer war als im langjährigen Mittel, war es gerade im Juli und August deutlich nasser und kälter. Die Durchschnittstemperatur lag um eineinhalb bis zwei Grad unter diesem Mittelwert und regional gab es bis zu doppelt so viel Niederschlag. Was das für den Grundwasserspiegel bedeutet, weiß Professor Harald Kunstmann vom Institut für Meteorologie und Klimaforschung des Karlsruher Instituts für Technologie (KIT): „In den meisten Gebieten in Baden-Württemberg und Bayern hat sich der oberflächennahe Grundwasserspiegel durch den vermehrten Regen stabilisiert. Die tieferen Schichten haben von der Erholung allerdings wenig mitbekommen; hier ist der Wasserstand vielerorts immer noch sehr niedrig.“
Der Grundwasserspiegel teilt sich in die oberflächennahen und die tiefen Stockwerke. Während sich die oberen schnell auffüllen, dauert es deutlich länger, bis das Wasser auch die tieferen erreicht. „Der feuchte Sommer bringt zwar lokale Entspannung, kann das grundsätzliche Defizit aber nicht ausgleichen“, sagt der Hydrologe. Bereits seit 2003 nimmt beispielsweise in weiten Teilen Bayerns die Grundwasserneubildung ab. „Die Grundwasserbildung findet hauptsächlich im Winter statt, wenn die Vegetation ruht. Um die Grundwasservorkommen aufzufüllen, müsste es auch im Winter wieder mehr regnen und schneien.“
Das Verdichten und Versiegeln der Böden in der Landwirtschaft, im Wald und in den Städten verschärften das Problem. „Wir müssen dem Wasser erlauben, wieder besser in den Boden einzusickern“, so Kunstmann.
Um sich künftig regional angepasst auf die verschiedenen Wetterextreme wie Hitzeperioden oder Starkregen einstellen und passende Strategien entwickeln zu können, gelte es, sowohl ihre räumliche als auch zeitliche Verteilung genau in den Blick zu nehmen. „Da sich solche Extreme lokal völlig unterschiedlich auswirken, bringen uns Mittelwerte nicht weiter, und wir müssen genauer in die Regionen hineinzoomen“, sagt der Wissenschaftler.
Kunstmann untersucht deshalb anhand von hochauflösenden Modellsystemen, wie sich beispielsweise Klimaveränderungen auf den regionalen Wasserhaushalt der Erde auswirken oder welche langfristigen Entwicklungen zu erwarten sind. „Wir haben Modellsysteme weiterentwickelt, welche die hydrologischen Vorgänge im Gesamtsystem darstellen: vom Grundwasser und oberflächennahen Erdschichten über die Landoberfläche bis in etwa 30 Kilometer Höhe in der Atmosphäre“, erläutert er. So ließen sich nicht nur die Auswirkungen der steigenden Treibhausgase, sondern auch die Wechselwirkungen zwischen Veränderungen der Landoberfläche, beispielsweise durch großflächige Landnutzungsänderungen, und der Atmosphäre, und damit auch der Niederschläge, verstehen.
Für seine lösungsorientierte Forschung erhielt Harald Kunstmann den Wasser-Ressourcenpreis 2021 der Rüdiger Kurt Bode-Stiftung.
Weitere Informationen zu den Modellberechnungen finden Sie im Expertenporträt: https://www.sek.kit.edu/kit-experten_Kunstmann.php
Für weitere Informationen stellt der Presseservice des KIT gerne den Kontakt zu dem Experten her.
Bitte wenden Sie sich an Sandra Wiebe, Tel.: 0721 608-41172, sandra.wiebe@kit.edu, oder an das Sekretariat der Abteilung Gesamtkommunikation, Tel.: 0721 608-41105, E-Mail an presse@kit.edu.
Im Portal „KIT-Expertinnen und -Experten“ finden Sie weitere Ansprechpartner zu Highlights der Forschung am KIT und tagesaktuellen Themen: www.sek.kit.edu/kit-experten.php
Karlsruher Institut für Technologie (KIT)
Strategische Entwicklung und Kommunikation (SEK)
Monika Landgraf
Leiterin Gesamtkommunikation
Pressesprecherin
Kaiserstraße 12
76131 Karlsruhe
Telefon: +49 721 608-41105
E-Mail: presse@kit.edu
www.kit.edu
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Delta und Delta Plus weichen der Antikörperantwort aus
Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Zellkulturstudien zeigen, dass die SARS-CoV-2-Varianten Delta und Delta Plus Lungenzellen besser infizieren und schlechter durch Antikörper gehemmt werden
Das Auftreten von neuen SARS-CoV-2-Varianten, die sich schnell ausbreiten und den Impfschutz unterlaufen können, gefährdet das Ende der COVID-19-Pandemie. Die Delta-Variante (B.1.617.2) hat sich von Indien aus in kurzer Zeit weltweit ausgebreitet und auch in Deutschland gehen fast alle Infektionen auf diese Variante zurück. Außerdem wurden sogenannte Delta Plus Viren beobachtet, die zusätzliche Mutationen tragen, die sie möglicherweise gefährlicher machen. Ein Forschungsteam um Stefan Pöhlmann und Markus Hoffmann vom Deutschen Primatenzentrum (DPZ) – Leibniz-Institut für Primatenforschung in Göttingen sowie Forschende an der Medizinischen Hochschule Hannover, der Universitätsmedizin Göttingen und der Friedrich-Alexander-Universität Erlangen-Nürnberg haben untersucht, warum sich die Delta-Variante so schnell ausbreitet, und ob Delta Plus Viren besonders gefährlich sind. Sie konnten zeigen, dass Delta und Delta Plus Lungenzellen besser infizieren als das Ursprungsvirus. Zudem war einer von vier zur Behandlung von COVID-19 eingesetzten Antikörpern gegen Delta nicht wirksam und Delta Plus war sogar gegen zwei der Antikörper resistent. Auch Antikörper, die nach Impfung mit den Vakzinen von BioNTech-Pfizer und Oxford-AstraZeneca gebildet wurden, waren gegen Delta und Delta Plus weniger wirksam als gegen das Ursprungsvirus. Delta und Delta Plus wurden dagegen vergleichbar gehemmt, weswegen man davon ausgehen kann, dass Delta Plus für Geimpfte wahrscheinlich keine größere Gefahr darstellt als Delta. Schließlich hatten Personen, die zuerst mit Oxford-AstraZeneca und dann mit BioNTech-Pfizer geimpft wurden, deutlich mehr Antikörper, die Delta hemmten, als Personen, die zweimal mit Oxford-AstraZeneca geimpft wurden. Die Kombination von Impfstoffen könnte daher geeignet sein, um einen besonders starken Schutz gegen SARS-CoV-2-Varianten aufzubauen (The Lancet, Cell Reports, Cell Mol Immunol).
Mehr als 99 Prozent der SARS-Coronavirus-2 Infektionen in Deutschland gehen laut Robert Koch Institut derzeit auf die Delta-Variante zurück. Mit Hilfe von Experimenten in Zellkultur konnte das Team um Stefan Pöhlmann und Markus Hoffmann zeigen, dass Delta im Vergleich zum Ursprungsvirus (das Virus, das sich in der führen Phase der Pandemie ausgebreitet hat) besser in Lungenzellen eindringen kann. Zudem gelingt es Delta besser, infizierte Lungenzellen mit nicht infizierten Zellen zu verschmelzen. „Es ist denkbar, dass sich die Delta-Variante durch die Verschmelzung von Zellen in den Atemwegen besser ausbreiten und größeren Schaden anrichten kann. Das könnte zu schwereren COVID-19-Verläufen beitragen“, vermutet Prerna Arora, Wissenschaftlerin am Deutschen Primatenzentrum und Erstautorin zweier Studien, die sich speziell mit der Delta- und Delta Plus-Variante befassen.
Zur Behandlung von COVID-19 werden monoklonale Antikörper eingesetzt. Monoklonale Antikörper sind Proteine, die gentechnisch hergestellt werden. Anders als unser Immunsystem, das bei einer Infektion eine Vielzahl von Antikörpern gegen den Erreger produziert, werden also für die COVID-19-Therapie nur isolierte Antikörper oder Kombinationen dieser Antikörper eingesetzt. Vier dieser Antikörper hat das Team um Stefan Pöhlmann und Markus Hoffmann untersucht. Dabei zeigte sich, dass Delta resistent ist gegen den Antikörper Bamlanivimab. Delta Plus ist resistent gegen zwei Antikörper: Bamlanivimab und Etesevimab, die bei der Behandlung von Erkrankten in Kombination eingesetzt werden.
Dass Delta und Delta Plus weniger gut durch Antikörper von infizierten und geimpften Personen gehemmt (neutralisiert) werden als das Ursprungsvirus, hat wahrscheinlich zur raschen Ausbreitung von Delta beigetragen. Ein Vergleich von Delta und Delta Plus zeigte, dass beide Viren vergleichbar neutralisiert werden. „Das bedeutet, dass die Impfung wahrscheinlich einen vergleichbaren Schutz gegen Delta und Delta Plus vermittelt und Delta Plus nicht deutlich gefährlicher ist“, sagt Stefan Pöhlmann. Der Impfstoff von BioNTech-Pfizer wird in Europa am häufigsten eingesetzt, gefolgt vom Impfstoff von Oxford-AstraZeneca. Aufgrund von sehr seltenen Nebenwirkungen nach Impfung mit Oxford-AstraZeneca wird in Deutschland und anderen Ländern empfohlen, dass bei Personen, die bereits eine erste Impfung mit Oxford-AstraZeneca erhalten haben, BioNTech-Pfizer für die zweite Impfung eingesetzt wird. Man spricht von einer Kreuzimpfung. „Unsere Studien zeigen, dass die Kreuzimpfung deutlich mehr neutralisierende Antikörper gegen Delta induziert als zwei Impfungen mit Oxford-AstraZeneca. Personen, die eine solche Kreuzimpfungen erhalten haben, könnte daher besonders gut vor Delta und Delta Plus geschützt sein“, sagt Markus Hoffmann.
„Unsere Ergebnisse decken sich mit der Beobachtung, dass Impfungen effizient vor einer schweren Erkrankung nach Infektion mit Delta schützen, aber die Infektion häufig nicht vollständig unterdrücken können. In Anbetracht des starken Schutzes vor schwerer Erkrankung muss das Ziel weiterhin eine möglichst hohe Impfquote sein. Dies sollte verhindern, dass bei einer starken Ausbreitung von Delta und eng verwandten Viren in den Wintermonaten das Gesundheitssystem überlastet wird“, sagt Stefan Pöhlmann.
Originalpublikationen
Behrens GM, Cossmann A, Stankov MV, Nehlmeier I, Kempf A, Hoffmann M, Pöhlmann S. SARS-CoV-2 delta variant neutralisation after heterologous ChAdOx1-S/BNT162b2 vaccination. The Lancet. 2021 Sep 18;398(10305):1041-1042. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(21)01891-2/fullt…
Arora P, Sidarovich A, Krüger N, Kempf A, Nehlmeier I, Graichen L, Moldenhauer AS, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. B.1.617.2 enters and fuses lung cells with increased efficiency and evades antibodies induced by infection and vaccination, Cell Reports, 2021, 109825, ISSN 2211-1247, https://doi.org/10.1016/j.celrep.2021.109825
Arora P, Kempf A, Nehlmeier I, Graichen L, Sidarovich A, Winkler MS, Schulz S, Jäck HM, Stankov MV, Behrens GMN, Pöhlmann S, Hoffmann M. Delta variant (B.1.617.2) sublineages do not show increased neutralization resistance. Cell Mol Immunol. 2021 ; https://doi.org/10.1038/s41423-021-00772-y
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Pöhlmann
Tel: +49 551 3851-150
E-Mail: spoehlmann@dpz.eu
Dr. Markus Hoffmann
Tel: +49 551 3851-338
E-Mail: mhoffmann@dpz.eu
Weitere Informationen:
http://medien.dpz.eu/pinaccess/pinaccess.do?pinCode=NHOBNwC2pi79 – Druckfähige Bilder
https://www.dpz.eu/de/aktuelles/neuigkeiten/einzelansicht/news/delta-und-delta-p… – Pressemitteilung auf der DPZ-Website
Bürgermessstelle für Umweltradioaktivität in der Nähe der Schachtanlage Asse II nimmt Betrieb auf
Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund TRANSENS gibt Bürgerinnen und Bürgern die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen
In direkter Umgebung der Schachtanlage Asse II können sich interessierte Bürgerinnen und Bürger jetzt an einem Forschungsprojekt beteiligen. Eine neue Bürgermessstelle für Umweltradioaktivität in Remlingen-Semmenstedt gibt Menschen die Gelegenheit, Radioaktivität in ihrer Umgebung selbst zu messen. Denn rund 126.000 Fässer mit leicht- und mittelradioaktiven Abfällen lagern in der Asse. Diese sollen zurückgeholt werden.
Die Bürgermessstelle in Remlingen wird von Mitarbeiterinnen und Mitarbeitern des Instituts für Radioökologie und Strahlenschutz der Leibniz Universität Hannover (LUH) begleitet. Sie ist Teil des Forschungsvorhabens TRANSENS (Transdisziplinäre Forschung zur Entsorgung hochradioaktiver Abfälle in Deutschland), in dem 16 Forschungseinrichtungen und Institute zusammenarbeiten.
Im Projekt TRANSENS werden außerakademische Akteurinnen und Akteure in die wissenschaftliche Arbeit eingebunden, wie der stellvertretende Projektsprecher und Leiter des Arbeitspakets Bevölkerung vom Institut für Radioökologie und Strahlenschutz der LUH, Prof. Dr. Clemens Walther, erläutert: „Ein Blick über den deutschen Tellerrand hinaus zeigt uns, dass der möglichst direkte Einbezug der lokalen Bevölkerung in die Messung von Umweltradioaktivität – wie er beispielsweise an der Nevada Test Site in den USA bereits seit den achtziger Jahren praktiziert wird – einen positiven Beitrag zum öffentlichen Diskurs liefern kann. Indem Bürgerinnen und Bürgern vor Ort die Möglichkeit eröffnet wird, eigene Messexpertise aufzubauen, Daten korrekt zu interpretieren und Messeergebnisse konsequent veröffentlicht werden, wird in diesem sensiblen Themenfeld ein wichtiger Beitrag zur informativen Selbstbestimmung in der Bevölkerung geschaffen.“
Projekt-Sprecher Prof. Dr. Klaus-Jürgen Röhlig, TU Clausthal, ergänzt: „Wir führen eine intensive Interaktion der Bürgerinnen und Bürger mit Wissenschaftlern in TRANSENS durch – mit unseren Begleitgruppen, zum Beispiel der Arbeitsgruppe Bevölkerung. Neben dieser transdisziplinären Arbeit beforschen wir den Prozess auch im Rahmen der Transdisziplinaritätsforschung. Hier wird von Sozialwissenschaftlern die Interaktion von Bevölkerung und Wissenschaft untersucht. Wir hoffen, mit unseren Forschungsergebnissen einen Beitrag zu den wissenschaftlichen Grundlagen des Standortauswahlverfahrens leisten zu können, sowohl im Hinblick auf Partizipation als auch auf naturwissenschaftlich-technische Themen.“
Die Samtgemeinde Elm-Asse stellt als Partner des Projekts die Räumlichkeiten für den Betrieb der Bürgermessstelle in einem Nebengebäude des Rathauses von Remlingen zur Verfügung. Proben aus dem Boden beziehungsweise aus Früchten, Gras, Wasser und vielem mehr können dort gemessen werden. Ziel ist es, zu ermitteln, welche Radionuklide in den Umweltproben enthalten sind. „Mittels Gamma-Spektrometrie lässt sich eine Vielzahl von radioaktiven Stoffen in praktisch allen Umweltmedien ohne besonders aufwändige Probenvorbereitung sehr genau bestimmen“, sagt Dr. Wolfgang Schulz, modulverantwortlicher Wissenschaftler an der LUH. Bürgerinitiativen, Privatpersonen, aber auch Schulen können sich an den Messungen beteiligen. Sie werden dabei von den Expertinnen und Experten der LUH wissenschaftlich angeleitet. Die gesamte Ausstattung der Umweltmessstelle soll nach Ende der Projektlaufzeit (2024) vor Ort bleiben und die Messstelle entsprechend verstetigt werden. Neben der eigentlichen Messarbeit vor Ort soll auch ein umfangreicher Wissenstransfer zum Thema Radioaktivität an Bürgerinnen und Bürger stattfinden. An der Mitarbeit Interessierte können sich unter schulz@irs.uni-hannover.de an Dr. Wolfgang Schulz wenden.
Der niedersächsische Wissenschaftsminister Björn Thümler lobt das Potenzial des Forschungsverbundes TRANSENS: „Die transdisziplinäre Endlagerforschung hat eine herausragende Bedeutung, denn die Entsorgung radioaktiver Abfälle ist eine der wichtigsten Zukunftsfragen. Das Land Niedersachsen leistet einen wichtigen Beitrag indem es sich mit 3,75 Millionen Euro an dem Forschungsverbund beteiligt. Ich bin sehr froh, dass nach den pandemiebedingten Einschränkungen des öffentlichen Lebens die Eröffnung der Bürgermessstation möglich wird und bin schon heute auf die Ergebnisse des Forschungsverbunds gespannt.“
Im Forschungsverbund TRANSENS wird erstmalig in Deutschland transdisziplinäre Forschung zur nuklearen Entsorgung in größerem Maßstab betrieben. TRANSENS ist ein Verbundvorhaben, in dem 16 Institute beziehungsweise Fachgebiete von neun deutschen und zwei Schweizer Universitäten und Forschungseinrichtungen zusammenarbeiten. Das Vorhaben wird vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages und im Niedersächsischen Vorab der Volkswagenstiftung vom Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) von 2019 bis 2024 gefördert (Förderkennzeichen: 02E11849A-J).
Etwa 50 Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen ingenieurtechnischen, naturwissenschaftlichen und sozialwissenschaftlichen Disziplinen arbeiten in vier transdisziplinären Arbeitspaketen zu verschiedenen Aspekten der vertrauensvollen und sicheren Entsorgung radioaktiver Abfälle zusammen. Die Koordination liegt bei der Technischen Universität Clausthal. Die gewonnenen Erkenntnisse sollen dazu beitragen, das nach wie vor drängende Problem der Endlagerung radioaktiver Stoffe in Deutschland in einem offenen und integrierenden Diskurs zu lösen. Zentrale Fragen der anwendungsorientierten Forschung sind: Was bedeutet eine eventuelle Rückholung aus einem zu bauenden Endlager für hochradioaktive Abfälle für die Sicherheit der Bevölkerung? Wie müssen Messdaten gewonnen und interpretiert werden? Wie kann eine vertrauensvolle Zusammenarbeit von Bevölkerung und aufsichtführenden Akteuren erreicht werden? Wie spielen technik- und zeitbedingte Unsicherheiten und Ungewissheiten und Vertrauen in der nuklearen Entsorgung zusammen? Vorrangiges Ziel ist es auch, das Zusammenwirken der unterschiedlichen Akteure besser zu verstehen und Wege aufzuzeigen, unter welchen Bedingungen Vertrauen wachsen kann.
Bildgebungskonzept erkennt Gefahrenmuster für Herz-Kreislauf-Erkrankungen
Susanne Dopheide Stabsstelle Presse und Kommunikation
Heinrich-Heine-Universität Düsseldorf
Die Vorhersage, wann atherosklerotische Veränderungen der Arterien in einem stabilen Zustand zu akuten kardiovaskulären Erkrankungen übergehen, ist bislang ungelöst. Die Autoren des aktuell in „Nature Communications“ um Erstautor Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Medizinische Fakultät der Heinrich-Heine-Universität Düsseldorf, veröffentlichten Beitrags stellen ein Bildgebungsverfahren vor – die zielgerichtete und mehrfarbige Nanotracer-Plattformtechnologie – das die Gefahrenmuster bei der Entwicklung einer fortschreitenden koronaren Erkrankung im Mausmodell sichtbar macht.
Die Kaskade dieser Gefäßerkrankungen reicht von Entzündung des Gefäßes, Thrombose mit nachfolgender Ablösung kleinster Teilchen der Gefäßplaque bis hin zum Gefäßverschluss mit der Folge dauerhafter Schädigung durch z.B. Herzinfarkt.
Um die Gefahrenmuster zu zeigen, werden drei Moleküle (Liganden) an unterschiedliche Arten von Perfluorkohlenstoff-Nanoemulsion gekoppelt. Sie sind jeweils spezifisch auf Entzündungsherde, akute und chronische Thromben gerichtet. Dort lagern sie sich ein und werden durch die Anwendung einer bestimmten MRT-Bildgebung (19F-MRT) sicht- und unterscheidbar.
Das versetzt die die Wissenschaftler*innen in die Lage, Bereiche zu identifizieren, die ein hohes Risiko für die Entwicklung eines Herzinfarkts aufweisen. Das geschieht zu einem Zeitpunkt, an dem noch kein konventioneller Parameter in Labordiagnostik oder EKG auf eine drohende Gefahr hinweist. Das Forscherteam zeigt, dass diese Gefahrenmuster durch das von ihnen entwickelte Verfahren „multi-color multi-targeted‘ 1H/19F-MRT“ zuverlässig und vor Einsetzen des Infarktes – visualisiert werden können. Es ist nur ein einziger MRT-Scan nötig, der individuell betroffene Stellen lokalisieren und farblich hinsichtlich Entzündung, frisch entwickelten bzw. fortgeschrittenen Thromben differenziert darstellen kann.
Dabei können die frühzeitig identifizierten gefährdeten Stellen im Individuum (Mausmodell) durchaus unterschiedlich sein. Wichtig ist aber, dass sich jeweils auch an diesen Orten die entsprechenden massiven Folgeschäden einstellten (vgl. Abb. r. unten gegenüber l. unten). In weiteren Untersuchungen zeigten Flögel u.A., dass „multi-targeted 1H/19F-MRT“ in der Lage ist, den gesamten Teufelskreis von Thrombozytenadhäsion, Infiltration von Immunzellen und Bildung von Thromben, die zu koronarer Atherothrombose, Herzinfarkt und schwerer Verschlechterung der Herzkammerfunktion führen, eindeutig sichtbar zu machen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Ulrich Flögel, Institut für Molekulare Kardiologie, Heinrich-Heine-Universität Düsseldorf, Tel.: 0211 81-10187, floegel@uni-duesseldorf.de
Originalpublikation:
Ulrich Flögel, Sebastian Temme, Christoph Jacoby, Thomas Oerther, Petra Keul, Vera Flocke, Xiaowei Wang, Florian Bönner, Fabian Nienhaus, Karlheinz Peter, Jürgen Schrader, Maria Grandoch, Malte Kelm & Bodo Levkau; Multi-targeted 1H/19F MRI unmasks specific danger patterns for emerging cardiovascular disorders, NATURE COMMUNICATIONS| (2021) 12:5847 | https://doi.org/10.1038/s41467-021-26146-6
Impfbereitschaft steigt mit umfassender Information
Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Wie lässt sich die Bereitschaft von Menschen für eine Impfung gegen COVID-19 erhöhen? Einen wirksamen Einfluss darauf haben fundierte Informationen sowie positiv wahrgenommene Schutzmaßnahmen seitens der Behörden und Vorgesetzten. Das belegen die Ergebnisse einer bundesweiten Erhebung, die ein Team um Prof. Dr. (TR) Yesim Erim, Leiterin der Psychosomatischen und Psychotherapeutischen Abteilung des Universitätsklinikums Erlangen der FAU, jetzt veröffentlicht hat. Für die aktuelle VOICE-Studie wurden mithilfe einer Onlineerhebung im Zeitraum von November 2020 bis Januar 2021 bundesweit insgesamt 6.217 Beschäftigte des deutschen Gesundheitswesens zu ihrer Impfbereitschaft befragt.
Die VOICE-Studie im Rahmen des egePan-Unimed-Netzwerks wurde von den psychosomatischen Abteilungen der Universitätsklinika Erlangen, Bonn, Dresden, Köln und Ulm entwickelt und durchgeführt. Das egePan-Unimed-Projekt wird als eines von insgesamt 13 bundesweiten Verbundprojekten vom Bundesministerium für Bildung und Forschung zur Verbesserung des Pandemiemanagements im Rahmen des nationalen Netzwerks Universitätsmedizin (NUM) finanziell unterstützt.
Die Impfbereitschaft des für die Studie befragten medizinischen Personals lag im Untersuchungszeitraum bei 65,3 Prozent und damit höher als in der Allgemeinbevölkerung. Die Studie fragte neben den berufsbezogenen und COVID-19-spezifischen Merkmalen auch soziodemografische Aspekte und Angaben zur psychischen Gesundheit ab. Vor allem Männer, Beschäftigte im Alter von über 40 Jahren und jene, die keine Kinder und keinen Migrationshintergrund hatten, zeigten eine höhere Impfbereitschaft. In der Kategorie des medizinischen Personals war die Impfbereitschaft bei den Ärztinnen und Ärztinnen am größten, gefolgt vom psychologischen Personal; beide Berufsgruppen verzeichneten eine deutlich höhere Impfbereitschaft als die Pflegefachkräfte. „Besonders interessant ist die Erkenntnis, dass sich Anfang des Winters 2020 – zu einem Zeitpunkt, als die jetzt verwendeten Impfstoffe größtenteils noch nicht zugelassen waren – nur knapp 70 Prozent des befragten medizinischen Personals ausreichend über COVID-19 informiert empfanden“, berichtet Prof. Erim. „Die Ergebnisse unserer Studie zeigen, dass die Politik und auch die Arbeitgeberinnen und Arbeitgeber nicht davon ausgehen können, dass Beschäftigte im Gesundheitswesen automatisch über genügend Informationen zur COVID-19-Erkrankung verfügen“, betont die Erlanger Wissenschaftlerin.
Zustimmung steigt mit wahrgenommenen Schutzmaßnahmen
Die Studienergebnisse untermauern außerdem die hohe Bedeutung eines umfänglichen Infektionsschutzes der Mitarbeitenden durch übergeordnete Maßnahmen seitens der Politik sowie der Arbeitgeberinnen und Arbeitgeber: „Die Zahlen sprechen eine eindeutige Sprache: Alle, die das Gefühl hatten, dass mit ihrer Gesundheit sicher und verantwortungsvoll umgegangen wird, waren eher bereit, sich impfen zu lassen“, erläutert Prof. Erim. „Diese Erkenntnisse sind wertvoll für die zukünftige Pandemieentwicklung, da wir uns derzeit mitten in der Diskussion über die Notwendigkeit einer Auffrischungsimpfung befinden.“
Die ausführlichen Studienergebnisse sind unter folgendem Link online nachzulesen: https://doi.org/10.1007/s00103-021-03418-6
Netzwerk Universitätsmedizin (NUM)
Das im April 2020 gegründete nationale Netzwerk Universitätsmedizin betreut insgesamt 13 Verbundprojekte, die das Bundesministerium für Bildung und Forschung mit insgesamt 150 Millionen Euro für eine Dauer von zehn Monaten fördert. Die finanzielle Unterstützung soll den Spezialistinnen und Spezialisten aus allen 34 deutschen Universitätsklinika ermöglichen, ihre unterschiedlichen Ansätze zur Bewältigung der COVID-19-Pandemie gemeinsam und interdisziplinär weiterverfolgen zu können. Das Uni-Klinikum Erlangen ist an acht der ausgewählten Verbundprojekte beteiligt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. (TR) Yesim Erim
Tel.: 09131 85-35928
yesim.erim@uk-erlangen.de
Originalpublikation:
https://doi.org/10.1007/s00103-021-03418-6
Steinmeier: Gemeinsam umsteuern für Klimaschutz und Artenvielfalt
Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Bundespräsident überreicht Deutschen Umweltpreis 2021
Osnabrück/Darmstadt. Mit einem Appell an den Gemeinsinn aller hat Bundespräsident Frank-Walter Steinmeier heute (Sonntag) im Kongresszentrum darmstadtium in Darmstadt zu einem Umsteuern aufgerufen, um biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen. Beim Festakt zur Verleihung des Deutschen Umweltpreises der Deutschen Bundesstiftung Umwelt (DBU) in Höhe von 500.000 Euro zu gleichen Teilen an Ökologin Prof. Dr. Katrin Böhning-Gaese und Moorforscher Prof. Dr. Dr. h.c. Hans Joosten sagte der Bundespräsident, dass „nur aus Gemeinsamkeit Veränderung entstehen kann“. Und: „Der ökologische Wandel verschafft uns mehr Lebensqualität.“
Gewiss sei es unbequem und anstrengend, sich von liebgewonnenen Konsum- und Ernährungsgewohnheiten zu verabschieden. Doch müsse man „mit dem Irrtum aufräumen, Klima-, Arten- und Umweltschutz hätten vor allem mit Verzicht, Enthaltsamkeit und Freudlosigkeit zu tun“. Im Gegenteil: Der ökologische Wandel ermögliche mehr Freiheit durch Mobilität, die keine Umweltressourcen verbraucht, und mache unabhängig vom konfliktträchtigen Abbau fossiler Brennstoffe. „Er erspart uns Umweltkrankheiten und lässt uns gesünder und länger leben; er öffnet uns und denen, die nach uns kommen, eine gute Zukunft“, so der Bundespräsident. Er freue sich, „dass wir heute eine Wissenschaftlerin und einen Wissenschaftler auszeichnen, die auf dem weiten Feld des Klima- und Artenschutzes Herausragendes geleistet haben. Beide wecken Bewusstsein dafür, was alles nötig ist, um die biologische Vielfalt zu erhalten und die Erderwärmung zu stoppen.“
„Wir Menschen betreiben Raubbau an der Natur“
Böhning-Gaese hat laut Steinmeier dazu beigetragen, die Ursachen des Artensterbens genauer zu verstehen und was dagegen zu tun ist. Etwa eine Million Tier- und Pflanzenarten seien vom Aussterben bedroht, „weil wir Menschen Raubbau an der Natur betreiben. Wir roden Wälder im Übermaß, beuten Böden aus, setzen giftige Pflanzenschutzmittel ein, fangen zu viele Fische, verschmutzen die Meere mit Plastikmüll“, so der Bundespräsident. Joosten wiederum sei „ein großartiger Moorforscher“, der als einer der Ersten darauf hingewiesen habe, „wie wichtig gesunde, nasse Moore für den Klimaschutz sind, weil sie der Atmosphäre Kohlendioxid entziehen und es dauerhaft im Boden binden“. Er habe erkannt, wie schädlich Moor-Entwässerung etwa durch land- und forstwirtschaftliche Nutzung für Klima und Biodiversität sei. Bei Warnungen habe Joosten es nicht belassen, sondern vielmehr wegweisende Ideen für die landwirtschaftliche Nutzung von Mooren entwickelt, ohne deren Schutz aufs Spiel zu setzen – und dafür den Begriff „Paludikultur“ geprägt.
Große Transformation aller Lebensbereiche
Der Bundespräsident schwor in seiner Festrede Bürgerinnen und Bürger darauf ein, Veränderungen gemeinsam in Angriff zu nehmen. „Was wir vor uns haben, ist ein gesamtgesellschaftlicher Wandel, eine große Transformationsaufgabe, die alle Bereiche unseres Lebens betrifft: die Art, wie wir Energie erzeugen, Mobilität gestalten, Landwirtschaft betreiben, industrielle Güter produzieren, Wohnungen bauen, Abfall entsorgen, wie wir reisen, einkaufen und uns ernähren.“ Sich als Gesellschaft gemeinsam auf den Weg in eine klimaneutrale Zukunft zu machen, „ohne Zusammenhalt als Voraussetzung für Freiheit und Demokratie zu gefährden“, sei „eine der größten politischen und gesellschaftlichen Herausforderungen der kommenden Jahre“. Es gelte, sich dabei besonders denen zuzuwenden, „die mit dem Wandel nicht so leicht Schritt halten können“.
Konferenzen zum Schutz von Biodiversität und Klima in Kunming und Glasgow
Auch global sind Steinmeier zufolge „Zusammenarbeit und Solidarität über Grenzen hinweg“ unabdingbar, um Klimakrise und Artenrückgang zu bewältigen. Auf der morgen (Montag) im chinesischen Kunming beginnenden Biodiversitätskonferenz sowie der Weltklimakonferenz in Glasgow (Schottland) im November könne Politik zeigen, dass sie aus der Pandemie gelernt habe und nicht zurückfalle „in nationale Egoismen. Das ist die historische Aufgabe von Glasgow.“ Zum Hinweis des Bundespräsidenten auf Kunming und Glasgow und den engen Zusammenhang von Klima und Biodiversität sagte DBU-Generalsekretär Alexander Bonde: „Kampf gegen Erderwärmung und verstärkter Artenschutz müssen Hand in Hand gehen. Das ist eine Zukunfts- und Menschheitsfrage – und eine Lebensversicherung für uns und den Planeten.“ Darauf haben Böhning-Gaese und Joosten laut Bonde „unermüdlich“ aufmerksam gemacht. „Diese Impulse der Wissenschaft müssen wir zügig wahr- und vor allem ernst nehmen.“ Bonde: „Damit Glasgow gelingt, müssen in Greifswald, Gladbach, Glückstadt und anderswo die angepeilten Gigatonnen an Treibhausgas-Emissionen eingespart werden.“ Und mehr Artenschutz durch die Kunming-Konferenz „klappt nur, wenn auch in Kulmbach, Kuppenheim und Kusel Biodiversität erhalten wird“.
Besuch bei den Betroffenen der Flutkatastrophe: „Ihr seid nicht vergessen!“
Es sei notwendig, schneller und entschlossener zu handeln, betonte Steinmeier. „Wenn wir nicht konsequent umsteuern, würden wir die Lebensbedingungen auf unserem Planeten unwiederbringlich zerstören.“ Der Bundespräsident erinnerte an die Flutkatastrophe im Sommer dieses Jahres. Er werde am Nachmittag die Betroffenen besuchen. „Ihr seid nicht vergessen!“, sagte er an deren Adresse. Die Folgen des Klimawandels seien „auch bei uns in Europa angekommen“. Doch sie träfen Menschen in den ärmeren Ländern des Südens schon jetzt weitaus härter. „Und sie werden zukünftige Generationen umso brutaler treffen, je weniger wir jetzt tun“, so der Bundespräsident.
Steinmeier machte den Festakt-Gästen Mut für die Zukunft. „Wir haben allen Grund zur Zuversicht“, so der Bundespräsident. Gerade in der Corona-Pandemie habe die Gesellschaft die Kraft zum Umsteuern bewiesen. „Und wir haben erfahren, wie viel Gemeinsinn in uns steckt.“ Böhning-Gaese und Joosten hätten eines allen vor Augen geführt: „Es gibt keinen Grund, in Angst zu erstarren und auf die Apokalypse zu warten. Klimawandel und Artensterben sind nicht unser Schicksal.“ Preisträgerin und Preisträger zeigen nach Steinmeiers Worten, „dass wir Lust auf Zukunft haben dürfen, wenn wir jetzt mit neuer Anstrengung fortsetzen, was wir begonnen haben, wenn wir entschiedener und rascher handeln, wenn wir in den kommenden Jahren die Wende schaffen“. Dank wissenschaftlicher Forschung, technologischer und wirtschaftlicher Innovationen und „unserer Fähigkeit, umzulernen und unser Leben zu ändern“, stehe der gemeinsame Weg in eine klimaneutrale und artenreiche Zukunft offen.
Hintergrund:
Mit dem 2021 zum 29. Mal verliehenen Deutschen Umweltpreis der DBU werden Leistungen von Menschen ausgezeichnet, die vorbildlich zum Schutz und Erhalt der Umwelt beitragen. Prämiert werden Projekte, Maßnahmen und Lebensleistungen. Kandidatinnen und Kandidaten werden der DBU vorgeschlagen. Berechtigt dazu sind etwa Arbeitgeberverbände und Gewerkschaften, Kirchen, Umwelt- und Naturschutzverbände, wissenschaftliche Vereinigungen und Forschungsgemeinschaften, Medien, das Handwerk und Wirtschaftsverbände. Selbstvorschläge sind nicht möglich. Eine vom DBU-Kuratorium ernannte Jury unabhängiger Expertinnen und Experten aus Wirtschaft, Wissenschaft, Technik und gesellschaftlichen Gruppen empfiehlt dem DBU-Kuratorium Preisträgerinnen und Preisträger für das jeweilige Jahr. Das DBU-Kuratorium fällt die Entscheidung.
Infos zum Deutschen Umweltpreis und Ausgezeichneten:
https://www.dbu.de/umweltpreis sowie https://www.dbu.de/umweltpreis-blog/
Weitere Informationen:
https://www.dbu.de/123artikel39183_2442.html Online-Pressemitteilung
Arbeitswelten der Zukunft – Ergebnisse des Projekts „Future Works“
Stefanie Huland Unternehmenskommunikation
DLR Projektträger
Deutsche Arbeitswelten werden im Übergang zum 22. Jahrhundert fundamental anders aussehen als bisher. Aber wie? Mögliche Zukunftsszenarien stellte das vom DLR Projektträger (DLR-PT) mitkoordinierte Projekt „Future Work“ in Karlsruhe vor. Titel der öffentlichen Hybrid-Konferenz am 18. und 19. September: „Arbeit von übermorgen – zwischen Science und Fiction“.
In Impulsvorträgen und Kurzlesungen konnten sich die Teilnehmenden der Karlsruher Konferenz über die Projektergebnisse informieren und sich zu verschiedenen Fragestellungen einbringen. Zum Beispiel: Wird unsere Arbeit zunehmend automatisiert? Wie wird Arbeit zukünftig entlohnt werden? Und wie verändern sich Wirtschaft und Gesellschaft im Zuge neuer gesellschaftlicher Herausforderungen oder steigender Technisierung?
„Die erstellten Szenarien für die Arbeitswelt der Zukunft reichen bis an die Schwelle zum 22. Jahrhundert“, erklärt Dr. Claudio Zettel vom DLR-PT. Sie zeigen unterschiedliche Optionen auf, zu denen sich die Welt der Arbeit in Deutschland entwickeln kann. „Im Projekt-Szenario einer dystopischen Arbeitswelt sind die Menschen entweder Fremdbestimmung und Zwang ausgesetzt“, so Zettel, „oder sie leben in einer von automatisierter Arbeit dominierten Welt, in der sie auf der Suche nach Lebensgrundlagen in Nischen wie Weltall oder Tiefsee verdrängt werden.“ Weitere Szenarien skizzieren eine handwerklich dominierte Gesellschaft, in der die rasende Schnelligkeit der modernen wachstums- und technologiezentrierten Arbeitswelt überwunden wird.
Zurück zum Handwerk oder ohne Erwerbstätigkeit?
Modelliert wurde auch eine KI-assistierte Planwirtschaft, die Entscheidungen der Arbeitswelt der Zukunft trifft und so den Lebensstandard, Sicherheit und Umweltverträglichkeit aller Menschen sichert, gleichzeitig aber die persönliche Freiheit und Selbstbestimmung auf ein Minimum reduziert. Zudem fand ein utopisches Szenario seinen Platz im Projekt, in Form der „Postwachstumsgesellschaft“. Diese zeichnet sich dadurch aus, dass Erwerbsarbeit in ihrer heutigen Form nicht mehr existiert. Vielmehr besteht Arbeit in der Ausprägung persönlicher Entfaltung, ermöglicht durch ein bedingungsloses Grundeinkommen und die effektive Nutzung aller Ressourcen auf der Erde.
Claudio Zettel: „Die sehr unterschiedlichen Szenarien weisen eine hohe Trennschärfe auf. Diese ist bei der verwendeten Methode der Szenario-Technik von besonderer Bedeutung und erleichtert den nun mit der Tagung begonnenen gesellschaftlichen Dialog, der sich in den kommenden Monaten als diskursive Auseinandersetzung mit Vertreterinnen und Vertretern von Sozialpartnern und aus der Wissenschaft fortsetzen wird.“ Ziel ist es, die Szenarien zur Diskussion zu stellen und mögliche Schlussfolgerungen für das heutige Handeln abzuleiten.
Beteiligte am Projekt „FutureWork“
Am Projekt „FutureWork“ sind neben dem DLR Projektträger (DLR-PT) das IQIB – Institut für qualifizierende Innovationsforschung und -beratung, das ZAK | Zentrum für Angewandte Kulturwissenschaft und Studium Generale am KIT, das Institut für Projektmanagement und Innovation der Universität Bremen sowie die Gesellschaft für Fantastikforschung e.V. beteiligt. Der DLR-PT bringt neben seiner Kompetenz im Bereich der Arbeitsforschung die systematische Anwendung von Foresight-Methoden ein, die zunehmende Bedeutung in der Politik- und Strategieberatung gewinnen.
Wissenschaftliche Ansprechpartner:
Dr. Claudio Zettel
DLR Projektträger
Bereich Gesellschaft, Innovation, Technologie
Telefon: +49 228 3821 1306
E-Mail: Claudio.Zettel@dlr.de
Weitere Informationen:
https://www.arbeit2100.de
https://www.dlr.de/pt/desktopdefault.aspx/tabid-18048/28653_read-74409/
Programm der Fraunhofer-Gesellschaft fördert Innovationsfähigkeit von KMU im Bereich der effizienten Wasseraufbereitung
Dipl.-Geophys. Marie-Luise Righi PR und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC
Im KMU-akut Programm »Effiziente Wasseraufbereitung« – kurz EWA – bündeln die Fraunhofer-Institute IFAM und ISC gezielt ihre Expertise für die Bereiche elektrochemische Prozesstechnik, Partikeltechnologie und Materialanalytik. Gemeinsam mit und für Industriepartner arbeiten sie in vier Themenfeldern an einer effizienten Aufbereitung der wichtigen Ressource Wasser. Interessierte Unternehmen können in einem kostenlosen Online- Industrieworkshop am 4. November 2021 zu den Themen Batterierecycling, Lithiumgewinnung, alternative Klärprozesse und Meerwasserentsalzung für grünen Wasserstoff mehr erfahren.
Viele Verfahren greifen auf die Ressource Wasser zurück – als Rohstoff für die Produktion ebenso wie als Transport-, Löse- oder Trennmittel für industrielle Prozesse. Um die wertvolle Ressource Wasser so nachhaltig wie möglich zu nutzen und Trinkwasserreserven zu schonen, werden im KMU-akut Projekt EWA verschiedene wasserbasierende Prozesse untersucht und Lösungen für eine effektive Wasseraufbereitung erarbeitet. Die im Projekt federführenden Fraunhofer-Institute für Fertigungstechnik und Angewandte Materialforschung IFAM und für Silicatforschung ISC verfügen über eine breite Materialbasis und technologisches Know-how für verschiedene innovative adsorptive, physikalische und elektrochemische Trennverfahren. Gemeinsam mit Industriepartnern sollen diese für den Fortschritt in der Wasseraufbereitung eingesetzt werden.
KMU-spezifische Fragestellungen zur effizienten Wasseraufbereitung im Fokus
Die klassische, kommerzielle Prozesswasseraufbereitung ist für viele kleine und mittlere Unternehmen entweder überdimensioniert, zu spezifisch, zu kostspielig oder einfach ungeeignet. Im Rahmen des Projekts EWA soll diese Lücke geschlossen und Lösungsansätze entwickelt werden, die durch ihre Flexibilität, Skalierbarkeit und einen vergleichsweise geringen Kostenaufwand die Bedürfnisse potenzieller Unternehmenspartner erfüllen. Entsprechend sollen gezielt zahlreiche, akute Fragestellungen aus der Industrie gelöst werden. Gemeinsam mit den drei weiteren Fraunhofer-Instituten IKTS, ISE und IGB sowie derzeitig fünf Industriepartnern werden die Themenbereiche Batterierecycling, Lithiumgewinnung, Alginit in Klärprozessen und Meerwasserentsalzung für die Leitmärkte Energiewirtschaft, Chemische Industrie, Gesundheitswirtschaft sowie Anlagen- und Maschinenbau in Machbarkeitsstudien und Validierungsprojekten adressiert. Einen guten Überblick für die Arbeitsweise der EWA-Projektpartner vermittelt zum Beispiel das Teilprojekt zur effizienten und nachhaltigen Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen.
Effiziente und nachhaltige Aufbereitung von Prozesswasser aus Lithium-Ionen-Batterie-Recyclinganlagen
Mit der steigenden Anzahl von Elektrofahrzeugen fallen in der Folge mehr verbrauchte Traktionsbatterien an. Bei der ressourcenschonenden und effizienten Rückgewinnung von Batteriematerialien spielen das direkte Recycling und der Umgang mit Wasser für die Nachhaltigkeit dieser Technologie eine entsprechend große Rolle. »Wertvolle Batteriematerialien möglichst effizient zurückzugewinnen und Prozesswasser so zu reinigen, dass es im Kreislauf geführt werden kann, ist das Ziel im EWA-Projekt. Im Anschluss liegen die Materialien im Idealfall sortenrein vor und können direkt wieder zu neuen Batterien verarbeitet werden«, erklärt Michael Hofmann vom Fraunhofer ISC und Leiter des EWA-Teilprojekts Batterierecycling das Vorhaben.
Ausgangspunkt für die Projektarbeit ist das Verfahren der elektrohydraulischen Zerkleinerung – eine Entwicklung des Projektpartners Impulstec – womit die Batterien in einzelne Materialfraktionen zerlegt werden können. »In dem wasserbasierten Prozess entstehen grobe und feine Materialfraktionen sowie Stoffe, die in Lösung gehen. Um die wertvollen Batteriematerialien möglichst vollständig und getrennt abzuscheiden und das Prozesswasser von störenden Verunreinigungen zu befreien, waren wir auf der Suche nach geeigneten Aufbereitungsverfahren«, berichtet Robert Jüttner vom Recyclingspezialisten MAB Recycling. »Das EWA-Projekt kam da wie gerufen, um uns mit kompetenten Forschungspartnern und Technologieanbietern an einen Tisch zu setzen und gemeinsam an der Entwicklung einer effizienten Prozesswasserreinigung zu arbeiten«, ergänzt Jüttner. Die Prozesschemie beim Batterierecycling ist anspruchsvoll. Der Recyclingspezialist liefert als Rohmaterial das Prozesswasser und erhält im Gegenzug Analysenergebnisse und wichtiges Know-how, um die eigene Wasseraufbereitung voranzubringen. Mit den EWA-Partnern die Ergebnisse zu diskutieren und eine breite Wissens- und Erfahrungsbasis für die unterschiedlichen technischen Aspekte zur Verfügung zu haben, das sei einer der wesentlichen Vorteile bei EWA. »Das KMU akut-Projekt spart uns Zeit und Wege. Mit den Ergebnissen aus EWA haben wir schneller eine fundierte Basis für die Beurteilung der Wirtschaftlichkeit und die nötigen Informationen für die anlagentechnische Umsetzung«, ist Jüttner überzeugt.
Der dritte Industriepartner im Projekt ist die Firma CEPA, ein Hersteller von Industriezentrifugen. Das Unternehmen arbeitet schon seit geraumer Zeit gemeinsam mit der Fraunhofer-Gesellschaft in verschiedenen Forschungsprojekten an der Weiterentwicklung der Zentrifugentechnologie für anspruchsvolle Anwendungen. »Viele unserer Kunden haben wasserbasierte Prozesse und der verantwortungsvolle Umgang mit der Ressource Wasser wird immer wichtiger«, erklärt Felix Seiser, Projektleiter bei CEPA. Gemeinsames Ziel sei es, die Prozesswassermenge zu reduzieren und soweit wie möglich im Kreislauf zu führen. Die Aufgabe ist anspruchsvoll, denn gerade bei der zentrifugengestützten Auftrennung der unterschiedlichen Materialfraktionen erfordert der Prozess relativ geringe Konzentrationen, d. h. eine große Wassermenge. »Als Maschinenbauer mit der Expertise Feststoffseparation profitieren wir von dem Austausch mit den Forschungsinstituten und von den direkten Analysemöglichkeiten im Projekt. Was bisher vielleicht nur im Labormaßstab getestet wurde, kann jetzt mit dem vereinten Wissensschatz in einen größeren Prozessmaßstab überführt werden. Auf Workshop-Ebene mit allen Projektpartnern werden übergreifende Themen adressiert, bei regelmäßen Treffen auf Teilprojektebene lassen sich spezifische Fragestellung detaillierter bearbeiten. Damit schafft EWA einen guten Ausgangspunkt für uns und unser Ziel, Prozesswasser bei der Materialtrennung zu reduzieren und mit unserer Zentrifugentechnologie ein leistungsfähiges Verfahren zur Prozesswasseraufbereitung zu entwickeln«, beschreibt Seiser den Mehrwert der Zusammenarbeit.
Weitere EWA-Teilprojekte adressieren Wassernutzung und -reinigung bei der Lithiumgewinnung, Klärprozessen und Meerwasserentsalzung
Lithiumgewinnung durch elektrochemisches »Ion Pumping«
Die Lithium-Ionen-Batterie stellt die derzeit verbreitetste elektrische Speichertechnologie dar. Die immer größer werdende Nachfrage erfordert eine Steigerung der Lithiumproduktion und damit auch die Erschließung neuer Lithiumressourcen. Besonders die ressourcenschonende Lithiumgewinnung aus Sole bzw. hydrogeologischen Quellen stellt eine vielversprechende Alternative zur herkömmlichen Rohstoffgewinnung dar. Mithilfe des sog. elektrochemischen »Ion Pumping« Verfahrens lassen sich selektiv Lithium-Ionen aus wässrigen Lösungen extrahieren. Der Prozess wird im EWA Projekt auf realistische Industrieszenarien zur Lithiumgewinnung aus geothermischen Quellen angewandt und evaluiert.
Selektive Adsorption von Metallionen und Umweltschadstoffen
Magnetische Adsorberpartikel sind in der Lage (Schwer-)Metallionen und Schadstoffe wie Medikamentenrückstände selektiv und effizient aus Prozess- und Abwässern zu entfernen. Als Ausgangspartikel dienen Magnet- und Silicatpartikel, die mit einer großen Vielzahl an Adsorberreagenzien kombiniert werden können. Ein besonders effizienter und selektiver Adsorber für Umweltschadstoffe ist Alginit. Es handelt sich um ein spezielles, natürlich vorkommendes, recyclebares Mineral, das im Gegensatz zur derzeit verwendeten Aktivkohle kostengünstig ist und eine hohe Umweltverträglichkeit sowie sehr gute Abtrennleistung sowohl für hydrophile als auch hydrophobe Stoffe aufweist. Die geschickte Modifizierung von Alginit mit magnetischen Partikeln, sorgt dabei für eine gleichbleibend effiziente Adsorptionsleistung und garantiert darüber hinaus eine rückstandsfreie Abtrennung der Absorberpartikel aus den behandelten Abwässern. Der somit entstandene kostenreduzierte Prozess, mit hoher Nachhaltigkeit birgt großes Potenzial und stellt zukünftig eine valide Alternative zur Anwendung in Kläranlagen dar.
Direkte Meerwasserentsalzung durch elektrochemische Verfahren
Für die zukünftige Wasseraufbereitung gelten elektrochemische Verfahren aufgrund ihrer guten Reversibilität und Effizienz als besonders attraktiv. Durch die Verwendung von sogenannten Landungstransferelektroden, wie sie auch in elektrochemischen Energiespeichern eingesetzt werden, kann die Entsalzungskapazität im Vergleich zu thermischen Verfahren und der Umkehrosmose wesentlich erhöht werden. In dem Projekt Meerwasserentsalzung wird aufbauend auf der Expertise zur Zink-Luft-Batterietechnologie ein neuartiges Verfahren zur elektrochemischen Entsalzung von Meerwasser eruiert. Dabei gilt es sowohl geeignete Gasdiffusionselektroden als auch Katalysatoren sowie weitere Komponenten für den Aufbau eines Demonstrators in Form einer skalierbaren Zink-Luft-Entsalzungszelle zu identifizieren. Betrachtet wird dabei insbesondere die Möglichkeit einer direkten Meerwasserentsalzung für die Elektrolyse zur
Herstellung von grünem Wasserstoff.
Workshop »Effiziente Wasseraufbereitung« – gemeinsam schneller profitieren
Der EWA-Industrieworkshop bietet tiefere Einblicke in die vier laufenden Projekte und ermöglicht den direkten Austausch mit den beteiligten Fraunhofer-Instituten und Projektpartnern über Fragestellungen und Lösungsansätze rund um die schonende Nutzung der Ressource Wasser in Produktionsprozessen.
Termin: 4. November, 10:00 bis 14.30 Uhr
Programm und Anmeldung unter
https://www.wasseraufbereitung.fraunhofer.de/de/workshop.html
Wissenschaftliche Ansprechpartner:
Dr. Jens Glenneberg | Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM | Wiener Straße 12 | 28359 Bremen | Telefon 0421 2246-7341 | jens.glenneberg@ifam.fraunhofer.de | http://www.ifam.fraunhofer.de
Michael Hofmann | Fraunhofer-Institut für Silicatforschung ISC | Neunerplatz 2 | 97082 Würzburg | Telefon 0931 4100-228 | michael.hofmann@isc.fraunhofer.de | http://www.isc.fraunhofer.de
Weitere Informationen:
https://www.wasseraufbereitung.fraunhofer.de/
https://www.ifam.fraunhofer.de/
https://www.isc.fraunhofer.de/
Mit naturbasierten Lösungen zu mehr Hochwasserschutz
Hendrik Schneider Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Edward Ott forscht aktuell in der Nachwuchsgruppe PlanSmart am ZALF. Im Interview gibt er einen Einblick in den aktuellen Zustand der deutschen Flusslandschaft, naturbasierten Hochwasserschutz und wie der nachhaltige Umbau von Flusslandschaften gelingen kann.
Wie würden Sie den Zustand unserer Flusslandschaften in Deutschland insgesamt beschreiben?
Flusslandschaften in Deutschland werden sehr intensiv genutzt. Gemäß Auenzustandsbericht befinden sich 58% der Niederungsgebiete seitlich von Flüssen und Bächen in einem stark bzw. sehr stark veränderten Zustand. Sie sind ökologisch nicht mehr oder nur noch eingeschränkt funktionsfähig. Auch können sie nicht mehr einfach überflutet werden und so Hochwasser abmildern. Insgesamt sind in Deutschland zwei Drittel der ehemaligen Überschwemmungsflächen verloren gegangen, was das Risiko für schwerwiegende Hochwasserereignisse erhöht. Die verbliebenen heutigen Auenbereiche werden zu einem Drittel intensiv als Acker-, Siedlungs-, Verkehrs- und Gewerbefläche genutzt.
Welche Maßnahmen für den Hochwasserschutz ergeben sich aus Ihrer Forschung?
Mit unserer Forschung unterstützen wir die Planung und Umsetzung naturbasierter Lösungen, die auf eine Reihe gesellschaftlicher Herausforderungen abzielen. Dafür machen sie sich ökologische Prozesse zu Nutze. So halten sie zum Beispiel Nährstoff- und Pestizidbelastungen aus der Landwirtschaft zurück, vermeiden Erosion und tragen zur Landschaftsästhetik bei.
Für den Hochwasserschutz ist vor allem interessant, dass sie die natürliche Wasserrückhaltekapazität in Flusslandschaften erhöhen könnten. Das kann durch eine Anpassung der örtlichen Land- und Forstwirtschaft passieren oder bis hin zu Deichrückverlegungen in Kombination mit der Renaturierung der wiedererschlossenen Auen reichen. In Hochwasserentstehungsgebieten kann der natürliche Wasserrückhalt durch Moorrenaturierung, Gehölzpflanzungen, Uferstreifen an Flüssen und Bächen und die Anlage von naturnahen Rückhaltebecken und Teichen verbessert werden.
Was wäre am schnellsten umsetzbar?
Am schnellsten umsetzbar sind räumlich kleinere Maßnahmen wie Pflanzungen und Gewässerrandstreifen, naturnahe Rückhaltebecken und Teiche sowie eine auf den Wasserrückhalt ausgerichtete Bewirtschaftung von land- und forstwirtschaftlichen Flächen. Das müssen die lokalen Bedingungen aber auch zulassen. Es muss aber gesagt werden, dass bei solchen Extremereignissen, wie wir sie in Westdeutschland erlebt haben, solch kleinere Maßnahmen schnell erschöpft gewesen wären. Sie können lediglich einen kleinen Teil zum Hochwasserschutz beitragen und erst in der Summe ihr Potenzial entfalten. Komplexe, großräumige Maßnahmen, wie Auenrenaturierungen oder der Anschluss von Altwasserarmen, erfordern eine gesamtgesellschaftliche Anstrengung und haben in der Regel Planungshorizonte von zehn Jahren und mehr.
Was sind neben dem Hochwasserschutz die dringendsten Herausforderungen?
Neben dem Hochwasserschutz sind natürlich der Verlust der Artenvielfalt, die Anpassung an den Klimawandel sowie Nitratbelastungen des Grundwassers wichtige gesellschaftliche Herausforderungen, zu denen naturbasierte Lösungen einen wichtigen Beitrag leisten können. Besonders die durch den Klimawandel zunehmenden Extremwetterereignisse führen uns immer deutlicher vor Augen, dass dringender Handlungsbedarf besteht, unsere Flusslandschaften insgesamt widerstandfähiger zu gestalten.
Eine große Herausforderung aus planerischer Sicht besteht darin, naturbasierte Lösungen in der Planungspraxis stärker in den Fokus zu rücken, um den Transformationsprozess hin zu zukunftsfähigen Flusslandschaften für Mensch und Natur zu unterstützen.
Welche Akteure sind gefragt, wenn es um einen nachhaltigen Umbau unserer Flusslandschaften geht?
Da Flusslandschaften intensiv genutzte Bereiche sind, gibt es vielfältige, zum Teil miteinander im Widerspruch stehende Interessen, was sich auch in den Vorstellungen darüber widerspiegelt, wie die Flusslandschaften der Zukunft aussehen sollen. Naturbasierte Lösungen können hier einen Ausgleich schaffen, da sie die Ansprüche verschiedener Interessengruppen erfüllen. Die Planung von Entwicklungskonzepten für den Umbau unserer Flusslandschaften sollte diese unterschiedlichen Interessen berücksichtigen und dafür Wissensträger aus Politik und Praxis, Zivilgesellschaft und Forschung systematisch einbeziehen.
Wo können sich Akteure über Lösungsansätze aus der Forschung informieren?
Für die Planung und Umsetzung naturbasierter Lösungen stehen inzwischen vielfältige Informationen zur Verfügung, die das Ergebnis verschiedenster Forschungsprojekte sind. So stellt beispielsweise das Naturvation-Projekt für den Einsatz naturbasierter Lösungen im urbanen Raum ein umfangreiches Instrumentarium zur Verfügung. Für den Kontext der Flusslandschaft hat unsere Arbeitsgruppe PlanSmart vor kurzem ein Handbuch für Praktikerinnen und Praktiker veröffentlicht, welches kostenfrei als PDF über unsere Website oder beim Oekom-Verlag heruntergeladen werden kann. Das Handbuch erklärt die Schritte und Prinzipien unseres integrativen Planungsansatzes, stellt unsere Fallstudie LiLa – Living Lahn vor und enthält eine umfangreiche Methodensammlung zur Gestaltung von Planungsprozessen. Außerdem bieten wir über unsere Website ein interaktives Toolkit an, welches die im Handbuch dargestellten Planungsschritte und -prinzipien übersichtlich und kompakt aufbereitet.
Das Oppla-Repositorium der Europäischen Union bietet einen umfangreichen Überblick zu naturbasierten Lösungen weltweit und stellt eine Plattform zum Wissensaustausch zur Verfügung.
Wo braucht es mehr Forschung?
Unsere Forschungsgruppe hat bereits viel dazu beigetragen, Planungsprozesse für naturbasierte Lösungen besser zu verstehen und zu gestalten. Es bestehen aber weiterhin Wissenslücken dahingehend, ob und wie naturbasierte Lösungen in der Landschaftsplanung charakterisiert, berücksichtigt und erfolgreich umgesetzt werden können. Interessante Forschungsfragen in dieser Hinsicht sind zum Beispiel: Wie müssen die institutionellen Rahmenbedingungen aussehen, damit naturbasierte Lösungen stärker berücksichtigt werden? Wie müssen Finanzierungsinstrumente ausgestaltet werden? Welche Präferenzen und Risikoeinschätzungen hinsichtlich der Berücksichtigung naturbasierter Lösungen liegen bei Entscheidungsträgerinnen und –trägern vor? Wir brauchen also auch in der Zukunft trans- und interdisziplinäre Forschungsprojekte, die sich gezielt mit solchen Fragestellungen befassen.
Wissenschaftliche Ansprechpartner:
Edward Ott, Edward.Ott@zalf.de
Originalpublikation:
https://www.zalf.de/de/aktuelles/Seiten/PB2/Naturbasierter-Hochwasserschutz.aspx
Anhang
Pressemitteilung: Mit naturbasierten Lösungen zu mehr Hochwasserschutz
Der Klimawandel im Grundwasser: Neues Forschungsprojekt der TU Freiberg untersucht Transport von Mikroorganismen
Philomena Konstantinidis Pressestelle
Technische Universität Bergakademie Freiberg
Wie sich Bakterien, Viren und Antibiotikaresistenzgene im Grundwasser verbreiten, wenn sich die Wasserqualität verändert, erforscht ein Team um Hydrogeologe Prof. Traugott Scheytt von der TU Bergakademie Freiberg in den kommenden drei Jahren am Beispiel der Gallusquelle bei Hermetingen in der Schwäbischen Alb.
„Messungen haben ergeben, dass der Klimawandel zu weniger Wasser und schlechterer Wasserqualität des Grundwassers führt. Vor allem bei Starkregenereignissen sind dann stärkere mikrobielle Verunreinigungen durch Bakterien möglich“, sagt Prof. Traugott Scheytt vom Lehrstuhl für Hydrogeologie und Hydrochemie der TU Bergakademie Freiberg. Mit seinem Team möchte er die Ausbreitung von mikrobiologischen Verunreinigungen im Grundwasser nun in einem neuen Forschungsprojekt systematisch erfassen. „Das ist wichtig, um geeignete Gegenmaßnahmen ergreifen zu können.“
Dafür bringen die Forschenden in Geländeuntersuchungen auf der Schwäbischen Alb gezielt nicht-pathogene Mikroorganismen ins Grundwasser ein und analysieren, wie sie auf einer Strecke von drei bis 12 Kilometern durch den Untergrund fließen. „In einigen Experimenten werden die Mikroorganismen mehrere Tage durch den Grundwasserleiter transportiert bevor sie wieder zu Tage treten“, schätzt Prof. Traugott Scheytt. „Auf diese Weise können wir bei potenziellen Kontaminationsereignissen auftretende Bakterien, Viren und Antibiotikaresistenzgene aufspüren, Quellen identifizieren und daraus Rückschlusse auf die Mobilität der Mikroorganismen ziehen“, erklärt der Hydrogeologe.
Hintergrund: Forschungsprojekt PrePat
Das Verbundprojekt „Development and application of non-pathogens and extracellular DNA for predicting transport and attenuation of pathogens and antibiotic resistance genes in groundwater“ hat zum Ziel, das Verständnis des Transportes von Bakterien, Viren und Antibiotikaresistenzgenen im Grundwasser zu verbessern. Projektpartner sind neben der TU Bergakademie Freiberg das TZW: DVGW-Technologiezentrum Wasser in Karlsruhe sowie die TU Berlin. Es sind drei Professoren, drei Post-Docs und eine Doktorandin an den Arbeiten beteiligt. Die Deutsche Forschungsgemeinschaft DFG fördert das Vorhaben mit rund 450.000 € über eine Laufzeit von 3 Jahren. Anschlussprojekte und ergänzende Projekte sind bereits in Planung.
TU Bergakademie Freiberg: Prof. Scheytt (Hydrogeologie und Hydrochemie)
TZW: DVGW-Technologiezentrum Wasser: Prof. Tiehm, Frau Stelmaszyk (Umweltbiotechnologie)
TU Berlin: Dr. Schiperski (Angewandte Geochemie), Prof. Szewzyk, Dr. Braun (Umweltmikrobiologie)
Wissenschaftliche Ansprechpartner:
Prof. Traugott Scheytt; traugott.scheytt@geo.tu-freiberg.de
Wenn KI hilft, die Landwirtschaft nachhaltiger zu gestalten
Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Neues Projekt unter Beteiligung des JKI trägt dazu bei, große Datenmengen aus der Landwirtschaft mittels künstlicher Intelligenz effizient auszuwerten und nutzbar zu machen.
(Braunschweig/Kleinmachnow) In der Landwirtschaft fallen mittlerweile immense Datenmengen an. Sie werden durch landwirtschaftliche Maschinen, mittels Fernerkundung durch Satelliten oder Drohnen, mittels Bodensensoren, durch Wetterstationen oder auch immer noch manuell erhoben. Will man diese durchaus wertvolle und große Datenmenge, auch BigData genannt, einem praktischen Nutzen zuführen, um etwa die Landwirtschaft an die Herausforderung des Klimawandels anzupassen oder nachhaltiger zu wirtschaften, müssen die Daten effizient ausgewertet werden. „Ein wichtiges Werkzeug dazu ist Künstliche Intelligenz (KI), also selbstlernende Systeme, und auch die Data-Cube-Technologie“, erklärt Dr. Heike Gerighausen vom Forschungszentrum für Landwirtschaftliche Fernerkundung des Julius Kühn-Instituts (JKI) in Braunschweig. Hier setzt das neue Projekt NaLamKI (Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz) an, an dem das JKI beteiligt ist.
Entstehen soll eine cloudbasierte Plattform mit offenen Schnittstellen für Anbieter aus dem vor- und nachgelagerten Bereich der Landwirtschaft, der Industrie, sowie für Serviceanbieter von Spezialanwendungen im Pflanzenbau. Die Cloud ist dabei als Software as a Service (SaaS) Lösung konzipiert, so dass Anwender Software und IT-Ressourcen als Dienstleistung nutzen können und lediglich einen internetfähigen Computer und eine schnelle Internetanbindung benötigen.
Darüber hinaus soll die Plattform GAIA-X konform umgesetzt werden. Dadurch wird es möglich, nicht nur zentrale, sondern auch dezentrale Cloud-Anbieter und Anwender einzubeziehen ohne deren Datensouveränität zu gefährden. NaLamKI wird damit mittelfristig auch kompatibel mit der europäischen Dateninfrastruktur sein.
Dieser Ansatz und die enge Kooperation zwischen Wirtschaft und Wissenschaft führte dazu, dass sich das Projekt im Innovationswettbewerb „Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme“ des Bundesministeriums für Wirtschaft und Energie (BMWI) durchsetzen konnte und als förderwürdig befunden wurde. Das Fördervolumen beträgt ca. 9,8 Mio. Euro. Neben dem Wirtschaftspartner John Deere, der das NaLamKI-Konsortium koordiniert, sind das Deutsche Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer Heinrich-Hertz-Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, Technische Universität Kaiserslautern, die Universität Hohenheim sowie das JKI mit zwei Fachinstituten an den Standorten Braunschweig und Kleinmachnow beteiligt.
In dem vom JKI bearbeiteten Teilvorhaben MussIF (Multiskalige und multisensorale Informationsgewinnung aus Fernerkundungsdaten) werden die Forschenden analysieren, welche Auswertungsmöglichkeiten KI bei landwirtschaftlichen BigData-Verarbeitungen bietet. Über Fernerkundungssysteme sollen Datenprodukte für das Monitoring landwirtschaftlicher Kulturpflanzenbestände generiert werden, durch die eine nachhaltigere und ressourceneffizientere Bewirtschaftung erzielt werden kann. „Wir werden uns mit Methoden der Datenfusion und neuesten KI-Methoden beschäftigen, um flächendeckend aktuelle Informationen zum Zustand des Pflanzenbestandes, z.B. dem Entwicklungsstadium, der Biomasse oder dem Blattflächenindex sowohl aus Radar-Systemen als auch aus optischen Sensoren (Stichwort: Sentinel1+2/Copernicus) mit unterschiedlicher räumlicher und zeitlicher Auflösung abzuleiten“, erläutert Dr. Gerighausen. Die generierten Satellitenbilddaten und ‐datenprodukte werden zusammengeführt und über standardisierte Schnittstellen als GAIA‐X konforme Webdienste zur Verfügung gestellt. Dazu arbeiten unter dem Dach des Forschungszentrums für Landwirtschaftliche Fernerkundung des JKI Forschende des Fachinstituts für Pflanzenbau und Bodenkunde sowie des Fachinstituts für Strategien und Folgenabschätzung zusammen.
Info zu GAIA-X:
GAIA-X ist ein Projekt zum Aufbau einer leistungs- und wettbewerbsfähigen, sicheren und vertrauenswürdigen Dateninfrastruktur für Europa, das von Vertretern aus Wirtschaft, Wissenschaft und Verwaltung aus Deutschland und Frankreich, gemeinsam mit weiteren europäischen Partnern getragen wird.
Eckdaten zum Projekt:
NaLamKI – Nachhaltige Landwirtschaft mittels Künstlicher Intelligenz
Kooperationspartner: John Deere GmbH & Co. KG (Koordination), Deutsches Forschungszentrum für Künstliche Intelligenz, NT Neue Technologien AG, Fraunhofer‐Institut für Nachrichtentechnik Heinrich‐Hertz‐Institut, OptoPrecision GmbH, Planet Labs Germany GmbH, Robot Makers GmbH, TU Kaiserslautern, Universität Hohenheim
Assoziierte Partner: DLG, Hofgut Neumühle, Förderverein Digital Farming
Fördervolumen: ca. 9,8 Mio. Euro für den gesamten Verbund, davon ca. 879.075 Euro für das JKI.
Mittelgeber: BMWi (Projektträger DLR-PT)
Laufzeit: 01.01.2021 – 31.12.2023, FKZ: 01MK21003E
Wissenschaftliche Ansprechpartner:
Wissenschaftliche Ansprechpartner am JKI:
Dr. Heike Gerighausen
JKI-Fachinstitut für Pflanzenbau und Bodenkunde
Tel.: +49 (0) 531 596 2107
E-Mail: heike.gerighausen@julius-kuehn.de
Dr. Burkhard Golla
JKI-Fachinstitut für Strategien und Folgenabschätzung
Tel.: +49 (0) 33203 48 325
E-Mail: burkhard.golla@julius-kuehn.de
Die Umgestaltung der betrieblichen Mobilität erfolgreich meistern
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Eine digitale Mobilitätsplattform unterstützt Betriebe beim nachhaltigen Management ihrer Mobilität
Nach vier Jahren Laufzeit ist das Projekt »Eco Fleet Services« erfolgreich abgeschlossen worden. Am 4. Oktober stellte das Projektteam unter Leitung des Anwendungszentrums KEIM des Fraunhofer IAO die Ergebnisse in Heidelberg vor. Das Fazit: Wollen Betriebe ihre Mobilität nachhaltiger gestalten, so gilt es systematisch vorzugehen und eine digitale Mobilitätsplattform zu nutzen.
Ein Reifegradmodell, das die Bewertung der eigenen betrieblichen Mobilität ermöglicht. Eine Mobilitätsplattform, die den eigenen Fuhrpark mit flexiblen und nachhaltigen Angeboten, wie Carsharing-Fahrzeugen und Leihrädern vereint – und das alles unter Verwendung von Open-Source-Komponenten. Diese konkreten Ergebnisse aus vier Jahren »Eco Fleet Services« wurden am 4. Oktober in Heidelberg sowie im Livestream der Öffentlichkeit präsentiert. Durch die in »Eco Fleet Services« entwickelten Instrumente und digitalen Lösungen wird es Kommunen und Unternehmen erleichtert, ihre Mobilität nachhaltig und dynamisch zu gestalten. »Mit ihrer betrieblichen Mobilität setzen Arbeitgeber Maßstäbe und prägen damit auch das Verhalten ihrer Mitarbeitenden. Damit leisten sie einen wichtigen Beitrag zur Bewältigung urbaner Herausforderungen, wie der Luftreinhaltung oder der Überlastung des Verkehrs«, sagte Dr. Patrick Rapp, Staatssekretär im Wirtschaftsministerium Baden-Württemberg.
Bausteine für eine nachhaltige betriebliche Mobilität
Gemeinsam mit Partnern setzte das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO mit dem Projekt »Eco Fleet Services« hier an, um ein intelligentes Management betrieblicher Mobilität zu ermöglichen. Die betriebliche Mobilität beinhaltet dabei alle Dienstreisen sowie Dienstgänge der Mitarbeitenden. Ein wesentliches Projektziel stellte die Entwicklung und Erprobung einer Mobilitätsplattform dar, die den wirtschaftlichen Einsatz von Elektrofahrzeugen sowie die bequeme Buchung nachhaltiger Reisemittel ermöglicht. Eine Studie zum Status Quo der betrieblichen Mobilität in über 100 Kommunen ergab Ansatzpunkte für die Gestaltung einer nachhaltigen, betrieblichen Mobilität. Ergänzend dazu entstand ein Reifegradmodell, anhand dessen Betriebe und Kommunen ihr Mobilitätsmanagement bewerten, Potenziale finden und Maßnahmen planen können. Die Erprobung der Mobilitätsplattform mit der Stadt Heidelberg dauerte insgesamt 18 Monate und brachte viele aufschlussreiche Erkenntnisse zutage. So zeichnete sich ein sehr positives Bild bezüglich der komfortablen Buchungsprozesse in Kombination mit dem digitalen Schlüsseltresor ab. Insbesondere jüngere Teilnehmende begrüßten den Umstieg auf die digitale Mobilitätsplattform sehr und erlernten den Umgang damit schnell.
Vorausschauende Planung führt zum Erfolg
Der Weg zu einer nachhaltigen betrieblichen Mobilität stellt viele Betriebe vor Herausforderungen. Um Misserfolge zu vermeiden, so betont Projektleiter Stefan Schick vom Anwendungszentrum KEIM des Fraunhofer IAO, sei es zwingend notwendig, systematisch vorzugehen und die Transformation mit den durchzuführenden Maßnahmen vorauszuplanen. »Einen Erfolgsfaktor bilden auch immer die Menschen, die solche Maßnahmen in den Betrieben planen und vorantreiben«, so Stefan Schick. »Deshalb ist es wesentlich, Verantwortliche zu bestimmen und die Mitarbeitenden auf dem Weg in Richtung einer nachhaltigeren und effizienteren Mobilität mitzunehmen.«
Ein Leitfaden mit Handlungsempfehlungen
Das Projekt »Eco Fleet Services« wurde vom baden-württembergischen Wirtschaftsministerium mit rund einer Million Euro gefördert. »Eco Fleet Services« startete im September 2017 und lief über vier Jahre. Handlungsempfehlungen für Unternehmen und Kommunen hat das Anwendungszentrum KEIM des Fraunhofer IAO in einem Leitfaden zusammengefasst. Darin werden konkrete Lösungselemente und Maßnahmen vorgestellt. Mithilfe derer gelingt es Betrieben nicht nur die Weiterentwicklung ihrer Mobilität anzustoßen, sondern diese auch kontinuierlich zu optimieren.
Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de
Wissenschaftliche Ansprechpartner:
Stefan Schick
Anwendungszentrum KEIM
Fraunhofer IAO
Flandernstraße 101
73732 Esslingen am Neckar
Telefon +49 711 970-2252
stefan.schick@iao.fraunhofer.de
Originalpublikation:
Leitfaden der nachhaltigen betrieblichen Mobilität
Praxistipps und Handlungsempfehlungen aus dem Projekt „Eco Fleet Services“.
Cristescu, Anamaria; Schick, Stefan; Reichsöllner, Emanuel. Stuttgart: Fraunhofer IAO, 2021, 18 pp.
http://publica.fraunhofer.de/documents/N-640471.html
Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/die-umgestaltung-de…
https://www.ecofleetservices.de/
https://blog.iao.fraunhofer.de/tag/eco-fleet-services/
Hitzewellen im Meer haben drastische Folgen für Fischerei
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Marine Hitzewellen in stark befischten Gewässern werden in Zukunft negative Auswirkungen haben für die Fischbestände, den Fischfang und alle Menschen, die davon abhängig sind. Dies zeigt eine neue Studie unter der Leitung der University of British Columbia, an der auch Thomas Frölicher von der Universität Bern beteiligt war.
Wenn in einer bestimmten Meeresregion die Wassertemperatur über eine längere Zeitspanne ungewöhnlich hoch ist, spricht man von einer marinen Hitzewelle (Meereshitzewelle). Solche Hitzewellen verursachten in den letzten Jahren grosse Veränderungen in den Ökosystemen im offenen Meer und an der Küste.
In einer neuen Studie unter der Leitung des Institute for the Oceans and Fisheries (IOF) der University of British Columbia (UBC, Kanada) haben Forschende die Auswirkungen von marinen Hitzewellen in ein Modell einbezogen, das klimabezogene Prognosen erstellt sowohl für Fischbestände, den Fischfang als auch die davon abhängigen Menschen in sogenannten «Ausschliesslichen Wirtschaftszonen» (AWZ), in denen der Grossteil des weltweiten Fischfangs betrieben wird. Ebenfalls beteiligt an der Studie, die soeben in der Fachzeitschrift Science Advances veröffentlicht wurde, ist Thomas Frölicher, Professor für Ozeanmodellierung an der Universität Bern. In einem Worst-Case-Szenario, bei dem keine Massnahmen zur Eindämmung der Treibhausgasemissionen ergriffen werden, prognostizieren die Forschenden aufgrund mariner Hitzewellen einen Rückgang der potenziellen Fangmenge um 6 Prozent pro Jahr und einen Rückgang der Biomasse (d. h. der gewichtsmässigen Fischmenge in einem bestimmten Gebiet) bei 77 Prozent der befischten Fischarten und wirbellosen Tiere. Dieser Rückgang kommt zu demjenigen hinzu, der aufgrund des langfristigen Klimawandels erwartet wird.
Extremereignisse könnten Millionen von Arbeitsplätzen kosten
Einige Gebiete werden stärker betroffen sein als andere. Zum Beispiel gehen die Forschenden davon aus, dass im indonesischen Fischereisektor fast drei Millionen Arbeitsplätze verloren gehen könnten, wenn dort zwischen 2000 und 2050 eine marine Hitzewelle eintritt. Weltweit gesehen prognostizieren die Forschenden bei extremen Temperaturereignissen in den Ozeanen, dass die Einnahmen der Fischerei durchschnittlich drei Prozent und die Beschäftigung um zwei Prozent zurückgehen könnten, was einem potenziellen Verlust von Millionen von Arbeitsplätzen gleichkäme.
Überlastung des Systems wie bei Coronavirus
«Diese extremen jährlichen Temperaturen werden ein zusätzlicher Schock für ein ohnehin schon überlastetes System sein», sagt Studien-Erstautor William Cheung, Direktor des Institute for the Oceans and Fisheries der UBC, der 2019 während vier Monate an der Universität Bern in einem Sabbatical tätig war. «In den Ländern, in denen die Fischerei bereits durch langfristige Veränderungen wie die Erwärmung der Ozeane und den Sauerstoffmangel geschwächt ist, kann ein zusätzlicher Schock durch Temperaturextreme die Anpassungsfähigkeit dieser Fischereien überfordern. Es ist nicht unähnlich, wie COVID-19 das Gesundheitssystem durch eine zusätzliche Belastung an die Grenzen bringt.»
Thomas Frölicher, Assistenzprofessor in der Abteilung Klima und Umweltphysik des Physikalischen Instituts und Mitglied des Oeschger-Zentrums für Klimaforschung der Universität Bern, war insbesondere bei der Ausarbeitung der Idee und des Studiendesigns an der Publikation beteiligt. Die Studie knüpft an bisherige Arbeiten seiner Forschungsgruppe an (siehe Beispiele hier und hier). Laut Frölicher werden marine Hitzwellen in Zukunft häufiger auftreten. «Hitzewellen im Meer und die schwerwiegenden Auswirkungen, die sie bereits heute auf die Fischerei haben, sind Vorboten für die Zukunft. Solche Extremereignisse verändern die Umweltbedingungen innert Kürze so stark wie der langfristige Klimawandel in Jahrzehnten.»
Anpassungen in der Fischerei nötig
«Diese Studie unterstreicht die Notwendigkeit, Wege zu entwickeln, um mit den extremen Meerestemperaturen umzugehen, und zwar bald», sagt Cheung. Die Forschenden legen ein aktives Fischereimanagement nahe: Zu den möglichen Anpassungen gehören die Reduzierung der Fangquoten in den Jahren, in denen die Fischbestände unter extremen Temperaturereignissen leiden, oder in schweren Fällen ein Unterbruch der Fischerei, damit sich die Bestände wieder erholen können. Gemäss den Forschenden wird es zudem wichtig sein bei der Entwicklung solcher Anpassungsoptionen mit den Betroffenen zusammenzuarbeiten, da einige Entscheidungen die Auswirkungen auf die Lebensgrundlagen der Menschen sowie auf die Nahrungsmittel- und Ernährungssicherheit verschärfen könnten.
Wissenschaftliche Ansprechpartner:
Prof. Thomas Frölicher
Physikalisches Institut der Universität Bern, Klima- und Umweltphysik (KUP)
Tel. +41 (0)31 631 86 64
thomas.froelicher@climate.unibe.ch
Originalpublikation:
William W. L. Cheung, Thomas L. Frölicher, Vicky W. Y. Lam, Muhammed A. Oyinlola, Gabriel Reygondeau, U. Rashid Sumaila, Travis C. Tai, Lydia C. L. Teh, Colette C. C. Wabnitz. Marine high temperature extremes amplify the impacts of climate change on fish and fisheries. Science Advances, 2021; 7: 1 October 2021. Doi: 10.1126/sciadv.abh0895.
Biologie: Entscheidender Schritt bei der Umwandlung von Biomasse in Methan identifiziert
Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Forschende finden das enzymatische Glied bei der Bildung von Methan aus Fettsäuren durch kooperierende Mikroorganismen
Die mikrobielle Produktion von Methan aus organischem Material ist ein wesentlicher Prozess im globalen Kohlenstoffkreislauf und eine wichtige Quelle für erneuerbare Energie. Dieser natürliche Vorgang beruht auf einer kooperativen Interaktion zwischen unterschiedlichen Mikroorganismen-Typen: den gärenden Bakterien und den methanbildenden Archaeen. Erstere wandeln sogenannte primäre Fermentationsprodukte aus dem Biomasseabbau um, unter anderem Fettsäuren in Zwischenprodukte wie Essigsäure, Ameisenäure oder H2. Aus diesen können dann spezialisierte Archaeen Methan bilden. Diese Interaktion fermentierender Bakterien mit methanbildenden Archaeen ist entscheidend für die weltweit relevante Bildung von Methan aus Biomasse. Doch bisher konnten Wissenschaftler*innen nicht klären, wie die Oxidation gesättigter Fettsäuren mit der thermodynamisch äußerst ungünstigen Reduktion von CO2 zu Methan gekoppelt werden kann und wie ein solcher Prozess das Wachstum beider beteiligten Mikroorganismen ermöglichen kann. Ein Forschungsteam der Universität Freiburg, der Technischen Universität Darmstadt und der Universität Bern/Schweiz um Prof. Dr. Matthias Boll vom Institut für Biologie II der Albert-Ludwigs-Universität konnte nun einen entscheidenden Schritt in diesem Prozess aufdecken: Sie fanden das fehlende enzymatische Glied und dessen Funktion, wodurch die Methanbildung aus Fettsäuren energetisch erst nachvollziehbar wird. Ihre Erkenntnisse veröffentlichten die Forschenden im Fachmagazin Proceedings of the National Academy of Sciences.
Untersuchung einer Oxidoreduktase
Die Wissenschaftler*innen untersuchten eine bisher nicht charakterisierte membrangebundene Oxidoreduktase (EMO) aus dem gärenden Bakterium Syntrophus aciditrophicus. Dabei lieferten sie die biochemischen Hinweise dafür, dass die Häm-b-Cofaktoren dieser membrangebundenen Oxidoreduktase und ein modifiziertes Chinon mit perfekt aufeinander abgestimmten Redoxpotentialen die Hauptakteure in diesem mikrobiellen Prozess sind. Bioinformatische Analysen deuten zudem darauf hin, dass diese Oxidoreduktasen in Prokaryoten – Lebewesen wie Bakterien und Archaeen, deren Zellen keinen Zellkern aufweisen – weit verbreitet sind. „Die Ergebnisse schließen nicht nur unsere Wissenslücke bei der Umwandlung von Biomasse in Methan“, erklärt Boll. „Wir könnten darüber hinaus EMOs als bislang übersehene Schlüsselkomponenten des Lipidstoffwechsels in der überwiegenden Mehrzahl aller Mikroorganismen identifizieren.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Boll
Institut für Biologie II
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2649
E-Mail: matthias.boll@biologie.uni-freiburg.de
Originalpublikation:
Agne, M., Estelmann, S., Seelmann, C. S., Kung, J., Wilkens, D., Koch, H.-G., van der Does, C., Albers, S., von Ballmoos, C., Simon, J., Boll, M. (2021): The missing enzymatic link in syntrophic methane formation from fatty acids. In: Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.2111682118
Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/biologie-entscheidender-schritt-bei-der-u…
Übergewicht − Sind Frauen dabei gesünder als Männer?
Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Stark adipöse Frauen sind weniger durch Begleiterkrankungen des Herzens und Stoffwechsels gefährdet als gleichaltrige, ebenfalls übergewichtige Männer. Dies zeigt eine aktuelle Studie aus Regensburg, die gestern im Rahmen der Herztage 2021 der Deutschen Gesellschaft für Kardiologie vorgestellt wurde.
Bei Frauen und Männern setzt sich Fett an unterschiedlichen Körperstellen an. Bei Frauen sind dies eher die Hüften und das Gesäß an, bei Männern eher der Bauch. Obwohl Frauen einen höheren Körperfettanteil aufweisen, haben sie ein geringeres Risiko an Herz- und Stoffwechselstörungen zu erkranken als Männer im gleichen Alter – die Gründe hierfür sind bisher noch nicht vollständig geklärt.
Dies scheint daran zu liegen, wie unterschiedliche Männer und Frauen Fettreserven speichern: Frauen eher unter der Haut (subkutan), Männer eher in Organnähe (viszeral). Dieses viszerale Fett hat Auswirkungen auf den Stoffwechsel und fördert Entzündungen. Es scheint aber noch weitere Faktoren zu geben. Die Regensburger „Weight Reduction and Remodeling“ Studie unter der Leitung von Prof. Dr. Andrea Bäßler hatte das Ziel, geschlechterspezifische Unterschiede beim Risiko für Herz- und Stoffwechselerkrankungen bei sehr adipösen Patient*innen zu untersuchen.
Frauen hatten unabhängig davon, ob sie adipös waren, einen wesentlich höheren Körperfettanteil als Männer. Dennoch wiesen Männer deutlich häufiger Zucker- und Fettstoffwechselstörungen sowie Bluthochdruck – zusammengenommen als metabolisches Syndrom bezeichnet– auf als Frauen. Besonders stark waren die Unterschiede bei Menschen unter 40 Jahren – 73 Prozent der Männer und nur 37 Prozent der Frauen waren in dieser Altersgruppe betroffen. Adipöse Proband*innen, die außer der Adipositas keine weiteren Kriterien des Metabolischen Syndroms erfüllten, wurden als „gesunde Adipöse“ klassifiziert. Die Gruppe der „gesunden Adipösen“ war bei den adipösen Männern quasi nicht vorhanden: nur 4 Prozent der Männer waren tatsächlich „nur“ adipös, hingegen erfüllten 16 Prozent der Frauen die Kriterien.
Dr. Christina Strack vom Universitätsklinikum Regensburg fasst das Ergebnis folgendermaßen zusammen: „Zusammenfassend weisen vor allem jüngere Männer trotz identischem BMI deutlich häufiger eine krankhafte Adipositas auf als gleichaltrige Frauen. Insbesondere die bei Männern vorhandene abdominelle Fettakkumulation scheint hierbei, neben weiteren Faktoren, eine wichtige Rolle zu spielen.“
Um alle Gründe für dieses unterschiedliche Risiko zu ergründen, sind noch weitere Studien erforderlich. Bei der Studie wurden bei 356 Adipositas-Patient*innen und 76 Personen einer nicht adipösen Vergleichsgruppe, Faktoren wie Körperform, Alter, Alkoholkonsum, Bewegung und Ernährung berücksichtigt.
Medienkontakt:
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressesprecher: Prof. Dr. Michael Böhm
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13 presse@dgk.org
Die Deutsche Gesellschaft für Kardiologie –Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit fast 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter http://www.dgk.org
Wichtige Informationen für Nicht-Mediziner stellt die DGK auf den Seiten ihres Magazins „HerzFit-macher“ zusammen: http://www.herzfitmacher.de
Weitere Informationen:
http://www.dgk.org/presse
Die seismische Chronik einer Sturzflut
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die wissenschaftliche Beschreibung des katastrophalen Bergsturzes vom 7. Februar 2021 im indischen Dhauli-Ganga-Tal liest sich wie ein gerichtsmedizinischer Bericht. Ein Bergsturz und die anschließende Flut hatten mindestens hundert Menschen getötet und zwei Wasserkraftwerke zerstört. In der Fachzeitschrift Science vom 1.10.2021 zeichnen Forschende des Deutschen GeoForschungsZentrums (GFZ) gemeinsam mit Kolleg*innen des Nationalen Geophysikalischen Forschungsinstituts Indiens (NGRI) die Katastrophe anhand der Daten eines Netzes von Seismometern Minute für Minute nach. Dem Team zufolge könnten seismische Netzwerke genutzt werden, um ein Frühwarnsystem für Hochgebirgsregionen einzurichten.
Obwohl der endgültige Auslöser des massiven Bergsturzes, der in einer Höhe von mehr als 5500 Metern begann, nach wie vor ungeklärt ist, ist eines sicher: Am Sonntag, 7. Februar 2021, um kurz vor halb elf Uhr vormittags, begannen mehr als 20 Millionen Kubikmeter Eis und Gestein ins Tal des Ronti Gad zu stürzen. Seismometer registrierten das Signal um 10:21 Uhr und 14 Sekunden Ortszeit. 54 Sekunden später traf die Masse in 3730 Metern Höhe auf den Talboden und verursachte einen Aufprall, der einem Erdbeben der Stärke 3,8 entsprach. Im Tal mobilisierte die Mischung aus Gestein und Eis Schutt und zusätzliches Eis, das sich – vermischt mit Wasser – als gigantischer Murgang durch die Täler der Flüsse Ronti Gad und Rishi Ganga wälzte. Erstautorin Kristen Cook vom GFZ schätzt, dass die Masse zunächst mit fast 100 Kilometern pro Stunde bergab schoss; nach etwa zehn Minuten verlangsamte sich die Bewegung auf knapp 40 Kilometer pro Stunde.
Um 10:58 Uhr und 33 Sekunden erreichte die Flut eine wichtige Straßenbrücke bei Joshimath. Innerhalb von Sekunden stieg das Wasser dort um 16 Meter. Dreißig Kilometer weiter unten im Tal verzeichnete die Pegelstation Chinka einen Sprung des Wasserstandes um 3,6 Meter, und weitere sechzig Kilometer weiter stieg der Pegel noch um einen Meter.
Auf der Grundlage der von den seismischen Stationen aufgezeichneten Bodenerschütterungen identifizierten Forschende aus den drei GFZ-Sektionen Geomorphologie, Erdbebengefährung und dynamische Risiken sowie Erdbeben- und Vulkanphysik gemeinsam mit den Kolleg*innen des NGRI drei verschiedene Phasen der Flutkatastrophe. Phase 1 war der Bergsturz und sein massiver Aufschlag auf den Talboden. Es folgte Phase 2 mit der Mobilisierung enormer Materialmengen – Eis, Geröll, Schlamm –, die eine verheerende Wand aus Material bildeten, die durch ein enges und gewundenes Tal raste. In dieser Phase blieb viel Material zurück und die Energie nahm rasch ab. Diese Phase dauerte etwa dreizehn Minuten. Phase 3 (fünfzig Minuten Dauer) war eher flutartig, mit gewaltigen Wassermassen, die flussabwärts flossen und große Felsbrocken von bis zu 20 m Durchmesser mit sich führten.
Die wichtigste Erkenntnis: „Die Daten der seismischen Instrumente eignen sich als Grundlage für ein Frühwarnsystem, das vor dem Eintreffen solcher katastrophalen Murgänge warnt“, sagt Niels Hovius, Letztautor der Studie in Science (1.10.2021) und kommissarischer wissenschaftlicher Vorstand des Deutschen GeoForschungsZentrums GFZ. Ein weiterer wichtiger Punkt ist die Verfügbarkeit eines dichten seismischen Netzes, wie es von indischen Forschenden am Indian National Geophysical Research Institute (NGRI) betrieben wird. Hovius‘ Kollegin Kristen Cook, Erstautorin der Studie, fügt hinzu: „Die verfügbare Vorwarnzeit für Standorte in Tälern hängt von der Entfernung und der Geschwindigkeit der Strömungsfront flussabwärts ab.“ Joshimath zum Beispiel, wo der Flusspegel während des Hochwassers um 16 Meter anstieg, lag 34,6 km flussabwärts vom Erdrutsch. Kristen Cook: „Das bedeutet, dass die Menschen in und um Joshimath etwa eine halbe Stunde vor dem Eintreffen der Flut gewarnt worden sein könnten.“ Für weiter flussaufwärts gelegene Regionen, in denen die Welle nur wenige Minuten nach dem Erdrutsch eintraf, hätte die Zeit möglicherweise immer noch ausgereicht, um Kraftwerke abzuschalten.
Warum also gibt es ein solches Warnsystem nicht schon lange? Fabrice Cotton, Leiter der Sektion Erdbebengefährdung und Risikodynamik, sagt: „Das Problem sind die unterschiedlichen Anforderungen an seismische Messstationen, die dazu führen, dass viele Stationen in unseren weltweiten und regionalen Erdbebennetzen weniger geeignet sind, um Felsstürze, Murgänge oder große Überschwemmungen zu erkennen. Gleichzeitig helfen Stationen, die Hochwasser und Murgänge in ihrer unmittelbaren Umgebung überwachen sollen, nicht so gut bei der Erkennung von Ereignissen in der Ferne.“ Die Lösung, an der die GFZ-Forschende gemeinsam mit ihren Kolleg*innen in Indien und Nepal arbeiten, ist ein Kompromiss: An strategisch günstigen Stellen müssten Stationen eingerichtet werden, die das Rückgrat eines Hochgebirgs-Flutwarnsystems bilden. GFZ-Forscher Marco Pilz: „Dieser Kompromiss ist gewissermaßen ein Optimierungsproblem, mit dem sich künftige Studien befassen müssen und bei dem wir bereits systematische Fortschritte gemacht haben, zum Beispiel in der Niederrheinischen Bucht. Weitere Analysen von Sturzfluten und Murgängen werden dazu beitragen, besser zu verstehen, wie seismische Signale bei der Frühwarnung helfen können.“
Erste Ideen, ein solches Frühwarnsystem auf Basis eines seismologischen Ansatzes zu etablieren, entstanden bereits vor der Katastrophe als Ergebnis eines gemeinsamen Workshops von Helmholtz-Forschenden und indischen Kolleg*innen in Bangalore im Frühjahr 2019. Das aktuelle Projekt der Studie wurde von Virendra Tiwari vom NGRI und Niels Hovius initiiert. Es nutzte die zufällige räumliche Nähe des Hochwassers zu einem regionalen seismischen Netzwerk, das bereits vom NGRI aufgebaut worden war. Hovius: „Die Frühwarnung wird immer dringlicher, da Gebirgsflüsse zunehmend für die Erzeugung von Wasserkraft genutzt werden, die als Motor für die wirtschaftliche Entwicklung der ärmsten Bergregionen der Welt gilt.“ Im Zuge der Klimaerwärmung schwinden Gletscher rapide und es sammelt sich viel Schmelzwasser in hochgelegenen Gletscherstauseen. Hovius mahnt: „Katastrophale Überschwemmungen werden deshalb wahrscheinlich häufiger werden und so werden die Risiken in Zukunft noch weiter steigen.“
Kontakt für Medien:
Kontakt für Medien:
Josef Zens
0331-288-1040
josef.zens@gfz-potsdam.de
Wissenschaftliche Ansprechpartner:
Dr. Kristen Cook
0331-288-28829
kristen.cook@gfz-potsdam.de
Prof. Dr. Niels Hovius
0331-288-1015
niels.hovius@gfz-potsdam.de
Originalpublikation:
K. Cook et al.: „Detection, Tracking, and Potential for Early Warning of Catastrophic Flow Events Using Regional Seismic Networks“, Science; DOI: 10.1126/science.abj1227
Weitere Informationen:
https://media.gfz-potsdam.de/gfz/wv/pm/21/11522_Spectogramm-mp4_Kristen-Cook-GFZ… („Übersetzung“ der seismischen Aufzeichnungen in akustische Wellen; der Bergsturz und die Flut werden hörbar)
Durch die intelligente Kopplung von Strom- und Wärmeproduktion sowohl Ressourcen als auch CO2 einsparen
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Ende 2019 fiel der Startschuss für das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN. Seitdem hat sich in Oberhausen-Tackenberg einiges getan. Die vier Nahwärmeinseln, die in Zukunft über 800 Wohneinheiten, zwei Schulen und eine Sporthalle mit klimaschonender Wärmeenergie versorgen, nehmen nach und nach Gestalt an. Zeit für einen Ortstermin in der Flöz-Matthias-Straße. Dort sind die Arbeiten besonders weit fortgeschritten: Die Fertigstellung des Nahwärmenetzes ist vor Beginn der diesjährigen Heizperiode geplant.
Die Projektpartner luden Medienvertreterinnen und -vertreter Ende September zu einem Richtfest. Dabei ordneten sie die bisherigen Arbeiten ein und wagten auch die ein oder andere Zukunftsprognose. Wolfgang Hoffmann, Vorstand der GE-WO Osterfelder Wohnungsgenossenschaft, stellte beispielsweise heraus, wie sehr ihn sowohl die neuartige technische Konzeption als auch die Verbindung von Forschung und Entwicklung mit der praktischen Anwendung vor Ort beeindruckt haben. Auf diese Weise seien kurz- und mittelfristige Erfolge möglich gewesen. Mit Blick auf die Bedeutung von QUENTIN sagte er: »Das Thema CO2-Reduzierung rollt derzeit mit voller Wucht auf die Wohnungswirtschaft zu. Die Bepreisung von CO2 ist erst der Anfang einer Entwicklung hin zu mehr Klimaneutralität. Wenn erst einmal die Gebäudebestände, die für ein Drittel der CO2-Emissionen verantwortlich sein sollen, in den Emissionshandel einbezogen werden, wie die EU das plant, muss das einen langfristigen Strategiewandel unserer Branche zufolge haben.«
Auch Olaf Rabsilber, Vorstand der Sterkrader Wohnungsgenossenschaft, betrachtete QUENTIN vor dem Hintergrund von Klimaschutz und CO2-Einsparung. Er verschwieg aber auch nicht die Herausforderungen, die mit dem Projekt verbunden sind: »Indem wir an den Bestand gehen, tun wir etwas für unsere Mieterinnen und Mieter. Das heißt aber auch: Wir müssen etwas leisten. QUENTIN ist ein Mammutprojekt, das wir erfolgreich mit allen Partnern stemmen. Dafür an dieser Stelle ein herzlicher Dank an alle, die eingebunden sind.«
Christian Basler, technischer Vorstand der Energieversorgung Oberhausen AG (evo), stellte vor allem die Bedeutung von QUENTIN für die Umwelt heraus. »Bei der evo legen wir großen Wert auf Klimaschutz und wollen mit gutem Beispiel vorangehen. Sowohl in unseren Kraftwerken als auch bei unseren Nahwärmeprojekten wie hier im QUENTIN-Projekt, setzen wir auf innovative und ressourcenschonende Verfahren. In Zukunft werden hier im Quartier durch die intelligente Kopplung von Wärme- und Stromerzeugung Energie gespart und zudem klimaschädliche CO2-Emissionen verringert. Zusätzlich, um die Energiewende noch weiter voran zu treiben, werden an einigen Heizzentralen noch Lademöglichkeiten für Elektroautos gebaut. Zukunftsweisende Projekte wie dieses zur sicheren Versorgung unserer Kundinnen und Kunden sind uns bei der evo eine Herzensangelegenheit.«
Annedore Mittreiter, Leiterin der Abteilung »Energiesysteme« am Fraunhofer UMSICHT, blickte durch die Forschungsbrille auf das Projekt. »Für uns ist QUENTIN etwas ganz Besonderes. Und das aus mehreren Gründen«, betonte sie. »Da ist zum einen das Konzept. Es verbindet eine effiziente KWK-Anlage sowohl mit einem zentralen Wärmespeicher in der Energiezentrale als auch mit dezentralen Wärmespeichern in den Netzanschlusspunkten. Das gibt uns die Möglichkeit, zu untersuchen, welche energetischen Einsparpotenziale durch die Bereitstellung von zusätzlicher Flexibilität realisiert werden können und welchen Einfluss das Speichermanagement darauf hat. In diesem Zuge sind wir besonders gespannt auf den demnächst startenden Demonstrationsbetrieb.«
Ein weiterer Grund: Das vom Fraunhofer UMSICHT entwickelte Energieversorgungskonzept wird bei QUENTIN durch Gebäudesanierungen der Wohnungsgenossenschaften ergänzt. Auf diese Weise können die Forschenden nachvollziehen, wie sich die durch die Sanierungsmaßnahmen verursachten Energieeinsparungen auf den Betrieb des Energiesystems auswirken und so zu integralen Konzepten kommen. »Wir haben den Anspruch, dass QUENTIN Vorbild-Charakter entwickelt. Die hier gewonnenen Erkenntnisse sollen nach dem Projekt auf vergleichbare Quartiere übertragen werden können, um auch an anderen Standorten die lokale Energiewende voranzutreiben«, so Mittreiter.
Hubert Beyer vom Energiemanagement der SBO Servicebetriebe Oberhausen sieht auch enorme Vorteile durch den Anschluss der beiden Schulen und vier weiterer städtischer Gebäude an das Nahwärmenetz. Im Vergleich zu den Gasheizungen im Bestand erzeugten die Anlagen zur Kraft-Wärme-Kopplung einen signifikant geringeren CO2-Ausstoß. Gleichzeitig werde durch die flexible und daher »netzdienliche« Fahrweise der KWK-Anlage die unstetige Einspeisung von regenerativem Strom ins Netz grundsätzlich erleichtert.
Sowohl der Bereich Schule der Stadt Oberhausen als auch die Schulen selbst begrüßen diese Modernisierung der Wärmeerzeugung und stellen ihre Technikräume für die Technikzentralen der Nahwärmenetze zur Verfügung. Die Schülerinnen und Schüler erhalten eine verlässliche Wärmeversorgung und könnten z.B. durch einen »Physikunterricht im Technikraum« als Multiplikatoren für die Akzeptanz und Popularität dieser innovativen Technologie wirken.
Im Anschluss an die Statements gab es Gelegenheit, Fragen zu stellen und auch die Technikzentrale des Nahwärmenetzes in der Flöz-Matthias-Straße zu besichtigen.
Förderhinweis
Das Projekt »Quartiersentwicklung auf Basis von Nahwärmeinseln mit flexiblen KWK-Systemen und Teilsanierung« – kurz: QUENTIN – wird vom Bundesministerium für Wirtschaft und Energie (BMWi) im Forschungsschwerpunkt EnEff:Stadt gefördert.
Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/energ…
Covid-19-Impfung: Sterblichkeit nach seltener Nebenwirkung sinkt
Marcel Wyler Wissenschaftskommunikation
Universitätsspital Bern
Eine gross angelegte internationale Studie mit Co-Projektleitung des Inselspitals und der Universität Bern untersuchte die sehr seltene Verstopfung von Hirnvenen (Sinusvenenthrombosen) nach Gabe der Impfstoffe von Oxford-AstraZeneca und Janssen/Johnson&Johnson. Beide Impfstoffe werden in der Schweiz bisher nicht eingesetzt. Die Sterblichkeit aufgrund dieser Komplikation sank von 61% auf 42% nachdem der Mechanismus zu ihrer Entstehung im Frühjahr 2021 geklärt werden konnte.
In sehr seltenen Fällen entsteht nach der Impfung mit SARS-CoV-2-Impfstoffen von Oxford-AstraZeneca und Janssen/Johnson&Johnson ein Mangel an Blutplättchen (Thrombozyten) und zugleich steigt die Tendenz zur Bildung von Thrombosen (Verklumpungen im Blut). Am häufigsten sind hierbei Hirnvenenthrombosen (Sinusvenenthrombosen). Als dieses Phänomen neu entdeckt wurde, fiel zunächst die hohe Sterblichkeit auf. Die vom University Medical Center (UMC) Amsterdam und vom Stroke Center am Inselspital, Universitätsspital Bern geleitete weltweite Studie ging der Frage nach, welche Eigenschaften und welche Sterblichkeit verschiedene Untergruppen von Patientinnen und Patienten aufwiesen, die nach der Impfung mit den genannten beiden Impfstoffen eine Sinusvenenthrombose erlitten. Die Studienresultate sind für die Schweiz von Interesse, da hier Impfungen mit dem Produkt von Janssen/Johnson&Johnson bald zur Verfügung stehen werden.
Blutplättchenmangel (Thrombozytopenie) mit tödlichem Verlauf
Von den insgesamt 116 Patientinnen und Patienten der Studie wiesen 78 (76 davon nach AstraZeneca Impfstoff) Hirnvenenthrombosen mit Blutplättchenmangel auf. Diese Patienten waren bei Zuweisung ins Spital besonders oft im Koma (24%), wiesen Hirnblutungen (68%) und begleitende Thrombosen auf. Fast die Hälfte dieser Patientinnen und Patienten starben im Spital.
Die Studie zeigt, dass diejenigen Patientinnen und Patienten, die nach der Impfung einen Abfall der Konzentration von Blutplättchen aufwiesen, häufig einen schweren Verlauf der Komplikation hatten. Damit unterschieden sich Patienten mit einer Thrombozytopenie (Blutplättchenarmut) deutlich von den übrigen Patientinnen und Patienten mit einer Hirnvenenthrombose nach der Impfung.
Sterblichkeit durch angepasste Therapien reduziert
Schon früh waren Hinweise aufgetaucht, dass die Kombination von Blutplättchenarmut und Thrombosen nach Impfung mit den beiden genannten Impfstoffen eine besondere und sehr seltene Gruppe von Patientinnen und Patienten bildet. Antikörper gegen den Blutplättchenfaktor PF4 wurden bereits früh als wichtiger Faktor bei der Verklumpung von Thrombozyten mit der Folge einer Thrombozytopenie erkannt. Seither kamen gezielte Therapien zum Einsatz wie Immunglobuline und Plasmaaustausch (therapeutische Plasmapherese). Die aktuelle Studie stellte fest, dass seit dieser Erkenntnis und aufgrund entsprechend angepasster Therapien, die Sterblichkeit nach Hirnvenenthrombose bei Blutplättchenarmut von 61% auf 42% gefallen ist. Neuere noch unveröffentlichte Daten und eine bereits publizierte britische Studie weisen in die gleiche Richtung und zeigen eine nochmals deutlich reduzierte Sterblichkeit.
Zur Methodik der Studie
Die Forschung bei sehr seltenen Nebenwirkungen ist anspruchsvoll. Die Fälle verteilen sich auf zahlreiche Zentren, und die Vergleichbarkeit der dezentral erstellten Protokolle muss mit standardisierten Formularen zuerst sichergestellt werden. Aufgrund der Seltenheit der Komplikationen haben die meisten Zentren nur einen oder gar keine Patienten. Für die vorliegende Studie wurden Daten aus 81 Spitälern in 19 Ländern in einem prospektiven webbasierten Register zusammengetragen. Aus der Schweiz wurden Patienten der Kontrollgruppe beigetragen. Die Studie wurde von der World Stroke Organisation, der European Academy of Neurology und der European Stroke Organisation unterstützt. Insgesamt konnten weltweit 116 Fälle von Sinusvenenthrombosen nach einer SARS-CoV-2-Impfung analysiert werden. 78 Personen erkrankten an einer Thrombose mit Blutplättchenarmut. Davon hatten 76 den Impfstoff von Oxford/AstraZeneca erhalten. Aus der Schweiz wurde kein einziger Fall gemeldet. Als Vergleichsgruppe dienten 207 Personen, die vor der Pandemie eine Sinusvenenthrombose ohne Impfung erlitten hatten. Ausgeschlossen waren ebenso Personen, die eine Blutverdünnung (Heparin) brauchten, da Sinusvenenthrombosen mit Blutplättchenarmut auch im Zusammenhang mit einer Anwendung von Heparin auftreten können.
Gefährdete Gruppe früher erkennen und mit mehr Erfolg therapieren
Die vorliegende, grösste internationale Studie zu dieser Erkrankung hat ein umfangreiches Profil derjenigen Patientinnen und Patienten erhoben, die nach einer Impfung mit einem der beiden genannten Impfstoffe eine Sinusvenenthrombose erlitten. Dabei wurde der Gruppe, die Sinusvenenthrombosen mit Blutplättchenarmut aufwies, besondere Aufmerksamkeit geschenkt. Der Co-Studienleiter Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie und Leiter Stroke Center erklärt: «Die Risikofaktoren für einen Hirnschlag wurden systematisch erhoben, ebenso der klinische Befund ab Eintritt in die Klinik. Dank dem so gewonnenen, detaillierten Profil könnte es künftig möglich sein, diese besonders gefährdete Gruppe noch früher zu erkennen und so die Sterblichkeit durch eine gezielte Therapie weiter zu senken». Das Register wird weitergeführt und die Autoren erhoffen sich weitere Erkenntnisse auch über die Langzeitprognose der Erkrankung und die besten Therapieoptionen für die Patienten.
Wissenschaftliche Ansprechpartner:
– Prof. Dr. med. Marcel Arnold, Chefarzt Universitätsklinik für Neurologie, Leiter Stroke Center, Inselspital, Universitätsspital Bern und Universität Bern
– PD Dr. med. Mirjam Heldner, Stv. Leiterin Ambulantes Neurovaskuläres Zentrum, Inselspital, Universitätsspital Bern
– Prof. Dr. med. Johanna Anna Kremer Hovinga, Leitende Ärztin, Universitätsklinik für Hämatologie und Hämatologisches Zentrallabor, Inselspital, Universitätsspital Bern und Universität Bern
Originalpublikation:
M. Sanchez van Kammen, D. Aguiar de Souza, S. Poli et al. : Characteristics and Outcomes of Patients with Cerebral Venous Sinus Thrombosis in SARS-CoV-2 Vaccine-induced Thrombotic Thrombocytopenia ; Jama Neurology
DOI : 10.1001/jamaneurol.2021.3619
Wie Geologie die Artenvielfalt formt
Lina Ehlert Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Dank eines neuen Computermodells können Forschende der ETH Zürich nun besser erklären, weshalb die Regenwälder Afrikas weniger Arten beherbergen als die Tropenwälder Südamerikas und Südostasien. Der Schlüssel zu einer hohen Artenvielfalt ist, wie dynamisch sich die Kontinente über die Zeit entwickelt haben.
Tropische Regenwälder sind die artenreichsten Lebensräume der Erde. Sie beherbergen eine riesige Zahl von verschiedenen Pflanzen, Tieren, Pilzen und weiterer Organismen. Diese Wälder liegen mehrheitlich auf drei Kontinenten, darunter das Amazonasbecken in Südamerika, das Kongo-Becken in Zentralafrika und das riesige Inselarchipel Südostasiens.
Nun könnte man annehmen, dass alle tropischen Regenwälder aufgrund des stabil warmfeuchten Klimas und ihrer geografischen Lage rund um den Äquator in etwa gleich artenreich sind – das trifft jedoch nicht zu. Verglichen mit Südamerika und Südostasien ist die Artenzahl in feuchten Tropenwäldern Afrikas bei vielen Organismengruppen deutlich kleiner.
Palmenvielfalt in Afrika viel kleiner
Diese ungleiche Verteilung – Forschende sprechen von der «pantropischen Diversitätsdisparität» (PDD) – lässt sich anhand von Palmen gut illustrieren: Von den weltweit 2500 Arten kommen 1200 in Südostasien und 800 in den Tropenwäldern Südamerikas vor, aber nur 66 in afrikanischen Regenwäldern.
Weshalb dem so ist, ist unter Biodiversitätsforschenden umstritten. Einige Indizien sprechen dafür, dass das gegenwärtige Klima für die geringere Artenvielfalt in Afrikas Tropenwäldern die Ursache ist. So ist das Klima in Afrikas Tropengürtel trockener und kühler als das in Südostasien und Südamerika.
Andere Hinweise sprechen eher dafür, dass sich die unterschiedliche Entwicklung der Umwelt und der Plattentektonik der drei Tropenwaldzonen über Dutzende Millionen von Jahren auf die Entstehung unterschiedlich grosser Biodiversität auswirkte. Zu solchen Veränderungen gehören beispielsweise die Bildung von Gebirgen, Inseln oder Trocken- und Wüstengebieten.
Die beiden Faktoren – gegenwärtiges Klima und Umweltgeschichte – lassen sich jedoch nur schwer auseinanderhalten.
Gebirgsbildung förderte Artenvielfalt
Forschende der ETH Zürich unter der Federführung von Loïc Pellissier, Professor für Landschaftsökologie, sind nun dieser Frage mithilfe eines neuen Computermodelles nachgegangen. Dieses Modell erlaubt es ihnen, die Evolution und Diversifizierung der Arten über viele Millionen von Jahren hinweg zu simulieren. Die Forschenden kommen zum Schluss, dass das gegenwärtige Klima nicht der Hauptgrund sei, weshalb die Artenvielfalt in den Regenwäldern Afrikas geringer ist. Die Artenvielfalt, so schliessen sie aus den Simulationen, wurde durch die Dynamik der Gebirgsbildung und Klimaveränderungen hervorgebracht. Die Ergebnisse der Simulationen decken sich weitgehend mit den heute beobachtbaren Mustern der Biodiversitätsverteilung.
«Unser Modell bestätigt, dass Unterschiede in der Dynamik der frühzeitlichen Umwelt die ungleiche Verteilung der Artenvielfalt hervorbrachten und nicht aktuelle klimatische Faktoren», sagt Pellissier. «Geologische Prozesse sowie globale Temperaturflüsse bestimmen, wo und wann Arten entstehen oder aussterben.»
Entscheidend für eine hohe Artenvielfalt auf einem Kontinent ist insbesondere die Dynamik geologischer Prozesse. Aktive Plattentektonik fördert die Gebirgsbildung, wie die Anden in Südamerika, oder die Entstehung von Insel-Archipelen wie in Südostasien. Beide Prozesse führen dazu, dass sich viele neue ökologische Nischen bilden, in denen wiederum zahlreiche neue Arten entstehen. Der Regenwaldgürtel Afrikas hingegen war in den vergangenen 110 Millionen Jahre tektonisch weniger aktiv. Auch war dieser Tropenwald verhältnismässig klein, da er von Trockengebieten im Norden und Süden begrenzt war und sich nicht weiter ausdehnen konnte. «Arten aus Regenwäldern können sich kaum an die Verhältnisse der umgebenden Trockengebiete anpassen», betont Pellissier.
Neues Modell
Das von ETH-Forschenden entwickelte Modell «gen3sis» wurde erst kürzlich im Fachjournal PLoS Biology vorgestellt. Es ist ein mechanistisches Modell, in welchem die primären Rahmenbedingungen wie die Geologie und das Klima sowie die biologischen Mechanismen eingebaut sind und aus welchen die Biodiversitätsmuster hervorgehen. Um die Entstehung der Biodiversität zu simulieren, müssen folgende wichtige Prozesse im Modell integriert werden: Ökologie (jede Art hat ihre begrenzte ökologische Nische), Evolution, Artbildung (engl: speciation) und Ausbreitung (engl: dispersal).
«Mit diesen vier grundlegenden Regeln können wir die Bestandsdynamik von Organismen vor dem Hintergrund von sich verschiebenden Umweltbedingungen simulieren. Dadurch können wir auch sehr gut erklären, wie die Organismen entstanden», sagt Pellissier.
Indem die Forschenden ihr Modell auf diesen grundlegenden evolutionären Mechanismen aufbauen, können sie die Artenvielfalt simulieren, ohne dass sie es mit (Verbreitungs-)Daten für jede einzelne Art füttern müssen. Das Modell braucht jedoch Daten über die Dynamik der betrachteten Kontinente in der Erdgeschichte sowie über die Feuchtigkeit und Temperaturen aus Klimarekonstruktionen.
Pellissier und seine Mitarbeitenden sind nun dabei, das Modell zu verfeinern. Mit weiteren Simulationen wollen sie verstehen, wie Biodiversität in anderen artenreichen Regionen entstanden ist, etwa in den Gebirgen Westchinas. Der Modellcode und die Rekonstruktionen der frühzeitlichen Umwelt sind quelloffen. Alle interessierten Evolutions- und Biodiversitätsforschenden können ihn nutzen, um die Bildung von Artenvielfalt in verschiedensten Regionen der Welt zu untersuchen.
Wissenschaftliche Ansprechpartner:
Loïc Pellissier, Professor für Landschaftsökologie, +41 44 632 32 03,loic.pellissier@usys.ethz.ch
Originalpublikation:
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001340
Genetische Abstammung und Erbe der Etrusker entschlüsselt
Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam präsentiert umfassende DNA-Analysen zum genetischen Ursprung der Menschen in der eisenzeitlichen Hochkultur Mittelitaliens und ihren Einfluss auf die spätere Bevölkerung
Die Etrusker, deren Hochphase in der Eisenzeit in Mittelitalien rund 800 Jahre v. Chr. begann, waren eng mit ihren Nachbarn verwandt, den Latinern in der Region Roms. Große Anteile des gemeinsamen genetischen Erbes deuten auf Vorfahren aus der osteuropäischen Steppe hin, die während der Bronzezeit nach Italien und Europa kamen, und die mit der Verbreitung der indogermanischen Sprachen in Europa in Verbindung gebracht werden. Das ergab eine genetische Studie an Überresten von 82 Individuen aus zwölf etruskischen Fundstätten in Mittel- und Süditalien, die im Zeitraum von 800 v. Chr. bis 1000 n. Chr. lebten. Die Ergebnisse stehen in starkem Kontrast zu einer früheren Vermutung, nach der die Etrusker Zuwanderer aus Anatolien oder der Ägäis gewesen sein könnten. Die Forscher liefern eine mögliche Erklärung dafür, warum die Etrusker eine eigene, inzwischen ausgestorbene Sprache beibehielten, die nicht mit den bis heute in Europa vorherrschenden indo-germanischen Sprachen verwandt ist.
Die Studie wurde von einem internationalen Forschungsteam durchgeführt, unter der Leitung von Professor Cosimo Posth vom Senckenberg Centre for Human Evolution and Palaeoenvironment an der Universität Tübingen, Professor Johannes Krause von den Max-Planck-Instituten für Menschheitsgeschichte und evolutionäre Anthropologie sowie Professor David Caramelli von der Universität Florenz. Veröffentlicht wurde sie in der Fachzeitschrift Science Advances.
Phasen von Beständigkeit und Wandel
Die Etrusker bewohnten während der Eisenzeit große Gebiete Mittelitaliens, die heutigen Regionen Toskana, Latium und Umbrien mit lokalen Ausläufern in benachbarte Regionen. Ihre Kultur ist bekannt für die besonderen Fähigkeiten bei der Metallbearbeitung, ihre hochentwickelte Kunst und ihre Sprache, die noch nicht in allen Teilen entschlüsselt ist und nicht zur Sprachfamilie der Indoeuropäischen Sprachen gehört. „Die Etrusker traten so verschieden von ihren Nachbarn auf, dass in der Wissenschaft schon lange darüber diskutiert wird, ob diese Bevölkerung lokal entstand oder zugewandert war. Unsere Ergebnisse zeigen einen lokalen Ursprung“, berichtet Cosimo Posth.
Ziehe man in Betracht, dass die in der Bronzezeit nach Italien zugewanderten Menschen aus der Steppe für die Ausbreitung der indogermanischen Sprachen verantwortlich waren, sei rätselhaft, wie sich bei den Etruskern mehr als 1500 Jahre später eine ganz andere ältere Sprache erhalten konnte. „Diese sprachliche Beständigkeit über den genetischen Wandel hinweg stellt bisherige einfache An-nahmen in Frage, dass Gene und Sprachen zusammengehören. Wahrscheinlich war das Geschehen komplexer. Möglicherweise integrierten die Etrusker im zweiten Jahrtausend v. Chr. frühe italisch sprechende Menschen in ihre eigene Sprachgemeinschaft“, sagt David Caramelli.
Die für die Studie ausgewählten 82 Individuen überspannen den Zeitraum von 800 v. Chr. bis 1000 n. Chr. „Wir sind schrittweise vorgegangen: Zunächst haben wir ein genetisches Porträt der Etrusker erstellt und dann über die Zeit verfolgt, welche Einflüsse sich durch eventuelle Zuwanderer oder Durchmischung mit anderen Populationen im Laufe von 2000 Jahren abzeichnen“, sagt Johannes Krause. Obwohl einige Individuen aus dem Nahen Osten, Nordafrika und Mitteleuropa nach Mittelitalien zugewandert sein müssen, sei der Genpool der Etrusker für mindestens 800 Jahre in der Eisen-zeit und der Periode der Römischen Republik stabil geblieben. „Ein großer genetischer Umbruch kam für die Menschen in Mittelitalien mit der Römischen Kaiserzeit. Damals mischten sie sich mit Populationen aus dem östlichen Mittelmeerraum, worunter wahrscheinlich auch Sklaven und Soldaten waren, die innerhalb des Römischen Reichs verschleppt oder umgesiedelt wurden“, sagt Krause. „Diese genetische Verschiebung bringt die Rolle des Römischen Reichs bei der Vertreibung und Umsiedlung von Menschen im großen Maßstab zutage.“
Genetische Verschiebung im frühen Mittelalter
Als das Team die genetische Verwandtschaft der Mittelitaliener analysierte, die gegen Ende des Untersuchungszeitraums im frühen Mittelalter gelebt hatten, stellten sie fest, dass sich Nordeuropäer nach dem Zusammenbruch des Weströmischen Reichs über die ganze italienische Halbinsel ausbreiteten. So durchmischten sich die Mittelitaliener mit germanischen Migranten, die zum Beispiel zur Zeit des Königreichs der Langobarden in die Region einwanderten. „Nach dieser frühmittelalterlichen Vermischung blieb die Population in den heutigen Regionen Toskana, Latium und Basilikata bis heute weitgehend stabil. Die genetische Zusammensetzung heute lebender Menschen in Mittel- und Süditalien hat sich in den letzten 1000 Jahren kaum verändert“, sagt Cosimo Posth.
Um die Studienergebnisse im Detail zu erhärten, sollen weitere Genomanalysen von Individuen aus den letzten zweitausend Jahren aus ganz Italien durchgeführt werden. „Vor allem die Römische Kaiserzeit, in den ersten 500 Jahren unserer Zeitrechnung, scheint einen langfristigen Einfluss auf das genetische Profil der Südeuropäer gehabt zu haben. Dadurch wurde die vorherige genetische Lücke zwischen Europäern und Menschen im östlichen Mittelmeerraum geschlossen“, sagt Posth.
Hochaufgelöstes Bildmaterial erhalten Sie unter
https://shh-cloud.gnz.mpg.de/index.php/s/nErr77fyXmieiPe
Bitte beachten Sie die Quellenangaben.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Cosimo Posth
Universität Tübingen
Institut für Naturwissenschaftliche Archäologie
Senckenberg Centre for Human Evolution and Palaeoenvironment
cosimo.posth@uni-tuebingen.de
Prof. Dr. Johannes Krause
Max-Planck-Institute für evolutionäre Anthropologie und für Menschheitsgeschichte
krause@eva.mpg.de
Originalpublikation:
Cosimo Posth, Valentina Zaro, Maria A. Spyrou, David Caramelli, Johannes Krause et. al.: The origin and legacy of the Etruscans through a 2000-year archeogenomic time transect. Science Advances, https://doi.org/10.1126/sciadv.abi7673
An COVID-19 erkrankte Menschen haben ein fast dreifach erhöhtes Dialyse-Risiko
Dr. Bettina Albers Pressearbeit
Deutsche Gesellschaft für Nephrologie e.V. (DGfN)
Alarmierende Zahlen: Patientinnen und Patienten, die COVID-19 überstanden haben, sind laut einer neuen Studie [1] mit über 1,5 Millionen US-Veteranen stark gefährdet, eine chronische Nierenerkrankung (CKD) zu erleiden. Gegenüber nicht erkrankten Menschen ist ihr Lebenszeitrisiko, Dialysepatientin/Dialysepatient zu werden, sogar fast dreimal so hoch. Bei allen ehemals Erkrankten wurde im Verlauf ein sigifikant erhöhter, jährlicher Verlust der glomerulären Filtrationsrate (eGFR) beobachtet, Wichtig für die Nachsorge: Die typischen „Long-COVID-Symptome“ wie Fatigue oder Kopfschmerzen können auch auf eine Nierenschädigung hindeuten.
Langzeitfolgen einer symptomatischen SARS-CoV-2-Infektion können die Lunge und verschiedene andere Organe betreffen. Darunter sind auch die Nieren, jedoch waren bisher detaillierte Analysen zum renalen Post-COVID-Outcome nicht verfügbar. Nun wurde eine Studie veröffentlicht [1], die eine Kohorte von 1.726.683 US-Veteranen untersuchte. Darunter waren fast 100.000 (n=89.216) ehemalige COVID-19-Patientinnen und -Patienten („30-Tage-Überlebende“ nach postivem Testergebnis im Zeitraum von März 2020 bis März 2021, Erkrankte, die binnen der ersten 30 Tage der Erkrankung verstarben, waren in dieser Erhebung nicht eingeschlossen worden) und 1.637.467 nicht-infizierte Kontrollen. Die mediane Nachbeobachtungszeit der Betroffenen (90,1% waren männlich) betrug 164 (127-268) Tage, bei den Kontroll-Veteranen (91,4% waren männlich) 172 (133-282) Tage. Analysiert wurden das Risiko einer AKI (akute Nierenschädigung), eine Abnahme der glomerulären Filtrationsrate (eGFR), Notwendigkeit einer chronischen Dialysebehandlung und schwere renale Ereignisse (MAKE „major adverse kidney events“). MAKE waren definiert als eGFR-Verlust von mindestens 50%, chronische Dialysepflicht oder Todesfälle. Die Daten wurden für präspezifizierte demografische und gesundheitsbezogene Merkmale wie Begleiterkrankungen, Medikamente und paraklinische Befunde statistisch adjustiert.
Die Ergebnisse zeigten, dass die COVID-Überlebenden gegenüber nicht-infizierten Veteranen auch nach der akuten Erkrankungsphase ein erhöhtes MAKE-Risiko (adj. HR 1,66) hatten. Das Risiko für eine akute Nierenschädigung (AKI) war fast doppelt so hoch (adj. HR 1,94), das Risiko für einen chronischen eGFR-Verlust von mindestens 50% war ebenfalls erhöht (adj. HR 1,62) und eine Dialysepflicht trat fast dreimal so häufig auf (adj. HR 2,96). COVID-Überlebende hatten einen deutlich über das zu erwartende Maß hinausgehenden Nierenfunktionsverlust gegenüber den Kontroll-Veteranen, bei denen der jährliche eGFR-Rückgang bei ungefähr 0,5 ml/min/1,73 m2 lag. Der eGFR-„Exzess-Verlust“ (= der eGFR-Verlust zusätzlich zu den 0,5 ml/min/1,73 m2, den auch die Kontrollpatientinnen/-patienten erlitten) betrug bei ambulant behandelten COVID-19-Patientinnen und -Patienten 3,26 ml/min/1,73 m2, nach Hospitalisierung 5,2 ml/min/1,73 m2 und bei ehemals intensivpflichtigen Patientinnen und Patienten sogar 7,69 ml/min/1,73 m2. Wer in der akuten COVID-19-Erkrankungsphase ein akutes Nierenversagen (AKI) erlitten hatte,wies sogar einen Exzess-Verlust von 8,41 ml/min/1,73 m2 auf.
Der Anstieg des Risikos von Post-COVID-Nierenschäden war somit zwar abhängig vom Schweregrad der akuten COVID-19-Erkrankung, doch festzuhalten ist, dass bereits bei den Erkrankten, die nur ambulant behandelt werden mussten, das renale Risiko deutlich erhöht war. Bei ihnen war der jährliche Rückgang der eGFR im vergleich zu den Kontrollpatientinnen/-patienten fast um das Siebenfache erhöht (3,26 ml/min/1,73 m2 gegenüber 0,5 ml/min/1,73 m2).
„Diese Daten sind alarmierend – nach jeder überstandenen COVID-19-Erkrankung, insbesondere aber nach schwereren Verläufen, muss bei der Nachbetreuung die Nierenfunktion im Auge behalten werden.
Bei bereits eingeschränkter Nierenfunktion oder auffälligen Urinbefunden sollte unbedingt eine nephrologische Mitbetreuung und nephroprotektive Therapie durchgeführt werden“, kommentiert Frau Prof. Dr. Julia Weinmann-Menke, Pressesprecherin der DGfN, auf der Pressekonferenz der 13. DGfN-Jahrestagung in Rostock.
Wie die Expertin hervorhebt, können die „typischen“ Symptome eines sogenannten Long-COVID-Syndroms – wie Müdigkeit, verminderte Belastbarkeit, Konzentrationsschwäche oder Kopfschmerzen – auch Symptome einer chronischen Nierenerkrankung sein. „Bei entsprechenden Long-COVID-Symptomen muss also auch an eine chronische Nierenerkrankung gedacht werden. Die Abklärung der Nierenwerte ist also von besonderer Bedeutung in der Nachsorge von COVID-19-Patientinnen und -Patienten.“
[1] W Bowe B, Xie Y, Xu E et al. Kidney Outcomes in Long COVID. J Am Soc Nephrol 2021 Sep 1; ASN.2021060734. doi: 10.1681/ASN.2021060734. Online ahead of print.
[2] Yende S, Parikh CR. Long COVID and kidney disease. Nature Reviews Nephrology. Published: 09 September 2021. https://www.nature.com/articles/s41581-021-00487-3
Pressekontakt
Pressestelle der DGfN
Dr. Bettina Albers
presse@dgfn.eu
Tel. 03643/ 776423 / Mobil 0174/ 2165629
Entwicklung von Ammoniak-Technologien für den Transport von Grünem Wasserstoff – Start von TransHyDE
Dr. Hans Sawade Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
TransHyDE geht an den Start, eines von drei Wasserstoff-Leitprojekten des Bundesministeriums für Bildung und Forschung (BMBF) aus dem Zukunftspaket zur Umsetzung der 2020 beschlossenen „Nationalen Wasserstoffstrategie“ in Deutschland. Mit seiner bislang größten Forschungsinitiative zum Thema „Energiewende“ unterstützt das BMBF Deutschlands den Einstieg in die Wasserstoffwirtschaft. Über vier Jahre sollen die Leitprojekte vorhandene Hürden, die den Einstieg Deutschlands in eine Wasserstoffwirtschaft erschweren, aus dem Weg räumen. TransHyDE erforscht und entwickelt Technologien für den Transport von Wasserstoff.
Um Deutschland auf dem Weg zur Klimaneutralität voranzubringen, braucht es mehrere Hundertmillionen Tonnen Wasserstoff jährlich. Einen Teil davon wird Deutschland selbst produzieren – der deutlich größere Teil muss aus wind- und sonnenreichen Regionen importiert werden. In beiden Fällen braucht es funktionierende und effiziente Transport-Infrastrukturen, denn nur selten wird Wasserstoff auch dort genutzt, wo er hergestellt wird. Deshalb werden Transport-Infrastrukturen für kurze, mittlere und lange Strecken dringend benötigt.
Das Leitprojekt TransHyDE mit über 80 Partnern aus Industrie, Verbänden, Universitäten und Forschungseinrichtungen wird daher Transport-Technologien umfassend weiterentwickeln – und zwar technologieoffen entlang verschiedener möglicher Entwicklungspfade. TransHyDE treibt in vier Umsetzungs- und fünf begleitenden Forschungsprojekten die Transporttechnologien weiter voran: den Wasserstofftransport in Hochdruckbehältern, den Wasserstoff-Flüssig-Transport, den Wasserstoff-Transport in bestehenden und neuen Gasleitungen sowie den Transport von in Ammoniak gebundenem Wasserstoff. Die TransHyDE-Forschungsprojekte befassen sich mit der Erstellung einer Roadmap zur Wasserstoff-Infrastruktur. Dafür braucht es neue Standards, Normen und Sicherheitsvorschriften von Wasserstoff-Transporttechnologien sowie notwendige Materialien, Werkstoffen und Sensoren. Die Forschung zur effizienten Herauslösung von Wasserstoff aus Ammoniak und das Betanken von Behältern mit flüssigem, tiefkaltem Wasserstoff gehört mit zu den Forschungsprojekten.
Als größtes Umsetzungsprojekt in TransHyDE bündelt das regionale Partner-Bündnis CAMPFIRE unter der Koordination des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP) in Greifswald, des Zentrums für Brennstoffzellentechnik in Duisburg und der Inherent Solution Consult GmbH & Co KG in Rostock die Forschungs- und Entwicklungsaktivitäten für Technologien zur Umsetzung der gesamten Transportkette für grünes Ammoniak. Am Standort Poppendorf auf dem Industriegelände der YARA Rostock werden dafür industrierelevante Prüf- und Testfelder im COIL – CAMPFIRE Open Innovation Lab für die neuen Technologien aufgebaut. Im Fokus stehen dabei die Entwicklung von Logistikstrukturen und Betankungsanlagen für den Ammoniak-Import und Betrieb von Schiffen mit grünem Ammoniak, lastflexible Ammoniak-Anlagen für die saisonale Erzeugung von Ammoniak aus erneuerbarer Energie und dynamische Wandlungstechnologien für stationäre und mobile Energieversorgung sowie Ammoniak-zu-Wasserstoff-Tankstellen. Von den Partnern werden sowohl Konzepte für die wirtschaftliche Distribution von Ammoniak im industriellen Umfeld als auch der Rechtsrahmen sowie Pfade für die Erhöhung der Akzeptanz für Ammoniak in der Bevölkerung und bei Kunden erarbeitet. „Es geht bei diesen Vorhaben um die Eröffnung von neuen wirtschaftlichen Potentialen für unsere regionalen Unternehmen. Zum einen sollen die Unternehmen an die Entwicklung der Technologiefelder und den Aufbau der Verwertungsketten im Zukunftsfeld Ammoniak und Wasserstoff herangeführt werden. Zum anderen bieten die im TransHyDE-Projekt CAMPFIRE entwickelten Technologien neue wirtschaftliche Möglichkeiten für Unternehmen, ihren Carbon-Footprint zu minimieren. Im besonderen Fokus steht auch die Entwicklung eines europaweit sichtbaren Standortes für grüne Ammoniak- und Wasserstoff-Technologien auf dem Industriegelände in Rostock-Poppendorf“, erklärt Dr. Angela Kruth, Sprecherin und Koordinatorin von CAMPFIRE.
Neue Technologien für die Implementierung von Ammoniak als einen kohlenstofffreien Wasserstoffträger stellen eine wichtige Voraussetzung für das Erreichen der Klimaziele dar, d.h. die notwendige Minderung der Treibhausgasemissionen um 95 Prozent bis 2050.
Infokasten:
In den Wasserstoff-Leitprojekten „TransHyDE“, „H2Mare“ und „H2Giga arbeiten über 240 Partner aus Wissenschaft und Industrie zusammen. Insgesamt wird die Förderung über 740 Millionen Euro betragen.
Das CAMPFIRE-Bündnis wurde 2018 im Rahmen des BMBF WIR! „Wandel durch Innovation“-Programmes gegründet. Die mittlerweile über 60 Partner mit einem Unternehmensanteil von ca. 80% sind hauptsächlich in der Region Nord-Ost angesiedelt. Sie verfolgen gemeinsam das Ziel, die Unternehmen der Region Nord-Ost und Deutschland zu einem Exporteur von neuen Technologien für ein zukünftiges globales kohlenstofffreies Ammoniak-Wasserstoff-Energiesystem zu befähigen.
Kontakt:
Dr. Gesine Selig
Kommunikation/ Presse
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 3942, Fax: +49 3834 554 301
mailto: gesine.selig@inp-greifswald.de
https://www.leibniz-inp.de
Wissenschaftliche Ansprechpartner:
Dr. Angela Kruth
Koordinatorin & Sprecherin CAMPFIRE
Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP)
Tel.: +49 3834 554 38460, Fax: +49 3834 554 301
mailto: angela.kruth@inp-greifswald.de
http://www.wir-campfire.de
Prognosen für die Abfluss- und Stauregelung am Neckar bei Starkregenereignissen
Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Forschungsergebnisse aus dem BMVI-Expertennetzwerk machen die Schifffahrt auf dem Neckar sicherer
Starkregenereignisse in urbanen Regionen können die Wasserstände in staugeregelten Wasserstraßen sprunghaft ansteigen lassen. Insbesondere können Regenwassereinleitungen bei Niedrigwasserabfluss, wie sie vor allem bei Sommergewittern auftreten, ein Vielfaches des Abflusses in der Wasserstraße betragen. Auf diese schnellen Abflussänderungen muss die Abfluss- und Stauregelung an der unterhalb liegenden Stauanlage vorausschauend reagieren, da ansonsten für die Schifffahrt die Gefahr von Brückenanfahrungen oder Grundberührungen besteht.
Als Folge des Klimawandels sind Extremwetterereignisse mit Starkregen künftig häufiger zu erwarten. Aus diesem Grund entwickelt die Bundesanstalt für Wasserbau (BAW) derzeit ein Prognosesystem, mit dessen Hilfe die Einleitungen rechtzeitig vorhergesagt werden können, sodass das für die Abfluss- und Stauregelung an der unterhalb liegenden Staustufe verantwortliche Betriebspersonal vorausschauend reagieren kann. Die Entwicklung des Prognosesystems findet im Rahmen eines Forschungsprojekts des BMVI-Expertennetzwerks statt. Als Pilotprojekt wird der Nesenbach betrachtet, der als Hauptsammler der Stuttgarter Kanalisation bei Starkregen große Mengen Mischwasser in den Neckar einleitet. Etwa sechs Kilometer unterhalb der Einleitung liegt die Neckar-Staustufe Hofen.
Das Prognosesystem basiert auf hochauflösenden Niederschlagsprognosen mit einem Vorlauf von zwei Stunden. Hierzu arbeitet die BAW eng mit dem Deutschen Wetterdienst zusammen. Mit Hilfe eines stark vereinfachten Modells der Stuttgarter Kanalisation werden regeninduzierte Einleitungen aus dem Nesenbach in den Neckar vorhersagt. Darüber hinaus berechnet das Prognosesystem einen optimierten Wasserstands- und Abflussverlauf für die Staustufe Hofen. Dies ermöglicht dem Betriebspersonal, frühzeitig auf die ankommende Abflusswelle zu reagieren und die Wasserstandschwankungen auf ein für die Schifffahrt unschädliches Maß zu begrenzen.
Derzeit implementiert die BAW einen Prototyp des Prognosesystems. Die Abflussvorhersagen für den Nesenbach werden bereits in Zusammenarbeit mit der Neckar AG, die die Wasserkraftwerke am Neckar betreibt, getestet. Anschließend soll der Prototyp um die Komponente zur Unterstützung bei der Abfluss- und Stauregelegung ergänzt werden. Damit trägt das Forschungsprojekt dazu bei, die Schifffahrt auf dem Neckar resilienter gegenüber extremen Wetterereignissen und dem Klimawandel zu machen.
Das BMVI-Expertennetzwerk ist das verkehrsträgerübergreifende Forschungsformat in der Ressortforschung des BMVI. Unter dem Leitmotiv „Wissen – Können – Handeln“ haben sich sieben Ressortforschungseinrichtungen und Fachbehörden des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) 2016 zu einem Netzwerk zusammengeschlossen. Ziel ist es, drängende Verkehrsfragen der Zukunft unter anderem in den Bereichen Klimawandel, Umweltschutz, alternde Infrastruktur und Digitalisierung zu erforschen und durch Innovationen eine resiliente und umweltgerechte Gestaltung der Verkehrsträger zu ermöglichen.
Wissenschaftliche Ansprechpartner:
Pressekontakt
Bundesanstalt für Wasserbau
Sabine Johnson
sabine.johnson@baw.de
Telefon +49 721 97263060
Frühe Homo sapiens-Gruppen in Europa waren subarktischem Klima ausgesetzt
Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
Anhand der Analyse stabiler Sauerstoffisotope im Zahnschmelz von in der Bacho-Kiro-Höhle (Bulgarien) von Menschen geschlachteten Tieren, zeigen Max-Planck-Forscher, dass Menschengruppen, die während einer frühen Ausbreitungswelle unserer Spezies Europa erreichten und die Höhle vor etwa 46.000 bis 43.000 Jahren bewohnten, mit sehr kalten klimatischen Bedingungen konfrontiert waren.
Der Prozess, wie sich unsere Spezies in der Vergangenheit neue Umgebungen erschloss, stellt einen wichtigen evolutionären Wendepunkt dar, der letztlich dazu führte, dass Homo sapiens alle Kontinente und eine große Vielfalt von Klimazonen und Umgebungen besiedelte. Die Mechanismen, die anfängliche Ausbreitungswellen begünstigt haben könnten, sind nach wie vor umstritten. Die meisten Modelle, die auf der Korrelation archäologischer Stätten mit räumlich entfernten Klimaarchiven beruhen, deuteten bisher jedoch darauf hin, dass Menschen auf wärmere Klimabedingungen angewiesen waren, um sich in neue, nördlichere Umgebungen auszubreiten.
Anhand von Belegen direkt aus den archäologischen Schichten der Bacho-Kiro-Höhle konnte das Max-Planck-Team nun hingegen zeigen, dass Menschen mehrere tausend Jahre lang sehr kalte klimatische Bedingungen überdauert haben, die im Vergleich eher für das heutige Nordskandinavien typisch wären. „Wir konnten belegen, dass diese Menschengruppen flexibler in Bezug auf die von ihnen genutzten Umgebungen und anpassungsfähiger an unterschiedliche klimatische Bedingungen waren als bisher angenommen“, sagt Erstautorin Sarah Pederzani, Forscherin am Max-Planck-Institut für evolutionäre Anthropologie (MPI-EVA) und der Universität Aberdeen. Jean-Jacques Hublin, Direktor der Abteilung für Humanevolution am MPI-EVA, fügt hinzu: „Auf der Grundlage dieser neuen Erkenntnisse müssen nun neue Modelle für die Ausbreitung unserer Spezies über Eurasien erstellt werden, die ihre größere klimatische Flexibilität berücksichtigen.“
Archäologische Funde aus der Bacho-Kiro-Höhle in Bulgarien
Durch die direkte Verwendung von archäologischem Material – wie zum Beispiel den Überresten von Tieren, insbesondere Pflanzenfressern, die von den damals in der Höhle lebenden Menschen geschlachtet wurden – um Klimadaten zu generieren, konnte das Paläoklima-Forschungsteam unter der Leitung von Pederzani und Kate Britton, die ebenfalls am MPI-EVA und an der Universität Aberdeen forscht, eine sehr robuste Aufzeichnung lokaler klimatischer Bedingungen erstellen, die sich speziell auf die Zeit bezieht, in der Menschen die Bacho-Kiro-Höhle bewohnten. „Diese Technik ermöglicht eine zuverlässigere Zuordnung des lokalen klimatischen Kontextes als die üblicherweise verwendete chronologische Korrelation zwischen archäologischen Daten und Klimaarchiven verschiedener Orte, die die Grundlage für einen Großteil der bisherigen Forschung zur klimatischen Anpassungsfähigkeit des Menschen bildete – sie gibt uns wirklich einen Einblick in das Leben ‚vor Ort‘“, sagt Britton. „Aufgrund der zeitaufwändigen Analyse und der Abhängigkeit von der Verfügbarkeit bestimmter Tierreste sind Sauerstoffisotopenstudien oder andere Techniken, Klimadaten direkt aus archäologischen Stätten zu gewinnen, für den Zeitraum, in dem sich der Homo sapiens erstmals in Eurasien ausbreitete, jedoch nach wie vor rar“, fügt Pederzani hinzu. In der Tat ist diese Max-Planck-Studie die erste dieser Art, die im Zusammenhang mit dem Initial Upper Paleolithic durchgeführt wurde und konnte daher so überraschende Ergebnisse liefern.
Aufzeichnung vergangener Temperaturen über mehr als 7.000 Jahre
Pederzani verbrachte ein Jahr mit Laborarbeiten, von der Bohrung von Probensequenzen aus Tierzähnen über die nasschemische Aufbereitung bis hin zur stabilen Isotopenmassenspektrometrie, um alle notwendigen Daten zusammenzutragen. „Durch diese zeitintensive Analyse, die insgesamt 179 Proben umfasste, war es möglich, eine sehr detaillierte Aufzeichnung vergangener Temperaturen zu erstellen, einschließlich Schätzungen der Sommer-, Winter- und Jahresmitteltemperaturen für den Aufenthalt von Menschen in der Höhle über einen Zeitraum von mehr als 7.000 Jahren“, sagt Pederzani.
Die von einem internationalen Team unter der Leitung der MPI-EVA-Forschenden Jean-Jacques Hublin, Tsenka Tsanova und Shannon McPherron sowie Nikolay Sirakov vom Nationalen Institut für Archäologie mit Museum der Bulgarischen Akademie der Wissenschaften in Sofia, Bulgarien, durchgeführten Ausgrabungsarbeiten in der Bacho-Kiro-Höhle wurden 2015 erneut aufgenommen und ergaben eine Fülle an Informationen über menschliche Aktivitäten in der Höhle: dazu zählen auch die Überreste früherer Bewohner der Höhle, der ältesten bisher bekannten Vertreter des Homo sapiens aus dem europäischen Jungpaläolithikum. Die Ablagerungen im unteren Teil der Fundstätte enthielten eine große Anzahl von Tierknochen, Steinwerkzeugen, Anhängern und sogar menschlichen Fossilien und bildeten die Grundlage für die Klimastudie zur Untersuchung der Umweltbedingungen, denen die Menschen ausgesetzt waren, als sie sich erstmals von der Levante aus nach Südosteuropa ausbreiteten.
Wissenschaftliche Ansprechpartner:
Dr. Sarah Pederzani
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
sarah_pederzani@eva.mpg.de
Prof. Dr. Jean-Jacques Hublin
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
hublin@eva.mpg.de
Dr. Tsenka Tsanova
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
tsenka_tsanova@eva.mpg.de
Originalpublikation:
Sarah Pederzani, Kate Britton, Vera Aldeias, Nicolas Bourgon, Helen Fewlass, Tobias Lauer, Shannon P. McPherron, Zeljko Rezek, Nikolay Sirakov, Geoff M. Smith, Rosen Spasov, N.-Han Tran, Tsenka Tsanova, Jean-Jacques Hublin
Subarctic climate for the earliest Homo sapiens in Europe
Science Advances, 22 September 2021, https://doi.org/10.1126/sciadv.abi4642
Leistungsstarke Brennstoffzellen für die Elektromobilität in hoher Stückzahl
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Universität Stuttgart an trilateralem DFG-Projekt zur Verbesserung des Produktionsprozesses von Bipolarplatten beteiligt
Bipolarplatten (BPP) stellen eine Schlüsselkomponente in modernen Brennstoffzellen dar und sind damit essenziel für den Ausbau der Elektromobilität im Personen- und Nutzkraftwagenverkehr. Forschende der Universität Stuttgart, des Fraunhofer-Instituts für Physikalische Messtechnik in Freiburg sowie der Firmen thyssenkrupp System Engineering und Chemische Werke Kluthe suchen im Rahmen des Forschungsprojekts „AKS-Bipolar“ nach Wegen, um den Ausschuss bei der Produktion metallischer Bipolarplatten zu reduzieren sowie die Bereitstellung der für die Energiewende erforderlichen hohen Stückzahlen zu ermöglichen. Das Projekt hat ein Gesamtvolumen von rund 1,43 Millionen Euro und wird von der Deutschen Forschungsgemeinschaft DFG und der Fraunhofer-Gesellschaft im Rahmen der Linie trilateraler Transferprojekte gefördert.
„Baden-Württemberg ist führend in Forschung und Wissenschaft. Denn dort wachsen die Rohstoffe der Zukunft: Wissen, Kreativität und Innovation. Die Landesregierung unterstützt den Struktur- und Technologiewandel und die damit verbundene Transformation unseres Industriestandorts. Die Forschung der Universität Stuttgart zur Verbesserung des Produktionsprozesses von Bipolarplatten im Rahmen des trilateralen DFG-Projekts trägt wegweisend zum Ausbau der leistungsfähigen Elektromobilität und zur Schlüsseltechnologie Brennstoffzelle bei. Unsere exzellenten Wissenschaftlerinnen und Wissenschaftler zeigen, wie Forschungsprojekte angegangen und umgesetzt werden können, um neues Wissen konkret in die Anwendung und damit unser Land voranzubringen“, so Wissenschaftsministerin Theresia Bauer.
Eine Brennstoffzelle besteht aus zahlreichen stapelartig angeordneten Membran-Elektroden-Einheiten (MEA), in denen die Umwandlung von chemischer zu elektrischer Energie stattfindet. Bipolarplatten liegen zwischen diesen Einheiten und übernehmen die Funktion, die hierfür erforderlichen Reaktionsgase zu- und das entstehende Wasser abzuleiten. In modernen Brennstoffzellsystemen sind je nach Typ und Größe 300 – 600 BPP verbaut!
Lange Zeit dominierten BPP aus Graphit den Markt, doch der Trend geht aus wirtschaftlichen Gründen und aufgrund der höheren Leitfähigkeit hin zu metallischen BPP. Um diese herzustellen, kommen Verfahren der Umformtechnik zum Einsatz, die im Vergleich zu spanenden Fertigungsverfahren geringere Kosten sowie deutlich schnellere Taktzeiten ermöglichen. Bei der Blechumformung können allerdings bereits leicht schwankende Prozessparameter zu Umformfehlern wie Reißern, Falten oder Wölbungen (Springbeul-Effekte) führen, die die Montage der Zellenstapel erschweren.
Gesamtsystem zur Prozesskontrolle und Qualitätssicherung
Bisher lassen sich die meisten dieser Fehlerbilder der metallischen BPP nicht konsistent erkennen oder vermeiden, weshalb die Qualitätsprüfung nachgelagert in kosten- und zeitintensiven Stichprobentests erfolgt. Vor diesem Hintergrund wollen die Forschenden im Projekt „AKS-Bipolar“ (Aktive Prozesskontrolle bei der Serienfertigung hochpräzise geprägter Bipolarplatten) ein Gesamtsystem zur aktiven Prozesskontrolle und Qualitätssicherung entwickeln, das eine vollflächige 3D-Messtechnik direkt in die Produktionslinie der Bauteile integriert und alle Prozessstufen in einer Gesamtsimulation (Toolchain) abbildet.
Hierbei setzen die Projektpartner an hochgenauen 3D-Daten an, die durch die digital-holographische Sensortechnik des Fraunhofer IPM erstmals in hohem Umfang und in Echtzeit zur Verfügung stehen. Diese werden sehr schnell und akkurat mit Simulationsergebnissen verglichen, die am Institut für Umformtechnik (IFU) der Universität Stuttgart zur Prozessauslegung verwendet werden. Dabei nutzt das IFU die Erkenntnisse aus zahlreichen Forschungsprojekten auf den Gebieten der Blech- und Massivumformung, darunter zwei vorausgegangene DFG-Projekte zur Modellierung von Blechwerkstoffen.
Auf dieser Datenbasis generiert und optimiert die im Projekt zu entwickelnde Simulations-Toolchain unter anderem einen Digitalen Zwilling des betrachteten Umformprozesses, mit welchem wiederkehrende Fertigungsprobleme wie Risse, Falten oder der Springbeul-Effekt numerisch erfasst und geeignete Gegenmaßnahmen zielgerichtet eingeleitet werden.
Der Erfolg des Projektes wird mittels eines Demonstrators an einem konkreten, industriellen Fertigungsbeispiel nachgewiesen. Dazu wird ein Experimentalsystem zunächst im Labor- und später im Industriemaßstab aufgebaut.
Mit den im Jahr 2019 ins Leben gerufenen trilateralen Projekten fördern die Deutsche Forschungsgemeinschaft (DFG) und die Fraunhofer-Gesellschaft den Transfer von Erkenntnissen aus DFG-geförderten Vorhaben in die Wirtschaft. In der diesjährigen dritten Ausschreibungsrunde waren zunächst 24 Projektskizzen eingegangen, zur Förderung bewilligt wurden fünf Projekte.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Mathias Liewald MBA, Universität Stuttgart, Institut für Umformtechnik, Tel.: +49 711 685-83840, E-Mail: mathias.liewald@ifu.uni-stuttgart.de
Vom Laien zum Experten
Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie
Ist es ein Rembrandt oder ein Vermeer? Laien fällt es oft schwer, Gemälde dieser beiden alten Meister zu unterscheiden. Das geübte Auge hingegen hat damit keinerlei Schwierigkeiten. Wissenschaftler:innen am Max-Planck-Institut für Neurobiologie haben nun nachgewiesen, dass auch Mäuse Experten darin werden können, Bilder in Kategorien zu sortieren. Die Studie zeigt, dass Teile dieses Expertenwissens bereits in den frühen visuellen Hirnarealen vorhanden sind. Das verdeutlicht, wie weit verteilt semantische Erinnerungen im Gehirn gespeichert werden.
Haben Sie schon einmal versucht ein Gemälde von Rembrandt von einem von Vermeer zu unterscheiden? Vermutlich würde dies einem Ratespiel ähneln: Die Unterschiede sind für ein ungeübtes Auge subtil. Kunstliebhaber hingegen haben keine Schwierigkeiten bei der Zuordnung und das, obwohl es nur wenige allgemeingültige Anhaltspunkte gibt. Wie ist das möglich?
Das semantische Gedächtnis ist ein Speicherort für Expertenwissen
Ein Schlüssel zum Erfolg ist Üben: Kunstexperten betrachten Tag ein, Tag aus hunderte von Gemälden. Dabei entwickeln sie allmählich ein Gespür für die Merkmale, die bei der Unterscheidung eine Rolle spielen. Dieses Gespür ist nichts Anderes als erlerntes Wissen und wird in ihrem semantischen Gedächtnis gespeichert. Das ist die Sammlung aller abstrakten Informationen, die nicht mit einem bestimmten Erlebnis verknüpft sind: zum Beispiel das allgemeine Wissen, dass Vermeer ein niederländischer Maler ist – im Gegensatz zu der konkreten Erinnerung, wo sie zum ersten Mal ein Vermeer-Gemälde gesehen haben.
Bis heute wissen wir jedoch wenig darüber, wie das semantische Gedächtnis funktioniert. Der Neurobiologe Pieter Goltstein arbeitet zusammen mit Mark Hübener in der Abteilung von Tobias Bonhoeffer und erklärt: „Um zu untersuchen, wie solche Informationen gespeichert werden, müssen wir zunächst herausfinden, wo wir sie im Gehirn finden können. Wir kamen deshalb auf die Idee, Mäusen eine ähnliche Aufgabe wie Kunstexperten zu stellen und zu testen, ob auch sie solch komplexes Wissen erlernen können.“
Mäuse werden zu Experten im Kategorisieren
Zusammen mit Sandra Reinert zeigte Pieter Goltstein Mäusen unterschiedliche Streifenmuster, die sie in zwei Kategorien einteilen sollten. Dazu mussten die Mäuse verschiedene Aspekte abwägen und sowohl die Breite als auch Orientierung der Streifen miteinbeziehen.
Überraschenderweise ordneten die Mäuse nach einer anfänglichen Lernphase die Bilder zuverlässig der richtigen Kategorie zu. Sie waren zu Experten geworden und konnten ihr neu erlerntes Kategorie-Wissen ohne weiteres auf Muster anwenden, die sie während des Lernens noch nicht gesehen hatten – sie extrapolierten die Merkmale der Kategorien, die sie als semantische Information gespeichert hatten.
Der visuelle Kortex hilft beim Kategorisieren
Doch liegt die Information über Kategorien bereits im visuellen Kortex, wo visuelle Reize eintreffen und analysiert werden? Oder findet es sich erst nach vielen anfänglichen Verarbeitungsschritten in höheren Hirnarealen?
Mit einem kleinen Trick gingen die Wissenschaftler:innen dieser Frage auf den Grund: Da Nervenzellen im visuellen Kortex auf visuelle Reize an einem bestimmten Ort reagieren, zeigten sie den Mäusen zunächst nur Streifenmuster in einem Teil ihres Sehfelds. So trainierten die Tiere gezielt eine spezifische Nervenzellgruppe. Verlagerten die Forschenden die Muster an einen anderen Ort, wurden die Reize von anderen Nervenzellen verarbeitet und die Mäuse konnten nicht mehr so gut kategorisieren. Darüber hinaus führte die Inaktivierung des visuellen Kortex zu einem ähnlichen Ergebnis. Zusammen deutete dies darauf hin, dass Nervenzellen im visuellen Kortex am Erlernen von Kategorien beteiligt sind.
Teile semantischer Informationen finden sich bereits im visuellen Kortex
Parallel zum Kategorie-Training konnten die Wissenschaftler:innen wiederholt die Aktivität vieler Nervenzellen messen und Veränderungen im Verlauf des Lernens feststellen. Interessanterweise unterschieden einige Regionen des visuellen Kortex am Ende des Lernprozesses die Kategorien besser. Mark Hübener, der Studienleiter, erklärt: „Die Nervenzellen in diesen Regionen erhalten zweierlei Input. Sie reagieren auf einen bestimmten visuellen Reiz und erhalten zusätzlich die Information, wenn die Maus ein Bild der richtigen Kategorie zugeordnet hat. So können die Nervenzellen wichtige visuelle Reize, die mit Kategorien zusammenhängen, identifizieren und ihre Reaktion darauf verstärken.“
Die Neuronen im visuellen Kortex sind also in der Lage, ihre Reaktion beim Lernen anzupassen. Aber nicht nur das: Bei der Analyse der Daten stach eine Region des visuellen Kortex, genannt POR, besonders hervor. Die Forschenden fanden Anzeichen, dass dort abstrakte Kategorie-Information gespeichert wird. Damit zeigt die Studie, dass abstraktes Lernen bereits auf den ersten Ebenen der visuellen Verarbeitung beginnt.
KONTAKT:
Dr. Christina Bielmeier
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: presse@neuro.mpg.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Mark Hübener
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
Email: mark@neuro.mpg.de
Prof. Dr. Tobias Bonhoeffer
Abteilung Synapsen – Schaltkreise – Plastizität
Max-Planck-Institut für Neurobiologie, Martinsried
E-Mail: office.bonhoeffer@neuro.mpg.de
Originalpublikation:
Pieter M. Goltstein, Sandra Reinert, Tobias Bonhoeffer, Mark Hübener
Mouse visual cortex areas represent perceptual and semantic features of learned visual categories
Nature Neuroscience, online September 20, 2021
DOI: 10.1038/s41593-021-00914-5
Weitere Informationen:
https://www.neuro.mpg.de/bonhoeffer/de – Webseite der Forschungsabteilung
https://www.neuro.mpg.de/news/2021-09-bonhoeffer/de – Hier finden Sie eine Audioversion der Pressemitteilung
Unternehmensgeschichte: Bevölkerung erwartet Selbstkritik bei Fehlern und Krisen
Axel Grehl Pressestelle
Hochschule Pforzheim
Neues Forschungszentrum von Hochschule Pforzheim und Uni Leipzig startet mit Tagung
Ob NS-Vergangenheit oder Managementfehler: Mehr als zwei Drittel der Menschen in Deutschland erwarten von Traditionsunternehmen, dass sie Verantwortung für die eigene Geschichte übernehmen (69 Prozent) – und darüber öffentlich kommunizieren (68 Prozent). Das geht aus einer bevölkerungsrepräsentativen Studie der Hochschule Pforzheim unter 1.004 Befragten hervor. Die Untersuchung ist eines der ersten Ergebnisse des neuen Center for History and Corporate Communication, an dem die Hochschule Pforzheim und die Universität Leipzig beteiligt sind. Es vereint Grundlagenforschung zur Geschichte des Kommunikationsberufsfelds und zu Unternehmensgeschichte als Gegenstand professioneller Kommunikation.
Für 66 Prozent der Befragten sind Unternehmen mit Tradition bei der Jobsuche besonders attraktiv. Als Kunden würden 45 Prozent das Produkt eines Traditionsunternehmens bevorzugen. Unternehmen mit Geschichte müssen sich aber andererseits auch Verbrechen, Skandalen und Katastrophen in der Vergangenheit stellen. Ein Unternehmen, das dieser Verantwortung nicht gerecht wird, käme für 44 Prozent der Befragten als Arbeitgeber nicht infrage und würde immerhin auch von 34 Prozent der Befragten beim Einkauf gemieden. Im Kontext der Entschädigung von NS-Zwangsarbeitern war Unternehmensgeschichte in den 1990ern verstärkt Thema. Jüngst wurden Verstrickungen zur Kolonialzeit sowie Geschäfte mit dem SED-Regime kritisch hinterfragt. „Die Geschichte prägt die Identität von Traditionsunternehmen. Sie darf aber nicht nur mit Höhepunkten ins Schaufenster gestellt werden“, so Professor Dr. Felix Krebber von der Business School der Hochschule Pforzheim. „Viele Großunternehmen gehen heute verantwortungsvoll mit der eigenen Geschichte um und sind selbstkritisch – besonders bei der Aufarbeitung der Verstrickungen im Nationalsozialismus. Andere große Marken werden dieser Verantwortung bis heute nicht gerecht. “
Auch seien die Kaiserzeit oder Profite aus Ost-West-Geschäften auf den Geschichtsseiten der größten deutschen Unternehmen kaum Thema, auch wenn Unternehmen zu dieser Zeit bereits existierten. Die Gesellschaft erwarte zurecht, dass sich Unternehmen ihrer Verantwortung stellen, die eigene Geschichte durch unabhängige Historiker*innen aufarbeiten zu lassen und über die Ergebnisse die Öffentlichkeit zu unterrichten, bekräftigt der Kommunikationswissenschaftler. „Mit dem Center for History and Corporate Communication werden wird durch unsere Forschung Impulse in die Praxis geben, wie verantwortungsvolle Geschichts-Kommunikation aussehen kann und werden Qualitätsstandards definieren“, so Krebber. Im Rahmen einer digitalen Tagung am 23. September an der Uni Leipzig wird das Center offiziell gegründet und es werden diese und weitere Forschungsergebnisse mit Wissenschaft und Praxis diskutiert.
Das Center for History and Corporate Communication ist einer Initiative der Günter-Thiele-Stiftung für Kommunikation und Management im Stifterverband für die Deutsche Wissenschaft in Kooperation mit der Universität Leipzig und der Hochschule Pforzheim. Es bündelt Forschung zur Geschichte des Kommunikationsberufsfelds sowie zur kommunikativen Vermittlung der Unternehmensgeschichte. Geleitet wird es von Prof. (em.) Dr. Günter Bentele (Universität Leipzig) sowie von Prof. Dr. Felix Krebber (Hochschule Pforzheim).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Felix Krebber, Hochschule Pforzheim
E-Mail: felix.krebber@hs-pforzheim.de
Worauf die Wissenschaft nach der Hochwasserkatastrophe Antworten finden muss
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Die Überflutungen in der Eifel im Juli waren weit mehr als ein Problem von zu viel fließendem Wasser. Wie das Mitreißen von Totholz und Sedimenten die Auswirkungen der Flut verstärkt hat – und was daraus für künftige Forschung folgt, schreiben die GFZ-Forscher Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Ein Bericht mit Eindrücken vom Ablauf der Flut.
Am 14. Juli 2021 fielen in der Eifel in nur 22 Stunden zwischen 60 und 180 mm Regen, eine Menge, die sonst in mehreren Monaten fällt, und die zu katastrophalen Überflutungen geführt hat. Die Ereignisse waren weitaus zerstörerischer, als bestehende Modelle vorhergesagt hatten. Forschende des Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ machen dafür eine Reihe von Effekten verantwortlich, die bisher in Mitteleuropa kaum aufgetreten und daher in diesen Regionen noch nicht genug berücksichtigt wurden. Dazu gehört insbesondere das Mitreißen von Totholz und Sedimenten, beides Effekte, die mit fortschreitendem Klimawandel weiter an Bedeutung gewinnen dürften. Über die Mechanismen, die die Auswirkungen der Flut verstärkt haben, berichten Michael Dietze und Ugur Öztürk heute in der Zeitschrift Science. Sie geben auch einen Ausblick auf ein neues Forschungsvorhaben, das hier ansetzt, um künftige Vorhersagen realistischer zu gestalten.
Forschende als zufällige Zeugen der Hochwasserkatastrophe
Der 14. Juli ist ein regnerischer Tag. GFZ-Forscher Michael Dietze ist mit Kolleg*innen aus Potsdam und der Uni Bonn auf dem Rückweg von Geländearbeiten in der südlichen Eifel. Im Auto zurück Richtung Norden wird ihnen schnell klar, dass hier gerade mehr passiert als nur ein langer kräftiger Regen: Der Liveview des Pegels Altenahr steigt 15-minütig rasant an, schneller als die eigentliche Vorhersage – und als es den Forschenden lieb ist, denn eigene Messungen sind davon betroffen. Überflutungen der Ahr sind nichts Ungewöhnliches: Im Rahmen eines Forschungsprojektes haben Dietze und Kolleg*innen einige Wochen zuvor auf einer drei Meter hohen Terrasse im Ahrtal mehrere Seismik-Stationen aufgebaut. Damit wollten sie die Bodenbewegungen messen, die durch turbulent fließendes Wasser und Gerölltransport im Fluss bei „regulären“ Hochwassern entstehen. Nun ist der Pegel schon einen Meter über dem Terrassenniveau, die Stationen sind verloren.
Bekannte Effekte – aber aus anderen Gegenden der Welt
Was die Forschenden hier erleben, ist allerdings nur ein kleiner Ausschnitt der eigentlichen Katastrophe, die in den Tälern von Ahr, Erft und Rur ihren Lauf nimmt. „Die Flut in den Tälern der Eifel war weitaus gewaltiger, schneller und unberechenbarer, als wir das für ein solches Ereignis in der Mitte Europas bislang angenommen haben“, sagt Michael Dietze, PostDoc in der Sektion Geomorphologie am GFZ und am Geographischen Institut der Universität Bonn. „Die Ursachen dafür sind vielfältig und uns durchaus bekannt – allerdings bisher nicht aus Mitteleuropa, sondern aus Wüsten und den Tropen.“
Schnell gesättigter Boden
Der Regen konnte nicht mehr in den durch wochenlang auftretende Regenfälle schon gesättigten Untergrund einsickern. Er war auch zu stark, um dann nur als dünner Wasserfilm die Hänge herunterzulaufen. Stattdessen verwandelten sich Hänge regelrecht in breite Flüsse und transportierten das Wasser statt mit einer Geschwindigkeit von einigen Zentimetern plötzlich mit einigen Metern pro Sekunde, also bis zu hundert Mal schneller. Dadurch konnte es in den Haupttälern viel schneller zu einer Flutwelle zusammenlaufen.
Enorme Erosionskraft des Wassers
Zusätzlich entwickelte das Wasser eine enorme Erosionskraft: Zum einen grub es sich in die Hänge und konnte in den so erzeugten Erosionsrinnen nochmals schneller abfließen. Zum anderen mobilisierte es erhebliche Mengen Sediment und Totholz. Einmal in den Tälern angekommen, trieben die Baumstämme und Äste auf die zahlreichen Brücken zu, die es zum Beispiel im Ahrtal gibt. Dort verfingen sie sich und führten zu sogenannten Verklausungen. Dadurch wurde der Abfluss behindert, das Wasser staute sich und erreichte auch höher gelegene Gebiete.
Unerwartete Effekte an Kiesgrube und Straßen
Im Zuge dieser Ereignisse entstanden bisher in der Region nicht für möglich gehaltene Effekte und sogenannte gekoppelte Gefahren. Die normalerweise fünf Meter breite Erft trat bei der Stadt Blessem über die Ufer und ergoss sich über ein Feld direkt in eine Kiesgrube. Auch hier wurde ein schwach geneigter Hang zu einem breiten Fluss und der Grubenrand fraß sich über eine Länge von 300 Metern wie ein Wasserfall stromaufwärts in Richtung Blessem. Dabei unterhöhlte er die ersten Häuser und ließ sie einstürzen.
Auch die Straße durch Blessem wurde zu einem Fluss, der an unbefestigten Rändern beginnend den gesamten Straßenaufbau unter- und wegspülte, sodass allein die Abwasserrohre zurückblieben. Diese Erosion ebbte nur durch Zufall ab, als immer weniger Wasser die Erft herabfloss.
Gekoppelte Gefahren: der Staudamm der Steinbachtalsperre
Eine besondere Gefahr ging von der nur 35 Kilometer stromaufwärts liegenden Steinbachtalsperre aus. Dieser Erddamm hält 1,2 Mio. Kubikmeter Wasser zurück. Er wurde in der Nacht zum 15. Juli auf einer Breite von 150 Metern knietief überspült, weil der Notüberlauf die ankommenden Wassermassen nicht abführen konnte. Der überspülte Damm erodierte massiv, so dass ein Bruch unmittelbar bevorstand. Wäre dies passiert, hätte die Flutwelle die Prozesse in Blessem erneut entfacht, und darüber hinaus in den Ortschaften direkt unterhalb der Talsperre massive Zerstörungen verursacht. „Dieses Beispiel macht deutlich, wie eng gekoppelt auch scheinbar weit voneinander entfernte Örtlichkeiten sind“, betont Dietze.
Ausblick: Identifikation neuer Forschungsansätze
„Mit anhaltendem Klimawandel werden wir Niederschlagsereignisse wie das am 14. Juli 2021 ziemlich häufig erleben. Daher muss die Forschung jetzt beginnen, durch Starkregen ausgelöste Hochwässer nicht nur als Phänomen von zuviel schnell fließendem Wasser zu verstehen, sondern auch die damit einhergehenden selbstverstärkenden Effekte einzubeziehen, die teilweise ebenfalls durch den Klimawandel begünstigt werden“, sagt Dietze. Dazu gehören die Zerschneidung der Hänge vor allem in den oberen Einzugsgebieten, die Mobilisierung von Totholz und von erodierten vitalen Bäumen sowie deren Rolle bei der Verklausung von menschlicher Infrastruktur. Außerdem müssen neue gekoppelte Gefahren identifiziert und berücksichtigt werden.
Neues Forschungsprojekt liefert wichtige Daten für künftige Modelle
Ein wichtiger Schritt in diese Richtung wird sein, die Spuren der Katastrophe vom Juli 2021 rasch und hoch aufgelöst zu sichern. Das gilt vor allem für die Gebiete, in denen die Flut ihre Kraft gewonnen hat und die bisher kaum im öffentlichen Fokus standen: die oberen Einzugsgebiete der Flüsse bis hin in die Quellgebiete ihrer Nebenflüsse. Mit einem kürzlich bewilligten Projekt, gemeinsam finanziert durch das GFZ und das Graduiertenkolleg NatRiskChange der Universität Potsdam, werden jetzt gezielt diese Gebiete beflogen, um die Landschaft aus Flugzeugen heraus mittels Laser abzuscannen. Daraus entstehen dann hochaufgelöste 3D-Modelle der veränderten Landschaft. Sie können mit bestehenden Datensätzen verglichen werden, die bereits vor der Flut gewonnen wurden. So können die Schlüsselinformationen zu erodierten Hängen, mobilisiertem Holz und überfluteten Flächen gesichert und ausgewertet werden, um zukünftige Modelle durch gemessene Daten zu verbessern. Und dann können Dietze und seine Kolleg*innen auch ihre Seismik-Stationen zur Analyse der flutbedingten Sedimentfracht an tatsächlich sicheren Standorten neu installieren.
Verstopfung eines kleinen Zuflusses der Ahr durch hölzerne Abfälle. Das führt zu zeitweiligen Aufstauungen, massiven Sedimentablagerungen und Überschwemmungen. (Foto: M. Dietze, GFZ)
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11520_Flood-debris.jpg
Ein Eigentümer zeigt den Wasserstand des Hochwassers vom 14. Juli an seinem Haus in Walporzheim. Man beachte die ~2,2 m Wasserstandsmarke des Hochwassers von 1804 und die ~0,6 m Marke von 2016 zum Vergleich. (Foto: M. Dietze, GFZ).
Link: https://media.gfz-potsdam.de/gfz/wv/pm/21/11519_Flutmarke-Walportzheim.jpg
Medienkontakt:
Dr. Uta Deffke
Referentin Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-1049
E-Mail: uta.deffke@gfz-potsdam.de
Wissenschaftliche Ansprechpartner:
Dr. Michael Dietze
Sektion Geomorphologie
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28827
E-Mail: Michael.Dietze@gfz-potsdam.de
Originalpublikation:
Dietze, M., Öztürk, U., A flood of disaster response challenges. Science (2021). DOI: 10.1126/science.abm0617
https://www.science.org/doi/10.1126/science.abm0617
Kunststoffrecycling aus Altfahrzeugen neu denken
Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Stoßfänger, Sitzpolster, Dichtungen, Kabelummantelungen und mehr – rund 1,5 Millionen Tonnen unterschiedlichster Kunststoffe werden jährlich in Pkw in Deutschland verbaut. Bei der heutigen Altfahrzeugaufbereitung kann nur ein geringer Teil der Kunststoffe stofflich wiederverwertet werden, der Großteil geht über industrielle Schredderanlagen in die energetische Verwertung.
Ein neues Projekt will nun die Herausforderungen beim Kunststoffrecycling von Altfahrzeugen mit Hilfe neuer Sortier- und Recyclingverfahren systemisch lösen. Dafür arbeitet das Öko-Institut mit BASF SE, der Volkswagen AG, der SICON GmbH sowie der Technischen Universität Clausthal in einem vom Bundesministerium für Bildung und Forschung geförderten Projekt zusammen.
Die Projektpartner aus Industrie und Wissenschaft entwickeln dafür zunächst ein umfassendes Konzept für die Trennung des hochkomplexen Materialmix, basierend auf einem Prozess, der bereits über die letzten 20 Jahre von Volkswagen und SICON entwickelt wurde. Über optimal austarierte mechanische, chemische und thermische Aufbereitungsverfahren sollen Kunststoffe aus dem Pkw-Sektor umfassend gelenkt und marktgerecht verwertet werden. „Im Rahmen des European Green Deal spielt die Circular Economy eine zentrale Rolle“, erläutert Dr. Winfried Bulach, Projektleiter am Öko-Institut. „Unser Projekt soll dazu einen entscheidenden Beitrag leisten.“
Herausforderungen des Kunststoffrecyclings
Alterungseffekte, Verunreinigungen und geänderte Materialkonzepte stellen mechanische Recyclingverfahren vor große Herausforderungen. Verbesserte Sortiertechniken und das chemische Recycling als komplementäre Lösung zum mechanischen Recycling können dazu beitragen, dass zukünftig die Recyclingquote von Altfahrzeugen im Hinblick auf Kunststoffe gesteigert wird. Davon soll auch die Rezyklateinsatzquote in Neufahrzeugen profitieren. Parallel dazu wird die Wirtschaftlichkeit des Recyclings von Kunststoffen aus Altfahrzeugen verbessert. Für die optimale Nutzung von Potenzialen aus Sekundärrohstoffen werden Industrie 4.0-basierte Methoden zur Steuerung der Stoffströme eingesetzt.
„Die Kunststoffe besser voneinander zu trennen, um sie effektiver zu recyceln, ist ein zentrales Anliegen in unserem Projekt“, betont Heiner Guschall von Projektpartner SICON. „Dafür erarbeiten wir ein Konzept, das für jede der resultierenden Kunststofffraktionen die ökologisch und ökonomisch sinnvollste Verwertung ermöglicht.“
Dies soll die Basis für eine umfassende Umsetzungsphase in einem Folgeprojekt sein. Dabei werden die in den Pilotanlagen bewährten Verfahren optimiert, neue entwickelt und für die unterschiedlichen Teilfraktionen bestmöglich kombiniert.
Dialog mit Praxispartnern für die Umsetzungsphase
Im Dialog mit weiteren Stakeholdern aus Industrie und Wissenschaft evaluieren die Partner die Vorschläge des Projekts in einem Workshop. Dieser hat das Ziel, weitere Partner zu gewinnen und Vorschläge für die Umsetzung in der Praxis zu entwickeln.
Das Projekt „KuRT (Konzeptphase): SyKuRA – Systemisches Kunststoffrecycling aus Altfahrzeugen“ wird vom Bundesministerium für Bildung und Forschung als Teil der Ausschreibung „Ressourceneffiziente Kreislaufwirtschaft – Kunststoffrecyclingtechnologien (KuRT)“ im Rahmenprogramm „Forschung für Nachhaltige Entwicklung – FONA3“ gefördert.
Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
www.oeko.de | blog.oeko.de | twitter.com/oekoinstitut | www.oeko.de/e-paper
Wissenschaftliche Ansprechpartner:
Dr. Winfried Bulach
Senior Researcher im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-144
E-Mail: w.bulach@oeko.de
Dr. Johannes Betz
Wissenschaftlicher Mitarbeiter im Institutsbereich
Ressourcen & Mobilität
Öko-Institut e.V., Büro Darmstadt
Telefon: +49 6151 8191-174
E-Mail: j.betz@oeko.de
Anhang
PM_SyKuRA_Öko-Institut
RWI-Konjunkturprognose: Materialengpässe verzögern die wirtschaftliche Erholung
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Das RWI erwartet für dieses Jahr einen Anstieg des Bruttoinlandsprodukts um 3,5 Prozent, für das Jahr 2022 von 4,9 Prozent. Allerdings stellen neben den verbleibenden Risiken der Pandemie derzeit Lieferengpässe bei Rohstoffen und Vorprodukten das größte Hindernis für die wirtschaftliche Erholung dar. Für dieses Jahr erwartet das RWI im Jahresdurchschnitt eine Inflationsrate von 3,0 Prozent. Im kommenden Jahr dürfte sie auf 2,4 Prozent und im Jahr 2023 auf 1,6 Prozent zurückgehen.Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen. Für 2022 und 2023 prognostiziert das RWI einen Anstieg der Erwerbstätigkeit um 1,5 bzw. 1,0 Prozent.
Das Wichtigste in Kürze:
• Das RWI erwartet, dass das deutsche Bruttoinlandsprodukt (BIP) in diesem Jahr um 3,5 Prozent ansteigt. Im Juni war es mit 3,7 Prozent von einem leicht höheren Anstieg für dieses Jahr ausgegangen. Für 2022 prognostiziert das RWI ein Wirtschaftswachstum von 4,9 Prozent (Juni-Prognose: 4,7 Prozent), für 2023 von 1,2 Prozent.
• Aufgrund von Sondereffekten und von Lieferengpässen bei Rohstoffen und Vorprodukten steigt die Inflationsrate stark. In diesem Jahr dürfte sie durchschnittlich bei 3,0 Prozent liegen. Für die kommenden Jahre erwartet das RWI eine Normalisierung der Inflationsrate auf 2,4 Prozent im Jahr 2022 und 1,6 Prozent im Jahr 2023.
• Der Arbeitsmarkt steht vor einer Normalisierung, wobei die Zahl der Menschen in Kurzarbeit erst im ersten Quartal 2022 wieder auf das Vorkrisenniveau sinken dürfte. Durch den Rückgang der Kurzarbeit steigt die durchschnittliche Arbeitszeit in diesem Jahr um 1,8 Prozent im Vergleich zum Vorjahr, während gleichzeitig die Arbeitsproduktivität je Erwerbstätigenstunde um 1,6 Prozent zunimmt. Auch 2022 werden diese Werte in ähnlichem Tempo steigen.
• Die Zahl der Erwerbstätigen dürfte 2021 insgesamt etwa auf dem Niveau von 2020 liegen, wobei die Zahl der sozialversicherungspflichtig Beschäftigten im Verlauf des Jahres leicht zunimmt, während die Zahl der Selbstständigen und ausschließlich geringfügig Beschäftigten sinkt. 2022 und 2023 dürfte die Erwerbstätigkeit durch den Aufschwung am Arbeitsmarkt wieder deutlich steigen, um 1,5 bzw. 1,0 Prozent.
• Das Defizit der öffentlichen Haushalte dürfte im Jahr 2021 gut 158 Milliarden Euro betragen. Ausgabenseitig belasten in diesem Jahr die Impf- und Testkampagne, umfangreiche Corona-Hilfen für Unternehmen sowie steigende Subventionen die öffentlichen Haushalte. Im kommenden Jahr dürfte das Finanzierungsdefizit knapp 63 Milliarden Euro betragen. 2023 rechnet das RWI mit einem Finanzierungsdefizit von knapp 57 Milliarden Euro.
• Die Corona-Pandemie stellt für die wirtschaftliche Erholung in Deutschland nach wie vor ein beachtliches Risiko dar. Da bedeutende Teile der Bevölkerung noch nicht geimpft sind und sich Covid-19 in der Gruppe der Ungeimpften schnell ausbreitet, besteht nach wie vor das Risiko, dass sich die Hospitalisierungsrate in den kommenden Wochen stark erhöht. Allerdings besteht neben einem erneuten Shutdown nun auch die Möglichkeit, den Zugang zu kontaktintensiven Dienstleistungen nur für Geimpfte und Genesene zu erlauben (2G). In diesem Fall sind Wertschöpfungsverluste von 13 Milliarden Euro zu erwarten – verglichen 52 Milliarden Euro im Falle eines erneuten Shutdowns wie im vergangenen Winter.
„Lieferengpässe haben einige Branchen hart getroffen und dämpfen die wirtschaftliche Erholung“, sagt RWI-Konjunkturchef Torsten Schmidt. Er fügt hinzu: „Es bestehen nach wie vor große Risiken in Bezug auf den weiteren Verlauf der Pandemie und die Auslastung des Gesundheitssystems. Ein weiterer Lockdown ist unbedingt zu vermeiden. Aus wirtschaftlicher Sicht wäre es besser, stärker auf das 2G-Modell zu setzen, insbesondere in Regionen mit stark ausgelasteten Kliniken.“
Dieser Pressemitteilung liegt der RWI-Konjunkturbericht 3/2021 zugrunde. Weitere Informationen zur RWI-Konjunkturberichterstattung: http://www.rwi-essen.de/forschung-und-beratung/wachstum-konjunktur-oeffentliche-….
Ihre Ansprechpartner/in dazu:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287,
Sabine Weiler (Kommunikation), sabine.weiler@rwi-essen.de, Tel.: (0201) 8149-213
Wissenschaftliche Ansprechpartner:
Prof. Dr. Torsten Schmidt, torsten.schmidt@rwi-essen.de, Tel.: (0201) 8149-287
Originalpublikation:
https://www.rwi-essen.de/presse/mitteilung/450/
RWI-Konjunkturbericht Jahrgang 72 (2021), Heft 3, Die wirtschaftliche Entwicklung im Ausland und im Inland zur Jahresmitte 2021
Weitere Informationen:
https://www.rwi-essen.de/kb – Hier finden Sie die RWI-Konjunkturberichte auf der RWI-Homepage
Seegraswiesen als Vibrionen-Fänger – Kieler Forschende beweisen eine weitere Leistung des Ostsee-Ökosystems
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Sie helfen, den Klimawandel zu mindern und Algenblüten zu verhindern – und sie können laut neuesten Forschungsergebnissen auch die Konzentrationen potenziell gesundheitsschädlicher Bakterien im Meerwasser senken: Seegraswiesen erbringen einer jetzt veröffentlichten Studie von Kieler Forschenden zufolge eine weitere Ökosystemleistung für uns Menschen. Die Ergebnisse liefern einen weiteren Anreiz für den Schutz und die Wiederherstellung dieser lange unterschätzen Ökosysteme in der deutschen Ostsee.
Schon länger ist bekannt, dass Seegraswiesen Nährstoffe aufnehmen und so die Überdüngung der Meere und damit Algenblüten verhindern können. Außerdem wird auch zunehmend ihre wichtige Rolle als mariner Kohlenstoffspeicher wahrgenommen, wodurch sie dem Treibhauseffekt entgegenwirken können. Ein Team aus Forschenden des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hat in einer jetzt in der Fachzeitschrift Marine Biology veröffentlichten Studie nachgewiesen, dass heimische Seegraswiesen auch die Wasserqualität in Bezug auf potenziell gefährliche Bakterien verbessern können: Wasser aus den dicht bewachsenen untermeerischen Flächen enthält weniger Vibrionen – natürlich vorkommende Bakterien, die in hohen Konzentrationen gesundheitsschädlich sein können.
An fünf Standorten der Kieler Bucht nahmen Taucher gezielt Wasserproben aus bewachsenen und vegetationsfreiem Sandgrund. Im Labor wurden diese auf einer mit Nährlösung bestrichenen Platte aufgebracht. Nach einigen Tagen wurden die sich bildenden Vibrio-Kolonien gezählt. Die Analysen zeigten, dass Wasser aus Seegraswiesen im Vergleich zu unbewachsenen Flächen durchschnittlich von 39 Prozent weniger Vibrionen und 63 Prozent weniger des potenziell gesundheitsschädlichen Typs Vibrio vulnificus/cholerae enthielt.
Der zugrundeliegende Wirkmechanismus soll zukünftig genauer untersucht werden. „Denkbar ist sowohl, dass die erhöhte Sedimentation in der dichten Wiese zum Absetzen feiner Partikel führt, an welchen auch Vibrionen anhaften“, erklärt Professor Thorsten Reusch, Meeresbiologe am GEOMAR und Leiter der Studie. „Aber es könnte auch sein, dass chemische Substanzen aus den Seegrasblättern das Wachstum der Bakterien hemmen.“
„Unsere Pilotstudie war motiviert von einer Science-Veröffentlichung aus dem Jahr 2017, die für tropische Wiesen eine Reduktion von Korallen- und Humanpathogenen überall dort gezeigt hat, wo dichte Seegraswiesen zwischen menschlichen Siedlungen und Riffen wachsen“, so Prof. Thorsten Reusch. „Nun konnten wir ähnliche Funktionen erstmals für unsere heimischen Gewässer nachweisen.“
Die neuen Ergebnisse sind von besonderer Bedeutung, weil alle Klimamodelle für die Zukunft eine überdurchschnittliche Erwärmung in Verbindung mit einer Aussüßung der Ostsee vorhersagen. „Dies sind exakt die Umweltbedingungen, die zur weiteren Ausbreitung von Vibrionen auch an Badestränden im Sommer führen werden“, so Professorin Ute Hentschel Humeida, Mikrobiologin am GEOMAR und Koautorin der Publikation. Die Studie unterstreicht außerdem die entscheidende Bedeutung von Seegraswiesen als naturbasierte Lösung für die Gesundheit von Flachwasser-Ökosystemen und ihrer Wasserqualität. Damit liefert sie weitere Anreize für den Schutz und die Wiederherstellung dieser lange unterschätzten Küstenökosysteme.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Reusch treusch@geomar.de
Originalpublikation:
Reusch, T.B.H., Schubert, P.R., Marten, S.M. Gill, D., Karez, R., Busch, K., Hentschel, U, (2021): Lower Vibrio spp. abundances in Zostera marina leaf canopies suggest a novel ecosystem function for temperate seagrass beds. Marine Biology, doi: https://doi.org/10.1007/s00227-021-03963-3
Kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen im H2Giga-Projekt HyLeiT
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Grüner Wasserstoff zu wirtschaftlichem Preis
Forscher der Professur Leistungselektronik der TU Dresden erforschen die kostengünstige und netzfreundliche Erzeugung von Wasserstoff aus regenerativen Energiequellen in dem H2Giga-Projekt HyLeiT
Der Klimawandel ist eine der größten Herausforderungen unserer Zeit. Das Erreichen der Klimaneutralität in Deutschland bis zum Jahr 2045 erfordert eine Transformation in nahezu allen Lebensbereichen. Erneuerbare Energien werden zukünftig das Rückgrat moderner Volkswirtschaften darstellen. Häufig müssen etablierte Technologien, die auf der Verbrennung fossiler Brennstoffe basieren, durch elektrische Alternativen ersetzt werden. Dies wird besonders beim Thema Elektromobilität deutlich.
In der Praxis können jedoch nicht alle Prozesse auf die Nutzung energiereicher Brennstoffe verzichten. So sind zum Beispiel die Stahlindustrie oder der Flugverkehr auf energiereiche Brennstoffe angewiesen. Gleichzeitig stellt die hohe Volatilität, also die intensiven Schwankungen regenerativer Energiequellen, die Elektroenergieversorgung vor große Herausforderungen. Für beide Probleme stellt die Erzeugung von Grünem Wasserstoff eine attraktive Lösung dar.
So kann mit überschüssiger Elektroenergie Wasserstoff erzeugt und als regenerativer Brennstoff verwendet werden. Allein in Deutschland wird der zukünftige jährliche Wasserstoff-Bedarf mehrere Hundertmillionen Tonnen betragen. Das Thema Wasserstoff stellt für die deutsche Industrie eine große Chance dar, die Zukunft zu gestalten. Notwendig sind effiziente, langlebige, robuste, kostengünstige, skalierbare und netzfreundliche Elektrolyseanlagen.
Die Energieversorgung stellt eine zentrale Komponente einer Wasserstoff-Elektrolyse-Anlage dar. Das Ziel des H2Giga-Projektes HyLeiT ist eine neue Generation von Elektrolyse-Stromrichtern und elektrischer Systemtechnik für die Wasserstoff-Elektrolyse. Im Vergleich zu dem heutigen Stand der Technik sollen durch neue Technologien die Systemkosten der Elektrotechnik vom Netzanschlusspunkt bis zum DC-Anschluss am Elektrolyseur halbiert, sowie Zuverlässigkeit, Sicherheit und Elektroenergiequalität erhöht werden. Dabei sind die gesamte Wirkungskette vom elektrischen Netz bis zur Gasverteilung, die Einbettung in Szenarien mit 100% regenerativer Energie und die weltweite Einsetzbarkeit zu berücksichtigen.
In dem H2Giga-Projekt HyLeiT arbeiten Akteure aus Wissenschaft und Industrie eng zusammen, um eine praxisnahe Forschung und Entwicklung zu gewährleisten. Zu den Projektpartnern gehören das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE (Projektkoordinator), die SMA Solar Technology AG, die Infineon Techno-logies AG, die Technische Universität Dresden und die Hochschule Bonn-Rhein-Sieg. Das H2Giga-Projekt HyLeit wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Der TU Dresden werden dazu etwa 3,6 Millionen Euro zur Verfügung gestellt.
HyLeit ist Teil des Leitprojekts H2Giga. Insgesamt drei Wasserstoff-Leitprojekte des BMBF leisten einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie der Bundesregierung. In Summe bilden diese die größte Förderinitiative des Bundesforschungsministeriums zum Thema Energiewende überhaupt. Sie setzen somit einen entscheidenden Impuls für Deutschlands Einstieg in die Wasserstoffwirtschaft.
Drei Professuren der elektrischen Energietechnik der TU Dresden sind an dem H2Giga-Projekt HyLeit beteiligt. An der Professur Leistungselektronik wird an einer neuen Generation von Elektrolysegleichrichtern geforscht, die sich durch reduzierte Kosten sowie eine Erhöhung der Effizienz, Leistungsdichte und Energiequalität auszeichnen. Dieser im Gesamtprojekt wichtige Teilaspekt stellt einen wichtigen Schritt auf dem Weg zu einer technisch und wirtschaftlich optimierten Lösung der Elektrolyse-Energieversorgung dar. Zur Erhöhung der Effizienz und Zuverlässigkeit forscht die Professur Hochspannungs- und Hochstromtechnik an der elektrischen Verbindungstechnik in Elektrolysegleichrichtern. Dabei stehen insbesondere die thermische Auslegung sowie Untersuchungen zum Kontakt- und Langzeitverhalten im Vordergrund. Die Professur für Elektroenergieversorgung untersucht neuartige Schutzkonzepte für die elektrische Systemtechnik. Hierzu müssen Fehler zuverlässig erkannt und selbständig geklärt werden, wodurch die Robustheit des Systems steigt. Die ausgezeichnete Abstimmung der Forschungsschwerpunkte und –aufgaben sowie eine enge Kooperation der beteiligten Ingenieure ermöglichen die Erarbeitung eines optimalen Gesamtkonzepts für Topologie und Komponenten.
Über die Wasserstoff-Leitprojekte
In den Wasserstoff-Leitprojekten arbeiten über 240 Partner aus Wissenschaft und In-dustrie zusammen. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Insgesamt wird die Förderung etwa 740 Millionen Euro betragen.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Steffen Bernet
TU Dresden
Professur für Leistungselektronik
E-Mail: steffen.bernet@tu-dresden.de
Tel.: 03514 63-42137
Die Bekämpfung von Diabetes und Adipositas muss vorrangiges Politikziel werden
Michaela Richter Pressestelle
Deutsche Diabetes Gesellschaft
Keine Krankheit belastet das Sozial- und Gesundheitssystem so sehr wie Adipositas – noch nicht einmal die Coronapandemie. Der im Bundestag beratene Gesetzentwurf zur Weiterentwicklung der Gesundheitsversorgung (GVWG) sieht nun die Einführung eines DMP Adipositas vor. Allerdings drängt die Zeit: Daher empfiehlt die Deutsche Diabetes Gesellschaft (DDG), bei der Ausgestaltung des neuen DMP Adipositas bestehende Strukturen und Expertise aus dem DMP für Typ-2-Diabetes zu nutzen. Außerdem müssen in der nächsten Legislaturperiode endlich auch Maßnahmen zur Primärprävention von Übergewicht wie eine gesunde Mehrwertsteuer oder eine verbindliche Ampelkennzeichnung eingeführt werden.
Jeder zweite Erwachsene in Deutschland ist übergewichtig, jeder vierte adipös. Weltweit hat sich in den letzten Jahrzehnten die Zahl der übergewichtigen Menschen erhöht, in Deutschland sogar verdreifacht. Grund dafür ist laut Professor Dr. med. Matthias Blüher, Vorstandsmitglied der DDG und Direktor des Helmholtz Instituts für Metabolismus-, Adipositas- und Gefäßforschung des Helmholtz Zentrums München an der Universitätsmedizin Leipzig, die hierzulande weit verbreitete ungesunde Ernährungsweise, der immobile Lebensstil und die hochtechnisierte Arbeitswelt, die Ernährung und Bewegung zusätzlich negativ beeinflusse.
Über 60 Krankheiten stehen im Zusammenhang mit Übergewicht – allen voran Diabetes, aber auch Krankheiten von Herz und Gefäßen, Leber oder Lunge, Beschwerden des Bewegungs-apparates sowie verschiedene Krebsarten. „Die Adipositas-Welle muss eingedämmt werden, sonst werden wir ganz abgesehen von den individuellen Schicksalen und Problemen auch volkswirtschaftliche Nachteile erleiden“, warnt DDG Präsident Professor Dr. med. Andreas Neu. Denn Adipositas habe dramatische biologische und gesellschaftliche Folgen. Die Fehlzeiten wegen Arbeitsunfähigkeit, aber auch die Zahl der Frühverrentungen steigt bei Menschen mit starkem Übergewicht deutlich an. „30 Milliarden Euro Kosten entfallen jedes Jahr allein auf Gesundheitsmaßnahmen im Zusammenhang mit Adipositas“, so Blüher. Die indirekten Kosten belaufen sich sogar auf 60 Milliarden jährlich.
Das jetzt geplante DMP Adipositas ist ein notwendiger Schritt, um die Versorgung der Menschen mit krankhaftem Übergewicht deutlich zu verbessern und damit auch die Zahl der Neuerkrankungen an Diabetes Typ 2 zu reduzieren. „Viele dachten lange Zeit, man müsse sich doch einfach mehr bewegen und weniger essen“, sagt Blüher. Doch eine Krankheit lasse sich nicht mit Appellen bekämpfen. „Wir müssen verstehen, warum Menschen zu viel essen und sich zu wenig bewegen.“ Um krankmachende Verhaltensmuster aufzubrechen, brauche es ein multimodales Konzept aus Ernährung, Bewegung, Verhaltenstherapie – gegebenenfalls auch einer medikamentösen und chirurgischen Therapie.
„Es ist wichtig, dass das künftige DMP Adipositas genau solche Konzepte bei der Versorgung von Menschen mit starkem Übergewicht unterstützt“, so die Forderung der DDG. Daher sollten bei der Entwicklung des neuen Behandlungsprogramms etablierte Strukturen und Expertise aus dem DMP Diabetes Typ 2 genutzt werden. Damit bekämen Menschen mit Adipositas Zugang zu einer kontinuierlichen, strukturierten und qualitätsgesicherten Therapie. Vor allem die sektorenübergreifende und interdisziplinäre Verzahnung und das wirkungsvolle Zusammenspiel zwischen Ärzteschaft und Diabetes-Beratungsberufen bietet nicht nur optimale Voraussetzungen für die Begleitung von Menschen mit Diabetes, sondern auch mit Adipositas.
Das DMP Adipositas ist ein wichtiger Schritt zur Umsetzung der 2020 verabschiedeten Nationalen Diabetes Strategie. „Unverzichtbar sind aber auch verhältnispräventive Maßnahmen, die sicherstellen, dass Adipositas gar nicht erst auftritt“, betont DDG Geschäftsführerin Barbara Bitzer: Es bedarf einer verbindlichen Lebensmittelkennzeichnung und eines Verbots von Werbung für ungesunde Lebensmittel, die sich an Kinder und Jugendliche richtet. Schon lange fordert die DDG auch die Einführung einer „Gesunden Mehrwertsteuer“, die gesunde Lebensmittel mit geringem Anteil an Zucker, Fetten und/oder Salz steuerlich entlastet, eine Stunde Bewegung am Tag für Kinder und Jugendliche sowie verbindliche Ernährungsstandards für das Essen in Kitas und Schulen. Nur dadurch kann langfristig ein Durchbruch bei der Prävention von Adipositas und Diabetes erzielt werden. „Wie auch immer die künftige Bundesregierung zusammengesetzt sein wird: Ein konkreter Umsetzungsplan für die Bekämpfung dieser Krankheiten muss oberstes Politikziel werden“, so Bitzer.
Link zur Stellungnahme der DDG zum DMP Adipositas vom November 2020:
https://www.deutsche-diabetes-gesellschaft.de/politik/stellungnahmen/stellungnah…
Schönere Beine, längeres Leben?
Veronika Wagner M.A. Unternehmenskommunikation
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Forschende der Universitätsmedizin Mainz gewinnen neue Erkenntnisse zur chronischen Venenschwäche – Die chronisch-venöse Insuffizienz (CVI) ist eine Erkrankung der Beinvenen, die zu schweren Venen- und Hautveränderungen bis hin zu chronischen Wunden führen kann. Bislang wurde die Erkrankung vorwiegend als ein ästhetisches und lokales Problem der Venen betrachtet. Jedoch zeigen neue Daten, dass die chronische Venenschwäche mit einem erhöhten Risiko für Herz-Kreislauf-Erkrankungen sowie einer höheren Sterblichkeit einhergeht.
Diese bisher unbekannten Erkenntnisse von Wissenschaftler:innen des Centrums für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz und des Deutschen Zentrums für Herzkreislaufforschung (DZHK) legen nahe, die CVI zukünftig als Vorhersagekriterium für das Auftreten von Herz-Kreislauf-Erkrankungen zu nutzen. Die Ergebnisse der Mainzer Studie wurden jetzt in der Fachzeitschrift „European Heart Journal“ veröffentlicht.
„Unsere Untersuchung ist die erste und umfangreichste bevölkerungsbezogene Studie, die systematisch das gesamte Spektrum der Veneninsuffizienz untersucht und in Verbindung mit etablierten Herz-Kreislauf-Erkrankungen auswertet“, erläutert Dr. Jürgen Prochaska, Oberarzt am Zentrum für Kardiologie der Universitätsmedizin Mainz und Arbeitsgruppenleiter am CTH.
„Wir konnten zeigen, dass die chronisch-venöse Insuffizienz ausgesprochen verbreitet ist: Bei rund 41 Prozent der 40- bis 80-jährigen Probanden der bevölkerungsbasierten Gutenberg-Gesundheitsstudie (GHS) wurde eine symptomatische chronische Venenschwäche mit Ödemen, Hautveränderungen oder offenen Wunden der unteren Gliedmaßen diagnostiziert.“ Die Studiendaten belegen, dass die Häufigkeit der chronisch-venösen Insuffizienz mit zunehmendem Alter deutlich ansteigt. Während bei den 40- bis 50-Jährigen mehr als jeder Fünfte betroffen ist, sind es bei den 70- bis 80-Jährigen sogar mehr als zwei Drittel. Eine weitere Erkenntnis der Studie: Frauen erkranken etwas häufiger als Männer.
Zudem stellte das Mainzer Forscherteam fest, dass Personen mit einer chronisch-venösen Insuffizienz mit einer etwa 60 Prozent höheren Wahrscheinlichkeit gleichzeitig eine schwere Herz-Kreislauf-Erkrankung aufweisen als Personen mit gleichem Alter und Geschlecht ohne CVI. Die Wissenschaftler:innen konnten darüber hinaus zeigen, dass das Risiko, in den nächsten zehn Jahren an einer Herz-Kreislauf-Erkrankung wie Herzinfarkt, Schlaganfall, Herzschwäche oder der Herzrhythmusstörung Vorhofflimmern zu erkranken, bei Personen mit CVI fast doppelt so hoch ist wie bei Personen ohne Zeichen einer Venenschwäche.
„Unsere Daten offenbaren eine weitere alarmierende Erkenntnis“, betont Univ.-Prof. Dr. Philipp Wild, Leiter der Präventiven Kardiologie am Zentrum für Kardiologie der Universitätsmedizin Mainz und Leiter der Klinischen Epidemiologie und Systemmedizin am CTH. „Wir haben in der Studie nachgewiesen, dass die Gesamtsterblichkeit über alle Todesursachen hinweg bei Menschen mit chronisch-venöser Insuffizienz unabhängig von allen anderen Faktoren, wie etwa Alter, Geschlecht, Risikofaktoren und Begleiterkrankungen, deutlich erhöht ist. Dies unterstreicht in Verbindung mit der hohen Verbreitung die Notwendigkeit, die Krankheit ernst zu nehmen und als möglichen Indikator für das Vorliegen einer kardiovaskulären Erkrankung zu nutzen.“ Die Sterblichkeit von Personen mit fortgeschrittener Venenschwäche war im Beobachtungszeitraum von etwas mehr als sechs Jahren um etwa das 1,7-fache höher als bei Personen ohne diese Erkrankung.
Der Direktor des Zentrums für Kardiologie der Universitätsmedizin Mainz, Univ.-Prof. Dr. Thomas Münzel, sieht die gemeinsamen kardiovaskulären Risikofaktoren als eine mögliche Ursache für die Verbindung zwischen arterieller und venöser Erkrankung: „Unsere Daten weisen darauf hin, dass klassische Risikofaktoren für eine Herz-Kreislauf-Erkrankung, beispielsweise Bluthochdruck, Diabetes mellitus, Übergewicht oder Rauchen, zu einer fortgeschrittenen Venenschwäche beitragen. Mit der Diagnose einer chronisch-venösen Insuffizienz sollte daher immer auch nach Risikofaktoren und Herz-Kreislauf-Erkrankungen gesucht werden.“
Die Wissenschaftler:innen teilten die erhobenen Befunde zu den Venenveränderungen systematisch nach Schweregraden ein. Diese reichten von keinen Zeichen einer Venenveränderung bis hin zum Vorliegen einer sehr fortgeschrittenen Veneninsuffizienz. Bei einer deutlichen Mehrheit von rund 90 Prozent zeigte sich eine Venenveränderung: 36,5 Prozent der Personen hatten eine sogenannte Varikosis (z. B. Besenreiser) und 13,3 Prozent wiesen Varizen (Krampfadern) auf. Beides sind Venenveränderungen, die häufig im Laufe des Lebens zu einer fortgeschrittenen Venenschwäche führen. Mit einem Anteil von 40,8 Prozent aller untersuchten Personen wies ein hoher Anteil eine manifeste chronisch-venöse Insuffizienz auf.
Für die Untersuchung wurden die Daten von rund 12.400 Teilnehmenden der Gutenberg-Gesundheitsstudie (GHS) aus Mainz und dem Landkreis Mainz-Bingen sowie von mehr als 2.400 Teilnehmenden der MyoVasc-Studie berücksichtigt. Die Bestimmung des Schweregrads einer Venenveränderung wurde mittels standardisierter digitaler Bildaufnahme, einer klinischen Untersuchung der Beine und per Befragung zu typischen Symptomen erhoben. Zudem lagen Daten zu kardiovaskulären Risikofaktoren und Begleiterkrankungen für alle Studienteilnehmenden vor.
Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.
DOI: 10.1093/eurheartj/ehab495
Kontakt:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de
Pressekontakt:
Veronika Wagner M.A., Unternehmenskommunikation, Universitätsmedizin Mainz,
Telefon: 06131 17-8391, E-Mail: pr@unimedizin-mainz.de
Über die Gutenberg-Gesundheitsstudie (GHS):
Die Gutenberg Gesundheitsstudie (GHS) ist eine interdisziplinäre, populationsbasierte, prospektive, monozentrische Kohorten-Studie, die seit 2007 an der Universitätsmedizin Mainz durchgeführt wird. Bei der GHS handelt es sich um eine der weltweit größten Studien ihrer Art, in die über 15.000 Frauen und Männer aus der rheinland-pfälzischen Landeshauptstadt und dem Landkreis Mainz-Bingen im Alter zwischen 35 und 74 Jahren eingeschlossen wurden. Im Rahmen der Studie werden Herz-Kreislauf-Erkrankungen, Krebserkrankungen, Augenerkrankungen, metabolische Erkrankungen sowie Erkrankungen des Immunsystems und der Psyche untersucht. Ziel der Studie ist es, die Risikovorhersage für den Einzelnen für diese Erkrankungen zu verbessern. Hierzu werden Lebensstil, psychosoziale Faktoren, Umwelt, laborchemische Parameter sowie das Ausmaß der subklinischen Erkrankung berücksichtigt. Eine umfangreiche Biomaterialbank ermöglicht molekularbiologische Untersuchungen, unter anderem auch in einem systembiologischen Ansatz. Weitere Informationen im Internet unter www.gutenberg-gesundheitsstudie.de
Über die MyoVasc-Studie
Die MyoVasc-Studie ist eine epidemiologische, prospektive Kohortenstudie zur Untersuchung der Herzinsuffizienz und der Interaktion mit Gefäßerkrankungen. Die Studie wird seit 2012 durch die Präventive Kardiologie und Medizinische Prävention (Leitung: Univ.-Prof. Dr. Philipp Wild) am Zentrum für Kardiologie der Universitätsmedizin Mainz durchgeführt. Insgesamt werden mehr als 3.200 Personen mit verschiedenen Formen der Herzinsuffizienz und Kontrollpersonen ohne Herzinsuffizienz über jeweils sechs Jahre regelmäßig untersucht. Ziel ist, den Verlauf der Herzinsuffizienz noch besser zu verstehen und Risikofaktoren zu identifizieren. Weitere Informationen im Internet unter Präventive Kardiologie und Medizinische Prävention | MyoVasc (unimedizin-mainz.de)
Über das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK)
Das Bundesministerium für Bildung und Forschung (BMBF) hat im Rahmen seiner Bemühungen, optimale Forschungsbedingungen zur Bekämpfung von Volkskrankheiten zu schaffen, die Deutschen Zentren der Gesundheitsforschung (DZG) gegründet. Eines dieser sechs Zentren ist das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK). Dieses Zentrum setzt sich aus insgesamt 29 Institutionen zusammen, die auf sieben Standorte verteilt sind. Die Ziele des Zentrums sind die Verbesserung von Prävention, Diagnostik und Therapie von kardiovaskulären Erkrankungen. Die Universitätsmedizin Mainz gehört dem Standort RheinMain des DZHK an und hat im Netzwerk den Schwerpunkt in der patientenorientierten Forschung zu kardiovaskulären Erkrankungen.
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten und jährlich mehr als 300.000 Menschen stationär und ambulant versorgen. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.000 Studierende der Medizin und Zahnmedizin sowie mehr als 600 Fachkräfte in den verschiedensten Gesundheitsfachberufen, kaufmännischen und technischen Berufen werden hier ausgebildet. Mit rund 8.600 Mitarbeitenden ist die Universitätsmedizin Mainz zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de.
Wissenschaftliche Ansprechpartner:
Univ.-Prof. Dr. Philipp Wild, Zentrum für Kardiologie und Centrum für Thrombose und Hämostase (CTH) der Universitätsmedizin Mainz, Telefon 06131 17-7439,
E-Mail: philipp.wild@unimedizin-mainz.de
Originalpublikation:
Prochaska JH, Arnold N, Falcke A, Kopp S, Schulz A, Buch G, Moll S, Panova-Noeva M, Jünger C, Eggebrecht L, Pfeiffer N, Beutel M, Binder H, Grabbe S, Lackner KJ, Ten Cate-Hoek A, Espinola-Klein C, Münzel T, Wild PS. Chronic venous insufficiency, cardiovascular disease, and mortality: a population study. Eur Heart J. 2021 Aug 13:ehab495. Online ahead of print. PMID: 34132336.
https://doi.org/10.1093/eurheartj/ehab495
Ökoeffizientes Düngen schont Natur, Gesundheit und Geldbeutel
Dr. Katharina Baumeister Corporate Communications Center
Technische Universität München
Harnstoff ist ein wertvoller Stickstoff-Dünger und wird in der Landwirtschaft regelmäßig zur Düngung großer Ackerflächen genutzt. Die Freisetzung von Harnstoff in die Atmosphäre hat jedoch weitreichende Folgen für die Umwelt und die menschliche Gesundheit. Abhilfe schaffen kann der Zusatz von „Urease-Inhibitoren“, die die gasförmigen Ammoniak-Verluste verringern. Ein Forscherteam der Technischen Universität München (TUM) hat berechnet, wie durch den Einsatz ökoeffizienter Dünger Ausgaben in Milliardenhöhe im Umwelt- und Gesundheitsbereich eingespart werden können.
Harnstoff hilft den Pflanzen beim Wachstum. Über die Hälfte aller synthetischen Dünger, die weltweit genutzt werden, basieren auf diesem Stoff, da er einfach zu lagern, transportieren und auszubringen ist. „Harnstoff als Dünger wird jedoch nur in geringem Maße direkt von den Pflanzen aufgenommen. Erst nach seiner Umwandlung in Ammonium oder Nitrat steht er den Pflanzen als Stickstoff-Quelle zur Verfügung“, erklärt Urs Schmidhalter, Professor am Lehrstuhl für Pflanzenernährung der TUM.
Harnstoff tritt in Böden und Gewässer ein
Bei dieser Umwandlung wird Ammoniak freigesetzt, das sich in der Atmosphäre verflüchtigt und auch in tiefere Bodenschichten und damit auch in das Grundwasser eindringt. Das bringt zweierlei Probleme mit sich: Zum einen bedeuten die Stickstoff-Verluste einen hohen finanziellen Aufwand und Ertragseinbußen für die Landwirte, zum anderen sind sie verantwortlich für die Versauerung und Nährstoffanreicherung in Böden und Gewässern.
80 bis 95 Prozent der gesamten Ammoniak-Emissionen in der Europäischen Union waren 2018 auf diese Stickstoff-Verluste zurückzuführen. Synthetische und organische Düngemittel tragen zu den Verlusten wesentlich bei. Aus der Feinstaubbildung von Ammoniak können damit Gesundheitsschäden wie Atemwegserkrankungen sowie Herz-Kreislauf-Erkrankungen entstehen.
Austritt von Ammoniak in die Atmosphäre kann verringert werden
Doch es gibt eine Lösung: Der Zusatz von sogenannten „Urease-Inhibitoren“ verringert die gasförmigen Ammoniak-Verluste. Diese Enzyme werden dem Düngemittel beigemischt und blockieren die Urease-Enzyme für einen gewissen Zeitraum, der für die Umwandlung von Harnstoff in Ammonium und Kohlendioxid nötig ist. „Studien haben gezeigt, dass solche Urease-Inhibitoren die Emissionen um 50 bis 80 Prozent reduzieren können. Statt sich in der Atmosphäre zu verflüchtigen steht also eine deutlich größere Stickstoff-Menge den Pflanzen zur Ertragsbildung zur Verfügung“, sagt Schmidhalter.
Deutschland ist das erste Land, das den Zusatz von Urease-Inhibitatoren zu granuliertem Harnstoff durch die nationale Düngemittelverordnung 2020 bereits vorschreibt. Die Europäische Union verlangt bis 2030 verpflichtend eine Reduktion von Ammoniak-Emissionen von allen Mitgliedsländern.
Ökoeffizientes Düngen als kostengünstige Schutzmaßnahme
Ein Forscherteam des Lehrstuhls für Pflanzenernährung an der TUM hat nun ein Konzept erstellt, um den gesellschaftlichen und ökologischen Nutzen des Einsatzes solcher Urease-Inhibitoren zu berechnen. Dabei errechnen sie einen Nutzen der Harnstoff-Emissionsminderung für die Ökosysteme und die menschliche Gesundheit von durchschnittlich 17,5 Euro pro Kilogramm Harnstoff-Ausstoß. Die Kosten für den Harnstoffdünger erhöhen sich dabei nur um rund 10 Prozent, welches Mehrkosten von weniger als 10 Cent pro Kilogramm Stickstoff entspricht.
„Die Kosten-Nutzen Abschätzung für die Maßnahmen zur Verringerung des Harnstoff-Ausstoßes wird es den politischen Entscheidungsträgern ermöglichen, die spezifischen Maßnahmen umzusetzen“, meinen Schmidhalter und sein Mitarbeiter Privatdozent Yuncai Hu. Ihre Berechnungen sind auch für andere Regionen weltweit hilfreich. Während die Europäische Union 5 Prozent der weltweiten Harnstoff-Emissionen produziert, sind China für 30 Prozent, Indien für 24 Prozent und die USA für weitere 5,4 Prozent verantwortlich.
„Für das Jahr 2018 betragen die für Deutschland berechneten Kosteneinsparungen bei Einsatz von Urease-Hemmstoffen 0,3 Milliarden Euro, für Europa 3 Milliarden, für China 9 Milliarden und für die ganze Welt 63 Milliarden Euro. Wir haben diese Zahlen ergänzend zum Artikel berechnet und die allerneuesten Informationen mit einbezogen“, sagt Prof. Schmidhalter.
Der Einsatz von Urease-Hemmstoffen stellt laut Schmidhalter die kostengünstigste Maßnahme zur Reduktion von Ammoniak-Emissionen aus der Landwirtschaft dar. „Weitere Einsparungen, insbesondere aus der Tierhaltung, werden sehr viel kostenintensiver sein“, begründet Schmidhalter.
Wissenschaftliche Ansprechpartner:
Prof. Urs Schmidhalter
TUM School of Life Sciences
Lehrstuhl für Pflanzenernährung
Tel: 08161/ 71-3391
E-Mail: schmidhalter@wzw.tum.de
Originalpublikation:
Yuncai Hu und Urs Schmidhalter (2021): Urease inhibitors: opportunities for meeting EU national obligations to reduce ammonia emission ceilings by 2030 in EU countries. Environ. Res. Lett. 16 084047. URL: https://iopscience.iop.org/article/10.1088/1748-9326/ac16fe
Weitere Informationen:
https://mediatum.ub.tum.de/1624250 (Bildmaterial)
https://www.wzw.tum.de/index.php?id=2 (TUM School of Life Sciences)
https://www.hef.tum.de/startseite/ (Hans-Eisenmann-Forum für Agrarwissenschaften an der TUM)
Warum uns mit dem Alter Wörter schlechter einfallen
Bettina Hennebach Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kognitions- und Neurowissenschaften
Wenn wir älter werden, fällt es uns zunehmend schwerer, im entscheidenden Moment die richtigen Wörter parat zu haben – und das, obwohl unser Wortschatz im Laufe des Lebens eigentlich kontinuierlich anwächst. Bislang war unklar, woran das liegt. Forscherinnen das Max-Planck-Instituts für Kognitions- und Neurowissenschaften und der Universität Leipzig haben nun herausgefunden: Es sind die Netzwerke im Gehirn, die ihre Kommunikation im Laufe der Zeit verändern. Das macht sie ineffizienter.
Untersucht haben die Forscher diese Zusammenhänge mithilfe von zwei Gruppen – jüngeren StudienteilnehmerInnen zwischen 20 und 35 Jahren und älteren zwischen 60 und 70 Jahren. Beide Gruppen sollten im MRT-Scanner Wörter nennen, die zu bestimmten Kategorien gehören, darunter Tiere, Metalle oder Fahrzeuge.
Dabei wurde deutlich: Beide Altersgruppen waren zwar gut darin, Begriffe zu finden. Die Jüngeren waren jedoch etwas schneller. Der Grund dafür könnte in den unterschiedlichen Hirnaktivitäten liegen. Bei den Jüngeren waren zum einen nicht nur die Sprachareale selbst aktiver. Bei ihnen zeigte sich auch ein intensiverer Austausch innerhalb zwei entscheidender Netzwerke: Dem Netzwerk für das semantische Gedächtnis, in dem Faktenwissen abgespeichert ist, und dem exekutiven Netzwerk, das für allgemeine Funktionen wie Aufmerksamkeit und Gedächtnis zuständig ist. Bei den Älteren war es umgekehrt. Hier zeigten exekutive Areale stärkere Aktivität, was darauf hinweist, dass die Aufgabe für diese Personen insgesamt schwieriger zu bewältigen war. Außerdem war der Austausch innerhalb der entscheidenden Netzwerke weniger effektiv als bei den Jüngeren. Am ehesten profitierte die ältere Gruppe vom Austausch zwischen den Netzwerken, der ist allerdings mit Einbußen verbunden. „Die Kommunikation innerhalb von neuronalen Netzwerken ist effizienter und damit schneller als zwischen ihnen“, erklärt Sandra Martin, Doktorandin am MPI CBS und Erstautorin der zugrundeliegenden Studie, die jetzt im Fachmagazin Cerebral Cortex erschienen ist.
Warum sich diese Aktivitätsmuster mit dem Alter verschieben, ist bislang nicht vollständig geklärt. Eine Theorie ist, so Martin, dass man sich im Laufe der Jahre mehr auf das Sprachwissen verlasse, das man habe, sodass der Austausch zwischen Netzwerken in den Fokus rückt, während sich jüngere Menschen stärker auf ihr schnelles Arbeitsgedächtnis und kognitive Kontrollprozesse verlassen. „Auf der strukturellen Ebene könnte außerdem der Abbau von grauer Hirnsubstanz eine Rolle spielen, der durch den Austausch zwischen den Netzwerken kompensiert wird“, sagt Martin.
Wissenschaftliche Ansprechpartner:
Sandra Martin, Doktorandin
martin@cbs.mpg.de
Gesa Hartwigsen, Forschungsgruppenleiterin
hartwigsen@cbs.mpg.de
Originalpublikation:
„Age-Dependent Contribution of Domain-General Networks to Semantic Cognition“ in Cerebral Cortex:
https://academic.oup.com/cercor/advance-article/doi/10.1093/cercor/bhab252/63603…
BAuA stellt Daten zur mentalen Gesundheit bei der Arbeit bereit
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Ab sofort können Wissenschaftlerinnen und Wissenschaftler Daten der Studie zur Mentalen Gesundheit bei der Arbeit (S-MGA) der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) für ihre Forschung nutzen. Dazu stellt das Forschungsdatenzentrum der BAuA einen Scientific Use File zur Verfügung, der Daten aus der ersten und zweiten Befragungswelle der Studie enthält.
Die Studie zur Mentalen Gesundheit bei der Arbeit entstand in Zusammenarbeit zwischen der BAuA, dem Institut für Arbeitsmarkt- und Berufsforschung sowie dem infas Institut für angewandte Sozialwissenschaft. Die Studie untersucht Zusammenhänge zwischen Arbeitsbedingungen, mentaler Gesundheit, Arbeitsfähigkeit und Erwerbsteilhabe im Längsschnitt. Hierfür wurde eine repräsentative Stichprobe von sozialversicherungspflichtig Beschäftigten der Geburtsjahrgänge 1951 bis 1980 in ganz Deutschland wiederholt befragt. An der ersten Welle 2011/12 nahmen 4.511 Befragte teil, von denen 2.637 im Jahr 2017 wiederbefragt werden konnten.
Das Forschungsdatenzentrum der BAuA hat jetzt für die Weitergabe der in beiden Wellen erhobenen Daten an die wissenschaftliche Forschung einen Scientific Use File bereitgestellt. Dazu wurden die Befragungsdaten gezielt anonymisiert. Die dazugehörige umfangreiche Datendokumentation stellt den Inhalt des Datensatzes einschließlich der Aufbereitungs- und Anonymisierungsschritte dar. Die Daten für wissenschaftliche Zwecke stehen kostenfrei zur Verfügung. Den Datenzugang gibt es über einen Antrag an das Forschungsdatenzentrum der BAuA. Dazu schließt das Forschungsdatenzentrum einen Vertrag mit den Nutzenden über die Rechte und Pflichten bei der wissenschaftlichen Auswertung. Weiterführende Informationen zum Datensatz und zum Datenzugang finden sich auf der Homepage der BAuA unter www.baua.de/fdz
Das Forschungsdatenzentrum der BAuA, das der Rat für Sozial- und Wirtschaftsdaten im Juli 2021 akkreditierte, stellt darüber hinaus weitere Daten aus der Forschung der BAuA zur Verfügung.
Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 750 Beschäftigte.
www.baua.de
Neues Fact Sheet zu Erkenntnissen zum Klimawandel im Ostseeraum
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Wie verläuft der Klimawandel in der Ostsee und was sind mögliche Auswirkungen auf die Meeresumwelt? Baltic Earth und HELCOM haben jetzt eine Zusammenfassung der aktuellen Forschungsergebnisse in Form eines kompakten Faktenblatts (Climate Change Fact Sheet) herausgegeben. Das Fact Sheet wurde am Freitag, 3. September 10:00 bis 12:00, im Rahmen einer virtuellen Pressekonferenz veröffentlicht.
Programm der Pressekonferenz
1. Vorstellung des Baltic Sea Climate Change Fact Sheets
2. Präsentation der wichtigsten Ergebnisse zum Klimawandel in der Ostsee
3. Fragen und Antworten mit Medienvertretern und Expertinnen und Experten aus dem Bereich Klimawandel von Baltic Earth und HELCOM
Grundlage für Entscheidungsträger und Information für die Öffentlichkeit
„Das Fact Sheet richtet sich vor allem an politische Entscheidungsträger, damit sie eine wissenschaftsbasierte und dabei gut verständliche Übersicht darüber erhalten, wie sich der Klimawandel bereits jetzt schon auf die Ostsee auswirkt und was wir für die Zukunft erwarten“, sagt Prof. Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde und Vorsitzender der Baltic Earth Steuergruppe, der das Fact Sheet als führender Experte für den Klimawandel in der Ostseeregion zusammen mit einer internationalen Expertengruppe erarbeitet hat. „Mit dem Fact Sheet wollen wir Entscheidungsträgern helfen, sich in verständlicher Form über den aktuellen wissenschaftlichen Kenntnisstand zum Klimawandel und seinen Auswirkungen auf die marine Umwelt zu informieren“, sagt Jannica Haldin, die bei HELCOM die Arbeit zum Klimawandel leitet.
Das inhaltlich umfassende, kompakte und für Laien verständliche Fact Sheet ist eine Fortsetzung und Zusammenfassung der beiden bisherigen Ostsee-Klimaberichte (BACC), die sich als regionale Gegenstücke zu den global angelegten Berichten des Weltklimarates IPCC verstehen. „Die Erkenntnisse aus den BACC-Büchern von 2008 und 2015 sind weitestgehend immer noch gültig, und auch die neuen Baltic Earth Assessment Reports (BEAR) haben zur Erarbeitung des Fact Sheets beigetragen“, sagt Marcus Reckermann vom Internationalen Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon. „So können sich auch interessierte Bürgerinnen und Bürger zu diesem Thema informieren“, so Reckermann.
Wassertemperaturen und Meeresspiegel steigen, Eisbedeckung nimmt ab
Das Faktenblatt zeigt auf, dass die Wassertemperatur und der Meeresspiegel in der Ostsee ansteigen und die Meereisbedeckung abnimmt, was wiederum Auswirkungen auf Ökosysteme und Meerestiere, aber auch auf die maritime Wirtschaft wie Schifffahrt, Fischerei und Aquakultur hat: „Die Wassertemperaturen der Ostsee sind in den letzten 100 Jahren deutlich angestiegen und werden im 21. Jahrhundert voraussichtlich weiter ansteigen“, führt Ozeanograph Meier aus und fügt hinzu, dass laut aktuellen Modellberechnungen die Ostsee bis zum Ende des Jahrhunderts in weiten Teilen im Durchschnitt eisfrei sein werde.
Das gemeinsam von Baltic Earth und HELCOM entwickelte Fact Sheet enthält Informationen über 34 Parameter, von der Luft- und Wassertemperatur bis hin zu den Ökosystemleistungen der Meere und Küsten, aufgeteilt in verschiedene Kategorien: Energie- und Wasserkreislauf, Kohlen- und Nährstoffkreislauf, Meeresspiegel und Windbedingungen, Biota und Ökosysteme, sowie menschliche Aktivitäten. Rund 100 Experten aus dem gesamten Ostseeraum waren im speziell für die Erstellung dieses Faktenblatts gebildeten Expertennetzwerks für den Klimawandel (EN CLIME) beteiligt. Es ist geplant, das Faktenblatt alle sieben Jahre zu aktualisieren.
Über Baltic Earth
Baltic Earth ist ein internationales wissenschaftliches Netzwerk, das ein verbessertes Verständnis des Erdsystems der Ostseeregion anstrebt als Grundlage für ein wissenschaftsbasiertes Management angesichts der Auswirkungen von Klima, Umwelt und Mensch in der Region. Baltic Earth wirddurch das Internationale Baltic Earth Sekretariat am Helmholtz-Zentrum Hereon koordiniert.
https://baltic.earth
Über HELCOM
Die Kommission für den Schutz der Meeresumwelt der Ostsee – auch bekannt als Helsinki-Kommission oder HELCOM – ist eine zwischenstaatliche Organisation, die 1974 gegründet wurde, um die Meeresumwelt der Ostsee vor Verschmutzungsquellen zu schützen. Ihre Mitglieder sind die neun Ostseeanrainerstaaten und die Europäische Union.
https://www.helcom.fi
Wissenschaftliche Ansprechpartner:
Für das Climate Change Fact Sheet und Baltic Earth:
Dr. Marcus Reckermann
Baltic Earth Sekretariat
Helmholtz-Zentrum Hereon
+49 (0)4152 87-1693
marcus.reckermann@hereon.de
Für HELCOM:
Dominik Littfass
HELCOM
dominik.littfass@helcom.fi
+358 40 647 3996
Weitere Informationen:
https://helcom.fi/ccfs-launch Anmeldung zur Pressekonferenz
https://helcom.fi/wp-content/uploads/2021/08/CCFS-embargoed.zip Climate Change Fact Sheet Medienvorschau
Kopfschmerztag 2021: Auswirkungen des Corona-Lockdowns auf Patientinnen und Patienten mit primären Kopfschmerzen
Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Eine in Deutschland durchgeführte Studie [1] untersuchte, welche Auswirkungen der Lockdown auf Patientinnen und Patienten mit primären Kopfschmerzerkrankungen hatte. Es wurden die Einträge der Studienteilnehmenden in ein digitales Kopfschmerztagebuch analysiert. Zwar gaben viele eine anfängliche Stressreduktion durch den Lockdown an, aber es gab keine langfristigen positiven Auswirkungen auf die primären Kopfschmerzerkrankungen. Eine ähnliche Erhebung [2], die in Italien an Patientinnen/Patienten mit Migräne durchgeführt worden war, ergab, dass womöglich die Stressreduktion durch die Arbeit im Homeoffice positive Effekte hatte.
Am 5. September ist Kopfschmerztag. Ziel des Aktionstags ist, auf die häufig unterschätzten Kopfschmerzerkrankungen und das Leiden der Betroffenen hinzuweisen. Aktuell untersuchten zwei Erhebungen, wie es Kopfschmerzpatientinnen und -patienten im Lockdown ergangen ist.
Eine Studie [1] analysierte die Daten von deutschen Patientinnen und Patienten mit primären Kopfschmerzerkrankungen, die ein digitales Kopfschmerztagebuch mit der App „M-sense“ führten und die in den 28 Tagen vor dem Lockdown sowie in den ersten 28 Tag des Lockdowns regelmäßig ihre Daten eingepflegt hatten. Insgesamt konnten die Daten von 2.325 App-Nutzerinnen und -Nutzern ausgewertet werden. Analysiert wurden mögliche Veränderungen im Hinblick auf die monatlichen Kopfschmerztage, die monatlichen Migränetage, der akuten Bedarfsmedikation und der Schmerzintensität. Außerdem wurde erfasst, ob sich Schlafdauer, Schlafqualität, Lebensenergie, Gemütszustand, Stress- und Aktivitätslevel im Lockdown verändert hatten.
Im Ergebnis zeigte sich, dass es keinen signifikanten Unterschied im Hinblick auf die Kopfschmerztage gab (7,01 ± 5,64 vor dem Lockdown vs. 6,89 ± 5,47 währenddessen, p>0,999). Auch in Bezug auf die monatlichen Migränetage und die Schmerzintensität konnte kein Unterschied festgestellt werden. Allerdings hatte sich die Anzahl der Tage, an denen die Betroffenen eine Akuttherapie benötigten, signifikant reduziert – von 4,50 ± 3,88 auf 4,27 ± 3,81 (p < 0.001). Auch berichteten die App-User einen geringeren Stress- und Aktivitätslevel sowie längere Schlafzeiten, bessere Laune und mehr Energie. „Demnach war der Lockdown in einem gewissen Umfang positiv für Menschen mit Kopfschmerzerkrankungen. Es ist bekannt, dass es einen Zusammenhang zwischen hoher Arbeitsbelastung, mangelnder Erholung und Kopfschmerzen gibt, und offensichtlich führte der Lockdown dazu, dass die Betroffenen etwas ‚herunterfahren‘ konnten. Viele Arbeitnehmerinnen und Arbeitnehmer waren in Kurzarbeit und bei den anderen fielen die Wegezeiten zur Arbeit weg, was zu mehr Freizeit führte, außerdem dauerte es oft mehrere Tage oder gar Wochen, bis eine funktionierende Homeoffice-Infrastruktur etabliert war und sie in gewohnter Weise weiterarbeiten konnten“, erklärt Prof. Peter Berlit, Generalsekretär der DGN.
Allerdings war der positive Effekt nicht nachhaltig: In einer weiterführenden Analyse der Daten von 439 der Nutzerinnen und Nutzer wurden die monatlichen Kopfschmerztage, die monatlichen Migränetage, die akute Bedarfsmedikation und die Schmerzintensität dann erneut nach drei Monaten erhoben und mit den Ausgangswerten von vor dem Lockdown verglichen. Es zeigte sich, dass es nun keinerlei Unterschiede mehr gab, auch nicht in Bezug auf die Akutmedikation. Die Autorinnen und Autoren schlussfolgern, dass die anfängliche Stressreduktion durch den Lockdown keine langfristigen Auswirkungen auf die primären Kopfschmerzerkrankungen hatte. „Womöglich brachte der Lockdown neue Stressoren mit sich, durch das Homeschooling, die soziale Isolation oder auch durch Zukunftsängste und finanzielle Sorgen“, erklärt Prof. Berlit weiter.
Eine ähnliche Erhebung [2] war in Italien an Migränepatientinnen und -patienten mittels eines E-Mail-Fragebogens durchgeführt worden. 92 Betroffene nahmen an der Umfrage teil. Die Attackenhäufigkeit war bei 40,2% der Befragten während des Lockdowns konstant geblieben, bei 33,7% hatte sie sich erhöht, bei 26,1% reduziert. Die Dauer der Attacken war bei 55,4% gleichgeblieben, bei 23,9% war sie länger geworden, bei 20,7% hatte sie sich verkürzt. Der Migräneschmerz war bei 65,2% gleich oder vermindert, bei 34,8% hatte die Schmerzintensität zugenommen. Die Wirksamkeit der Migränemedikamente gaben 73,9% der Befragten mit gleich gut an, 17,4% nahmen sie als vermindert wahr, 8,7% als verbessert. Zusammenfassend hatte der Lockdown in dieser Erhebung bei ca. der Hälfte der Patientinnen und Patienten keinerlei Auswirkungen, bei einem Viertel führte er zu Verbesserungen, bei einem anderen Viertel zu Verschlechterungen.
Was aber besonders interessant war: Die Arbeitsgruppe analysierte auch Faktoren, die auf die Migräne Einfluss nehmen: Interessant war das Ergebnis, dass die Patientinnen/Patienten, die im Homeoffice arbeiteten, weniger Medikamente benötigten, eine geringere Schmerzintensität hatten sowie eine kürzere Attackendauer. Die Autorinnen und Autoren schlussfolgern, dass das Arbeiten im Homeoffice ein möglicher Weg sein könnte, um die Lebensqualität von Menschen mit Migräne zu verbessern. „Diese Hypothese ist nicht abwegig, denn wir wissen, dass bestimmte Trigger, wie beispielsweise Stress oder Lärm, Migräne-Attacken auslösen. Im Großraumbüro kann man sich dem weniger gut entziehen als im Homeoffice. Auch hat man zuhause immer einen Rückzugsraum und kann sich ‚rausnehmen‘, wenn eine Attacke beginnt, was die Intensität und Länge der Schmerzen günstig beeinflussen kann“, erklärt DGN-Pressesprecher Prof. Dr. Hans-Christoph Diener. „Arbeiten im Homeoffice kann also für Patientinnen und Patienten mit Migräne durchaus sinnvoll sein.“ Weitere Tipps, wie Betroffene mit der Migräne umgehen können, welche attackenauslösenden Faktoren es gibt und wie die Erkrankung durch medikamentöse und nichtmedikamentöse Therapien behandelt werden kann, finden sich im „Migräne-Therapiekompass“ von Prof. Diener [3].
Literatur
[1] Raffaelli, B., Mecklenburg, J., Scholler, S. et al. Primary headaches during the COVID-19 lockdown in Germany: analysis of data from 2325 patients using an electronic headache diary. J Headache Pain 22, 59 (2021).
https://thejournalofheadacheandpain.biomedcentral.com/articles/10.1186/s10194-02…
[2] Currò, C.T., Ciacciarelli, A., Vitale, C. et al. Chronic migraine in the first COVID-19 lockdown: the impact of sleep, remote working, and other life/psychological changes. Neurol Sci (2021).
https://link.springer.com/article/10.1007/s10072-021-05521-7
[3] Diener C. Der Migräne-Therapiekompass. Migräneattacken vorbeugen: Welche Medikamente und andere Therapien wirklich helfen. Trias Verlag. ISBN: 9783432114484
Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o Dr. Bettina Albers, albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org
Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren über 10.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsident: Prof. Dr. med. Christian Gerloff
Stellvertretender Präsident: Prof. Dr. Gereon R. Fink
Past-Präsidentin: Prof. Dr. med. Christine Klein
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org
Originalpublikation:
https://doi.org/10.1186/s10194-021-01273-z
Ganz genau: Präzision für die Energiewende
Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Wie die Forschungsgruppe Photovoltaik der Hochschule Coburg erneuerbare Energien mit genauer Messtechnik unterstützt.
Minimale Abweichungen sind ok. „Aber wenn wir einen Liter Milch kaufen“, sagt Prof. Dr. Bernd Hüttl, „erwarten wir auch einen Liter.“ Nicht ein Tässchen mehr oder weniger. Der Professor für erneuerbare Energien der Hochschule Coburg versteht, dass die Kundschaft es genau nimmt. „Und bei der Photovoltaik wollen die Kunden eben genau wissen, wieviel Strom eine Anlage produziert. Die Banken als Geldgeber wollen es wissen.“ Die Hersteller würden es also gern exakt angeben, aber das ist nicht ganz einfach: Elektrische Parameter können zwar im Labor präzise gemessen werden, aber draußen verändern Wind und Wetter ständig die Bedingungen. Um solche Einflüsse wissenschaftlich zu untersuchen, betreibt die Hochschule Coburg ein Freiluftlabor auf dem Dach. Das Bundesforschungsministerium fördert das Projekt PV-FeldLab unter anderem mit dem Ziel, eine neue Messtechnik zu entwickeln.
Diffuse Strahlung
Das Leistungsverhalten und der Ertrag der Photovoltaik-Anlagen im so genannten Freifeld sollen damit genauso gut analysiert werden können wie im Labor. An dem Projekt arbeiten auch Studierende wie Tamara Beck mit: „Die natürliche Sonnenstrahlung besteht aus direkter, aber auch aus diffuser Strahlung“, erklärt sie. Diffuse Strahlung entsteht durch Streuung an Dunst oder Wolken. Sie dringt schlechter in die Solarmodule ein und reduziert etwas deren Wirkungsgrad, also die Effektivität. „Das muss bei Außenmessungen im Vergleich zu Laborbedingungen berücksichtigt werden.“ In ihrer Bachelorarbeit im Studiengang Energietechnik und Erneuerbare Energien hat Beck analysiert, wie stark die Reduktion der Effizienz bei natürlicher Solarstrahlung tatsächlich ist. „Das wurde erstmals untersucht.“ Hüttl freut sich, dass die Studentin mit den Messergebnissen auf dem Hochschuldach einen mathematischen Faktor bestimmt hat: Er zeigt, wie sich bei klarem Himmel die Energieausbeute einer Photovoltaikanlage durch die diffuse Strahlung reduziert – im Vergleich zur direkten Strahlung unter Laborbedingungen.
Coburg bei der europäischen Photovoltaikkonferenz
Becks Arbeit trägt zur exakten Kalibrierung der Photovoltaikmodule bei und fließt in eine größere Arbeit der Hochschule Coburg ein: Darwin Daume baut das Gesamtsystem zur Messung der elektrischen Leistung von Photovoltaikkraftwerken auf. Der Student hat bereits seinen Bachelor hier absolviert und schreibt nun seine Masterarbeit in Elektro- und Informationstechnik. Daume fügt verschiedene Methoden der Photovoltaikanalyse zu einem neuen Gesamtkonzept zusammen. Gemeinsam mit ihrem Professor präsentieren die Studierenden ihre Ergebnisse bei der EUPVSEC, der größten internationalen Photovoltaik-Konferenz Europas, die jedes Jahr im Herbst stattfindet. „In diesem Jahr leider nicht in Lissabon sondern nur online“, bedauert Hüttl. Er legt auch als Dekan der Fakultät Elektrotechnik und Informatik Wert darauf, dass die Studierenden möglichst viele, spannende Aspekte der Praxis kennen lernen. Im Oktober startet das neue Semester, und wie in den vielen anderen Studiengängen können sich Interessenten für Elektro- und Informationstechnik und für Energietechnik und Erneuerbare Energien im September noch bei der Hochschule Coburg bewerben. Tamara Beck fängt jetzt als Masterandin an. Darwin Daume arbeitet weiter am Messsystem.
Exakte Messung – weniger Ausfälle
„Die Genauigkeit der elektrischen Leistungsbestimmungen hat sich ja schon deutlich verbessert“, sagt Hüttl. Als er 2008 anfing, sich mit Photovoltaik zu beschäftigen, wurde die Leistung mit plus/minus fünf Prozent angegeben. Beim Liter Milch wären das 50 Milliliter mögliche Abweichung. Bei der Photovoltaik konnte die Messunsicherheit inzwischen auf etwa 1,5 Prozent gesenkt werden. „Unser neues Messverfahren wird auch helfen, die Standardisierung von Freifeldmessungen weiterzuentwickeln.“ Kommendes Jahr werde die neue Messmethode gemeinsam mit den Firmen IBC Solar und smart blue im Feld getestet. Alterungen und Fehler der Solarmodule sollen damit in Photovoltaik-Kraftwerken lokalisiert und Fehlertypen identifiziert werden, so dass die Betreiber eventuelle Ausfälle schnell erkennen oder sogar vorher vermeiden können.
Neue Studie zeigt: Auch ältere Menschen profitieren von einer strikteren Blutdrucksenkung
Dr. Bettina Albers Pressestelle Deutsche Hochdruckliga
Deutsche Hochdruckliga
Ende August wurde im „The New England Journal of Medicine“ eine Studie [1] publiziert, die aufhorchen lässt. Demnach erleiden ältere Menschen weniger Herz- und Gefäßerkrankungen, wenn ihr systolischer Blutdruckwert konsequent unter 130 mm Hg gesenkt wird. Im Vergleich zu Gleichaltrigen, deren Blutdruckwerte darüber lagen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten die kardiovaskuläre Sterblichkeit um ein Viertel geringer und die Schlaganfallrate konnte sogar um ein Drittel gesenkt werden. Das Brisante an dem Ergebnis: Die europäischen Leitlinien der EHS/ESC empfehlen, bei über 65-Jährigen die systolischen Werte nicht unter 130 mm Hg zu senken. Zeit für ein Update?
Eine große chinesische Studie [1] mit mehr als 8.500 Teilnehmenden im Alter zwischen 60 und 80 Jahren verglich den Effekt einer strikteren Blutdrucksenkung (systolische Werte zwischen 110-130 mm Hg) mit dem einer weniger konsequenten (Werte zwischen 130-150 mm Hg) im Hinblick auf verschiedene kardiovaskuläre Endpunkte, darunter die kardiovaskuläre Sterblichkeit, das akute Koronarsyndrom, akute dekompensierte Herzinsuffizienz, Vorhofflimmern und Schlaganfall. Während des Follow-ups (im Median 3,34 Jahre) erlebten 147 Patientinnen und Patienten in der intensiv behandelten Gruppe einen der kardiovaskulären Endpunkte, in der Placebogruppe waren es lediglich 196 (p=0,007). Die HR (Hazard Ratio) betrug 0,74: Die striktere Blutdruckeinstellung konnte also jedes viertes Ereignis verhindern.
Betrachtetet man die einzelnen Endpunkte gesondert, war der Effekt bei einigen deutlich größer als bei anderen. Die Rate akuter Dekompensation der chronischen Herzinsuffizienz, ein u.U. lebensbedrohlicher Notfall, bei dem der Körper nicht mehr in der Lage ist, die Herzschwäche auszugleichen, war in der Gruppe der strikt eingestellten Patientinnen und Patienten auf ein Drittel reduziert (HR: 0,27) – zwei von drei kardialen Dekompensationen konnten also verhindert werden. Auch der Effekt der strikteren Blutdruckeinstellung auf die Schlaganfallrate und Rate des akuten Koronarsyndroms war beträchtlich. Die HR betrug für beide 0,67, es konnte also fast jeder dritte Schlaganfall und fast jedes dritte akute Koronarsyndrom verhindert werden.
„Dieser große Effekt ist insofern erstaunlich, da die Gruppen hinsichtlich ihrer real erreichten Zielwerte gar nicht so weit auseinanderlagen. Die mittleren systolischen Blutdruckwerte betrugen 126,7 mm Hg in der intensiv behandelten Gruppe und 135,9 mm Hg in der Vergleichsgruppe. Das bedeutet, dass selbst die weniger strikt behandelten Patientinnen und Patienten systolische Blutdruckwerte unter 140 mm Hg hatten, das ist die rote Linie, ab der die europäischen Leitlinien des ESC/ESH [2] erst generell eine medikamentöse Therapie empfehlen “, kommentiert Prof. Ulrich Wenzel, Vorstandsvorsitzender der Deutschen Hochdruckliga. „Doch gerade bei älteren Patienten sind wir großzügiger und tolerieren auch systolische Werte bis zu 140 mm Hg. Bei den über 65-Jährigen empfehlen die europäischen Leitlinien [2], die systolischen Werte nicht unter 130 mm Hg zu senken.“ Als Gründe führt der Experte an, dass es bei einer zu schnellen und zu tiefen Senkung zu Unwohlsein und Schwindel und in Folge zu Stürzen kommen kann und die Datenlage bislang so aussah, dass die Risiken den Nutzen zu überwiegen schienen. Auch in der vorliegenden Studie traten in der intensiv behandelten Gruppe mehr Fälle von Hypotonie auf (3,4% vs. 2,6%, p=0,03). Kritisch muss außerdem angemerkt werden, dass es sich in dieser Studienpopulation nicht wirklich um hochbetagte Menschen handelte. Zwar konnten Patientinnen und Patienten zwischen 60 und 80 Jahren eingeschlossen werden, das Durchschnittsalter betrug in dieser Studie aber letztlich „nur“ 66,2 Jahre.
„Mit den vorliegenden Daten müssen wir nun wahrscheinlich umdenken und zumindest die Altersgrenze von 65 Jahren für eine intensivere Therapie hinterfragen, denn der kardiovaskuläre Nutzen der strikteren Blutdruckeinstellung war doch erheblich“, so das Fazit von Professor Wenzel. Die amerikanischen Leitlinien [3] empfehlen ohnehin seit längerem auch bei älteren Patientinnen und Patienten eine konsequente Blutdrucksenkung auf Werte unter 130 mm Hg.
Referenz
[1] Zhang W, Zhang S, Deng Y et al. Trial of Intensive Blood-Pressure Control in Older Patients with Hypertension. NEJM, August 30, 2021. DOI: 10.1056/NEJMoa2111437
[2] Williams B, Mancia G, Spiering W et al.; ESC Scientific Document Group. 2018 ESC/ESH Guidelines for the management of arterial hypertension. Eur Heart J. 2018 Sep 1;39(33):3021-3104
[3] Whelton PK, Carey RM, Aronow WS et al. ACC/AHA/AAPA/ABC/ACPM/AGS/APhA/ASH/ASPC/NMA/PCNA Guideline for the Prevention, Detection, Evaluation, and Management of High Blood Pressure in Adults: A Report of the American College of Cardiology/American Heart Association Task Force on Clinical Practice Guidelines. J Am Coll Cardiol 2018; 71: e127-e248.
Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Weitere Informationen:
http://www.hochdruckliga.de
Länderübergreifender Raumordnungsplan für den Hochwasserschutz in Kraft getreten
Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.
Am 1. September 2021 ist der länderübergreifende Raumordnungsplan des Bundesministeriums des Innern, für Bau und Heimat (BMI) für den Hochwasserschutz nach eingehenden Voruntersuchungen und nach umfassender Beteiligung der Öffentlichkeit und öffentlicher Stellen in Kraft getreten.
Dr. Markus Kerber, Staatssekretär im BMI: „Die jüngste Flutkatastrophe in Rheinland-Pfalz und in Nordrhein-Westfalen zeigt, dass es beim Hochwasserschutz nicht nur um herkömmliche Flusshochwasser gehen darf. Es sind auch Hochwasserereignisse in den Blick zu nehmen, die durch Starkregen hervorgerufen werden. Diese Ereignisse werden durch den Klimawandel weiter zunehmen. Daher müssen wir dem Wasser mehr Raum geben, und das Wasser muss überall so gut wie möglich im Boden versickern können.“
Entsprechend trifft der Raumordnungsplan neben Regelungen zum Hochwasserrisikomanagement, insbesondere im Hinblick auf Siedlungsentwicklung und Kritische Infrastrukturen, auch Regelungen zur Gewinnung und Freihaltung von Retentionsflächen sowie zur Erhaltung und Verbesserung des Wasserversickerungs- und Wasserrückhaltevermögens des Bodens.
Der Raumordnungsplan wurde vom BMI in Zusammenarbeit mit dem Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) entwickelt. Er soll das für den Hochwasserschutz primär zuständige Wasserrecht, aber auch die unterschiedliche Hochwasservorsorge der einzelnen Landesraumordnungsplanungen unterstützen.
Dr. Markus Eltges, Leiter des BBSR: „Hochwasser macht nicht an Landesgrenzen halt, daher müssen Schutzmaßnahmen die Flussgebiete als Ganzes erfassen. Mithilfe des länderübergreifenden Raumordnungsplans setzen wir erstmals bundesweit einheitlich geltende raumordnerische Standards in der Hochwasservorsorge. Jetzt kommt es darauf an, dass die Regelungen des Raumordnungsplans in den Ländern und vor Ort schnellstmöglich aufgegriffen und von der Wasserwirtschaft flankiert werden.“
Der länderübergreifende Raumordnungsplan für den Hochwasserschutz ist ein Vorhaben des Koalitionsvertrages von CDU/CSU und SPD. Weitere Informationen finden Sie unter: www.bmi.bund.de und www.bbsr.bund.de
Kontakt
Christian Schlag
Stab Direktor und Professor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
im Bundesamt für Bauwesen und Raumordnung (BBR)
Deichmanns Aue 31–37
53179 Bonn
Telefon: +49 228 99 401-1484
christian.schlag@bbr.bund.de
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) berät als Ressortforschungseinrichtung die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.
Totholz als Kohlenstoff-Speicher: Insekten beschleunigen den Abbau am Kilimanjaro
Christian Wißler Pressestelle
Universität Bayreuth
Weltweit bewirken klimatische Einflüsse, Insekten und andere Gliederfüßer sowie Mikroorganismen eine ständige Zersetzung von Totholz. Dieser natürliche Abbau setzt erhebliche Mengen von Kohlenstoff in die Umwelt frei und hat daher großen Einfluss auf den Kohlenstoff-Kreislauf der Erde. Dies belegt eine neue, in „Nature“ veröffentlichte Studie. In 55 Wald-Standorten auf sechs Kontinenten wurden Geschwindigkeit und Ursachen des Totholz-Abbaus untersucht. Dr. Andreas Hemp und Dr. Claudia Hemp von der Universität Bayreuth haben in diesem Rahmen den Totholz-Abbau in verschiedenen Klimazonen am Kilimanjaro erforscht.
Die beiden Biologen, die eine Forschungsstation am Kilimanjaro leiten, haben gemeinsam mit tansanischen Partnern zwei Waldflächen untersucht: eine Baumsavanne am Bergfuß des Kilimanjaro in 1.000 Metern Höhe, wo die mittlere Jahrestemperatur bei 23,9 Grad Celsius liegt, und einen Bergwald in 1.600 Metern Höhe. Hier ist es erheblich kühler, die mittlere Jahrestemperatur beträgt 16,5 Grad Celsius. Vor wenigen Jahren hat Dr. Andreas Hemp hier in einer Schlucht die höchsten Bäume Afrikas entdeckt. Wie sich bei den Messungen herausstellte, werden in der Baumsavanne jährlich etwa 21 Prozent des Totholzes auf natürlichem Weg abgebaut. Im etwas höher gelegenen Wald sind es hingegen nur 16 Prozent.
Der Unterschied ist darin begründet, dass in der Savanne erheblich mehr Insekten, vor allem Termiten, sowie zahlreiche andere Gliederfüßer (Arthropoden) heimisch sind. Sie dringen in das Totholz ein und leben von den darin enthaltenen Nährstoffen. In der Savanne gehen jährlich fast 30 Prozent des Totholzabbaus auf Insekten und andere Gliederfüßer zurück, im Bergwald ist ihr Einfluss hingegen nicht signifikant. Diesen Unterschied haben die Wissenschaftler festgestellt, indem sie auf beiden Untersuchungsflächen Totholz aufgeschichtet und in käfigartige undurchdringliche Netze eingehüllt haben. Unter den Netzen wurde der natürliche Holzabbau durch klimatische Einflüsse und Mikroorganismen, aber nicht durch Gliederfüßer vorangetrieben. Auch an allen anderen Wald-Standorten, die im Rahmen der weltweiten Studie untersucht wurden, dienten käfigartige Netze der Isolation des Totholzes von Insekten, Käfern und anderen Gliederfüßern.
„Unsere Untersuchungen belegen die wichtige Rolle des Zusammenwirkens von Klima und Gliederfüßern beim Totholz-Abbau in den Tropen. In einer weiteren, noch unveröffentlichten Studie zusammen mit Forschern der Universität Bern haben wir am Kilimanjaro beobachtet, dass die Totholzvorräte in mittleren Höhenlagen – also zwischen 1.500 und 3.000 Metern – deutlich höher liegen als weiter unten in der Baumsavanne. Hier finden Termiten, Käfer und andere Insekten offensichtlich besonders günstige Lebensbedingungen vor. Zugleich werden größere Totholzmengen in der Baumsavanne auch vom Menschen als Brennmaterial genutzt. Darüber hinaus ist zu berücksichtigen, dass die meisten Regenfälle am Kilimanjaro über den mittleren Höhenlagen niedergehen. Daher können Bäume hier sehr gut gedeihen, so dass auch aus diesem Grund die oberirdische Holzbiomasse – und somit auch die Menge des Totholzes – hier ihr Maximum erreicht“, sagt Dr. Andreas Hemp.
Vor kurzem hat er an einer anderen in „Nature“ veröffentlichten Studie mitgewirkt, die deutlich macht, welche große Bedeutung die tropischen Bergwälder Afrikas als Kohlenstoff-Speicher der Erde haben. Die oberirdische Biomasse dieser Bergwälder leistet einen erheblichen Beitrag zum Klimaschutz. „Unsere Untersuchungen haben ergeben, dass in den klimatisch unterschiedlichen Regionen des Kilimanjaro bis zu 37 Prozent der oberirdischen Holzbiomasse aus Totholz besteht. Insofern ist auch Totholz ein nicht zu unterschätzender Kohlenstoff-Speicher,“ sagt der Bayreuther Biologe.
„Die gesamte Bergregion des Klimamanjaro ist deshalb so faszinierend, weil sie sich auf mehrere Klimazonen verteilt, in denen ganz unterschiedliche Tier- und Pflanzenarten heimisch sind. Über das Zusammenwirken dieser Faktoren bei der Entstehung und dem Abbau von Totholz – und damit auch bei der Speicherung und Freisetzung von Kohlenstoff – ist im Einzelnen noch wenig bekannt. Hier sollten weitere Forschungsarbeiten ansetzen. Die Einflüsse der zunehmend intensiven Landnutzung durch den Menschen sollten dabei mitberücksichtigt werden,“ ergänzt Dr. Claudia Hemp.
Wissenschaftliche Ansprechpartner:
PD Dr. Andreas Hemp / Dr. Claudia Hemp*
Pflanzensystematik
Universität Bayreuth
Telefon: +49 (0) 921 / 55-2464 oder +49 (0)9246 / 980979
E-Mail: andreas.hemp@uni-bayreuth.de / claudia.hemp@uni-bayreuth.de
*Dr. Claudia Hemp ist zugleich Mitarbeiterin am Senckenberg Biodiversität und Klima Forschungszentrum (SBiK-F) in Frankfurt am Main.
Originalpublikation:
Seibold et al.: The contribution of insects to global forest deadwood decomposition. Nature (2021). DOI: https://dx.doi.org/10.1038/s41586-021-03740-8
Woher kommt der Montagsblues? – Studie der Universität Leipzig zu gefühlt schwierigstem Arbeitstag der Woche
Susann Huster Stabsstelle Universitätskommunikation / Medienredaktion
Universität Leipzig
Der Montagsblues: Die meisten Menschen kennen das mulmige Gefühl zu Beginn der neuen Arbeitswoche. Es bindet bei Erwerbstätigen erstaunlich viel Energie und zehrt oft das Erholungspolster vom Wochenende schnell auf. Doch warum empfinden wir gerade den Montag oft als schwierigsten Tag der Arbeitswoche? – Der Arbeitspsychologe Dr. Oliver Weigelt und sein Team vom Institut für Psychologie – Wilhelm Wundt der Universität Leipzig haben sich in einer Studie mit dieser Thematik befasst und ihre Forschungsergebnisse im „Journal of Organizational Behavior“ veröffentlicht.
Im Rahmen einer Tagebuchstudie haben sie 87 Personen an zwei Wochenenden und in der dazwischenliegende Arbeitswoche morgens, mittags und nachmittags zu ihrem momentanen Erleben von Vitalität und Erschöpfung befragt. Außerdem wurden die Teilnehmenden morgens nach ihren Erholungserfahrungen am Vortag, nach ihrer Schlafqualität in der zurückliegenden Nacht und an Arbeitstagen zu ihren Erwartungen an den bevorstehenden Arbeitstag befragt. Am Ende von Arbeitstagen wurde zudem erfasst, wie sehr sich Personen an diesem Tag bei der Arbeit angestrengt hatten.
Entgegen der Empfindung des „Montagsblues“ fanden die Forschenden heraus, dass das Wohlbefinden montags nicht geringer ist als dienstags, mittwochs und donnerstags. „Der Kontrast zwischen Sonntag und Montag führt aber unter Umständen dazu, dass der erste Tag der Arbeitswoche als schlimmster Tag in der Woche wahrgenommen wird. Entgegen den Erwartungen fanden wir keine Belege dafür, dass Erschöpfung im Verlauf einer Arbeitswoche ansteigt“, sagt Weigelt. Vitalität und Erschöpfung entwickelten sich unabhängig von den beruflichen Anstrengungen, die Personen aufbringen.
Vorfreude auf neue Arbeitsaufgaben hilft gegen Montagsblues
Positive Erwartungen an den ersten Arbeitstag der Woche – also Vorfreude auf die bevorstehenden Aufgaben, helfen aber, möglichst viel von dem Schwung des Wochenendes mit in die neue Arbeitswoche zu nehmen und damit weniger Montagsblues zu erleben. Die Vitalität von erwerbstätigen Personen folgt einem Auf und Ab im Verlauf der Sieben-Tage-Woche. „Insbesondere am Übergang zwischen Wochenende und Arbeitswoche zeigen sich starke Veränderungen“, erklärt der Arbeitspsychologe weiter. Zum einen steige die Vitalität schon vor dem eigentlichen Beginn des Wochenendes im Sinne eines „Thank-God-It‘s-Friday“-Effekts. Dieser und die günstige Wirkung von Vorfreude zu Beginn der Arbeitswoche könnten negative Effekte der Arbeit ausgleichen.
Weigelt und sein Team fanden auch heraus, dass sich die Probandinnen und Probanden besser fühlten, wenn sie im Vergleich zur Arbeitswoche am Wochenende besser schlafen konnten. Umgekehrt zeigte sich bei ihnen ein Verlust im Wohlbefinden durch schlechtere Schlafqualität in der Nacht von Sonntag zu Montag. Aus Perspektive der Erholungsforschung sollten wir uns am Ende eines Wochenendes besser fühlen als vorher, weil die arbeitsfreie Zeit Gelegenheit bietet, den persönlichen Akku wiederaufzuladen. Dieser Überlegung widerspricht die empirische Forschung zum so genannten Montagsblues, die nahelegt, dass wir uns nach dem Wochenende schlechter fühlen als vorher. „Ziel unserer Studie war es, beide Perspektiven miteinander zu verbinden und besser zu verstehen, wann und wie sich das Wohlbefinden gemessen an Vitalität und Erschöpfung im Verlauf der Sieben-Tage-Woche verändert und wovon diese Veränderungen genau abhängen“, so Weigelt. Die Forschenden gingen davon aus, dass sich das Wohlbefinden im Verlauf des Wochenendes zwar kontinuierlich verbessert, aber beim Übergang vom Wochenende zurück zur Arbeitswoche mindestens einen Teil dieses aufgebauten Polsters wieder verbraucht ist, etwa weil Erwerbstätige ihren Tagesrhythmus umstellen müssen. Sie untersuchten außerdem vergleichend mögliche Ursachen für die Verbesserung des Wohlbefindens. Neben stark beforschten Erholungserfahrungen wie dem Abschalten von der Arbeit, der Entspannung, der Autonomie und dem Bewältigen von Herausforderungen analysierten sie insbesondere Veränderungen in der Schlafqualität.
Originalpublikation im „Journal of Organizational Behavior“:
„Continuity in transition: Combining recovery and day-of-week perspectives to understand changes in employee energy across the 7-day week“, doi.org/10.1002/job.2514
Wissenschaftliche Ansprechpartner:
Dr. Oliver Weigelt
Institut für Psychologie – Wilhelm Wundt der Universität Leipzig
Telefon: +49 341 9735956
E-Mail: oliver.weigelt@uni-leipzig.de
Weitere Informationen:
https://onlinelibrary.wiley.com/doi/10.1002/job.2514
Boomender Klettersport: Verletzungen und Überlastungen an der Hand
Kathrin Reisinger Presse- und Öffentlichkeitsarbeit
Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS)
Unsere Hände und vor allem die Finger sind zum Greifen gemacht. Im Alltag halten sie viele Bewegungen aus, ohne dass es je zu Überlastungen kommt. Anders sieht es im Klettersport aus. Der boomende Sport fordert die Aktiven zu immer kniffligeren Aktionen heraus. Epiphysenverletzungen, Ringbandverletzungen und Knotenbildungen in der Hohlhand können zum Beispiel die Folge sein.
In Deutschland entstehen immer mehr Kletterhallen. Längst ist der Klettersport nicht mehr an bestimmte Fels-Regionen gebunden. Und längst sind nicht mehr alle Sportler ausreichend trainiert, ehe es an bestimmten Abschnitten an den Wänden hoch hinaus geht.
Unter den Athleten der 10- bis 16-Jährigen, die sehr schnell sehr schwere Routen klettern, können Belastungen an den Wachstumsfugen der Finger entstehen. „Die Wachstumsfugen an den Fingergelenken werden, abhängig von den Klettergriffen und der Greif- und Klettertechnik, in Mitleidenschaft gezogen. Manchmal ist es sogar ein Bruch des Knochens“, erklärt Dr. med. Uwe Flötgen, Leitender Arzt der Sportorthopädie an der Klinik für Orthopädie des Heinrich-Braun-Klinikums Zwickau.
Schmerzen beim Festhalten und ein entsprechender Druckschmerz geben Hinweise. Je nach Verdacht erfolgt die weitere Diagnostik mittels Röntgen und/oder MRT. Liegen schwerwiegende Schäden vor, hilft nur noch eine Operation. Bei Epiphysenfugen-Verletzungen kann es zum Fehlwachstum des Fingers und zu vorzeitigem Gelenkverschleiß kommen.
Bei Kletterern, die viel an 1 oder 2 Fingerlöchern oder kleinen Leisten als Haltegriffe trainieren, können durch Belastungszüge an nur einem Finger ein oder mehrere Ringbänder reißen, welche die Beugesehnen halten müssen, so Flötgen. Hier erfolgt die Diagnostik per Ultraschall. Die Spannbreite der Therapie geht von einem Tape oder thermoplastischen Ring bis hin zur OP, wenn mehrere Ringbänder betroffen sind. Wird diese Verletzung nicht behandelt kann es zum „Bowstring-Phänomen“ kommen, bei dem die Sehne vom Knochen weggeht.
Weiterhin können Überlastungen zu Knotenbildungen und Verhärtungen in der Hohlhand führen. Der „Morbus Dupuytren“ ist meist bei 50 bis 60Jährigen anzutreffen. Doch bei Kletterern kann das schon Mitte 20 beginnen. Mikroverletzungen sorgen für eine Erkrankung der Hohlhandfaszie, einer straffen Bindegewebsschicht. Die Finger sind immer schwerer oder gar nicht mehr zu strecken, dazu kommen tastbare, teils schmerzhafte Knoten. Hierbei sind überwiegend Männer betroffen. In frühen Stadien sollte auf keinen Fall operiert werden. Per Nadelfasziotomie (Fibrosenperforation) werden die Dupuytren-Stränge so weit eingekerbt, bis sie gestreckt und zerrissen werden können. Alternativ kann aber die Injektion von Kollagenasen erfolgen. Enzyme lösen dabei das Kollagen auf.
Weitere Informationen:
https://www.zkos.de/
TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen
Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss, um die Metropolen an die Folgen des Klimawandels anpassen zu können
Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.
Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.
Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.
In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.
Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.
Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.
All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.
Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.
Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586
Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de
Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de
Neues Beratungstool für die Überflutungsvorsorge in Kommunen
Gerhard Radlmayr Zentrum für Forschung und Wissenstransfer
Hochschule Weihenstephan-Triesdorf
Im Verbundprojekt „Anreizsysteme für die kommunale Überflutungsvorsorge (AKUT)“ haben Forscher:innen der Hochschule Weihenstephan-Triesdorf (HSWT) und der Hochschule Mainz (HS Mainz) zusammen mit Praxis- und kommunalen Partnern ein Beratungstool entwickelt, das kommunale Mitarbeiter:innen und Fachplaner:innen dabei unterstützt, Überflutungsschäden in Kommunen vorzubeugen. Im Mittelpunkt steht der Ansatz, alle Akteur:innen zusammenzubringen, Zielkonflikte zu überwinden und gemeinsam effiziente Gesamtlösungen zu generieren. Um das zu erreichen, setzt die Methode auf ein ortspezifisches Optimierungs- und Anreizsystem.
Infolge des Klimawandels nehmen Starkregenereignisse, wie sie in diesem Sommer aufgetreten sind, in Häufigkeit und Intensität zu. Grundsätzlich können sie alle Regionen Deutschlands treffen. Deshalb ist die Überflutungssicherheit eine der zentralen Herausforderungen für die Siedlungsentwässerung. Bei dieser komplexen Aufgabe müssen verschiedene kommunale und private Akteur:innen, also zum Beispiel Bürger:innen, Landwirt:innen, lokale Wirtschaft und Forstwirtschaft, interdisziplinär zusammenwirken. Für ein wirksames Vorsorgekonzept ist es erforderlich, Maßnahmen umsetzen, die sowohl dem Einzelnen als auch der Allgemeinheit dienen. So ist es beispielsweise häufig so, dass Überflutungsschutzmaßnahmen auf Grundstücken von Privatleuten oder Unternehmen umgesetzt werden müssen.
Wesentliche Voraussetzung für eine fruchtbare Zusammenarbeit ist ein Verständnis der Überflutungsvorsorge als kommunale Gemeinschaftsaufgabe, die nur gemeinsam bewältigt werden kann. Derzeit fehlt bei den einzelnen Akteur:innen jedoch die Bereitschaft, sich einem optimierten Gesamtlösungsprozess unterzuordnen. Hierbei mangelt es häufig an entsprechenden Anreizen.
Damit alle an einem Strang ziehen: Ortsspezifische, optimierte Strategien
Diesem Problem begegnet das Beratungstool ‚AKUT‘. Es unterstützt Kommunen dabei, geeignete Vorkehrungen zu identifizieren und erleichtert so der lokalen Politik die Entscheidung über umzusetzende Maßnahmen. AKUT berücksichtigt dabei explizit das notwendige Zusammenwirken der verschiedenen Akteur:innen sowie die entsprechenden Anreize, welche diese dazu motivieren sollen, die Schritte umzusetzen. Das Tool kann nach kurzer Einarbeitung auch ohne IT-Fachwissen genutzt werden.
Anwender:innen zeichnen zunächst an möglichen Standorten Überflutungsschutzmaßnahmen zur Rückhaltung, beispielsweise Becken, Mulden, Flächen, oder Ableitung, zum Beispiel Rinnen, Gräben oder Böschungen, auf einer interaktiven Karte ein. AKUT bestimmt anschließend mittels eines mathematischen Modells eine optimale Auswahl aus diesen möglichen Maßnahmen. Dabei stellt es verschiedene Zusammenhänge dar, etwa die akteursbezogene Gefährdungslage und das zu erwartende Schadensausmaß, Wirksamkeit und Umsetzbarkeit der Vorsorgemaßnahmen sowie die erforderlichen individuellen Anreize. So ermittelt das Tool unter Berücksichtigung der ortspezifischen Gegebenheiten der Kommune und der Beteiligungsbereitschaft der verschiedenen Akteur:innen eine optimale Handlungsstrategie. Diese beinhaltet eine Kombination baulicher Maßnahmen inklusive der zugehörigen Kosten und erforderlichen Anreize. Kartendarstellungen vor und nach der Optimierung veranschaulichen die zu erwartende Wirkung auf die Gefährdungslage.
Die Leitung des vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) geförderten Projekts lag bei Prof. Dr. Inka Kaufmann Alves von der HS Mainz, auf HSWT-Seite wurde es von Prof. Dr. Clemens Thielen durchgeführt. Neben den beiden Hochschulen waren an dem Vorhaben die igr GmbH und die Verbandsgemeinde Enkenbach-Alsenborn beteiligt. Unterstützt wurde es zudem durch die Verbandsgemeinde Nordpfälzer Land, die Kommunalwirtschaft Mittlere Bergstraße in Hessen, die Gemeinde Elxleben in Thüringen und das Ministerium für Klimaschutz, Umwelt, Energie und Mobilität Rheinland-Pfalz.
Das Beratungstool ‚AKUT‘ steht interessierten Kommunen und Fachplaner:innen zur Verfügung (siehe auch https://akut.hs-mainz.de). Anfragen nimmt das Team unter info-akut@hs-mainz.de entgegen.
Text: Christine Dötzer, Pressestelle HSWT
Gewässermonitoring aus dem All
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Während Erdbeobachtungssatelliten des europäischen Copernicus-Programms ihre Kreise um die Erde ziehen, senden sie sehr viele Daten. Diese Informationen aus dem All sollen künftig für das Gewässermonitoring der Landesumweltämter nutzbar gemacht werden. Daran arbeiten Forscher:innen im Verbundprojekt „Erfassung der Wasserqualität und Wasserflächenausdehnung von Binnengewässern durch Fernerkundung“ (BIGFE) unter der Federführung des Helmholtz-Zentrums für Umweltforschung (UFZ).
Für das Monitoring von Küstenbereichen der Nord- und Ostsee werden Fernerkundungsdaten bereits routiniert und erfolgreich eingesetzt. Für die Überwachung von Binnengewässern ist das bislang noch nicht der Fall. „Das wollen wir ändern“, sagt der UFZ-Seenforscher Dr. Karsten Rinke. „Die Daten, die die Sentinel-Satelliten des europäischen Copernicus-Programms liefern, sind ein großartiger Datenschatz. Den gilt es für eine künftige Nutzung im Gewässermonitoring durch die Landesbehörden zu heben.“ Karsten Rinke leitet das im Juli gestartete Leuchtturmprojekt BIGFE, das das Bundesministerium für Verkehr und digitale Infrastruktur im Rahmen der Copernicus-Initiative fördert.
Das klassische Monitoring von Binnengewässern gemäß der EU-Wasserrahmenrichtlinie ist bislang mit einem hohen zeitlichen und personellen Aufwand verbunden. Darüber hinaus können die Ergebnisse aus den Untersuchungen vor Ort sowie der Auswertung des Probenmaterials im Labor immer nur einen Ausschnitt und eine kurze Momentaufnahme darstellen. Denn die Messgrößen wie Trübung, Temperatur oder Algenvorkommen können an verschiedenen Stellen eines Sees ganz unterschiedlich ausfallen und sich je nach Wetterlage, Gewässertyp und Einzugsgebiet auch schnell ändern. „Das liegt in den besonderen Eigenschaften von Gewässerökosystemen begründet, die sehr dynamische Systeme darstellen. Bei vielerorts üblicher monatlicher Beprobung können wichtige Episoden wie zum Beispiel Blaualgenblüten einfach übersehen werden. Hinzu kommt die räumliche Heterogenität, die insbesondere die Beurteilung des Zustands mehr als 100 Hektar großer Gewässer schwierig macht, wenn nur einmal in der Mitte des Sees eine Probe genommen wird“, erklärt Karsten Rinke. Die zusätzliche Nutzung von Fernerkundungsdaten könnte in der Kombination mit klassischen Monitoringmaßnahmen die Aussagekraft zum Gewässerzustand deutlich verbessern. „So steuern die Daten aus dem All aktuelle Informationen in höherer räumlicher und zeitlicher Auflösung bei und ermöglichen schnelle Managementreaktionen, wie es etwa bei einem massenhaften Auftreten von Blaualgen an Badestellen angezeigt ist“, sagt er. Satelliten-basierte Informationen können je nach Typ täglich bis wöchentlich bereitgestellt werden und weisen eine räumliche Auflösung zwischen 10 und 300 Metern auf.
Das UFZ arbeitet in dem Projekt mit dem Institut für Hygiene und Umwelt der Hamburger Behörde für Umwelt, Klima, Energie und Agrarwirtschaft, dem Institut für Seenforschung der Landesanstalt für Umwelt Baden-Württemberg sowie dem Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie zusammen. Der UFZ-Geowissenschaftler Prof. Kurt Friese koordiniert die Zusammenarbeit mit diesen Projektpartnern sowie weiteren Unternehmen und Behörden. „Landesbehörden aus zwölf Bundesländern stellen als Praxispartner für unsere Untersuchungen umfangreiche Datensätze aus ihren regelmäßigen Gewässeruntersuchungen zur Verfügung, die wir mit Fernerkundungsdaten aus den entsprechenden Zeiträumen in Beziehung setzen und miteinander abgleichen“, sagt Kurt Friese. „Durch die enge Einbindung der Praxispartner erreicht BIGFE eine länderübergreifende, harmonisierte Vorgehensweise in der Fernerkundung unserer Gewässer.“
Gewässerdaten von rund 100 Seen, Talsperren und Unterläufen von Fließgewässern führen die Seenforscher:innen hinsichtlich Wasserqualität und Wasserflächenausdehnung mit Fernerkundungsdaten aus den Jahren 2016 bis 2020 zusammen. Gemeinsam mit Fernerkundler:innen der Projektpartner sowie auf Fernerkundung spezialisierte Firmen gehen sie bei der Interpretation der Daten Fragen nach, die für eine künftige Nutzung für das Gewässermonitoring zentral sind: Welche Eigenschaften der Gewässer und welche Gewässertypen lassen sich mithilfe der Fernerkundung besonders gut, welche weniger gut charakterisieren? Wie hoch sind die Genauigkeit und Verlässlichkeit der Fernerkundungsdaten und wo liegen mögliche Fehlerquellen? Wie lässt sich der Mehrwert, der sich mit der Nutzung der Fernerkundung ergibt, in die behördliche Praxis der Gewässerüberwachung integrieren?
„Das sind einige der wichtigen Fragen, die wir in dem Projekt in den kommenden drei Jahren beantworten möchten“, sagt Rinke. „Das Ziel unseres Forschungsvorhabens ist, auf wissenschaftlicher Basis praxisorientierte Handlungsempfehlungen auszuarbeiten, die die Nutzung von Fernerkundungsdaten für das behördliche Gewässermonitoring ermöglichen. Wir hoffen, dass wir mit BIGFE einen Beitrag leisten können, damit der Datenschatz aus dem All künftig zum etablierten Standard des Gewässermonitorings zählt.“
Wissenschaftliche Ansprechpartner:
Dr. Karsten Rinke
Leiter des UFZ-Departments Seenforschung
karsten.rinke@ufz.de
Prof. Dr. Kurt Friese
UFZ-Department Seenforschung
kurt.friese@ufz.de
Neue Studienerkenntnisse können helfen, Hochwasser-Prognosen zu verbessern
Rimma Gerenstein Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
• Internationales Forschungsteam beleuchtet Zusammenhänge von Starkregen und Überschwemmungen
• Zwei unterschiedliche Arten von Extremniederschlägen bergen unterschiedliche Hochwasserrisiken – auf die der Klimawandel auch jeweils anders einwirkt
• In Bayern werden Starkregen insgesamt künftig wohl zwei bis viermal häufiger vorkommen als heute
Der Klimawandel wird vor allem wegen der Zunahme intensiver Starkregenereignisse zu mehr und stärkeren Hochwassern und Fluten führen. Um einschätzen zu können, wie genau sich dabei die Hochwasserrisiken und die Ausprägung von Überschwemmungen verändern, hilft es insbesondere zwei unterschiedliche Arten von solchen Extremniederschlagsereignissen – schwächere und stärkere – zu betrachten. Diesen bislang wenig beforschten Aspekt hat nun eine internationale Gruppe von Wissenschaftler*innen rund um die Freiburger Hydrologin Dr. Manuela Brunner vom Institut für Geo- und Umweltnaturwissenschaften der Universität Freiburg und Prof. Dr. Ralf Ludwig von der Ludwig-Maximilians-Universität München (LMU) beleuchtet. Dabei stellten sie fest, dass die schwächeren und zugleich häufiger vorkommenden Extremniederschlagsereignisse (im Mittel alle rund 2 bis 10 Jahre) in Frequenz und Menge zunehmen, allerdings nicht zwangsläufig zu Überschwemmungen führen. An manchen Orten kann hierbei durch den Klimawandel das Hochwasserrisiko sogar wegen trockener werdenden Böden sinken. Ebenso nehmen die stärkeren und zugleich seltener vorkommenden Extremniederschlagsereignisse (im Mittel seltener als 50 Jahre – und wie im Juli 2021 in der Eifel ereignet) in Frequenz und Menge zu – dabei führen sie aber auch generell häufiger zu Überschwemmungen. Die Ergebnisse ihrer Studie veröffentlichte das Team in der Zeitschrift Communications Earth & Environment.
Mancherorts führt der Klimawandel zu geringerem Hochwasserrisiko
„Bei den stärkeren und zugleich selteneren Extremniederschlagsereignissen treffen so große Niederschlagsmengen auf den Boden, dass seine aktuelle Beschaffenheit kaum noch einen Einfluss darauf hat, ob es zu einer Überschwemmung kommt“, erläutert Manuela Brunner. „Seine Kapazität, Wasser aufzunehmen, wird relativ schnell erschöpft, ab da an fließt der Regen über die Oberfläche ab – flutet also die Landschaft.“ Anders verhalte es sich bei den schwächeren und zugleich häufigeren Extremniederschlagsereignissen“, so Brunner. „Hier ist die jeweils aktuelle Bodenbeschaffenheit entscheidend. Ist der Boden trocken, kann er viel Wasser aufnehmen und das Hochwasserrisiko ist gering. Liegt allerdings schon eine hohe Bodenfeuchte vor, kann es auch hier zu Überschwemmungen kommen.“ Da durch den Klimawandel viele Böden trockener werden, kann dort also das Hochwasserrisiko bei den schwächeren, häufigeren Extremniederschlagsereignissen sinken – nicht allerdings bei den seltenen, heftigen.
In Bayern nimmt Starkregen generell zu
Für das konkrete Beispiel Bayern sagen die Wissenschaftler*innen zudem voraus, wie dort die unterschiedlichen Extremniederschlagsereignisse zahlreicher werden. Schwächere, die in den Jahren von 1961 bis 2000 im Mittel etwa alle 50 Jahre auftraten, werden demnach im Zeitraum von 2060 bis 2099 doppelt so oft vorkommen. Stärkere, die im Zeitraum von 1961 bis 2000 im Mittel etwa alle 200 Jahre eintraten, werden sich in der Zukunft bis zu viermal häufiger ereignen.
„Bisherige Untersuchungen haben belegt, dass Niederschläge aufgrund des Klimawandels zunehmen werden, die Zusammenhänge zwischen Überschwemmungsstärken und schwereren Niederschlagsereignissen ist aktuell aber noch nicht ausreichend erforscht. Da haben wir angesetzt“, erklärt Manuela Brunner. Ralf Ludwig ergänzt: „Mithilfe unseres einzigartigen Datensatzes liefert diese Studie einen wichtigen Baustein zu einem dringend benötigten, besseren Verständnis des sehr komplexen Zusammenhangs von Starkniederschlägen und Abflussextremen.“ Dies könne auch helfen, um Hochwasserprognosen zu verbessern.
78 Gebiete untersucht
In seiner Analyse hat das Team für die Mehrzahl der 78 untersuchten Oberwassereinzugsgebiete in der Region um Inn, Donau und Main sogenannte Häufigkeitsschwellenwerte in der Beziehung zwischen zukünftiger Niederschlagszunahme und Hochwasseranstieg identifiziert. Diese ortsspezifischen Werte beschreiben, welche extremen Niederschlagereignisse – klassifiziert anhand ihrer auftretenden Häufigkeit –– wahrscheinlich auch zu verheerenden Fluten führen, wie etwa dem im Juli in der Eifel.
Für seine Untersuchung generierte das Forschungsteam ein großes Ensemble von Daten, indem es erstmalig hydrologische Simulationen für Bayern mit einem großen Ensemble an Simulationen mit einem Klimamodell koppelte. Die Modellkette wurde für die 78 Flusseinzugsgebiete auf historische (1961-2000) und wärmere zukünftige (2060-2099) Klimabedingungen angewandt. „Die Region um die Oberwassereinzugsgebiete von Inn, Donau und Main ist ein Gebiet mit ausgeprägter hydrologischer Heterogenität. Dadurch berücksichtigen wir in unserer Studie eine große Vielfalt an Hydroklimata, Bodentypen, Landnutzungen und Abflusswegen“, sagt Brunner.
Neben Brunner und Ludwig arbeiteten weitere Forschende der LMU, des US-amerikanischen National Center for Atmospheric Research und der University of California Los Angeles/USA an dem Projekt mit. Gefördert wurde die Forschungsarbeit unter anderem vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz, dem Bundesministerium für Bildung und Forschung sowie dem Schweizerischen Nationalfonds.
Wissenschaftliche Ansprechpartner:
Dr. Manuela Brunner
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3509
E-Mail: manuela.brunner@hydrology.uni-freiburg.de
Twitter: @ManuelaIBrunner, @UHydroFreiburg
Originalpublikation:
Brunner, M. I., Swain, D. L., Wood, R.R., Willkofer, F., Done, J.M., Gilleland, E., Ludwig, R. (2021): An extremeness threshold determines the regional response of floods to changes in rainfall extremes. In: Communications Earth & Environment. DOI: 10.1038/s43247-021-00248-x
Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2021/neue-studienerkenntnisse-koennen-helfen-h…
Nickel- und Kobaltallergie im Friseurhandwerk – Neue Studie an der Universität Osnabrück
Dr. Utz Lederbogen Stabsstelle Kommunikation und Marketing
Universität Osnabrück
Friseurinnen und Friseure haben täglich einen längeren Hautkontakt mit einer Vielzahl von Metallwerkzeugen. Sie stellen durch die Freisetzung von Nickel und Kobalt ein erhebliches Gesundheitsrisiko in Bezug auf die Entwicklung von Allergien dar, wie eine Studie der Abteilung für Dermatologie, Umweltmedizin und Gesundheitstheorie der Universität Osnabrück zeigt, die im Journal of the European Academy of Dermatology and Venereology (JEADV 2021, 35, 965-972) veröffentlicht wurde.
Die Freisetzung von Nickel aus Metallwerkzeugen im Friseurhandwerk ist bekannt, Daten über die Freisetzung von Kobalt fehlten bislang. Ziel der an der Universität Osnabrück von Cara Symanzik durchgeführten Studie war es, das Auftreten von Nickel- und Kobaltallergien im deutschen Friseurhandwerk abzuschätzen.
Die junge Wissenschaftlerin untersuchte in Ihrer Masterarbeit 475 Metallwerkzeuge des Friseurhandwerks in drei norddeutschen Bundesländern, darunter Scheren, Abteilklammern, Haarclips, Pinzetten, Rasiermesser, Rührbesen, Handbrausen und Häkelnadeln, die bei der täglichen Arbeit benutzt werden und teilweise auch schon länger im Gebrauch waren. Siebzig Friseurinnen und Friseure wurden zusätzlich mit einem standardisierten Fragebogen befragt, um Daten über die getesteten Werkzeuge sowie die Prävalenz von Nickel- und Kobaltallergien zu erheben.
Nickel- und Kobalttestergebnisse
Der Chemo-Nickel-Test zeigte, das 131 von 475 Metallwerkzeugen (27,6 Prozent) Nickel freisetzen, beim Chemo-Kobalt-Test waren es 10 von 475 Metallwerkzeugen (2,1 Prozent). „Alle kobaltfreisetzenden Metallwerkzeuge setzten gleichzeitig Nickel frei und nickelfreisetzende Werkzeuge fanden sich in jedem besuchten Friseursalon unabhängig vom Preissegment und der geografischen Lage“, so Symanzik.
Die Nickel-Freisetzung war in der vorliegenden Studie besonders hoch. Dies könnte auf die Diversität der untersuchten Metallwerkzeuge zurückzuführen sein, so die Osnabrücker Autorin. Die Kobalt-Freisetzung war moderat im Vergleich zu Studien in anderen Berufsfeldern.
Aktuelle Daten zeigen, dass Nickel- und Kobaltallergien in der Berufsgruppe der Friseurinnen und Friseure häufig vorkommen. In der vorliegenden Studie litten 11,4 Prozent der 70 befragten Friseurinnen und Friseure an einer Nickelallergie und 2,9 Prozent zusätzlich an einer Kobaltallergie. „Eine beruflich bedingte Allergie stellt ein besonders Problem dar, die in schlimmsten Fall zum vorzeitigem Ausscheiden aus dem Beruf führen können“, erläutert Prof. Dr. Swen Malte John, der zusammen mit apl. Prof. Dr. Christoph Skudlik die Arbeit betreute. „Um eine Kontaktallergie zu vermeiden, sind präventive Maßnahmen unabdingbar.“
Die Studie zeigt, dass Metallwerkzeuge, die nach geltenden EU-Vorschriften (REACH-Verordnung) hergestellt werden, immer noch Quellen der Nickelbelastung sein können, zum Beispiel wenn die nickelfreie Beschichtung bei längerem Gebrauch nicht ausreichend ist. Grenzwertregelungen für die Verwendung von Kobalt in Metallwerkzeugen fehlen bislang, bemängeln die Autoren in der Veröffentlichung.
Die Masterarbeit von Cara Symanzik wurde in diesem Jahr mit einem Förderpreis der Universität Osnabrück ausgezeichnet, der von der Kreishandwerkerschaft Osnabrück gestiftet wurde.
Wissenschaftliche Ansprechpartner:
Cara Symanzik, B.Sc., M.Ed., Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 7448
E-Mail: cara.symanzik@uni-osnabrueck.de
Prof. Dr. med. Swen Malte John, Universität Osnabrück
Abteilung Dermatologie, Umweltmedizin, Gesundheitstheorie und
Institut für interdisziplinäre Dermatologische Prävention und Rehabilitation
Am Finkenhügel 7a, 49076 Osnabrück
Tel.: + 49 541 969 2357
E-Mail: johnderm@uni-osnabrueck.de
Originalpublikation:
Zur Veröffentlichung: https://onlinelibrary.wiley.com/doi/10.1111/jdv.17058
Experimental evaluation of nickel and cobalt release from tools and self-reported prevalence of nickel and cobalt allergy in the German hairdressing trade
C. Symanzik, C. Skudlik, S.M. John
Journal of the European Academy of Dermatology and Venereology, Volume 35, Issue 4
Interdisziplinäres Forschungsteam untersucht Rolle der RNA bei der Entstehung des Lebens
Lena Reil Referat Hochschulkommunikation
Technische Universität Dortmund
Ging unserem heutigen Leben eine Welt voraus, die auf RNA als universellen Bausteinen basierte und erst später von DNA abgelöst wurde? In einem interdisziplinären Forschungsteam untersuchen Wissenschaftler*innen aus Dortmund und München, welche Rolle die Ribonukleinsäuren (RNA) bei der Entstehung des Lebens gespielt haben könnten. Die Arbeit zeigt, wie unter realistischen geologischen Bedingungen Prozesse, die für die Entstehung des Lebens bedeutsam gewesen sein mögen, durch physikalische Nichtgleichgewichtsprozesse begünstigt worden sein könnten. Die Erkenntnisse wurden kürzlich in der renommierten Fachzeitschrift Nature Chemistry veröffentlicht.
Während in heutigen Lebensformen die Desoxyribonukleinsäure (DNA) den Bauplan der Proteine, den Nanomaschinen des Lebens, enthält, spielt in der RNA-Welt-Hypothese deren Schwesterpolymer eine zentrale Rolle. Die Hypothese geht davon aus, dass das Leben aus sich selbst reproduzierenden RNA-Molekülen entstand, die vor der Evolution von DNA und Proteinen existierten. RNA kann beides sein, Informationsspeicher und Nanomaschine. Dies macht sie als Kandidat für das erste Biopolymer des Lebens besonders interessant, weil sie dadurch prinzipiell die Sequenz anderer RNA-Stränge kopieren kann und damit den Prozess der Darwin’schen Evolution hätte starten können.
Um die Aufgabe als Nanomaschine erfüllen zu können, muss sich die RNA jedoch ähnlich wie Proteine in eine korrekte und somit aktive Form falten – ein Prozess für den sie spezifische Anforderungen an ihre Umgebung stellt. Insbesondere benötigt sie dafür eine relativ hohe Konzentration an zweifach geladenen Magnesiumionen und eine möglichst geringe Konzentration an einfach geladenem Natrium, da letzteres zu einer Fehlfaltung der RNA-Stränge führen kann. Bisher war jedoch unklar, wie solche vorteilhaften Bedingungen durch präbiotisch plausible Prozesse erzeugt werden können.
Forschungskooperation zwischen Biophysik, Geowissenschaften und chemischer Biologie
In einem interdisziplinären Forschungsansatz konnten nun Wissenschaftler*innen der Ludwig-Maximilians-Universität (LMU) München und der TU Dortmund aus den Bereichen Biophysik, Geowissenschaften und chemische Biologie zeigen, wie aus damals wie heute hochverfügbarem Basalt und einfachen Wärmeflüssen das für die RNA-Faltung richtige Verhältnis zwischen Magnesium- und Natriumionen durch natürliche Prozesse bereitgestellt werden konnte.
Dafür wurden zuerst in der Arbeitsgruppe der Geowissenschaften von Don Dingwell und Bettina Scheu (LMU) die Basalt-Proben in verschiedenen Zustandsformen, Gestein oder Glas, synthetisiert. Das Basalt-Glas erhält man hierbei durch das rasche Abkühlen von geschmolzenem Basalt, ein natürlicher Prozess wie er seit der Existenz der Ozeane kontinuierlich auf der Erde stattfindet. In einem zweiten Schritt untersuchten die Biophysiker der Arbeitsgruppe von Dieter Braun und Christof Mast (LMU), welche Mengen an Magnesium und Natriumionen unter verschiedensten Randbedingungen, wie Temperatur oder Korngröße des Geomaterials, herausgelöst werden konnten. Hierbei zeigte sich, dass stets deutlich mehr Natrium ins Wasser gelangt als Magnesium – letzteres in viel geringeren Konzentrationen, als für die RNA-Nanomaschinen benötigt.
Betrachtet man nun jedoch das volle Bild mit Wärmeströmen, welche aufgrund der hohen geologischen Aktivität sehr wahrscheinlich vorhanden waren, ändert sich die Situation maßgeblich. In den feinen Kanälen, wie sie in basaltischem Glas leicht zu finden sind, führt ein solcher Wärmestrom zur gleichzeitigen Konvektion des Wassers und zu einer Drift der Salzionen entgegen des Wärmstroms. Dieser Thermophorese genannte Effekt ist dabei stark von der Ladungszahl und Größe der Ionen abhängig. In Kombination führen die Konvektion und Thermophorese schließlich dazu, dass sich Magnesiumionen viel stärker lokal anreichern als Natriumionen. Die Forscher konnten dabei zeigen, dass das unterschiedlich starke Aufkonzentrieren der Salze mit der Größe des Gesamtsystems zunimmt.
Die entsprechenden Test-Systeme in Form von katalytisch aktiven RNA-Strängen (Ribozym) wurde durch die Arbeitsgruppe von Hannes Mutschler (TU Dortmund) bereitgestellt. Insbesondere konnte das Team zeigen, dass die thermophoretischen Bedingungen die Selbstreproduktion eines Modell-Ribozyms deutlich verbessern. Den gleichen Effekt beobachteten sie auch für ein weiteres Ribozym, welches unter dem Einfluss der Thermophorese in der Lage war, mehrere kurze RNA-Stränge zu verknüpfen und damit sehr lange RNA-Moleküle zu erzeugen. Diese beiden grundlegenden biologischen Aktivitäten waren auch durch die Auftrennung der Natrium- und Magnesiumionen, wie sie in den thermophoretischen Systemen vorkommt, deutlich effektiver. Selbst sehr große Natrium-Überschüsse im Bereich von 1000:1 im Vergleich zu Magnesium, die in manchen prebiotischen Szenarien angenommen werden und mit der RNA-Katalyse nicht kompatibel sind, können durch das im Paper vorgestellte Szenario ausgeglichen werden, sodass die Ribozyme trotzdem ihre Arbeit verrichten können.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hannes Mutschler
Tel.: +49 231 755 8696
E-Mail: hannes.mutschler@tu-dortmund.de
Originalpublikation:
https://www.nature.com/articles/s41557-021-00772-5
Mitteleuropas Vorgeschichte war sehr dynamisch
Sandra Jacob Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie
In einer neuen Studie analysierten Forschende der Max-Planck-Institute für Menschheitsgeschichte (Jena) und für evolutionäre Anthropologie (Leipzig) zusammen mit Kolleginnen und Kollegen des Instituts für Archäologie der Tschechischen Akademie der Wissenschaften (Prag) und weiteren Kooperierenden die Genome von 271 Menschen, die vor 7.000 bis 3.500 Jahren in Böhmen in der heutigen Tschechischen Republik lebten. Dabei stießen sie auf mindestens drei weitere Migrationsereignisse, die die Vorgeschichte Mitteleuropas geprägt haben.
Durch die zentrale Lage entlang der Handelswege und enge Anbindung an wichtige Wasserstraßen wie die Elbe zog Böhmen viele verschiedene archäologische Kulturen an, was es zu einer Schlüsselregion für das Verständnis der Vorgeschichte Europas macht. Ergänzend zu bisherigen Erkenntnissen über größere Expansionen, die mit der Ausbreitung des Ackerbaus und der „Steppen“-Herkunft verbunden waren, stellt diese neue Studie wenigstens drei weitere Expansionsereignisse heraus, die die Vorgeschichte Mitteleuropas prägten.
Genetische Profile von Menschen der Trichterbecher- und der Kugelamphoren-Kultur deuten darauf hin, dass diese erst kurz zuvor in die Region eingewandert waren. Der bisher als relativ ereignislos betrachtete Zeitraum zwischen der Einführung des Ackerbaus und der Ausbreitung der genetischen „Steppen“-Komponente scheint also dynamischer gewesen zu sein als bisher angenommen.
Drastische Veränderungen in der genetischen Landschaft
Die umfangreiche Stichprobennahme, die sich vor allem auf die späte Jungsteinzeit und frühe Bronzezeit (vor ca. 6.000-3.700 Jahren) konzentrierte, ermöglichte es den Forschenden auch neue Einblicke in soziale Prozesse zu gewinnen: Menschen der Schnurkeramik-Kultur expandierten aus Osteuropa und nahmen gleichfalls mitteleuropäische Frauen in ihre Gesellschaft auf, denen sie das gleiche Bestattungsritual zukommen ließen wie den Mitgliedern der eingewanderten Gruppe. „Endlich konnten wir wichtige zeitliche Lücken schließen, vor allem in der Übergangszeit vor etwa 5.000 Jahren, als sich die genetische Landschaft drastisch veränderte“, sagt Max-Planck-Forscher Wolfgang Haak, Hauptautor und Leiter der Studie. „Interessanterweise finden wir für diesen frühen Zeitpunkt Menschen mit einem hohen Anteil an „Steppen“-DNA und andere mit wenig oder gar keiner, die aber alle nach denselben Bräuchen beigesetzt wurden.“
Die Menschen der Schnurkeramik-Kultur (vor 4.900-4.400 Jahren) haben sich im Laufe der Zeit genetisch verändert. Eine wichtige Veränderung scheint der starke Rückgang der Vielfalt innerhalb der Y-Chromosomen-Linien gewesen zu sein. Während es bei Schnurkeramik-Männern anfangs fünf verschiedene Y-Linien gab, waren sie später fast ausschließlich Träger einer einzigen Y-Linie, stammten also überspitzt betrachtet von ein und demselben Mann der jüngsten Vergangenheit ab. „Dieses Muster könnte das Entstehen einer neuen sozialen Struktur oder einer neuen ‚Paarungsregelung‘ widerspiegeln, bei der nur eine kleine Auswahl von Männern die Mehrheit der Nachkommen gezeugt hat“, sagt Erstautor Luka Papac, Forscher am Max-Planck-Institut für Menschheitsgeschichte.
Diese Sozialstruktur scheint in der darauffolgenden Glockenbecher-Gesellschaft (vor 4.500-4.200 Jahren) noch strenger gewesen zu sein – jeder einzelne der untersuchten Männer gehörte einer einzigen, neu eingeführten Y-Linie an. Bemerkenswerterweise konnte diese Glockenbecher-Y-Linie nie zuvor in Böhmen nachgewiesen werden, was bedeutet, dass eine neue Bevölkerungsgruppe die Region besiedelte und alle vorher existierenden Y-Linien ersetzte, sodass bei den Glockenbecher-Männern keine einzige Abstammungslinie von Vertretern der Schnurkeramik oder früheren Gesellschaften nachgewiesen werden konnte.
Kulturelle, biologische und soziale Veränderungen
Wissenschaftlicher Konsens war bisher, dass die Aunjetitzer Kultur der frühen Bronzezeit von Vertretern der Glockenbecher-Kultur abstammt, eventuell mit einem begrenzten Erbgut-Beitrag aus dem südöstlichen Karpatenbecken. Mithilfe der neuen genetischen Daten belegen die Forschenden jedoch einen weiteren genetischen Umschwung aus den Regionen nordöstlich von Böhmen stammend. Interessanterweise treten auch 80 Prozent der frühen Aunjetitzer-Y-Linien neu in Böhmen auf – einige von ihnen konnten in den Genomen von damals in Nordosteuropa lebenden Nachkommen der Schnurkeramik nachgewiesen werden, was Hinweise zu ihrer Herkunft liefert. „Dieser Befund war für uns Archäologen sehr überraschend, da wir nicht erwartet hatten, so klare Muster zu erkennen, obwohl die Region eine entscheidende Rolle spielte, beispielsweise beim aufkommenden Handel mit Bernstein aus dem Baltikum. Darüber hinaus war die Region während der Bronze- und Eisenzeit ein wichtiger Handelsknotenpunkt“, fügt Mitautor und Co-Projektleiter Michal Ernée von der Tschechischen Akademie der Wissenschaften hinzu.
Die Ergebnisse zeichnen ein äußerst dynamisches Bild der Vorgeschichte Mitteleuropas mit zahlreichen und häufigen Veränderungen im kulturellen, biologischen und sozialen Gesellschaftsgefüge, was die Leistungsfähigkeit und das Potenzial detailreicher Regional-Studien wie dieser unterstreicht. Die Herausforderung bleibt jedoch, die sozioökonomischen, ökologischen und/oder politischen Gründe und Mechanismen hinter diesen Veränderungen zu verstehen, was für weitere zukünftige interdisziplinäre Studien zur europäischen Vorgeschichte viel Raum bietet.
Wissenschaftliche Ansprechpartner:
Luka Papac
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 178 3046-523
papac@shh.mpg.de
Dr. Wolfgang Haak
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig &
Max-Planck-Institut für Menschheitsgeschichte, Jena
+49 173 2122-174
wolfgang_haak@eva.mpg.de
Originalpublikation:
Luka Papac et al.
Dynamic changes in genomic and social structures in third millennium BCE central Europe
Science Advances, 25. August 2021, https://doi.org/10.1126/sciadv.abi6941
Wie wir wohnen, leben, arbeiten werden
Dipl.-Soz. Peter Lonitz Presse- und Öffentlichkeitsarbeit
Schader-Stiftung
Interdisziplinäres Sommercamp vom 26. bis 29. August 2021 im Schader-Forum, Darmstadt
Wir möchten Sie herzlich bitten, über unser Sommercamp „Stadt und Land von morgen: Wie wir wohnen, leben, arbeiten werden“ vom 26. bis 29. August 2021 im Schader-Forum in Darmstadt zu berichten. Dafür laden wir Sie gerne zur nicht-öffentlichen Abschlusspräsentation des Sommercamps
am Sonntag, den 29. August 2021 um 13 Uhr
ins Schader-Forum in Darmstadt ein.
Zwanzig junge Menschen aus Studium, Wissenschaft und Praxis werden in vier Tagen interdisziplinärer Arbeit innovative Konzepte entwickeln, die als Anregung für Transformationsprozesse vor Ort dienen können. Die entstehenden Konzepte und Anregungen werden mit Mitarbeitenden des Projekts „Systeminnovation für Nachhaltige Entwicklung (s:ne)“ diskutiert und können in die Projektvorhaben einfließen. Beim Projekt s:ne handelt es sich um ein von der Bund-Länder-Initiative „Innovative Hochschule“ gefördertes Verbundprojekt der Hochschule Darmstadt und sechs direkter Partner aus Wissenschaft und Praxis.
Ausgangspunkt des Sommercamps ist eine Zeitreise ins Jahr 2026 und ein Rückblick auf den Sommer 2021. Die Corona-Pandemie lässt uns wie durch ein Brennglas auf die derzeitigen gesellschaftlichen Verhältnisse sehen. Die Einschränkungen zur Senkung des Infektionsrisikos ändern die Arten und Ausmaße der Mobilität, die Nutzung des öffentlichen Raums, die individuell gewählten Arbeitsorte und die Kommunikation. Vieles davon erzwingt Verzicht, löst Bedauern aus. Manches indes schafft individuelle Erleichterungen oder zeitigt zum Beispiel positive Effekte auf Klima und Umwelt.
Die Teilnehmenden aus gesellschaftswissenschaftlichen, planerischen, kreativen und anderen Fachdisziplinen werden sich zu interdisziplinären Teams zusammenfinden. Ausgewählt wurden die Teilnehmerinnen und Teilnehmer durch ein Bewerbungsverfahren, zu dem die Veranstaltergemeinschaft – die Akademie der Architekten- und Stadtplanerkammer Hessen, der Deutsche Werkbund Hessen, die Hochschule Darmstadt, die Schader-Stiftung und die Vereinigung für Stadt-, Regional- und Landesplanung (SRL) – eingeladen hat.
Unterstützt werden die Teams von Katharina Pelka, Stabsstelle Kultur- und Kreativwirtschaft, Stadt Heidelberg, Kjell Schmidt, Regionalpark Ballungsraum RheinMain GmbH, Flörsheim am Main, Roman Schmitz, Stiftung Humboldt Forum im Berliner Schloss, Berlin und Prof. Dr.-Ing. Ursula Stein, Stein Stadt- und Regionalplanung, Frankfurt am Main, die als Begleiterinnen und Begleiter des Sommercamps fungieren. Sie werden ihre Kompetenzen und Erfahrungen in die Arbeit der jungen Menschen einbringen.
Wir laden Sie herzlich ein, über das Sommercamp zu berichten.
Die Ausrichter würden sich über Ihr Kommen sehr freuen und bitten um Anmeldung.
Weitere Informationen:
https://www.schader-stiftung.de/sommercamp2021
Information und Wissen haben heilsame Wirkung
Peter Kuntz Kommunikation & Marketing
Universität Trier
Ein Forschungsteam der Universität Trier hat gesundheitsfördernde Effekte durch Patientenedukation festgestellt. Dennoch führt die Maßnahme ein medizinisches Schattendasein.
Die Gesundheit von Patienten lässt sich durch die Vermittlung von Wissen über die eigene Krankheit nachweislich stabilisieren und sogar verbessern. Wissenschaftler der Universität Trier haben in einer gerade veröffentlichten Studie herausgearbeitet, dass sich bei vielen Krankheitsbildern durch eine Aufklärung der Betroffenen gesundheitsfördernde Effekte erreichen lassen.
„Im Vergleich zu komplexen und meist teuren operativen oder pharmakologischen Therapien ist die Patientenedukation eine einfache und effektive Methode zum Wohl der Patienten – und das ohne bekannte negative Nebenwirkungen“, sagt die Autorin der Studie, Dr. Bianca Simonsmeier-Martin.
Diese Erkenntnis ist nicht neu. Seit vielen Jahrzehnten wird in kleineren Einzelstudien zur Patientenedukation geforscht. In diesen Studien wurde jeweils eine spezifische Maßnahme für eine Stichprobe von Patienten mit einem bestimmten Krankheitsbild untersucht. Die Allgemeingültigkeit der Aussagen zur Wirksamkeit von Patientenedukation war daher bisher unklar.
Die Trierer Wissenschaftler Dr. Bianca Simonsmeier-Martin, Dr. Maja Flaig, Thomas Simacek und Prof. Dr. Michael Schneider haben in ihrer Metastudie 776 Einzelstudien aus den vergangenen 60 Jahren unter Beteiligung von insgesamt knapp 75.000 Patienten ausgewertet. Keine dieser Studien kam zu dem Ergebnis, dass Patientenedukation negative Folgen haben könnte.
„Unsere Metaanalyse hat sehr homogene Befunde und somit sehr robuste Ergebnisse und belastbare Aussagen ergeben“, stellt Bianca Simonsmeier-Martin fest. Patientenedukation erzielt demzufolge insbesondere bei chronischen Krankheiten die stärksten Effekte und bei Leiden, an deren Behandlung die Betroffenen durch eigenes Handeln im Alltag mitwirken können.
Unter dem Begriff Patientenedukation fassen die Trierer Psychologen alle Maßnahmen zusammen, die dazu dienen, Betroffenen Wissen und Fertigkeiten zu einer Krankheit und ihrer Behandlung zu vermitteln. Die Bandbreite reicht vom einfachen Thekengespräch in der Apotheke oder Infoblatt im Wartezimmer bis zu umfangreichen Trainings.
Angesichts der jahrzehntelang betriebenen Forschung und der nachgewiesenen Wirksamkeit stellt sich die Frage, warum Patientenedukation nicht intensiver und nicht schon viel länger als therapieunterstützendes Instrument eingesetzt wird. Bianca Simonsmeier-Martin erklärt das durch verschiedene Aspekte: „Der kulturelle Wandel, dass Patienten vom Arzt Informationen und ausführliche Aufklärung einfordern, hat erst spät stattgefunden. Patientenedukation ist in unserem Gesundheitswesen auch deshalb unterrepräsentiert, weil es schlichtweg für Ärzte schwer abrechenbar ist und möglicherweise auch, weil Medizinern die positive Wirkung von Patientenedukation zu wenig bekannt ist.“
Daher würde die Wissenschaftlerin der Universität Trier gerne auf diesem Gebiet weiter forschen und in Kooperation mit medizinischen Einrichtungen anwendungsbezogene Lösungen entwickeln, um Patientenedukation effektiv und pragmatisch zum Vorteil von kranken Menschen stärker zu etablieren. Anders als beispielsweise für die Einführung von Medikamenten gibt es für die Anwendung von Patientenedukation bisher keine einheitlichen Standards.
Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Bianca Simonsmeier-Martin
Pädagogische Psychologie
+49 176-70341207
simonsm@uni-trier.de
Originalpublikation:
Die Studie
Bianca A. Simonsmeier, Maja Flaig, Thomas Simacek & Michael Schneider (2021)
What sixty years of research says about the effectiveness of patient education on health: a second order meta-analysis.
Health Psychology Review, https://doi.org/10.1080/17437199.2021.1967184
Reduktion des Energieverbrauchs von Funknetzen: TUD mit zwei Clusterprojektanträgen erfolgreich
Claudia Kallmeier Pressestelle
Technische Universität Dresden
Mit zwei BMBF geförderten Projekten kann die TUD künftig zur Verbesserung des Energieverbrauchs in Computersystemen und Datenfunknetzen beitragen – ein wichtiger Baustein im Kampf gegen die Klimakatastrophe
Im Rahmen des BMBF Innovationswettbewerb „Elektronik für energiesparsame Informations- und Kommunikationstechnik“ haben sich deutschlandweit 22 Teams beworben. Drei Anträge wurden auf Basis der Relevanz für Deutschland, Einsparpotentiale, Innovationshöhe und des Lösungsansatzes im Finale vom BMBF priorisiert – zwei stammen von der TU Dresden: E4C und DAKORE
Die Covid-19 Pandemie hat einmal mehr gezeigt, wie wichtig die Kommunikationstechnik für unser Leben und Arbeiten ist. Die zwei Projekte wollen den Energieverbrauch von Funkzugangsnetzen und den damit verbunden CO2-Ausstoß massiv reduzieren. Klimaschutz mittels innovativer Funktechnologien liegt als entscheidendes Thema passgenau bei der Forschungsstrategie der TU Dresden, welche sich als global bezogene Universität an der Bewältigung der großen Herausforderungen des 21. Jahrhunderts beteiligen möchte.
In Zukunft wird nicht das Rechnen selbst, sondern die Kommunikation in Computersystemen den Energieverbrauch dominieren. Im von Prof. Gerhard Fettweis und Dr. Meik Dörpinghaus koordinierten Projekt E4C soll dieser Verbrauch massiv reduziert werden. E4C steht für „Extrem Energieeffiziente Edge Cloud Hardware am Beispiel Cloud Radio Access Network“. Eine skalierbare Computerarchitektur wird entwickelt, welche aus optimierten Rechenknoten und einer neuartigen hybriden Datenbusstruktur aus elektrischen, optischen und drahtlosen Kommunikationsverbindungen aufgebaut ist. Diese kann z.B. in Edge-Servern für virtualisierte 5G-Funkzugangsnetze eingesetzt werden. Die Projektpartner sind TU Dresden (Vodafone Stiftungslehrstuhl für Mobile Nachrichtensysteme, Institut für Aufbau- und Verbindungstechnik, Professur für Compilerbau, Professur für Schaltungstechnik und Netzwerktheorie, Professur für Hochfrequenztechnik), eesy-IC GmbH, ficonTEC Service GmbH, First Sensor Microelectronic Packaging GmbH, GCD Printlayout GmbH, Micro Systems Engineering GmbH und VI-Systems GmbH. Das Projekt wird zudem begleitet von Nokia Bell Labs, Vodafone GmbH, GLOBALFOUNDRIES LLC & Co. KG, Cloud&Heat Technologies GmbH sowie National Instruments Corp.
DAKORE steht für „Datenfunknetz mit Adaptivhardware und KI-Optimierung zur Reduktion des Energieverbrauches“ und wird vom Team von Prof. Frank Ellinger geleitet. Sein großer Dank gilt Peter Brandl, Franz A. Dürrwald und Andreas Seidel für deren Einsatz bei der Antragsphase. Durch die bedarfsgerechte Optimierung auf stark variierende Performanz-Anforderungen soll der Energieverbrauch von 5G-Funkzugangsnetzen stark reduziert werden. Dazu wird ein holistischer Ansatz entwickelt, der erstmals die ganzheitliche und dynamische Adaptivität von Elektronikkomponenten als auch Software – von globalen KI-Algorithmen bis hin zur Transistorsteuerung unter Beibehaltung der Dienstgüte – verfolgt. Besonders wichtig ist hier die Senkung des Energieverbrauchs der Leistungsverstärker, welche bisher „Leistungsfresser“ sind. Die Projektpartner sind Technische Universität Dresden (Professur für Schaltungstechnik und Netzwerktheorie, Deutsche Telekom Professur für Kommunikationsnetze, Professur für Adaptive Dynamische Systeme), IMST GmbH, Xilinx Dresden GmbH, CampusGenius GmbH, A.N. Solutions GmbH, brown-iposs GmbH, atesio GmbH, Deutsche Funkturm GmbH, National Instruments Dresden GmbH, Deutsche Telekom AG (assoziiert), Ericsson (assoziiert), Vodafone GmbH (assoziiert), United Monolithic Semiconductors GmbH (assoziiert), X-FAB Silicon Foundries SE (assoziiert), Infineon Technologies AG (assoziiert) und Cloud&Heat Technologies GmbH (assoziiert).
Wissenschaftliche Ansprechpartner:
DAKORE:
Prof. Frank Ellinger
Tel. +49 351 463-38735
Mail: frank.ellinger@tu-dresden.de
Peter Brandl
Tel. +49 351 463-34794
Mail: Peter.Brandl@tu-dresden.de
E4C:
Prof. Gerhard Fettweis
Tel. +49 351 463-41000
Mail: gerhard.fettweis@tu-dresden.de
Dr. Meik Dörpinghaus
Tel.: +49 351 463 41 061
Mail: meik.doerpinghaus@tu-dresden.de
Weitere Informationen:
https://www.elektronikforschung.de/service/aktuelles/innovationswettbewerb-elekt…
https://www.bmbf.de/bmbf/shareddocs/pressemitteilungen/de/2021/08/190821-ICT-II….
H2Giga: Serienfertigung von Elektrolyseuren
Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
H2Giga, eines der drei Wasserstoff-Leitprojekte des Bundesministerium für Bildung und Forschung (BMBF), ist an den Start gegangen. Mit seinen über 130 beteiligten Institutionen aus Wirtschaft und Wissenschaft, organisiert in fast 30 eigenständig arbeitenden Verbünden, wird H2Giga die Herstellung von Grünem Wasserstoff im industriellen Maßstab entwickeln. Am 26. August findet das Kickoff-Event von H2Giga mit Podiumsgesprächen von führenden Teilnehmern aus Industrie und Forschung und Dr. Stefan Kaufmann MdB, dem Innovationsbeauftragten „Grüner Wasserstoff“ des BMBF, statt. Die Veranstaltung wird aus dem DECHEMA-Haus in Frankfurt via Livestream öffentlich übertragen.
Mit einem vorgesehenen Fördervolumen von insgesamt etwa 740 Millionen Euro unterstützt das BMBF Deutschlands Einstieg in die Wasserstoffwirtschaft. Die Wasserstoff-Leitprojekte bilden einen zentralen Beitrag zur Umsetzung der Nationalen Wasserstoffstrategie und ermöglichen einen großen Schritt in Richtung eines nachhaltigen Energiesystems. In kürzester Zeit soll Deutschland eine führende Rolle in den Wasserstofftechnologien einnehmen und weiter ausbauen. Damit können Klimaschutz und Wirtschaft zunehmend in Einklang gebracht werden.
Mit Grünem Wasserstoff kann erneuerbare elektrische Energie in chemische Energie umgewandelt und damit speicherbar gemacht werden. Die Speicherung elektrischer Energie wiederum ist eine wesentliche Voraussetzung, um Deutschlands Energiewirtschaft auf regenerative Quellen umstellen zu können.
Die Herstellung von Wasserstoff aus Wasser und Strom, die „Elektrolyse“, ist ein seit langem bekannter Prozess, der mittlerweile eine beachtliche technische Reife errungen hat. Aktuell ist diese Technologie jedoch noch nicht in großen, für das gesamte Energiesystem relevanten Maßstäben vorhanden. Die Elektrolyseure werden derzeit noch weitgehend in Handarbeit aufgebaut, mit entsprechend hohem Kostenaufwand und geringer Fertigungskapazität. Hier greift das Leitprojekt H2Giga, indem es die Industrialisierung der Wasserelektrolyse zur Herstellung von Grünem Wasserstoff vorbereitet und vorantreibt. Die Partner von H2Giga entwickeln für die Herstellung von Elektrolyseuren Fertigungstechnologien, Automatisierung, Digitalisierung und Methoden zur Qualitätskontrolle, so dass die heute noch überwiegende Fertigung mit geringer Automatisierungstiefe auf eine industrielle Serienproduktion für den entsprechenden Markthochlauf umgestellt werden kann.
Am Leitprojekt H2Giga sind die führenden Hersteller dieser Technologie beteiligt, wie Siemens Energy, Linde, MAN Energy Solutions, Thyssenkrupp und Sunfire. Ebenso geforscht wird an Technologien mit besonders hohem Innovationsgrad, sozusagen an einer zweiten Generation von Elektrolyseuren, wobei Unternehmen wie Schaeffler, Enapter und die neu gegründete WEW GmbH beteiligt sind. Von wissenschaftlicher Seite arbeiten renommierte Universitäten und Forschungseinrichtungen, darunter die RWTH Aachen University, zahlreiche Fraunhofer-Institute sowie Institute der Helmholtz-Gemeinschaft und der Max-Planck-Gesellschaft, an den Themen Materialforschung, Lebensdauer & Zelltests, Recycling, Fertigungstechnologien und Digitalisierung. Insgesamt ist für diese Aktivitäten eine Fördersumme von etwa 500 Millionen Euro vorgesehen.
DECHEMA e.V. koordiniert im Leitprojekt H2Giga den Austausch der Partner aus Wissenschaft und Industrie. Er soll der Booster für die Entwicklungs- und Innovationsgeschwindigkeit bei der Implementierung von Grünem Wasserstoff sein, Synergien heben und Entwicklungshürden überwinden. Das Ziel von H2Giga ist die Grundsteinlegung für eine wettbewerbsfähige Herstellung von Grünem Wasserstoff im Gigawatt-Maßstab, damit dieser Schlüssel der Energiewende verfügbar und bezahlbar werden kann.
Als Kickoff-Veranstaltung für H2Giga werden Projektpartner aus Industrie und Forschung am 26.8.2021 von 10:00h bis 13:00h in moderierten Podiumsgesprächen ihr Vorhaben vorstellen. DECHEMA lädt alle Pressevertreter*innen herzlich zu diesem Event ein.
Der Livestream ist ohne Anmeldung unter folgendem Link abrufbar:
https://www.wasserstoff-leitprojekte.de/h2giga-start.
Die Präsenz-Teilnahme in Frankfurt erfordert wegen pandemiebedingter Restriktionen eine Anmeldung über die untenstehenden Kontaktdaten.
Über die Wasserstoff-Leitprojekte:
Die BMBF-geförderten Wasserstoff-Leitprojekte sind das Ergebnis eines Ideenwettbewerbs: Wissenschaft, Wirtschaft und Zivilgesellschaft waren eingeladen, Ideen zu Wasserstoff-Großprojekten einzureichen. Über 240 Partner haben sich so zusammengefunden und sollen mit insgesamt etwa 740 Millionen Euro gefördert werden. Im Frühjahr sind die Projekte auf Basis unverbindlicher Förder-Inaussichtstellungen gestartet. Die Leitprojekte werden über eine Laufzeit von vier Jahren gefördert. Weitere Informationen unter http://www.wasserstoff-leitprojekte.de.
Wissenschaftliche Ansprechpartner:
Johanna Richter (DECHEMA e.V.): johanna.richter@dechema.de Tel.: +49 69-7564-307
Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/h2giga-start – Livestream zum Kickoff-Meeting
http://www.wasserstoff-leitprojekte.de – Übersicht der Wasserstoff-Leitprojekte
Corona-Spürhunde: Diag’nose‘
Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Schweiß, Urin oder Speichel – Hunde können an unterschiedlichen Körperflüssigkeiten mit hoher Genauigkeit
Ein Forschungsteam unter Leitung der Stiftung Tierärztlichen Hochschule Hannover (TiHo) veröffentlichte in Zusammenarbeit mit der Bundeswehr, der Medizinischen Hochschule Hannover und dem Universitätsklinikum Hamburg-Eppendorf in der Fachzeitschrift BMC Infectious Diseases eine Studie und einen Übersichtsartikel über Corona-Spürhunde. Die neue Studie zeigt, dass der Nachweis SARS-CoV-2-infizierter Personen unabhängig davon ist, welche Körperflüssigkeit den Hunden präsentiert wird. Sie bestätigt zudem, dass Hunde in der Lage sind, die Infektion schnell und sicher zu diagnostizieren und dass die freigesetzten flüchtigen organischen Verbindungen, die die Hunde riechen, unabhängig von der infizierten Körperzelle sind. Für medizinische Spürhunde scheinen alle getesteten Körperflüssigkeiten in ähnlicher Weise geeignet zu sein, um SARS-CoV-2-Infizierte zuverlässig zu erkennen.
Die Studie
Für die Studie setzte das Forschungsteam zehn spezialisierte Spürhunden der Bundeswehr ein. Nach einem speziellen Training waren sie in der Lage, 92 Prozent der über 5.000 vorgelegten Proben korrekt zu identifizieren. Die Hunde wurden ausschließlich mit Speichelproben trainiert, in der Studie mussten sie aber auch Urin- und Schweißproben auf die flüchtigen organischen Verbindungen, die die Zellen SARS-CoV-2-positiver Menschen produzieren, kontrollieren. Die Proben wurden automatisiert nach dem Zufallsprinzip verteilt – weder die beteiligten Hundeführer noch die Forschenden vor Ort wussten, welche Proben positiv waren und welche zu Kontrollzwecken dienten. Die Hunde waren in der Lage, zwischen Proben infizierter und nicht infizierter Personen mit einer durchschnittlichen diagnostischen Sensitivität und Spezifität von 95 Prozent bzw. 98 Prozent für Urin, 91 Prozent bzw. 94 Prozent für Schweiß und 82 Prozent bzw. 96 Prozent für Speichel zu unterscheiden. Die Sensitivität bezieht sich auf den Nachweis von positiven Proben. Die Spezifität bezieht sich auf den Nachweis negativer Kontrollproben. Die SARS-CoV-2-positiven Proben stammten von infizierten Personen mit und ohne Symptomen.
Der Geruchssinn des Hundes
Seit Beginn der Domestizierung nutzt der Mensch die außergewöhnlichen Geruchsfähigkeiten von Hunden, um Beute zu jagen, aber auch, um sich selbst vor Raubtieren zu schützen. Heutzutage werden Hunde zunehmend auch im Bereich der medizinischen Forschung zur Geruchserkennung eingesetzt. Sie sind in der Lage, infektiöse und nicht-infektiöse Krankheiten wie verschiedene Krebsarten, Malaria, bakterielle und virale Infektionen zu erkennen (Jendrny et al., 2021). Der Geruchssinn des Hundes ist unübertroffen und mit dem Geruchssinn des Menschen nicht zu vergleichen; Hunde haben mehr als 1.000 Gene für die Olfaktion, eine höhere Nasenoberfläche, einen optimierten Luftstrom zum Riechen, 40-mal mehr Riechrezeptorzellen (200 bis 300 Millionen gegenüber 5 bis 8 Millionen beim Menschen) und ein zusätzliches Geruchssystem (vomeronasales Organ) um einige Beispiele zu nennen. Ein Exempel veranschaulicht die Geruchsfähigkeit von Hunden: Ein Hund ist in der Lage den Tropfen einer Flüssigkeit in 50.000.000 Litern Wasser, das entspricht 20 Schwimmbecken olympischer Größe, zu erkennen.
Machbarkeitsstudie „Back to Culture“
Erst kürzlich hatte das Niedersächsische Ministerium für Wissenschaft und Kultur angekündigt, die Studie „back to culture“ mit 1,5 Millionen Euro zu unterstützen. In Zusammenarbeit mit der Medizinischen Hochschule Hannover, dem Universitätsklinikum Hamburg-Eppendorf, Hannover Concerts, Proevent, Kynoscience, Awias Aviation Services und der Bundeswehr wollen die TiHo-Forschenden in die Erkenntnisse in die Praxis testen. Sie werden auf das Coronavirus trainierte Spürhunde in diesem Herbst bei mehreren Musikveranstaltungen einsetzen und mit Antigen- und rtRT-PCR-Tests vergleichen. Dies wird weitere Erkenntnisse darüber liefern, wie Corona-Spürhunde am besten bei der Detektion infizierten Menschen eingesetzt werden können.
Dr. Esther Schalke, EBVS® spezialisierte Verhaltensforscherin und Oberstabsveterinär an der Schule für Diensthundewesen der Bundeswehr, sagte: „Diese Studie ist ein weiterer Beweis für das Potenzial, das Geruchssuchhunde bei der Bekämpfung der aktuellen Pandemie haben könnten. Es ist schwer vorstellbar, aber die Geruchserkennung von Hunden ist um drei Größenordnungen empfindlicher als die derzeit verfügbaren Instrumente.“
Professor Albert Osterhaus, PhD, Research Center for Emerging Infections and Zoonoses der TiHo, sagte: „Es ist bekannt, dass infektiöse Atemwegserkrankungen spezifische flüchtige organische Verbindungen freisetzen können. Unsere Studie zeigt, dass Hunde diese flüchtigen organischen Verbindungen in verschiedenen Körperflüssigkeiten als Muster erkennen können.“
Professor Holger A. Volk, PhD, Klinik für Kleintiere der TiHo, sagte: „Alle wissenschaftlichen Mosaiksteinchen fügen sich nun zusammen und ergeben ein klares Bild: Der Geruchssinn des Hundes eignet sich hervorragend für die Erkennung von SARS-CoV-2-infizierten Personen. Zukünftige Studien im Feld sind nun notwendig, um zu zeigen, wie Hunde am besten eingesetzt werden können.“
Die Originalpublikationen
Jendrny, P., Twele, F., Meller, S. et al. Scent dog identification of SARS-CoV-2 infections in different body fluids. BMC Infect Dis 21, 707 (2021). https://doi.org/10.1186/s12879-021-06411-1
Jendrny, P., Twele, F., Meller, S. et al. Canine olfactory detection and its relevance to medical detection BMC Inffect Dis (2021) https://doi.org/10.1186/s12879-021-06523-8
First publication in the field: Jendrny, P., Schulz, C., Twele, F. et al. Scent dog identification of samples from COVID-19 patients – a pilot study. BMC Infect Dis 20, 536 (2020). https://doi.org/10.1186/s12879-020-05281-3
Wissenschaftliche Ansprechpartner:
Professor Holger Volk, PhD
Stiftung Tierärztliche Hochschule Hannover
Klinik für Kleintiere
Tel.: +49 511 953-6202
holger.volk@tiho-hannover.de
Professor Dr. Albert Osterhaus
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-6140
albert.osterhaus@tiho-hannover.de
Professorin Dr. Maren von Köckritz-Blickwede
Stiftung Tierärztliche Hochschule Hannover
Research Center for Emerging Infections and Zoonoses
Tel.: +49 511 953-8787
maren.von.koeckritz-blickwede@tiho-hannover.de
Weitere Informationen:
http://www.tiho-hannover.de/pressemitteilungen
Der Untergang der Europäischen Flusskrebse: Wenn Wirtschaft über Naturschutz siegt
Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Der europäische Flusskrebs wird seit rund 150 Jahren von der Krebspest dahin gerafft. Angesichts dieser Entwicklung wurden aus wirtschaftlichen Gründen gezielt nordamerikanische Signalkrebse in Flüsse und Bäche ausgesetzt. Das massenhafte Sterben der einheimischen Krebse hat sich dadurch noch mehr beschleunigt statt verlangsamt. Wissenschaftler*innen des Senckenberg und anderen europäischen Forschungseinrichtungen berichten in „Frontiers in Ecology and Evolution“, wie es dazu kam und welche Lehren sich daraus ziehen lassen. Am europäischen Flusskrebs sei ersichtlich, dass es mehr schade als nütze gebietsfremde Arten einzuführen, um verlorene Bestände einheimischer Arten zu ersetzen
Dies ist die Geschichte einer gewaltigen Fehlentscheidung, die im Jahr 1860 beginnt. In diesem Jahr wird erstmals beobachtet, dass europäische Flusskrebse (Astacus astacus), auch Edelkrebse genannt, in großer Anzahl sterben. Verantwortlich ist ein Scheinpilz, der die – zumindest für europäische Flusskrebse tödliche – Krebspest verursacht. Rund einhundert Jahre später, 1960, hatte die Krankheit die Bestände der Edelkrebse bereits beträchtlich dezimiert. Um den Verlust zu kompensieren, wurde deshalb u.a. in Finnland, Schweden, Österreich und Spanien der nordamerikanische Signalkrebs (Pacifastacus leniusculus), der immun gegenüber der Krebspest zu sein schien, in Flüssen und Seen ausgesetzt. Heutzutage hat der Signalkrebs die Oberhand in Europas Gewässern. Und der Edelkrebs? Der ist nach zahlreichen Krebspestwellen inzwischen vom Aussterben bedroht.
„Der Signalkrebs wurde mittlerweile in 28 europäischen Ländern nachgewiesen. Der Einwanderer ist zwar gegen die meisten Krebspest-Erregerstämme resistent, aber er kann den Erreger übertragen. Als man die Tiere massenhaft ausgesetzt hat, hat man dem Edelkrebs daher gleichsam den Todesstoß verpasst“, sagt Dr. Kathrin Theissinger vom Senckenberg Biodiversität und Klima Forschungszentrum und der Universität Koblenz-Landau. Der Signalkrebs gilt in Europa inzwischen als invasive Art und damit als einer der fünf maßgeblichen Faktoren, die weltweit zum Verlust biologischer Vielfalt führen. Theissinger dazu: „Brisant ist, dass der Signalkrebs nicht zufällig in europäische Gewässer gelangt ist, sondern bewusst und wiederholt trotz wissenschaftlicher Bedenken eingebracht wurde und wird“.
Gemeinsam mit Kolleg*innen der Universität Ostfinnland, der Schwedischen Universität für Agrarforschung, des obersten spanischen Wissenschafler-Rates CSIC und der Universität Zagreb zeigt Theissinger in einer Studie auf, wie es dazu kommen konnte. Hauptursache ist der kommerzielle Wert von Flusskrebsen, denn die Tiere stehen seit Jahrhunderten auf Europas Speiseplan. Der Fang der ausgesetzten und sich alsbald entwickelnden Wildbestände der Signalkrebse sollte die wirtschaftlichen Verluste durch den Wegfall der einheimischen Krebse ersetzen. Langfristige ökologische Folgen der Aussetzung einer gebietsfremden Art wurden dem untergeordnet. Zudem wurde der Signalkrebs als gewinnträchtige Art beworben und damit die illegale Aussetzung neben der offiziellen Aussetzung in Gewässer noch gefördert.
Ein weiterer Punkt der zum Untergang der Edelkrebse geführt hat, sind falsche und verzerrte Informationen um den ‚guten Namen‘ des Einwanderers zu schützen. „Es wurde nicht kommuniziert, dass Pacifastacus leniusculus den Erreger der Krebspest an einheimische Arten übertragen kann und wiederholt behauptet, dass Signalkrebse – im Gegensatz zu den einheimischen Arten – gegen den Krebspest-Erreger immun wären. Damals war bereits klar, dass dies nicht für alle Untertypen des Erregers zutrifft. Als sich die Bestände der Signalkrebse nicht wie versprochen entwickelten, wurde die Prognose nicht korrigiert. Einzelne Akteure haben zudem absichtlich versucht, Argumente gegen gebietsfremde Arten in Argumente gegen einheimische Flusskrebse zu verdrehen“, fasst Theissinger zusammen.
Welche vielschichtigen Folgen der dramatische Rückgang der einheimischen Krebse hat, ist noch nicht genau abschätzbar, da derartige Änderungen in Ökosystemen oft erst langfristig sichtbar werden. „Flusskrebs ist nicht gleich Flusskrebs. Die ökologischen Unterschiede gebietsfremder Arten sind oftmals mannigfaltig und der Effekt auf das Ökosystem schwer zu prognostizieren.“, erklärt Theissinger. Eine gezielte Ausrottung der Signalkrebse ist nur in begrenzten Wasserflächen wie Teichen möglich. In Gewässern, die eng miteinander verbunden, wie es häufig in Skandinavien der Fall ist, ist dies praktisch aussichtslos. Eine Korrektur des Fehlers wird also schwierig.
Einen Rettungsplan für die Edelkrebse haben die Wissenschaftler*innen trotzdem erarbeitet. Demnach sollten die Aussetzung, der Fang sowie der Verkauf gebietsfremder Krebse als Lebensmittel verboten werden, Populationen der gebietsfremden Krebse beobachtet und – soweit möglich – neue Populationen ausgerottet werden, die Öffentlichkeit für das Problem invasiver Krebse sensibilisiert und der nachhaltige Fang einheimischer Krebse geprüft werden. „Wir, die Gesellschaft, müssen unsere Umwelt stärker als Ganzes wahrnehmen und ein funktionierenden Ökosystems wertschätzen. Der Signalkrebs ist der am weitesten verbreitete gebietsfremde Krebs in Europa, es gibt aber auch andere gebietsfremde Krebsarten. Um das Aussterben des Europäischen Flusskrebses abzuwenden, muss man wohl eher beim Menschen als bei den Krebsen ansetzen“, so Theissinger.
Wissenschaftliche Ansprechpartner:
Dr. Kathrin Theissinger
Senckenberg Biodiversität und Klima Forschungszentrum & Universität Koblenz-Landau
kathrin.theissinger@senckenberg.de
Originalpublikation:
Jussila J, Edsman L, Maguire I, Diéguez-Uribeondo J and Theissinger K (2021) Money Kills Native Ecosystems: European Crayfish as an Example. Frontiers in Ecology & Evolution, doi: 10.3389/fevo.2021.648495
TU Berlin: Vorbereitet auf Starkregen, gewappnet gegen Hitze – wie Stadtentwicklung neu gedacht werden muss
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Straßen als blaugrüne Oasen
Viel ist derzeit von der Schwammstadt im Zusammenhang mit den Flutereignissen, die sich Mitte Juli in Rheinland-Pfalz und Nordrhein-Westfalen ereigneten, die Rede. Schwammstadt bedeutet, dass eine Stadt in der Lage sein soll, bei Hochwasser und Starkregen das Wasser – eben wie ein Schwamm – aufzusaugen. Matthias Barjenbruch sieht diesen Begriff jedoch kritisch. Seiner Meinung nach erfasst er ein gravierendes Problem, worunter Städte zunehmend leiden, nicht: Es ist die Hitze. Städte werden zu Glutinseln, heizen sich für Menschen zum Teil lebensgefährlich auf. Anfang August herrschten in Athen über Tage 43 Grad Celsius, in der Nacht 30 Grad Celsius. „Deshalb müssen Städte auch in der Lage sein, Wasser zur Kühlung wieder verdunsten zu lassen. Dabei spielt die urbane Vegetation eine wichtige Rolle“, sagt der Professor für Siedlungswasserwirtschaft an der TU Berlin.
Starkregen und Hitzewellen beurteilt die Wissenschaft mittlerweile als Folgen des Klimawandels. „Für die Stadtentwicklung heißt das, dass vielfältige Strategien gleichzeitig und gleichrangig verfolgt werden müssen, damit sich die Städte diesen Klimafolgen anpassen können. Für die Nutzung städtischer Flächen bedeutet das, dass Straßen, Dächer, Fassaden, Gehwege, Spielplätze, Grünflächen, Parks, Parkplätze – nicht mehr nebeneinander, sondern in Bezug zueinander entwickelt und diese Flächen multifunktional genutzt werden müssen. Die Herausforderung für die Stadtentwickler besteht in einer transdisziplinären Planung aller Sektoren. Straßen-, Wasser-, Wohnungsbau, Grünflächen, Verkehr – alles muss zusammengedacht werden, um zu integrierten Lösungen zu gelangen“, sagt Matthias Barjenbruch.
Was es bedeutet, wenn Hitzeprävention und Vermeidung von Überflutungen bei Starkregen transdisziplinär angegangen werden müssen und Flächen wie der Straßenraum multifunktional werden mit dem Ziel, klimaangepasst zu sein, das untersucht ein Konsortium von acht Forschungseinrichtungen sowie Planungs- und Ingenieurbüros unter Beteiligung der TU-Fachgebiete Siedlungswasserwirtschaft und Ökohydrologie und Landschaftsbewertung in dem Projekt „BlueGreenStreets“ – als multicodierte Strategie zur Klimafolgenanpassungen“.
In diesem „BlueGreenStreets“-Konzept sind Straßen nicht nur Straßen, sondern werden zu sogenannten Retentionsräumen, also Räumen, die bei Starkregen die Wassermassen zurückhalten und auch ableiten können. Das kann dadurch geschehen, dass das Regenwasser dezentral im oder neben dem Straßenraum versickert wird, indem zum Beispiel die Parkstände für Autos tiefergelegt werden. Oder Straßen übernehmen bei Starkregen die Funktion von Notwasserwegen durch den Einbau von Mittelrinnen (V-Profil) in die Straßen, von Hochborden oder Schwellen. Dadurch kann das oberflächige Niederschlagswasser kontrolliert auf angrenzende Freiräume wie Parks, Grünflächen, Spielplätze oder unversiegelte Parkplätze geleitet werden, wo es versickert. Häuser, Straßen, aber auch die Kanalisation werden so vor Überflutung geschützt, und diese gezielte Ableitung des Niederschlages reduziert Überflutungsschäden. In Dürrephasen wiederum steht das versickerte Regenwasser der urbanen Vegetation zur Verfügung, kann über die Pflanzen verdunsten, was Kühlung bringt, und ist nicht über die Kanalisation abgeflossen.
Und Bäume sind in diesem Konzept mehr als Bäume. Sie fungieren als temporäre Zwischenspeicher, indem verschiedene Typen von Versickerungsbaumgruben angelegt werden. Ein solcher Versickerungsbaumgruben-Typ ist die Baumrigole. Das sind Versickerungsflächen für Regenwasser, das unter anderem von Dach- und Verkehrsflächen wie Parkplätzen zu den Bäumen geleitet wird. Unterirdisch werden die Baumrigolen durch ein Drainagesystem ent- und bewässert. Das ermöglicht, den Baum in Dürrephasen mit Wasser zu versorgen. Dadurch bleiben die Straßenbäume als Elemente der Wasserspeicherung, Verschattung, Verdunstung und Kühlung erhalten und können die starke Aufheizung von Gehwegen und Straßen bei Hitze mildern. Die Aufenthaltsqualität des Straßenraums verbessert sich. Zudem sind Baumrigolen so konstruiert, dass sie den Baumwurzeln genügend Raum geben. Lebenswichtig für die Bäume.
Weitere Elemente der Hitzeprävention sind im Straßenraum angelegte Verdunstungsbeete mit verdunstungsintensiven Pflanzen sowie begrünte Dächer und Fassaden. Hierbei übernehmen Dächer und Fassaden die zusätzliche Funktion eines Wasserspeichers und dienen ebenfalls der Verschattung, Verdunstung und damit der Kühlung des städtischen Raums.
All diese Beispiele zeigen, wie sich urbane Vegetation und urbanes Wasser bedingen. Ohne entsiegelte Flächen und intaktes städtisches Grün und ohne gezielte Nutzung des Regenwassers zum Erhalt des städtischen Grüns – keine Versickerungs-, Speicher- und Verdunstungsleistung bei Starkregen und Hitzeperioden. „Ziel von Stadtentwicklung muss es deshalb zukünftig sein, die urbane Vegetation mit der urbanen Wasserinfrastruktur zu koppeln, was bislang kaum geschieht, aber nur so können Starkregen und Hitzeperioden von der Stadt abgepuffert werden“, sagt Matthias Barjenbruch, dessen Team in dem Projekt „BlueGreenStreets“ die Schadstoffbelastung des Straßenwassers untersucht. Das Team des Fachgebiets Ökohydrologie und Landschaftsbewertung unter der Leitung von Prof. Dr. Eva Paton erforscht den Wasserverbrauch und die Verdunstungsleistungen von Stadtbäumen und Fassadenbegrünungen im urbanen Raum.
Das Vorhaben „BlueGreenStreets“ wird im Rahmen der Fördermaßnahme „Ressourceneffiziente Stadtquartiere für die Zukunft“ des Bundesministeriums für Bildung und Forschung gefördert.
Lesen Sie auch das Interview mit Prof. Dr. Eva Paton über den Zusammenhang von Dürre und extremem Starkregen und ihren Folgen: http://www.tu.berlin/go32586
Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fachgebiet Siedlungswasserwirtschaft
E-Mail: matthias.barjenbruch@tu-berlin.de
Prof. Dr. Eva Paton und Dr. Björn Kluge
TU Berlin
Fachgebiet Ökohydrologie und Landschaftsbewertung
E-Mail: eva.paton@tu-berlin.de; bjoern.kluge@tu-berlin.de
TU Berlin: Zukünftiger Schutz gegen Extremniederschläge: weitere Bebauungsverbote dürfen kein Tabu sein
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Der Wasserwirtschaftler Prof. Dr. Reinhard Hinkelmann über Konsequenzen aus den Sturzflutereignissen in Deutschland
„Derzeit gibt es in Deutschland keine gesetzlichen Regelungen, die den Überflutungsschutz vor Sturzfluten, sogenannten Flash floods, in kleinen Einzugsgebieten, wie wir sie vergangene Woche in Nordrhein-Westfalen und Rheinland-Pfalz erlebten, regeln. Deshalb sind bislang in den nun überfluteten Regionen auch keine oder kaum Überflutungsschutzmaßnahmen durchgeführt worden. Das wird sich ändern müssen. Der umfangreiche, sehr gute Hochwasserschutz in Deutschland ist bislang auf Flusshochwasser ausgelegt“, sagt Dr.-Ing. Reinhard Hinkelmann, Professor für Wasserwirtschaft und Hydrosystemmodellierung an der TU Berlin.
Der Unterschied zwischen Flusshochwassern, wie sie sich zum Beispiel 2002 und 2013 an der Elbe ereigneten, und den jetzt stattgefundenen Sturzfluten, vergleichbar mit denen 2016 in Simbach (Bayern) und Braunsbach (Baden-Württemberg), ist, dass diese Sturzfluten aus Extremniederschlägen in kleinen Einzugsgebieten hervorgehen. Sie sind durch sehr schnelle Abflussprozesse von Bergen und Hängen über Bäche, die zu Strömen werden, gekennzeichnet und haben sehr kurze Vorwarnzeiten im Gegensatz zu den Flusshochwassern großer Flüsse wie der Elbe oder dem Rhein, für die die Vorwarnzeiten einige Tage betragen. Dadurch sind untere und mittlere Hanglagen sowie Tallagen nahe von Bächen besonders gefährdet“, erklärt Prof. Dr.-Ing. Reinhard Hinkelmann.
Ein wirksamer Schutz vor solchen Sturzfluten werde nicht ohne kostenintensive, millionenschwere Investitionen und harte Maßnahmen möglich sein wie den Bau großer Ableitsysteme vor Siedlungen, den früheren Stadtmauern ähnlich, in die Landschaft eingepasste Dämme, versenkbare Mauern und Geschiebesperren im Ober- und Mittellauf der Bäche – wie sie aus dem alpinen Raum bekannt sind –, um Bäume und Geröllmassen zurückzuhalten, so Reinhard Hinkelmann. Wichtig werde sein, die Schutzmaßnahmen den lokalen Gegebenheiten anzupassen. Aber auch Veränderungen in der Siedlungs- und Landschaftsplanung wie weitere Bebauungsverbote in überflutungsgefährdeten Bereichen dürften kein Tabu sein. „Wir müssen über Maßnahmen nachdenken, die über das Existierende hinausgehen und damit meine ich auch, dass wohl überlegt werden muss, ob die jetzt weggerissenen Gebäude an ihren ursprünglichen Stellen wiedererrichtet werden sollten.“
Eine weitere Konsequenz aus den Extremwettereignissen der letzten Tage sei, die Bemessungsgrundlage für die Hochwasserschutzmaßnahmen zu ändern. „Zurzeit werden die meisten Hochwasserschutzmaßnahmen für ein Flusshochwasser ausgelegt, das statistisch einmal in 100 Jahren auftritt. Hier ist über erhöhte Bemessungsereignisse nachzudenken, also sich an noch extremeren Wetterereignissen zu orientieren, wie sie zum Beispiel alle 200 Jahre auftreten könnten“, so Reinhard Hinkelmann.
Die Hochwasserschutzanlage der sächsischen Kleinstadt Grimma, die nach der Flutkatastrophe von 2002 an der Elbe begonnen wurde zu bauen, nennt Reinhard Hinkelmann eine gelungene Hochwasserschutzmaßnahme, wenngleich keine Blaupause für all die jetzt betroffenen Kommunen, da in Grimma der Denkmalschutz eine gewichtige Rolle spielte. „Zudem dauerte die Umsetzung der Hochwasserschutzmaßnahmen 17 Jahre. Für die Maßnahmen, die jetzt nötig sind, um die Siedlungen an den Ober- und Mittelläufen der Bäche und in Tallagen zu schützen, sollten wir nicht weitere 17 Jahre brauchen“, sagt Reinhard Hinkelmann.
Die Extremniederschläge resultieren seiner Einschätzung nach aus den Folgen des Klimawandels. Das bedeute für den Hochwasserschutz, dass die Auswirkungen des Klimawandels seitens der Politik intensiver angegangen werden müssen. „Auch zukünftig werden wir keinen 100-prozentigen Hochwasserschutz haben, das Schutzniveau wird voraussichtlich auch nach dem Umsetzen vieler weiterer Maßnahmen sinken, das Leben wird riskanter. Das wird den Druck auf die Politik weiter erhöhen“, urteilt Reinhard Hinkelmann.
Weitere Informationen erteilt Ihnen gern:
Prof. Dr.-Ing. Reinhard Hinkelmann
TU Berlin
Fachgebiet Wasserwirtschaft und Hydrosystemmodellierung
E-Mail: reinhard.hinkelmann@wahyd.tu-berlin.de
Hochwasserrisiken wurden deutlich unterschätzt
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Um Hochwassergefahren besser einschätzen zu können, sollen Gefahrenkarten historische Daten einbeziehen. Dafür plädieren Forschende am CEDIM – Center for Disaster Management and Risk Reduction Technology des Karlsruher Instituts für Technologie (KIT). Das CEDIM hat einen ersten Bericht zur Flutkatastrophe in Rheinland-Pfalz und Nordrhein-Westfalen vorgelegt. Was die Rolle des Klimawandels betrifft, birgt die Kombination aus mehr verfügbarem Wasser in der Atmosphäre und einer zunehmenden Beständigkeit von Großwetterlagen ein steigendes Potenzial für extreme Niederschlagsereignisse.
Die Hochwasserkatastrophe in der vergangenen Woche hat in Deutschland mehr als 170 Todesopfer gefordert (Stand: 21. Juli 2021). Immer noch werden Menschen vermisst. Die Schäden an Gebäuden und Infrastruktur lassen sich erst grob bestimmen und gehen in die zweistelligen Milliarden – davon allein mindesten zwei Milliarden Euro für Verkehrsinfrastrukturen. Inzwischen hat der Gesamtverband der Deutschen Versicherungswirtschaft e.V. (GDV) den versicherten Schaden auf vier bis fünf Milliarden Euro nur in Rheinland-Pfalz und Nordrhein-Westfalen geschätzt. Wie kam es zu den Überflutungen, die vor allem Rheinland-Pfalz und Nordrhein-Westfalen betrafen? Wie lassen sich Hochwassergefahren – besonders seltene, extreme Ereignisse – vorab besser abschätzen? Mit diesen Fragen hat sich die Forensic Disaster Analysis (FDA) Group des CEDIM befasst und einen ersten Bericht vorgelegt.
Wie die Forschenden erläutern, führten enorme Niederschlagsmengen dazu, dass beispielsweise der Pegel an der Ahr (Altenahr) seinen bisherigen Rekord von 2016 (3,71 Meter, Abfluss: 236 m³/s) deutlich überstieg. Überflutungsbedingt fiel die Messstation bei einem Wert von 5,05 Metern (Abfluss: 332 m³/s) allerdings aus. Das Landesamt für Umwelt Rheinland-Pfalz kalkulierte aus Modellrechnungen für die Katastrophennacht einen Pegel von bis zu sieben Metern, basierend darauf schätzten die Expertinnen und Experten einen Abfluss zwischen 400 bis 700 m³/s ab.
Mehrere Faktoren führten zu den extrem hohen Niederschlagssummen
Aus meteorologischer Perspektive führten verschiedene Faktoren zu den extrem hohen Niederschlagssummen. „Innerhalb von 48 Stunden fiel in Teilen von Nordrhein-Westfalen und Rheinland-Pfalz mehr Regen, als dort üblicherweise im gesamten Monat Juli niedergeht; der Hauptanteil ging sogar innerhalb von nur rund zehn Stunden nieder“, berichtet CEDIM-Sprecher Professor Michael Kunz. Außerdem verstärkte das stark gegliederte Gelände der betroffenen Regionen, besonders im Landkreis Ahrweiler, mit teils tief eingeschnittenen Flusstälern den Oberflächenabfluss. Der bereits annähernd gesättigte Boden durch teils kräftige Niederschläge in den vorangegangenen Tagen verschärfte die Situation zusätzlich.
Um die Überflutungsflächen in den am schwersten betroffenen Gebieten Kreis Ahrweiler und Rhein-Erft-Kreis abzuschätzen, kombinierte das Forschungsteam Satellitendaten mit Luftaufnahmen von (Amateur-)Drohnen und Helikoptern sowie Fotos aus sozialen Medien. Nach diesen geschätzten Überflutungsflächen befinden sich in den betroffenen Gebieten knapp über 19 000 Gebäude mit einem Wert von rund neun Milliarden Euro. In Verbindung mit empirischen Daten vergangener Hochwasserkatastrophen (Infrastrukturschäden, Elementarschäden und andere Schäden) schätzten die Forschenden einen Gesamtschaden zwischen elf und 24 Milliarden Euro (erste CEDIM-Schätzung: 21. Juli 2021). Dabei ist allerdings zu berücksichtigen, dass die Überflutungsflächen nur einen Teil der gesamten betroffenen Fläche ausmachen.
Mehr verfügbares Wasser in der Atmosphäre und zunehmende Beständigkeit von Großwetterlagen steigern Gefahr
Ob ein einzelnes Extremereignis oder die Abfolge mehrerer Extreme bereits auf den Klimawandel zurückzuführen sind, lässt sich nach Aussage der Karlsruher Katastrophenforschenden weder exakt belegen noch komplett verneinen, besonders wenn es um Ereignisse auf kurzen Zeit- und Raumskalen geht, die stark von lokalen Faktoren beeinflusst sind. Für die großräumigen Prozesse in der Atmosphäre, die zur Entstehung von Extremereignissen führen, gilt jedoch: Die Kombination aus mehr verfügbarem Wasser in der Atmosphäre infolge der Temperaturzunahme und einer zunehmenden Beständigkeit von Großwetterlagen mit einem sich tendenziell nach Norden verlagerndem Jetstream, dem Starkwindband in der oberen Troposphäre, birgt ein hohes Gefahrenpotenzial. „Da für diese drei Faktoren ein positiver Trend zu erwarten ist, wird auch das Potenzial für extreme Niederschlagsereignisse in Zukunft zunehmen“, erklärt Kunz.
Bereits 1804 und 1910 bedeutende Hochwasserereignisse im Ahrtal
„Im Ahrtal gab es bereits in der Vergangenheit zwei besonders bedeutende Hochwasserereignisse, nämlich 1804 und 1910. Ein Vergleich mit historischen Aufzeichnungen lässt annehmen, dass die diesjährigen Werte allerdings niedriger einzuordnen sind als die von 1804“, sagt der stellvertretende CEDIM-Sprecher Dr. James Daniell. Für das Hochwasserereignis von 1804 wurde der Abfluss von der Universität Bonn bereits auf ca. 1 100 m³/s geschätzt. Das diesjährige Ereignis könnte hydrologisch betrachtet ein ähnliches Ausmaß wie das von 1910 mit einem Abfluss von 500 m³/s gehabt haben. „Die aktuellen Hochwasserkarten für das Ahrtal basieren derzeit auf einer Abflussstatistik mit Daten seit 1947, da seit diesem Zeitpunkt homogene Messreihen zur Verfügung stehen. Dadurch werden die beiden historischen Ereignisse bei der Gefährdungsabschätzung bisher jedoch nicht berücksichtigt“, sagt Dr. Andreas Schäfer, Erstautor des Berichts. So liegt die aktuelle Schätzung eines hundertjährlichen Hochwassers als Bemessungsgrundlage für den Hochwasserschutz für die Ahr bei 241 m³/s.
Die FDA Group des CEDIM plädiert dringend dafür, in Hochwasser-Gefahrenkarten historische Daten einbeziehen, auch aus der Zeit vor der kontinuierlichen Messaufzeichnung, um Hochwassergefahren besser abschätzen zu können. „Zwar müssen wir bei den Analysen und Interpretationen der Daten grundsätzlich beachten, dass sich sowohl Infrastrukturen als auch Hochwasserschutzmaßnahmen in den vergangenen Jahren verändert haben. Daher lassen sich die Messwerte direkt schwerer vergleichen, und wir sollten uns weniger auf die Pegelstände fokussieren“, erklärt Daniell. „Wir können die Pegelstände von 1804 und 1910 als indirekte Anzeiger heranziehen, um Hochwasserjahre zu identifizieren. Messwerte zum Abfluss, über die zeitliche Entwicklung und über die Niederschlagsummen