Citizen Science: Valide Daten zu Fließgewässern
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Citizen-Science-Projekte etablieren sich mehr und mehr als wichtige Stütze für die Umweltforschung. Sie liefern Daten, öffnen die Wissenschaft für die Gesellschaft und geben Interessierten die Möglichkeit, sich für die Umwelt zu engagieren, um nur einige Vorzüge zu nennen. Allerdings gibt es auch Vorbehalte, etwa in punkto Datenqualität. Ein Forscher:innen-Team unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig hat anhand der Zustandsbewertung von Kleingewässern festgestellt, dass Citizen-Science-Daten für die weitere Verwendung in Wissenschaft und Verwaltung durchaus geeignet sind.
Die Forscher:innen untersuchten Daten, die rund 300 Freiwillige an 28 Bächen in Sachsen, Sachsen-Anhalt, Thüringen und Niedersachsen im Citizen-Science-Projekt FLOW im vergangenen Jahr erhoben hatten. Ziel von FLOW ist, Aussagen zum ökologischen Zustand von kleineren Fließgewässern in der Agrarlandschaft treffen zu können. Die Freiwilligen bewerteten dafür die Gewässermorphologie, erhoben physikalisch-chemische Parameter und analysierten die Gemeinschaft der wirbellosen Tiere (Makrozoobenthos), anhand derer Aussagen zum ökologischen Zustand eines Bachs möglich sind. Mitarbeiter:innen des UFZ und des Projektpartners Bund für Umwelt und Naturschutz Deutschland (BUND) hatten die Bürger:innen zuvor über ein halbtägiges Training mit den Methoden der Gewässerbewertung und der Bestimmung des Makrozoobenthos vertraut gemacht. Die Ergebnisse der Freiwilligen verglich das Forscher:innen-Team um Julia von Gönner mit denen des von Prof. Matthias Liess geleiteten UFZ-Forschungsprojekts „Kleingewässermonitoring“, in dessen Rahmen 2021 unter anderem diese 28 Bäche von Wissenschaftler:innen beprobt worden waren.
In einem Beitrag für das Fachjournal Science of the Total Environment verglichen die Forscher:innen nun die Ergebnisse der beiden Gruppen. Dabei zeigt sich, dass sich die Bestimmungsqualität des Makrozoobenthos durch Freiwillige von der der Expert:innen kaum unterscheidet, wenn man die Wirbellosen auf Ebene der Ordnung oder der Familie identifiziert. Dann liegt die Übereinstimmung bei den bestimmten Individuen bei rund 90 Prozent. Sollen für die Tierchen dagegen noch genauer die Gattung oder die Art bestimmt werden, nimmt die Fehlerrate bei den Freiwilligen zu. „Einige Wirbellose sind nur wenige Millimeter groß, innerhalb einer Familie oder Gattung sind sich die Larven der Wasserinsekten optisch oft sehr ähnlich, und die Merkmale zur genaueren Bestimmung sind mit einfacher Ausstattung im Feld nur schwer erkennbar. Um korrekte Gattungs- und Artnamen nennen zu können, braucht es monatelange Erfahrung, viel Zeit zur Bestimmung sowie gute Mikroskope, was in einem Citizen-Science-Projekt in der Regel nicht umsetzbar ist“, sagt Julia von Gönner. So hatten die Freiwilligen mit einer geländetauglichen Ausstattung gearbeitet, die neben einer Anleitung zur Bewertung der Gewässermerkmale und einer Bestimmungshilfe für das Makrozoobenthos ein Stereomikroskop mit lediglich 20-facher Vergrößerung umfasste. Am UFZ standen den Wissenschaftler:innen im Kleingewässermonitoring dagegen deutlich höher auflösende Mikroskope zur Verfügung, die die Artbestimmung erleichterten. Dass sich die Wirbellosen aber nicht präziser bestimmen lassen, muss kein Nachteil sein, denn: Für das von Matthias Liess entwickelte Bioindikatorsystem SPEARpesticides, mit dem sich analog zu den fünf Qualitätsklassen der EU-Wasserrahmenrichtlinie die Belastung des Fließgewässers durch Pestizide einschätzen lässt, reicht die Bestimmung eines Individuums auf Ebene der Familie aus. Folglich fallen auch die Ergebnisse zum Bioindikator SPEARpesticides der Bürger:innen und der Wissenschaftler:innen recht ähnlich aus: 61 Prozent der Bäche stuften beide Gruppen in die gleiche Qualitätsklasse ein. Bei 32 Prozent unterschied sich die Einschätzung um eine Klasse, lediglich bei 6 Prozent um zwei Klassen.
Gute Ergebnisse erzielten die Freiwilligen auch bei der Hydromorphologie, also etwa bei der Einschätzung des Gewässerverlaufs, der Uferstruktur oder der Diversität des Gewässersubstrats. So lag die Übereinstimmung beider Gruppen, ob diese Strukturen gemäß den Vorgaben der EU-Wasserrahmenrichtlinie in einem guten ökologischen Zustand sind, bei 82 Prozent. Insgesamt bewerteten beide Gruppen 50 Prozent der Gewässer mit den gleichen Qualitätsklassen, bei den anderen 50 Prozent lag nur eine Klasse dazwischen. „Das ist ein gutes Ergebnis, denn die Komponenten der Gewässermorphologie realistisch zu bewerten ist eine anspruchsvolle Aufgabe“, sagt von Gönner. Diese Variabilität von einer Qualitätsklasse gibt es auch bei professionellen Kartierer:innen.
Einzig bei der Messung der physikalisch-chemischen Parameter, also etwa des Sauerstoff-, Nitrit- und pH-Gehalts oder der Ionenleitfähigkeit, liegen größere Unterschiede zwischen den Ergebnissen vor. Ein Grund dafür: Während die UFZ-Wissenschaftler:innen die Gewässerabschnitte fünf Mal pro Saison beprobten, konnten die Freiwilligen aus zeitlichen und organisatorischen Gründen nur eine Messung vornehmen. „Eine Messung pro Saison und Bachabschnitt ist zu wenig, denn die chemische Zusammensetzung des Gewässers kann saisonal und tageszeitlich stark schwanken“, sagt Jonas Gröning, UFZ-Mitarbeiter im FLOW-Projekt. Um aussagekräftigere Ergebnisse zu bekommen, seien häufigere Messungen notwendig. Citizen-Science-Projekte, die den Gewässerzustand erforschen möchten, könnten dazu beispielsweise zwei bis drei Personen aus jeder Gruppe benennen, die sich ausschließlich mit den chemisch-physikalischen Messungen beschäftigen und dadurch mehr Daten pro Probestelle erheben könnten.
„Wir konnten nachweisen, dass die Freiwilligen sehr gute Daten zur Fließgewässerbewertung erheben, wenn sie davor geschult werden und ihre Einsätze gut koordiniert sind“, bilanziert Lilian Neuer vom BUND, die im Forschungsprojekt FLOW die Bürgerbeteiligung koordiniert. Die Ergebnisse könnten Datenlücken füllen, da die EU-Wasserrahmenrichtlinie auf größere Fließgewässer fokussiert und Kleingewässer mit einem Einzugsgebiet von weniger als zehn Quadratkilometern kaum berücksichtigt. Dabei machen diese laut Bundesamt für Naturschutz rund 65 Prozent der Gesamtlänge aller Fließgewässer in Deutschland aus. „Unsere Vision ist, ein bundesweites Monitoringnetz mit Citizen-Science-Gruppen aufzubauen, und diese Daten den Umweltbehörden, Wissenschaftler:innen und anderen Interessierten zur Verfügung zu stellen“, sagt von Gönner. So könnte jeder und jede Einzelne dazu beitragen, den ökologischen Gewässerzustand zu verbessern. „Dieses Projekt zeigt sehr anschaulich, dass wir durch Citizen Science wichtige gesellschaftliche Herausforderungen und Umweltprobleme zusammen mit Bürgerinnen und Bürgern erforschen können.“, sagt Prof. Aletta Bonn, FLOW -Studienleiterin und Departmentleiterin an UFZ und iDiv.
Das Projekt FLOW hat eine Laufzeit von Februar 2021 bis Januar 2024 und wird gefördert von der Deutschen Bundesstiftung Umwelt (DBU) und dem Bundesministerium für Bildung und Forschung (BMBF). Es gehört zu 15 Projekten, die bis Ende 2024 die Zusammenarbeit von Bürger:innen und Wissenschaftler:innen inhaltlich und methodisch voranbringen und Antworten auf gesellschaftliche Herausforderungen geben sollen. Weitere Informationen unter: www.buergerschaffenwissen.de
Wissenschaftliche Ansprechpartner:
Julia von Gönner
UFZ/FLOW-Koordinatorin
julia.goenner@ufz.de
Prof. Dr. Aletta Bonn
Leiterin Department Ökosystemleistungen an UFZ und iDiv
aletta.bonn@ufz.de
Prof. Dr. Matthias Liess
Leiter UFZ-Department System-Ökotoxikologie
matthias.liess@ufz.de
Originalpublikation:
von Gönner, J., Bowler, D.E., Gröning, J., Klauer, A.-K., Liess, M., Neuer, L. & Bonn, A. (2023) Citizen science for assessing pesticide impacts in agricultural streams. Science of The Total Environment, 857, 159607. https://doi.org/10.1016/j.scitotenv.2022.159607
Weitere Informationen:
http://www.flow-projekt.de
https://aktion.bund.net/bleiben-sie-im-flow
https://www.ufz.de/newsletter/ufz/Dezember2021/index.html
Gute Neujahrsvorsätze: Geborgenheit und sichere Kommunikation für das Neugeborene
Maike Lempka Corporate Communications
Constructor University
Machen Sie 2023 zum Jahr der effektiven Kommunikation! Die TeamBaby App, entwickelt an der Constructor University in Bremen, unterstützt werdende Eltern bei ihrem Vorsatz „sichere Kommunikation“ im neuen Jahr. Die App steht allen Interessierten derzeit kostenlos zur Verfügung.
Der Jahreswechsel fühlt sich häufig wie der Beginn eines neuen Kapitels an. Wir nehmen uns vor, mehr Sport zu treiben, weniger zu essen oder uns mehr Zeit für unsere Hobbys und Erholung zu nehmen. Auch die Familienplanung und -vergrößerung kann dazu gehören. Die Möglichkeiten sind unzählig, die Umsetzung jedoch meist nicht so leicht. Mit der richtigen Strategie gelingt sie besser, gerade wenn wir ein neues Familienmitglied willkommen heißen.
Eine sichere Schwangerschaft und Geburt sind maßgeblich abhängig von effektiver Kommunikation sowohl innerhalb der Familie als auch mit dem Gesundheitspersonal. Das heißt, die Wahrscheinlichkeit einer positiven Schwangerschaft und einer idealen Geburt ist größer, wenn wir das Gefühl haben, dass uns zugehört wird und wir unsere Wünsche denjenigen, die uns betreuen, klar mitteilen können – nicht nur als Eltern, sondern auch als Großeltern, Freund:in oder Begleitperson.
Als Teil eines Teams haben wir die Unterstützung von Familie, Hebammen, Ärzt:innen und Pflegekräften. Um in diesem Team effektiv kommunizieren zu können, stellt die Arbeitsgruppe Gesundheitspsychologie und Verhaltensmedizin der Constructor University ihr digitales Gesundheitstool, die TeamBaby Web-App, kurzzeitig kostenlos zur Verfügung. Also setzen Sie Ihre Neujahrsvorsätze zeitnah in die Tat um und nutzen Sie diese einmalige Gelegenheit.
Das digitale Gesundheitstool TeamBaby zeigt werdenden Eltern und deren Begleitpersonen, wie sie gut miteinander und mit dem Gesundheitspersonal kommunizieren können. Zehn Lektionen enthalten eine Fülle an Tipps für eine effektive Zusammenarbeit und Kommunikation. Die Themen umfassen unter anderem wie Schwangere ihre Bedürfnisse vermitteln, wie sie sicherstellen, dass ihre Stimme gehört wird, und wie sie die Zeit mit Hebammen und Ärzt:innen optimal nutzen können.
Über die Arbeitsgruppe Gesundheitspsychologie:
Die Arbeitsgruppe Gesundheitspsychologie und Verhaltensmedizin unter der Leitung von Prof. Dr. Sonia Lippke befasst sich mit Themen der Gesundheitsprävention und -förderung für alle Bevölkerungsgruppen. In diesem Zusammenhang werden auch Themen wie Einsamkeit, Kommunikation und Gesundheit erforscht.
Für weitere Informationen: http://slippke.user.jacobs-university.de
Über Constructor University (ehemals Jacobs University):
Eine internationale Gemeinschaft, dynamisch und divers. Akademische Exzellenz, die höchste Standards in Forschung und Lehre gewährleistet. Studierende, die lernen, anhand ihres Wissens und Wissenschaft Lösungen für die Herausforderungen unserer Zeit zu schaffen: Constructor University ist eine private, top-gerankte, englischsprachige Universität. 2001 gegründet, bietet sie auf ihrem Campus mehr als 25 Studiengänge sowie Promotionsstellen an. Das Constructor-Ecosystem umfasst die Constructor University in Bremen und ein Institut im schweizerischen Schaffhausen.
Über 1.800 Studierende aus mehr als 110 Nationen profitieren von einer einzigartigen, interdisziplinären, akademischen Ausbildung mit hohem Praxisbezug. Eine lebendige Unternehmenskultur bereitet junge Fachkräfte auf eine erfolgreiche Karriere und den Eintritt in den globalen Arbeitsmarkt vor. Mit über 6.000 Alumni weltweit wächst unsere Gemeinschaft zudem stetig.
Die forschungsorientierten Projekte der Fakultät werden durch die Deutsche Forschungsgemeinschaft und das EU-Rahmenprogramm für Forschung und Innovation gefördert, wie auch von weltweit führenden Unternehmen.
Das Constructor-Ecosystem profitiert von Partnerschaften mit hochrangigen Universitäten wie Carnegie Mellon, der Universität Genf oder der National University of Singapore School of Computing sowie mit Technologieunternehmen wie Anisoprint, JetBrains und ChemDiv.
Constructor ist eine globale Institution, die es sich zur Aufgabe gemacht hat, die wichtigsten Herausforderungen der Gegenwart anhand von Wissenschaft, Bildung und Technologie zu lösen. Neben der Universität stützt sich das Ecosystem auf mehrere, for-profit Unternehmen, die technologische Infrastrukturen, Programme für lebenslanges Lernen, Beratungsdienste und Finanzierung anbieten: Alemira by Constructor, Rolos by Constructor, Constructor Learning und Constructor Capital.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonia Lippke | Professorin für Psychologie
Tel: 0421 200 4730 | S.Lippke@jacobs-university.de
Weitere Informationen:
https://team.baby
https://www.jacobs-university.de/teambaby/app
Silvester-Spaß mit brutaler Sprengkraft: Handchirurgen des Dresdner Uniklinikums warnen vor Leichtsinn
Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Die erste schwere Explosionsverletzung dieses Winters registrierte das Universitätsklinikum Carl Gustav Carus Dresden bereits in der ersten Dezemberwoche. Ein in der Hand explodierter Silvester-Knaller sorgte bei einem Jugendlichen für schwerste Verletzungen. In einer mehr als zehnstündigen Operation konnte die linke Hand erhalten werden. Prof. Adrian Dragu, Direktor für Plastische und Handchirurgie am UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie (OUPC) befürchtet auch aufgrund der in den beiden vergangenen Jahreswechseln erlassenen Verbote einen Nachhol-Effekt beim Einsatz der Pyrotechnik zu Silvester und damit verbunden einen Anstieg an schweren Verletzungen.
Die ohnehin durch Infektionswellen und Personalengpässe belasteten Krankenhäuser geraten durch den Wegfall des Verbots unnötigerweise unter zusätzlichen Druck. „Das Schicksal des 14-Jährigen sollte alle feuerwerkbegeisterten Menschen zu einem sehr bedachten, vorsichtigen und rücksichtsvollen Gebrauch von Feuerwerksartikeln mahnen“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. „Zwar ist das Uniklinikum als Maximalversorger immer da, um schwerste Verletzungen und Erkrankungen mit höchster Expertise optimal zu behandeln, aber für den einzelnen Menschen und das Gesundheitswesen ist jeder dieser leicht vermeidbaren Unfälle einer zu viel! Bitte schränken Sie deshalb den Einsatz von Feuerwerksartikeln ein und seien Sie besonders rücksichtsvoll und vorsichtig.“
Um durch Explosionen hervorgerufene Verletzungen erfolgreich zu behandeln, bedarf es einer hohen Expertise spezialisierter Mikrochirurginnen und Mikrochirurgen sowie der Pflegeteams in den OP-Sälen und im Nachgang auf den Stationen. Dies wird auch an dem Fall des 14-Jährigen deutlich. Bei der Explosion sind mehrere Finger und Teile der linken Hand abgerissen worden. Aufgrund der komplexen Verletzungen ist es notwendig solche Operationen trotz des akuten Handlungsbedarfs genau zu planen. „Wir nutzen dabei die modernsten und komplexesten Behandlungsmethoden die es aktuell gibt. Je nach Umfang der Verletzungen nutzen wir für die Rekonstruktion körpereigene Transplantate wie Knochen, Sehnen, Haut, Gefäße und Nerven“, sagt Prof. Adrian Dragu.
Die Operation des Opfers aus der Oberlausitz dauerte rund elf Stunden und wurde vom damals diensthabenden Handchirurgen Dr. Seyed-Arash Alawi geleitet. Der Facharzt ist unter anderem auf schwere Hand- und Amputationsverletzungen sowie bionische Prothesenversorgung spezialisiert: „Im OP-Saal und unter Vollnarkose wurde der Gesamtzustand der Hand nochmals eingehend geprüft, um zu klären, ob sie trotz der schweren Verletzungen erhalten werden kann oder nicht. Hier spielen viele Faktoren eine Rolle. Etwa das Alter, Nebenerkrankungen, der Beruf und natürlich auch die Wünsche und Bedürfnisse des Patienten.“ Prinzipiell versucht das Dresdener Team der Abteilung für Plastischen und Handchirurgie immer alles, um den maximalen Erhalt der abgetrennten Gliedmaßen zu erreichen. Mit der für den 14-Jährigen geleisteten Operation, sei das Dresdner Team weit über die in vielen anderen Kliniken möglichen Therapiekonzepte hinausgegangen. „Dazu braucht es enorme Expertise, Geduld und gleichzeitig viele Ressourcen aus der Gesundheitseinrichtung“, sagt Dr. Alawi. Das wichtiges Hilfsmittel im OP ist das Mikroskop, um die Millimeter kleinen Strukturen von Blutgefäßen und Nerven hochpräzise operieren zu können.
Um die Hand so umfassend wie möglich zu rekonstruieren, gehen die Mikrochirurginnen und Mikrochirurgen schrittweise vor. Erst gilt es, die Knochen auf den verschiedenen Ebenen zu stabilisieren und mit Drähten, Schrauben und Platten an der richtigen Position zu fixieren. Danach geht es darum, die Sehnen wiederherzustellen. Blutgefäße und Nerven werde als empfindlichste und feinste anatomische Strukturen zu Letzt mikrochirurgisch versorgt. Ein ebenso wichtiger Schritt besteht darin, die bei Explosionen häufig verbrannte Haut zu ersetzen, um die Wunden erfolgreich zur Abheilung zu bringen. Bei diesen Prozessen müssen gegebenenfalls Knochen, Sehnen, Gefäße, Nerven und Haut von anderen Körperregionen des Patienten verwendet werden. Im Fall des 14-Jährigen wurden kleine Venen aus dem Fuß genutzt, um damit die arterielle Blutversorgung an der betroffenen Hand und den Fingern wiederherzustellen.
Medizinische Blutegel und modernes Wundmanagement unterstützen Heilungsprozess
Der langfristige Erfolg bei einer Rekonstruktion schwer verletzter Gliedmaßen hängt nicht nur von der Operation selbst ab, sondern insbesondere auch von den postoperativen Behandlungskonzepten. Hierbei spielt die Pflege aber auch die spezialisierte Handphysio- und ergotherapie und eine innovative Orthopädietechnik eine sehr große Rolle. Sollte in den ersten Stunden nach der Operation das Blutverhältnis zwischen Einstrom und Ausstrom in die replantierten Finger nicht im Gleichgewicht sein, nutzt das Team der Plastischen und Handchirurgie medizinische Blutegel. Sie stabilisierten auch bei dem 14-jährigen Patienten den venösen Abfluss und verbesserten dabei auch die Durchblutung.
Verletzungen durch Feuerwerkskörper belasten die Notaufnahmen enorm
Für die Teams der Krankenhaus-Notaufnahmen führen die von unsachgemäßem Gebrauch verursachten Verletzungen traditionell über den Jahreswechsel zu einem überdurchschnittlichen Anstieg der Notfälle. Deshalb werden beispielsweise die Teams der Notaufnahmen des Dresdner Uniklinikums in der Silvesternacht personell aufgestockt. Auch für die Weiterbehandlung stehen mehr Teams bereit als an anderen Wochenenden üblich. Das betrifft nicht nur das UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie, sondern weitere Fächer wie die Augenheilkunde, bei der ebenfalls deutlich mehr Verletzungen behandelt werden müssen. Auch hier ist zum Jahreswechsel der unsachgemäße Gebrauch von Feuerwerksartikeln der Hauptgrund.
„Es vergeht kein Tag, an dem die Medien nicht über die enorme Belastung der Krankenhäuser berichten. Die Wellen von Influenza-, RSV- und Covid-Neuerkrankungen mit schweren Verläufen sorgen in Kombination mit Personalknappheit dafür, dass die Krankenversorgung an ihre Kapazitätsgrenzen stößt“, sagt Prof. Dragu. Eine hohe Zahl an Verletzungen durch Feuerwerksköper könne das Fass nun zum Überlaufen bringen. „Für mich und auch für viele meiner Kolleginnen und Kollegen ist es deshalb unverständlich, dass das Verkaufsverbot von Feuerwerksartikeln anders als in den beiden Vorjahren nicht weiterhin gilt“, so Prof. Dragu weiter. Es bleibe leider nur der eindringliche Apell, freiwillig auf potenziell gefährliche Feuerwerkskörper – insbesondere Knaller und Raketen zu verzichten oder zumindest die Sicherheitshinweise der Hersteller im Vorfeld zu lesen und sich daran auch zu halten. „Das Beispiel unseres 14-jährigen Patienten macht noch einmal deutlich, welche Gefahren vom unsachgemäßen Gebrauch der Silvesterknaller ausgehen!“
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
UniversitätsCentrum für Orthopädie, Unfall- und Plastische Chirurgie
Prof. Dr. med. Adrian Dragu, Direktor für Plastische und Handchirurgie
Tel.: 0351 4 58 44 40
E-Mail: adrian.dragu@uniklinikum-dresden.de
www.uniklinikum-dresden.de/oupc
Anhang
Pressemitteilung
Braunalgenschleim ist gut fürs Klima
Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Marine Mikrobiologie
Braunalgen nehmen große Mengen Kohlendioxid aus der Luft auf und geben Teile des enthaltenen Kohlenstoffs in Form eines schwer abbaubaren Schleims wieder an die Umwelt ab. Weil dieser Schleim kaum einem Meeresbewohner schmeckt, verschwindet dieser Kohlenstoff so für lange Zeit aus der Atmosphäre. Das zeigt eine Studie von Forschenden des Max-Planck-Instituts für Marine Mikrobiologie in Bremen. Die Forschenden zeigen, dass insbesondere der Algenschleim namens Fucoidan dafür verantwortlich ist und schätzen, dass Braunalgen so bis zu 550 Millionen Tonnen Kohlendioxid jedes Jahr aus der Luft holen könnten – beinahe die Menge der gesamten jährlichen Treibhausgas-Emissionen Deutschlands.
Braunalgen sind wahre Superpflanzen wenn es darum geht, Kohlendioxid aus der Luft aufzunehmen. Sie übertreffen darin sogar die Wälder an Land und spielen deswegen eine entscheidende Rolle für die Atmosphäre und unser Klima. Aber was passiert mit dem Kohlendioxid, nachdem die Algen es aufgenommen haben? Nun berichten Forschende des Max-Planck-Instituts für Marine Mikrobiologie in den Proceedings der amerikanischen National Academy of Sciences (PNAS), dass die Braunalgen große Mengen an Kohlendioxid langfristig aus dem globalen Kreislauf entfernen und so der Klimaerwärmung entgegenwirken können.Fucoidan: Die wenigsten mögen Braunalgenschleim
Fucoidan: Die wenigsten mögen Braunalgenschleim
Algen nehmen Kohlendioxid aus der Luft auf und nutzen den darin enthaltenen Kohlenstoff für ihr Wachstum. Bis zu einem Drittel des aufgenommenen Kohlenstoffs geben sie wieder ans Meerwasser ab, beispielsweise in Form zuckerhaltiger Ausscheidungen. Je nachdem, wie diese Ausscheidungen aufgebaut sind, werden sie entweder schnell von anderen Organismen genutzt oder sinken Richtung Meeresgrund.
„Die Ausscheidungen der Braunalgen sind sehr komplex und daher unglaublich kompliziert zu messen“, sagt Erstautor Hagen Buck-Wiese vom Max-Planck-Institut für Marine Mikrobiologie in Bremen. „Es ist uns aber gelungen, eine Methode zu entwickeln, um sie detailliert zu analysieren.“ Die Forschenden nahmen eine Vielzahl verschiedener Substanzen unter die Lupe. Als besonders spannend entpuppte sich dabei das sogenannte Fucoidan. „Fucoidan machte etwa die Hälfte der Ausscheidungen der von uns untersuchten Braunalgenart namens Blasentang aus“, so Buck-Wiese. Zudem ist Fucoidan sehr widerständig. „Das Fucoidan ist so komplex, dass es nur schwer für andere Organismen nutzbar ist. Keiner scheint es zu mögen.“ So kommt es, dass der Kohlenstoff im Fucoidan nicht so schnell wieder in die Atmosphäre gelangt. „Die Braunalgen sind dadurch besonders gute Helfer, um Kohlendioxid langfristig – für Hunderte bis Tausende von Jahren – aus der Atmosphäre zu entfernen.“
Braunlagen könnten fast den gesamten Kohlendioxid-Ausstoß Deutschlands binden
Braunalgen sind außergewöhnlich produktiv. Es wird geschätzt, dass sie etwa 1 Gigatonne (eine Milliarde Tonnen) Kohlenstoff pro Jahr aus der Luft aufnehmen. Rechnet man nun mit den Ergebnissen der vorliegenden Studie, ergibt sich, dass dadurch bis zu 0,15 Gigatonnen Kohlenstoff, was 0,55 Gigatonnen Kohlendioxid entspricht, jedes Jahr langfristig durch die Braunalgen gebunden werden. Zum Vergleich: Die jährlichen Treibhausgas-Emissionen Deutschlands belaufen sich laut Umweltbundesamt aktuell auf etwa 0,75 Gigatonnen Kohlendioxid (Schätzung für 2020).
„Was die Sache noch besser macht: Im Fucoidan sind keine Nährstoffe wie beispielsweise Stickstoff enthalten“, erklärt Buck-Wiese weiter. Das Wachstum der Braunalgen wird durch die Kohlenstoffverluste also nicht beeinträchtigt.
Weitere Arten und Orte
Für die aktuelle Studie konnten Buck-Wiese und seine Kolleginnen und Kollegen aus der MARUM MPG Brückengruppe Marine Glykobiologie, die sowohl am Bremer Max-Planck-Institut als auch am MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen angesiedelt ist, ihre Experimente an der Tvärminne Zoological Station in Südfinnland durchführen. „Als nächstes wollen wir schauen, wie es bei anderen Braunalgenarten und an anderen Standorten aussieht“, sagt Buck-Wiese. „Das große Potenzial der Braunalgen für den Klimaschutz gilt es unbedingt weiter zu erforschen und zu nutzen.“
Wissenschaftliche Ansprechpartner:
Hagen Buck-Wiese
MARUM MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-7360
E-Mail: hbuck@mpi-bremen.de
Dr. Jan-Hendrik Hehemann
MARUM MPG Brückengruppe Marine Glykobiologie
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 218-65775
E-Mail: jheheman@mpi-bremen.de
Dr. Fanni Aspetsberger
Pressereferentin
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Telefon: +49 421 2028-9470
E-Mail: presse@mpi-bremen.de
Originalpublikation:
Hagen Buck-Wiese, Mona A. Andskog, Nguyen P. Nguyen, Margot Bligh, Eero Asmala, Silvia Vidal-Melgosa, Manuel Liebeke, Camilla Gustafsson, Jan-Hendrik Hehemann (2022): Fucoid brown algae inject fucoidan carbon into the ocean. PNAS (December 2022).
Weitere Informationen:
https://www.mpi-bremen.de/Page5921.html
TV-Doku: FH-Student beleuchtet Lichtverschmutzung
Michael Milewski Presse- und Öffentlichkeitsarbeit
Fachhochschule Dortmund
Für seine Bachelor-Abschlussarbeit hat sich FH-Fotografie-Student Oskar Schlechter mit „Lichtverschmutzung“ in Städten beschäftigt und ein 160-seitiges Fotobuch mit dem Titel „Darkless“ gestaltet. Die Dokumentation „Die Macht der Nacht“ zeigt den 29-Jährigen jetzt aktuell mit seinem Schaffen in der Mediathek des TV-Senders „arte“.
Gleich zum Auftakt der neuen Ausgabe der Kulturreihe „TWIST“ sind nicht nur Aufnahmen zu sehen, die Oskar Schlechter bei seinen nächtlichen Exkursionen gemacht hat. Auch er selbst steht vor der TV-Kamera und erläutert Probleme, die sich aus dem „Lichtsmog“ ergeben – wenn die Nacht quasi künstlich zum Tag gemacht wird, also Naturgesetze außer Kraft gesetzt werden und darunter beispielsweise der Biorhythmus von Menschen, Tieren und Pflanzen leidet.
„Meine Arbeit soll eine Anregung sein, in den jeweiligen Situationen darüber nachzudenken: Braucht man das Licht wirklich?“, sagt Oskar Schlechter. „Muss die Beleuchtung tatsächlich in allen Räumen aktiviert sein? Und wie ist es im Garten?“, nennt er Beispiele für Privatleute. Weitere Beispiele im öffentlichen Raum seien Laternen, leuchtende Werbedisplays oder angestrahlte Bauwerke. „Damit sollten sich die Verantwortlichen auch unabhängig von der derzeitigen Energiekrise beschäftigen.“
Für sein Fotobuch, das 2023 in den Druck gehen soll, porträtierte Oskar Schlechter auch Menschen, die sich in ihrem Alltag oder beruflich mit der übermäßigen nächtlichen Beleuchtung auseinandersetzen, darunter ein Lichtforscher. Betreuer der Abschlussarbeit waren Prof. Dr. Marcel Marburger und Prof. Kai Jünemann vom Fachbereich Design der Fachhochschule Dortmund.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcel Marburger
Fachhochschule Dortmund / Fachbereich Design
Mail: MarcelRene.Marburger@fh-dortmund.de
Prof. Kai Jünemann
Fachhochschule Dortmund / Fachbereich Design
Mail: kai.juenemann@fh-dortmund.de
Weitere Informationen:
https://www.fh.do/nacht Link zur Dokumentation „Die Macht der Nacht“
Grünen Wasserstoff effizient produzieren: BMBF fördert deutsch-kanadisches Verbundprojekt an der Universität Bayreuth
Christian Wißler Pressestelle
Universität Bayreuth
Die Effizienz und Zuverlässigkeit von Elektrolyseanlagen zu steigern, ist das Ziel eines neuen internationalen Verbundprojekts am Zentrum für Energietechnik (ZET) der Universität Bayreuth. Gemeinsam mit einem deutschen Industriepartner und vier kanadischen Partnern aus Industrie und Wissenschaft werden neuartige Modelle sowie Hard- und Softwareanwendungen zur Kostensenkung bei der Produktion von grünem Wasserstoff entwickelt. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben für drei Jahre, die Universität Bayreuth erhält insgesamt rund 250.000 Euro.
Grüner Wasserstoff hat in zukünftigen Energiesystemen eine Schlüsselfunktion bei der Dekarbonisierung und der Kopplung aller Sektoren. Die Europäische Union hat sich daher das Ziel gesetzt, bis 2030 in den eigenen Mitgliedsländern zehn Millionen Tonnen grünen Wasserstoff zu produzieren und weitere zehn Millionen Tonnen zu importieren. Dies kann nur gelingen, wenn dafür effiziente, zuverlässige und wettbewerbsfähige Technologien zur Verfügung stehen. Besonders geeignet zur Produktion von grünem Wasserstoff im großen Maßstab sind Elektrolyseanlagen, deren Funktionsweise auf der Protonen-Austausch-Membran (PEM) basiert. Diese PEM-Elektrolyseanlagen werden bereits im Megawatt-Maßstab kommerziell eingesetzt. Sie bieten schnelle Reaktionszeiten und können sehr flexibel betrieben werden. Dadurch kann die stark fluktuierende Stromerzeugung aus nachhaltigen Energiequellen wie Sonne oder Wind direkt mit PEM-Elektrolyseanlagen gekoppelt werden. Diese große Dynamik kann jedoch dazu führen, dass die zu Stacks zusammengefassten Elektrolysezellen vorzeitig altern. Infolgedessen verringern sich auch die Lebensdauer und die Leistung der Anlage insgesamt. Bisher ist es nicht möglich, diese Prozesse im industriellen Maßstab abhängig von der Betriebsweise vorherzusagen: Die an der Elektrolyse beteiligten Vorgänge sind komplex und die Langzeit-Betriebserfahrungen gering.
Genau hier setzt das vom BMBF geförderte deutsch-kanadischen Verbundprojekt „Modellentwicklung zur Steigerung der Effizienz von Elektrolyseanlagen“ (kurz: „Hyer“) an. Gemeinsam wollen die Forschungspartner ein digitales techno-ökonomisches Modell einer PEM-Elektrolyseanlage entwickeln, die mit erneuerbaren Energiesystemen gekoppelt ist und sich durch eine dynamische Betriebsweise auszeichnet. In Verbindung mit Hard- und Softwareanwendungen wird dieses Modell es ermöglichen, Alterungsvorgänge und die Verringerung der Leistungsfähigkeit mit hoher Genauigkeit vorherzusagen. Dadurch können Betriebsstrategien unter Berücksichtigung der Lebensdauer optimiert werden. Das angestrebte Modell wird dazu auch den digitalen Zwilling eines Stacks umfassen, der die nachteiligen Folgen einer dynamischen Betriebsweise für die Elektrolysezellen präzise abbildet.
An der Entwicklung des digitalen Zwillings werden Forschende des Institute for Integrated Energy Systems an der University of Victoria und des National Research Council Canada (NRC) mit Methoden der künstlichen Intelligenz und des maschinellen Lernens arbeiten. Die zur Modellierung notwendigen experimentellen Daten werden vom Hydrogen Research Institute der Université du Québec à Trois-Rivières bereitgestellt, das in Zusammenarbeit mit dem NRC neuartige Stacks herstellt, analysiert und charakterisiert. Diese Stacks werden in einem speziell für das Projekt „Hyer“ entwickelten Prüfstand bei der SEGULA Technologies GmbH in Rüsselsheim getestet und beschleunigt gealtert. Für die elektrochemische Charakterisierung der Stacks wird das in Toronto ansässige Start-up Pulsenics Inc. die erforderlichen technischen Lösungen liefern.
Unter der der Leitung von Prof. Dr.-Ing. Dieter Brüggemann, Direktor des ZET, übernimmt das Bayreuther Team die techno-ökonomische Simulation und Optimierung der PEM-Elektrolyseanlage. „Unser Ziel ist es, einen guten Kompromiss zwischen einer langen Lebensdauer und einer hohen Flexibilität der Elektrolyseanlage zu finden. Von dem Modell werden beispielsweise auch Projektentwickler und Anlagenbetreiber profitieren, da es durch datengestützte Regelungs- und Betriebsstrategien einen vorhersehbaren kostenoptimierten Anlagenbetrieb ermöglicht“ sagt Brüggemann und betont die starke internationale und interdisziplinäre Zusammenarbeit im neuen Verbundprojekt: „Die langjährige deutsch-kanadische Partnerschaft in Wissenschaft, Technologie und Innovation hat mit der aktuellen Energiekrise noch mehr an Bedeutung gewonnen. Beide Länder ergänzen sich optimal in ihren Zielsetzungen, den Klimawandel zu begrenzen, was nicht zuletzt an der Gründung der deutsch-kanadischen Wasserstoffallianz sichtbar wird. Im Projekt bringen die Partner ihre Expertisen auf verschiedensten Fachgebieten ein – von der Materialforschung bis hin zur Simulation von Energiesystemen mit neuesten Methoden. Dadurch können Lösungen entwickelt werden, die ohne diesen Austausch nicht möglich wären.“
Matthias Welzl, der als Koordinator für Wasserstoffforschung und -technologien das Projekt am ZET wesentlich vorbereitet hat, übernimmt die Koordination der deutschen Projektpartner. Er ergänzt: „Seit über einem Jahr arbeiten wir gemeinsam intensiv an der Ausgestaltung des Projekts. Dabei entwickelte sich insbesondere mit den beiden Projektverantwortlichen unserer Industriepartner, Mariam Awara und Dr. Ing. Stephan Wagner, ein enger Kontakt.“ Mariam Awara ist COO und Mitgründerin des kanadischen Start-up Pulsenics Inc., dessen elektrochemisches Monitoring- und Regelungssystem Grundlage für die Umsetzung des Projekts ist. Für die erfolgreiche Gründung von Pulsenics Inc. wurde sie 2022 in der Kategorie „Manufacturing & Industry“ auf der „Forbes 30 Under 30“-Liste ausgezeichnet. Stephan Wagner wird als Projektingenieur und Experte für Wasserstofftechnologien die Arbeiten bei der SEGULA Technologies GmbH leiten. Welzl beschreibt die weiteren Planungen: „Demnächst werden wir nach Kanada reisen, um auch die anderen Partner persönlich kennenzulernen und die Projektarbeit mit einem Kickoff-Workshop offiziell zu starten.“
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Dieter Brüggemann
Direktor des Zentrums für Energietechnik (ZET)
Universität Bayreuth
Telefon: +49 (0)921 / 55-7160
E-Mail: brueggemann@uni-bayeuth.de
Matthias Welzl, M.Sc.
Koordinator Wasserstoffforschung und -technologien
Akad. Rat am Zentrum für Energietechnik (ZET)
Universität Bayreuth
Telefon: +49 (0)921 / 55-7525
E-Mail: matthias.welzl@uni-bayreuth.de
Seltene Bakterien sind hauptverantwortlich für den Kohlenstoffkreislauf im Meer
Alexandra Frey Öffentlichkeitsarbeit
Universität Wien
Rare Bakterienarten sind im Ozean am aktivsten, häufige Arten hingegen sind weniger aktiv
Ein internationales Team aus Meeresbiolog*innen mit Beteiligung von Gerhard J. Herndl und Eva Sintes von der Universität Wien hat eine Methode entwickelt, die es erlaubt die Atmungsaktivität von einzelnen Bakterienarten zu bestimmen. Dabei fanden sie heraus, dass im offenen Ozean weniger häufige Bakterienarten die größten Atmungsraten haben, also mehr Sauerstoff verbrauchen und CO2 produzieren. Jene Bakterien hingegen, die besonders häufig im Ozean zu finden sind, verbrauchen eine relativ geringe Menge an organischem Material. Weniger als 3% der Bakterien im Ozean konsumieren so ein Drittel des gesamten Sauerstoffs. Diese Ergebnisse haben große Auswirkungen auf die Sichtweise auf den Kohlenstoffkreislauf der Ozeane und erscheinen aktuell im renommierten Fachjournal „Nature“.
Häufig ist nicht gleich wichtig
In einem Liter Ozeanwasser finden sich hunderttausende verschiedene Bakterienarten. Die meisten dieser Bakterien veratmen, so wie wir, Sauerstoff, um Energie aus organischem Material zu gewinnen und erzeugen dabei Kohlendioxid. Um abzuschätzen, wie hoch die Atmungsaktivität von Meeresmikroben ist, haben Forscher*innen bisher die Summe die gesamte Atmungsaktivität durch die Anzahl der vorhandenen Organismen geteilt. Dieser Ansatz berücksichtigt jedoch nicht die überwältigende Artenvielfalt der verschiedenen Meeresbakterien, die nicht alle die gleiche Atmungsaktivität haben.
Die im Fachjournal Nature publizierte Studie zeigt nun, dass die Unterschiede zum Teil gravierend sind: „Die Atmungsaktivität der einzelnen Bakterienarten im Meerwasser kann bis zu tausendfach variieren. Wir haben herausgefunden, dass gerade jene Bakterien, die im Ozean weniger zahlreich vertreten sind die höchsten Atmungsaktivitäten zeigen, während sehr häufig vorkommende Bakterien geringe Atmungsaktivitäten haben“, erklärt Gerhard J. Herndl von der Universität Wien, einer der Co-Autor*innen der internationalen Studie. Das bedeutet, dass für den Kohlenstoffkreislauf in den Meeren die seltenen Bakterien insgesamt wichtiger sind als die Mikroorganismen, die in großer Anzahl im Meerwasser vorkommen. „Das ist ein häufiges Missverständnis in der Ökologie und in der Betrachtung der biogeochemischen Kreisläufe. Nicht jene Organismengruppen oder Nährstoffe, die in der höchsten Konzentration verkommen, sind besonders wichtig, sondern sehr oft jene, die nur in geringen Konzentrationen vorkommen“, erklärt Herndl.
Neue Methode verbindet die Messung der Atmungsaktivität mit mikrobieller DNA
Um die komplexe Gemeinschaft der Mikroorganismen im Ozean zu verstehen, entwickelte das internationale Team eine neue Methode, mit der sie die Atmungsaktivität und den genetischen Code einzelner Zellen verknüpfen können. Dabei verwendeten die Forscher*innen zuerst fluoreszierende Sonden, um die Atmungsraten einzelner Bakterienzellen zu messen. Je mehr eine Zelle atmet, desto mehr fluoresziert sie. Das Fluoreszenzsignal wird gemessen und die Zellen werden gleichzeitig nach ihrer Fluoreszenz sortiert. Anschließend werden die einzelnen Zellen einer genetischen Analyse unterzogen, um herauszufinden, um welche Art es sich handelt. Für die Studie wurden Bakteriengemeinschaften aus dem Golf von Maine, dem Mittelmeer und aus dem offenen Atlantischen und Pazifischen Ozean untersucht.
Bakterien und der Kohlenstoffkreislauf im Meer
Bakterien, die organisches Material wieder in anorganische Komponenten, wie etwa CO2 umwandeln, dominieren den Kohlenstoffkreislauf im Meer und setzen mehr organisches Material um, als all die anderen Lebewesen im Meer zusammen. Sie spielen also eine große Rolle im ozeanischen Kohlenstoffkreislauf und deshalb ist es außerordentlich wichtig, ihre Atmung als Aktivitätsparameter zu messen: „Wenn nun die meisten Bakterien im Meer nur wenig aktiv sind, so wie unsere Studie zeigt, dann heißt das, dass wenige Bakterienarten sehr hohe Stoffumsetzungsraten haben. Gleichzeitig werden diese hochaktiven Bakterien aber offensichtlich stark beweidet, das heißt von anderen Lebewesen gefressen, sodass sie nur in geringen Häufigkeiten vorkommen. Hohe Aktivität bedeutet also auch hohe Verlustraten durch Beweidung. Das bedeutet wiederum, dass nur wenige Bakterienarten dafür sorgen, dass wir einen hohen Kohlenstofffluss haben, während der Großteil der Bakterien eher wenig aktiv ist, langsam wächst und auch wenig beweidet wird. Diese neuen Erkenntnisse haben große Auswirkungen auf die Untersuchung von globalen Nährstoffkreisläufen wie dem Kohlenstoffkreislauf, da das Meer für einen Großteil des globalen Kohlenstoffkreislaufes verantwortlich ist.“, so Gerhard J. Herndl.
Wissenschaftliche Ansprechpartner:
Gerhard J. Herndl
Department für Funktionelle und Evolutionäre Ökologie
Universität Wien
1030 Wien, Djerassiplatz 1
T +43-1-4277-76431
M +43-664-817-5971
gerhard.herndl@univie.ac.at
chie.amano@univie.ac.at
Originalpublikation:
„Decoupling of respiration rates and abundance in marine Prokaryoplankton“: Jacob H. Munson-McGee, Melody R. Lindsay, Julia M. Brown, Eva Sintes, Timothy D’Angelo, Joe Brown, Laura C. Lubelczyk, Paxton Tomko, David Emerson, Beth N. Orcutt, Nicole J. Poulton, Gerhard J. Herndl, Ramunas Stepanauskas. Nature
doi: 10.1038/s41561-022-01081-3
https://www.nature.com/articles/s41586-022-05505-3
Hochbelastbar und biologisch abbaubar
Helena Dietz Stabsstelle Kommunikation und Marketing
Universität Konstanz
Ein Polyester-Kunststoff mit hoher mechanischer Stabilität, der trotzdem gut recycelt werden kann und sogar kompostierbar ist: Forschende der Universität Konstanz um den Chemiker Stefan Mecking stellen ein neues Material vor.
Wie können Kunststoffe so gestaltet werden, dass ihre positiven Materialeigenschaften erhalten bleiben, sie aber gleichzeitig besser rezykliert werden können? Diese und andere Fragen zur Umweltverträglichkeit von Kunststoff-Materialien erforscht der Chemiker Stefan Mecking in seiner Arbeitsgruppe an der Universität Konstanz. In ihrem aktuellen Artikel in der internationalen Ausgabe der Fachzeitschrift Angewandte Chemie stellt die Arbeitsgruppe nun einen neuen Polyester vor, der industriell gefragte Materialeigenschaften und gute Umweltverträglichkeit in einem Kunststoff vereint.
Normalerweise kaum vereinbar
Kunststoffe bestehen aus langen Aneinanderkettungen eines oder weniger chemischer Grundbausteine, sogenannter Monomere. Kunststoffe, die sich durch eine hohe Kristallinität und einen wasserabweisenden Charakter auszeichnen und dadurch mechanisch hochbelastbar und beständig sind, sind weit verbreitet. Ein bekanntes Beispiel ist hochdichtes Polyethylen (HDPE), dessen Grundbausteine unpolare Kohlenwasserstoffmoleküle sind. Was auf der einen Seite vorteilhaft für die Anwendungseigenschaften sein kann, birgt jedoch auch Nachteile: Das Recycling derartiger Kunststoffe – also die Rückgewinnung der Grundbausteine – ist sehr energieaufwändig und ineffizient. Gelangen die Kunststoffe unbeabsichtigt in die Umwelt, werden sie dort nur extrem langsam abgebaut.
Eine Strategie, die Mecking und seine Kolleg*innen bereits seit längerem verfolgen, um diese vermeintliche Unvereinbarkeit der Beständigkeit und Abbaubarkeit von Kunststoffen zu umgehen, ist der Einbau chemischer „Sollbruchstellen“ in ihre Materialien. Sie konnten bereits zeigen, dass dies die Rezyklierbarkeit von polyethylenartigen Kunststoffen deutlich verbessert. Eine gute biologische Abbaubarkeit ist dadurch jedoch nicht automatisch gewährleistet. „Kunststoffe mit hoher Zähigkeit erreichen diese oft durch eine Ordnung in dichtgepackte, kristalline Strukturen“, erklärt Mecking: „Die Kristallinität in Kombination mit dem wasserabweisenden Charakter bremst jedoch in der Regel die biologische Abbaubarkeit der Materialien stark, weil sie die Zugänglichkeit der Sollbruchstellen für Mikroorgansimen erschwert.“ Für den neuen Kunststoff, den die Forschenden nun vorstellen, gilt dies jedoch nicht.
Kristallin und dennoch kompostierbar
Der neue Kunststoff, Polyester-2,18, besteht aus zwei Grundbausteinen: einer kurzen Diol-Einheit mit zwei Kohlenstoffatomen und einer Dicarbonsäure mit 18 Kohlenstoffatomen. Beide Grundbausteine können leicht aus nachhaltigen Rohstoffquellen gewonnen werden. So ist beispielsweise der Ausgangsstoff für die Dicarbonsäure, die den Hauptbestandteil des neuen Polyesters ausmacht, pflanzlichen Ursprungs. In seinen Eigenschaften ähnelt der Polyester denen von HDPE: Durch seine kristalline Struktur besitzt er zum Beispiel eine hohe mechanische Stabilität und auch Temperaturbeständigkeit. Gleichzeitig zeigten erste Versuche zur Rezyklierbarkeit, dass aus dem Material unter vergleichsweise milden Bedingungen seine Grundbausteine zurückgewonnen werden können.
Der neue Polyester besitzt jedoch eine weitere, eher unerwartete Eigenschaft: Trotz seiner hohen Kristallinität ist er biologisch abbaubar, wie Laborversuche mit natürlicherweise vorkommenden Enzymen und Tests in einer industriellen Kompostieranlage zeigten: Der Polyester konnte durch die Enzyme im Laborversuch innerhalb weniger Tage abgebaut werden. Die Mikroorganismen in der Kompostieranlage benötigten etwa zwei Monate, sodass der Kunststoff sogar ISO-Kompostierungsnormen erfüllt. „Wir waren selbst über diese schnelle Abbaubarkeit erstaunt“, so Mecking, der ergänzt: „Natürlich lassen sich die Ergebnisse aus der Kompostieranlage nicht eins zu eins auf jede erdenkliche Umweltsituation übertragen. Sie belegen dennoch die biologische Abbaubarkeit des Materials und deuten darauf hin, dass es um ein Vielfaches weniger persistent ist als Kunststoffe wie HDPE, sollte es einmal unbeabsichtigt in die Umwelt gelangen.“
Sowohl die Rezyklierbarkeit des Polyesters als auch seine Bioabbaubarkeit unter verschiedenen Umweltbedingungen sollen nun noch weiter untersucht werden. Anwendungsmöglichkeiten für das neue Material sieht Mecking zum Beispiel im 3D-Druck oder bei der Herstellung von Verpackungsfolien. Hinzu kommen weitere Felder, in denen Kristallinität in Kombination mit Rezyklierbarkeit und Abbaubarkeit von Abrieb oder ähnlichen Materialverlusten wünschenswert ist.
Faktenübersicht:
– Originalpublikation: Marcel Eck et al. (2022) Biodegradable high density polyethylene-like material. Angewandte Chemie International Edition; DOI: https://doi.org/10.1002/ange.202213438
– Forschende der Universität Konstanz entwickeln einen neuen Kunststoff, der sich durch hohe Belastbarkeit bei gleichzeitiger biologischer Abbaubarkeit und guter Rezyklierbarkeit auszeichnet
– Stefan Mecking ist Professor für Chemische Materialwissenschaft am Fachbereich Chemie der Universität Konstanz. Er erforscht mit seiner Arbeitsgruppe katalytische Verfahren, die auf mehreren Ebenen die Umweltverträglichkeit von Kunststoffen steigern.
– Finanzierung: Europäische Union in Form eines ERC Advanced Grants für das Projekt DEEPCAT (Degradable Polyolefin Materials Enabled by Catalytic Methods)
Hinweis an die Redaktionen:
Fotos können im Folgenden heruntergeladen werden:
Link: https://www.uni-konstanz.de/fileadmin/pi/fileserver/2022/hochbelastbar.jpg
Bildunterschrift: Der neuartige Polyester ähnelt in seinen Eigenschaften und seiner Struktur hochdichtem Polyethylen (HDPE), ist jedoch gleichzeitig bioabbaubar und rezyklierbar.
Copyright: AG Mecking
Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de
Originalpublikation:
Eck M, Schwab ST, Nelson TF, Wurst K, Iberl S, Schleheck D, Link C, Battagliarin G, Mecking S. Biodegradable high density polyethylene-like material. Angew Chem Int Ed Engl. 2022 Dec 8. doi: https://doi.org/10.1002/ange.202213438
Dünger klimafreundlicher produzieren
Hochschulkommunikation Hochschulkommunikation
Eidgenössische Technische Hochschule Zürich (ETH Zürich)
Forschende der ETH Zürich und der Carnegie Institution for Science zeigen auf, wie sich Stickstoffdünger nachhaltiger herstellen liesse. Dies ist nicht nur aus Klimaschutzgründen nötig, sondern auch um die Abhängigkeit von Erdgasimporten zu reduzieren und um die Ernährungssicherheit zu erhöhen.
Eine intensive Landwirtschaft ist nur möglich, wenn die Böden mit Stickstoff, Phosphor und Kalium gedüngt werden. Während Phosphor und Kalium als Salze abgebaut werden können, muss Stickstoffdünger aufwändig aus Stickstoff aus der Luft und aus Wasserstoff hergestellt werden, wobei die Produktion von Wasserstoff äusserst energieintensiv ist. Es werden dazu grosse Mengen an Erdgas oder – vor allem in China – Kohle benötigt. Entsprechend gross ist der CO2-Fussabdruck, die Abhängigkeit von fossiler Energie und somit auch die Anfälligkeit auf Preisschocks auf den Energiemärkten.
Paolo Gabrielli, Senior Scientist am Labor für «Reliability and Risk Engineering» der ETH Zürich hat zusammen mit Lorenzo Rosa, Forschungsgruppenleiter an der Carnegie Institution for Science in Stanford, USA, verschiedene CO2-neutrale Herstellungswege von Stickstoffdünger untersucht. In einer in der Fachzeitschrift «Environmental Research Letters» veröffentlichten externe SeiteStudiecall_made kommen die beiden Forscher zum Schluss, dass ein Wandel bei der Stickstoffproduktion möglich ist und ein solcher unter Umständen auch die Ernährungssicherheit erhöht. Die alternativen Herstellungswege haben aber Vor- und Nachteile. Konkret haben die beiden Forscher drei Alternativen untersucht:
– Der benötigte Wasserstoff wird wie derzeit mit fossilen Energiequellen hergestellt, wobei das Treibhausgas CO2 nicht in die Atmosphäre emittiert, sondern in den Produktionsbetrieben abgeschieden und dauerhaft im Untergrund gespeichert wird (Carbon Capture and Storage, CSS). Das benötigt nicht nur eine Infrastruktur für das Abscheiden, den Transport und die Lagerung des CO2, sondern entsprechend auch mehr Energie. Trotzdem ist das eine vergleichsweise effiziente Herstellungsmethode. Allerdings ändert sich dadurch nichts an den Abhängigkeiten von fossilen Brennstoffen.
– Die Düngerherstellung lässt sich elektrifizieren, indem der Wasserstoff mittels Elektrolyse aus Wasser hergestellt wird, was aber etwa 25-mal so viel Energie braucht wie die heutige Herstellung mit Erdgas. Es bräuchte also sehr viel Strom aus klimaneutralen Quellen. Interessant ist dieser Ansatz für Länder, in denen viel Solar- oder Windenergie zur Verfügung steht. Allerdings ist geplant, aus Klimaschutzgründen auch andere Wirtschaftssektoren zu elektrifizieren. Das könnte somit zu einer Konkurrenz um nachhaltige Elektrizität führen.
– Stellt man den Wasserstoff für die Düngerproduktion aus Biomasse her, sind dafür viel Ackerland und Wasser nötig. Somit konkurriert dieser Herstellungsweg ironischerweise die Nahrungsmittelproduktion. Sinnvoll ist er laut den Studienautoren, wenn Abfallbiomasse – zum Beispiel Ernteabfälle – verwendet wird.
Nach Ansicht der Wissenschaftler dürfte der Schlüssel zum Erfolg darin liegen, alle diese Ansätze je nach Land und lokalen Voraussetzungen und verfügbaren Ressourcen zu kombinieren. Zusätzlich müsse Stickstoffdünger effizienter verwendet werden, betont Lorenzo Rosa: «Wenn man Probleme wie Überdüngung und Food Waste angeht, kann man auch den Düngerbedarf reduzieren.»
Indien und China gefährdet
Die Wissenschaftler haben in der Studie ausserdem untersucht, in welchen Ländern der Welt die Ernährungssicherheit aufgrund ihrer Abhängigkeit von Stickstoff- oder Erdgasimporten derzeit besonders gefährdet ist. Diese Länder sind besonders anfällig für Preisschocks auf den Erdgas- und Stickstoffmärkten: Indien, Brasilien, China, Frankreich, die Türkei und Deutschland.
Eine Dekarbonisierung der Düngemittelproduktion würde diese Anfälligkeit in vielen Fällen reduzieren und die Ernährungssicherheit erhöhen. Denn zumindest bei einer Elektrifizierung mittels erneuerbarer Energien oder der Nutzung von Biomasse verringert man die Abhängigkeit von Erdgasimporten. Allerdings relativieren die Forschenden diesen Punkt: Alle CO2-neutralen Methoden zur Herstellung von Stickstoffdünger sind energieintensiver als die gegenwärtige Nutzung fossiler Energie. Somit bliebe man immer noch anfällig auf gewisse Preisschocks – zwar nicht direkt auf solche auf den Erdgasmärkten, aber gegebenenfalls auf solche beim Strom.
Wandel bei Stickstoffherstellern
Bei den Herstellerländern von Stickstoffdünger dürfte es im Rahmen einer Dekarbonisierung zu Veränderungen kommen, wie die Wissenschaftler in der Studie aufzeigen. Die grössten Exportnationen für Stickstoff sind heute Russland, China, Ägypten, Katar und Saudi-Arabien. Mit Ausnahme von China, das Erdgas importieren muss, haben alle diese Länder ihre eigenen Erdgasreserven. In Zukunft dürften eher Länder profitieren, die viel Solar- und Windstrom herstellen und gleichzeitig ausreichende Land- und Wasserreserven haben, wie zum Beispiel Kanada und die USA.
«Wir kommen nicht umhin, den Stickstoffbedarf der Landwirtschaft in Zukunft nachhaltiger zu gestalten, sowohl um die Klimaziele zu erreichen als auch aus Gründen der Ernährungssicherheit», sagt Paolo Gabrielli. Der Krieg in der Ukraine beeinflusst den Weltmarkt für Nahrungsmittel nicht nur, weil das Land normalerweise viel Getreide exportiert, sondern auch, weil als Folge des Krieges die Erdgaspreise gestiegen sind. Deswegen sind auch die Preise für Stickstoffdünger gestiegen. Trotzdem ist von einigen Düngerherstellern bekannt, dass sie wegen der exorbitanten Gaskosten nicht mehr wirtschaftlich produzieren können und die Produktion zumindest zeitweise eingestellt haben.
Originalpublikation:
Rosa L, Gabrielli P: Energy and food security implications of transitioning synthetic nitrogen fertilizers to net-zero emissions, Environmental Research Letters 2022, doi: 10.1088/1748-9326/aca815 [https://doi.org/10.1088/1748-9326/aca815]
Weitere Informationen:
https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2022/12/duenger-klimaf…
Silvester: Augenärzt*innen starten Petition für kommunales Feuerwerk
Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Das Verkaufsverbot für Feuerwerkskörper hat sich in den beiden Pandemiejahren insgesamt als effektive Maßnahme erwiesen, die Gesamtzahl der Augenverletzungen zur Silvesterzeit um 86 Prozent in 2020/2021 und um 61 Prozent in 2021/2022 zu reduzieren. Damit ist gleichwohl im zweiten Pandemiejahr trotz Verkaufsverbot die Zahl der Unfälle wieder leicht angestiegen, wie die aktuelle Umfrage der „Arbeitsgruppe Sicheres Feuerwerk“ der Deutschen Ophthalmologischen Gesellschaft (DOG) zeigt.
Die Zunahme ist vermutlich unter anderem auf die gelockerten Versammlungsbeschränkungen zurückzuführen. Für dieses Jahr, in dem Pyrotechnik wieder frei verkäuflich ist, erwartet die DOG einen neuerlichen Anstieg bei den Augenverletzungen. Die Arbeitsgruppe will deshalb eine Petition auf den Weg bringen, die privates durch kommunales Feuerwerk ablöst.
Seit Jahreswechsel 2016/2017 führt die DOG alljährlich zu Silvester eine Umfrage an notdienstleistenden deutschen Augenkliniken durch, um die Zahl der Augenverletzungen durch Feuerwerkskörper zu ermitteln. Insgesamt liegen für den Zeitraum von sechs Jahren Daten zu 2151 Patientinnen und Patienten mit Augenverletzungen durch Böller & Co vor, die jüngst publiziert worden sind.1 Auch zum Jahreswechsel 2022/2023 soll wieder eine Umfrage stattfinden.
Wie die Sechsjahres-Ergebnisse nun im Rückblick zeigen, erlitten in den Jahren ohne Verkaufsverbot konstant jeweils etwa 500 Betroffene in den Silvestertagen Augenverletzungen durch Pyrotechnik. „Im ersten Pandemiejahr 2020/2021 mit Verkaufsverbot sank die Verletztenzahl auf 79, was einer Reduktion um 86 Prozent entspricht“, berichtet Arbeitsgruppenmitglied Dr. med. Ameli Gabel-Pfisterer. Im Folgejahr 2021/2022 stieg die Zahl der Verletzten trotz Verkaufsverbot wieder leicht auf 193 an, was immerhin noch einen Rückgang im Vergleich zu den Vorpandemie-Jahren von 62 Prozent darstellt. „Die Zunahme gegenüber 2020/2021 könnte mit der etwas häufigeren Nutzung nichtzugelassener Feuerwerksartikel zusammenhängen“, so Gabel-Pfisterer. „Denn das Verbot wurde im vergangenen Jahr früher angekündigt, so dass Zeit war, sich im Ausland einzudecken.“
Die erhobenen Daten lassen einen solchen Schluss zu. Während der Jahre 2020 bis 2022, in denen ein Verkaufsverbot für Feuerwerksartikel galt, stammte nach Aussage der Verletzten der ursächliche pyrotechnische Artikel bei 11 Prozent der Unfälle aus nicht offizieller Quelle – für die Jahre 2017 bis 2019 war dies nur bei 2 Prozent der Unfälle so angegeben worden. „Zudem waren die Verletzungen in den Pandemiejahren tendenziell schwerer, es gab relativ mehr stationäre Aufnahmen“, berichtet Arbeitsgruppenmitglied Professor Dr. med. Daniel Böhringer. „Neben der Nutzung nicht offizieller Pyrotechnik könnte dies auf einen Selektionseffekt besonders risikofreudiger privater Pyrotechniker zurückzuführen sein.“
Dennoch, so betont die AG Feuerwerk, wurde der größte Teil der Augenverletzungen auch während des Verkaufsverbots durch CE-zertifizierte Feuerwerksartikel hervorgerufen. „Die im Zusammenhang mit dem Verkaufsverbot befürchtete stärkere Verwendung von nicht offiziellem Feuerwerk führt zwar relativ zu etwas mehr schweren Verletzungen, ist mit Blick auf die absoluten Zahlen aber überschaubar“, erläutert Arbeitsgruppenmitglied Professor Dr. med. Hansjürgen Agostini. Es seien 10-mal mehr Schwerverletzte aus Unfällen mit offiziellen Feuerwerkskörpern festzustellen. „Das CE-Zeichen garantiert natürlich nur bei sachgerechtem Gebrauch ein gewisses Maß an Sicherheit“, stellt der Freiburger DOG-Experte klar.
„Zusammenfassend lässt sich feststellen, dass ein Verkaufsverbot von privatem Feuerwerk eine effektive Maßnahme ist, um die Gesamtzahl der Augenverletzungen zu reduzieren“, bilanziert Agostini. Auch die Versammlungsbeschränkungen, die mit dem Verkaufsverbot angeordnet waren, entfalteten Wirksamkeit. So sank der Anteil der verletzten Zuschauenden von rund 62 Prozent in den Vor-Pandemiejahren auf 47 Prozent in 2020 und 2021.
Das sicherste Feuerwerk ist jedoch das professionelle. „In den 6 Jahren der Umfrage fand sich lediglich eine Patientin, die während einer öffentlichen Feuerwerksshow als Zuschauerin leicht verletzt worden war“, berichtet Agostini. Der Augenexperte startet daher eine Bundestags-Petition, die privates durch kommunales Feuerwerk ablösen will. „Ausgebildete Feuerwerker, etwa aus den Reihen der Feuerwehr, sollen ein gemeinsam erlebtes, sicheres Feuerwerk höchster Qualität zünden“, so der DOG-Experte.
Literatur:
https://link.springer.com/article/10.1007/s00347-022-01778-1
Weitere Informationen:
https://www.dog.org/augenverletzungen-durch-feuerwerkskoerper Die Petition befindet sich in der Prüfung und wird nach Veröffentlichung auf die Webseite der DOG gestellt:
Stressarm durch die Weihnachtstage – wie man das Fest der Familie entspannt übersteht
Kathrin Markus Presse- und Öffentlichkeitsarbeit
Northern Business School
Ein paar Mal werden wir noch wach, dann ist wieder Weihnachtstag. Und was man bis dahin alles zu erledigen hat! Stress und ein schiefer Haussegen sind bei vielen nicht fern. Aber das muss nicht sein: Prof. Dr. Marcel Schütz von der NBS Northern Business School in Hamburg gibt Anregungen zur weihnachtlichen Wohltemperierung.
Kaum sind alle angekommen, gibt es den ersten Ärger in der Küche. Auf einmal schlägt eine Tür zu und wenn es ganz schlecht läuft, geht auch mal Geschirr zu Bruch – Weihnachten ist ein Fest der Harmonie – nun ja, zumindest in der Theorie. Praktisch kann es mal hoch her gehen und ruckzuck ist die Stimmung im Eimer.
Prof. Dr. Marcel Schütz forscht über die Gesellschaft und ihre Formen der Organisation. Er arbeitet derzeit auch an einem soziologischen Buch zum Weihnachtsfest, das im kommenden Jahr erscheint. Sein Augenmerk gilt den Beziehungen und Interaktionen rund um die Festtage. Wie bereiten sich die Menschen auf die besondere Zeit vor, wie prägen Rituale und Erwartungen den Umgang?
Erwartungsstau zu Weihnachten
„Zu Weihnachten gibt es eine Art Erwartungsstau. Die kurze Zeit des Festes soll möglichst perfekt verbracht werden. Dass das mitunter anstrengend wird, liegt auf der Hand“, sagt Schütz, der für die weihnachtlichen Tage bei und mit der Familie ein paar Anregungen gibt – gewissermaßen als Erwartungsmanagement gegen das Risiko der häuslichen Besinnungslosigkeit.
„Allgemein kann man sagen, dass viele erstmal in diesem Fest ankommen müssen. Und das nicht nur mit Auto und Zug nach vielleicht mehreren Stunden Fahrt in die Heimat; ankommen auch im übertragenen Sinne“. Schütz rät dazu, sich nicht sofort mit allen Plänen und Details zu behelligen, Freiräume und Rückzugsmöglichkeiten während der Festtage einzuräumen. „Sich nicht groß drängen und belagern, das ist schon die halbe Miete, würde ich sagen. Gerade wenn man, wie in vielen Familien, gut und gern eine halbe Woche aufeinander hockt.“
Eben weil Familien häufig nur zu bestimmten Anlässen wie Weihnachten in dieser ganzen Konstellation zusammenfinden, gibt es natürlich den ein oder anderen Punkt, den man mit einzelnen Mitgliedern besprechen möchte. „Hier muss man schauen, ob der Moment passt. Bei grundsätzlichen und politischen Themen können naturgemäß die alters- und lebensspezifisch unterschiedlichen Standpunkte hervortreten.“
In Gesprächen auf Sicht fahren
Schütz empfiehlt kommunikativ auf Sicht zu fahren. Wenn man merkt, dass ein Thema Irritation und Ärger auslöst – lieber umgehen bzw. konstruktiv abmoderieren. Man könne einander am Rande, optimalerweise erst am 27. Dezember, kurz zur Seite nehmen und Dinge persönlich klären. Selbst in der Familie werde es zur Zumutung, wenn man alles vor allen ausdiskutiere.
„Jeder ist bemüht zu Weihnachten möglichst weihnachtlich zu funktionieren. Anstrengend wird es, wenn man dabei gegen eigene Gefühle ankämpfen muss. Man geht vielleicht gar nicht vollkommen gelöst und freudig in die Feiertage, sondern trägt vielmehr etwas mit sich, das einem Gedanken macht“, so der Sozialwissenschaftler.
In vielen Familien gibt es ein ambitioniertes Besuchsprogramm. „Hinter vorgehaltener Hand werden viele sagen: Weniger ist mehr, und können wir es nicht etwas langsamer angehen?“, weiß Schütz. Natürlich wolle man einander nicht vor den Kopf stoßen. An Weihnachten werde jede Einsparung in puncto eigene Präsenz schnell als Entzug von Aufmerksamkeit empfunden. Da helfe es, Achtsamkeit im Blick auf die individuellen Bedürfnisse aufzubringen.
Basis-Rituale und „Programmdiversifikation“
Das Familienfest zeichne allerdings auch aus, dass alle zu Kompromissen bereit sind. Sonst wäre es ja gar kein Anlass der Gemeinsamkeit. „Man kann ein derart traditionsgetränktes Fest nicht für jeden Lebensstil und Geschmack genau passend aufziehen. Der eine hängt an der Weihnachtsmusik, der andere an der edlen Nordmanntanne. Die Kinder wollen Geschenke. Dem nächsten bedeutet all das nicht ganz so viel, dafür die freien Tage, die Gespräche und das Essen. Eine etwas oberflächliche Synchronisierung der Emotionen und Vorstellungen ist somit ziemlich normal.“
Sinnvoll sei es, sich zwanglos auf eine gute Mischung weihnachtlicher Beschäftigungen zu verständigen. Marcel Schütz: „Beispielsweise ein paar Basis-Rituale wie Gottesdienstbesuch, Weihnachtsessen, Spaziergang – idealerweise natürlich mal wieder bei weißer Weihnacht – oder Gesellschaftsspiele. Nennen wir es ,Programmdiversifikation‘ oder einfach Abwechslung. Der eine Teil verzieht sich zum Plausch, der andere Teil schaut einen Film. Wieder andere wollen mal joggen, um den Kopf von all dem Kerzenduft und der Weihnachts-CD freizukriegen.“
Zwischen Zauber und Nachdenklichkeit
Weihnachten, so der Gesellschafts- und Organisationsforscher Schütz, bleibe im Kern eine ambivalente Sache. Das Fest lebe von einer gediegenen Form, von Maß und Mitte, Ruhe und Einkehr. In einer schnellen Zeit mit vielen gleichzeitigen Baustellen sei diese wiederkehrende Zäsur bemerkenswert. Ein Leben lang feiere man Weihnachten, und werde es doch immer noch nicht leid. – Eine mächtige Institution und Gesellschaftsleistung.
„Manches in unserer Kindheitsweihnacht kann ein Leben lang in der Erinnerung gegenwärtig bleiben. Auch dann, wenn die strahlenden Gesichter vergangener Zeit längst nicht mehr auf dieser Welt sind.“ Der Weihnachtszauber zwischen gestern, heute und morgen fasziniere die Menschen und mache sie zugleich nachdenklich. „Somewhere in my memory – so heißt der Titelsong des Weihnachtsklassikers ,Kevin allein zu Haus‘. Das ist es, was viele zur Weihnacht spüren: Irgendwo in meiner Erinnerung, irgendwo ist da etwas geblieben, das verbindet.“
Schütz abschließend: „Ich denke, es kommt darauf an, dass man weiß, was einem die Tage bedeuten. Und dass man sich nach all dem Rennen und Rasen das ganze Jahr doch ein paar schöne, entspannte Momente gönnt, an die man sich noch lange erinnert. Man kann mit lauter Geschenken nicht so glücklich machen wie mit der Zeit, die man miteinander verbringt. Denn das wird man nicht immer haben.“
Prof. Dr. Marcel Schütz hat die Stiftungs- und Forschungsprofessur für Organisation und Management an der Northern Business School in Hamburg inne. Seine Arbeitsschwerpunkte bilden die soziologische Organisations- und Gesellschaftsforschung. E-Mail: schuetz@nbs.de.
Ihr Ansprechpartner für die Pressearbeit an der NBS Hochschule ist Frau Kathrin Markus (markus@nbs.de). Sie finden den Pressedienst der NBS mit allen Fachthemen, die unsere Wissenschaftler abdecken, unter www.nbs.de/die-nbs/presse/pressedienst
Die NBS Northern Business School – University of Applied Sciences ist eine staatlich anerkannte Hochschule, die Vollzeit-Studiengänge sowie berufs- und ausbildungs-begleitende Studiengänge in Hamburg anbietet. Zum derzeitigen Studienangebot gehören die Studiengänge Betriebswirtschaft (B.A.), Sicherheitsmanagement (B.A.), Soziale Arbeit (B.A.), Real Estate Management (M.Sc.) und Controlling & Finance (M.Sc.).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marcel Schütz, schuetz@nbs.de
Originalpublikation:
https://www.nbs.de/die-nbs/aktuelles/news/details/news/stressarm-durch-die-weihn…
Woher kam Omikron? Studie in Science entschlüsselt die Entstehung der SARS-CoV-2-Variante
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Vor einem Jahr wurde sie erstmals in Südafrika entdeckt: eine neue Variante von SARS-CoV-2, die später als Omikron bekannt wurde und sich in kürzester Zeit über den ganzen Erdball verbreitete. Bis heute ist unklar, wo und wann dieses Virus genau aufkam. Eine jetzt im Fachmagazin Science* veröffentlichte Studie der Charité – Universitätsmedizin Berlin mit afrikanischen Kooperationspartnern zeigt: Omikron-Vorläufer gab es auf dem afrikanischen Kontinent schon deutlich vor dem ersten Nachweis von Omikron. Demnach ist die Virusvariante schrittweise über mehrere Monate in verschiedenen Ländern Afrikas entstanden.
Seit Beginn der Pandemie verändert sich das Coronavirus. Den bisher größten Sprung in der Evolution von SARS-CoV-2 konnten Forschende vor einem Jahr beobachten, als eine Variante entdeckt wurde, die sich durch mehr als 50 Mutationen vom Erbgut des ursprünglichen Virus unterschied. Erstmals Mitte November 2021 bei einem Patienten in Südafrika nachgewiesen, erreichte die später als Omikron BA.1 bezeichnete Variante innerhalb weniger Wochen 87 Länder der Erde. Bis Ende Dezember 2021 hatte sie das zuvor dominierende Delta-Virus weltweit verdrängt.
Seither wird über den Ursprung dieser sich so rasant ausbreitenden Variante spekuliert. Diskutiert werden vorrangig zwei Hypothesen: Entweder sei das Coronavirus vom Menschen auf ein Tier übergesprungen und habe sich dort weiterentwickelt, bevor es als Omikron wieder einen Menschen infizierte. Oder das Virus habe in einem Menschen mit unterdrücktem Immunsystem für längere Zeit überdauert und sich dort verändert. Eine neue Auswertung von COVID-19-Proben, die schon vor der Omikron-Entdeckung in Südafrika gesammelt worden waren, widerspricht nun beiden Annahmen.
Durchgeführt wurde die Analyse von einem internationalen Forschungsteam um Prof. Dr. Jan Felix Drexler, Wissenschaftler am Institut für Virologie der Charité und am Deutschen Zentrum für Infektionsforschung (DZIF). Innerhalb des europäischen und panafrikanischen Netzwerks maßgeblich beteiligt waren die Universität Stellenbosch in Südafrika und das Referenzlabor für hämorrhagische Fieber in Benin. Die Wissenschaftlerinnen und Wissenschaftler entwickelten zunächst einen speziellen PCR-Test, um die Omikron-Variante BA.1 spezifisch nachweisen zu können. Diesen wandten sie dann bei mehr als 13.000 Proben aus 22 Ländern Afrikas an, die zwischen Mitte 2021 und Anfang 2022 abgestrichen worden waren. Dabei fand das Forschungsteam Viren mit Omikron-spezifischen Mutationen bei 25 Menschen aus sechs verschiedenen Ländern, die bereits im August und September 2021 an COVID-19 erkrankt waren – also zwei Monate vor dem ersten Nachweis der Variante in Südafrika.
Um mehr über die Entstehung von Omikron herauszufinden, entschlüsselten die Forschenden zusätzlich bei rund 670 Proben das virale Erbgut. Durch eine solche Sequenzierung ist es möglich, neue Mutationen zu erkennen und auch unbekannte Viruslinien nachzuweisen. So entdeckte das Team mehrere Viren, die unterschiedlich starke Ähnlichkeiten mit Omikron aufwiesen, aber eben nicht identisch waren. „Unsere Daten zeigen, dass Omikron verschiedene Vorläufer hatte, die sich miteinander mischten und zur selben Zeit und über Monate hinweg in Afrika zirkulierten“, erklärt Prof. Drexler. „Das deutet auf eine graduelle Evolution der BA.1-Omikron-Variante hin, während der sich das Virus immer besser an die vorhandene Immunität der Menschen angepasst hat.“ Aus den PCR-Daten folgern die Forschenden darüber hinaus, dass Omikron zwar nicht allein in Südafrika entstand, dort aber als erstes das Infektionsgeschehen dominierte und sich dann innerhalb weniger Wochen von Süd nach Nord über den afrikanischen Kontinent ausbreitete.
„Das plötzliche Auftreten von Omikron ist also nicht auf einen Übertritt aus dem Tierreich oder die Entstehung in einem immunsupprimierten Menschen zurückzuführen, auch wenn das zusätzlich zur Virusentwicklung beigetragen haben könnte“, sagt Prof. Drexler. „Dass wir von Omikron überrascht wurden, liegt stattdessen am diagnostischen blinden Fleck in großen Teilen Afrikas, wo vermutlich nur ein Bruchteil der SARS-CoV-2-Infektionen überhaupt registriert wird. Die Entwicklung von Omikron wurde also einfach übersehen. Deshalb ist es wichtig, diagnostische Überwachungssysteme auf dem afrikanischen Kontinent und in vergleichbaren Regionen des Globalen Südens jetzt deutlich zu stärken und den Datenaustausch weltweit zu erleichtern. Nur eine gute Datenlage kann verhindern, dass potenziell wirksame Eindämmungsmaßnahmen wie Reisebeschränkungen zum falschen Zeitpunkt ergriffen werden und damit mehr wirtschaftlichen und gesellschaftlichen Schaden anrichten als Gutes zu tun.“
*Fischer C et al. Gradual emergence followed by exponential spread of the SARS-CoV-2 Omicron variant in Africa. Science 2022 Dec 01. doi: 10.1126/science.add8737
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Felix Drexler
Institut für Virologie
Charité – Universitätsmedizin Berlin
t: +49 30 450 570 400
presse@charite.de
Originalpublikation:
https://www.science.org/doi/10.1126/science.add8737
Weitere Informationen:
https://virologie-ccm.charite.de/ Institut für Virologie
https://www.charite.de/service/pressemitteilung/artikel/detail/charite_experten_… PM vom 22.12.2021
https://www.charite.de/service/pressemitteilung/artikel/detail/lateinamerika_cha… PM vom 23.06.2020
Neue Röntgentechnologie kann die Covid-19-Diagnose verbessern
Carolin Lerch Corporate Communications Center
Technische Universität München
Ein Forschungsteam der Technischen Universität München (TUM) hat erstmalig Dunkelfeld-Röntgenaufnahmen von Patient:innen erstellt, die mit dem Corona-Virus infiziert waren. Die Dunkelfeldbilder können im Gegensatz zu konventionellen Röntgenaufnahmen auch die Mikrostruktur des Lungengewebes abbilden und liefern so zusätzliche Informationen. Das Verfahren könnte eine Alternative zur deutlich strahlenbelastenderen Computertomographie bieten.
Die Bildgebung der Lunge von Patient:innen mit Covid-19 erfolgt meist durch Computertomographie (CT). Hierfür werden Röntgenaufnahmen aus verschiedenen Richtungen zu einem dreidimensionalen Bild kombiniert. Dies ermöglicht eine genauere Bildgebung als zweidimensionale Aufnahmen mit konventioneller Röntgentechnologie, hat jedoch den Nachteil einer höheren Strahlendosis aufgrund der vielen Röntgenaufnahmen.
Das neue, von Prof. Pfeiffer entwickelte Dunkelfeld-Röntgenverfahren eröffnet nun neue Möglichkeiten in der radiologischen Diagnostik: „Bei unserer Röntgen-Untersuchung nehmen wir gleichzeitig konventionelle Röntgen- und Dunkelfeldbilder auf. So erhalten wir schnell und einfach zusätzliche Informationen über das betroffene Lungengewebe“, sagt Franz Pfeiffer, Professor für biomedizinische Physik und Direktor des Munich Institute of Biomedical Engineering der TUM.
„Die Strahlendosis ist dabei im Vergleich zu einem CT-Gerät um den Faktor 50 kleiner. Daher ist die Methode auch für Anwendungsszenarien vielversprechend, die wiederholte Untersuchungen über einen längeren Zeitraum erfordern, beispielsweise zur Erforschung von Long-Covid-Verläufen. Für längere Beobachtungszeiträume könnte die Methode eine Alternative zur Computertomographie für die Bildgebung von Lungengewebe bieten“, erläutert Franz Pfeiffer weiter.
Zusätzliche Informationen über die Mikrostruktur des Lungengewebes
In einer neuen Studie haben Radiolog:innen Aufnahmen von Personen mit Covid-19-Lungenerkrankung mit denen gesunder Personen verglichen. Dabei fiel ihnen die Unterscheidung zwischen kranken und gesunden Personen anhand der Dunkelfeldaufnahmen deutlich leichter als mit konventionellen Röntgenbildern. Am besten konnten die Radiolog:innen zwischen krankem und gesundem Lungengewebe unterscheiden, wenn beide Arten von Aufnahmen – konventionell und Dunkelfeld – vorlagen.
Während konventionelles Röntgen auf der Abschwächung des Röntgenlichts basiert, nutzt das Dunkelfeld-Röntgen die sogenannte Kleinwinkelstreuung des Röntgenlichts. Dadurch lassen sich zusätzliche Informationen über die Beschaffenheit der Mikrostruktur des Lungengewebes gewinnen. Somit bieten Dunkelfeldaufnahmen einen Mehrwert für die Untersuchung verschiedener Lungenerkrankungen.
Quantitative Auswertung
Das Forschungsteam optimierte den Aufbau des Röntgengerät-Prototyps so, dass sie die Aufnahmen auch quantitativ auswerten konnten. Eine gesunde Lunge mit vielen intakten Lungenbläschen erzeugt ein starkes Dunkelfeldsignal und erscheint in der Aufnahme hell. Dagegen erzeugt entzündetes Lungengewebe, in das Flüssigkeit eingelagert ist, ein schwächeres Signal und erscheint im Bild dunkler. „Wir normieren dann das Dunkelfeldsignal auf das Lungenvolumen, um die Unterschiede im Lungenvolumen verschiedener Personen zu berücksichtigen“, erklärt Manuela Frank, eine Erstautorin der Publikation.
„Als nächstes möchten wir noch mehr Patient:innen untersuchen. Wenn dann genügend Dunkelfeld-Röntgendaten vorhanden sind, sollen auch Methoden der künstlichen Intelligenz den Auswertungsprozess unterstützen. Mit konventionellen Aufnahmen haben wir bereits ein Pilotprojekt zur KI-Auswertung unserer Röntgenaufnahmen durchgeführt“, sagt Daniela Pfeiffer, Professorin für Radiologie und ärztliche Leiterin der Studie am Klinikum rechts der Isar.
Mehr Informationen zur neuen Technologie Dunkelfeld-Röntgen:
Die Dunkelfeld-Bildgebung mit Röntgenlicht ist eine für die Medizin neuartige Untersuchungsmethode. Prof. Franz Pfeiffer und sein Team haben die Methode von Grund auf entwickelt und verbessern sie kontinuierlich seit über zehn Jahren, um sie für den Einsatz bei Patient:innen verfügbar zu machen.
So entwickelten sie zuletzt in enger Zusammenarbeit mit den Radiolog:innen am Klinikum rechts der Isar der TUM den ersten Dunkelfeld-Röntgen-Prototyp, der für die weltweit ersten klinischen Untersuchungen zugelassen wurde. Dieser wird nun aktuell für mehrere Patientenstudien zu verschiedenen Lungenerkrankungen verwendet. Nach ersten Aufnahmen von Patient:innen mit chronisch-obstruktiver Lungenerkrankung (COPD) und Covid-19 könnte die Technologie zukünftig auch für weitere Lungenpathologien wie Lungenkrebs, Fibrose oder Pneumothorax genutzt werden.
o Gitterbasierte Dunkelfeld-Bildgebung mit Röntgenlicht – Erklärung des Prinzips: https://www.bioengineering.tum.de/forschung/mikroskopie-und-biomedizinische-bild…
o Schematische Darstellung (Grafik): https://mediatum.ub.tum.de/1545408
o Neue Technologie für klinische Computertomographie (2022):
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/neue-tech…
o Neue Röntgentechnologie im Patienteneinsatz (2021) – Erster Einsatz bei Patient:innen mit COPD:
https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/neue-roen…
Weitere Informationen:
Prof. Dr. Franz Pfeiffer ist Direktor des Munich Institute of Biomedical Engineering (MIBE). Das MIBE ist ein Integrative Research Institute der Technischen Universität München (TUM). Am MIBE entwickeln und verbessern Forschende aus der Medizin, den Naturwissenschaften und Ingenieurwissenschaften gemeinsam Verfahren zur Diagnose, Prävention und Behandlung von Krankheiten. Sie arbeiten auch an Technologien, die körperliche Einschränkungen ausgleichen. Die Aktivitäten reichen dabei von der Untersuchung grundlegender wissenschaftlicher Prinzipien bis zu deren Anwendung in medizinischen Geräten, Medikamenten oder Computerprogrammen.
Die Autor:innen Franz Pfeiffer (TUM), Daniela Pfeiffer (TUM) und Thomas Köhler (Philips Research) sind Fellows des TUM Institute for Advanced Study (TUM-IAS). Das TUM-IAS führt Forschende der TUM und Gäste anderer Forschungseinrichtungen sowie aus der Industrie in interdisziplinären Forschungsgruppen zusammen, um neue herausfordernde Forschungsfelder zu erschließen.
Die Arbeiten wurden gefördert durch das European Research Council im Rahmen eines Starting und Advanced Grants sowie von Philips durch Bereitstellung von Komponenten unterstützt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Franz Pfeiffer
Technische Universität München
Lehrstuhl für Biomedizinische Physik
Tel.: +49 89 289 12551
franz.pfeiffer@tum.de
https://www.ph.nat.tum.de/en/e17/home/
Originalpublikation:
Manuela Frank, Florian T. Gassert, Theresa Urban, Konstantin Willer, Wolfgang Noichl, Rafael Schick, Manuel Schultheiss, Manuel Viermetz, Bernhard Gleich, Fabio De Marco, Julia Herzen, Thomas Koehler, Klaus Jürgen Engel, Bernhard Renger, Felix G. Gassert, Andreas Sauter, Alexander A. Fingerle, Bernhard Haller, Marcus R. Makowski, Daniela Pfeiffer, Franz Pfeiffer. Dark-field chest X-ray imaging for the assessment of COVID-19-pneumonia. Communications Medicine, November 2022. DOI: https://doi.org/10.1038/s43856-022-00215-3
Weitere Informationen:
https://www.bioengineering.tum.de/ Munich Institute of Biomedical Engineering (MIBE) der TUM
https://mediatum.ub.tum.de/1692790 Hochauflösende Bilder und Grafik für die redaktionelle Berichterstattung
Abwasser-Recycling: Landwirtschaft für Design-Dünger grundsätzlich offen
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Studie der Universität Hohenheim zeigt: Landwirt:innen akzeptieren aus Bioabfall und Siedlungsabwasser gewonnenen Mineraldünger – sofern er gewisse Bedingungen erfüllt
Landwirt:innen würden neuartigen Dünger aus Bioabfall und Haushalts-Abwasser einsetzen – wenn die Schadstofffreiheit garantiert ist. Denn die Sorge vor Kontaminationen stellt das wichtigste Hindernis dar. Bei einem Teil der Befragten würde ein Preisnachlass die Kaufbereitschaft fördern. Dieses vielschichtige Stimmungsbild ermittelten Forschende der Universität Hohenheim in Stuttgart. Unter Leitung des Agrarökonomen Prof. Dr. Christian Lippert befragten sie 206 Landwirt:innen, unter welchen Bedingungen sie bereit wären, Recycling-Dünger einzusetzen. Die Studie ist Teil des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft“. Dessen Ziel ist es, regionale Nährstoffkreisläufe zu schließen und Ressourcen nachhaltig zu nutzen.
Angesichts zunehmender Energie- und Ressourcenknappheit wird die künftige Landwirtschaft verstärkt auf Düngemittel zurückgreifen müssen, deren Herstellung keine fossilen Ressourcen benötigt. Die Erzeugung von mineralischen Recycling-Düngern aus häuslichem Abwasser und Küchenabfällen ist hierbei ein vielversprechender Ansatz. Denn elementare Pflanzennährstoffe wie Stickstoff und Phosphor können daraus zurückgewonnen werden.
Wie dieser Ansatz praktisch umgesetzt werden könnte, wird zur Zeit von Wissenschaftler:innen im Rahmen des Verbundprojektes „Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft “ unter Federführung der Universität Stuttgart untersucht. Das Kürzel RUN steht hierbei für Rural Urban Nutrient Partnership.
Online-Befragung erfasst Einstellung der Landwirtschaft zu Design-Düngern
Aus technischer und ökologischer Sicht gilt das Nährstoffrecycling aus häuslichen Abwässern gemeinsam mit Bioabfällen aus der Küche als vielversprechender Weg zur Gewinnung nachhaltig produzierter Mineraldünger. Da diese Dünger an die spezifischen Bedürfnisse der jeweiligen Betriebe angepasst werden könnten, werden sie von den Projektbeteiligten als „Design-Dünger“ bezeichnet.
Doch welche Eigenschaften sollten solche Dünger haben, um von den Landwirt:innen auf breiter Basis akzeptiert und gekauft zu werden? Dieser Frage sind Forschende der Universität Hohenheim vom Fachgebiet für Produktionstheorie und Ressourcenökonomik im Agrarbereich nachgegangen und haben in einer Online-Befragung die Einstellung deutscher Landwirt:innen zu diesen neuartigen Mineraldüngern ermittelt.
In einem sogenannten Auswahlexperiment mussten sich die 206 Befragten mehrfach jeweils für einen von drei beschriebenen Mineraldüngern mit unterschiedlichen Eigenschaften entscheiden. So konnten die Forschenden die Zahlungsbereitschaft für entsprechende Düngemittel erstmals auf breiter wissenschaftlicher Basis abschätzen.
Sehr unterschiedliche Akzeptanz wirkt sich auf Zahlungsbereitschaft aus
„Dabei hat sich gezeigt, dass die Einstellungen sehr unterschiedlich sind, was sich zum Teil mit den jeweiligen betrieblichen Gegebenheiten erklären lässt“, sagt Prof. Dr. Lippert. So stellten die Forschenden vor allem bei Betrieben, die ihre Erzeugnisse beispielsweise in Hofläden direkt vermarkten, deutlich größere Vorbehalte gegenüber Design-Düngern fest. Problem ist die Herkunft der Nährstoffe aus Siedlungsabwasser.
Bei Landwirt:innen, die ohne eine solche Direktvermarktung ihre Produkte absetzen, zeigten sich zwar im Durchschnitt auch leichte Vorbehalte gegenüber diesen neuartigen Düngern. Sie würden sie aber mit einem Preisnachlass von etwa zehn Prozent akzeptieren.
Allerdings erwarten nicht alle Landwirt:innen beim Kauf von Design-Düngern einen Preisnachlass: Betriebe, die auch Pflanzen anbauen, die als Futter oder zur Energieerzeugung verwendet werden, würden solche Düngemittel auch zu marktüblichen Preisen abnehmen. Bei ihnen hat die Herkunft der Nährstoffe keinen nennenswerten Einfluss auf die Zahlungsbereitschaft. Die anpassbare Nährstoffzusammensetzung der Design-Dünger und eine konstante Lieferbarkeit wirken zudem verkaufsfördernd.
Design-Dünger tendenziell geringer mit Schwermetallen belastet als konventioneller Dünger
„Es scheint sogar Landwirt:innen zu geben, die bereit sind, mehr zu zahlen als für entsprechend belastete konventionelle Dünger, falls die Schwermetallgehalte des Design-Düngers deutlich unter den gesetzlichen Grenzwerten für Düngemittel lägen“, so der Experte. Ein Pluspunkt für die aus Abwasser gewonnenen Phosphatdüngemittel: Sie sind tendenziell geringer mit Schwermetallen belastet als herkömmliche Mineraldünger auf Basis von Rohphosphat aus fossilen Lagerstätten.
„Andererseits sinkt die durchschnittliche Zahlungsbereitschaft für Düngemittel erheblich, wenn mit Medikamentenrückständen oder anderen organischen Schadstoffen gerechnet werden müsste“, fährt Prof. Dr. Lippert fort.
Sorge vor Kontaminationen stellt Hemmnis dar
„Insgesamt deuten unsere Ergebnisse darauf hin, dass eine negative Einstellung der deutschen Landwirt:innen gegenüber Design-Düngern vor allem durch ihre Sorge verursacht wird, dass recycelte Nährstoffe die Produktsicherheit ihrer Lebensmittelkulturen durch Kontaminationen, insbesondere mit organischen Schadstoffen, gefährden könnten“, fasst er zusammen.
Garantierte Schadstofffreiheit ist daher von entscheidender Bedeutung für die Akzeptanz und die Bereitschaft des Agrarsektors, in Zukunft aus Abwässern und Küchenabfällen gewonnene Düngemittel in großem Umfang einzusetzen. Forschende der Universität Stuttgart am Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) untersuchen daher gemeinsam mit ihren Hohenheimer Kolleg:innen vom Zentrum Ökologischer Landbau intensiv die Sicherheit (Schadstoffarmut) der Design-Düngemittel.
„Derzeit gibt es genügend Spielraum für die Einführung von maßgeschneidertem Recycling-Dünger, wenn die damit verbundenen technischen und hygienischen Herausforderungen bewältigt werden können“, so Prof. Dr. Lippert weiter.
Politik ist bei der Markteinführung gefragt
Ein kostendeckendes dezentrales Phosphor-Recycling aus Abwasser erscheint derzeit ohne zusätzliche finanzielle Unterstützung kaum möglich. Der Preisnachlass, den Landwirt:innen für Design-Dünger erwarten, deutet ebenfalls auf die Notwendigkeit von Subventionen hin, wenn Recycling-Dünger in der Praxis breit eingeführt werden sollen.
Andererseits haben Versorgungsengpässe und explodierende Energiepreise, insbesondere nach der russischen Invasion in der Ukraine, in der Europäischen Union ernsthafte Bedenken hinsichtlich der Versorgungssicherheit aufkommen lassen. Dies könnte in Zukunft Anreize für Recycling-Dünger schaffen.
Zudem könnten diese Düngemittel auch durch die Festlegung von Qualitätsstandards und die Schaffung eines vertrauenswürdigen Labels gefördert werden. „Auf diese Weise würden die politischen Entscheidungstragenden das Vertrauen der Landwirt:innen in ein Recycling-Produkt stärken, das das Potenzial habe, zu einem nachhaltigen und kreislauforientierten Landwirtschaftssystem beizutragen“, empfiehlt Prof. Dr. Lippert.
Expertenliste Bioökonomie: https://www.uni-hohenheim.de/expertenliste-biooekonomie
HINTERGRUND: Agrarsysteme der Zukunft: RUN – Nährstoffgemeinschaften für eine zukunftsfähige Landwirtschaft
RUN ist eines von acht Projekten des Forschungsvorhabens „Agrarsysteme der Zukunft“ im Rahmen der „Nationalen Forschungsstrategie BioÖkonomie 2030“. Es wird vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 5,95 Mio. Euro gefördert, davon über 680.000 Euro für die Universität Hohenheim. Projektstart war der 1. April 2019. Das Projekt war zunächst auf drei Jahre angelegt und wurde um weitere zwei Jahre bis August 2024 verlängert.
Die Koordination des Projekts liegt in der Hand von Dr.-Ing. Anna Fritzsche vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft der Universität Stuttgart (ISWA). Weitere Projektpartner sind die TU Kaiserslautern, die Universität Heidelberg, das Karlsruher Institut für Technologie (KIT), der Umweltcampus Birkenfeld der Hochschule Trier, die iat Ingenieurberatung für Abwassertechnik GmbH als Praxispartner sowie das Thünen-Institut in Braunschweig als assoziierter Partner.
Projektwebsite mit Erklär-Videos und Comic: https://www.run-projekt.de/
Pressemitteilung zu RUN: https://www.uni-hohenheim.de/pressemitteilung?tx_ttnews%5Btt_news%5D=51752
HINTERGRUND: Forschungszentrum für Globale Ernährungssicherung und Ökosysteme
Das Zentrum verfolgt das Ziel, einen Beitrag zur Verbesserung der globalen Ernährungssicherung zu leisten. Es unterstützt Wissenschaftlerinnen und Wissenschaftler bei der Entwicklung und Umsetzung von innovativen und effektiven Forschungsinitiativen zur Ernährungssicherung und Hungerbekämpfung mit einem besonderen Fokus auf entwicklungsorientierter Forschung.
HINTERGRUND: Schwergewichte der Forschung
33,8 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2020 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 350.000 Euro für apparative Forschung bzw. 150.000 Euro für nicht-apparative Forschung.
Zu den Pressemitteilungen der Universität Hohenheim
http://www.uni-hohenheim.de/presse
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Lippert, Universität Hohenheim, Fachgebiet Produktionstheorie und Ressourcenökonomik im Agrarbereich,
T +49 (0)711 459-22560, E christian.Lippert@uni-hohenheim.de
Yvonne Zahumensky, Universität Hohenheim, Forschungszentrum für Globale Ernährungssicherung und Ökosysteme,
T +49 (0)711 459-22632, E yvonne.zahumensky@uni-hohenheim.de
Originalpublikation:
Publikation: Utai, K., Narjes, M., Krimly, T. und C. Lippert (2022): Farmers’ Preferences for Fertilizers derived from Domestic Sewage and Kitchen Waste – A Discrete Choice Experiment in Germany. German Journal of Agricultural Economics (GJAE) 71 (4);
DOI: 10.30430/gjae.2022.0235
Weitere Informationen:
https://www.run-projekt.de/
Hochschule Koblenz untersuchte Abwasser in Koblenz und Umgebung auf Rückstände von Kokain-Konsum
Christiane Gandner M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Koblenz – University of Applied Sciences
Das Institut für sozialwissenschaftliche Forschung und Weiterbildung (IFW) des Fachbereichs Sozialwissenschaften der Hochschule Koblenz hat gemeinsam mit den Klärwerken Koblenz und Neuwied I sowie in Zusammenarbeit mit der Bundesanstalt für Gewässerkunde ein kriminologisches Forschungsprojekt „Drogen in Koblenz und Umgebung – Abwasseranalyse auf Rückstände von Kokain-Konsum“ durchgeführt. Die Ergebnisse lassen Rückschlüsse auf die Menge und Qualität des konsumierten Kokains sowie auf die weiteren Umstände des Konsums zu.
Das Forschungsteam entnahm die Proben während einer Trocken-Wetter-Periode vom 8. bis 14. März 2022. Die Bundesanstalt für Gewässerkunde untersuchte die Abwässer auf Kokain, Bezoylecgonin (BE), einem Humanmetabolit des Kokains, Cocaethylen und Levamisol. Die Analyse erfolgte anhand der Standards des European Monitoring Centre for Drugs and Drug Addiction (EMCDDA, Europäische Beobachtungsstelle für Drogen und Drogensucht), welche seit einigen Jahren in vielen Städten Europas Abwasseruntersuchungen auf Drogenrückstände durchführen lässt.
Auf der Grundlage der Messergebnisse führte das Forschungsteam eine kriminologische Auswertung durch. Nach dem Kokaingenuss scheidet der menschliche Körper im Urin das Abbauprodukt Benzoylecgonin aus. Im Untersuchungszeitraum wurde für den Raum Koblenz/Neuwied eine durchschnittliche Benzoylecgonin-Tagesfracht von etwa 276 Gramm/Tag/1000 Einwohner detektiert. Daraus errechnet sich unter Berücksichtigung von Unsicherheitsfaktoren wie etwa dem Aufkommen von Tagestourismus für den Beprobungszeitraum ein Kokainkonsum zwischen 0,4 und 1,6 Gramm pro Tag auf 1000 Einwohner.
Cocaethylen wird bei gleichzeitigem Konsum von Kokain und Alkohol ausgeschieden. Hierbei zeigte sich, dass die Verhältnisse von Cocaethylen zu Benzoylecgonin am Wochenende höher sind als an Werktagen. Dies lässt sich durch einen verstärkten gemeinsamen Konsum von Kokain und Alkohol am Wochenende erklären.
Bei der Analyse trat auch die zuweilen schlechte Qualität des in Koblenz und Umgebung konsumierten Kokains zu Tage, wie Projektleiter Prof. Dr.jur. Winfried Hetger erklärt: „Das Auffinden von Levamisol als Streckmittel von Kokain in einer Konzentration von durchschnittlich 14 % ist besorgniserregend“. Bei Levamisol handelt es sich um ein Entwurmungsmittel aus der Veterinärmedizin, welches in Deutschland nicht zugelassen ist. Der Konsum von mit Levamisol gestrecktem Kokain bedeutet ein erhebliches Gesundheitsrisiko für die Konsumierenden.
Der Forschungsbericht empfiehlt die Einrichtung eines Drug-Checking-Programms in Deutschland, wie dies beispielsweise schon in der Schweiz, Österreich, den Niederlanden, Frankreich, Belgien, Großbritannien und Luxemburg seit Jahren etabliert ist. Hierbei können Kokainkäufer und -käuferinnen ihre Drogen auf gefährliche Überdosierungen und andere medizinisch bedenkliche Stoffe untersuchen lassen. Des Weiteren befürwortet der Bericht, in der Zukunft erneute Abwasseruntersuchungen zur weiteren Beobachtung des Drogenkonsums durchzuführen. „Auch wäre eine Drogenpräventions- und Aufklärungskampagne über Risiken des Drogenkonsums angezeigt. Hierbei sollten auch die genannten Gesundheitsgefahren deutlich herausgestellt werden“, betont Hetger.
Der Forschungsbericht ist auf der Homepage des Instituts für sozialwissenschaftliche Forschung und Weiterbildung des Fachbereichs Sozialwissenschaften der Hochschule Koblenz www.hs-koblenz.de/ifw unter dem Menüpunkt „Forschung“ abrufbar.
Wissenschaftliche Ansprechpartner:
Prof. Dr.jur. Winfried Hetger
hetger@hs-koblenz.de
Weitere Informationen:
http://www.hs-koblenz.de/ifw unter dem Menüpunkt „Forschung“
„Weltweit einmaliges Ökosystem“
Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Wattenmeerkonferenz – DBU: Küstenzonen-Management
Osnabrück/Wilhelmshaven. Von Ägypten an die Nordsee, vom Weltklimagipfel in Scharm el Scheich zur trilateralen Wattenmeerkonferenz in Wilhelmshaven: Turnusgemäß alle vier Jahre verhandeln ab heute (Montag) wieder die drei Wattenmeer-Anrainerstaaten Deutschland, Dänemark und die Niederlande über die nachhaltige Zukunft dieses Unesco-Weltnaturerbes. „Wie in Scharm el Scheich geht es um die Folgen der Klimakrise und eine Schlüsselfrage: wie Naturschutz und Nutzung in Einklang zu bringen sind“, sagt Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU). Diese unterstützt seit mehr als 30 Jahren innovative und vor allem lösungsorientierte Vorhaben für mehr Umweltschutz. Der DBU-Beitrag zur Wattenmeerkonferenz: die Förderung einer Initiative des Wattenmeer Forums in Höhe von fast 120.000 Euro, um ein integriertes Küstenzonen-Management (IKZM) zu etablieren.
Das weltweit größte zusammenhängende und durch unterschiedliche Wattzonen geprägte Gezeitengebiet
„Das Wattenmeer ist ein weltweit einmaliges Ökosystem, quasi vor Deutschlands Haustür“, so Bonde. „Nirgendwo sonst gibt es ein derartig großes zusammenhängendes und durch unterschiedliche Wattzonen geprägtes Gezeitengebiet – mehr als 11.500 Quadratkilometer.“ Das Dilemma: Zugleich ist diese Fläche Transitstrecke für die internationale Schifffahrt, ein Großteil des Welthandels hängt also von dieser Route ab. Und neben der Schifffahrt melden auch Hafenbetreiber, Tourismus und Fischerei jeweils eigene Interessen an. „All diese verschiedenen Anliegen mit dem Schutzstatus unter einen Hut zu bringen, ist natürlich kein leichtes Unterfangen“, sagt der DBU-Generalsekretär. „Umso wichtiger ist es deshalb, praxisnahe Lösungen für Schutz und Nutzung auf den Weg zu bringen. Ein integriertes Küstenzonen-Management hat die Kraft, Konsens zu finden“, ist Bonde überzeugt.
Wattenmeer-Zusammenarbeit zwischen Deutschland, Dänemark und der Niederlande seit 1978
Die gemeinsame Wattenmeer-Kooperation der drei Anrainer Deutschland, Dänemark und Niederlande startete 1978. Die Konferenz findet alle vier Jahre statt. Seit 2018 hat Deutschland den Vorsitz inne. Die Organisation der Vereinten Nationen (UN) für Bildung, Wissenschaft und Kultur (Unesco) hat das Wattenmeer 2009 als Weltnaturerbe anerkannt; geschützt wird das Gebiet durch mehrere Nationalparke und Biosphärenreservate. Genau darin liegt aber zugleich eine Herausforderung, wie DBU-Experte Volker Wachendörfer erläutert. Der Referent aus der DBU-Abteilung Umweltforschung und Naturschutz ist bei der Wattenmeerkonferenz dabei, um das Projekt des Wattenmeer Forums zu erläutern. Die Crux: Während in den Nationalparken im Wattenmeer naturgemäß die Schutzfunktion oben auf der Agenda steht, sieht es beim Übergang zu Biosphärengebieten mit deren Puffer- und Pflegezonen schon anders aus. Wachendörfer: „Eine Nutzung ist dort möglich, zugleich teils sogar erforderlich, was wiederum eine – allerdings sanfte – Inanspruchnahme durch Schifffahrt, Fischerei und Tourismus ermöglicht.“
Zusätzliche Herausforderungen zur Bewältigung der Energiekrise wegen Russlands Ukrainekrieg
Hinzu kommen je eigene Positionen Deutschlands, Dänemarks und der Niederlande – sowie aktuell neue Erfordernisse, um die durch Russlands Ukrainekrieg ausgelöste Energiekrise zu bewältigen. Vor diesem Hintergrund hält Wachendörfer die Implementierung eines integrierten Küstenzonen-Managements für unabdingbar: „Das würde eine nachhaltige Entwicklung des Wattenmeers im Sinne der 17 UN-Nachhaltigkeitsziele (Sustainable Development Goals, SDG) voranbringen und hätte das Zeug, gemeinsame Lösungsansätze für Konflikte zwischen Schutz und Nutzung zu finden.“ Ein solches IKZM werde seit Langem debattiert. „Es ist dringend Zeit, diesen Plan in die Praxis umzusetzen“, so der DBU-Experte.
Trilaterales Konzept am Beispiel der Schifffahrt soll Wirtschaft und Naturschutz in Einklang bringen
Dem Wattenmeer Forum (Wadden Sea Forum, WSF) kommt laut Wachendörfer bei dieser Mittler-Aufgabe eine zentrale Rolle zu – vor allem, weil es sich als unabhängige grenzüberschreitende Interessenvertretung verschiedener Sektoren und Branchen in allen drei Anrainerstaaten versteht. Mit dabei sind aus Deutschland, Dänemark und der Niederlande Vertreterinnen und Vertreter der Sektoren Landwirtschaft, Energie, Fischerei, Industrie, Häfen sowie Naturschutz, Tourismus, lokale und regionale Behörden. Im Konsortium für das von der DBU geförderte WSF-Projekt sind neben der Hafenwirtschaft auch Umwelt- und Naturschutzorganisationen der trilateralen Wattenmeer-Region vertreten. Die Idee des WSF: Am Beispiel der Schifffahrt soll ein trilaterales Konzept entstehen, das die verschiedenen Interessen von Wirtschaft und Naturschutz harmonisiert. Aus gutem Grund, „denn so können die für das Weltnaturerbe Wattenmeer durch die Schifffahrt lauernden Risiken von Havarien über Emissionen und Kontaminationen bis hin zu raumgreifender Hafeninfrastruktur minimiert werden – ohne ökonomische Belange grundsätzlich in Frage zu stellen “, sagt Wachendörfer. Seine Hoffnung für die Wattenmeerkonferenz: die im Zuge des DBU-Projekts erarbeitete trilaterale Erklärung, die in Wilhelmshaven unterzeichnet werden soll. Wachendörfer: „Diese Initiative für nachhaltige Schifffahrt und Häfen kann ein wichtiger Grundstein für die zukünftige Entwicklung im Wattenmeer und ein Signal für andere Meeresregionen sein.“
Weitere Informationen:
https://www.dbu.de/123artikel39586_2442.html Online-Pressemitteilung
Hochschule Karlsruhe erhält Stiftungsprofessur für Wärmepumpen
Holger Gust M. A. Presse und Kommunikation
Hochschule Karlsruhe
Mit Unterstützung der Unternehmen ait-group, Bosch Thermotechnik, Danfoss Climate Solutions, Stiebel Eltron Gruppe und der Vaillant Group kann an der HKA die deutschlandweit erste Stiftungsprofessur für dieses Zukunftsfeld eingerichtet werden
Aktuell gibt es in Deutschland noch keine Professur speziell für Wärmepumpentechnologie. Mit großzügiger finanzieller Unterstützung der Unternehmen ait-group, Bosch Thermotechnik GmbH, Danfoss Climate Solutions, Stiebel Eltron GmbH & Co. KG und der Vaillant Group ist es der Hochschule Karlsruhe (Die HKA) jetzt gelungen eine Stiftungsprofessur für Wärmepumpentechnologie einzurichten. Zusätzliche Mittel sind über die Valerius-Füner-Stiftung von der Firma BKW Management AG gespendet worden. Die Stiftungsprofessur wird an der Fakultät für Maschinenbau und Mechatronik der HKA angesiedelt, wo auch in diesem Wintersemester der neue Bachelorstudiengang Green Technology Management startete. Die Ausbildung von Fachkräften und der Technologietransfer in der Wärmepumpentechnologie ist für die Energiewende von immenser gesellschaftlicher Relevanz. Die aktuelle Energiekrise, ausgelöst durch den Ukrainekrieg, verdeutlicht einmal mehr die Notwendigkeit einer unabhängigen und nachhaltigen Energieversorgung – auch für den Wirtschaftsstandort Deutschland.
Wissenschaftsministerin Petra Olschowski sagte: „Die Herausforderungen der Energiewende können wir nur mit klugen Köpfen, kreativen Lösungen und gemeinsamen Anstrengungen von Wissenschaft, Wirtschaft und Gesellschaft bewältigen. Die Einrichtung der Stiftungsprofessur für Wärmepumpen ist dafür ein herausragendes Beispiel. Sie wird einen wichtigen Beitrag zur Umstellung der Energieversorgung auf erneuerbare Energien leisten. Ich danke insbesondere den Unternehmen für ihre Bereitschaft, die Stiftungsprofessur mitzufinanzieren. Neben der hohen inhaltlichen Relevanz ist diese Entwicklung zugleich eine Referenz für die besonderen Leistungspotenziale der Forschung an der Hochschule Karlsruhe.“
Heizen und Kühlen stehen für die Hälfte des Endenergieverbrauchs in Europa und nutzen zu rund 80 Prozent noch immer fossile Energien, von denen in Deutschland der größte Teil importiert wird. Dabei hat sich Europa eine Reduzierung der Treibhausgasemissionen um 55 % bis 2030 auf die Fahne geschrieben und Klimaneutralität bis 2050. Dies setzt voraus, dass der Wärmesektor schrittweise vollständig auf erneuerbare Energie umgestellt und entsprechende Technologien zum Heizen und zur Warmwasserbereitung zur Verfügung stehen. Wärmepumpen spielen in diesem Zusammenhang eine Schlüsselrolle. Sie sind nicht nur extrem energieeffizient, sondern auch komplett klimaneutral, wenn sie mit erneuerbarer elektrischer Energie betrieben werden, und damit völlig unabhängig von fossilen Brennstoffen. Auch die EU-Kommission hat dies erkannt und setzt mit dem europaweiten Ziel, 30 Millionen Wärmepumpen bis 2030 in Europa zu installieren, ein klares Zeichen.
Der Zeitpunkt für die Einrichtung der Stiftungsprofessur und des neuen Studiengangs trifft aktuell auf eine hohe Nachfrage. „Mit dem Boom dieser nachhaltigen Heizungstechnologie besteht ein enormer Bedarf an Fachkräften“, so Prof. Dr.-Ing. habil. Michael Kauffeld, Prof. für Kältetechnik an der Fakultät für Maschinenbau und Mechatronik der HKA und Sprecher des Instituts für Kälte-, Klima- und Umwelttechnik „Es ist allerhöchste Zeit, hier gezielt Abhilfe zu schaffen. Mit unserem neuen Studiengang wollen wir einen ganz konkreten Beitrag dazu leisten und die Industrie bei diesem disruptiven Wandel unterstützen“, so Prof. Kauffeld weiter.
Die Stiftungsunternehmen unterstreichen diese Bewertung vollumfänglich. Dr. Kai Schiefelbein, Geschäftsführer der Stiebel Eltron Gruppe: „Der Ausstieg aus den fossilen Brennstoffen muss so schnell wie möglich erfolgen. Im Wärmesektor ist mit der Wärmepumpe eine bewährte Technologie verfügbar, mit der dieser Ausstieg sofort realisiert werden kann, auch bei Sanierungen.“ Dr. Rainer Lang, Director Group R&D Heat Pump Technology bei der Vaillant Group teilte mit: „Wärmepumpen sind eine Schlüsseltechnologie zur erfolgreichen Dekarbonisierung des Gebäudesektors. Das Produktsegment verzeichnet seit Jahren ein starkes Marktwachstum.“ Und Jürgen Fischer, Präsident bei Danfoss Climate Solutions betont: „Der massive Anstieg der Nachfrage nach energieeffizienten, CO2-neutralen Lösungen für die Heizungs-, Kälte- und Klimatechnik zeigt, dass sich der Markt im Umbruch befindet.“ Edgar Timm, Director R&D der ait-group, ergänzt: „Das Thema Wärmepumpe – speziell auch mit natürlichen Kältemitteln – ist unsere Kernaufgabe und DNA! Der Einsatz dieser Technologie ist notwendig für eine nachhaltige Zukunftsgestaltung. Die Grundlage dafür liegt in der qualitativ hochwertigen Ausbildung künftiger Fachkräfte.“ Dr. Thomas Finke, Technical Director Electric Solutions, Bosch Thermotechnology, fügt hinzu: „Bis Mitte der Dekade investieren wir weitere 300 Millionen Euro in die Elektrifizierung. Wir freuen uns deshalb sehr, dass wir auch die fundierte Ausbildung von dringend benötigten Nachwuchskräften unterstützen können.“
Die Stiftungsunternehmen und die HKA arbeiten daher Hand in Hand. Erste Forschungsprojekte wurden bereits ins Leben gerufen. „Eine anwendungsorientierte Stiftungsprofessur für Wärmepumpen vor dem Hintergrund der angestrebten umfassenden und schnellen Umstellung auf erneuerbare Energien bringt starke Impulse für die hohe Attraktivität des neuen Studiengangs Green Technology Management und die Forschung in der Kälte-, Klima- und Umwelttechnik an der HKA mit sich“, betont Rektor Prof. Dr. Frank Artinger, „und wird unseren Beitrag auf dem Weg zur Klimaneutralität weiter steigern.“
Welche Bedeutung die HKA dem Thema „Wärmepumpen“ in Forschung und Lehre beimisst, wird auch über das gleichnamige Symposium an der Hochschule deutlich, zu dem Experten aus ganz Europa am gleichen Tag erwartet wurden.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. habil. Michael Kauffeld
Prof. für Kältetechnik an der Fakultät für Maschinenbau und Mechatronik der HKA und Sprecher des Instituts für Kälte-, Klima- und Umwelttechnik
E-Mail: michael.kauffeld@h-ka.de
Tel. +49 (0)721 925-1843
Originalpublikation:
https://www.h-ka.de/die-hochschule-karlsruhe/aktuelles/news/2022/stiftungsprofes…
Anhang
Die Hochschule Karlsruhe etabliert die deutschlandweit erste Professur für Wärmepumpen
Interview mit Professor Johannes Steinhaus zur Umweltbelastung durch Mikroplastik: „Das Waschen ist eine Hauptquelle“
Daniela Greulich Presse- und Öffentlichkeitsarbeit
Hochschule Bonn-Rhein-Sieg
Die Verschmutzung unseres Planeten mit Plastik und Mikroplastik ist ein globales Problem gewaltigen Ausmaßes. In Uruguay verhandeln aktuell Regierungen und Organisationen auf Einladung der Vereinten Nationen über ein Abkommen gegen Plastikmüll. Professor Johannes Steinhaus von der Hochschule Bonn-Rhein-Sieg (H-BRS) beschäftigt sich in seiner Forschung mit der Mikroplastikbelastung. Für das Problem der mikroskopisch kleinen Partikel, die über das Abwasser der Waschmaschinen in die Flüsse und Meere gelangen, hat der Wissenschaftler eine Idee.
H-BRS: Herr Professor Steinhaus, lassen Sie uns über Fußball reden: Das Trikot, das die Spieler der deutschen Mannschaft tragen, sondert offensichtlich bei den ersten fünf Wäschen im Schnitt 68.000 Mikroplastik-Fasern ab. Die Forschungsgruppe Mikroplastik an der Universität Hamburg hat dies herausgefunden. Überrascht Sie das?
Johannes Steinhaus: Nein, nicht unbedingt. Die Zahl von 68.000 ist zwar ungewöhnlich hoch, und der Hersteller täte gut daran herauszufinden, warum das so ist. Allerdings waschen wir alle sehr viele Kleidungsstücke, die aus Synthetikfasern wie zum Beispiel Polyester, Acryl, Nylon oder Elastan bestehen. Die Fasern, die sich dabei abreiben – typischerweise eher um die 2000 Fasern pro Kleidungsstück und Wäsche – gelangen ungehindert in unsere Kläranlagen und in der Folge zum Teil in den Klärschlamm und zum anderen Teil in unsere Gewässer. Der Grund ist, dass sich die Fasern aufgrund ihrer Größe schlecht aus dem Abwasser filtern lassen. Da Klärschlämme auch gerne als Dünger auf Ackerflächen ausgetragen werden, kann man davon ausgehen, dass ein Großteil dieser Fasern in der Umwelt landet. Das Waschen von synthetischen Kleidungsstücken ist die Hauptquelle für sekundäres Mikroplastik, also entstanden durch Abrieb und Zerfall größerer Kunststoffprodukte.
H-BRS: Was bedeutet das für die Umwelt? Und wie könnte eine Lösung aussehen?
Steinhaus: Die Auswirkungen all dieser Mikroplastikfasern auf die verschiedenen Ökosysteme sind noch relativ unklar. Das Ärgerliche daran ist, dass man einfach nur alle Waschmaschinen mit einem Filtersystem ausstatten müsste, die den Eintrag der Fasern von Anfang an verhindern würden. Da die Waschmaschinenhersteller das aber nicht in vorauseilendem Gehorsam machen möchten – ein Nachrüstfilter kostet zirka 80 Euro – müssten da gesetzliche Auflagen her. Am besten EU-weit.
H-BRS: Kunststoffe finden sich nicht nur in Textilien, sondern wir begegnen ihnen in unserem Alltag ständig. Täuscht der Eindruck, oder wird immer mehr Kunststoff produziert?
Steinhaus: Nein, der Eindruck täuscht leider nicht. Laut Statista lagen wir weltweit um die Jahrtausendwende bei etwa 200 Millionen Tonnen Kunststoff-Jahresproduktion. Heute haben sich die Mengen bei einem linearen Trend etwa verdoppelt. Ein wesentlicher Faktor ist sicherlich der ungebrochene Trend, Waren in Kunststoff zu verpacken.
H-BRS: Vor allem unsere Supermärkte sind voll von Verpackungen aus Kunststoff. Da wir alles brav in die gelbe Tonne werfen: Wird die Masse der Verpackungen recycelt?
Steinhaus: Könnte man denken. Jedoch wird ein großer Teil des Kunststoffmülls leider immer noch verbrannt. Der Kunststoffeintrag in die Umwelt ist in unseren Breiten durch das Abfallmanagement sicher niedriger als etwa in Asien oder Südamerika. Alles entsorgen wir in Europa aber sicher nicht korrekt, wie sich an unserer Umwelt erkennen lässt. Außerdem vergisst man dabei gerne, dass wir Unmengen Mikroplastik über Reifenabrieb und Waschabwässer generieren. Zudem exportieren wir hierzulande große Mengen an Kunststoffmüll nach Südostasien. Das ist der Teil, der sich nur aufwändig oder gar nicht recyceln lässt. Dort wird der Müll auch eher nicht ordnungsmäßig recycelt, sondern oft auf wilden Deponien gelagert oder offen verbrannt. Und so gelangt auch der Müll aus der gelben Tonne in unsere Umwelt.
H-BRS: In Ihrer Forschung beschäftigen Sie sich unter anderem mit Mikroplastikanalytik und der Simulation und Lebensdaueranalyse von Gummi-Bauteilen. Was genau ist Gegenstand Ihrer Forschung, und was kann die H-BRS zur Lösung des Problems beitragen?
Steinhaus: Meine aktuelle Forschung im Bereich der Mikroplastikanalytik bezieht sich auf die Aufbereitung von Strand-, Erd- und Sedimentproben. Es ist tatsächlich sehr schwer, die vielen Studien über die Mikroplastikbelastung der weltweit genommen Proben miteinander zu vergleichen, da die Probenaufbereitung teils unter sehr unterschiedlichen Bedingungen erfolgte und auch die sogenannte Wiederfindungsrate der Mikroplastikpartikel signifikant streut. Wir forschen unter anderem in Zusammenarbeit mit dem Alfred-Wegener-Institut/Helmholtz-Zentrum für Polar- und Meeresforschung in Bremerhaven daran, möglichst einfache Verfahren zu entwickeln, die möglichst überall auf der Welt umsetzbar sind.
Interview: Martin J. Schulz
Hinweis an die Medien: Prof. Dr. Johannes Steinhaus steht als Ansprechpartner für Interviews zum Thema (Mikro-)Plastik gerne zur Verfügung. Sie erreichen ihn unter johannes.steinhaus@h-brs.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Johannes Steinhaus
Materialwissenschaften, insbesondere hybride Werkstoffsysteme und Schadenanalyse
Hochschule Bonn-Rhein-Sieg
Tel.: 02241/865-458
E-Mail: johannes.steinhaus@h-brs.de
Arbeitszeitkontrolle als Standardfall bedeutet nicht die Rückkehr zur Stechuhr
Claudia Staat Kommunikation
Frankfurt University of Applied Sciences
Arbeitsrechtler Prof. Dr. Peter Wedde erläutert die Entscheidungsgründe des Bundesarbeitsgericht-Urteils zur Zeiterfassung / Experte sieht Gesetzgeber in der Pflicht: „Ohne klare gesetzliche Vorschriften droht ein Wildwuchs an Ausgestaltungen, der den angestrebten Arbeitszeitschutz nicht herbeiführen wird“
Der 1. Senat des Bundesarbeitsgerichts hat mit seiner am 13. September 2022 verkündeten Entscheidung alle Arbeitgeber verpflichtet, Beginn und Ende der täglichen Arbeitszeit ihrer Arbeitnehmer/-innen zu erfassen. Der Beschluss des höchsten deutschen Arbeitsgerichts, der inhaltlich der Linie eines Urteils des Europäischen Gerichtshofs vom 14. Mai 2019 zur Arbeitszeiterfassung folgt, ließ bislang Detailfragen offen. Seit kurzem sind nun die in Fachkreisen und bei Betroffenen mit Spannung erwarteten Entscheidungsgründe bekannt. Arbeitsrechtler Prof. Dr. Peter Wedde, emeritierter Professor für Arbeitsrecht und Recht der Informationsgesellschaft an der Frankfurt University of Applied Sciences (Frankfurt UAS), hat diese analysiert.
„Das Bundesarbeitsgericht verlangt von Arbeitgebern keine Rückkehr zur Stechuhr, sondern eine nachvollziehbare, ehrliche und moderne Form der Erfassung der individuellen Arbeitszeiten ausnahmslos aller Arbeitnehmer/-innen“, erläutert Wedde. „Dafür müssen in allen Betrieben oder Dienststellen objektive, verlässliche und zugängliche Systeme zur Zeitmessung eingeführt werden. Diese Systeme müssen auch bei speziellen Ausgestaltungen wie der so genannten Vertrauensarbeitszeit oder bei Tätigkeiten auf Basis vereinbarter Zielvorgaben zum Einsatz kommen. Das Gericht geht vom Regelfall einer automatisierten Erfassung aus. Nur in kleinen Betrieben soll eine manuelle Erfassung möglich bleiben, beispielsweise in Form einer Excel-Tabelle.“
Aus Sicht der Arbeitgeber bedeutet die Einführung der notwendigen Messsysteme und -prozesse einen erhöhten Aufwand. Diese Belastung wird nach Weddes Ansicht durch einen positiven Aspekt aufgewogen. „Die Messung der tatsächlichen Arbeitszeiten wird dazu beitragen, dass gesetzliche Höchstarbeitszeiten und zwingende Ruhezeiten besser eingehalten werden als bisher. Das dient dem Gesundheitsschutz und reduziert auf Dauer die Zahl von Krankheitstagen.“ Verstöße gegen gesetzliche Arbeitszeitregeln können für Arbeitgeber allerdings künftig teuer werden: „Wird bei Messungen festgestellt, dass Beschäftigte über die vertraglich geschuldete Arbeitszeit hinaus tätig waren, können diese je nach konkreter Vertragssituation von ihrem Arbeitgeber einen Zeitausgleich oder Nachzahlungen verlangen.“
Die notwendige Erfassung der Arbeitszeit hält Wedde in der Praxis für durchführbar. „In vielen Betrieben gibt es bereits Arbeitszeiterfassungssysteme, welche die vom Bundesarbeitsgericht formulierten Anforderungen erfüllen. Wo sie fehlen, kann für die Messungen in der Regel auf Zeitinformationen zurückgegriffen werden, die in unterschiedlichen für die Arbeit verwendeten Softwareanwendungen verarbeitet werden. Diese Daten lassen sich mit speziellen Programmen so aufbereiten, dass Beginn und Ende der Arbeit sowie Pausen dokumentiert werden können.“
Vermieden werden muss nach Weddes Auffassung, dass dabei eine Art „Totalkontrolle“ der Betroffenen erfolgt: „Es geht nur um die genaue Erfassung von Beginn und Ende der Arbeitszeit, nicht aber um eine minutiöse Dokumentation jeder Arbeitshandlung. Eine umfassende und dauerhafte Erfassung einer Tätigkeit würde Persönlichkeitsrechte der Beschäftigten verletzen und wäre unzulässig.“
Insoweit sieht Wedde, der auch Experte für Beschäftigtendatenschutzrecht ist, den Gesetzgeber in der Pflicht. „Es müssen umgehend gesetzliche Rahmenbedingungen zu Art und Umfang von Arbeitszeitmessungen geschaffen werden, an denen sich Arbeitgeber sowie Beschäftigte und deren Interessenvertretungen orientieren können. Ohne klare gesetzliche Vorschriften droht ein Wildwuchs an Ausgestaltungen, der den angestrebten Arbeitszeitschutz nicht herbeiführen wird.“
Die Entscheidung des Bundesarbeitsgerichts geht auf die Klage eines Betriebsrats zurück, der die Einführung eines elektronischen Verfahrens einseitig durchsetzen wollte. Deshalb weist Wedde auf einen Wermutstropfen für Betriebsräte im Beschluss hin: „Nach Feststellung des Gerichts kann ein Betriebsrat die Einführung eines elektronischen Arbeitszeiterfassungssystems nicht gegen den Willen eines Arbeitgebers erzwingen, weil es hierfür kein Mitbestimmungsrecht gibt. Ist hingegen die Einführung eines solchen Systems für einen Betrieb geplant, kann der zuständige Betriebsrat dessen konkrete Ausgestaltung mitbestimmen.“
Zur Person:
Prof. Dr. Peter Wedde war bis zum Sommersemester 2021 Professor für Arbeitsrecht und Recht der Informationsgesellschaft an der Frankfurt UAS. Zu seinen Forschungsschwerpunkten gehören das individuelle und kollektive Arbeitsrecht sowie Daten- und Beschäftigtendatenschutz. Er ist Herausgeber von juristischen Fachkommentaren zum gesamten Individualarbeitsrecht, zum Betriebsverfassungs- und zum Datenschutzrecht sowie Autor zahlreicher Buch- und Zeitschriftenbeiträge und Onlinepublikationen. Als Referent vertritt er seine Schwerpunktthemen regelmäßig auf Fachkonferenzen und in Praxisforen.
Wissenschaftliche Ansprechpartner:
Frankfurt University of Applied Sciences, Fachbereich 2: Informatik und Ingenieurwissenschaften, Prof. Dr. Peter Wedde, Telefon: +49 171 3802499, E-Mail: wedde@fb2.fra-uas.de
Krankmachende Bakterien in Hackfleisch, abgepackten Salaten und Fertigteigen
Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Bundesamt stellt aktuelle Ergebnisse der Lebensmittelüberwachung vor
STEC-Bakterien können akute Darmentzündungen hervorrufen. Bei Untersuchungen der amtlichen Lebensmittelüberwachung wurden diese Bakterien in Rinderhackfleisch, in Salaten aus Fertigpackungen sowie in Fertigteigen und Backmischungen gefunden. Ein Risiko, besonders für empfindliche Verbrauchergruppen! Diese und weitere Ergebnisse hat das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) zusammen mit Länderarbeitsgemeinschaft Verbraucherschutz (LAV) auf seiner Pressekonferenz „Lebensmittelsicherheit in Deutschland“ in Berlin vorgestellt.
1. Krankmachende Keime in Rinderhackfleisch
Bei amtlichen Untersuchungen von Rinderhackfleisch wurden potentiell krankmachende Keime gefunden. 6,7 % der Proben enthielten STEC-Bakterien, 21,5 % Listerien (Listeria monocytogenes). Empfindlichen Verbrauchergruppen wie Kleinkinder, ältere und immungeschwächte Menschen sowie Schwangere sollten Hackfleisch daher nur ausreichend durcherhitzt verzehren.
Pressemitteilung „Krankmachende Keime in Rinderhackfleisch“:
https://www.bvl.bund.de/jpk22_keime_hackfleisch
2. Abgepackte Salate häufig mit Krankheitskeimen belastet
Für das amtliche Zoonosen-Monitoring wurden 2021 über 400 Proben von Feldsalat, Rucola und Pflücksalat in Fertigpackungen untersucht. In fast jeder zweiten Probe (46,7 %) wurden sogenannte präsumtive Bacillus cereus nachgewiesen, welche bei hohen Keimzahlen zu Erbrechen und Durchfall führen können. In geringerem Umfang wurden ebenfalls STEC-Bakterien (Shiga-Toxin-bildende E. coli) und Listerien (Listeria monocytogenes) gefunden. Da Salate roh verzehrt und die Keime damit nicht durch Erhitzen abgetötet werden, sollten empfindliche Verbrauchergruppen vorsichtshalber auf den Verzehr von Salat aus Fertigpackungen verzichten.
Pressemitteilung „Abgepackte Salate häufig mit Krankheitskeimen belastet“:
https://www.bvl.bund.de/jpk22_keime_salate
3. Acrylamid in Gemüsechips und geschwärzten Oliven
Bei Acrylamid kann eine krebserregende und erbgutschädigende Wirkung nicht ausgeschlossen werden. Es entsteht beim Backen, Braten und Frittieren von Lebensmitteln. Bei amtlichen Untersuchungen wiesen Gemüsechips und geschwärzte Oliven höhere Mengen an Acrylamid auf. Zum Schutz der Verbraucherinnen und Verbraucher sind weitere Maßnahmen zur Minimierung des Acrylamidgehalts notwendig.
Pressemitteilung „Acrylamid in Gemüsechips und geschwärzten Oliven“:
https://www.bvl.bund.de/jpk22_acrylamid
4. Lebensmittelbetrug bei Sushi
Sushi enthält neben Reis und Gemüse häufig auch Fisch und Meeresfrüchte. Neben den „Klassikern“ wie Lachs oder Thunfisch werden auch teurere Arten angeboten. Lebensmittelfälscher tauschen diese jedoch unerlaubt gegen preiswerte Arten aus und steigern somit illegal ihren Gewinn. Bei amtlichen Untersuchungen von Fisch und Meeresfrüchten wurden bei 8,1 % aller Proben eine andere als die angegebene Tierart nachgewiesen.
Pressemitteilung „Lebensmittelbetrug bei Sushi“:
https://www.bvl.bund.de/jpk22_betrug_sushi
5. Vorsicht beim Naschen! Roher Teig kann krank machen
STEC-Bakterien gehören zu den größten Verursachern bakterieller Durchfallerkrankungen in Deutschland. In einer aktuellen Untersuchung von Fertigteigen und Backmischungen wurde in jeder zehnten Probe STEC nachgewiesen. Verbraucherinnen und Verbraucher sollten daher Teige und Backwaren nur nach vollständiger Erhitzung essen.
Pressemitteilung „Vorsicht beim Naschen! Roher Teig kann krank machen“:
https://www.bvl.bund.de/jpk22_stec_fertigteig
6. Keine krebserregenden Stoffe (PAK) im Spielzeug
Zahlreiche polyzyklische aromatische Kohlenwasserstoffe (PAK) sind krebserregende Substanzen, die in Gegenständen aus Gummi oder Kunststoffen enthalten sein können. Im jüngsten Monitoring wurden Spielzeuge und Körperkontaktmaterialien auf den Gehalt an acht als krebserregend eingestuften PAK untersucht. Ergebnis: Bei fast allen Proben (99,7 %) wurde der Grenzwert eingehalten.
Pressemitteilung „Keine krebserregenden Stoffe (PAK) im Spielzeug“:
https://www.bvl.bund.de/jpk22_pak_spielzeug
Hintergrund
Für die Sicherheit von Lebensmitteln sind die Lebensmittelunternehmen verantwortlich. Die Behörden der Bundesländer kontrollieren dies im Rahmen der amtlichen Lebensmittelüberwachung. Die dabei gewonnenen Daten werden an das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) übermittelt. Das BVL wertet die Ergebnisse aus und veröffentlicht sie in den jährlichen Berichten zur Lebensmittelsicherheit.
Die hier vorgestellten Ergebnisse stammen aus den folgenden drei Berichten:
• Bericht zum Zoonosen-Monitoring 2021: https://www.bvl.bund.de/ZoonosenMonitoring
• Bericht zum Bundesweiten Überwachungsplan 2021: https://www.bvl.bund.de/buep
• Bericht zum Monitoring 2021: https://www.bvl.bund.de/monitoring
Weiterführende Informationen
• Präsentation „Lebensmittelsicherheit in Deutschland“: https://www.bvl.bund.de/lebensmittelsicherheit2022_praesentation
Anhang
Pressemitteilung
Binnengewässer in der Biodiversitätspolitik mit Landflächen und Meeren gleichstellen
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Heute beginnt in Montreal der zweite Teil der Weltnaturschutzkonferenz (CBD COP 15). Dem Massenaussterben soll u.a. damit entgegengewirkt werden, dass 30 Prozent der Landfläche und der Meere bis spätestens 2030 unter Schutz gestellt werden. Aber fehlt da nicht etwas? Genau, die Binnengewässer! Sie werden bisher meist den Landflächen zugeordnet, ihre Relevanz dabei nicht ausreichend berücksichtigt. Wissenschaftlerinnen und Wissenschaftler, die am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) zur Süßwasser-Biodiversität forschen, geben eine Einordnung zu diesem oft übersehenen Thema:
Weltweit nimmt die Biodiversität in einem noch nie dagewesenen Tempo ab. Besonders gefährdet sind die die genetische Vielfalt, Populationen, Arten, Gemeinschaften und Ökosysteme im Süßwasser. Studien und Zahlen belegen dies eindrücklich. In Binnengewässern schrumpfen die Lebensräume besonders dramatisch, etwa weil in den Tiefen vieler Seen zunehmend Sauerstoffmangel herrscht, die Temperaturen des Oberflächenwassers steigen, oder weil Fließgewässer verbaut werden und periodisch austrocknen. Der Klimawandel mit zunehmenden Wetterextremen wie Dürren und Überflutungen verschärft die Situation zusätzlich.
Binnengewässer gleichwertig wie Land und Meer behandeln:
„Nach wie vor wird in der internationalen Biodiversitätspolitik die große Relevanz der Binnengewässer übersehen“, kritisiert IGB-Forscherin Prof. Dr. Sonja Jähnig und fährt fort: „Quellen, Bäche, Flüsse, Seen, Kleingewässer, Feuchtgebiete und das Grundwasser sind unabdingbare Voraussetzung und Lebensgrundlagen für die Natur und damit auch für uns Menschen. Deshalb sollten die Binnengewässer und ihre Biodiversität neben terrestrischen und marinen Ökosystemen als gleich bedeutsamer, dritter ökologischer Bereich in politischen und gesellschaftlichen Rahmenwerken und Strategien etabliert werden.“
Bislang werden Flüsse, Seen und Feuchtgebiete in unterschiedlichen politischen Rahmen entweder dem Land zugerechnet – weil sie im terrestrischen Bereich eingebettet sind – oder den Meeren und Ozeanen – weil sie aquatisch sind. „Süßwasser-Ökosysteme dürfen nicht länger nur ein Nebenschauplatz sein, denn sie können ihre vielfältigen Funktionen als Lebensraum und Schlüsselressource für Mensch und Natur nur erfüllen, wenn sie konsequent geschützt, nachhaltig bewirtschaftet und ökologisch wieder verbessert werden“, fasst Jähnig zusammen.
Dies gelte jetzt ausdrücklich auch für den neuen Globalen Biodiversitätsrahmen bis 2030, der in den kommenden Tagen verhandelt wird. Dessen Ziele müssten so angepasst werden, dass bei der Wiederherstellung der Ökosysteme und bei der Ausweitung von Schutzgebieten spezifische Ziele für Binnengewässer festgehalten werden. Dies empfiehlt Sonja Jähnig auch gemeinsam mit 20 weiteren international renommierten Süßwasserexpert*innen in einem gestern veröffentlichten Science Brief des Netzwerks GEOBON und FWBON.
Kein Klimaschutz ohne Biodiversitätsschutz:
Auch bei Maßnahmen gegen den Klimawandel werden Binnengewässer zu oft vernachlässigt. Ihre Biodiversität ist von Klimaveränderungen besonders stark betroffen, beispielsweise weil sich Seen weltweit schneller erwärmen als die Atmosphäre und die Ozeane – oder sich das Abflussregime ganzer Flusssysteme verändert. Wird der Klimaschutz nicht mit anderen Naturschutzzielen in Einklang gebracht, kann die biologische Vielfalt zusätzlich in Gefahr geraten, wie IGB-Experte Dr. Martin Pusch erläutert: „Die Biodiversitätskrise in unseren Binnengewässern ist eng mit der Klimakrise verbunden, denn saisonale Dürrephasen mit niedrigen Durchflussmengen, gestiegene Schadstoffkonzentrationen und höheren Wassertemperaturen bedrohen das Leben unter der Wasseroberfläche in besonderem Maße“, sagt er.
„Gerade der als Anpassung an den Klimawandel vorangetriebene Ausbau der Wasserkraft birgt große Risiken für die aquatische biologische Vielfalt: Millionen Dämme und andere Querbauwerke begünstigen die Massenentwicklung von Algen in Flüssen und verhindern, dass Fische in Hitzeperioden kühle Refugien aufsuchen können. Dabei tragen Wasserkraftwerke weniger zur Mitigation des Klimawandels bei als erwartet, denn Stauseen emittieren vor allem in den Tropen und Subtropen selbst hohe Mengen von Treibhausgasen.“ Pusch empfiehlt deshalb: „Die Erhaltung der aquatischen Biodiversität muss Vorrang haben. Wir brauchen dringend mehr freifließende Flüsse und großräumige Renaturierungen statt zusätzliche ineffiziente Wasserkraftprojekte mit ihren hohen ökologischen und sozialen Kosten.“
Auch die kleinsten Lebewesen schützen:
Wenn schon große Seen und Flüsse aus dem Blick geraten, wie mag es dann wohl um die kleinsten Lebewesen stehen, die sie beherbergen? Millionen Arten winziger Mikroorganismen wie Pilze und Bakterien kommen in allen Gewässertypen vor – in kleinen Pfützen, großen Binnenseen, selbst in Eis und Schnee. Obwohl man die meisten von ihnen mit bloßem Auge nicht erkennt, machen sie in allen Ökosystemen den größten Teil der biologischen Vielfalt aus.
„Diese Mikroorganismen bilden die Basis eines jeden Nahrungsnetzes und tragen ganz wesentlich zu den Funktionen eines Ökosystems bei – nehmen wir z.B. die Pilze, die organisches Material remineralisieren und so Nährstoffe und andere Verbindungen im Produktionskreislauf halten. Gerade in größeren Gewässern sind sie ein wichtiger Faktor der sogenannten Kohlenstoffpumpe, da sie das Absinken von organischem Material bis in die Gewässertiefe und somit auch das Klima nachhaltig beeinflussen. Darüber hinaus helfen sie beim Abbau von Schadstoffen“, erläutert IGB-Mikrobiologe Prof. Dr. Hans-Peter Grossart.
Obwohl Mikroben für das Funktionieren von Ökosystemen und unsere Gesundheit von so entscheidender Bedeutung sind, sei nur wenig darüber bekannt, ob wir infolge des globalen Wandels Schlüsselarten verlieren werden und wie sich das auf das Funktionieren und damit die Gesundheit unserer natürlichen Umwelt auswirken könnte. „Wir gehen davon aus, dass die derzeitigen Umweltveränderungen zum Verlust von Schlüsselarten und damit von Ökosystemfunktionen führen können“, betont der IGB-Forscher und fügt hinzu: „Es ist deshalb dringend nötig, auch Pilz-Schlüsselarten in die Liste der zu schützenden Organismen aufzunehmen.“ Leicht dürfte das allerdings nicht werden, denn Pilze stellen in Gewässern noch eine der am wenigsten erforschten Organismengruppen dar.
Natürliche Systeme – gibt es die noch?
„Eine wirklich unberührte Natur existiert eigentlich fast nirgends mehr auf der Welt“, so lautet die Antwort von Dr. Tina Heger, die am IGB in der Arbeitsgruppe für Ökologische Neuartigkeit forscht. „In Deutschland haben wir keine Urwälder, in Europa kaum Flüsse, die unreguliert fließen und der durch den Menschen verursachte Klimawandel betrifft und verändert alle ökologischen Systeme.“
In einem aktuellen Interview plädiert die Biologin deshalb dafür, natürliche und vom Menschen beeinflusste Natur nicht als Gegensätze zu begreifen. Stattdessen könne es alle denkbaren Zustände zwischen diesen beiden Polen geben. „Ein Ökosystem, in das der Mensch eingreift, kann genauso biologisch vielfältig sein wie ein natürliches System, es kann mitunter sogar resilienter sein – das zeigen erfolgreiche Renaturierungen. Wir brauchen Begriffe, die helfen, solche Übergänge zwischen natürlichen und menschengemachten Zuständen in der Natur zu beschreiben“, sagt sie. Das sei am Ende auch eine ethische und philosophische Frage – und würde umso mehr die Verantwortung des Menschen für die uns umgebende Natur unterstreichen.
Weitere Informationen:
https://www.igb-berlin.de/news/binnengewaesser-der-biodiversitaetspolitik-mit-la…
Experteninterview: „Cyberangriffe haben sich als Geschäftsmodell etabliert“
Thomas Kirschmeier Pressestelle
FOM Hochschule
Unternehmen, Privatpersonen und kritische Infrastrukturen geraten immer wieder ins Visier von Hackern. „Angreifer gehen dabei immer professioneller vor“, sagt Prof. Dr.-Ing. Torsten Finke, der an der Entwicklung der neuen Cyber-Security-Studiengänge an der FOM Hochschule mitgewirkt hat. Mit dem FOM Experten für Wirtschaftsinformatik haben wir über die Methoden von Hackern, Schutzmaßnahmen und künftige Herausforderungen im Bereich der Cybersicherheit gesprochen.
Herr Prof. Finke, wie ist es um die Cybersicherheit in Deutschland bestellt?
Cybersicherheit ist keine nationale Frage und macht vor Landesgrenzen nicht Halt. Insofern ist die Lage in Deutschland mit der Situation in anderen Staaten vergleichbar. Die Tatsache, dass in Medien regelmäßig über Angriffe gegen die IT-Sicherheit berichtet wird, zeigt, dass wir es mit einem relevanten Problem zu tun haben. Tatsächlich können die Risiken und Folgen für einzelne Unternehmen erheblich sein. Nicht umsonst hat sich in der Versicherungswirtschaft das Produkt der Cyberversicherung etabliert. Nach Hackerangriffen auf Krankenhäuser ist auch eine Gefahr für Leib und Leben real. Um die Wahrscheinlichkeit eines Cyberangriffs beurteilen zu können, muss man jedoch die Motive und Methoden der potenziellen Angreifer kennen.
Wie gehen Hacker denn typischerweise bei Angriffen vor?
Zunächst muss man zwischen der Art der Angriffe unterscheiden: Während sich physische Angriffe gegen die IT-Infrastruktur richten, geht es beim Social Engineering darum, durch die geschickte Manipulation von Menschen an vertrauliche Informationen zu gelangen. Zudem gibt es klassische Hackerangriffe, die über Netzwerke, Datenträger oder Geräte erfolgen. Grundsätzlich gilt, dass Hacker immer professioneller vorgehen und sich ihre Methoden dynamisch weiterentwickeln. Inzwischen haben sich Cyberangriffe als Geschäftsmodell etabliert. Dies gilt primär für das Prinzip der Ransomware, das faktisch auf einem Erpressungsmodell basiert. Daneben verfügen auch terroristische Gruppen und staatliche Einrichtungen über umfangreiche Möglichkeiten, Cyberangriffe auszuführen. Tendenziell wächst in allen Richtungen das Ausmaß des potenziellen Schadens.
Wie können sich Unternehmen möglichst effektiv vor einem Hackerangriff schützen?
Der beste Schutz für Unternehmen besteht in aktuellem Fachwissen. Eine gute Aus- und Weiterbildung der eigenen Mitarbeitenden im Bereich Cybersicherheit kann da sehr hilfreich sein. Darüber hinaus ist Wachsamkeit wichtig: In einem Unternehmen existieren oft zahlreiche Angriffsziele, die identifiziert und geschützt werden müssen. Es ist daher sinnvoll, das eigene Unternehmen kontinuierlich aus der Perspektive potenzieller Angreifer zu beobachten. Grundsätzlich ist es auch ratsam, die eigenen Systeme aktuell zu halten und Mitarbeitende regelmäßig zu schulen. Es ist jedoch keine gute Idee, Mitarbeitende zu häufigen Wechseln von Passwörtern zu zwingen und diese dann so zu gestalten, dass man sie sich nicht merken kann. Die Passwörter stehen dann auf Zettelchen unter der Tastatur.
Welche Tipps haben Sie für Mitarbeitende sowie Verbraucherinnen und Verbraucher, um beruflich wie privat möglichst sicher unterwegs zu sein?
Vor allem sollte man ein paar wichtige Regeln beherzigen, zum Beispiel niemals Passwörter, PIN-Nummern oder ähnlich vertrauliche Daten weitergeben. Denn eine seriöse Person wird niemals danach fragen. Auch wenn eine E-Mail oder eine Webseite ein großartiges Angebot verspricht, ist stets Vorsicht geboten. Zudem ist zu viel Komfort der Feind der Sicherheit. Es ist zwar komfortabel, auf dem eigenen Computer mit möglichst vielen Rechten ausgestattet zu sein. Wird man aber Opfer eines Hackerangriffs, dann hat auch der Angreifer diese Rechte. Daher sollte man niemals als Administrator oder Hauptbenutzer im Web surfen oder E-Mails verschicken.
Was sind die größten Herausforderungen im Bereich Cybersicherheit in den kommenden Jahren?
Es wird wichtig sein, Abhängigkeiten von Produkten und Anbietern zu verringern. Aktuell finden die wesentlichen Entwicklungen in der IT nicht in Europa statt, was technologische und organisatorische Abhängigkeiten schafft. Wünschenswert wären klare und koordinierte europäische Digitalinitiativen. Zudem muss die Transparenz erhöht werden. Das mag auf den ersten Blick irritierend klingen, da sicher niemand gern seine Sicherheitsmaßnahmen offenlegt. Ein System ist allerdings erst dann sicher, wenn es auch bei der Offenlegung seines Aufbaus sicher ist. Außerdem muss auch unser Rechtssystem mit der Entwicklung der Digitalisierung standhalten. Viele Angriffe erfolgen stark arbeitsteilig und transnational. Damit sind sie rechtlich schwer zu verfolgen. Bleiben Angriffe aber ohne Rechtsfolgen, dann könnte dies von den Angreifern als Einladung verstanden werden.
Schon gewusst?
FOM Hochschule bietet Studiengänge zu Cybersicherheit an
Der Bedarf nach Expertinnen und Experten für Cyber Security steigt. Die FOM Hochschule reagiert darauf mit drei neuen Studiengängen, die ab dem Sommersemester 2023 im Digitalen Live-Studium angeboten werden. Interessierte können ab März ausbildungs- oder berufsbegleitend die Bachelor-Studiengänge „Cyber Security“ und „Cyber Security Management“ sowie den berufsbegleitenden Master-Studiengang „Cyber Security Management“ absolvieren. Das Studium findet in virtueller Präsenz statt. Dabei werden Live-Vorlesungen aus den multifunktionalen FOM Studios gesendet, die den Studierenden im Nachhinein auch als Aufzeichnung zur Verfügung stehen.
Wie toxisch sind Emissionen aus Flugzeugtriebwerken und Schiffsmotoren: Messkampagne an der Universität Rostock
Dr. Kirstin Werner Presse- und Kommunikationsstelle
Universität Rostock
Um die Risiken von Luftschadstoffen in Zukunft besser abzuschätzen, startet in dieser Woche an der Universität Rostock eine internationale Messkampagne. Bei den Untersuchungen der Gesundheitsgefährdung durch Feinstaubemissionen und Luftverschmutzung aus dem Verkehrssektor werden insbesondere die von ultrafeinen Partikeln aus Verkehrsemissionen ausgehenden Gefahren für die Gesundheit erforscht. Ziel der mehrmonatigen Messung mit internationalen Partnerinstitutionen ist es, Leitlinien für die Entwicklung von Maßnahmen zur Verbesserung der Luftqualität und der Gesundheit zu erstellen. Das Vorhaben wird von der EU mit über vier Millionen Euro gefördert.
In dem Vorhaben werden die von verschiedensten Verkehrsmitteln (Benzin-PKW, Diesel-PKW, Schiff, Flugzeug, Abrieb von Bremsen und Eisenbahnschienen etc.) direkt emittierten Verkehrsemissionen (sowohl Abgas- als auch Nicht-Abgasemissionen) und die ultrafeinen Partikel, die aus den Emissionen in der Atmosphäre durch photochemische Reaktionen im Sonnenlicht gebildet werden (so genannte sekundäre Partikel, PhotoSMOG), untersucht. Die nun an der Universität Rostock begonnene Messkampagne hat das Ziel, die Gesundheitsgefährdung durch Emissionen von Flugzeugturbinen und Schiffsmotoren im Detail zu bestimmen.
Die gemeinsamen Versuche des internationalen Projekt-Konsortiums mit dem Namen ULTRHAS (ULtrafine particles from TRansportation – Health Assessment of Sources) werden an möglichst realen Emissionsquellen durchgeführt. Im Verbundvorhaben arbeiten Forschende des Norwegischen Instituts für öffentliche Gesundheit (NIPH), der Universität Ostfinnland (UEF) und des Finnischen Instituts für Gesundheit und Wohlfahrt (THL), der Universität Fribourg (Schweiz), des Helmholtz Zentrum München, der Universität der Bundeswehr München sowie der Lehrstühle für Analytische Chemie und für Kolbenmaschinen und Verbrennungsmotoren der Universität Rostock zusammen. Neben den ULTRHAS-Partnern stoßen nun auch Forschende aus dem Weizmann Institut in Israel, der Universität Basel und dem Forschungszentrum Jülich zu den bisher einzigartigen Messungen in Rostock hinzu.
Auswirkungen frisch emittierter und gealterter Abgase auf die Lunge
Für die Rostocker Messkampagne kommen sowohl eine kerosinbetriebene Brennkammer eines Jet-Treibwerkes vom Institut für Aeronautical Engineering der Universität der Bundeswehr München als auch ein Schiffsmotorprüfstand des Lehrstuhls für Kolbenmaschinen und Verbrennungsmotoren der Universität Rostock zum Einsatz, in dessen Technikhalle die Rostocker Versuche auch durchgeführt werden. In einem speziellen Alterungsreaktor des finnischen Partners werden die Aerosole mit UV-Licht und Ozon atmosphärisch gealtert, um zu untersuchen, wie sich die Toxizität in der Umwelt mit der Zeit entwickelt. Dafür sind aus München ein mobiles biologisches Sicherheitslabor für toxikologische Untersuchungen sowie Messtechnik für die Aerosolchemie und -physik vor Ort. Zusätzliche, speziell entwickelte Messgeräte, wie beispielsweise ein neuartiges Einzelteilchenmassenspektrometer und hochauflösende Lasermassenspektrometer, erlauben ein vertieftes Verständnis der Zusammensetzung der Emissionen.
Die gleichzeitige Untersuchung der physikalisch-chemischen Eigenschaften und der atmosphärischen Alterungsprozesse der Emissionen sowie die Erforschung ihrer biologischen und toxikologischen Effekte auf Lungenzellkulturen ermöglichen es, die Eigenschaften der Emissionen mit ihren gesundheitsgefährdenden Effekten in Beziehung zu setzen. In einzigartigen Expositionssystemen werden die Lungenzellkulturen dafür direkt an der Luft-Flüssigkeits-Grenzfläche beobachtet, wodurch die Situation in der Lunge nachgestellt wird. Die Auswirkungen der frisch emittierten und gealterten Emissionen auf die Lungenmodelle werden mit Hilfe fortschrittlicher bioanalytischer Verfahren und Methoden der Bioinformatik untersucht. So können Vorhersagen darüber getroffen werden, wie physikalische und chemische Emissionsmerkmale der unterschiedlichen Verkehrsemissionen die biologischen Wirkungen beeinflussen und gesundheitliche Auswirkungen hervorrufen. Das Gesamtziel des Projekts besteht darin, die Risikobewertung von Luftschadstoffen aus dem Verkehr zu verbessern, die relative Toxizität der Emissionen unterschiedlicher Verkehrsarten zu bestimmen und politische Entscheidungsträger und Regulierungsbehörden über gezieltere Maßnahmen zur Eindämmung derjenigen Emissionskomponenten und -quellen zu beraten, die am stärksten zu nachteiligen Auswirkungen beitragen.
Erste Versuche, die das Konsortium bei dem finnischen Partner UEF durchgeführt hat, zeigten, dass die atmosphärische Alterung durch das Sonnenlicht die Toxizität selbst von Emissionen aus Automobilen, die mit neuester Abgasreinigungstechnologie (EURO 6) ausgestattet sind, deutlich erhöht. Dieses überraschende Ergebnis stellt die Sinnhaftigkeit bisheriger Grenzwertregelungen in Frage. Die Partner des Forschungsvorhabens ULTRHAS wollen nun beantworten, ob ähnliche Effekte auch für die als kritisch bekannten Schiffs- und Flugzeugemissionen beobachtet werden können.
Das Projekt wird von der Europäischen Union im Rahmen des Forschungs- und Innovationsprogramms Horizont 2020 mit der Finanzhilfevereinbarung Nr. 955390 finanziert.
Wissenschaftliche Ansprechpartner:
Kontakt:
Prof. Dr. Ralf Zimmermann
Universität Rostock
Institut für Chemie
Tel.: +49 381498 6460
E-Mail: ralf.zimmermann@uni-rostock.de
Prof. Dr. Bert Buchholz
Universität Rostock
Lehrstuhl für Kolbenmaschinen und Verbrennungsmotoren
Tel.: +49 381 498-9150
E-Mail: bert.buchholz@uni-rostock.de
Weitere Informationen:
http://Weitere Links:
http://Cordis https://cordis.europa.eu/project/id/955390
http://ULTRHAS website https://www.fhi.no/en/studies/ultrhas/
Desinfektionsmittel in hessischen Böden
Lisa Dittrich Presse, Kommunikation und Marketing
Justus-Liebig-Universität Gießen
Forscherteam weist Wirkstoffe in 97 Prozent der Proben nach
In Pandemiezeiten waren und sind sie unentbehrlich und allgegenwärtig: Desinfektionsmittel. Doch wie wirkt sich der massenhafte Gebrauch auf unsere Umwelt aus? Dieser Frage ist nun ein gemeinsames Forscherteam der Justus-Liebig-Universität (JLU) Gießen und des Hessischen Landesamtes für Natur-schutz, Umwelt und Geologie (HLNUG) auf den Grund gegangen: In einer breit angeleg-ten Studie untersuchten sie das Vorkommen wichtiger Wirkstoffe von Desinfektionsmit-teln und Tensiden, den Quartären Alkylammoniumverbindungen (kurz QAAV), in hessi-schen Böden. Das Ergebnis: In 97 % der 65 untersuchten Bodenproben konnten QAAV nachgewiesen werden. Dabei zeigte sich, dass sowohl Acker-, als auch Grünland-, Wald- und Weinbaustandorte mit dem Fremdstoff belastet waren. Die Gehalte der Des-infektionsmittel überschritten teilweise Werte von 1 mg kg-1 – und liegen damit zwei bis drei Größenordnungen oberhalb von Gehalten, wie sie für Arzneimittel und Antibiotika in Böden nachgewiesen wurden.
Problematisch an QAAV und ihrem Vorkommen in der Umwelt ist, dass sie Antibiotika-resistenzen verursachen können. Eine Verbreitung dieser Desinfektionsmittelgruppe in Böden ist deshalb kritisch zu sehen und könnte – wie der missbräuchliche Einsatz von Antibiotika – das Problem der Antibiotikaresistenzen zusätzlich verschärfen. Aktuelle Vorhersagen gehen davon aus, dass bereits im Jahr 2050 jährlich 10 Millionen Men-schen weltweit durch antibiotikaresistente Keime sterben werden.
Da die Stoffgruppe der QAAV analytisch nur schwer zugänglich ist, steht die Forschung zu deren Verbreitung und Effekten in Böden noch ganz am Anfang. In einer an der JLU betreuten Doktorarbeit konnte gezeigt werden, dass vor allem Böden, die regelmäßig durch Hochwasser der Flüsse Rhein und Main überschwemmt werden, stark mit QAAV kontaminiert sind. Überraschend war hierbei, dass QAAV selbst in Waldböden nachge-wiesen werden konnten, obwohl ein unmittelbarer Eintrag durch Überschwemmungen oder beispielsweise über Gülle-, Klärschlamm- oder Pestizidausbringung wie auf land-wirtschaftlichen Flächen in Wäldern allgemein nicht gegeben ist. Die Untersuchungs-standorte liegen unter anderem in den Landkreisen Marburg-Biedenkopf, Gießen, der Wetterau, dem Vogelsberg, Kassel und dem Raum Frankfurt. Die Mehrheit der Boden-proben wurde durch das HLNUG zur Verfügung gestellt und ist Teil des umfangreichen Probenarchivs der hessischen Bodendauerbeobachtung. Finanziert wurde das Projekt durch die Deutsche Forschungsgemeinschaft.
Ob und in welcher Weise die teils sehr hohen QAAV-Gehalte in hessischen Böden zu Resistenzen in Mikroorganismen und Pathogenen beitragen, ist noch nicht bekannt. Alle Ergebnisse sind im Fachmagazin „Science of the Total Environment“ publiziert und kön-nen unter https://doi.org/10.1016/j.scitotenv.2022.159228 eingesehen werden (dort auch eine Karte von Hessen mit alle beprobten Standorten und gemessenen Gehalten).
Wissenschaftliche Ansprechpartner:
Kontakt JLU Gießen:
Dr. Ines Mulder
Institut für Bodenkunde und Bodenerhaltung
E-Mail: Mulder.ines@umwelt.uni-giessen.de
Kontakt HLNUG:
Dr. Christian Heller
Dezernat G3, Boden und Altlasten
Vorsorgender Bodenschutz
E-Mail: christian.heller@hlnug.hessen.de
Originalpublikation:
Kai Jansen, Christian Mohr, Katrin Lügger, Christian Heller, Jan Siemens, Ines Mulder:
Widespread occurrence of quaternary alkylammonium disinfectants in soils of Hesse, Germany, Science of The Total Environment, Volume 857, Part 1, 2023
https://doi.org/10.1016/j.scitotenv.2022.159228
Weitere Informationen:
https://www.hlnug.de/themen/boden/erhebung/boden-dauerbeobachtung
https://www.hlnug.de/themen/boden
Alzheimer: Therapie muss frühzeitig beginnen
Dr. Mareike Kardinal Pressestelle
Hertie-Institut für klinische Hirnforschung (HIH)
Eiweißablagerungen im Gehirn sind Ursache und Ansatzpunkt für Therapien – in späteren Stadien scheint sich jedoch die Krankheitsentwicklung von ihnen abzukoppeln, so Tübinger Forschende
Hauptursache für die Entstehung der Alzheimerkrankheit scheint die Ablagerung eines bestimmen Eiweißes, des Beta-Amyloid-Proteins, im Gehirn zu sein – so der aktuelle Stand der Alzheimerforschung. Die Bildung dieser sogenannten Plaques beginnt mindestens zwanzig Jahre vor den ersten Krankheitssymptomen. Bislang fand man bei Erkrankten jedoch nur einen schwachen Zusammenhang zwischen der Menge der Ablagerungen und den klinischen Symptomen. Grund dafür könnte sein, dass sich die Krankheit in fortschreitenden Stadien unabhängig von den Plaques weiterentwickelt. Das legt eine aktuelle Studie von Forschenden um Professor Dr. Mathias Jucker vom Hertie-Institut für klinische Hirnforschung, der Universität Tübingen und dem Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) nahe. Eine Therapie müsse daher so frühzeitig wie möglich begonnen werden, so Jucker. Die Ergebnisse sind in der aktuellen Ausgabe der renommierten Zeitschrift „Nature Communications“ erschienen.
„Es gibt überzeugende Beweise dafür, dass die Beta-Amyloid-Plaques die wichtigste Ursache der Alzheimererkrankung sind“, sagt Neurobiologe und Studienleiter Jucker. „Es existiert jedoch nur eine schwache Korrelation zwischen ihnen und den klinischen Symptomen.“ So sei die Verzögerung von zwanzig Jahren zwischen dem Entstehen der ersten Plaques und dem Auftreten der Krankheitssymptome sehr lang. Auch führe die Reduzierung schädigender Eiweißablagerungen im Gehirn von Probanden im Rahmen von klinischen Studien zu einer nur kleinen Verbesserung von deren Hirnleistungen. „All diese Befunde haben nahegelegt, dass die Alzheimer-Krankheitskaskade in späteren Stadien von den Proteinablagerungen unabhängig werden könnte.“
Das Tübinger Forschungsteam liefert nun erstmals experimentelle Belege für die Entkopplung der Ablagerungen von der nachgeschalteten Neurodegeneration. In ihrer Studie untersuchte es Mäuse, die als Alzheimermodell dienen. Bei ihnen lagern sich – wie bei Alzheimererkrankten – mit fortschreitendem Lebensalter Beta-Amyloid-Eiweiße im Gehirn ab.
Die Wissenschaftlerinnen und Wissenschaftler reduzierten nun bei den Mäusen in unterschiedlichen Altersstadien gezielt die Plaques. Dann maßen sie ein weiteres Protein im Hirnwasser der Mäuse, das sogenannte Neurofilament-Leichtketten-Protein (NfL). Das NfL-Protein ist im Hirnwasser von Alzheimererkrankten erhöht; es gilt als Anzeiger für den Abbau von Nervenzellen.
Das Ergebnis: „Wenn wir die Beta-Amyloid-Ablagerung in frühen Stadien reduzierten, stieg die Menge an NfL-Protein im Hirnwasser nicht mehr an. Wir konnten den Abbau der Nervenzellen stoppen“, so Christine Rother, Erstautorin der Studie. Ein anderes Bild ergab sich im höheren Lebensalter: „Wenn wir die Bildung der Beta-Amyloid-Plaques in späteren Stadien reduzierten, stieg der Pegel des NfL-Proteins im Hirnwasser unverändert an. Es starben also weiterhin Nervenzellen. Die Neurodegeneration hatte sich von den Ablagerungen entkoppelt“, ergänzt Ruth Uhlmann, Co-Erstautorin der Arbeit.
„Es scheint bei Alzheimer also zwei Phasen der Krankheitsentwicklung zu geben“, schlussfolgert Jucker. In der ersten Phase trieben die Beta-Amyloid-Plaques die Krankheit voran. Zu diesem Zeitpunkt seien Therapien, die den Ablagerungen entgegenwirken, höchst effektiv. In der zweiten Phase schreite hingegen die Neurodegeneration unabhängig von den Plaques fort. Gegen die Beta-Amyloid-Plaques gerichtete Therapien verfehlen nun weitgehend ihre Wirkung.
Doch wo liegt der Wendepunkt zwischen beiden Phasen? Um Antwort zu bekommen, analysierte das Forschungsteam die zeitliche Abfolge der Bildung der Beta-Amyloid-Plaques und dem Anstieg des NfL-Proteins im Hirnwasser von präsymptomatischen Probanden und Mäusen. Das Team stellte fest, dass beide Werte anfangs ähnlich anstiegen. „Zu einem bestimmten Zeitpunkt schoss die Menge des NfL-Proteins exponentiell in die Höhe“, berichtet Jucker. „Die Menge der Beta-Amyloid-Plaques stieg jedoch nicht in vergleichbarem Maße an.“
Diese Entkoppelung des Anstiegs des NfL-Proteins von der Bildung der Beta-Amyloid–Plaques sei zu einem Zeitpunkt geschehen, als sich rund die Hälfte der späteren Höchstmenge an Plaques gebildet hatte. „Das ist bei Patientinnen und Patienten etwa zehn Jahre nach den ersten Ablagerungen und zehn Jahre vor Auftreten der ersten Symptome der Fall“, so Jucker. „Der Zeitraum, in dem die gegen Beta-Amyloid-Plaques gerichtete Therapien am wirksamsten sind, scheint damit früher zu liegen als der, der in den bisherigen klinischen Studien angestrebt wurde. Künftige Alzheimertherapien, die gegen Beta-Amyloid-Plaques gerichtet sind, sollten daher unbedingt frühzeitiger ansetzen.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Mathias Jucker
Hertie-Institut für klinische Hirnforschung
Universität Tübingen
Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE)
Telefon +49 7071 29-86863
mathias.jucker@uni-tuebingen.de
Originalpublikation:
Rother et al. (2022): Experimental evidence for temporal uncoupling of brain Aβ deposition and neurodegenerative sequelae. Nature Communications, 13, 7333 (2022)
https://doi.org/10.1038/s41467-022-34538-5
Weitere Informationen:
http://www.hih-tuebingen.de Hertie-Institut für klinische Hirnforschung
https://uni-tuebingen.de Eberhard Karls Universität Tübingen
https://www.dzne.de Deutsches Zentrum für Neurodegenerative Erkrankungen (DZNE)
Künstliche Intelligenz: Servicezentrum für sensible und kritische Infrastrukturen
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Die gestiegenen Ansprüche der Forschung im Bereich der Künstlichen Intelligenz, immer leistungsfähiger werdende Hardware und die steigende Verfügbarkeit von Daten und Algorithmen haben zu enormen Fortschritten im Rahmen der KI geführt. Um diesen Prozess für kritische Infrastrukturen, insbesondere in den Bereichen Energie und Medizin, weiter zu fokussieren und künftig als kompetenter Ansprechpartner zu fungieren, erforschen fünf Einrichtungen, wie ein KI-Servicezentrum aufgebaut werden kann. Das Verbundprojekt „KI-Servicezentrum für sensible und kritische Infrastrukturen“ unter Leitung der Universität Göttingen wird vom Bundesforschungsministerium für 3 Jahre mit 17 Millionen Euro gefördert.
Die Projektpartner sind die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG), die Universität Hannover, das aQua – Institut für angewandte Qualitätsförderung und Forschung im Gesundheitswesen GmbH in Göttingen und das Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik in Kassel. Das Ziel ist der Aufbau eines Servicezentrums für Künstliche Intelligenz, welches verschiedene nutzerzentrierte Serviceleistungen anbieten und unterstützende Forschung betreiben wird.
Die Forschungsschwerpunkte liegen auf den Fachgebieten Medizin und Energie, weil diese als kritische Infrastrukturen spezielle Anforderungen für einen sicheren Umgang mit sensiblen Daten haben. In dem Verbundprojekt sind zudem Pilotprojekte geplant, die zum Beispiel mit kleinen und mittleren Unternehmen sowie Start-ups durchgeführt werden, um die entwickelten Services zu erproben und zu validieren.
Das Verbundprojekt wird von Prof. Dr. Julian Kunkel vom Institut für Informatik der Universität Göttingen koordiniert. Er ist zugleich Stellvertretender Leiter der GWDG für den Bereich High-Performance Computing. „Ich freue mich sehr, dass wir mit KISSKI einen Beitrag leisten werden, die Herausforderungen in der KI zu bewältigen“, sagt er. „Ich bin davon überzeugt, dass das offene Serviceangebot des Projekts als Sprungbrett zu weiteren erfolgreichen Projekten für uns und unsere Partner führen wird.“
Das Fraunhofer IEE erarbeitet ein vielschichtiges Serviceangebot von der Nutzung moderner Recheninfrastruktur bis hin zur Entwicklung und Bereitstellung passender Modelle und Daten für den Einsatz in der Energiewirtschaft, was modern als „KI-as-a-Service“ für die Energiebranche bezeichnet werden könnte.
„Für uns steht die Nutzung von Methoden der KI im Bereich der erneuerbaren Energien und der zukünftigen Energiesysteme im Mittelpunkt“, sagt Dr. Jan Dobschinski, stellvertretender Leiter Energiewirtschaftliche Prozessintegration, zur Rolle des Fraunhofer IEE im Verbundprojekt. „Die Schwerpunkte im Bereich Energie liegen primär auf datengetriebenen Anwendungen zum Monitoring und der Optimierung des Betriebs von Energienetzen und daran angeschlossen Erzeugungs- und Verbrauchsanlagen. Ergänzend dazu werden Verfahren zur intelligenten Teilhabe an Energiemärkten und Mechanismen zur Bereitstellung von Systemdienstleistungen für den Betrieb des Stromnetzes auf Basis von KI-Methoden betrachtet. Mit Fokus auf diesen Anwendungen stehen skalierbare zeitkritische KI-Modelle, ein effizientes und sicheres Datenmanagement sowie Entwicklungen von KI-Services für die thematisch breit aufgestellte Energiewirtschaft im Fokus.“
Die Arbeiten im Verbundprojekt KISSKI verstetigen das seit 2020 am Institut aufgebaute Kompetenzzentrum Kognitive Energiesysteme (K-ES), welches sich mit kognitiven Methoden für die Energiesystemtechnik, die Energiewirtschaft sowie die Energienetze beschäftigt. „In den nächsten zehn Jahren soll sich daraus ein internationaler Schwerpunkt für Künstliche Intelligenz in Forschung und Anwendung entwickeln“, betont André Baier, Co-Leiter des Kompetenzzentrums.
Das Fraunhofer IEE bietet seit mehr als 20 Jahren KI-basierte Produkte und Dienstleistungen für Unternehmen der Energiewirtschaft an. Dr. Axel Braun, Leiter des Geschäftsfeldes Energiemeteorologische Informationssysteme, sieht im Vorhaben KISSKI ein enormes Potenzial, um gemeinsam mit Anwendern aus der Energiewirtschaft innovative KI-Produkte in die Energiewirtschaft zu bringen: „Die in KISSKI aufzubauenden Beratungs- und Entwicklungsangebote stellen einen optimalen Nährboden dar, um KI-Forschung und Anwendung in der Energiewirtschaft gezielt zu verzahnen. Das Interesse an KI-Services in der Energiewirtschaft ist bereits jetzt enorm“.
Hintergrund
Das Fraunhofer IEE in Kassel forscht in den beiden Forschungsschwerpunkten Energieinformatik sowie Energiemeteorologie und Geoinformationssysteme seit mehr als 20 Jahren zur Anwendung von KI-Verfahren in der Energiewirtschaft. Hervorzuheben sind hierbei Systeme zur Prognose der Stromerzeugung aus erneuerbaren Energien, des Stromverbrauchs sowie der resultierenden Leistungsflüsse im Stromnetz, die mit den deutschen Stromübertragungsnetzbetreibern gemeinsam entwickelt wurden. Zudem leitet das Fraunhofer IEE seit 2020 das Kompetenzzentrum Kognitive Energiesysteme (K-ES), welches sich mit kognitiven Prozessen für die Energiesystemtechnik, die Energiewirtschaft sowie die Energienetze beschäftigt.
Wissenschaftliche Ansprechpartner:
Dr. Jan Dobschinski, Abteilungsleiter Energiemeteorologie und Geoinformationssysteme, stellvertretender Bereichsleiter Energiewirtschaftliche Prozessintegration
E-Mail: jan.dobschinski@iee.fraunhofer.de
Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2022/ki_serviceze…
Klimaarchive unter dem Vergrößerungsglas
Jana Nitsch Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
MARUM-Studie in Nature: Neue Analysemethode zeigt abrupte Zunahme der Saisonalität während des letzten globalen Klimawandels
Wie verändert sich das Wetter als Folge der globalen Erwärmung? Klimaarchive liefern wertvolle Einblicke in vergangene Klimaveränderungen, also in die Prozesse, die unseren Planeten von einem Klimazustand in den nächsten beförderten. Für Menschen und Ökosysteme ist die Variabilität in Zeiträumen von Wochen bis Jahren – das Wetter – aber oftmals entscheidend. Mittels einer am MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen neu entwickelten und erprobten Analysemethode wurden nun diese beiden Aspekte zusammengeführt und die Auswirkungen der letzten globalen Erwärmung auf saisonale Temperaturschwankungen beschrieben. Das Fachjournal Nature hat die Ergebnisse jetzt veröffentlicht.
In marinen Sedimenten sammeln sich fossile Überreste von Algen an, mittels derer vergangene Zustände des Ozeans rekonstruiert werden können. Von großer Bedeutung sind dabei molekulare Fossilien, so genannte Lipid-Biomarker: Zellbausteine von Algen, die einst den Ozean bevölkerten. Sterben diese Algen, sinken sie zum Ozeanboden und bewahren in ihren Lipiden Informationen über die durchlebten Bedingungen. Die Analyse solcher Klimaarchive hat seit Jahrzehnten fundamentale Informationen zum Verständnis vergangener Klimaveränderungen geliefert.
Werkzeug für verborgene Details
In ausgewählten Lokationen, zum Beispiel dem Cariacobecken vor der Küste Venezuelas, entstehen ganz besondere, laminierte Archive. „Das Besondere am Cariacobecken ist, dass die Ablagerungen seit tausenden Jahren schön ordentlich nach Jahreszeiten sortiert sind, jeweils eine dünne Lage für den Sommer und eine für den Winter. Es liegt dort also ein Archiv vor, mit ganz grundlegenden Informationen über vergangene, kurzfristige Klimaschwankungen in den Tropen, das aber bisher nicht gelesen werden konnte“, sagt Erstautor Dr. Lars Wörmer vom MARUM. Er und seine Kolleg:innen vergleichen das mit dem Kleingedruckten, für dessen Lektüre spezielle Lesehilfen notwendig sind. Solche eine Lesehilfe ist ein Laser, der gekoppelt mit einem Massenspektrometer die Verteilung von Lipid-Biomarkern in jeder dieser Millimeter breiten Lagen ermöglicht.
Prof. Kai-Uwe Hinrichs, in dessen Arbeitsgruppe die Methode entwickelt wurde, bezeichnet sie als „Werkzeug, um bisher verborgene Details in Klimaarchiven zu entschlüsseln“. In einem vom Europäischen Forschungsrat ERC geförderten Projekt haben Hinrichs und seine Kolleg:innen ein molekulares, bildgebendes Verfahren entwickelt, um Klima- und Umweltprozesse der jüngeren Erdgeschichte zeitlich hoch aufgelöst – das heißt nahezu in Monatsschritten – abzubilden. Mit anderen Analysemethoden werden verlässlich Intervalle von hunderten oder tausenden Jahren abgebildet – bei einer Erdgeschichte von über vier Milliarden Jahren gilt das bereits als sehr detailreich.
Globale Veränderungen wirken sich auf lokale Temperaturen aus
Im nun untersuchten Zeitintervall liegt die letzte erdgeschichtliche Periode mit drastischer – und nicht menschengemachter – Erwärmung. „Das ist die Parallele zu heute“, betont Lars Wörmer. „Die Erwärmung vor 11.700 Jahren hat die Menschheit ins Holozän gebracht, unserem aktuellen Zeitalter. Jede weitere Erwärmung bringt uns vom Holozän ins so genannte Anthropozän, das von einer durch den Menschen verursachten Klimaerwärmung und Umweltveränderung geprägt ist.“ Das Team um Kai-Uwe Hinrichs und Lars Wörmer konnte nun zeigen, dass sich während dieses Intervalls der Unterschied zwischen Sommer- und Wintertemperaturen im tropischen Ozean verdoppelt hat. Somit ist belegt, wie sich globale Klimaveränderungen auf lokale, saisonale Temperaturschwankungen auswirken.
Bereits im September ist eine MARUM-Studie in Nature Geosciences erschienen, die ebenfalls auf der neu etablierten Methode basiert. Hier wurden Daten erstellt, die die Meeresoberflächentemperatur mit einer Auflösung von einem bis vier Jahren zeigen. Dafür hat Erstautor Dr. Igor Obreht mit seinen Kolleg:innen einen Sedimentkern aus dem östlichen Mittelmeer untersucht, in dem die Temperatur aus dem letzten Interglazial (vor etwa 129.000 bis 116.000 Jahren) aufgezeichnet ist. Die Studie von Obreht und seinen Kolleg:innen nimmt also eine Zeit in den Fokus, die als letzte wärmer war als die heutige war.
Szenarien für eine solch wärmere Welt werden am MARUM innerhalb des hier angesiedelten Exzellenzclusters „Ozeanboden – unerforschte Schnittstelle der Erde“ entwickelt. Das im Rahmen des oben genannten ERC-Projekts etablierte GeoBiomolecular Imaging Lab gehört inzwischen zur Infrastruktur für die Erforschung der Kernthemen im Exzellenzcluster.
Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.
Wissenschaftliche Ansprechpartner:
Dr. Lars Wörmer
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Organische Geochemie
Telefon: 0421 218-65710
E-Mail: lwoermer@marum.de
Originalpublikation:
Lars Wörmer, Jenny Wendt, Brenna Boehman, Gerald Haug, Kai-Uwe Hinrichs: Deglacial increase of seasonal temperature variability in the tropical ocean. Nature 2022. DOI: 10.1038/s41586-022-05350-4
Weitere Informationen:
https://www.marum.de/Entdecken/Lipid-Biomarker.html
Alters- und Lungenmediziner: Alle über 60-Jährigen und Risikogruppen sollten sich jetzt gegen Grippe impfen lassen
Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Jetzt ist die beste Zeit für ältere Menschen, um sich gegen Grippe impfen zu lassen! Die Deutsche Gesellschaft für Geriatrie (DGG) und die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) bestärken deshalb noch einmal die Empfehlung der Ständigen Impfkommission STIKO: Jeder Mensch über 60 Jahre sollte sich unbedingt neben einer vierten Corona-Impfung gegen das Influenza-Virus schützen. 90 Prozent der Grippe bedingten Todesfälle entfallen auf diese Altersgruppe.
„Bei Ungeimpften beobachten wir insbesondere im ersten Monat nach der Influenza-Infektion häufiger Herzinfarkte oder Schlaganfälle. Als Spätfolge kann nach mehr als zehn Jahren ein Morbus Parkinson auftreten“, warnt Dr. Andreas Leischker, Vertreter der DGG-Arbeitsgruppe Impfen. „Bei einer Influenza-Infektion kann sich im Verlauf der Erkrankung zusätzlich eine durch Pneumokokken-Bakterien verursachte Pneumonie, also Lungenentzündung, entwickeln, die zu besonders schweren Verläufen führt. Dieses Risiko, welches insbesondere ältere Patientinnen und Patienten betrifft, gilt es zu verhindern“, ergänzt Professorin Hortense Slevogt, Immunologin und Vorstandsmitglied der DGP. Sie ruft dazu auf, dass sich alle Risikogruppen vorsorglich impfen lassen sollten.
Die Influenzaimpfung schütze nicht nur vor einer akuten Grippeerkrankung, sondern könne auch das Risiko für Herzinfarkte signifikant senken und die Gesamtsterblichkeit um 40 Prozent reduzieren, sagen die beiden Experten. Bei Patientinnen und Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) tritt zudem deutlich seltener eine Demenz auf, wenn sie jährlich gegen Influenza geimpft werden. Derzeit lassen sich in Deutschland aber nur rund 47 Prozent aller Menschen gegen Influenza impfen. Dabei besteht weiter das erhöhte Risiko einer Ansteckung: Laut Robert Koch-Institut (RKI) steigt die Zahl der Arztbesuche wegen Atemwegserkrankungen weiter an. In 69 Prozent der zuletzt vom RKI untersuchten Stichproben wurden respiratorische Viren identifiziert. Darunter überwiegend Influenzaviren, aber ebenso Respiratorische Synzytial-Viren (RSV), Rhinoviren, Parainfluenzaviren, humane saisonale Coronaviren, SARS-CoV-2-Viren und humane Metapneumoviren.
Ausreichender Schutz: Hochdosierter Impfstoff enthält viermal mehr Wirkstoff
„Neben der vierten Corona-Impfung sollten älteren Menschen für den wirksameren Schutz unbedingt den hochdosierten Influenzaimpfstoff verabreicht bekommen – er enthält viermal so viel Wirkstoff wie der konventionelle Influenzaimpfstoff, der eher für jüngere Menschen mit umfassender Immunabwehr ausreichend ist“, sagt Andreas Leischker, Lehrbeauftragter der Philipps-Universität Marburg. Er folgt damit auch dem Rat der Ständigen Impfkommission am Robert Koch-Institut. Die Kommission empfiehlt die Grippeimpfung grundsätzlich zudem für chronisch Kranke, Bewohner von Alten- und Pflegeheimen, Menschen mit einem erhöhten beruflichen Risiko wie bei medizinischem Personal und Menschen, die alte Angehörige oder Bekannte pflegen.
Grippewelle vorbeugen: So bald wie möglich impfen lassen
Vor der Corona-Pandemie begann die jährliche Grippewelle meist im Januar und dauerte drei bis vier Monate. „Durch die Maskenpflicht und Kontaktbeschränkungen ist die Grippewelle zwei Jahre lang praktisch ausgefallen. Die Menschen hatten dadurch längere Zeit keinen Kontakt zu Influenza-Viren, eine Herdenimmunität besteht nicht mehr. Die Verbreitung verläuft in diesem Jahr früher, schneller und heftiger als in den Vorjahren“, sagt Hortense Slevogt, Oberärztin an der Medizinischen Hochschule Hannover. Seit Anfang Oktober haben sich die wöchentlichen Neuansteckungen mit Influenza mehr als verdoppelt. Das RKI hat deshalb rückwirkend den Start der Grippewelle für die vorletzte Oktoberwoche datiert. „Wir empfehlen daher dringend allen Über-60-Jährigen, sich so bald wie möglich impfen zu lassen. Dies schützt nicht nur vor der stark grassierenden Influenza, sondern beugt auch bakteriellen Lungenentzündungen vor, von denen sich gerade ältere Menschen in der Regel nur sehr langsam erholen können. Es ist genügend Impfstoff da“, sagt Hortense Slevogt.
FLEXITILITY: Wasserinfrastruktur klimaresilient gestalten
Helke Wendt-Schwarzburg Wissenschaftskommunikation und Öffentlichkeitsarbeit
inter 3 Institut für Ressourcenmanagement
Trockenheit, Hitze, Starkregen: Die Auswirkungen des Klimawandels erfordern den Umbau der Wasser- und Abwasserinfrastruktur hin zu klimaresilienten Systemen. Neben der kostenintensiven Anpassung der gebauten Infrastruktur stellt die Flexibilisierung des Infrastruktur- und Ressourceneinsatzes eine mögliche Strategie dar. Um erfolgversprechende Maßnahmen wie die Wasserwiederverwendung und Zwischenspeicher für Trinkwasser zu erproben, ist im Oktober die Umsetzungsphase des BMBF-Forschungsprojekts „FLEXITILITY“ gestartet. Die Pilotversuche in Brandenburg werden unter Leitung von inter 3 gemeinsam mit Praxis- und Wissenschaftspartnern durchgeführt.
Nach der erfolgreich abgeschlossenen F+E-Phase von FLEXITILITY werden nun im Versorgungsgebiet des Herzberger Wasser- und Abwasser-Zweckverbands (HWAZ) in Südbrandenburg Möglichkeiten der Wasserwiederverwendung zur landwirtschaftlichen Bewässerung und der dezentralen Trinkwasser-Zwischenspeicherung ausprobiert.
„Zum Ende des Projekts in 2024 wollen wir Kommunen und Versorgungsbetrieben konkrete Empfehlungen an die Hand geben, wie sie auf diese Weise ihre Infrastrukturen flexibilisieren können,“ beschreibt Dr. Shahrooz Mohajeri, Projektleiter bei inter 3, die Aufgabe. Übergeordnetes Ziel ist es, einen Beitrag zur klimaresilienten Gestaltung der Daseinsvorsorge zu leisten.
Betriebskonzepte für Wasserwiederverwendung und Trinkwasser-Zwischenspeicher
Für die Erprobung der Wasserwiederverwendung wird das gereinigte Wasser der Kläranlage Uebigau entsprechend EU-Verordnung 2020/741 desinfiziert und zur Bewässerung von Tierfutter- und Energiepflanzen verwendet. Eine landwirtschaftliche Fläche von insgesamt 12 Hektar wird teils voll, teils defizitär und teils gar nicht bewässert. Zur Einschätzung von Risiken für Menschen, Tiere und Umwelt werden alle relevanten Parameter im Bewässerungswasser, im Boden, auf den Pflanzen, im Grundwasser sowie auf dem bewässerten Grünland gemessen und analysiert. Dazu wird in enger Zusammenarbeit mit den relevanten Interessengruppen ein Risikomanagementplan aufgestellt.
Mit dem Ziel, Lastspitzen im Trinkwassernetz abzufedern, werden ausgewählte Kunden mit Zwischenspeichern für Trinkwasser ausgestattet. Der im Tagesgang schwankende Trinkwasserbedarf in den angeschlossenen Gebäuden wird aus den Speichern gedeckt, diese jedoch nur mit einem geringen, dafür kontinuierlichen Volumenstrom befüllt. In Testreihen werden betriebliche Anforderungen, Kosten und Nutzen ermittelt. Die hygienische und die technische Sicherheit des Speicherbetriebs werden durch ein intensives begleitendes Monitoring gewährleistet. Zudem wird die Wirksamkeit der Speicher im Kontext von Extremwetter-Folgen für den Betrieb des gesamten Trinkwassernetzes hochskaliert und modelliert.
Weiterhin startet ein in der F+E-Phase entwickeltes Modell zur Bewertung kommunaler Klimaresilienz in die praktische Anwendung.
Das Forschungsprojekt „FLEXITILITY“: praxisnah und regional verankert
Das Projekt startete 2017 mit einer Definitionsphase in der Region Anhalt und Südbrandenburg, in der Flexibilisierungsansätze und deren Potenzial auf Produzenten- und Kundenseite identifiziert wurden. In der anschließenden F+E-Phase wurden erfolgversprechende Lösungen in verschiedenen Reallaboren und Modellierungen praktisch untersucht. Neben technischen Optionen wurde vor allem auch erforscht, wie ein flexiblerer Verbrauch auf Kundenseite vonstattengehen könnte.
Das Forschungsprojekt „FLEXITILITY: Flexible Utility – Mit sozio-technischer Flexibilisierung zu mehr Klimaresilienz und Effizienz in der städtischen Infrastruktur“ wird bis September 2024 vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Leitinitiative Zukunftsstadt gefördert. Weitere Partner im Forschungsverbund der Umsetzungsphase sind neben inter 3 die Brandenburgisch-Technische Universität Cottbus-Senftenberg, das DVGW-Technologiezentrum Wasser (TZW), das Umweltbundesamt, die Stadt Herzberg (Elster), der Herzberger Wasser- und Abwasserzweckverband (HWAZ) sowie die Agrargenossenschaft Gräfendorf eG.
Wissenschaftliche Ansprechpartner:
Dr. Shahrooz Mohajeri
inter 3 Institut für Ressourcenmanagement
+49(0)30 34 34 74 40
mohajeri@inter3.de
Weitere Informationen:
http://www.inter3.de/forschungsfelder/projekte/details/flexible-utilities-umsetz… Projektbeschreibung auf der Webseite von inter 3
http://www.flexitility.de Webseite des Projekts
Anhang
inter 3-PM_FLEXITILIY_Start der Umsetzungsphase
Grundwasserspeicher vielversprechend für Wärme- und Kälteversorgung
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Thermische Aquiferspeicher können wesentlich zum klimafreundlichen Heizen und Kühlen von Gebäuden beitragen: Erwärmtes Wasser wird unter der Erde gespeichert und bei Bedarf heraufgepumpt. Forschende des Karlsruher Instituts für Technologie (KIT) haben nun ermittelt, dass Deutschland ein beträchtliches Potenzial für Niedertemperatur-Aquiferspeicher aufweist und dieses Potenzial aufgrund des Klimawandels in Zukunft voraussichtlich wachsen wird. Zu der Studie gehört die bis jetzt detaillierteste Karte der Aquiferspeichermöglichkeiten in Deutschland. Über ihre Ergebnisse berichten die Forschenden in der Zeitschrift Geothermal Energy. (DOI: 10.1186/s40517-022-00234-2)
Thermische Aquiferspeicher können wesentlich zum klimafreundlichen Heizen und Kühlen von Gebäuden beitragen: Erwärmtes Wasser wird unter der Erde gespeichert und bei Bedarf heraufgepumpt. Forschende des Karlsruher Instituts für Technologie (KIT) haben nun ermittelt, dass Deutschland ein beträchtliches Potenzial für Niedertemperatur-Aquiferspeicher aufweist und dieses Potenzial aufgrund des Klimawandels in Zukunft voraussichtlich wachsen wird. Zu der Studie gehört die bis jetzt detaillierteste Karte der Aquiferspeichermöglichkeiten in Deutschland. Über ihre Ergebnisse berichten die Forschenden in der Zeitschrift Geothermal Energy. (DOI: 10.1186/s40517-022-00234-2)
Mehr als 30 Prozent des Endenergieverbrauchs in Deutschland entfallen derzeit auf das Heizen und Kühlen von Gebäuden. Die Dekarbonisierung dieses Sektors kann daher einiges an Treibhausgasemissionen einsparen und wesentlich zum Klimaschutz beitragen. Zur saisonalen Speicherung und flexiblen Nutzung von Wärme und Kälte eignen sich Aquiferspeicher, also wasserführende Schichten im Untergrund. Wasser besitzt eine hohe Fähigkeit, thermische Energie zu speichern, und das umgebende Gestein wirkt isolierend. Aquiferspeicher werden durch Bohrungen erschlossen, um beispielsweise Wärme aus Solarthermieanlagen oder Abwärme aus Industrieanlagen unter der Erde zu speichern und bei Bedarf heraufzupumpen. Sie lassen sich ideal mit Wärmenetzen und Wärmepumpen kombinieren. Als besonders effizient haben sich oberflächennahe Niedertemperatur-Aquiferspeicher (engl. Low-Temperature Aquifer Thermal Energy Storage – LT-ATES) erwiesen: Da die Temperatur des Wassers nicht viel höher ist als die der Umgebung, geht während der Speicherung wenig Wärme verloren.
Mehr als die Hälfte der Fläche in Deutschland ist sehr gut oder gut geeignet
Welche Regionen in Deutschland sich für Niedertemperatur-Aquiferspeicher eignen haben Forschende am Institut für Angewandte Geowissenschaften (AGW) und in der Nachwuchsgruppe Nachhaltige Geoenergie des KIT untersucht. „Zu den Kriterien für einen effizienten LT-ATES-Betrieb gehören geeignete hydrogeologische Gegebenheiten wie die Produktivität der Grundwasserressourcen und die Grundwasserströmungsgeschwindigkeit“, erklärt Ruben Stemmle, Mitglied der Forschungsgruppe Ingenieurgeologie am AGW und Erstautor der Studie. „Wichtig ist auch ein ausgeglichenes Verhältnis zwischen Heiz- und Kühlenergiebedarf. Dieses lässt sich annäherungsweise über das Verhältnis von Heiz- und Kühlgradtagen ermitteln.“
Die Forschenden haben die hydrogeologischen und klimatischen Kriterien in einer räumlichen Analyse kombiniert. Dabei zeigte sich, dass 54 Prozent der Fläche in Deutschland in den kommenden Jahrzehnten bis 2050 sehr gut oder gut für LT-ATES geeignet sind. Die Potenziale konzentrieren sich im Wesentlichen auf das Norddeutsche Becken, den Oberrheingraben und das Süddeutsche Molassebecken. Visualisiert sind sie detailliert auf einer Karte, welche die Forschenden mit einem Geoinformationssystem (GIS) anhand einer multikriteriellen Entscheidungsanalyse erstellt haben.
Klimawandel wird Potenzial für Aquiferspeicher vergrößern
Wie die Studie weiter ergeben hat, werden die für LT-ATES sehr gut oder gut geeigneten Flächen für den Zeitraum 2071 bis 2100 voraussichtlich um 13 Prozent wachsen. Dies ist vor allem durch einen relativ starken Zuwachs bei den sehr gut geeigneten Flächen bedingt und zurückzuführen auf einen steigenden Kühlbedarf, also auf den Klimawandel. In Wasserschutzgebieten sind Aquiferspeicher nur eingeschränkt und in Einzelfällen zulässig. Dadurch fallen elf Prozent der technisch sehr gut oder gut geeigneten Flächen weg. „Alles in allem zeigt unsere Studie jedoch, dass Deutschland ein großes Potenzial für die saisonale Wärme- und Kältespeicherung in Aquiferen besitzt“, sagt Stemmle. (or)
Wissenschaftliche Ansprechpartner:
Dr. Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu
Originalpublikation:
Ruben Stemmle, Vanessa Hammer, Philipp Blum and Kathrin Menberg: Potential of low temperature aquifer thermal energy storage (LT ATES) in Germany. Geothermal Energy, 2022. DOI: 10.1186/s40517-022-00234-2
https://geothermal-energy-journal.springeropen.com/articles/10.1186/s40517-022-0…
Weitere Informationen:
http://Details zum KIT-Zentrum Energie: https://www.energie.kit.edu/
Eine Wirtschaft ohne Umweltverschmutzungen – Neues Partnerprojekt der TUM und des Imperial College London
Ulrich Meyer Corporate Communications Center
Technische Universität München
Die Technische Universität München (TUM) und das Imperial College London (Imperial) und wollen gemeinsam an einer neuen Wirtschaftsweise ohne Umweltverschmutzung arbeiten. Das Imperial – TUM Zero Pollution Network wird dafür Wissenschaftler:innen, Industrie, Regierungen und andere Partner an einen Tisch bringen. Ziel ist es, Umweltverschmutzung bereits an der Quelle einzudämmen. So wird beispielsweise der Lebenszyklus von Technologien und Produkten berücksichtigt: von der Beschaffung der Rohstoffe über ihre Weiterverarbeitung in der Industrie und ihre Nutzung in der Gesellschaft bis hin zur Entsorgung und Wiederverwendung.
Im Rahmen des Projekts werden Lehrende und Studierende von zwei der besten Universitäten der Welt kollaborative Forschungs- und Bildungsprogrammen entwickeln und gemeinsam in den Laboren der jeweils anderen Partneruniversitäten arbeiten. Die Forschungsschwerpunkte liegen zunächst auf Elektrochemie und Energiespeichertechnologien, nachhaltiger Fertigung und auf der nachhaltigen Mobilität der Zukunft, wobei in den nächsten zwei Jahren weitere Themen entwickelt werden. Das Imperial College und die TUM werden auch zusammenarbeiten, um studentische Gründer:innen bei der Entwicklung ihrer Unternehmen zu unterstützen.
Gemeinsame Forschung an riesigen Herausforderungen
Der Präsident des Imperial College, Hugh Brady sagte: „Unsere Welt ist durch die globale Umweltverschmutzung ernsthaft in Gefahr. Sie zerstört unser Klima und unsere Umwelt und beeinträchtigt jedes Jahr die Gesundheit von Millionen von Menschen. Wir müssen dringend neue Technologien und Lösungen finden und grundlegende Veränderungen der Art und Weise anregen, wie Gesellschaft und Industrie produzieren und konsumieren. Dieses neue Netzwerk wird einige der führenden Köpfe in Wissenschaft, Industrie, Regierung und Gesellschaft zusammenbringen, um innovative Ideen und Technologien zu entwickeln. Die Technische Universität München ist eine der besten Universitäten der Welt und einer der engsten Kooperationspartner des Imperial, und wir freuen uns auf die Zusammenarbeit mit ihr bei dieser großen Herausforderung.“
Präsident der TUM, Thomas F. Hofmann, betonte: „Das Ausmaß und der Zeitrahmen des Klimawandels fordern uns heraus. Wir können mehr tun, und wir werden mehr tun, indem wir unsere TUM Sustainable Futures Strategy 2030 in die Praxis umsetzen und in engen internationalen Partnerschaften auf umweltfreundlichere Lösungen hinarbeiten. Unsere Flaggschiff-Partnerschaft mit dem Imperial College London wird einen großen Beitrag dazu leisten, die gewaltigen globalen Herausforderungen der Klimakrise zu bewältigen. Studierende und Wissenschaftler:innen des Imperial und der TUM sind aufgerufen, gemeinsam nachhaltige Ansätze für eine Kreislaufwirtschaft und Lösungen ohne Umweltverschmutzung zu entwickeln, um sicherzustellen, dass die Welt auch in Zukunft lebenswert bleibt. Und ich bin überzeugt, dass wir zusammen viel bewirken können.”
Die Vize-Kanzlerin für Research and Enterprise des Imperial College, Prof. Mary Ryan, sagte: „Der Umfang der Herausforderung ist enorm. Die vom Menschen verursachte Umweltverschmutzung ist überall sichtbar, von der Luftverschmutzung in unseren Städten bis hin zu Plastik in den tiefsten Bereichen unserer Ozeane. Wir müssen jetzt damit beginnen, uns mit der Umweltverschmutzung in all ihren Formen zu befassen, einschließlich Kohlendioxid. Wir brauchen einen transdisziplinären Ansatz. Wissenschaftler:innen, Ingenieur:innen, Mediziner:innen und Wirtschaftswissenschaftler:innen müssen zusammenarbeiten, um innovative Technologien und Strategien für einen schnellen Übergang zu sauberen Technologien zu entwickeln.“
Lange Partnerschaft zwischen Imperial und TUM
TUM und Imperial arbeiten schon seit Jahrzehnten eng zusammen. Im Jahr 2018 haben wurde sogar eine strategische Flagship-Partnerschaft in den Bereichen Bildung, Forschung und Innovation geschlossen. In den letzten fünf Jahren haben Wissenschaftler:innen der beiden Universitäten gemeinsam 654 Forschungspublikationen verfasst, was einer Steigerung von 90 % entspricht. Die beiden Universitäten betreiben 63 Verbundprojekte und 14 PhD-Projekte. Die Zusammenarbeit umfasst die Forschung in den Bereichen Windturbinen, Solarenergie und industriellen Prozessen für saubere Energie.
Das Imperial College London gehört zu den zehn besten Universitäten der Welt und genießt einen erstklassigen Ruf. Die 22.000 Studierenden und 8.000 Mitarbeiter:innen widmen sich der Bewältigung der größten Herausforderungen in Wissenschaft, Medizin, Technik und Wirtschaft. Im Research Excellence Framework (REF) 2021 wurde bestätigt, dass das Imperial College einen größeren Anteil an weltweit führender Forschung vorweisen kann als jede andere britische Universität. Außerdem wurde es im „The Times and The Sunday Times Good University Guide“ zur Universität des Jahres 2022 und im „Good University Guide“ zur Universität des Jahres 2022 in Bezug auf die Zufriedenheit der Studierenden gekürt sowie mit dem Queen’s Anniversary Prize für seine Corona-Initiative ausgezeichnet. https://www.imperial.ac.uk/
Die Technische Universität München (TUM) ist mit mehr als 600 Professorinnen und Professoren, 50.000 Studierenden sowie 11.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006, 2012 und 2019 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings wird sie regelmäßig als beste Universität Deutschlands bewertet.
Bilder:
http://go.tum.de/039753 (Der neue Präsident des Imperial College London, Prof. Hugh Brady (li.), und TUM-Präsident Prof. Thomas F. Hofmann beim Start des Imperial – TUM Zero Pollution Network am Campus Garching.)
https://mediatum.ub.tum.de/image/1692357.jpg (Die Delegation des Imperial College London besichtigt die MakerSpace-Hightech-Werkstätten am Campus Garching. v.l.: TUM-Vizepräsidentin Prof. Juliane Winkelmann, Imperial-Vizekanzlerin Prof. Mary Ryan, Imperial-Präsident Prof. Hugh Brady, TUM-Präsident Prof. Thomas F. Hofmann, Imperial-Vizepräsidentin Prof. Maggie Dallman, TUM-Vizepräsident Prof. Helmut Schönenberger)
Weitere Informationen:
Flagship-Partnerschaft von TUM und Imperial: https://www.international.tum.de/global/icl/
Imperial College London: https://www.imperial.ac.uk/
Strategische Partnerschaften & Allianzen der TUM: https://www.international.tum.de/global/globales-profil/strategische-partner-all…
TUM Nachhaltigkeitsstrategie: https://www.tum.de/ueber-die-tum/ziele-und-werte/nachhaltigkeit
TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Täglich werden pro Person 30 bis 40 Liter Wasser, also des wichtigsten Lebensmittels, für die WC-Spülung verschwendet. Durch dezentrale Sammlung und Aufbereitung leicht verschmutzten Grauwassers und Wärmerückgewinnung profitierten die Umwelt und auch die Mieter*innen durch niedrigere Betriebskosten. Mit diesem Thema beschäftigt sich die Veranstaltung und Exkursionen „Den Klimawandel abmildern – aber wie? Die Potenziale des Grauwasserrecyclings im Wohnungsbau nutzen“
Mit der Veranstaltung sollen die Berliner Akteur*innen aus Baupraxis, Planung, Wissenschaft, Politik, Verwaltung, Verbänden und Initiativen über die Potenziale des Grauwasserrecyclings und Umsetzungsstrategien für den Wohnungsbau ins Gespräch gebracht werden. Wie ist der Stand der Technik? Was ist der ökologische und ökonomische Nutzen? Welche Umsetzungshemmnisse bestehen und wie können sie überwunden werden? Wie kann Grauwassernutzung zum Standard im Wohnungsbau werden? Diese Fragen sind zentrale Themen der Veranstaltung, die von der Kooperations- und Beratungsstelle für Umweltfragen Wissenschaftsladen kubus der TU Berlin und dem Fachgebiet Natural Building Lab der TU Berlin, der Architektenkammer Berlin und fbr – Bundesverband für Betriebs- und Regenwasser e.V. durchgeführt und von Fridays for Future der TU Berlin unterstützt wird.
Die Klimaschutzziele des Landes Berlin, Marina Ozic-Basic, Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, Referat Klimaschutz und Klimaanpassung
Warum wir jetzt gemeinsam über Grauwasserrecycling reden müssen. Gisela Prystav, TU Berlin, Kooperations- und Beratungsstelle für Umweltfragen (ZEWK / kubus)
Grauwasserrecycling im Wohnungsbau – Ressourcen-, Energieeffizienz, Kosten und Betriebserfahrungen, Erwin Nolde, Fa. innovative Wasserkonzepte / fbr – Bundesverband für Betriebs- und Regenwasser e.V.
Zukunft – Ökologisch – Bauen, Prof. Eike Roswag-Klinge, TU Berlin, Leiter des Fachgebiets Natural Building Lab
11.40–13:00 Uhr: Fishbowl-Diskussion mit Impulsen
Die Anforderungen von Architekt*innen, der Wohnungswirtschaft, die Sicht von Mieter*innen, Umwelt- und Klimaaktiven, Politik und anderen Akteur*innen
Weitere Informationen unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492
Weitere Informationen erteilt Ihnen gern:
Gisela Prystav
TU Berlin
Kooperations- und Beratungsstelle für Umweltfragen (kubus), der Wissenschaftsladen der TU Berlin
Tel.: 030/314-24617 (Rufweiterleitung) / -21580 (Sekr.)
E-Mail: gisela.prystav@tu-berlin.de
Erschöpft durch Online-Besprechungen? Studie erforscht das Phänomen „Videokonferenz-Müdigkeit“
Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Im Zuge der Corona-Pandemie haben es viele von uns kennengelernt: Online-Meetings oder Web-Konferenzen, um sich mit Kolleginnen und Kollegen auszutauschen. In einer Studie haben Psychologinnen und Psychologen der Universität Ulm das neue Phänomen „Videokonferenz-Müdigkeit“ untersucht. Die Erkenntnis: Vor allem bei Personen mit Tendenzen zu emotionaler Instabilität und negativen Emotionen könnte eine Vielzahl an Videokonferenzen das Risiko für Burnout- und Depressionssymptome erhöhen.
Psychologinnen und Psychologen der Universität Ulm haben das neue Phänomen „Videokonferenz-Müdigkeit“ untersucht. Die Wissenschaftlerinnen und Wissenschaftler gingen dabei der Frage nach, wie Videokonferenz-Müdigkeit – abhängig von den Persönlichkeitsmerkmalen – mit Symptomen von Burnout und Depression zusammenhängt. Die Erkenntnis: Vor allem bei Personen mit Tendenzen zu emotionaler Instabilität und negativen Emotionen könnte eine Vielzahl an Videokonferenzen das Risiko für Burnout- und Depressionssymptome erhöhen. Erschienen ist die Studie im „Journal of Affective Disorders Reports“.
Stundenlange Online-Meetings am Küchentisch oder Web-Konferenzen im Arbeitszimmer. Im Zuge der Corona-Pandemie, den damit einhergehenden „Lockdowns“ und dem Muss zur sozialen Distanz hat die elektronische Kommunikation via Bildschirm stark zugenommen. Videokonferenzen mit Programmen wie Zoom oder Microsoft Teams sind seitdem ein beliebtes Werkzeug, um im Homeoffice Arbeits-Meetings durchzuführen und sich mit Kolleginnen und Kollegen zu besprechen. Doch das stundenlange Sitzen vor dem Bildschirm, technische Probleme oder die ständige Konfrontation mit dem eigenen Bild können die Teilnehmenden ermüden. Zudem fehlt vielen dabei echte soziale Interaktion. Betroffene berichteten vom Phänomen „Videokonferenz-Müdigkeit“.
„Die neuartige Erscheinung der Videokonferenz-Müdigkeit ist noch unzureichend charakterisiert. Sie kann sich in unterschiedlichen Ausprägungen äußern, die emotionale, soziale, motivationale und visuelle Aspekte haben können“, so Professor Christian Montag, Leiter der Abteilung Molekulare Psychologie an der Universität Ulm und Erstautor der Studie. Zusammen mit Professor Rene Riedl von der Fachhochschule Oberösterreich in Steyr und der Universität Linz (beide Österreich) haben Professor Montag und seine Kollegin Dr. Cornelia Sindermann Online-Fragebögen von über 300 Befragten ausgewertet. Speziell das Persönlichkeitsmerkmal „Neurotizismus“ wurde dabei als potenziell begünstigender Faktor für Videokonferenz-Müdigkeit berücksichtigt. „Weiterhin konnten wir Hinweise darauf finden, dass der Zusammenhang zwischen neurotischeren Personen und Burnout- als auch zu Depressions-Tendenzen zum Teil über die Videokonferenz-Müdigkeit erklärt werden könnte“, erläutert Psychologie-Professor Christian Montag.
In der Auswertung kommen die Psychologinnen und Psychologen zu dem Schluss, dass kürzere Videokonferenzen sowie längere Pausen dazwischen ein Schlüssel sein könnten, um das Phänomen einer Videokonferenz-Müdigkeit zu vermeiden. Dies ergaben statistische Analysen von Informationen über die persönlich erlebte Videokonferenz-Müdigkeit sowie zur Länge der Meetings und der Pausen.
Die Forschenden konnten außerdem zeigen, dass jüngere Menschen und Frauen eher durch Videokonferenzen ermüdet werden. Damit bestätigen die Ergebnisse frühere Arbeiten. In Zukunft sind jedoch weitere Studien erforderlich, um das Phänomen der Videokonferenz-Müdigkeit weiterzuerforschen.
Wer mehr über sein eigenes Verhalten und seine Tendenz zur Videokonferenz-Müdigkeit erfahren will, kann weiterhin auf einer Selbsttestplattform https://videokonferenz-muede.jimdosite.com/ anonym an der Studie der Abteilung Molekulare Psychologie der Uni Ulm teilnehmen. Die Angaben im Fragebogen unterstützen die Wissenschaftlerinnen und Wissenschaftler bei ihrer Forschung.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Montag, Leiter der Abteilung Molekulare Psychologie, Tel: 0731/50-32759, christian.montag@uni-ulm.de
Originalpublikation:
Montag, C., Rozgonjuk, D., Riedl, R., & Sindermann, C. (2022). On the associations between videoconference fatigue, burnout and depression including personality associations. Journal of affective disorders reports, 100409
https://doi.org/10.1016/j.jadr.2022.100409
TU Berlin: Entwicklung einer innovativen und kostensparenden Abwasser-Klärtechnik für die MENA-Region
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Sauberes Wasser mit weniger Energie
Innovative und kostensparende Abwasser-Klärtechnik als Beitrag zur internationalen Energieproblematik
Klimawandel, Wasserknappheit und steigende Energiepreise sind weltweit eine große Herausforderung. Insbesondere bei der Reinigung von Wasser und Abwasser ist der Energiebedarf im Wassersektor sehr hoch. Ein neues Verbundvorhaben, „ANAJO“, entwickelt eine besonders energieeffiziente Klärtechnik, die auf einer Abwasservorbehandlung ohne Sauerstoff basiert. Diese soll zunächst in der MENA-Region (Mittlerer Osten/Nordafrika) in Jordanien implementiert und etabliert werden. Das Projekt wird vom Fachgebiet Siedlungswasserwirtschaft der TU Berlin koordiniert und gemeinsam mit Partnern aus Forschung und Industrie umgesetzt. Es wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMVU) im Rahmen des Förderprogramms „Exportinitiative Umweltschutz“ gefördert.
Der Energiebedarf für Wasser und Abwasser in Jordanien entspricht etwa 16 Prozent des gesamten Energiebedarfs aller Sektoren. Rund 33 der jordanischen Kläranlagen werden mit dem sogenannten Belebtschlamm-Verfahren betrieben, ein Verfahren zur biologischen Reinigung, das zu 50 bis 70 Prozent für den besonders hohen Energieverbrauch verantwortlich ist. Durch die Integration einer anaeroben Behandlungseinheit in die bestehenden Abwasserkläranlagen, also einer Technologie, mit der Abbauprozesse ohne Vorhandensein von Sauerstoff ablaufen, kann das Potenzial zur Energieeinsparung bis zu 50 Prozent betragen. Hier setzt das Projekt ANAJO „Kläranlagen in der MENA-Region: Anaerobvorbehandlung zur Steigerung der Energieeffizienz und Leistungsfähigkeit“ an. Konkret könnte die innovative, klimafreundliche Anaerob-Technologie eine Energieeinsparung von rund 1,5 bis 2,0 Millionen Kilowattstunden jährlich erreichen. Mit der Integration der Anaerob-Technik wird auch die Schlammentsorgung potenziell ökonomischer, ökologischer und nachhaltiger, Betriebskosten werden reduziert.
Die Nachhaltigkeitsziele der Agenda 2030 der Vereinten Nationen im Blick
Insgesamt zielt das Projekt „ANAJO“ darauf, den Energiebedarf der kommunalen Abwasserkläranlagen in Jordanien zu reduzieren und Potenziale aufzeigen, wie aus mit einem vorgeschalteten anaeroben Behandlungsverfahren aus Abwasser und Klärschlamm Energie gewonnen werden kann. Darüber hinaus wird aus der anaeroben Behandlungsstufe Biogas gewonnen, aus dem wiederum Energie erzeugt werden kann. Das gesamte Projekt bezieht sich auf drei der 17 Nachhaltigkeitsziele, der Sustainable Development Goals (SGD) 6.3 und 7.a sowie 6.a der Agenda 2030 der Vereinten Nationen.
Installation einer Pilotanlage und Tests in Kläranlagen in Jordanien
Das Projekt hat folgende Ziele:
• Senkung des Energieverbrauchs verbunden mit einer Senkung der Betriebskosten kommunaler Kläranlagen
• Energieerzeugung durch Nutzung des entstehenden Biogases
• Reduzierung der Gesamtmenge des Überschussschlamms
• Verringerung der Treibhausgasemissionen
Zur Demonstration des Potenzials einer anaeroben Vorbehandlung in die bestehenden Systeme mit hohem Sauerstoff- und Energieverbrauch in Jordanien installiert die TU Berlin gemeinsam mit ihren Projekt- und Kooperationspartnern eine anaerob-aerobe Pilotanlage und testet diese in zwei verschiedenen Kläranlagen.
Internationale Verbundpartner aus Wissenschaft und Industrie
Verbundpartner sind die Ingenieurgesellschaft p2m berlin GmbH, die TIA Technologien zur Industrie-Abwasser-Behandlung GmbH sowie in Kooperation in Jordanien das Ministerium für Wasser und Bewässerung des Haschemitischen Königreichs Jordanien, die jordanische Wasserbehörde sowie die Universität von Jordanien in Amman und die Balqa‘ Applied University in As-Salt.
Das Förderprogramm „Exportinitiative Umweltschutz“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz finden Sie hier:
www.exportinitiative-umweltschutz.de
Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Matthias Barjenbruch
TU Berlin
Fakultät VI Planen Bauen Umwelt
Institut für Bauingenieurwesen, Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 / (0) 30 / 314 72246
E-Mail: matthias.barjenbruch@tu-berlin.de
Iyad Al-Zreiqat M.Sc.
TU Berlin
Fakultät VI Planen Bauen Umwelt
Institut für Bauingenieurwesen, Fachgebiet Siedlungswasserwirtschaft
Tel. +49 30 314 72251
E-Mail: i.al-zreiqat@tu-berlin.de
Natürliche CO2-Reduktion schneller umsetzbar und weniger risikoreich als Hightech-Ansätze
Katja Hinske Kommunikation
Helmholtz-Klima-Initiative
Kohlendioxid lässt sich auf natürliche oder technische Wege aus der Atmosphäre entziehen. Natürliche Senken wie Moore können wiederhergestellt werden, und es existieren bereits innovative Technologien, um Kohlenstoff aus der Luft zu holen. Forscher:innen des Clusters „Netto-Null-2050“ der Helmholtz-Klima-Initiative haben die vielversprechendsten Ansätze in Deutschland identifiziert. Sie zeigen, dass natürliche Senken kurzfristig erweitert werden können, während Hightech-Ansätze Treibhausgase erst mittelfristig reduzieren könnten und potentielle Risiken bergen.
Um die Ziele des Pariser Abkommens zu erreichen und die globale Erwärmung auf 1,5 bis 2 Grad Celsius zu begrenzen, wird es voraussichtlich nicht reichen, die CO2-Emissionen zu reduzieren. Darüber hinaus wird es wahrscheinlich notwendig, der Atmosphäre bereits emittiertes Kohlendioxid wieder zu entnehmen. Eine solche CO2-Abscheidung ließe sich auf natürlichem Wege durch die Erweiterung natürlicher Senken (ENS) wie beispielsweise die Wiederaufforstung von Wäldern erreichen. Auch neue Technologien, die chemische Prozesse zur Kohlenstoffabscheidung nutzen, ließen sich nutzen. Das Potenzial und die Durchführbarkeit dieser so genannten Kohlendioxid-Entnahmemaßnahmen (CDR) sind jedoch von vielen Variablen abhängig. Dazu gehören unter anderem die Verfügbarkeit von Infrastrukturen und Ressourcen wie Land und Energie.
Erweiterung natürlicher Kohlenstoffspeicher schneller umsetzbar als Hightech-Ansätze
Forscher:innen der Helmholtz-Klima-Initiative haben nun erstmals untersucht, wie viel CO2 mittels der verschiedenen Verfahren in Deutschland bis zum Jahr 2050 aus der Atmosphäre entnommen werden könnte.
Auf der Grundlage einer Literaturrecherche, von Expert:innenwissen und einer Analyse der Bedingungen im Land wie zum Beispiel der Verfügbarkeit von Infrastrukturen, Ressourcen und technologischer Reife haben die Forscher:innen 13 CDR-Optionen mit Einsatzpotenzial ermittelt und beschrieben. „Es ist wichtig, die unterschiedlichen Reifegrade und Einsatzmöglichkeiten der verschiedenen Optionen zu kennen“, erklärt Malgorzata Borchers vom Helmholtz-Zentrum für Umweltforschung (UFZ), die die Studie zusammen mit ihrer UFZ-Kollegin Daniela Thrän geleitet hat. „Während einige ENS-Optionen bereits heute eingesetzt werden und gegebenenfalls ausgeweitet werden könnten, würde es bei der Mehrheit der High-Tech-Optionen Jahre oder sogar mehr als ein Jahrzehnt dauern, bis sie in großem Maßstab eingesetzt werden könnten. Sie sind außerdem oft abhängig von der Möglichkeit der Kohlenstoffspeicherung, die in Deutschland derzeit durch Gesetze eingeschränkt ist und durch eine Änderung der geltenden Vorschriften erschlossen werden könnte. Gleichwohl ist es wichtig, diese Technologien weiterzuentwickeln, damit sie bei Bedarf im späteren Teil des Jahrhunderts eingesetzt werden können.“
Bioenergie mit CO2-Abscheidung und -Speicherung hat das höchste Entnahmepotenzial
Die vorgeschlagenen Konzepte weisen ein sehr unterschiedliches jährliches CO2-Entnahmepotenzial auf, das von 62.000 Tonnen bei der Wiederherstellung von Seegraswiesen in der Ostsee bis zu 29,9 Millionen Tonnen über die Verbrennung von Biomasse zur Kraft-Wärme-Kopplung mit Kohlenstoffabscheidung und -speicherung (CCS) reicht. Bioenergie mit CO2-Abscheidung und -Speicherung (Bioenergy with Carbon Capture and Storage, kurz BECCS) besitzt das höchste spezifische Entnahmepotenzial. Für BECCS wird Biomasse aus Pflanzen – die der Luft durch Photosynthese CO2 entziehen – zur Energieerzeugung, das heißt zum Beispiel für Wärme, Strom oder Kraftstoffe genutzt. Bei der Umwandlung von Biomasse in Energie wird CO2 freigesetzt, welches aber nicht in die Atmosphäre gelangt, sondern direkt eingefangen und anschließend gespeichert wird. Dieses Einfangen wird als Abscheidung bezeichnet. Besonders interessant im Hinblick auf die Menge des entzogenen CO2 ist das Konzept der sogenannten Kraft-Wärme-Kopplung (KWK). Dabei werden ehemalige Kohlekraftwerke zur Verbrennung von Holzpellets für die gleichzeitige Erzeugung von Strom und Wärme genutzt. Jedes Kraftwerk mit einer elektrischen Leistung von 500 MW könnte durch Anwendung von BECCS knapp 3 Megatonnen CO2 pro Jahr neutralisieren. Borchers gibt jedoch zu bedenken: „Die Verwendung von holzartiger Biomasse in Kraftwerken in größerem Maßstab wird die Gesamtnachfrage nach Biomasse voraussichtlich erheblich steigern. Wir werden Biomasse aus dem Ausland importieren müssen, was sich negativ auf die Waldökosysteme im Ausland auswirken und zusätzliche CO2-Emissionen ver-ursachen könnte“.
Auch Direktabscheidung von Kohlenstoff aus der Luft hat hohes Potenzial
Die Direktabscheidung von Kohlenstoff aus der Luft (Direct Air Carbon Capture, kurz DACC), bei der große DACC-Absorber-Anlagen installiert werden, ist der Studie zufolge ein weiteres CDR-Konzept mit hohem Entnahmepotenzial. Jede Anlage könnte bis zu einer Million Tonnen CO2 pro Jahr abscheiden, sofern eine wirksame CO2-Speicherung erreicht werden kann. Thrän wendet jedoch ein: „In Anbetracht der Größenordnung einer solchen Anlage und des damit verbundenen Energiebedarfs ist zweifelhaft, ob diese Technologie in Deutschland überhaupt umsetzbar wäre. Der Energiebedarf einer solchen
Anlage entspräche dem jährlichen Energiebedarf von 720.000 deutschen Haushalten“.
Verwitterung von Gesteinen bei natürlichen Verfahren vorne
Andere BECC- und DACC-Optionen weisen geringere CO2-Abscheidungspotenziale auf. Bei den Optionen zur Erweiterung natürlicher Senken wie der Wiedervernässung von Mooren, der Aufforstung von Ackerflächen oder der verstärkten Gesteinsverwitterung schwankt das Potenzial zwischen 1,5 und 9,5 Tonnen CO2, die jährlich pro Hektar Land, auf dem sie angewendet würden, abgeschieden werden könnten. Von diesen natürlichen Verfahren bietet die Förderung der natürlichen Verwitterung von Gesteinen das höchste Entnahmepotenzial pro Fläche. Karbonat- und Silikatminerale könnten in pulverisierter Form auf Böden ausgebracht werden, etwa auf landwirtschaftlichen Nutzflächen, um CO2 zu binden. Durch die Ausbringung von Basalt auf Ackerland könnten in Deutschland bis zu 5,82 Millionen Tonnen CO2 pro Jahr gebunden werden. Thrän gibt jedoch zu bedenken, „dass diese CDR-Option von der Gewinnung bis zum Zerkleinern und Mahlen des Silikatgesteins mit einem erheblichen Energieaufwand verbunden ist. Zudem sollten auch die Umweltauswirkungen weiter untersucht werden, da es noch an aussagekräftigen Ergebnissen mangelt.“
Wie viel CO2 aus der Atmosphäre entnommen werden muss, ist unklar
„Die Schätzwerte für den notwendigen Kohlendioxidabbau in Deutschland reichen von 3 bis 18 Gigatonnen CO2 von heute bis zum Jahr 2100, je nachdem, was wir als unsere historische Verantwortung, Leistungsfähigkeit und Beitrag zur globalen Gerechtigkeit zugrunde legen“, erklärt Borchers. „Und natürlich ist die Menge an CO2, die wir entfernen müssen, stark von den Maßnahmen abhängig, die wir in den kommenden Jahren zur Reduzierung und Vermeidung von Emissionen ergreifen.“
Über die Helmholtz-Klima-Initiative
Die Helmholtz-Klima-Initiative erforscht systemische Lösungen für eine der größten gesellschaftlichen Herausforderungen unserer Zeit: den Klimawandel. Wissen-schaftlerinnen und Wissenschaftler aus 15 Helmholtz-Zentren entwickeln gemeinsam Strategien zur Eindämmung von Emissionen und zur Anpassung an unver-meidliche Klimafolgen – mit dem Fokus auf Deutschland. Die Helmholtz-Klima-Initiative stellt vielen gesellschaftlichen Bereichen wissenschaftlich basiertes Wissen zur Verfügung und tritt mit Verantwortlichen aus Politik, Wirtschaft und Medien sowie der interessierten Öffentlichkeit in den Dialog.
Auf der Website der Helmholtz-Klima-Initiative mehr über die verschiedenen Ansätze zur Kohlendioxid-Entnahme erfahren.
Kontakte
Meike Lohkamp | Helmholtz-Klima-Initiative | Wissenschaftskommunikation | meike.lohkamp@helmholtz-klima.de | +49 151 5674 9826
Prof. Dr. Daniela Thrän | Helmholtz-Zentrum für Umweltforschung GmbH – UFZ |
Leiterin des Departments Bioenergie | daniela.thraen@ufz.de
Folgen Sie uns auf
• Twitter @klimainitiative
• Instagram @helmholtzklimainitiative
• LinkedIn @Helmholtz-Klima-Initiative
• YouTube @Helmholtz-Klima-Initiative
Wissenschaftliche Ansprechpartner:
Prof. Dr. Daniela Thrän | Helmholtz-Zentrum für Umweltforschung GmbH – UFZ |
Leiterin des Departments Bioenergie | daniela.thraen@ufz.de
Anhang
PDF zur Pressemitteilung
Kostengünstige Alternative zum PCR-Test
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Schnelligkeit oder Genauigkeit? Was Corona-Tests angeht, musste man sich bisher zwischen diesen beiden Varianten entscheiden. Damit könnte künftig Schluss sein: Der Pathogen Analyzer verbindet die Vorteile von PCR-Test und Antigen-Schnelltest – er liefert bereits nach 20 bis 40 Minuten ein verlässliches Ergebnis. Darüber hinaus kann er gleichzeitig bis zu elf andere Krankheitserreger nachweisen. Ein Demonstrator des Systems ist vom 14. bis 17. November 2022 auf der Messe MEDICA in Düsseldorf zu sehen (Halle 3, Stand E74/F74).
Der Hals kratzt, Schlappheitsgefühl macht sich breit. Hat man sich mit Corona infiziert? Über Antigen-Schnelltests kann man dies zuhause oder im Bürgertestzentrum schnell überprüfen – die Genauigkeit dieser Tests lässt jedoch zu wünschen übrig. Tests auf Proteinbasis, bei denen virale Antigene auf dem Chip erkannt werden, sind schlichtweg nicht so genau wie Tests auf Nukleinsäurebasis. Sprich: Viele Infektionen bleiben unerkannt, auch kann es zu fehlerhaften Positiv-Ergebnissen kommen. Für einen sicheren Nachweis ist ein PCR-Test unerlässlich, allerdings ist dieser sowohl deutlich teurer als auch langwieriger: Es kann bis zu zwei Tage dauern, ehe das Ergebnis vorliegt.
Schnelle und verlässliche Ergebnisse
Ein Verbund aus Forscherinnen und Forschern des Fraunhofer-Instituts für Produktionstechnologie IPT, des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB sowie des Fraunhofer Center for Manufacturing Innovation in Boston (USA) möchte das nun ändern. »Mit unserem Pathogen Analyzer verbinden wir die Vorteile von Antigen- und PCR-Test: Da wir wie beim PCR-Test das Erbgut der Viren direkt nachweisen, ist der Test äußerst genau. Um das Erbgut zu vervielfältigen, nutzen wir allerdings ein anderes Verfahren, daher liegt das Ergebnis bereits nach von 20 bis 40 Minuten vor«, sagt Daniel Reibert, Wissenschaftler am Fraunhofer IPT. Dazu haben die Forschenden auf dem Testchip, der ähnlich groß ist wie ein Antigen-Schnelltest, zahlreiche kleine Hydrogel-Tropfen aufgedruckt, Experten sprechen von Signalpunkten. Auf diesen Chips wird die Probe – die wie bei bisherigen Tests über einen Nasen-Rachen-Abstrich gewonnen und in eine Pufferlösung übertragen wird – aufgebracht. Anschließend wird der Testchip in einem kompakten und mobilen Analyseinstrument auf 62 Grad Celsius aufgeheizt. Die Pufferlösung und die hohe Temperatur legen das Erbgut des Virus frei und vervielfältigen die Nukleinsäuren, um sie innerhalb der Signalpunkte quantitativ nachweisen zu können. Diese Reaktion findet bei einer konstanten Temperatur statt – das in der PCR biochemisch nötige Aufheizen und Abkühlen der Probenflüssigkeit entfällt. Um den Test personalisiert auszuwerten, können Patientinnen und Patienten eine Smartphone App mit dem Analyzer verbinden. Über ein Lichtsignal im Analyzer wird die Menge an Krankheitserreger-Erbgut detektiert und als Endergebnis direkt an die Betroffenen übermittelt.
Zwölf Virenarten mit einem Streich nachweisen
Eine weitere Neuheit: »Jeder Signalpunkt enthält Fängermoleküle, die unter Bestrahlung mit Licht Fluoreszenzstrahlung anderer Wellenlänge abgeben, wenn sie das passende Pathogen gefangen haben. Daher ist jeder Signalpunkt wie ein eigener kleiner Test«, erläutert Reibert. Ein solcher Multiplexing-Ansatz erhöht zum einen die Verlässlichkeit, zum anderen ermöglicht er es, bis zu zwölf verschiedene Virenarten gleichzeitig mit einer Probennahme und einem Chip nachzuweisen. »Da wir das System als Baukastensystem entwickelt haben, lässt es sich schnell an neue Pathogene anpassen«, erläutert Reibert.
Eine der Herausforderungen lag darin, die späteren Herstellungsprozesse des Tests mitzuentwickeln und sie preisgünstig zu gestalten – schließlich soll der Test in Serie hergestellt nicht mehr als einen Euro kosten. Für den Chip selbst setzen die Forschenden daher auf das Rolle zu Rolle-Verfahren. Der Druck der einzelnen Probenpunkte kann entweder über 3D-Druck oder das etablierte Siebdruckverfahren erfolgen.
Test auch für zuhause
Auf der Messe MEDICA vom 14. bis 17. November 2022 in Düsseldorf stellen die Forschenden sowohl einen Demonstrator des Chips für drei Pathogene als auch einen Analyzer-Demonstrator vor (Halle 3, Stand E74/F74). Langfristig soll der Test auch ohne Analyzer auskommen und komplett über das Smartphone funktionieren: Lichtquelle und Kamera sind im Handy bereits vorhanden, das Heizelement kann im Testchip selbst integriert werden. Dann, so die Hoffnung der Forscherinnen und Forscher, könnte der Test nicht nur in zentralen Orten wie Stadien oder Arztpraxen, sondern auch zuhause schnelle, kostengünstige und verlässliche Ergebnisse liefern – und das direkt für eine Vielzahl an Krankheitserregern.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/november-2022/koste…
WM-Studie 2022: Scholz-Besuch in Katar für viele Deutsche „völlig überflüssig“
Florian Klebs Hochschulkommunikation
Universität Hohenheim
Repräsentative Umfrage der Uni Hohenheim untersucht WM-Erwartungen, Vermarktung, Medienverhalten & politische Aspekte / Teil 4 von 4: Die WM als politisches Ereignis
Für ein Drittel der Deutschen ist ein Besuch von Bundeskanzler Olaf Scholz sogar beim Finale „völlig überflüssig“. Dies dachten bei den Weltmeisterschaften 2014 in Brasilien nur 7 Prozent und 2018 in Russland 15 Prozent. So lautet ein Ergebnis der aktuellen Fußball-WM-Studie von Marketing-Experte Prof. Dr. Markus Voeth von der Universität Hohenheim in Stuttgart. Die Studie basiert auf einer bevölkerungsrepräsentativen Umfrage unter 1.000 Personen in Deutschland zu den Themen sportliche Erwartungen, Sponsoring und Sport-Vermarktung, Medienwirksamkeit sowie Politik. Bei der aktuellen Umfrage handelt es sich um die zehnte WM-Studie seit 2001. Die Universität Hohenheim veröffentlicht die Ergebnisse in vier Teilen. Vollständige Studie unter: https://mub.uni-hohenheim.de/wm2022
Der Vergleich zu den Weltmeisterschaften 2014 und 2018 zeigt: Die Deutschen sehen dieses Jahr auch einen Besuch des deutschen Bundeskanzlers von WM-Spielen der Nationalmannschaft deutlich kritischer als in den Jahren zuvor. Mehr als zwei Drittel der Befragten halten diese Besuche für überflüssig (Viertelfinale 68,2 Prozent, Achtelfinale 75,2 Prozent, Vorrunde 80,2 Prozent).
Wenn überhaupt, dann kommt für die Deutschen eine Reise von Olaf Scholz nach Katar erst im Finale der WM in Frage. Und auch dann sind noch rund 34 Prozent der Meinung, dass dies „völlig überflüssig“ sei.
Rund die Hälfte der Deutschen fordert von Sponsoren und Politiker:innen WM-Boykott
Die Deutschen sehen die WM 2022 in Katar insgesamt deutlich kritischer als die WM 2018 in Russland: Etwas mehr als 58 Prozent von ihnen glauben aktuell, dass sportliche Großveranstaltungen vom Gastgeberland instrumentalisiert werden, um von politischen Missständen abzulenken. 2018 gingen davon nur knapp 45 Prozent aus.
Prof. Dr. Voeth vom Lehrstuhl für Marketing & Business Development der Universität Hohenheim erläutert: „Wir konnten in unserer Studie ein gespaltenes Stimmungsbild beobachten. Denn aufgrund der politischen Missstände in Katar ist jeweils rund die Hälfte der Deutschen der Meinung, dass die Sponsoren auf Werbung für die Fußball-WM verzichten sollten und dass auch deutsche Politiker:innen den Spiele der deutschen Nationalmannschaft fernbleiben sollten.“
„Mehr als ein Drittel der Befragten kann sich sogar einen sportlichen Boykott der Nationalelf vorstellen“, berichtet Co-Studienleiter Yannick Urbitsch. „Ebenfalls knapp ein Drittel der Befragten wird wegen der politischen Missstände die WM nicht verfolgen.“
Image der FIFA seit 2014 dramatisch verschlechtert
Auch die Fédération Internationale de Football Association (FIFA) kämpft laut WM-Studie weiterhin mit einem großen Imageproblem. „Wir beobachten schon seit Jahren einen kontinuierlichen Rückgang beim Ansehen der FIFA“, so Prof. Dr. Voeth. „Aber seit der WM 2014 hat sich ihr Image in den Augen der deutschen Bevölkerung dramatisch verschlechtert.“
„Es hat seit der WM 2018 in Russland bei 40 Prozent der Deutschen abgenommen. Wenn wir aber den Zeitraum seit der WM 2014 in Brasilien betrachten, ist dies bei fast 60 Prozent der Deutschen der Fall“, fährt der Marketing-Experte fort.
„Dies spiegelt sich auch in der Einstellung wider, wie eine mögliche Weiterentwicklung des FIFA-Fußballgeschäftes aussehen könnte“, sagt Yannick Urbitsch. So lehnen mehr als zwei Drittel der Deutschen die Idee ab, Weltmeisterschaften häufiger auszutragen, also beispielsweise alle zwei Jahre. Auf eine ähnliche hohe Ablehnung stößt bei einer Mehrheit der Deutschen der Vorschlag, die WM in weniger fußballaffinen Ländern stattfinden zu lassen, um neue Märkte für den Fußballsport zu erschließen.
Noch deutlicher wird die Ablehnung bei der Frage, ob es auch in Zukunft Weltmeisterschaften im hiesigen Winter geben sollte. Nur 10 Prozent der Befragten halten dies für eine gute Idee, und nur 11,9 Prozent glauben daran, dass die WM in Katar zum „Winter-Märchen“ wird.
HINTERGRUND: WM-Studie 2022
Die WM-Studie 2022 ist eine bevölkerungsrepräsentative Online-Umfrage in Bezug auf Alter, Geschlecht und Bundeslandzugehörigkeit unter 1.000 Teilnehmer:innen. Durchgeführt wurde sie zwischen dem 13. Oktober und 27. Oktober 2022 vom Lehrstuhl für Marketing und Business Development der Universität Hohenheim.
Der Lehrstuhl von Prof. Dr. Markus Voeth begleitet die FIFA Fußballweltmeisterschaften seit 2001 mit regelmäßigen repräsentativen Bevölkerungsbefragungen. Schwerpunkte der Befragungen sind Themen wie Begeisterung, Pläne und Fanverhalten der Bevölkerung, ergänzt durch wechselnde Sonderschwerpunkte wie beispielsweise politische Themen rund um die sportlichen Großereignisse. Einzel- und Langzeitstudien sollen einerseits Stimmungsindikator, andererseits auch konstruktiver Beitrag für eine erfolgreiche Organisation sein.
Text: Stuhlemmer
Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Voeth, Universität Hohenheim, Fachgebiet Betriebswirtschaftslehre, insb. Marketing & Business Development, +49 (0)711 459 22925, voeth@uni-hohenheim.de
M.Sc. Yannick Urbitsch, Universität Hohenheim, Fachgebiet Betriebswirtschaftslehre, insb. Marketing & Business Development, +49 (0)711 459 23414, yannick.urbitsch@uni-hohenheim.de
Weitere Informationen:
https://mub.uni-hohenheim.de/wm2022 Vollständige Studie
https://www.uni-hohenheim.de/presse Pressemitteilungen der Universität Hohenheim
TU Berlin: Grauwasserrecycling für den Wohnungsbau nutzen
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Einladung zur Veranstaltung „Den Klimawandel abmildern – aber wie?“ am 22. November 2022
Täglich werden pro Person 30 bis 40 Liter Wasser, also des wichtigsten Lebensmittels, für die WC-Spülung verschwendet. Durch dezentrale Sammlung und Aufbereitung leicht verschmutzten Grauwassers und Wärmerückgewinnung profitierten die Umwelt und auch die Mieter*innen durch niedrigere Betriebskosten. Mit diesem Thema beschäftigt sich die Veranstaltung und Exkursionen „Den Klimawandel abmildern – aber wie? Die Potenziale des Grauwasserrecyclings im Wohnungsbau nutzen“
Zeit: Dienstag, 22.11.2022, 10.00–16.30 Uhr
Ort: Architekturforum TU Berlin, 10623 Berlin, Straße des 17. Juni 152
Anmeldung unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492/apply oder per E-Mail an: kubus@zewk.tu-berlin.de
Mit der Veranstaltung sollen die Berliner Akteur*innen aus Baupraxis, Planung, Wissenschaft, Politik, Verwaltung, Verbänden und Initiativen über die Potenziale des Grauwasserrecyclings und Umsetzungsstrategien für den Wohnungsbau ins Gespräch gebracht werden. Wie ist der Stand der Technik? Was ist der ökologische und ökonomische Nutzen? Welche Umsetzungshemmnisse bestehen und wie können sie überwunden werden? Wie kann Grauwassernutzung zum Standard im Wohnungsbau werden? Diese Fragen sind zentrale Themen der Veranstaltung, die von der Kooperations- und Beratungsstelle für Umweltfragen Wissenschaftsladen kubus der TU Berlin und dem Fachgebiet Natural Building Lab der TU Berlin, der Architektenkammer Berlin und fbr – Bundesverband für Betriebs- und Regenwasser e.V. durchgeführt und von Fridays for Future der TU Berlin unterstützt wird.
Programm
10.00–11.30 Uhr: Fachvorträge
Bauwende jetzt! Theresa Keilhacker, Präsidentin der Architektenkammer Berlin
Grußwort der Staatssekretärin Dr. Silke Karcher (Videobotschaft)
Die Klimaschutzziele des Landes Berlin, Marina Ozic-Basic, Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, Referat Klimaschutz und Klimaanpassung
Warum wir jetzt gemeinsam über Grauwasserrecycling reden müssen. Gisela Prystav, TU Berlin, Kooperations- und Beratungsstelle für Umweltfragen (ZEWK / kubus)
Grauwasserrecycling im Wohnungsbau – Ressourcen-, Energieeffizienz, Kosten und Betriebserfahrungen, Erwin Nolde, Fa. innovative Wasserkonzepte / fbr – Bundesverband für Betriebs- und Regenwasser e.V.
Zukunft – Ökologisch – Bauen, Prof. Eike Roswag-Klinge, TU Berlin, Leiter des Fachgebiets Natural Building Lab
11.40–13:00 Uhr: Fishbowl-Diskussion mit Impulsen
Die Anforderungen von Architekt*innen, der Wohnungswirtschaft, die Sicht von Mieter*innen, Umwelt- und Klimaaktiven, Politik und anderen Akteur*innen
Moderation: Frank Becker, ZEWK/kubus
13.00–14.00 Uhr: Imbiss, Poster und Exponate
14.00–16.30 Uhr: Besichtigungen (parallel, gemeinsame Anfahrt mit ÖPNV um 14.15 Uhr)
• 15.00 Uhr: Grauwasserrecyclinganlage eines Wohnhauses mit 400 Studierenden-appartements der Berlinovo, Berlin-Pankow
• 15.00 Uhr: Block 6 Dessauer/Bernburger Str., erneuerte Grauwasseranlage für i125 Wohneinheiten mit Roof Water Farm Gewächshaus
• 14.15 Uhr: Reallabor und Climate-Hood-Projekt an der TU Berlin in Planung –Vertikalbegrünung der Wasserbauhalle, Verdunstungsmodule, Regenwassernutzung
Während der Veranstaltung werden Bildaufnahmen gemacht. Sollten Sie damit nicht einverstanden sein, geben Sie uns bitte einen deutlichen Hinweis.
Weitere Informationen unter: https://events.tu-berlin.de/de/events/018419f3-ac2d-7e92-af8d-7b44b6758492
Weitere Informationen erteilt Ihnen gern:
Gisela Prystav
TU Berlin
Kooperations- und Beratungsstelle für Umweltfragen (kubus), der Wissenschaftsladen der TU Berlin
Tel.: 030/314-24617 (Rufweiterleitung) / -21580 (Sekr.)
E-Mail: gisela.prystav@tu-berlin.de
„Die Lockdowns sind vorbei, die psychischen Belastungen bei jungen Menschen gehen weiter“
Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit
SOS-Kinderdorf und Stiftung Kindergesundheit zum Tag der Kinderrechte
München, 18. November 2022. Die UN-Kinderrechtskonvention vom 20. November 1989 sichert jedem Kind universelle Rechte zu – unabhängig von Herkunft, Geschlecht, Religion oder sozialem Status. Doch wie steht es um diese Rechte in Deutschland angesichts andauernder Krisen? „In der Bundesrepublik werden die Kinderrechte jeden Tag missachtet. Gerade seit Corona wird das Recht junger Menschen auf Gesundheit massiv eingeschränkt, insbesondere im Bereich der psychischen Gesundheit“, erklärt Prof. Dr. Sabina Schutter, Vorstandsvorsitzende von SOS-Kinderdorf e.V. anlässlich des Tages der Kinderrechte.
Konkret bemängelt Schutter die zu langen Wartezeiten auf Therapieplätze: „Die psychischen Belastungen haben bei jungen Menschen stark zugenommen. Ein Jahr auf Hilfe warten zu müssen hat für Kinder und Jugendliche viel gravierendere Konsequenzen als für Erwachsene“. Auch das Selbstbestimmungsrecht von Minderjährigen werde im Bereich mentaler Gesundheit nicht umgesetzt, für eine Psychotherapie brauchen Kinder und Jugendliche aktuell die Zustimmung ihrer Erziehungsberechtigten. Das führe gerade für junge Menschen in der stationären Kinder- und Jugendhilfe zu massiven Problemen. Dies bestätigt auch die 19-jährige Vanessa, die selbst in einem SOS-Kinderdorf lebt: „Das Selbstbestimmungsrecht ist speziell für Kinder in stationärer Erziehung entscheidend. Wenn die leiblichen Eltern einer Therapie nicht zustimmen, bedeutet das eine zusätzliche Belastung für junge Menschen.“
Auch die Stiftung Kindergesundheit stellt in ihrem aktuellen Kindergesundheitsbericht fest, dass das in Artikel 24 der UN-Kinderrechtskonvention verbriefte Recht auf Gesundheit in Deutschland täglich verletzt werde. Die pädiatrische und kinder- und jugendpsychiatrischen Versorgung von Kindern und Jugendlichen in Kliniken und Praxen ist nur unzureichend gewährleistet, der Fachkräftemangel sowohl im ärztlichen als auch im pflegerischen Bereich verschärfe die Situation: „Die Versorgungsengpässe von jungen Menschen mit psychischen Problemen haben sich seit Corona noch einmal deutlich zugespitzt, weil es einfach mehr Kinder und Jugendliche gibt, die Hilfe brauchen“, sagt Priv.-Doz. Dr. med. Katharina Bühren, Vorstandsmitglied der Stiftung Kindergesundheit und ärztliche Direktorin am kbo-Heckscher-Klinikum für Kinder- und Jugendpsychiatrie in München und ergänzt: „Wir brauchen eine Vernetzung der Hilfesysteme: Jugendhilfe, Schulsozialarbeit, Schulpsychologie und die medizinischen Hilfsangebote. Wir müssen uns alle zusammenschließen und alles daransetzen, dass junge Menschen mit psychischen Problemen nicht zu chronisch Kranken werden.“
Weitere Empfehlungen von SOS-Kinderdorf und der Stiftung Kindergesundheit zur Stärkung des Rechts auf Gesundheit von Kindern und Jugendlichen:
• Förderung dauerhafter psychosozialer, psychotherapeutischer und psychiatrischer Angebote mit niedrigschwelliger schulischer Anbindung sowie erweiterter Jugendhilfemaßnahmen in besonders belasteten Wohnquartieren.
• Ausbau evidenzbasierter Maßnahmen in der Kinder- und Jugendhilfe sowie in der Therapie psychischer Störungen des Kindes- und Jugendalters, um eine weitere Verbesserung des Behandlungserfolges bei psychischen Erkrankungen zu erreichen.
• Lehre aus der Pandemie: Offenhalten von Bildungseinrichtungen/Kindertagesstätten unter Berücksichtigung geeigneter Schutzmaßnahmen. Schließungen dürfen nur dann in Betracht gezogen werden, wenn alle anderen Maßnahmen der Kontaktbeschränkung nicht erfolgreich waren.
• Einführung eines Schulfachs Gesundheit zur Verbesserung der Gesundheitskompetenz von Kindern und Jugendlichen. Dieses sollte auch die Förderung von Resilienz zum Ziel haben und das Erlernen von Strategien im Umgang mit Stress vermitteln. Hierdurch kann für alle Schüler*innen eine präventive Maßnahme zur Verringerung psychischer Erkrankungen geschaffen werden.
• Selbstbestimmungsrecht ab 14 Jahren – Kinder und Jugendliche sollten ab 14 Jahren selber entscheiden dürfen, ob sie einer psychotherapeutischen Behandlung bedürfen, auch ohne Zustimmung der Erziehungsberechtigten
Der SOS-Kinderdorf e.V.: SOS-Kinderdorf bietet Kindern in Not ein Zuhause und hilft dabei, die soziale Situation benachteiligter junger Menschen und Familien zu verbessern. In SOS-Kinderdörfern wachsen Kinder, deren leibliche Eltern sich aus verschiedenen Gründen nicht um sie kümmern können, in einem familiären Umfeld auf. Sie erhalten Schutz und Geborgenheit und damit das Rüstzeug für ein gelingendes Leben. Der SOS-Kinderdorfverein begleitet Mütter, Väter oder Familien und ihre Kinder von Anfang an in Mütter- und Familienzentren. Er bietet Frühförderung in seinen Kinder- und Begegnungseinrichtungen. Jugendlichen steht er zur Seite mit offenen Angeboten, bietet ihnen aber auch ein Zuhause in Jugendwohngemeinschaften sowie Perspektiven in berufsbildenden Einrichtungen. Ebenso gehören zum SOS-Kinderdorf e.V. die Dorfgemeinschaften für Menschen mit geistigen und seelischen Beeinträchtigungen. In Deutschland helfen in 38 Einrichtungen insgesamt rund 4.750 Mitarbeitende. Der Verein erreicht und unterstützt mit seinen über 840 Angeboten rund 85.500 Menschen in erschwerten Lebenslagen in Deutschland. Darüber hinaus finanziert der deutsche SOS-Kinderdorfverein 102 Programme in 21 Fokusländern und ist in 110 Ländern mit Patenschaften aktiv. Mehr Informationen unter www.sos-kinderdorf.de SOS-Kinderdorf auf Twitter: @soskinderdorfde
Die Stiftung Kindergesundheit: Als gemeinnützige Organisation mit direkter Anbindung zur Ludwig-Maximilians-Universität München und der dortigen Kinderklinik und Kinderpoliklinik agiert die Stiftung Kindergesundheit an der Schnittstelle zwischen Wissenschaft und Praxis. Sie vernetzt wissenschaftliche Erkenntnisse mit praktischer Anwendung innerhalb ihrer Programme und Projekte. Mit ihren evidenzbasierten Programmen gestaltet sie zielgruppengerechte Prävention – von der Schwangerschaft über den Kindergarten, von der Grundschule bis hin zum Jugendlichen. Ziel ist es, Erkenntnisse aus der Wissenschaft für die Praxis nutzbar zu machen. Gegründet wurde die Stiftung 1997 von Prof. Dr. Dr. h.c. mult. Berthold Koletzko, Facharzt für Kinder- und Jugendmedizin mit Tätigkeit am Dr. von Haunerschen Kinderspital der Ludwig-Maximilians-Universität München. Er ist bis heute ihr Vorstandsvorsitzender. Seit Juli 2022 gehört auch Priv.-Doz. Dr. med. Katharina Bühren zum Vorstandsteam. Mehr Informationen unter www.kindergesundheit.de, auf Twitter: @stiftung_kinder.
Wissenschaftliche Ansprechpartner:
Anna Philippi (M.A.)
Leitung Wissenschaft I Wissenschaftskommunikation
Tel.: +49/151 614 808 92
E-Mail: info@kindergesundheit.de
Internet: www.kindergesundheit.de
Forschungsprojekt WärmeGut: Datenkampagne für die Geothermie in Deutschland gestartet
Greta Clasen Öffentlichkeitsarbeit
Leibniz-Institut für Angewandte Geophysik (LIAG)
Im Forschungsprojekt WärmeGut erarbeiten Wissenschaftlerinnen und Wissenschaftler ein bundesweit einheitliches Informationssystem, um das Potenzial oberflächennaher Geothermie im regionalen Maßstab für die Wärmeversorgung in Deutschland bestmöglich erkennbar und nutzbar zu machen. Dazu wird unter Leitung des Leibniz-Instituts für Angewandte Geophysik (LIAG) das etablierte und über das Internet frei zugängliche Geothermische Informationssystem GeotIS in Zusammenarbeit mit den Projektpartnern des Verbundvorhabens weiterentwickelt. Das BMWK fördert das Projekt im 7. Energieforschungsprogramm – es ist Teil dessen Erdwärmekampagne zur verstärkten Nutzung von Geothermie für die Wärmewende.
Für die konkrete Umsetzung der Energiewende sind Effizienzmaßnahmen und der massive Ausbau der Nutzung erneuerbarer Energien erforderlich. Der Wärmesektor wurde bislang in der Energiewende zu wenig beachtet, obwohl Wärme der größte Bedarfssektor in Deutschland ist. Seit 2019 weisen daher die Forschenden des LIAG auf die Wärmewende mit Geothermie hin. Erdwärme steht ganzjährig verlässlich zur Verfügung. Ihr Potenzial wurde bisher jedoch nur unzureichend erschlossen.
Potenziale erkennbar und nutzbar machen
Mit der Erdwärmekampagne „Geothermie für die Wärmwende“ setzt das BMWK das Ziel, das große Potenzial der Geothermie für eine klimaschonende Wärmeversorgung in Deutschland zu erschließen. In dem Eckpunktepapier des Bundesministeriums werden acht Maßnahmen zur Erreichung dieses Ziels genannt, unter anderem eine Datenkampagne zur Verbesserung der Datenlage insbesondere zu der Oberflächennahen Geothermie. Das Forschungsprojekt WärmeGut des LIAG greift mit seinem Antrag „Flankierung des Erdwärmepumpen-Rollouts für die Wärmewende durch eine bundesweite, einheitliche Bereitstellung von Geoinformationen zur oberflächennahen Geothermie in Deutschland“ genau dieses Ziel einer Datenkampagne auf. Projektpartner im bewilligten Verbundvorhaben sind die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover, die Universität Göttingen und die geoEnergie Konzept gmbH aus Freiberg.
„Um das Potenzial oberflächennaher Geothermie für die Wärmeversorgung in Deutschland anschaulich darzustellen, müssen komplexe Daten des geologischen Untergrunds analysiert, interdisziplinär aufbereitet und für alle Bedarfsgruppen leicht zugänglich zur Verfügung gestellt werden“, erklärt Prof. Dr. Inga Moeck, Leiterin des Projektes WärmeGut und des Forschungsbereichs Geothermie und Informationssysteme am LIAG. „Wichtig ist dabei die Zusammenarbeit von ganz verschiedenen Disziplinen, wie die der Geowissenschaften mit den Wirtschaftswissenschaften, aber auch die mit den Fachbehörden.“ Moeck ist auch Professorin für Angewandte Geothermik und Geohydraulik an der Universität Göttingen.
Die Staatlichen Geologischen Dienste der Länder (SGDs) besitzen für den Aufgabenbereich der oberflächennahen Geothermie höchste Kompetenz, weisen jedoch unterschiedliche Ressourcenausstattung und Datenbereitstellungssysteme auf. Gemeinsam mit den SGDs werden in einem Konsultationsprozess Konzepte zur überregionalen Datenbereitstellung und IT-Systemkomponenten entwickelt sowie Datenlücken durch umfangreiche Datenaufbereitung und Digitalisierung geschlossen, um bundesweit einheitliche Ampelkarten und 3-D-Temperaturmodelle zur oberflächennahen Geothermie in GeotIS bereitzustellen. So werden auf regionaler Skala besonders geeignete, aber auch für die Erdwärmenutzung ungeeignete Standorte leichter identifiziert.
Erweiterung des Geothermischen Informationsportals GeotIS
Bereits seit 2006 werden im etablierten geothermischen Informationssystem GeotIS des LIAG Daten aus dem Bereich der tiefen Geothermie – ab etwa 1.500 Meter Tiefe – geowissenschaftlich aufbereitet, digitalisiert und in dem interaktiven 3-D-Informationsportal über das Internet frei zugänglich gemacht. Dabei entwickelt das Forschungsinstitut sein Portal stetig weiter. Die Daten werden von der Industrie, aber auch in der Forschung, unter anderem für die Reservoirsimulation, täglich genutzt. Nun wird das Portal um neue Untergrunddaten für die gesamte Geothermie erweitert. Es werden aber auch Oberflächendaten zum Wärmebedarf implementiert, so dass erstmalig eine sozioökonomische mit einer geophysikalisch-geologischen Analyse zur Ermittlung des geothermischen Potenzials verknüpft werden kann. Dazu sind die Lehrstühle für Angewandte Geothermik und für Mittelstandsforschung der Universität Göttingen, die Fachfirma geoEnergie Konzept sowie die BGR eingebunden.
Hintergrundinformationen
Über GeotIS
Das Geothermische Informationssystem vom LIAG ist deutschlandweit einzigartig. Mehr als 30 000 Bohrungen bilden die Datengrundlage für GeotIS, welches damit ein wertvolles Potenzial für weitere Forschung und Publikationen bietet. Die Plattform umfasst überwiegend Ergebnisse aus LIAG-Forschungsprojekten, Daten aus Erdöl-Erdgas-Bohrungen, aber auch Geothermie-, Thermal- und Mineralwasserbohrungen sowie Bergbaubohrungen. Die Recherche-Oberfläche ermöglicht die dynamische Generierung von interaktiven Karten, in denen Fachinformationen mit topographischen und statistischen Daten kombiniert werden. Einen detaillierten Einblick in den Untergrund bieten zudem dynamisch generierte Vertikal- und Horizontalschnitte bis in eine Tiefe von 5000 Metern. GeotIS beinhaltet zudem das Auskunftssystem „Geothermische Standorte“ über tiefe geothermische Anlagen in Deutschland, die sich in Betrieb oder im Bau befinden. https://www.geotis.de
Über das LIAG
Das Leibniz-Institut für Angewandte Geophysik (LIAG) mit Sitz in Hannover ist eine eigenständige, außeruniversitäre Forschungseinrichtung. Mit Methoden der Angewandten Geophysik werden zukunftsgerichtete Fragestellungen von gesellschaftlicher Bedeutung untersucht. Der Schwerpunkt der Forschungsarbeiten liegt in der Erkundung des nutzbaren Untergrundes sowie in der Entwicklung von Mess- und Auswerteverfahren. Das Institut blickt auf über 70 Jahre Erfahrung in der Geophysik-Forschung zurück. Durch die langjährige Spezialisierung in der oberflächennahen Anwendung der Geophysik, der Geräte- sowie Dateninfrastruktur sowie der damit einhergehenden Möglichkeit, innerhalb eines Instituts verschiedenste geophysikalische Methoden themenübergreifend zu kombinieren, ist das LIAG deutschlandweit einzigartig. Mit der Geothermie beschäftigt sich das LIAG als Forschungsinstitut mit Geophysik-Expertise bereits seit 1953. https://www.leibniz-liag.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Inga Moeck
Leiterin Geothermik & Informationssysteme LIAG
Telefon: 0511 643 3468
Inga.Moeck@leibniz-liag.de
Anhang
WärmeGut-Projektlogo
Studie: Wie Städte mit grünem Strom eigenes Gas erzeugen können
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Einen Teil des Gasbedarfs, der sich durch Einsparungen auch langfristig nicht vermeiden lässt, können Städte durch selbst hergestellten grünen Wasserstoff und synthetisches Methan ersetzen.
► Ökologische Vorteile: Eine urbane Gasproduktion kann Abfallströme wie Klärwasser und industrielle Abgase verwerten und Treibhausgase reduzieren. Die Abwärme des Herstellungsprozesses kann effizient in der Wärmeversorgung genutzt werden.
► In zwei Studien zeigt das Institut für ökologische Wirtschaftsforschung (IÖW), dass sich die Herstellungsverfahren Elektrolyse, Plasmalyse und Methanisierung für Städte nicht nur ökologisch, sondern teilweise bereits heute auch finanziell lohnen können.
Berlin, 16. November 2022 – Das Prinzip ‚Upcycling‘ eignet sich nicht nur für ausrangierte Kleidung, Geräte oder Möbel, sondern auch für die Gasversorgung, wie Forschende vom Institut für ökologische Wirtschaftsforschung (IÖW) vorschlagen: Städte könnten Abfallprodukte aus der Industrie und aus Kläranlagen weiternutzen, um daraus mithilfe von erneuerbarem Strom nachhaltiges Gas zu gewinnen. Zwar können Städte so nur einen kleinen Teil ihres Gasbedarfes selbst decken, doch hätte die urbane Gasproduktion deutliche ökologische sowie wirtschaftliche Vorteile und könnte Gasimporte ergänzen. Das zeigen die Forschenden am Beispiel Berlins in einem vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Projekt.
Bisher beruht etwa ein Viertel der in Deutschland verbrauchten Primärenergie auf Erdgas. „Um in Berlin und auch in ganz Deutschland so schnell wie möglich klimaneutral zu werden und mehr Versorgungssicherheit zu erreichen, müssen wir den Absprung vom Erdgas schaffen“, erklärt Elisa Dunkelberg, Energieexpertin am IÖW. „Dafür ist es wichtig, den Gasverbrauch für Wärme, Stromproduktion und Industrie so weit wie möglich zu senken. Und dort, wo Gas nicht ersetzbar ist, sollten in Zukunft vor allem grüner Wasserstoff und synthetisches Methan genutzt werden.“
Wie solches Gas in Berlin hergestellt werden könnte und welche Verfahren im Vergleich zu Erdgas besonders viel CO2 sparen, untersuchte das Forschungsprojekt UMAS, das von der Berliner Erdgasspeicher GmbH geleitet wurde. Fazit: Eine Gasproduktion in Städten mit erneuerbarem Strom würde sich für die Umwelt lohnen – weil Abfallprodukte verwendet werden können, weil die Transportwege sowie Verluste gering sind und weil die entstehende Abwärme besonders gut genutzt werden kann. Da Gas besser als Strom gespeichert werden kann, dient das Verfahren zudem als „Power-to-Gas“-Speicher für die städtische Energiewende. Dies ist nötig, um sogenannte Dunkelflauten, in denen weder Solarstrom noch Windenergie erzeugt wird, sowie die schwankende Nachfrage auszugleichen. Die Studie zeigt, dass sich für die urbane Wasserstoffherstellung bereits wettbewerbsfähige Lösungen abzeichnen. Um Methan vor Ort zu produzieren, braucht es noch weitere Forschung und Entwicklung, so die Wissenschaftler*innen.
Der grünste Wasserstoff könnte aus Kläranlagen kommen
Für besonders preiswert und klimafreundlich halten die Forschenden die sogenannte Schmutzwasser-Plasmalyse in Kläranlagen. Dieses neuartige Verfahren, das von der Firma Graforce entwickelt wurde, nutzt erneuerbaren Strom, um von dem Ammonium, das im Klärwasser enthalten ist, Wasserstoff abzuspalten. „Das Verfahren ist eine tolle Chance, um die klimaschädlichen Lachgas-Emissionen von Kläranlagen zu senken und gleichzeitig günstigen Wasserstoff zu produzieren“, erklärt Elisa Dunkelberg. Die Potenziale sind zwar beschränkt, aber Kläranlagen gibt es in jeder Stadt.
Darüber hinaus könnte sich auch Abwasser aus bestimmten Industriezweigen für das Verfahren eignen, etwa aus dem Papierrecycling, aus der Rauchgasreinigung und aus Biogasanlagen. Wenn all diese Potenziale genutzt werden, kann die Schmutzwasser-Plasmalyse schätzungsweise bis zu fünf Prozent des erwarteten Wasserstoffbedarfs in Berlin decken. „Die Plasmalyse ist außerdem effizienter und benötigt weniger Strom als eine Elektrolyse, bei der Wasser zu Wasserstoff und Sauerstoff gespalten wird. Die Kosten sind daher um etwa die Hälfte geringer und können auch mit importiertem Wasserstoff konkurrieren“, so Energieökonom Janis Bergmann vom IÖW.
Doch auch das Elektrolyse-Verfahren schneidet aus ökologischer Sicht besser ab als Erdgas, vor allem, wenn man die entstehende Abwärme nutzt und etwa in das städtische Fernwärmenetz einspeist. Die Herstellungskosten im urbanen Raum liegen jedoch in der Regel höher als an windreichen Orten etwa an der Nord- und Ostsee. Um die klimapolitischen Ziele zu erreichen, ist aber voraussichtlich auch die Herstellung von Wasserstoff an weniger ertragreichen Orten notwendig. „Städte sollten ihre lokalen Potenziale sowohl für die Schmutzwasser-Plasmalyse als auch für die Elektrolyse erschließen“, empfiehlt daher Dunkelberg.
Abgase aus der Industrie nutzen, um Methan herzustellen
Wasserstoff kann bereits heute ins Gasnetz eingespeist werden – derzeit bis zu einem Anteil von zehn Prozent, perspektivisch sogar zwanzig. In Zukunft könnte der lokal produzierte Wasserstoff jedoch auch in speziell dafür gebauten Pipelines und Kraftwerken landen – oder auch für die Produktion von Methan verwendet werden. Zwar ist es energetisch effizienter, den Wasserstoff direkt zu nutzen, doch eine Herstellung von Methan in Städten hat ebenfalls Vorteile: Methan ist ein Energieträger, der sich gut speichern lässt und uneingeschränkt in der vorhandenen Infrastruktur genutzt werden kann.
Auch hier greift das Prinzip „Upcycling“: Für die Herstellung von Methan braucht man neben Wasserstoff und Strom vor allem Kohlenstoffdioxid – ein Abfallprodukt, das in Biogasanlagen entsteht und zum Beispiel auch in den Abgasen von Zementfabriken und Müllverbrennungsanlagen enthalten ist. „Das CO2, das bisher einfach entweicht, könnte man auffangen, methanisieren und so ein weiteres Mal energetisch nutzen“, erklärt Dunkelberg. „Natürlich wird der Kohlenstoff dann beim Verbrennen des Methans wieder freigesetzt – es handelt sich also nicht um eine Kohlenstoffsenke. Aber unsere Berechnungen zeigen, dass klimaneutrales Methan erzeugt werden kann, sofern erneuerbarer Strom für die Produktion genutzt wird.“
Bis zu welchem Grad Berlin und andere Städte ihren Bedarf an Methan und Wasserstoff selbstständig decken könnten und welche Investitionen dafür nötig sind, müsste weiter erforscht werden. In jedem Fall sollten sich städtische Energie(wende)konzepte mit einer urbanen Gasproduktion auseinandersetzen, fordern die Forschenden.
Über das Projekt UMAS
Das Projekt „UMAS: Untertägige Methanisierung im Aquiferspeicher“, untersuchte, ob der ehemalige Erdgasspeicher in Berlin-Charlottenburg ein Power-to-Gas-Energiespeicher werden könnte. Die Untersuchung des Untergrunds ergab jedoch, dass der Standort für eine untertägige Methanisierung nicht optimal und somit nicht wirtschaftlich wäre. Grundsätzlich bewerteten die Forschenden dieses Verfahren sowie weitere Verfahren zur Herstellung von Methan und Wasserstoff allerdings als ökologisch sinnvoll.
Am Projekt beteiligt waren unter Leitung der Berliner Erdgasspeicher GmbH das Reiner Lemoine Institut, das Institut für ökologische Wirtschaftsforschung (IÖW), die Technische Universität Clausthal sowie die Firmen MicroPro und DBI – Gas- und Umwelttechnik. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) förderte das Projekt im Rahmen des 7. Energieforschungsprogramms.
Mehr zu dem Projekt: https://reiner-lemoine-institut.de/umas/
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de
Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-36
elisa.dunkelberg@ioew.de
Originalpublikation:
Elisa Dunkelberg, Jannes Katner (2022): Ökologische Bewertung der inländischen Erzeugung synthetischer Gase. https://www.ioew.de/publikation/oekologische_bewertung_der_inlaendischen_erzeugu…
Janis Bergmann, Nesrine Ouanes, Elisa Dunkelberg (2022): Ökonomische Analyse der inländischen Erzeugung synthetischer Gase. https://www.ioew.de/publikation/oekonomische_analyse_der_inlaendischen_erzeugung…
Weitere Informationen:
https://www.ioew.de/projekt/umas_untertaegige_methanisierung_im_aquiferspeicher
Wieviel Innovationspotential hat die digitale Gesundheitsversorgung?
Lukas Portmann Universitätskommunikation
Universität Luzern
Die Studie «Swiss Health Monitor 2022» des Instituts für Marketing und Analytics (IMA) der Universität Luzern zeigt: Ein Grossteil der Befragten würde sich für eine digitale Begleitung in der Nachsorge interessieren.
Die in Zusammenarbeit mit B. Braun Medical entstandene repräsentative Studie wurde schweizweit erhoben und geht nebst dem Verhalten auch auf die Wünsche und Bedürfnisse der Bevölkerung ein. Ein weiterer Fokus liegt auf möglichen Innovationspotentialen digitaler Angebote für verschiedene Aspekte der Gesundheitsversorgung. Gemäss der Studie sind 73 Prozent der Schweizer Bevölkerung mit der Schweizer Gesundheitsversorgung zufrieden. 81 Prozent der Befragten schätzen den eigenen Gesundheitszustand als gut bis sehr gut ein. Generell zieht eine Mehrheit den physischen Kontakt mit dem Gesundheitspersonal einer digitalen Versorgung vor. Gleichzeitig besteht in drei Bereichen ein signifikantes Potenzial für digitale Interaktion: Prävention, Erstkontakt mit Gesundheitsdienstleistern und Nachsorge.
Digitale Angebote – Verbreitung und Vorbehalte
Im Bereich der Gesundheitsförderung und Prävention ist der Einsatz von Technologie weit verbreitet: Rund die Hälfte der präventiv aktiven Personen nutzt im Alltag regelmässig Hilfsmittel wie Fitness Tracker (z.B. Smart Watches). Bei anderen Berührungspunkten mit der Gesundheitsvorsorge zeigt sich eine geringere Nutzung von Technologien. Beim Auftreten erster Krankheitssymptome sucht eine Mehrheit sachkundigen Rat bei Hausarztpraxen und Apotheken. Diese sind nach wie vor die präferierten Anlaufstellen für Diagnosen und geniessen ein hohes Vertrauen. Auch schulmedizinischen und chirurgischen Behandlungen gegenüber ist die Bevölkerung generell sehr positiv eingestellt. Allerdings zeigte sich noch ein weiteres Bild: Obwohl drei Viertel der Patientinnen und Patienten während einer Therapie professionell begleitet werden, haben rund 55 Prozent der Befragten bereits einmal eine Behandlung abgebrochen oder gar nicht erst angetreten.
Grosses Potenzial in der Nachsorge
Ein grosses wirtschaftliches Potenzial für digitale Dienstleistungen eröffnet die Nachsorge. Die potenzielle Nachfrage für eine Nachbehandlung zu Hause statt in einer Gesundheitseinrichtung wird aktuell von Gesundheitsdienstleistern wenig adressiert. 40 Prozent der im Swiss Health Monitor 2022 befragten Personen geben jedoch an, dass sie sich zusätzlich für eine digitale begleitete Nachsorge interessieren. Beim Bezug von Medikamenten greifen Patientinnen und Patienten primär auf traditionelle Vertriebskanäle wie Hausarztpraxen und Apotheken zurück, was sich im geringen Anteil an Online-Käufen von Medikamenten spiegelt. Überraschend klar fiel die Einstellung der Bevölkerung zum Einsatz von künstlicher Intelligenz (KI) aus: Eine ausschliesslich auf KI basierende Diagnose wünschen sich nur 2 Prozent. Jedoch würden über 90 Prozent der Befragten der Diagnose eines Mediziners oder einer Medizinerin noch mehr Vertrauen schenken, wenn diese durch KI unterstützt würde.
Bezug des Studienberichts
Der «Swiss Health Monitor» umfasst 47 Seiten und bietet vertiefte Einblicke in den aktuellen und künftigen Stand der Schweizer Gesundheitsversorgung. Er enthält detaillierte Betrachtungen der «Customer Health Care Journey» sowie eine Untersuchung zum Engagement der Bevölkerung im Bereich der Gesundheitsversorgung, indem er beispielsweise die Bereitschaft zum Teilen persönlicher Gesundheitsdaten auslotet. Ausserdem finden sich in der Studie an ausgewählten Stellen Subgruppenanalysen, die weiterführende Erkenntnisse ermöglichen, etwa durch die Unterteilung in Altersgruppen oder Patientencharakteristika.
Der vollständige Bericht kann auf der Webseite Swiss Consumer Studies der Universität Luzern bestellt werden. Ausgewählte Insights der Studie sind im PDF-Format frei verfügbar.
Studienhintergrund
Die Datengrundlage des «Swiss Health Monitors» bildet eine repräsentative und schweizweit durchgeführte Online-Umfrage mit 1’028 Personen. Die Erhebung fand zwischen dem 15. Juni und 2. Juli 2022 in Zusammenarbeit mit LINK statt. Der Bericht ist Teil der «Swiss Consumer Studies» des Instituts für Marketing und Analytics (IMA) der Universität Luzern, das in regelmässigen Abständen Studien zu aktuellen Themen des digitalen Konsumentenverhaltens und des digitalen Marketings veröffentlicht.
Auskunft
Dr. Bernhard Lingens, Leiter Area Innovation, Institut für Marketing und Analytics, Universität Luzern, bernhard.lingens@unilu.ch
Yves Ottiger, Chief Marketing Officer, B. Braun Medical AG, Sempach, communications.ch@bbraun.com
Themenpaket zur Fußball-Weltmeisterschaft
Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Hintergrundinfos, Expert*innenservice, Interviews mit Wissenschaftler*innen, Forschungsthemen, Podcast, Spielprognosen …
Anlässlich der FIFA Fußball-Weltmeisterschaft Katar 2022™ (20. November bis 18. Dezember 2022) hat die Deutsche Sporthochschule Köln ein umfangreiches WM-Themenpaket zusammengestellt, welches die sportwissenschaftliche Expertise zahlreicher Institute und Expert*innen widerspiegelt. Im Vordergrund stehen dabei Hintergrundinfos, sachliche Einordnungen und Forschungsbezüge.
Wissenschaftler*innen der Deutschen Sporthochschule Köln sind auch bei sportlichen Großereignissen gefragte Gesprächspartner*innen. In Schrift-, Audio und Videoform haben wir unter www.dshs-koeln.de/wm-themenpaket Interviews und verschiedene Serviceangebote vorbereitet, die Wissen rund um den Fußball vermitteln und zu Nachfragen anregen sollen. Expert*innen aus Sportpolitik, Sportpsychologie, Soziologie, Fußballpraxis, Journalismus und Sportinformatik kommen zu Wort.
Univ.-Prof. Dr. Jürgen Mittag vom Institut für Europäische Sportentwicklung und Freizeitforschung skizziert, wie politisch der Sport ist, was Katar mit der WM-Ausrichtung bezweckt und welche Formen von Protest sinnvoll sind. Das gesamte Gespräch hören Sie in unserem Wissenschaftspodcast „Eine Runde mit…“.
Dr. Babett Lobinger und Hanna de Haan vom Psychologischen Institut ordnen ein, welche Bedeutung die psychologische Betreuung im Leistungssport hat. Sie erklären, warum „Schwäche zeigen“ noch ein Tabuthema im Profifußball ist, wie sich mentale Stärke trainieren lässt und wie wichtig Führungsspieler sind.
Dr. Birgit Braumüller (Institut für Soziologie und Genderforschung) war an der ersten EU-weiten Studie beteiligt, die LGBTIQ-Personen zur Diskriminierung aufgrund sexueller Orientierung oder Geschlechteridentität im Sport befragt hat. Sie spricht über sexuelle Vielfalt im Sport und insbesondere im Fußball.
Martin Jedrusiak-Jung, Institut für Vermittlungskompetenz in den Sportarten, beleuchtet als Experte für Nachwuchsfußball, ob Deutschland „nur“ ein Ausbildungsland ist und ordnet ein, warum der deutschen Fußballnationalmannschaft ein Stürmer fehlt.
Univ.-Prof. Dr. Daniel Memmert beschäftigt sich als studierter Mathematiker und Professor für Sportinformatik mit Spielanalyse, Prognosemodellen und Daten rund um den Fußball. Er nimmt im Interview das Sportliche in den Blick, räumt mit Elfmeter-Mythen auf und skizziert, welche Rolle der Zufall im Fußball spielt.
Dr. Christoph Bertling erläutert als Medien- und Kommunikationsexperte, wie sich der Sportjournalismus gewandelt hat, wo die Gefahr von so genannten Filterblasen liegt und was eigentlich Corporate Sports Journalism bedeutet.
Forschungsprojekte und -erkenntnisse der Deutschen Sporthochschule Köln, die im Zusammenhang mit der WM relevant und interessant sind, haben wir mit Beschreibungen und Links zu Artikeln und Studien übersichtlich zusammengefasst, unter anderem zu sportbedingten Gehirnerschütterungen, zur Rolle von Schiedsrichter*innen und Video Assistant Referees (VAR), zu Positionsdaten und Big Data, zu Taktik und Kreativität im Fußball und nicht zuletzt zur Anti-Doping-Forschung.
Dank unserer Expert*innenliste zu mehr als 100 Teilaspekten rund um den Fußball finden Medienvertreterinnen und -vertreter schnell die richtigen Ansprechpersonen für unterschiedliche Fragestellungen. Tagesaktuell wird es zudem eine Spielprognose geben.
Das WM-Themenpaket der Deutschen Sporthochschule Köln erreichen Sie online unter www.dshs-koeln.de/wm-themenpaket.
Weitere Informationen:
http://www.dshs-koeln.de/wm-themenpaket
Das Digitalzeitalter verstehen
Pia Barth Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Eine neue Stiftungsprofessur „Digitale Transformation und Arbeit“ bereichert die sozialwissenschaftliche Forschung an der Goethe-Universität in der Tradition einer kritischen Gesellschaftstheorie: Gestern wurde dazu der Vertrag von den beiden Stiftern ProLife Stiftung und Frankfurter University of Labour sowie der Goethe-Universität unterzeichnet.
Digitalität ist längst zu einem selbstverständlichen Bestandteil unseres Alltags geworden und hat Wirtschaft und Arbeit bereits fundamental verändert – über unternehmerischen Erfolg bestimmt etwa, ob Daten maximal akkumuliert und Algorithmen kompetent verwaltet werden, ob höchste Aufmerksamkeit bei potenziellen Kunden erzielt und quasi in Echtzeit geliefert wird. Wie vollzieht sich dieser Wandel und welche sozialen Folgen gehen mit dem Wechsel vom Industriezeitalter zum Digitalzeitalter einher – für die Gesellschaft und speziell für die Wirtschaft und Arbeitswelt? Wie verändern die neuen Technologien soziale Praktiken und Arbeitsabläufe, die politische Öffentlichkeit und Formen der betrieblichen Beteiligung und Mitbestimmung? Die neue Stiftungsprofessur wird am Fachbereich Gesellschaftswissenschaften der Goethe-Universität diesen Fragen auf den Grund gehen.
Finanziert wird die Professur durch einen Stiftungsfonds der ProLife Stiftung und der University of Labour, eine Einrichtung der IG-Metall und des Deutschen Gewerkschaftsbundes (DGB). Gestern wurde der Vertrag im Beisein des Dekans des Fachbereichs Gesellschaftswissenschaften, Prof. Dr. Christopher Daase, von Jürgen Eckert, Vorstandsvorsitzender der ProLife Stiftung, Prof. Dr. Martin Allespach, Präsident der University of Labour, und Rainer Gröbel, Kanzler der University of Labour, sowie Prof. Dr. Enrico Schleiff, Präsident der Goethe-Universität, unterzeichnet.
„Mit der Professur wollen wir das Verständnis für die sozialen Folgen der Digitalisierung fördern“, erklärte Eckert das Ziel des neuen Stiftungsfonds. „Was technisch an Veränderungen auf die Arbeitswelt zukommt, können wir überall beobachten – uns fehlt aber das Narrativ dafür, was das eigentlich für den Menschen in seiner Arbeits- und Lebenswelt bedeutet“. Gröbel führte weiter aus: „Es geht uns nicht um eine Ablehnung der digitalen Transformation, sondern es geht uns um die Frage, wie wir Wissen und Kompetenzen im Umgang mit den Transformationsprozessen an Studierende und Beschäftigte in den Unternehmen vermitteln.“ Die Stifter betonen, dass sie mit der Wahl der Goethe-Universität bewusst an die Tradition der kritischen Gesellschaftstheorie anknüpfen und die Stärke der Hochschule in Sozialphilosophie und Sozialforschung ausbauen wollen.
„Wir freuen uns sehr über das Vertrauen in die Goethe-Universität, wesentliche Beiträge für die Lösung drängender globaler Herausforderungen in Forschung und Lehre zu leisten“, sagte Universitätspräsident Schleiff. „Die Stiftung gibt uns darüber hinaus die Möglichkeit, unseren Profilbereich ,Orders & Transmissions‘ zu stärken, in dem sich Kolleginnen und Kollegen aus verschiedenen Fachbereichen und Zentren unserer Goethe-Universität vor allem auch dieser Frage widmen: Was bedeutet der fundamentale digitale Wandel und seine Folgen für die Zukunft von Mensch, Natur und Umwelt?“
„Für den Fachbereich Gesellschaftswissenschaften“, so der Dekan des Fachbereichs, Prof. Dr. Christopher Daase, „bietet die neue Professur die Möglichkeit, sein Profil in der kritischen Sozialforschung zu schärfen und seine politische und gesellschaftliche Relevanz unter Beweis zu stellen.“
Die ProLife Stiftung und die University of Labour sind der Goethe-Universität sowie dem Institut für Sozialforschung, dem Sigmund Freud- und dem Frobenius-Institut durch Projektförderungen bereits verbunden. Durch die Stiftungsprofessur wird sich die Zusammenarbeit von Goethe-Universität und University of Labour intensivieren.
Keine Anzeichen für einen Rückgang der weltweiten CO2-Emissionen
LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Neuer Bericht des Global Carbon Projects zeigt: Die fossilen CO2-Emissionen werden bis Ende 2022 weltweit bei 36,6 Milliarden Tonnen CO2 liegen.
Im Jahr 2022 erreichen die fossilen CO2-Emissionen weltweit 36,6 Milliarden Tonnen CO2 und werden somit leicht höher liegen als vor der Corona-Pandemie. Zusammen mit Landnutzungsemissionen von 3,9 Milliarden Tonnen belaufen sich die Gesamtemissionen auf 40,6 Milliarden Tonnen und damit leicht unter den bislang höchsten Werten von 2019 (40,9 Milliarden Tonnen). Dies zeigt der aktuelle Bericht des Global Carbon Projects.
Die weiterhin hohen Emissionen stehen im Widerspruch zu dem Rückgang, der nötig wäre, um die Pariser Klimaziele zu erreichen. Um die globale Erwärmung mit einer 50%-Wahrscheinlichkeit auf 1,5°C zu begrenzen, dürfen insgesamt nur noch 380 Milliarden Tonnen CO2 emittiert werden. Wenn man von den Emissionswerten des Jahres 2022 ausgeht, wird diese Menge nun schon in neun Jahren erreicht sein.
Klimapolitik und technologischer Wandel greifen noch nicht genug
Der Bericht zeigt, dass sich das langfristige Wachstum der fossilen Emissionen abgeschwächt hat. 24 Länder mit wachsenden Volkswirtschaften haben ihre fossilen CO2-Emissionen sogar gesenkt. Doch dies reicht nicht, um die Klimaziele des Pariser Abkommens zu erreichen. Um bis zum Jahr 2050 null CO2-Emissionen zu erreichen, müssten die gesamten anthropogenen CO2-Emissionen um durchschnittlich 1,4 Milliarden Tonnen CO2 pro Jahr gesenkt werden, vergleichbar mit dem beobachteten Rückgang der Emissionen im Jahr 2020 infolge der COVID-19-Pandemie, was das Ausmaß der erforderlichen Maßnahmen verdeutlicht.
Die prognostizierte Zunahme der fossilen CO2-Emissionen im Jahr 2022 ist vor allem auf den höheren Ölverbrauch durch den wieder gestiegenen Flugverkehr zurückzuführen. Dabei sind regionale Unterschiede deutlich spürbar. So werden die Emissionen im Jahr 2022 im Vergleich zu 2021 in China um etwa 0,9% und in der Europäischen Union um 0,8% sinken. In anderen Regionen werden sie hingegen zunehmen: in den Vereinigten Staaten um 1,5%, in Indien um 6% und in der übrigen Welt um 1,7%.
Dies spiegelt die derzeitigen geopolitischen Krisen und die Pandemielage wider: Der Rückgang der Emissionen in China ist auf die Auswirkungen coronabedingter Lockdowns zurückzuführen. In der EU hingegen ist der Rückgang vor allem durch die Einschnitte in der Gasversorgung zu erklären – die Emissionen liegen 2022 etwa 10% niedriger als im Vorjahr. Teils wird dies aber durch einen Anstieg der Emissionen aus Kohle (um 6,7%) und Öl (um 0,9%) wettgemacht.
Der Bericht zum Global Carbon Budget 2022 wird veröffentlicht, während sich die Staats- und Regierungschefs der Welt auf der COP27 in Ägypten treffen, um über die Klimakrise zu diskutieren. „Wir sehen einige positive Entwicklungen, aber bei Weitem nicht die tiefgreifenden Maßnahmen, die jetzt eingeleitet sein müssten, um die globale Erwärmung auf deutlich unter 2 Grad zu halten. Die fossilen Emissionen steigen, statt zu sinken. Die Landnutzungsemissionen liegen weiterhin hoch – im Widerspruch zu dem auf der letztjährigen Klimakonferenz gefassten Beschluss, bis 2030 die globale Entwaldung zu stoppen. Unsere Ambitionen müssen verschärft, ihre Umsetzung viel nachdrücklicher vollzogen werden, wenn die Ziele des Pariser Abkommens Realität werden sollen“, sagt Julia Pongratz, Professorin für Physische Geographie und Landnutzungssysteme an der LMU und Teil des Kernteams des Berichts.
Tropische Entwaldung sorgt für hohe Emissionen
Einen großen Einfluss auf die globale Kohlenstoffbilanz hat neben fossilen Emissionen auch die Landnutzung durch den Menschen. So werden die Emissionen aus der Landnutzung in diesem Jahr bei geschätzt 3,9 Milliarden Tonnen CO2 liegen. „Den größten Anteil hat die Entwaldung mit Emissionen von etwa 6,7 Milliarden Tonnen CO2 pro Jahr im letzten Jahrzehnt – hier gibt es großes Potenzial für Emissionsreduktionen. Die Hälfte dieser Emissionen, 3,5 Milliarden Tonnen CO2, wird durch nachwachsende Wälder und Aufforstungen kompensiert. Diese Senken gilt es aufrechtzuerhalten und weiter auszubauen“, sagt LMU-Mitarbeiter Clemens Schwingshackl, der ebenfalls zum Bericht beitrug.
Die Landnutzungsemissionen entstehen vor allem in den tropischen Regionen – Indonesien, Brasilien und die Demokratische Republik Kongo waren im letzten Jahrzehnt für zusammen 58% der weltweiten Landnutzungsemissionen verantwortlich.
Der Bericht zum Global Carbon Budget erfasst auch den Verbleib der anthropogenen CO2-Emissionen in den natürlichen Senken. Für 2022 schätzen die Wissenschaftler*innen die CO2-Aufnahme des Ozeans auf 10,5 Milliarden Tonnen, die auf dem Land auf 12,4 Milliarden Tonnen. Die verbleibende knappe Hälfte der Gesamtemissionen lässt die atmosphärische CO2-Konzentration weiter steigen, auf 51% über ihrem vorindustriellen Niveau.
Der Bericht zum Global Carbon Budget wird gemeinsam von mehr als 100 Wissenschaftler*innen aufgrund von Daten globaler Messnetzwerke, Satellitendaten, statistischen Erhebungen und Modellrechnungen erstellt. Aus Deutschland, Österreich und der Schweiz sind Wissenschaftler*innen des Alfred-Wegener-Instituts (Bremerhaven), der Ludwig-Maximilians-Universität (München), des Max-Planck-Instituts für Meteorologie (Hamburg), des Max-Planck-Instituts für Biogeochemie (Jena), des Karlsruhe Institut für Technologie, des GEOMAR Helmholtz-Zentrums für Ozeanforschung (Kiel), des Leibniz-Instituts für Ostseeforschung (Warnemünde), des International Institute for Applied Systems Analysis (Laxenburg), der ETH Zürich und der Universität Bern beteiligt. Das Global Carbon Budget 2022 ist die 17. Ausgabe des jährlich erscheinenden Berichts, der durch unabhängige Expert*innen begutachtet wird.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Julia Pongratz
Inhaberin des Lehrstuhls für Physische Geographie und Landnutzungssysteme
Tel: +49 (0) 89 / 2180 – 6652
E-Mail: julia.pongratz@lmu.de
Originalpublikation:
Friedlingstein et al. (2022) Global Carbon Budget 2022. Earth System Science Data, DOI: https://doi.org/10.5194/essd-14-4811-2022
Konzertreihe: Corona-Spürhunde sind alltagstauglich
Sonja von Brethorst Presse- und Öffentlichkeitsarbeit
Stiftung Tierärztliche Hochschule Hannover
Studie „Back to Culture“ veröffentlicht.
Die Stiftung Tierärztliche Hochschule Hannover (TiHo) untersuchte in Zusammenarbeit mit der Medizinischen Hochschule Hannover (MHH), dem Robert Koch-Institut, Hannover Concerts, ProEvent Hannover und der AWiAS Aviation Services GmbH, ob ausgebildete Corona-Spürhunde im Alltag eingesetzt werden könnten, um mit SARS-CoV-2 infizierte Personen aufzuspüren. Für die Studie veranstaltete das Projektteam Ende 2021 vier Konzerte, bei denen die Corona-Spürhunde am Einlass an Tupfern mit Schweißproben aller Besucherinnen und Besucher rochen, um Corona-Infektionen zu entdecken. Ihre Ergebnisse veröffentlichte das Forschungsteam heute in der Fachzeitschrift BMJ Global Health. Das Niedersächsische Ministerium für Wissenschaft und Kultur unterstützte die Studie mit rund einer Million Euro. „Ich freue mich über den Erfolg der Machbarkeitsstudie ‚Back to Culture‘“, so Niedersachsens Minister für Wissenschaft und Kultur Falko Mohrs. „Sie zeigt, dass der Einsatz der Hunde eine Option sein kann und ist ein weiterer Beleg für die Kreativität und Innovationskraft Niedersachsens.“
Die Trefferquote der Hunde lag bei fast 100 Prozent. Acht Hunde waren im Vorfeld darauf trainiert worden, SARS-CoV-2-positive-Proben am Geruch zu erkennen. Um zu bewerten, wie gut die Leistung der Corona-Spürhunde, Menschen auf SARS-CoV-2 zu screenen, in einer alltäglichen Situation funktioniert, organisierte das Projektteam vier Konzerte mit Fury in the Slaughterhouse, Bosse, Alle Farben und Sido. Insgesamt kamen 2.802 Teilnehmende zu den vier Veranstaltungen. Sie alle gaben Schweißproben ab, die den Tieren in einer Anordnung, bei der die Besucherinnen und Besucher keinen direkten Kontakt zu den Hunden hatten, präsentiert wurden. Zusätzlich hatten sich vor dem jeweiligen Konzert alle Teilnehmenden mit einem SARS-CoV-2-spezifischen Antigen-Schnelltest und einer RT-qPCR testen lassen. Zudem machten sie Angaben zu Alter, Geschlecht, Impfstatus und ihrer Krankheitsgeschichte.
Die SARS-CoV-2-Spürhunde erreichten eine diagnostische Spezifität von 99,93 Prozent (Erkennung negativer Proben) bzw. eine Sensitivität von 81,58 Prozent (Erkennung positiver Proben). Die Gesamtrate übereinstimmender Ergebnisse betrug 99,68 Prozent. Die Mehrheit der Teilnehmenden war mit unterschiedlichen Impfstoffen und Impfschemata geimpft worden, mehrere Besucherinnen und Besucher litten an chronischen Krankheiten und wurden chronisch medikamentös behandelt. Dies hatte keinen Einfluss auf die Entscheidungen und die Arbeit der Hunde.
Professor Dr. Holger Volk, Leiter der Klinik für Kleintiere der TiHo sagte: „Unsere Ergebnisse zeigen, dass SARS-CoV-2-Spürhunde in einem realen Szenario eine hohe diagnostische Genauigkeit erreichen können. Impfstatus, frühere SARS-CoV-2-Infektion, chronische Erkrankung und Medikation der Teilnehmenden hatten keinen Einfluss auf die Leistung der Hunde, eine akute Infektion zu erkennen. Außerdem zeigt die Studie, wie es organisatorisch gut möglich ist, Corona-Spürhunde im Alltag einzusetzen.“
Das Projekt „Back to Culture“
Schon im Juli 2020 hatte ein Forschungsteam der Klinik für Kleintiere in einer Pilotstudie gezeigt, dass Hunde mit ihrem ausgeprägten Geruchssinn in der Lage sind, Speichelproben SARS-CoV-2-infizierter und gesunder Menschen unter Laborbedingungen mit rund 94-prozentiger Sicherheit zu unterscheiden. Eine Folgestudie ergab, dass auch Schweiß und Urin geeignetes Probenmaterial sind. Ziel des gemeinsamen Projekts „Back to Culture“ war es, zu prüfen, wie und ob Großveranstaltungen durch den Einsatz von Corona-Spürhunden sicherer werden können. Die Studienergebnisse liefern zudem eine Aussage darüber, ob Corona-Spürhunde auch in anderen Alltagssituationen eingesetzt werden könnten.
Die Corona-Spürhunde
Im Alltag kommen Spürhunde täglich in vielen Bereichen zum Einsatz, wie zum Beispiel im Bereich der Sprengstoffsuche. Für eine gemeinsame Studie wurden darum im vergangenen Jahr Sprengstoffspürhunde der Bundeswehr und Spürhunde der AWiAS Aviation Services GmbH trainiert und getestet. Das Training der Hunde erfolgte mit Proben SARS-CoV-2-positiver Menschen, die zuvor chemisch inaktiviert wurden, um für Mensch und Tier während des Trainings die Gefahr einer Infektion auszuschließen. Für das Projekt „Back to Culture“ wurden Sprengstoffspürhunde der AWiAS Aviation Services GmbH trainiert. Die Konzertbesucherinnen und Konzertbesucher kamen bei den Konzerten nicht mit den Hunden in Kontakt. Nachdem sie sich mit einem Wattepad über die Armbeuge gestrichen haben, gaben sie das Pad ab.
Die Originalpublikation
ten Hagen NA, Twele F, Meller S, et al. Canine real-time detection of SARS-CoV-2 infections in the context of a mass screening event. BMJ Global Health 2022;0:e010276. https://doi.org/10.1136/bmjgh-2022-010276
Übersichtsartikel zum selben Thema
Jendrny, P., Twele, F., Meller, S. et al. Canine olfactory detection and its relevance to medical detection. BMC Infect Dis (2021) https://doi.org/10.1186/s12879-021-06523-8
Wissenschaftliche Ansprechpartner:
Professor Dr. Holger Volk
Stiftung Tierärztliche Hochschule Hannover
Klinik für Kleintiere
Tel.: +49 511 953-6202
holger.volk@tiho-hannover.de
Originalpublikation:
https://doi.org/10.1136/bmjgh-2022-010276
Weitere Informationen:
http://www.tiho-hannover.de/pressemitteilungen
Kinder lernen wissenschaftliches Denken früher als gedacht | Neue Studie zeigt Einfluss von Eltern
Timo Fuchs Pressestelle
Universität Vechta
Wissenschaftliche Informationen verstehen und bewerten zu können, ist eine entscheidende Fähigkeit auch für das gesellschaftliche Leben, etwa bei der Bewältigung von Klimawandel oder Corona-Pandemie.Während man lange davon ausging, dass junge Kinder nicht in der Lage seien, wissenschaftlich zu denken, weist nun eine neue Studie nach, dass bereits 6-Jährige grundlegende Fähigkeiten darin zeigen. Wie sehr sie diese entwickeln, hängt wesentlich von der Förderung durch Eltern ab.
Hinweis: Diese Studie wird in Kürze auf einem internationalen pädagogischen Fachtag in Norddeutschland zur Entwicklung von Kindern vorgestellt. Der Fachtag dreht sich um wissenschaftliche Erkenntnisse zu einer Schlüssel-Kompetenz für das soziale Leben von Kindern: ihrer Fähigkeit, andere zu verstehen. Weitere Informationen unter dieser Meldung.
Erstmals Studie mit Grundschüler*innen auf diese Weise durchgeführt
Lange Zeit ging man davon aus, dass junge Kinder nicht in der Lage seien, wissenschaftlich zu denken. Das betrifft Fähigkeiten wie Daten zu bewerten, zu beurteilen, ob ein Experiment ein gutes oder ein schlechtes ist, oder ein grundlegendes Verständnis davon zu entwickeln, was Wissenschaftlerinnen und Wissenschaftler eigentlich machen. Eine Studie von Christopher Osterhaus, Juniorprofessor für Entwicklungspsychologie im Handlungsfeld Schule an der Universität Vechta, und Susanne Koerber, Professorin für Frühe Bildung der Pädagogischen Hochschule Freiburg, zeigt nun jedoch, dass bereits 6-Jährige erstaunliche Kompetenzen im wissenschaftlichen Denken aufweisen. Veröffentlicht wurden die Ergebnisse bereits in der renommierten Forschungszeitschrift „Child Development“.
Die beiden Wissenschaftler*innen der Universität Vechta und der Pädagogischen Hochschule Freiburg sind die ersten, die das wissenschaftliche Denken im Kindesalter in dieser Kombination aus besonders langem Zeitraum mit besonders kurz aufeinander folgenden Test-Intervallen und einer besonders hohen Zahl an Test-Aufgaben erfasst haben. Untersucht wurden in der fünfjährigen Längsschnittuntersuchung insgesamt 161 Kindergarten- und Grundschulkinder.
„Wir haben die Kinder zum ersten Mal im Kindergarten interviewt und sie dann bis ans Ende der Grundschulzeit begleitet“, erläutert Osterhaus. „Dabei haben wir jährlich ihre Kompetenzentwicklung gemessen. Auf diese Weise lässt sich sehr genau verfolgen, wann Entwicklungsschritte auftreten und wovon diese abhängen.“
Vorurteil widerlegt: Mädchen nicht schlechter als Jungen
Im Gegensatz zum geläufigen Vorurteil weist die Studie allerdings keine Gender-Unterschiede nach: Mädchen schnitten ebenso gut ab wie Jungen. „Manch eine Studie findet Gender-Unterschiede im wissenschaftlichen Denken“, sagt Osterhaus.
„Dies ist allerdings in der Regel nur der Fall, wenn Aufgaben verwendet werden, die überwiegend aus einem einzelnen naturwissenschaftlichen Inhaltsbereich stammen, wie beispielsweise der Physik. Wir haben in unserer Studie Aufgabenverwendet, die kindgerecht und in Kontexte eingebettet sind, die Jungen und Mädchen gleichermaßen ansprechen.“
Elternhaus entscheidend für Entwicklung
Neben den allgemeinen Fähigkeiten der Kinder (in erster Linie ihrem Sprachverständnis) scheint insbesondere ihr soziales Verständnis eine Rolle dabei zu spielen, wie gut sie wissenschaftlich denken. Aber auch das Elternhaus spielt eine wichtige Rolle. So haben die beiden Wissenschaftler*innen gezeigt, dass Kinder aus Elternhäusern mit einem hohen Bildungsniveau besser in den Testungen abschnitten als Kinder aus Elternhäusern mit einem durchschnittlichen oder niedrigen Bildungsniveau. Die Grundschule wirkte demnach nicht ausgleichend, sondern schien Unterschiede durch soziale Milieus eher zu verfestigen.
Zu Beginn der Grundschulzeit sind grundlegende Fähigkeiten vorhanden, vieles aber entwickelt sich noch. So müssen Lehrkräfte und Eltern die Kinder gezielt fördern, damit sich ihr wissenschaftliches Denken entfalten kann. Kindergarten und Schule müssen also hier ansetzen, um diesen Unterschieden entgegenzuwirken.
„Bis zum Ende der Grundschulzeit scheint es ein enormes Potenzial zur Entwicklung des wissenschaftlichen Denkens zu geben“, erläutert Christopher Osterhaus. „Aber während manch ein Kindergartenkind bereits komplexe Datenmuster korrekt interpretiert, haben andere Kinder selbst am Ende der Grundschulzeit Probleme damit, ein gutes von einem schlechten Experiment zu unterscheiden. Das heißt, die Kinder, die bereits im Kindergarten gut sind, sind diejenigen Kinder, die auch am Ende der Grundschulzeit ihren Klassenkamerad*innen weit voraus sind.“
Hinweis zum pädagogischen Fachtag
Diese Studie wird u.a. auf einem internationalen pädagogischen Fachtag in Norddeutschland zur Entwicklung von Kindern im Kontext von Schulen vorgestellt. Der Fachtag dreht sich um wissenschaftliche Erkenntnisse zu einer Schlüssel-Kompetenz für das soziale Leben von Kindern: ihrer Fähigkeit andere zu verstehen.
Dabei geht es auch um Studienergebnisse etwa zur mentalen Gesundheit von Kindern, zu homophobem Mobbing oder dem Einfluss von Schule auf die Entwicklung der Kompetenz, andere zu verstehen.
Datum: 17. + 18. November 2022
Ort: Universität Vechta, Driverstr. 22, 49377 Vechta
Für weitere Informationen für Ihre Berichterstattung sprechen Sie uns gerne an.
Ausblick zur weiteren Forschung
An der Universität Vechta laufen in Kooperation mit Partneruniversitäten weitere Studien zur Entwicklung und Förderung des wissenschaftlichen Denkens. In einer Zusammenarbeit mit der Universität Pavia führen die Wissenschaftler*innen Prof. Dr. Serena Lecce und Prof. Dr. Christopher Osterhaus eine Studie durch, in der untersucht wird, wie sich das wissenschaftliche Denken im Grundschulalter fördern lässt.
Da die oben genannte Studie von Osterhaus und Koerber einen Hinweis darauf liefert, dass zu wenig im Bereich der Förderung des wissenschaftlichen Denkens im Grundschulalter passiert, sind solche Trainingsstudien von großer Relevanz, da sie Wege aufzeigen können, wie Grundschullehrer*innen die Kompetenzen der Kinder effektiver fördern können. Die Erkenntnisse aus diesen und weiteren Studien sind somit von zentraler Bedeutung für die Lehrer*innenbildung.
Wissenschaftliche Ansprechpartner:
Junior-Prof. Christopher Osterhaus, Universität Vechta
Originalpublikation:
Die Original-Studie finden Sie hier: PM LS Scientific reasoning Osterhaus, C., & Koerber, S. (2022). The complex associations between children’s scientific reasoning and advanced theory of mind. Child Development:
https://srcd.onlinelibrary.wiley.com/doi/10.1111/cdev.13860
Anhang
Flyer Internationaler Pädagogischer Fachtag Vechta 2022 (englisch)
Energiewende in Südhessen: Vortragsreihe „Energie für die Zukunft“ startet wieder
Simon Colin Hochschulkommunikation
Hochschule Darmstadt
Nach zweijähriger Coronapause findet die Vortragsreihe „Energie für die Zukunft“ wieder vor Ort in der Centralstation Darmstadt statt. Expertinnen und Experten aus Wissenschaft, Wirtschaft und Verwaltung geben Einblicke in Themen rund um die Energiewende und Klimaneutralität in der Region. Auftakt ist am Montag, 21. 11., um 19 Uhr mit einem Podiumsgespräch zur Nachhaltigen Energiewende in Südhessen.
Einmal monatlich ist ab sofort wieder „Energie für die Zukunft“-Zeit. Immer montags um 19 Uhr laden die Hochschule Darmstadt (h_da), das „ENTEGA NATURpur Institut“ und die Wissenschaftsstadt Darmstadt in Kooperation mit der Centralstation Darmstadt Fachleute aus Wissenschaft, Wirtschaft und Verwaltung zum „Wissenschaftstag“ ein. Der Eintritt zu den Vorträgen in der Centralstation ist frei.
Zum Auftakt der Vortragsreihe am Montag, 21.11., geht es in einem Podiumsgespräch um die Frage: „Nachhaltige Energiewende Südhessen – Welche Rolle spielen Bürgerinnen und Bürger, Politik und Unternehmen bei der Umsetzung der Energiewende?“. Es diskutieren auf dem Podium und mit dem Publikum: Dr. Marie Luise Wolff, Vorstandsvorsitzende der „ENTEGA AG“ und Präsidentin des BDEW, HEAG-Vorstand Prof. Dr. Michael Ahrend, HEAG mobilo-Geschäftsführer Michael Dirmeier und Lutz Köhler, Erster Kreisbeigeordneter des Landkreises Darmstadt-Dieburg.
Von der „Forschung an Europas einzigartigem Teilchenphysikzentrum CERN“ berichtet am Montag, 12.12., Dr. Kristof Schmieden. Er selbst arbeitete bis 2020 am weltweit größten Forschungszentrum für Teilchenphysik und forscht heute an der Johannes Gutenberg-Universität in Mainz. Bei „Energie für die Zukunft“ stellt er das CERN vor und gibt Einblicke in aktuelle Fragestellungen der Teilchenphysik, die auch für die Energietechnik relevant sind.
Das „Reallabor DELTA“ stellt am Montag, 23.01.2023, Prof. Dr. Jens Schneider vom Institut für Statik und Konstruktion der TU Darmstadt vor. Das „Darmstädter Energie-Labor für Technologien in der Anwendung“ (DELTA), an dem auch die Hochschule Darmstadt beteiligt ist, versteht sich als „Schaufenster für die urbane Energiewende zur Demonstration interagierender, energieoptimierter Quartiere“.
„Solarstrom für alle – Bürgersolarberatung in Darmstadt und Südhessen“ heißt es zum Abschluss der Vortragreihe am 13.02.2023, ebenfalls ab 19 Uhr. Heike Böhler von „HeinerEnergie Darmstadt“ und Michael Anton von der Klima-Initiative Ober-Ramstadt erläutern ihre Projekte und erklären, wie die Menschen in Darmstadt und Region Solarstrom für sich nutzen können.
„Energie für die Zukunft ist die Vorreiterin der Veranstaltungsreihen zu den Themenfeldern Energiewende und Nachhaltigkeit in Darmstadt und Südhessen“, sagt Moderator Prof. Dr. Ingo Jeromin vom Fachbereich Elektrotechnik und Informationstechnik der Hochschule Darmstadt. „Wir freuen uns, dass wir mit unseren Partnern bereits zum sechzehnten Mal den Menschen in Stadt und Region aktuelle Informationen mit auf den Weg geben können.“
Auch Matthias W. Send, Vorsitzender der Geschäftsführung der „ENTEGA NATURpur Institut gGmbH“, sieht die Vorteile der langjährigen Zusammenarbeit: „Die Kooperation von Wissenschaft und Wirtschaft ist ein entscheidender Baustein, um die Gesellschaft weiterzuentwickeln. Das gilt insbesondere für die Energie- und Klimawende.“
Veranstaltungsort
Centralstation Darmstadt
Im Carree
64283 Darmstadt
Beginn jeweils um 19 Uhr, montags, im Rahmen des Wissenschaftstags. Der Eintritt ist frei.
Programmübersicht:
Montag, 21. November 2022
Nachhaltige Energiewende Südhessen – Welche Rolle spielen Bürgerinnen und Bürger, Politik und Unternehmen bei der Umsetzung der Energiewende?
Mit Dr. Marie Luise Wolff, Vorstandsvorsitzende der ENTEGA AG und Präsidentin des BDEW, HEAG-Vorstand Prof. Dr. Michael Ahrend, HEAG mobilo-Geschäftsführer Michael Dirmeier und Lutz Köhler, Erster Kreisbeigeordneter des Landkreises Darmstadt-Dieburg.
Montag, 12. Dezember 2022
Forschung an Europas einzigartigem Teilchenphysikzentrum: CERN. Teilchenphysik – Interkulturelle Zusammenarbeit – Innovationenprojekt
Dr. Kristof Schmieden, Senior Researchers, Johannes Gutenberg-Universität Mainz
Montag, 23. Januar 2023
Das Reallabor DELTA – delta-darmstadt.de
Prof. Dr. Jens Schneider, Institut für Statik und Konstruktion, TU Darmstadt
Montag, 13. Februar 2023
Solarstrom für alle – Bürgersolarberatung in Darmstadt und Südhessen
Heike Böhler (HeinerEnergie Darmstadt) und Michael Anton (Klima-Initiative Ober-Ramstadt)
BLUE PLANET Berlin Water Dialogues
Moritz Lembke-Özer Presse- und Öffentlichkeitsarbeit
Kompetenzzentrum Wasser Berlin gGmbH (KWB)
Die BLUE PLANET Berlin Water Dialogues sind die globale und etablierte Netzwerk-Plattform, die internationale InteressenvertreterInnen und Stakeholder aus Forschung, Wirtschaft und Politik im Bereich des innovativen Wassermanagements zusammenbringt. Noch kann man sich für die nächste Online-Konferenz am 22. November 2022 anmelden.
Die BLUE PLANET Berlin Water Dialogues beleuchten am 22. November 2022 mit dem diesjährigen Schwerpunkt Artificial Intelligence: Reshaping the Water Industry ein international hochaktuelles Thema. Das Programm steht: Die in Berlin organisierte, englischsprachige Online-Konferenz bringt Interessenvertreter:innen aus Forschung, Wirtschaft und Politik im Bereich des innovativen Wassermanagements zusammen, um Zukunftsthemen der globalen Wasserwirtschaft zu diskutieren. Gefördert werden die BLUE PLANET Berlin Water Dialogues durch die Exportinitiative Umweltschutz – GreenTech „Made in Germany“ des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) und die Berliner Senatsverwaltung für Wirtschaft, Energie und Betriebe (SenWEB).
In gut zehn Jahren hat sich die BLUE PLANET Berlin Water Dialogues-Konferenzreihe als das global führende Forum der Wasserwirtschaft etabliert. Seit der erfolgreichen digitalen Premiere 2021 wird die Fachkonferenz virtuell durchgeführt und eröffnet so dem interessierten Publikum weltweit die Möglichkeit der Teilnahme, Diskussion und Vernetzung.
Stefan Tidow, Staatssekretär im Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) wird die Online-Konferenz mit einem Grußwort eröffnen, zudem konnten wieder hochkarätige Expert:innen für Vorträge gewonnen werden. Sella Nevo, Google Flood Forecasting Initiative, Nicolas Zimmer, Technologiestiftung Berlin, Prof. Dr. Andrea Cominola, Einstein Center Digital Future der Technischen Universität Berlin, Dr. Riccardo Taormina, Delft University of Technology und Newsha Ajami, PhD, Berkeley Lab’s Earth & Environmental Sciences, sind als Keynote-Speaker bestätigt. Zahlreiche deutsche und internationale Repräsentant:innen aus Wirtschaft, öffentlichem Sektor, Politik und Wissenschaft zeigen die Chancen auf, die Anwendungen Künstlicher Intelligenz (KI) für den globalen Wassersektor bereithalten, diskutieren, wie sich die Wasserindustrie dadurch verändert, beleuchten die Möglichkeiten der Hydroinformatik und blicken auf die wichtigen Themen Cyber Security sowie die Stärkung der Klimaresilienz durch KI.
Die Konferenzteilnehmenden erhalten außerdem spannende Einblicke in innovative Anwendungsbeispiele, Projekte und Technologien aus Deutschland, Spanien, den USA, den Niederlanden und Großbritannien. Vertiefende Break-Out Sessions regen Diskussionen zu den Themen Datenquantität und -qualität sowie zu Möglichkeiten und Herausforderungen bei der Implementierung von KI-Anwendungen in der Wasserwirtschaft an. Die multimediale Online-Eventplattform ermöglicht zudem durch vielfältige Interaktionsmöglichkeiten vor, während und nach der Veranstaltung das internationale Netzwerken.
Die digitale Veranstaltung richtet sich an ein internationales Publikum, findet auf Englisch statt und ist für die Teilnehmenden kostenfrei.
Das Programm können Sie hier einsehen: https://blueplanetberlin.de/agenda-2022/
Die Anmeldung ist hier möglich: https://blueplanetberlin-event.de/events/5c4aecb25b654d56.
Weitere Informationen erhalten Sie unter www.blueplanetberlin.de sowie auf LinkedIn und Twitter.
Über BLUE PLANET Berlin Water Dialogues
Mit den BLUE PLANET Berlin Water Dialogues hat sich in den vergangenen Jahren ein qualifiziertes englischsprachiges Forum zum Wissens-, Ideen-, Konzept- und Erfahrungsaustausch zwischen Politik, Wasserwirtschaft, WissenschaftlerInnen und Nicht-Regierungsorganisationen entwickelt und etabliert. Hier werden gemeinsam globale Herausforderungen diskutiert sowie deutsche und internationale Kompetenzen und Lösungsansätze vorgestellt und beworben. Der Schwerpunkt liegt darauf, Synergien im Bereich Forschung und Entwicklung zwischen Unternehmen und wissenschaftlichen Einrichtungen nachhaltig zu fördern. Damit sollen praxisnahe Innovationen, etwa aus den Bereichen nachhaltige Entwicklung und Künstliche Intelligenz, in der Wasserwirtschaft oder dem Umweltschutz, durch ressourceneffiziente Technologien vorangetrieben werden. BLUE PLANET 2022 wird vom Kompetenzzentrum Wasser Berlin gGmbH und German Water Partnership e.V. zusammen mit den Berliner Beratungsunternehmen T-Base Consulting GmbH und eclareon GmbH organisiert.
Weitere Informationen zum BMUV-Förderprogramm Exportinitiative Umweltschutz unter https://www.exportinitiative-umweltschutz.de/
Presseeinladung
Vertreter:innen der Presse sind herzlich eingeladen an der Online-Konferenz teilzunehmen. Bitte nutzen Sie hierfür die Presse Registrierung: https://blueplanetberlin-event.de/events/30268/partners/press
Zur Pressemeldung vom 20.09.2022: https://blueplanetberlin.de/wp-content/uploads/2022/09/Pressemeldung_BLUE-PLANET…
Anhang
2. Pressemitteilung BLUE PLANET
Cyberagentur vergibt Millionenaufträge zur Cybersicherheit
Michael Lindner Presse
Agentur für Innovation in der Cybersicherheit GmbH
Kickoff für die erste Forschungsphase zu KRITIS
Am 7. November 2022 wurden im Mitteldeutschen Multimediazentrum in Halle (Saale) die Verträge für Forschung zu „Existenzbedrohenden Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ mit sechs Forschungsverbünden unterzeichnet. Damit startet die erste Phase des mit 30 Millionen Euro dotierten Forschungsvorhabens der Agentur für Innovation in der Cybersicherheit (Cyberagentur).
Der Forschungsdirektor, Prof. Dr. Christian Hummert und der kaufmännische Direktor, Daniel Mayer, paraphierten am Montag (07.11.2022) für die Cyberagentur die Verträge für die erste Projektphase des bislang größten Forschungsvorhabens. Aus 19 eingegangenen Angeboten wurden sechs Forschungsverbünde von einer Fachjury ausgewählt, die in der sechsmonatigen ersten Phase ihre bisher eingereichten Projektideen zu „Existenzbedrohenden Risiken aus dem Cyber- und Informationsraum – Hochsicherheit in sicherheitskritischen und verteidigungsrelevanten Szenarien“ weiter ausarbeiten werden.
„Wir waren sehr erfreut, dass sich sehr viele für unsere Ausschreibung interessierten“, betonte Prof. Dr. Hummert. „Die Qualität der Bewerbungen war außergewöhnlich gut. Für die Jury waren also hervorragende Bedingungen gegeben, um die sechs Forschungsverbünde aus dem Pool auszuwählen.“ Daniel Mayer ergänzte dazu: „Das Auftragsvolumen von 30 Millionen Euro stellt letztlich hohe Erwartungen an die Forschungsverbünde im Wettbewerb um die besten Ergebnisse.“
Wettbewerbsbeginn mit sechs Forschungsverbünden
Die Forschungsverbünde ATTRIBUT, CALCIO, MANTRA, SaCsy, SEC++ sowie SOVEREIGN haben sich schlussendlich gegenüber ihren Konkurrenten durchgesetzt. Diese setzen sich aus Universitäten, Hochschulen, Instituten und Unternehmen zusammen. Seit dem Ausschreibungsbeginn am 17. Juni 2022 haben diese sich mit der Fragestellung zur Erforschung und Entwicklung neuer Fähigkeiten der operativen Cybersicherheit befasst, um die Resilienz der Behörden und Kritischer Infrastrukturen zu erhöhen. In den kommenden Jahren werden sie untereinander mit verschiedenen Ansätze um innovativste Forschungsidee konkurrieren. Die Anzahl der Teilnehmer wird sich stufenweise im Laufe des Verfahrens reduzieren.
PCP-Verfahren in 5 Phasen
Der Wettbewerb der Cyberagentur umfasst einen Zeitrahmen von fünf Jahren. Als Ausschreibungsverfahren wurde das Pre-Commercial Procurement (PCP) gewählt. Die vorkommerzielle Auftragsvergabe ist ein von der EU-Kommission entwickeltes spezifisches Ausschreibungsverfahren der öffentlichen Hand für Forschungs- und Entwicklungsleistungen. Charakteristisch dabei ist die wettbewerbsbasierte Forschung & Entwicklung in Phasen und die Risiko-Nutzen-Teilung. So findet der aktuelle Wettbewerb in fünf Phasen einschließlich des Auswahlverfahrens statt. Insgesamt stehen dafür 30 Millionen Euro für den Zeitraum von 5 Jahren zur Verfügung. [Mehr Informationen]
Für die Evaluation der Angebote konnte eine Fachjury aus Mitgliedern der Cyberagentur und Vertretern der gesamtgesellschaftlichen Sicherheitsvorsorge gewonnen werden. Der Jury gehören von der Cyberagentur der Forschungsdirektor, Prof. Dr. Christian Hummert, Abteilungsleiter Sichere Systeme, Prof. Dr. Tobias Eggendorfer und der Projektleiter, Dr. Gerald Walther und als externe Mitglieder Dr. Harald Niggemann, Cyber Security Strategist beim Bundesamt für Sicherheit in der Informationstechnik sowie Oberstleutnant Christoph Kühn, Dezernatsleiter im Zentrum für Cyber-Sicherheit der Bundeswehr, an. „Mit den externen Jurymitgliedern aus den beiden staatlichen Organisationen als Vertreter der Inneren und Äußeren Sicherheit haben wir, unserem Auftrag entsprechend, für ein transparentes Vergabeverfahren gesorgt“, erläutert Projektleiter Dr. Gerald Walther. „Die Jury wird auch weiterhin über alle Projektphasen den Wettbewerb um die besten Forschungsergebnisse begleiten.“
Kickoff und Workshops zum Projektstart
Nach der feierlichen Unterzeichnung der sechs Verträge stellte das Projektteam der Cyberagentur noch einmal den Projektrahmen für die Phase der Konzeptentwicklung vor. Die Teilnehmenden konnten in dem Event ihre Fragen zu den organisatorischen Abläufen stellen.
In einzelnen Workshops am Dienstag haben die Forschungsverbünde die Möglichkeit, ihre spezifischen Ansätze und Problemstellungen mit den Mitarbeiterinnen und Mitarbeitern der Cyberagentur zu erörtern.
Kontakt
Michael Lindner
Pressesprecher der Cyberagentur
Tel.: +49 151 44150 645
E-Mail: presse@cyberagentur.de
Hintergrund: Cyberagentur
Die Agentur für Innovation in der Cybersicherheit GmbH (Cyberagentur) wurde im Jahr 2020 als vollständige Inhouse-Gesellschaft des Bundes unter der gemeinsamen Federführung des Bundesministeriums der Verteidigung und des Bundesministeriums des Inneren und für Heimat durch die Bundesregierung mit dem Ziel gegründet, einen im Bereich der Cybersicherheit anwendungsstrategiebezogenen und ressortübergreifenden Blick auf die Innere und Äußere Sicherheit einzunehmen. Vor diesem Hintergrund bezweckt die Arbeit der Cyberagentur maßgeblich eine institutionalisierte Durchführung von hochinnovativen Vorhaben, die mit einem hohen Risiko bezüglich der Zielerreichung behaftet sind, gleichzeitig aber ein sehr hohes Disruptionspotenzial bei Erfolg innehaben können.
Der Cyberagentur stehen Prof. Dr. Christian Hummert als Forschungsdirektor und Geschäftsführer sowie Daniel Mayer als kaufmännischer Direktor vor.
Wissenschaftliche Ansprechpartner:
Dr. Gerald Walther, Nicole Selzer
Weitere Informationen:
https://www.cyberagentur.de/strongcyberagentur-vergibt-millionenauftrage-zur-cyb…
Deutschlands größte epidemiologische Langzeitstudie wird fortgeführt
Rebekka Kötting Pressestelle
Gemeinsame Wissenschaftskonferenz (GWK)
Die Gemeinsame Wissenschaftskonferenz (GWK) hat am 4. November 2022 die Fortschreibung der Bund-Länder-Vereinbarung über die Förderung der NAKO Gesundheitsstudie für eine dritte Förderphase von fünf Jahren ab Mai 2023 beschlossen. In den nächsten fünf Jahren wird die NAKO Gesundheitsstudie mit rund 127 Mio. Euro unterstützt.
Die NAKO Gesundheitsstudie ist eine Langzeit-Bevölkerungsstudie, die für einen angestrebten Beobachtungszeitraum von 20 bis 30 Jahren aufgebaut und seit 2013 von Bund, Ländern und der Helmholtz-Gemeinschaft gefördert wird. Sie wird von einem Netzwerk deutscher Forschungseinrichtungen organisiert und durchgeführt. Beteiligt sind Einrichtungen der Helmholtz-Gemeinschaft Deutscher Forschungszentren, der Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz sowie Universitäten und weitere Forschungsinstitute. Ziel ist es, belastbare Aussagen über die Ursachen von Volkskrankheiten wie Krebs, Diabetes, Infektionskrankheiten und Herzinfarkt im Zusammenwirken von genetischer Veranlagung, Lebensgewohnheiten und umweltbe-dingten Faktoren zu treffen.
Die Vorsitzende der GWK, Bettina Stark-Watzinger, Bundesministerin für Bildung und For-schung, erklärt dazu: „Seit über zwei Jahren stehen wir vor der großen Herausforderung, die Corona-Pandemie einzudämmen und zugleich den Kampf gegen Volkskrankheiten wie Krebs oder Diabetes darüber nicht zu vernachlässigen. Die Fortführung der Förderung der NAKO Gesundheitsstudie ist daher das richtige Signal in dieser Zeit. Auch kommt Gesundheitsfragen angesichts des demografischen Wandels eine zunehmende Bedeutung zu. Eine gesunde Bevölkerung ist Grundvoraussetzung für ein gutes Miteinander, die Sicherung unserer Wettbewerbsfähigkeit und unseres Wohlstands. Die NAKO Gesundheitsstudie schafft eine Datenbasis, deren Verwertung wissenschaftlichen, sozialen und wirtschaftlichen Fortschritt befördert.“
Der stellvertretende GWK-Vorsitzende, Markus Blume, Staatsminister für Wissenschaft und Kunst des Freistaats Bayern, ergänzt: „Die NAKO Gesundheitsstudie bietet eine einzigartige Datengrundlage für Langzeitbeobachtungen und neue wissenschaftliche Erkenntnis. Die gesellschaftliche Bedeutung der NAKO Gesundheitsstudie zeigt sich besonders deutlich in der aktuellen Pandemie, aber sie geht weit darüber hinaus. Denn die Möglichkeit, die in der NAKO gesammelten und aufbereiteten Daten nicht nur untereinander, sondern mit Daten aus anderen Quellen und Bereichen wie Klimadaten, Wirtschaftsdaten oder soziologische Daten zu verknüpfen, ermöglicht weitere Fortschritte: Auf dieser Grundlage können hier in Deutschland Innovationen für die ganze Welt geschaffen werden, die unsere Gesellschaft resilienter machen.“
Die NAKO Gesundheitsstudie will bessere Möglichkeiten für die Verhinderung, möglichst frühe Erkennung und bestmögliche Behandlung von Krankheiten schaffen. Sie will zur Beantwortung der Frage beitragen, warum ein Mensch krank wird, der andere aber gesund bleibt. Von welchen Faktoren hängt dies ab? Spielt dabei die Umwelt die zentrale Rolle, das soziale Umfeld oder die Situation am Arbeitsplatz? Ist es die Ernährung? Sind es die Gene? Oder ist es eine Mischung all dieser Faktoren? Dazu werden deutschlandweit in insgesamt 18 Studienzentren rund 200.000 zufällig ausgewählte Bürgerinnen und Bürger im Alter von 20 bis 69 Jahren wiederholt umfassend medizinisch untersucht und nach relevanten Lebensgewohnheiten befragt, z.B. nach körperlicher Aktivität, Rauchen, Ernährung, Beruf. In der aktuellen Förderphase hat die NAKO Gesundheitsstudie das angestrebte Ziel von 200.000 Teilnehmerinnen und Teilnehmern erreicht. Deren Gesundheitsdaten, darunter auch Bioproben, werden nun und in den Folgejahren wiederholt gesammelt und unter Berücksichtigung datenschutzrechtlicher Aspekte auch Dritten zur Verfügung gestellt. Dieser Datenschatz birgt ein enormes Potenzial für wissenschaftliche und medizinische Durchbrüche sowie für gesellschaftlich bedeutsame Innovationen.
Weitere Informationen zur NAKO können unter folgender Adresse abgerufen werden: https://www.nako.de/.
Der Labormedizin droht ein eklatanter Fachkräftemangel
Karin Strempel Geschäftsstelle
Deutsche Gesellschaft für Klinische Chemie und Laboratoriumsmedizin e. V.
Am Europäischen Tag der Labormedizin – 5. November 2022 – warnen der Berufsverband der Deutschen Labormediziner (BDL) und die Deutsche Gesellschaft für Klinische Chemie und Laboratoriumsmedizin (DGKL) vor einem eklatanten Fachkräftemangel in ihrem Fachgebiet. Für den Fachkräftemangel gibt es mehrere Gründe. Einer davon ist stringentes Outsourcing von Laborleistungen an den Kliniken sowie der Wegfall von Lehrstühlen an Universitäten. Hinzu kommt das sukzessive Ausscheiden der geburtenstarken Jahrgänge bei den LabormedizinerInnen. Deswegen fordern die Labormedizinier mehr Ausbildungsmöglichkeiten und höhere Investitionen in dieLaborinfrastruktur an den Kliniken
Der Fachkräftemangel betrifft Fachärzte und Fachärztinnen für Labormedizin sowie Medizinische TechnologInnen gleichermaßen. BDL-Vorstandsvorsitzender, Dr. Andreas Bobrowski: „Über die Jahre sind uns die Strukturen für die Weiterbildung von Laborfachärzten im klinischen Bereich weggebrochen. Wir müssen dringend mehr Weiterbildungsangebote an Universitätskliniken und bei Maximalversorgern schaffen.“ Die Entwicklung sei in vergangenen zwei Jahrzehnten insbesondere durch stringentes Outsourcing von Laborleistungen an den Kliniken sowie durch den Wegfall von Lehrstühlen an Universitäten forciert worden. Dabei beruhen etwa 66 Prozent aller ärztlichen Entscheidungen heutzutage direkt oder indirekt auf labordiagnostischer Diagnostik.
„Wir müssen aber im klinischen Umfeld ausbilden. Viele Krankheitsbilder, die zu einer fundierten Ausbildung zum Facharzt für Laboratoriumsmedizin gehören, können den angehenden LabormedizinerInnen nur im universitären Umfeld beziehungsweise bei einem Maximalversorger vermittelt werden“, erklärt DGKL-Vorsitzender Prof. Harald Renz. Als Beispiele nennt Renz Besonderheiten in der Gerinnungsdiagnostik, der mikrobiologischen Analytik, aber auch in der Diagnose von Intoxikationen durch Medikamenteneinnahme oder Drogen. Renz verweist des Weiteren auf die Bedeutung der Labormedizin bei der Diagnose von Volkskrankheiten und seltenen Erkrankungen sowie bei Infektionskrankheiten.
Verstärkt wird die Ausbildungsmisere durch den sukzessiven Wegfall der geburtenstarken Jahrgänge bei den LabormedizinerInnen. Darüber hinaus kritisieren BDL und DGKL die Bedarfsplanung der Labormediziner im ambulanten Sektor, die auf rund 1.000 Facharztstellen begrenzt ist. Bobrowski: „Wir werden aber nur ausreichend viele junge LabormedizinerInnen gewinnen können, wenn wir Perspektiven schaffen.“ Insbesondere die Corona-Pandemie habe gezeigt, dass die Labormedizin zu den systemrelevanten Fächern gehört. Wegen der zunehmenden Teilzeittätigkeit kommt es selbst bei einer leichten Zunahme der Anzahl der LaborärztInnen zu einem Arbeitskräftemangel.
Zur Zukunftssicherung gehören auch mehr Investitionen in bauliche Projekte der Labormedizin. Dr. Michael Heins, Chefarzt für Laboratoriumsmedizin am Klinikum Osnabrück, unterstützt diese Forderung. Heins hat 2016 ein Krankenhauslabor in ein Facharztlabor mit KV-Sitz ausgebaut und sehr viele Laborleistungen, insbesondere Spezialuntersuchungen, ingesourct. „Die Investitionen dafür kann ein Krankenhaus allein nicht stemmen, hierfür braucht es die Unterstützung der öffentlichen Hand.“ In den letzten Jahren hat sich gezeigt, dass durch den Ausbau eines eigenen Labors die Zeit bis zur Befundübermittlung und damit auch die Liegezeit verkürzt und sich zusätzlich die Kostenstruktur des Krankenhauses verbessert hat.
Der Europäische Tag der Labormedizin wird von der Europäischen Vereinigung der Labormediziner an jedem 5. November ausgerufen. In Deutschland gibt es aktuell 41 universitätsmedizinische Standorte, von denen 21 mit einer eigenständigen W3-Professur für Laboratoriumsmedizin besetzt sind. Die Ausbildungsmisere erstreckt sich auch auf die anderen Gesundheitsfachberufe im Labor. Sie kämpfen unter anderem mit Schulschließungen an den Kliniken.
Covid-19: Impfstatus polarisiert Bevölkerung
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Menschen, die sich stark mit ihrem Covid-Impfstatus identifizieren, diskriminieren die jeweils andere Gruppe stärker. Das zeigt eine Studie des Teams um Luca Henkel, Mitglied des Exzellenzclusters ECONtribute an der Universität Bonn, unter Beteiligung der Universitäten Erfurt und Wien sowie des Bernhard-Nocht-Instituts für Tropenmedizin Hamburg. Die Studie ist in der Fachzeitschrift Nature Human Behaviour erschienen.
Die Forschenden haben analysiert, wie stark sich die Teilnehmenden über ihren Status als Geimpfte oder Ungeimpfte definieren und wie sie der jeweils anderen Gruppe begegnen. Das Ergebnis: Je mehr sich die Teilnehmenden als geimpft oder ungeimpft identifizierten, desto eher distanzierten sie sich von der anderen Gruppe.
Das Team befragte von Dezember 2021 bis Juli 2022 mehr als 3000 Geimpfte und 2000 Ungeimpfte aus Deutschland und Österreich. Diese mussten auf einer Skala von eins bis sieben Punkten bewerten, wie stark sie fünf verschiedenen Aussagen zu ihrem Impfstatus zustimmten. Aus beiden Gruppen gab zum Beispiel rund die Hälfte der Befragten an, dass sie stolz sei, (un-)geimpft zu sein. Im zweiten Schritt bekamen die Teilnehmenden 100 Euro, die sie zwischen sich und einer anderen Person aufteilen sollten. Vorab erfuhren sie, ob ihr Gegenüber geimpft oder ungeimpft ist. Gehörte die Person einer anderen Gruppe an als sie selbst, diskriminierten die Verteilendenden stärker und gaben deutlich weniger ab. So gaben Geimpfte im Schnitt 48 Euro an andere Geimpfte weiter, aber nur 30 Euro an Ungeimpfte.
Ungeimpfte fühlen sich eher sozial ausgegrenzt
Generell nahmen Ungeimpfte die öffentliche Debatte um eine Impfpflicht als unfairer wahr und gaben an, mehr soziale Ausgrenzung erlebt zu haben. Die Studie liefert Evidenz für die in der Literatur beschriebene Theorie, dass sich Konflikte befördern, je stärker sich Personen mit einer sozialen Gruppe identifizieren, da sie ihre eigene Überzeugung als die richtige ansehen und sich moralisch überlegen fühlen. So zeigt die Studie beispielsweise, dass die Bereitschaft, gegen Corona-Maßnahmen zu demonstrieren höher ist, je stärker sich Ungeimpfte mit dem Impfstatus identifizieren.
Impfen als ideologische statt rein gesundheitliche Entscheidung
„Wir zeigen, dass sich gegen Covid-19 zu impfen nicht mehr ausschließlich eine gesundheitliche Entscheidung, sondern auch eine ideologische Werteentscheidung geworden ist“, sagt Henkel. Die Befragten identifizieren sich nicht nur individuell als geimpft oder ungeimpft, sondern sehen sich als Teil einer sozialen Gruppe. Klassische Informationskampagnen seien deshalb wenig wirkungsvoll. „Wir brauchen mehr Austausch statt einseitiger Appelle“, so Henkel. Die Forschenden sehen dabei zum Beispiel Personen des öffentlichen Lebens in der Pflicht, sich für einen stärkeren Dialog einzusetzen.
ECONtribute: Einziger wirtschaftswissenschaftlicher Exzellenzcluster
Die Studie ist unter anderem im Rahmen von ECONtribute entstanden. Es handelt sich dabei um den einzigen wirtschaftswissenschaftlichen von der Deutschen Forschungsgemeinschaft geförderten Exzellenzcluster – getragen von den Universitäten in Bonn und Köln. Der Cluster forscht zu Märkten im Spannungsfeld zwischen Wirtschaft, Politik und Gesellschaft. Ziel von ECONtribute ist es, Märkte besser zu verstehen und eine grundlegend neue Herangehensweise für die Analyse von Marktversagen zu finden, die den sozialen, technologischen und wirtschaftlichen Herausforderungen der heutigen Zeit, wie zunehmender Ungleichheit und politischer Polarisierung oder globalen Finanzkrisen, gerecht wird.
Weitere Förderer: Universitäten Erfurt und Wien, sowie die Thüringer Staatskanzlei.
Wissenschaftliche Ansprechpartner:
Inhaltlicher Kontakt:
Luca Henkel
ECONtribute, Universität Bonn
luca.henkel@uni-bonn.de
Presse und Kommunikation:
Carolin Jackermeier
PR Manager ECONtribute
+49 221 470 7258
carolin.jackermeier@uni-bonn.de
Originalpublikation:
Luca Henkel, Philipp Sprengholz, Lars Korn, Cornelia Betsch, and Robert Böhm: The association between vaccination status identification and societal polarization. Nature Human Behaviour; https://doi.org/10.1038/s41562-022-01469-6
Grüner Wasserstoff: „Hydrogen Lab Leuna“ am Chemiestandort Leuna eröffnet
Inna Eck Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Windenergiesysteme IWES
Der Minister des Landes Sachsen-Anhalt Prof. Armin Willingmann und der Präsident der Fraunhofer-Gesellschaft Prof. Reimund Neugebauer übergaben im Rahmen der „Fokusreise Strukturwandel“ offiziell den Bau des Hydrogen Lab Leuna (HLL) an das Fraunhofer-Institut für Windenergiesysteme IWES im Mitteldeutschen Revier. Zudem überreichte Prof. Willingmann den Fördermittelbescheid für das Strukturwandel-Projekt „Hydrogen Competence Hub“ – ein zentraler Hub für Aus- und Weiterbildung.
Das Fraunhofer IWES stellt mit dem Hydrogen Lab in Leuna die Weichen für innovative Forschung und Entwicklung zur Erzeugung und zum Einsatz von grünem Wasserstoff in der chemischen Industrie. Wasserstoff ist ein Schlüsselelement für die Rohstoffversorgung der chemischen Industrie und für das Erreichen der Klimaziele ist die Defossilisierung, d.h. die Umstellung auf grünen Wasserstoff entlang der gesamten Prozesskette essenziell. Der Minister für Wissenschaft, Energie, Klimaschutz und Umwelt des Landes Sachsen-Anhalt, Prof. Willingmann, eröffnet gemeinsam mit dem Präsidenten der Fraunhofer-Gesellschaft Prof. Neugebauer nach mehrjähriger Planungs- und Bauphase offiziell das HLL im Chemiepark in Leuna: „Mit dem Hydrogen Lab in Leuna wird der dringend benötigte Markthochlauf von Wasserstoff-Technologien in Sachsen-Anhalt und darüber hinaus beschleunigt. Die hochinnovative Forschungseinrichtung wird wesentlich dazu beitragen, dass sich Sachsen-Anhalt zu einem neuen Kraftzentrum einer nachhaltigen Wasserstoffwirtschaft entwickeln kann. Der Aufbau der Wasserstoffwirtschaft ist darüber hinaus ein wichtiges Element für die erfolgreiche Gestaltung des Strukturwandels in der Region. Mit der Förderung des Aus- und Weiterbildungsprojekts „Hydrogen Competence Hub“ steuern wir zudem gemeinsam mit der Hochschule Merseburg, der Otto-von-Guericke-Universität und der Hochschule Anhalt aktiv gegen den Mangel an Fach- und Führungskräften“, sagt Minister Prof. Willingmann. Damit werden neben regionalen Unternehmen auch internationale Projektpartner und Industriekunden für Leuna angesprochen.
„Mit dem Aufbau des Chemie- und Wasserstoffstandorts Leuna, der bereits seit mehreren Jahren einen prosperierenden Nukleus für die erfolgreiche Zusammenarbeit von Wissenschaft und Wirtschaft bildet, zeigt die Fraunhofer-Gesellschaft nicht nur effiziente Wege für die Energiewende, sondern auch für einen gelingenden Strukturwandel im Mitteldeutschen Revier auf. Als eines von deutschlandweit drei Fraunhofer Hydrogen-Labs fokussiert sich das Hydrogen Lab Leuna auf die Forschung entlang der Wert-schöpfungskette der Wasserstofferzeugung. Der dort produzierte Grüne Wasserstoff wird vor Ort analysiert, aufbereitet und direkt in die 157 km lange H2-Pipeline eingespeist, von wo aus er zu den Industriestandorten der Region verteilt und in chemischen Prozessen eingesetzt wird. Mit dem neuen »Hydrogen Competence Hub« wird zudem eine wesentliche Herausforderung adressiert, die alle Reviere betrifft: der Mangel an Fach- und Führungskräften. Auch hier leistet die Fraunhofer-Gesellschaft durch Aus- und Weiterbildung einen wichtigen Beitrag zum Strukturwandel“, erläutert Prof. Neugebauer, Präsident der Fraunhofer-Gesellschaft.
Das für die Forschungsarbeiten im HLL notwendige Technikum ist baulich fertiggestellt und wird mit der offiziellen Eröffnung vom Land Sachsen-Anhalt an das Fraunhofer IWES übergeben. Derzeit wird der Innenbereich des Technikums mit den erforderlichen Laboreinrichtungen- und Anlagen ausgestattet, die nicht Teil des HLL-Bauprojektes sind. „Wir freuen uns sehr, dass wir das HLL offiziell übernehmen können und somit Platz für den Aufbau unsere umfangreiche Testinfrastruktur haben. Allerdings ist das Technikum bereits jetzt vollständig ausgelastet, sodass wir schon über Erweiterungen nachdenken müssen. Die wissenschaftliche Arbeit an den ersten Projekten hat ebenfalls bereits begonnen und wir sind im Chemiepark Leuna auf dem Weg in eine zukunftsfähige Wasserstoff-Wirtschaft, die wir aktiv forschungsseitig begleiten werden. In diesem Zusammenhang bedanken wir uns ausdrücklich für den Fördermittelbescheid für das »Hydrogen Competence Hub«, mit welchem wir gemeinsam mit der regionalen Hochschullandschaft unseren Beitrag zum Aufbau und Erhalt der dringend benötigten Fachkräfte leisten. Mit dem Hub streben wir eine erhöhte Durchlässigkeit zwischen beruflicher und wissenschaftlicher Weiterbildung an, um die Bedarfe der Industrie mittels des Erwerbs von Zusatzqualifikationen schnell und modular decken zu können“, ergänzt Dr.-Ing. Sylvia Schattauer, kommissarische Institutsleiterin, Fraunhofer IWES.
Hydrogen Lab Leuna
Im Mitteldeutschen Chemiedreieck stellt die Fraunhofer-Gesellschaft mit dem vom Land Sachsen-Anhalt und der EU geförderten HLL eine neue Generation der Testinfrastruktur für Wasserstofftechnologien bereit. Durch die Verbindung von Methodenkompetenzen und einmaliger Forschungsinfrastruktur entsteht ein nachhaltiges gemeinsames Geschäftsmodell und eine neuartige Kooperationsplattform für Industrie und Forschung. Eingebettet in den Stoffverbund des Chemieparks Leuna bietet das HLL vier Teststände plus Technikum für Elektrolyseure mit einer Leistung von bis 5 Megawatt (MW), die mit deionisiertem Wasser, Dampf, Druckluft, Stickstoff, Wasserstoff und zukünftig auch mit CO2 versorgt werden. Der produzierte grüne Wasserstoff wird vor Ort analysiert, aufbereitet und direkt in die 157 km lange H2-Pipeline eingespeist, von wo aus er zu den Industriestandorten der Region verteilt wird und dort in chemischen Prozessen verwendet werden kann. Das Fraunhofer IWES ist Besitzer und Betreiber der Infrastruktur am HLL.
Der Aufbau des „Hydrogen Lab Leuna“ wurde vom Land Sachsen-Anhalt und von der Europäischen Union mit gut acht Millionen Euro gefördert. Das gesamte Bauvolumen für das Hydrogen Lab Leuna beläuft sich auf über 10 Mio. EUR zuzüglich Projektförderungen für die Testinfrastruktur.
Im nächsten Jahr werden gleich zwei STARK-Projekte ihre Arbeit aufnehmen:
Fördermittelbescheid für Aus- und Weiterbildungsprojekt „Hydrogen Competence Hub“
Gemeinsam mit der Hochschule Merseburg, der Otto-von-Guericke-Universität und der Hochschule Anhalt soll ab Februar 2023 für zwei Jahre an dem Aufbau eines zentralen Hubs für Aus- und Weiterbildung gearbeitet werden. Konkret wird ein regionales Bildungsnetzwerk etabliert, aber auch eigene Weiterbildungsangebote entwickelt. Damit sollen die Kompetenzen der Region im Bereich digitale Wasserstoff-Technologien gestärkt und ein erhöhter Transfer zwischen beruflicher und wissenschaftlicher Weiterbildung geschaffen werden. Durch Zusatzqualifikationen sollen die Bedarfe der Industrie schnell und modular gedeckt werden. Dieses brandaktuelle und notwendige Projekt erhält den Förderbescheid und damit 2,5 Mio. € aus den Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) der Förderrichtlinie zur Stärkung der Transformationsdynamik und Aufbruch in den Revieren und an den Kohlekraftwerksstandorten (STARK).
Das zweite Projekt „House of Transfer“ als zentrale Anlaufstelle für Stakeholder aus den Bereichen Chemie, Bioökonomie, Kunststoff und Wasserstoff hat es sich zum Ziel gesetzt, die bestehenden Aktivitäten in der Region zu verzahnen. Hier werden z.B. Technologiegeber mit industriellen Bedarfen, Projektideen mit Investoren sowie Start-Ups mit erfahrenen Playern zusammengeführt. Es entsteht ein umfassendes Beratungs- und Dienstleistungsangebot. Das „House of Transfer“ hat bereits einen Förderbescheid über 4,6 Mio.€ am 28.09.2022 erhalten und startet im Januar mit der Arbeit.
Fokusreise Strukturwandel
In Folge der zunehmenden Digitalisierung sowie der Umstrukturierungen im Zuge einer nachhaltigen Wertschöpfung und der damit verbundenen ökonomische, ökologische und gesellschaftliche Transformation, stehen zahlreiche Regionen vor großen wirtschaftlichen und sozialen Herausforderungen. Die Fraunhofer-Gesellschaft unterstützt den innovationsgetriebenen Strukturwandel aktiv durch Vernetzung und den strukturierten Aufbau neuer Wertschöpfungsketten. Ziel ist es die vom Strukturwandel betroffenen Regionen durch innovationsfördernde Maßnahmen auf einen dynamischen Wachstumspfad zu heben und damit zur Verringerung regionaler Disparitäten beizutragen. Im Rahmen der »Fokusreise Strukturwandel« vom 1. bis 7. November 2022 demonstrieren Wissenschaftlerinnen und Wissenschaftler der regional verankerten Institute richtungsweisende Lösungsansätze, die geeignet sind, einen Beitrag zur Zukunftsfähigkeit und Innovationskraft in vom Strukturwandel betroffenen Regionen zu leisten. Gemeinsam mit Partnern aus Wirtschaft, Wissenschaft und Politik werden die Themenfelder Versorgungssicherheit, nachhaltige Fertigungsprozesse und Agrarwirtschaft diskutiert sowie künftige Technologiepfade ermittelt.
Folgen Sie der »Fokusreise Strukturwandel« auch in den Sozialen Medien, über den LinkedIn-Kanal von Fraunhofer-Präsident Professor Reimund Neugebauer (https://www.linkedin.com/in/reimund-neugebauer/) sowie unter dem Hashtag #We-KnowChange.
Pressekontakt
Fraunhofer-Institut für Windenergiesysteme IWES
Inna Eck, Leiterin Marketing und Kommunikation
Telefon +49 471 14290-543
inna.eck@iwes.fraunhofer.de
www.iwes.fraunhofer.de
Ansprechperson
Fraunhofer-Institut für Windenergiesysteme IWES
Dr. Johannes Höflinger, Gruppenleiter Hydrogen Lab Görlitz
Am Haupttor 4310, 06237 Leuna
Telefon +49 47114 290-657
johannes.hoeflinger@iwes.fraunhofer.de
www.iwes.fraunhofer.de
Fraunhofer IWES
Das Fraunhofer IWES sichert Investitionen in technologische Weiterentwicklungen durch Validierung ab, verkürzt Innovationszyklen, beschleunigt Zertifizierungsvorgänge und erhöht die Planungsgenauigkeit durch innovative Messmethoden im Bereich der Wind- und Wasserstofftechnologie. Derzeit sind mehr als 300 Wissenschaftler*innen und Angestellte sowie rund 150 Studierende an neun Standorten beschäftigt: Bochum, Bremen, Bremerhaven, Leer, Görlitz, Hamburg, Hannover, Leuna und Oldenburg.
Wissenschaftliche Ansprechpartner:
Fraunhofer-Institut für Windenergiesysteme IWES
Dr. Johannes Höflinger, Gruppenleiter Hydrogen Lab Görlitz
Am Haupttor 4310, 06237 Leuna
Telefon +49 47114 290-657
johannes.hoeflinger@iwes.fraunhofer.de
www.iwes.fraunhofer.de
BIFOLD: Cybersicherheit auf dem Prüfstand
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Maschinelles Lernen in der Sicherheitsforschung birgt subtile Fallstricke
Cybersicherheit ist ein zentrales Thema der digitalen Gesellschaft und spielt sowohl im kommerziellen wie auch privaten Kontext eine wesentliche Rolle. Maschinelles Lernen (ML) hat sich in den letzten Jahren als eines der wichtigsten Werkzeuge zur Analyse sicherheitsrelevanter Probleme herauskristallisiert. Eine Gruppe europäischer Forscher*innen der TU Berlin, der TU Braunschweig, des University College London, des King’s College London, der Royal Holloway University of London und des Karlsruher Instituts für Technologie (KIT)/KASTEL Security Research Labs unter der Leitung von BIFOLD-Forschern der TU Berlin konnte jedoch zeigen, dass diese Art der Forschung oft fehleranfällig ist. Ihre Veröffentlichung: „Dos and Don’ts of Machine Learning in Computer Security“ über Fallstricke bei der Anwendung von Maschinellem Lernen in der Sicherheitsforschung wurde auf dem renommierten USENIX Security Symposium 2022 mit einem Distinguished Paper Award ausgezeichnet.
Maschinelles Lernens (ML) hat in einer Vielzahl von Anwendungsbereichen, wie zum Beispiel der Bilderkennung und der Verarbeitung natürlicher Sprache, zu großen Durchbrüchen geführt. Dieser Erfolg wirkt sich auch auf die Cybersicherheit aus: Nicht nur kommerzielle Anbieter werben damit, dass ihre von künstlicher Intelligenz (KI) gesteuerten Produkte effizienter und effektiver als bisherige Lösungen sind. Auch viele Forscher*innen setzen diese Technik ein, da Algorithmen den traditionellen Methoden oft weit überlegen zu sein scheinen. So wird maschinelles Lernen zum Beispiel auch eingesetzt, um neue digitale Angriffstaktiken zu erlernen und die Abwehrmaßnahmen an diese Bedrohungen anzupassen.
„In dem Paper liefern wir eine kritische Analyse des Einsatzes von ML in der Cybersicherheitsforschung“, beschreibt Erstautor Dr. Daniel Arp, Postdoc an der TU Berlin: „Zunächst identifizieren wir häufige Fallstricke bei der Konzeption, Implementierung und Evaluierung von lernbasierten Sicherheitssystemen.“ Ein Beispiel für solche Probleme ist die Verwendung nicht repräsentativer Daten. Also Datensätze, bei denen die Anzahl der Angriffe im Vergleich zu ihrer Häufigkeit in der Realität überrepräsentiert ist. ML-Modelle, die auf solchen Daten trainiert wurden, können sich in der Praxis als unbrauchbar erweisen. Im schlimmsten Fall könnte sich sogar herausstellen, dass sie außerhalb einer experimentellen Umgebung gar nicht funktionieren oder zu Fehlinterpretationen führen.
In einem zweiten Schritt führten die Forscher eine Prävalenzanalyse auf der Grundlage der identifizierten Probleme durch, bei der sie 30 Beiträge von hochrangigen Sicherheitskonferenzen untersuchten, die zwischen 2010 und 2020 veröffentlicht wurden. „Zu unserer Besorgnis mussten wir feststellen, dass diese Fallstricke selbst in sorgfältig durchgeführter Spitzenforschung weit verbreitet sind“, sagt BIFOLD Fellow Prof. Dr. Konrad Rieck von der TU Braunschweig.
Wo moderne Cybersecurity-Ansätze ins Straucheln kommen
Auch wenn diese Ergebnisse bereits ein alarmierendes Signal waren – die möglichen Folgen waren zunächst unklar. In einem dritten Schritt haben die Forscher*innen daher anhand von vier konkreten Fallstudien mit Beispielen aus der Literatur gezeigt, wie und wo diese identifizierten Probleme zu unrealistischen Ergebnissen und Interpretationen von ML-Systemen führen.
Eine der untersuchten Fallstudien beschäftigte sich mit der Erkennung mobiler Schadsoftware, sogenannter Malware. Aufgrund der großen Anzahl neuer gefährlicher Software für mobile Geräte, haben herkömmliche Antiviren-Scanner oft Probleme, mit der Schadsoftware Schritt zu halten und bieten nur eine schlechte Erkennungsleistung. Um dieses Problem in den Griff zu bekommen, haben Forscher*innen lernbasierte Methoden vorgeschlagen und entwickelt, die sich automatisch an neue Malware-Varianten anpassen können.
„Leider wurde die Leistung der lernbasierten Systeme in vielen Fällen überschätzt. Da es keine öffentlich zugänglichen Lern-Datensätze von Unternehmen gibt, nutzen Forscher*innen meist eigene Datensätze und führen dazu verschiedene Quellen zusammen“, erklärt Dr. Daniel Arp. „Diese Zusammenführung der Lern-Datensätze aus verschiedenen Quellen führt jedoch zu einer Verzerrung der Stichprobe: Apps aus den offiziellen App Stores der Smartphonehersteller bergen tendenziell weniger Sicherheitsrisiken als Apps, die aus alternativen Quellen mit geringeren Sicherheitsstandards stammen. Im Ergebnis konnten wir zeigen, dass moderne Cybersecurity-Ansätze dazu neigen, sich bei der Erkennung von Schadsoftware auf Merkmale zu konzentrieren, die auf die Quelle der App zurückzuführen sind, anstatt reale Malware-Merkmale zu identifizieren. Dies ist nur eines von vielen Beispielen des Papers, die zeigen, wie ein kleiner Fehler bei der Zusammenstellung der Lern-Datensätze, schwerwiegende Verzerrungen im Ergebnis herbeiführt und das gesamte Experiment beeinflussen kann.“
Die Probleme bei der Anwendung von ML-Methoden in der Cybersicherheit werden durch die Notwendigkeit, in einem feindlichen Kontext zu arbeiten, noch verschärft. Mit ihrer Veröffentlichung hoffen die Forscher*innen, das Bewusstsein für potenzielle Fehlerquellen im experimentellen Design zu schärfen und diese wenn möglich zu verhindern.
Publikation:
Daniel Arp, Erwin Quiring, Feargus Pendlebury, Alexander Warnecke, Fabio Pierazzi, Christian Wressnegger, Lorenzo Cavallaro, Konrad Rieck: Dos and Don’ts of Machine Learning in Computer Security, https://www.usenix.org/system/files/sec22-arp.pdf
Weitere Informationen erteilt Ihnen gern:
Dr. Daniel Arp
Tel.: 0049 (0)30 314-78621
d.arp@tu-berlin.de
Auf der Suche nach den Baumaterialien der Erde
Christine Xuan Müller Stabsstelle Presse und Kommunikation
Freie Universität Berlin
Eine Nature- und eine Science-Studie geben neue Hinweise auf die Zusammensetzung des Erdmaterials / Beteiligt ist der Geowissenschaftler Prof. Dr. Harry Becker von der Freien Universität Berlin
Zwei internationale Forscherteams, haben unabhängig voneinander mit neuen, hoch präzisen Isotopenmessungen nachgewiesen, dass die Erde zumindest teilweise aus Material besteht, welches nicht durch bekannte Meteoritenzusammensetzungen erklärbar ist. Einige Studienautoren, darunter der Geowissenschaftler Prof. Dr. Harry Becker von der Freien Universität Berlin, gehen davon aus, dass einige Bausteine des „blauen Planeten“ in anderen Zonen des frühen solaren Nebels entstanden sind als bislang angenommen. Die beiden Studien wurden in diesem Herbst in den Fachzeitschriften Nature und Science veröffentlicht.
„Die häufigste Gruppe von Meteoriten die auf die Erde fallen, die sogenannten Chondrite, repräsentieren verfestigten Staub aus dem frühen solaren Nebel“, erläutert Harry Becker. Deshalb sei lange Zeit angenommen worden, dass Chondrite das plausibelste Baumaterial der erdähnlichen Planeten darstellen. Nun aber gebe es Hinweise für eine komplexere Zusammensetzung der Baumaterialen der Erde, wie aus der neuen Untersuchung der Häufigkeiten der Isotope des Selten-Erd-Elements Neodym in repräsentativen Gesteinen der Erde im Vergleich zu Daten von Meteoriten hervorgeht. Die Häufigkeiten der Neodym-Isotope Nd-142 und Nd-143 variieren in der Natur hauptsächlich, weil sie durch den Zerfall der radioaktiven Samarium-Isotope Sm-146 beziehungsweise Sm-147 entstehen. Wegen der kurzen Halbwertszeit von Sm-146 hat Nd-142 nur in der Frühzeit der Erde zugenommen, aber sich seither nicht mehr verändert, weil alle Atome von Sm-146 zerfallen sind. Im Gegensatz dazu entsteht neues Nd-143 auch heute noch durch den langsamen Zerfall von Sm-147. Die unterschiedliche Zeitabhängigkeit des Wachstums von Nd-142 und Nd-143 ermöglicht es, die Zeitskalen chemischer Prozesse beim Wachstum der Planeten einzuordnen. Weiterhin kann man mit dieser Methode das durchschnittliche Konzentrationsverhältnis von Samarium zu Neodym in der Erde ableiten und mit den Werten in Chondriten vergleichen, wie die Autoren der Studien erläutern.
Die neuen Resultate der beiden internationalen Forschungsteams zeigten nun übereinstimmend einen kleinen, aber auflösbaren Überschuss von Nd-142 für die Erde im Vergleich zu Chondriten, der nur durch den radioaktiven Zerfall von Sm-146 und ein etwas höheres Konzentrationsverhältnis von Samarium zu Neodym in der Erde im Vergleich zu Chondriten erklärt werden könne. Die Studien der beiden Teams, die in Nature und Science erschienen sind, kommen hier zu den gleichen Ergebnissen. „Beide Studien unterscheiden sich allerdings in der Erklärung der Ursache des chemischen Unterschieds zwischen Erde und Meteoriten“, betont der Geowissenschaftler der Freien Universität Harry Becker und einer der Autoren der Studie in Nature. In der Nature-Studie argumentieren die Autoren, dass die Baumaterialien der Erde teilweise in anderen Zonen des solaren Nebels gebildet wurden als die Chondrite, was auch von einigen astrophysikalischen Modellen postuliert wird. Dabei könne es zu geringfügigen chemischen Variationen in den Häufigkeiten von Samarium und Neodym in aus Gas kondensiertem Staub kommen, da sich der Anteil bestimmter Minerale im Staub je nach Temperatur und Zusammensetzung des Gases ändert, wie Prof. Alan Brandon von der University of Houston und Mitautor der Studie erklärt.
Im Gegensatz dazu argumentieren die Autoren der Studie in Science, dass das höhere Verhältnis von Samarium zu Neodym in der Erde das Resultat des Verlusts eines Teils der Kruste von kleinen Vorläuferkörpern der Erde darstellt: Da die Erde durch die Kollision solcher kleineren Körper wuchs, sei es denkbar, dass dabei frühe Kruste dieser Vorläuferkörper abgesprengt und verloren wurde, was ebenfalls die beobachten chemischen Effekte in der Erde hervorrufen könne. Weitere Studien müssten nun zeigen, welche Interpretation wahrscheinlicher ist oder ob beide Prozesse für die besondere chemische Zusammensetzung der Erde verantwortlich sind, erklärten die Wissenschaftler.
Wissenschaftliche Ansprechpartner:
• Prof. Dr. Harry Becker, Institut für Geologische Wissenschaften, Freie Universität Berlin, E-Mail: hbecker@zedat.fu-berlin.de, Tel. +49 30 83870668
• Prof. Dr. Alan D. Brandon, University of Houston, zurzeit New Mexico State University, E-Mail: abrandon@central.uh.edu
Originalpublikation:
• Johnston, S., Brandon, A., McLeod, C., Rankenburg, K., Becker, H., Copeland, P. (2022): Nd isotope variation between the Earth-Moon system and enstatite chondrites. Nature, https://doi.org/10.1038/s41586-022-05265-0
• Frossard, P., Israel, C., Bouvier, A., Boyet, M. (2022): Earth’s composition was modified by collisional erosion. Science, 377, 1527-1532. DOI: 10.1126/science.abq735
Hingehört! Der Sound des Anthropozäns
Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Durch die Aktivität der Menschen verändern sich auch die Klangwelten der Erde. Darum geht es in einer neuen öffentlichen Vortragsreihe an der Universität Würzburg, die am 8. November startet.
Die Welt verändert sich dramatisch: Das Klima wandelt sich, Arten sterben, Kriege brechen aus, es gibt neue Völkerwanderungen – die Erde scheint sich in einem ständigen Katastrophenzustand zu befinden. Die Kulturwissenschaften begreifen diese Zeit als das Anthropozän – als das Zeitalter, das vom Menschen geprägt wird.
Die drastischen Umweltveränderungen beeinflussen auch die Klangwelten der Erde. Kaum eine Region bleibt von den Geräuschen menschengemachter Maschinen unberührt, Tag für Tag gehen vertraute Klänge verloren, kommen ungewohnte neue Klänge dazu.
Wie klingt das Anthropozän? Darum geht es im Forschungskolloquium „Hingehört! Der Sound des Anthropozäns“, einer Online-Vortragsreihe des Lehrstuhls für Europäische Ethnologie der Universität Würzburg und der Hochschule für Musik Nürnberg.
Relevanz des sorgsamen Zuhörens in Vielfachkrisen
Die Reihe beginnt am Dienstag, 8. November 2022, 18:15 bis 19:45 Uhr. Dr. Lisa Herrmann-Fertig (Musikhochschule Nürnberg und Institut für Musikwissenschaft der Uni Würzburg) spricht zum Auftakt über das Thema „Multispecies Ethnomusicology – zur Relevanz sorgsamen Zuhörens in Vielfachkrisen“.
Fortgesetzt wird die Reihe am 22. November 2022, 12. Dezember 2022, 31. Januar 2023 und 7. Februar 2023, jeweils zur gleichen Uhrzeit. Infos über die Themen und die Einwahl via Zoom gibt es auf dieser Webseite: https://www.phil.uni-wuerzburg.de/eevk/veranstaltungen/hingehoert/
Die Teilnahme ist für alle Interessierten kostenfrei und ohne Anmeldung möglich. Eine Fortsetzung im Sommersemester 2023 ist geplant.
Vom Singen, Brummen und Vibrieren
In der Vortragsreihe werden auch viele grundlegende Themen angesprochen: Wie und was hören wir Menschen überhaupt bewusst? Hören wir hin oder überhören wir unsere Umwelt? Was nehmen wir von den Klängen, dem Singen, Summen, Brummen, Vibrieren des uns umgebenden Lebens wahr? Wie arbeiten Kunstschaffende mit Umweltveränderungen, welchen Eingang findet das Anthropozän in die Musik?
„Gemeinsam mit Vortragenden aus der Ethnomusikologie, der Musikwissenschaft, den Human-Animal und Sound Studies, der Landscape Architecture, Klanganthropologie, Sound Art, Ecomusicology und Biologie möchten wir die Klänge unserer Zeit besser verstehen“, sagt Professorin Michaela Fenske, Leiterin des Würzburger Lehrstuhls für Europäische Ethnologie.
Mitorganisatorin Dr. Lisa Herrmann-Fertig: „Wir hören den Klang verschwindender Gletscher, lauschen den schwindenden Gesängen der Vögel und diskutieren, inwiefern wir als Zuhörende aus dem Noch- oder Nichtmehrhören neues Handeln generieren.“
Wasser im Spiegel des Klimawandels und der Nachhaltigkeit: 2. Hofer Wasser-Symposium lockt zahlreiche Teilnehmer
Kirsten Hölzel Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Am 12. und 13. Oktober 2022 lud das Institut für Wasser- und Energiemanagement (iwe) der Hochschule Hof in Kooperation mit dem Kompetenznetzwerk Wasser und Energie e.V. Spezialistinnen und Spezialisten aus dem Bereich der Wasserwirtschaft zum 2. Hofer Wassersymposium.
Rund 80 Teilnehmende aus ganz Deutschland, aber auch zahlreiche Studierende der Hochschule, folgten der Einladung und diskutierten an den beiden Tagen über das Leitthema „Wasser im Spiegel des Klimawandels und der Nachhaltigkeit“ und informierten sich im Rahmen der Fachausstellung.
Am 12. und 13. Oktober 2022 lud das Institut für Wasser- und Energiemanagement (iwe) der Hochschule Hof in Kooperation mit dem Kompetenznetzwerk Wasser und Energie e.V. Spezialistinnen und Spezialisten aus dem Bereich der Wasserwirtschaft zum 2. Hofer Wassersymposium. Die Organisation der Fachtagung lag federführend bei Prof. Dr. Manuela Wimmer, Professorin und Leiterin der Forschungsgruppe Nachhaltigkeit und Projektmanagement in der Wasserwirtschaft und Anja Grabmeier, wissenschaftliche Mitarbeiterin der Forschungsgruppe sowie Stiftungsprofessor und Leiter der Forschungsgruppe Wasserinfrastruktur und Digitalisierung, Dr. Günter Müller-Czygan.
Rund 80 Teilnehmende aus ganz Deutschland, aber auch zahlreiche Studierende der Hochschule, folgten der Einladung und diskutierten an den beiden Tagen über das Leitthema „Wasser im Spiegel des Klimawandels und der Nachhaltigkeit“ und informierten sich im Rahmen der Fachausstellung.
Den Auftakt der Veranstaltung bildete am Mittwoch, 12. Oktober eine virtuelle sowie 3-D Besichtigung von Demonstrationsanlagen wie beispielsweise einem Wasserwerk.
Am Donnerstag, 13. Oktober erwartete die Teilnehmenden nach Grußworten von Prof. Dr. Dr. h.c. Jürgen Lehmann (Präsident der Hochschule Hof), Eva Döhla (Oberbürgermeisterin der Stadt Hof) und Prof. Müller-Czygan ein interaktives, vernetzendes und gleichzeitig nachhaltiges Tagungs-Konzept. Den Einstieg in den Tag bildeten zwei Impulsvorträge und eine sich anschließende Podiumsdiskussion zu den Themen „Auswirkungen des Klimawandels auf die Wasserwirtschaft – von den Herausforderungen zum Handeln“ (Referent: Benno Strehler vom Bayerischen Landesamt für Umwelt) und „Auswirkungen des Klimawandels am Beispiel des Ahr-Hochwassers – Was wurde daraus gelernt?“ (Referent Markus Becker von Berthold Becker Ingenieure). In seinem Erfahrungsbericht – Markus Becker war selbst im Sommer 2021 vom Hochwasser im Ahrtal betroffen – unterstrich Becker unter anderem, wie wichtig es sei, aus der Flutkatastrophe zu lernen und dass die Wasserwirtschaft beim Umgang mit Wetterextremen zwingend die Erfahrungen und Fehler, die im Ahrtal gemacht wurden, bei der Entwicklung von zukunftsträchtigen Lösungen berücksichtigen müsse.
Anschließend erwartete die Teilnehmerinnen und Teilnehmer ein innovatives Format: „Speed Geeking & Exhibitors“. Hierbei präsentierten fünf Ausstellende, darunter die WILO SE, in wenigen Minuten und in kompakter Form ihr Unternehmen sowie ihre Innovationen und geben einen Einblick in die gelebte Nachhaltigkeit in ihrem Unternehmen. Als Besucher konnte man so nacheinander Einblicke in alle fünf Unternehmen erhalten.
Weiter ging es mit der Methode des so genannten World Cafés, die die Teilnehmerinnen und Teilnehmer rund um das Thema Wasser ins Gespräch bringen sollte. Die Inhalte von vier Kurzvorträgen boten dabei die Grundlage für einen regen Austausch:
Vortrag 1: Erfolgreiche Umsetzung von Digitalisierungsprojekten auch mit der Sowieso-Strategie – Prof. Günter Müller-Czygan
Vortrag 2: Energieautarke weitergehende Abwasserbehandlung und -wiederverwertung beispielsweise mit photonischen Methoden – Prof. Dr.-Ing. Tobias Schnabel
Vortrag 3: Effiziente Betriebsführung in der Trinkwasserversorgung mit den Kosten im Blick – Matthias Götz, Wasserversorgung Steinwaldgruppe und Mario Hübner, WILO SE
Vortrag 4: Digitale Kanalnetzsteuerung zum Umgang mit Wetterextremereignissen – Robert Köllner, Frank Große JenaWasser und Martin Frigger, HST Sytemtechnik GmbH
Vervollständigt wurde das Programm durch Einblicke in anwendungsorientierte Projekte aus Unternehmen und der Forschung. Prof. Müller-Czygan präsentierte den Statusbericht zur Digitalisierung der Wasserwirtschaft und Franziska Zielke vom Kompetenznetzwerk Wasser Energie e.V. berichtete aus dem Projekt Schwammstadt Region über Konzepte zum Wassermanagement.
Ein vielfach diskutiertes Thema im Rahmen des Symposiums war die Frage nach einer schnellen Umsetzung von Lösungen in der Wasserwirtschaft. Einerseits führen behördlich-formale Rahmenbedingungen wie z.B. Ausschreibungsanforderungen oder Genehmigungsverfahren zu einer längeren Projektdauer. Auf der anderen Seite fällt es insbesondere den Kommunen als Anwender schwer, Beispiellösungen auf die eigene Situation zu übertragen. Hier fehlen geeignete Methoden und Hilfestellungen für einen schnellen und wirksamen Lern- und Umsetzungstransfer.
Das iwe der Hochschule Hof arbeitet unter der Leitung von Prof. Müller-Czygan sowohl an robusten und hochwirksamen Digitalisierungslösungen als auch an der Entwicklung von Methoden für den schnellen und wirksamen Lern- und Umsetzungstransfer.
Bereits Im Vorfeld der Veranstaltung hatte die Organisatorin Prof. Wimmer betont: Klimawandel ist Wasserwandel. Mit dem zunehmenden Wasserrückgang auch in Deutschland sind innovative Lösungen gefordert, die eine nachhaltige Entwicklung gewährleisten: gerade hinsichtlich ökologischer Dimensionen aber auch hinsichtlich sozialer und wirtschaftlicher Aspekte. Je rasanter die Klimaveränderungen sind desto höher ist die Herausforderung und auch der Druck auf die Wasserwirtschaft zu reagieren und bestenfalls proaktiv die Transformation voranzutreiben. Dazu sind bereits zahlreiche Produkte und Dienstleistungen insbesondere mit digitalem Hintergrund auf dem Markt, suchen nach breiter Umsetzung und werden zudem weiterentwickelt. Die Transformation wird bevorzugt in Systemlösungen mit mehreren Partnern vonstattengehen. Dabei wird der Erfolg der Projekte von der sozialen Dimension, um im Wording der Nachhaltigkeit zu sprechen, beeinflusst. Im Detail heißt dies, dass diejenigen Projekte, bei denen der Mensch als Gestaltender als auch als User besonders berücksichtigt und integriert wird, die erfolgreicheren und effizienteren sein werden. Zu beachten ist auch, dass Wasser nicht nur zentraler Bestandteil der Wasserwirtschaft ist, sondern im stetig steigenden Spannungsfeld mehrerer Branchen, wie Landwirtschaft, Industrie und der Energiewirtschaft zu bewirtschaften ist – mit einer steigenden Komplexität bei schwindenden Ressourcen. Auch weiterhin an der „sozialen Dimension“ zu feilen und gemeinsam beste Lösungen in Forschung und Anwendung zu generieren mit dem Menschen und Wasser im Mittelpunkt wird auch morgen und übermorgen zentrales Anliegen sein. Vor diesem Hintergrund setzt sich die Forschungsgruppe von Prof. Wimmer intensiv mit Themen der Nachhaltigkeit auseinander und stellt diese unter anderem in den Kontext von Fachkräftegewinnung und -bindung sowie einer ganzheitlich nachhaltigen Unternehmensaufstellung.
Abgerundet wurde das Symposium durch umfassende Informationen über den Zertifikatslehrgang Schwammstadt, die Weiterbildung DRhochN zur Gewinnung und Bindung von Fachkräften sowie das Netzwerk S3REM, an denen sich die Tagungsgäste bei Interesse beteiligen können.
Nachhaltigkeit im 2. Hofer Wasser-Symposium
Was machte das 2. Hofer Wasser-Symposium nachhaltig? Nicht nur inhaltlich wurde das Thema Nachhaltigkeit verankert, sondern auch bei der Planung und Durchführung der Veranstaltung berücksichtigt (siehe auch: https://www.hof-university.de/forschung/institut-fuer-wasser-und-energiemanageme…).
Um einen Beitrag zu einem nachhaltigen Umgang mit Ressourcen zu leisten, verzichtete das Organisationsteam größtenteils auf die Nutzung von Papier. Dies war möglich durch den Einsatz von digitalen Medien für das Informations- und Teilnehmendenmanagement und digitalen Handouts. Die soziale Dimension wurde aufgegriffen durch die Verwendung genderneutraler Sprache, um alle Geschlechter auf respektvolle Art und Weise anzusprechen und sichtbar zu machen.
Ausblick auf das 3. Hofer Wasser-Symposium
Anhand einer Umfrage können die Teilnehmenden nun Rückmeldung zum 2. Hofer Wasser-Symposium geben und die Chance nutzen Anregungen zu Themen und Schwerpunkten sowie interaktiven Elementen für zukünftige Veranstaltungen zu geben. Das Hofer Wasser-Symposium soll im zweijährigen Rhythmus stattfinden. Darüber hinaus überlegt das iwe, weitere Veranstaltungen rund um das Thema Wasserwirtschaft und Nachhaltigkeit anzubieten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Günter Müller-Czygan, Prof. Dr. Manuela Wimmer
Per Anhalter auf dem Weg in die Tiefsee – Erste In-situ-Messungen von Mikroplastikflüssen
Kommunikation und Medien Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
In-situ-Probenahmen während einer Expedition und anschließende Messungen werfen neues Licht auf das Absinken von Mikroplastik von der Meeresoberfläche in die Tiefsee. Sie zeigen, dass die Partikel – wie frühere Modellierungsansätze nahelegten – Teil des Meeresschnees werden, erklärt ein internationales Forschungsteam unter Leitung des GEOMAR in einer heute erschienenen Veröffentlichung. Die Erkenntnisse ermöglichen ein besseres Verständnis der vertikalen Transportdynamik und der damit verbundenen Risiken für das Nahrungsnetz. Außerdem illustrieren sie, dass menschenverursachtes Mikroplastik den marinen Kohlenstoff im natürlichen Kreislauf überlagert.
150 Millionen Tonnen Plastik verschmutzen heute den Ozean – und weil der Kunststoff nur langsam zerfällt, nimmt die Menge weiter zu. Aktuelle Modellrechnungen zeigen, dass nur etwa ein Prozent des Plastiks an der Meeresoberfläche nachgewiesen werden kann, wo es aufgrund seines Auftriebs schwimmen sollte. Am Meeresboden findet sich etwa 10.000 Mal mehr. Doch wie genau kommt es dorthin? Ein besseres Verständnis der zugrundeliegenden Dynamik trägt dazu bei, den Ozean vor der Plastikverschmutzung und den damit verbundenen Risiken für das Leben im Meer, das Nahrungsnetz und den Stoffkreislauf zu schützen, einschließlich der Kohlenstoffpumpe, die für die Fähigkeit des Ozeans, Kohlendioxid aufzunehmen und den Klimawandel abzuschwächen, von entscheidender Bedeutung ist.
Wissenschaftler:innen aus Deutschland und den Vereinigten Staaten von Amerika haben zum ersten Mal Daten über den Plastikexport von der Meeresoberfläche in die Tiefe des Nordatlantikwirbels vorgelegt, die auf In-situ-Messungen beruhen. Damit werfen sie neues Licht auf die vertikalen Mikroplastik-Flüsse. In der Fachzeitschrift Environmental Science and Technology erläutern sie, wie die Partikel in Meeresschnee eingeschlossen werden – organisches Material, das in der Wassersäule nach unten sinkt und als Nahrung für Plankton und größere Tiere dient. Die Beobachtungen bestätigen frühere Ergebnisse von Modellierungsansätzen und tragen dazu bei, die Frage nach dem „fehlenden Plastik“ an der Meeresoberfläche zu beantworten.
„Die Probennahmen, die während einer Expedition mit dem deutschen Forschungsschiff POSEIDON vor den Azoren im Jahr 2019 durchgeführt wurden, ergänzen die auf Modellsimulationen beruhenden Abschätzungen um wichtige Details“, sagt Dr. Luisa Galgani. Die Marie Curie Global Fellow am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und dem Harbor Branch Oceanographic Institute der Florida Atlantic University (USA) ist Hauptautorin der aktuellen Veröffentlichung. „Winzige Plastikteilchen, die zwischen 0,01 und 0,1 Millimeter groß sind, verschwinden von der Meeresoberfläche, weil sie Teil des Meeresschnees werden. Größere Teile können den gleichen Weg nehmen, sinken aber aufgrund ihrer größeren Masse auch schneller.“
Mit Hilfe spezieller Sedimentfallen und verschiedener optischer und chemischer Analysen fanden Galgani und ihre Kolleg:innen die höchsten Konzentrationen von Plastikpolymeren in Tiefen zwischen 100 und 150 Metern. Eine hochempfindliche Analysemethode, die am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg entwickelt wurde, ermöglichte die Quantifizierung selbst kleinster Mengen von Mikroplastik. In den oberflächennahen Schichten wurden auch hohe Konzentrationen an organischem Material und marinen Gelen entdeckt – dem natürlichen Klebstoff, der zur Bildung größerer Aggregate beiträgt, der auch als Meeresschnee bezeichnet wird. Sie ermöglichen einen effektiven Abwärtstransport. In den sonnendurchschienenen oberen hundert Metern finden auch Plankton und andere Meereslebewesen ihre Nahrung. „Je mehr Plastikpartikel im Meeresschnee enthalten sind, desto größer ist das Risiko für Meerestiere, die sich davon ernähren“, stellt Dr. Galgani fest.
Darüber hinaus wird Mikroplastik durch seine Häufigkeit im Meerwasser zu einem neuen Bestandteil des marinen Kohlenstoffkreislaufs. In den Proben aus dem nordatlantischen Wirbel, einem Plastikmüll-Hotspot, konnten bis zu 3,8 Prozent des abwärts transportierten organischen Kohlenstoffs auf Plastik zurückgeführt werden. „Unsere Ergebnisse zeigen, dass Plastik nicht nur die Umwelt verschmutzt, sondern auch in den natürlichen Kohlenstoffkreislauf eindringt. Zukünftige Studien müssen berücksichtigen, dass ein vermutlich signifikanter, zunehmender Anteil des organischen Kohlenstoffs im Ozean nicht auf die Aufnahme von Kohlendioxid über die Photosynthese zurückzuführen ist, sondern aus Kunststoffen im menschlichen Abfall stammt“, resümiert Professorin Dr. Anja Engel, Leiterin des Forschungsbereichs Marine Biogeochemie am GEOMAR und Leiterin der Studie.
Originalpublikation:
Galgani, L., Goßmann, I, Scholz-Böttcher, B. Jiang, X., Liu, Z., Scheidemann, L., Schlundt C. and Engel, A. (2022): Hitchhiking into the Deep: How Microplastic Particles are Exported through the Biological Carbon Pump in the North Atlantic Ocean. Environmental Science and Technology, doi: https://doi.org/10.1021/acs.est.2c04712
Weitere Informationen:
http://www.geomar.de/n8644 Meldung mit Bildmaterial zum Download auf der Website des GEOMAR
https://www.icbm.de Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg
https://utmsi.utexas.edu Marine Science Institute, University of Texas at Austin
Treibhausgasen auf der Spur
Susanne Héjja Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
ITMS erfasst, wo in Deutschland Treibhausgase freigesetzt und aufgenommen werden.
Die Quellen und Senken von Treibhausgasen in Deutschland sollen zukünftig besser erfasst und überwacht werden. Das ist das Ziel des Integrierten Treibhausgas-Monitoringsystems (ITMS) für Deutschland, das offiziell mit einem dreitägigen Meeting vom 18. bis 20. Oktober 2022 am Max-Planck-Institut für Biogeochemie (MPI-BGC) in Jena gestartet wurde. Das ITMS wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und soll der Bundesregierung und der Öffentlichkeit gesicherte Informationen zu Stand und Entwicklung der Treibhausgasflüsse zur Verfügung stellen.
Neu daran ist, dass die Quellen (Freisetzung) und Senken (Aufnahme) von Treibhausgasen, nun auf Beobachtungen basierend, unabhängig ermittelt werden können: Auf der Grundlage der gemessenen Konzentrationen in der Atmosphäre und mittels aktueller Modellierung der Quellen- und Senkenprozesse sowie des meteorologischen Transports werden neue Berechnungen mit einer hohen Zuverlässigkeit ermöglicht. Gerade vertrauenswürdige Daten sind für eine faktenbasierte Politik zur Eindämmung des Klimawandels, für die Steuerung des Handels mit CO2-Zertifikaten und den Weg zu einer klimaneutralen Wirtschaft (NetZero) von besonderer Relevanz.
Zum Kick-Off Meeting vom 18. bis 20. Oktober 2022 am MPI-BGC trafen sich die beteiligten Forschungspartner mit einem erweiterten Kreis interessierter Forschungsgruppen, um die konkreten Pläne für die erste vierjährige Projektphase abzustimmen.
Dazu erklärt Bundesforschungsministerin Bettina Stark-Watzinger: „Die Bewältigung des Klimawandels ist eine Menschheitsaufgabe, die uns nur mit Forschung und Innovationen gelingen wird. Mit dem Integrierten Treibhausgas-Monitoringsystem für Deutschland können erstmals Treibhausgasquellen und -senken direkt überwacht werden. Dadurch erhalten wir ein genaueres Lagebild für einen besseren Klimaschutz und können Klimaschutzmaßnahmen auf ihre Wirksamkeit hin überprüfen.“
Inverse Modellierung findet Quellen und Senken
Quellen und Senken von Treibhausgasen sowie deren Herkunft an der Oberfläche unserer Erde können mit Hilfe der „inversen Modellierung“ ermittelt werden. Dieses Verfahren nutzt echte Beobachtungsdaten von atmosphärischen Treibhausgaskonzentrationen und unter Zuhilfenahme eines Modells lässt sich auf die räumliche Verteilung sowie die Stärke der Quellen und Senken rückschließen. „Die erste Projektphase wird es ermöglichen, existierende Beobachtungsdaten der atmosphärischen Treibhausgase vom Boden, aus der Luft sowie aus dem Weltraum mit der operationellen Wettervorhersage zusammenzubringen. In weiteren Projektphasen werden Änderungen der Treibhausgasemissionen verschiedener Sektoren, wie z.B. der Energieerzeugung, der Landwirtschaft oder dem Verkehr in Zeiträumen von Monaten bis mehrere Jahre und Jahrzehnte bestimmt werden“, so Dr. Christoph Gerbig vom MPI für Biogeochemie. Die von ihm geleitete Forschungsgruppe wird zusammen mit dem Referat Emissionsverifikation Treibhausgase des Deutschen Wetterdienstes (DWD) die inverse Treibhausgas-Modellierung für Deutschland entwickeln. „Beim DWD werden wir die inverse Modellierung in den operationellen Betrieb überführen und so die Politikberatung zum Treibhausgas-Monitoring verstetigen“, sagt Tobias Fuchs, DWD Vorstand Klima und Umwelt.
Nordstream-Leckagen zeigen die Bedeutung echter Messungen
Wie wichtig reale Messungen sind, zeigen jüngst die Lecks von Nordstream 1 und 2, aus denen große Mengen von Methan (CH4) in die Atmosphäre gelangten. Treibhausgase sind nicht sichtbar, werden aber unter anderem von Messtationen des Integrated Carbon Observation System (ICOS) am Boden und von Satelliten aus erfasst. „Mithilfe des auf unserem Wettervorhersagesystem ICON aufbauenden atmosphärischen Transportmodells ICON-ART konnten wir den Weg der Abluftfahne über Nordeuropa unmittelbar nachverfolgen“, so Tobias Fuchs weiter.
Satellitendaten sind ein bedeutender Baustein
Zu den wichtigsten Fortschritten des ITMS gehört die Verbesserung des Datenflusses von den verschiedenen Beobachtungssystemen, die Messungen am Boden, von Flugzeugen und von Satelliten umfassen. Hierbei werden insbesondere die neuen Satellitendaten wichtige Beiträge leisten. „Hochaufgelöste Satellitenmessungen der atmosphärischen Konzentration erlauben es, die Emissionsstärke von lokalen CO2- und CH4- Quellen vom Weltall aus zu quantifizieren, dies haben wir mit Flugzeugmessungen demonstriert“, erläutert Dr. Heinrich Bovensmann von der Universität Bremen. Für die neuen Satellitensysteme wie z.B. Copernicus CO2M und MERLIN konnte dies anhand von flugzeug-gestützten Messungen demonstriert werden.
Den Ursprung zu kennen, ist die Voraussetzung für erfolgreiche Maßnahmen
Aber auch das Wissen über einzelne Emissionsprozesse wird im ITMS weiterentwickelt und für das Modellsystem verfügbar gemacht:
„Es ist unabdingbar, die Quellen von Treibhausgasemissionen räumlich und zeitlich im Detail besser aufzulösen“, so Dr. Ralf Kiese vom Karlsruher Institut für Technologie (KIT). Um Quellen, und Senken biologischen Ursprungs zu berechnen, verwendet sein Team prozessbasierte Simulationsmodelle. In Zusammenspiel mit Schätzungen zu Emissionen aus Verkehr und Industrie wird es zukünftig möglich sein, zwischen Emissionen aus fossilen Quellen, der Land- und Forstwirtschaft sowie natürlichen Quellen wie Feuchtgebieten zu unterscheiden. „Damit können mit ITMS konkrete Maßnahmen zur Senkung lokaler Emissionen bewertet werden.“
Im Rahmen des ITMS fördert das BMBF Forschungsprojekte zu Kernkomponenten in den Bereichen Atmosphärische Modellierung, Beobachtungsdaten sowie Quellen und Senken. Auf diese Kernprojekte werden weitere Beiträge zum ITMS aufbauen. Zu den federführenden Partnern gehören das Max-Planck-Institut für Biogeochemie, der Deutsche Wetterdienst (DWD), das Institut für Umweltphysik der Universität Bremen, das Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU) des Karlsruher Instituts für Technologie (KIT) sowie das Institut für Physik der Atmosphäre des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Des Weiteren sind auch das Umweltbundesamt sowie das Thünen-Institut für Agrarklimaschutz beteiligt, die beide eine zentrale Rolle in der nationalen Berichterstattung spielen.
Wissenschaftliche Ansprechpartner:
Dr. habil. Christoph Gerbig (MPI für Biogeochemie) cgerbig@bgc-jena.mpg.de
Dr. Andrea Kaiser-Weiss (Deutscher Wetterdienst) Andrea.Kaiser-Weiss@dwd.de
Dr. Heinrich Bovensmann (Universität Bremen, Institut für Umweltphysik) heinrich.bovensmann@uni-bremen.de
PD Dr. Ralf Kiese (Karlsruhe Institut für Technologie, IMK-IFU) ralf.kiese@kit.edu
Dr. Andreas Fix (Deutsches Zentrum für Luft- und Raumfahrt (DLR)) Andreas.Fix@dlr.de
Nachhaltiger Konsum: Bevölkerung sieht Politik und Wirtschaft in der Pflicht
Ida Seljeskog Presse- und Öffentlichkeitsarbeit
Deutsches Evaluierungsinstitut der Entwicklungszusammenarbeit, DEval
Das Deutsche Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) untersucht in regelmäßigen Abständen das entwicklungspolitische Engagement der Bevölkerung in Deutschland. In seinem neuesten Bericht der Reihe „Meinungsmonitor Entwicklungspolitik“ hat es dabei erstmals auch die Einstellung der Bürger*innen zu nachhaltigem Konsum evaluiert. Die Ergebnisse zeigen, dass das Bewusstsein für nachhaltigen Konsum in der Bevölkerung weitverbreitet ist. Gleichzeitig sieht eine Mehrheit aber nur geringe Chancen, durch das individuelle Konsumverhalten etwas bewirken zu können. Stattdessen fordert ein Großteil der Befragten, Unternehmen und Politik stärker in die Pflicht zu nehmen.
Bewusstsein für nachhaltigen Konsum in der Bevölkerung vorhanden
Nachhaltiger Konsum ist in der Eigenwahrnehmung der Bürger*innen weitverbreitet: 58 Prozent der Befragten geben an, in ihrem Konsumverhalten beispielsweise bei Nahrungsmitteln, Kleidung und Finanzen auf Nachhaltigkeit zu achten. Mehr als zwei Drittel bekunden zudem, nachhaltiger konsumieren zu wollen.
Zweifel an der eigenen Selbstwirksamkeit
Die Bevölkerung ist mehrheitlich davon überzeugt, dass nachhaltiger Konsum dazu beitragen kann, entwicklungspolitische Herausforderungen zu bewältigen. Allerdings ist ein Großteil skeptisch, dass das individuelle Konsumverhalten dabei einen großen Einfluss hat. Ein Grund für Zweifel an der eigenen Selbstwirksamkeit ist, dass nachhaltiger Konsum und seine möglichen Auswirkungen oft als komplex und intransparent wahrgenommenen werden. Hinzu kommt, dass viele Bürger*innen eine gewisse Ohnmacht gegenüber globalen Unternehmen und deren Einfluss auf Produktion und Konsum empfinden.
Die Bevölkerung sieht Verantwortung bei Unternehmen und Politik
In der Studie wird gezeigt, dass die Bevölkerung stattdessen viele Einflussmöglichkeiten bei Wirtschaft und Politik sieht, nachhaltigen Konsum zu fördern. Gleichzeitig wird diesen Akteuren wenig Vertrauen entgegengebracht, dies auch tatsächlich zu tun. Knapp drei Viertel der Befragten fordern, dass Unternehmen mehr in die Pflicht genommen werden – besonders in Bezug auf die Zahlung existenzsichernder Löhne und die Verantwortung für menschenrechtliche Verletzungen entlang der Lieferkette. In diesem Zusammenhang arbeitet das DEval aktuell an einer Evaluierung zur Förderung nachhaltiger Lieferketten im Textilsektor durch die deutsche Entwicklungszusammenarbeit. Diese soll 2023 veröffentlicht werden.
Datengrundlage
Als Datenquelle dient eine vom Meinungsforschungsinstitut Respondi 2021 für das DEval durchgeführte bevölkerungsrepräsentative Erhebung. Zusätzlich wird auf Fokusgruppendiskussionen zurückgegriffen, die mit Unterstützung eines Dienstleisters durchgeführt wurden. Der vollständige Bericht „Meinungsmonitor Entwicklungspolitik 2022. Entwicklungspolitisches Engagement in Zeiten globaler Krisen und Herausforderungen“ ist auf der Website des DEval abrufbar.
Über das DEval
Das Deutsche Evaluierungsinstitut der Entwicklungszusammenarbeit (DEval) ist vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) mandatiert, Maßnahmen der deutschen Entwicklungszusammenarbeit unabhängig und nachvollziehbar zu analysieren und zu bewerten. Mit seinen strategischen und wissenschaftlich fundierten Evaluierungen trägt das Institut dazu bei, die Entscheidungsgrundlage für eine wirksame Gestaltung des Politikfeldes zu verbessern und Ergebnisse der Entwicklungszusammenarbeit transparenter zu machen. Das Institut gehört zu den Ressortforschungseinrichtungen des Bundes und wird von Prof. Dr. Jörg Faust geleitet.
Wissenschaftliche Ansprechpartner:
Wissenschaftlicher Kontakt:
Dr. Martin Bruder
Abteilungsleitung Zivilgesellschaft, Menschenrechte
Tel: +49 (0)228 336907-970
E-Mail: martin.bruder@DEval.org
Originalpublikation:
https://www.deval.org/de/publikationen/meinungsmonitor-entwicklungspolitik-2022-…
Energiesysteme der Zukunft – Rund 20 Millionen für vier Forschungsprojekte
Vanessa Marquardt Presse- und Öffentlichkeitsarbeit
Carl-Zeiss-Stiftung
Wie sehen die Energiesysteme der Zukunft aus? Welche technischen Grundlagen benötigen wir und wie kann der anstehende Transformationsprozess so gestaltet werden, dass wir alle gesellschaftlichen Akteure mitnehmen? Antworten auf diese und ähnliche Fragen sollen vier Forschungsprojekte liefern, die die Carl-Zeiss-Stiftung im Rahmen des Programms CZS Durchbrüche fördert. Pro Projekt werden bis zu fünf Millionen Euro zur Verfügung gestellt.
Erneuerbare Energien stellen neue Anforderungen an die Netzinfrastruktur. Zudem steht bei Wind-, Wasserkraft und Solaranlagen Energie nicht immer in gleicher Menge zur Verfügung, sondern unterliegt gewissen Schwankungen. Neben einer effektiven Nutzung der Ressourcen verlangen die Energiesysteme der Zukunft damit auch flexiblere Prozesse.
„Die Energiewende erfordert einen umfassenden Transformationsprozess, den Wissenschaft, Wirtschaft und Gesellschaft gemeinsam gestalten müssen“, sagt Dr. Felix Streiter, Geschäftsführer der Carl-Zeiss-Stiftung. „Daher ist es wichtig, sowohl die technische Seite des Prozesses zu betrachten als auch alle relevanten Akteure in den Prozess einzubinden. Einen solchen breiten Ansatz verfolgen unsere Förderprojekte.“
Ausgeschrieben wurde das Programm CZS Durchbrüche – Energiesysteme der Zukunft mit dem Ziel, anwendungsorientierte Grundlagenforschung zur Energiewende zu fördern. Vier Projekte wurden nun von einer Expertenkommission ausgewählt. Sie erhalten in den kommenden sechs Jahren jeweils bis zu fünf Millionen Euro.
Die Verteilung elektrischer Energie ist eine der zentralen Herausforderungen bei der Energiewende. Um eine höhere Auslastung der Netzinfrastruktur zu erzielen, wird an der Technischen Universität Ilmenau eine Netzumstellung von Wechsel- auf Gleichstrom erforscht. Der Einsatz von Gleichstrom in Verteilnetzen könnte eine wesentlich höhere Auslastung der Netzinfrastruktur erreichen und so den Ressourceneinsatz für den Netzausbau verringern.
An der Technischen Universität Kaiserslautern wird neben gleichstrombasierten Versorgungsnetzen die Flexibilisierung von sogenannten Batchprozessen erforscht, um dem schwankenden Stromangebot durch erneuerbare Energien zu begegnen. Bei den in Mittelstand und Großunternehmen weit verbreiteten Batchprozessen handelt es sich um geschlossene Prozessketten, die automatisiert nacheinander ablaufen. Dabei werden verschiedene Aggregate (Rührer, Pumpen, elektrische Heizungen, usw.) an- und abgefahren, um die unterschiedlichen Schritte durchzuführen. Im Gegensatz zu kontinuierlichen Prozessen sind sie in Bezug auf eine Flexibilisierung noch weitgehend unerforscht.
Wie mit Hilfe von Augmented und Virtual Reality Entscheidungsträger direkt in den Prozess der Energiewende eingebunden werden, untersucht ein Forschungsteam der Universität Stuttgart. Dafür setzt es digitale Zwillinge ein, die urbane Bestandsquartiere energetisch abbilden sollen. Darauf aufbauend können geplante Veränderungen wie z. B. die Installation von Solaranlagen, energetische Gebäudesanierung oder auch Schallemissionen erlebbar gemacht und ihre Rückwirkungen auf die gesamte Infrastruktur bewertet werden.
Organische Halogenverbindungen wie beispielsweise Teflon oder PVC verfügen über einzigartige Eigenschaften, werden nach dem Gebrauch bislang aber verbrannt. An der Johannes Gutenberg-Universität Mainz wird erforscht, wie die Halogene im Sinne einer Kreislaufwirtschaft wieder nutzbar gemacht werden können. Elektrochemisch sollen die Halogene als negativ geladene Ionen (Anionen) oder halogenorganische Bausteine freigesetzt und dabei das Kohlenstoffgrundgerüst erhalten werden, das als Rohstoffquelle für andere chemische Prozesse dienen kann. Der Prozess soll dabei so flexibel gestaltet werden, dass Stromüberschüsse genutzt werden können.
Weitere Informationen:
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/ve…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/sm…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/sr…
https://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/ha…
Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?
Anja Schuster Kommunikation
Hochschule für Technik und Wirtschaft Berlin
Die HTW Berlin lädt am 5. November zur öffentlichen Debatte
Bei der Veranstaltung im Rahmen der Berlin Science Week 2022 kommen Fachleute und Öffentlichkeit miteinander ins Gespräch – die Teilnahme ist kostenlos.
Wie kann Deutschland seine Energieversorgung erstens unabhängig und zweitens klimaneutral gestalten? Nach einer Antwort auf diese Frage suchen vier Expert*innen im Rahmen der diesjährigen Berlin Science Week. Zur öffentlichen Debatte eingeladen hat die Hochschule für Technik und Wirtschaft Berlin (HTW Berlin). Die Veranstaltung mit dem Titel „Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?“ findet am Samstag, 5. November 2022, statt. Die Teilnahme ist kostenlos und sowohl in Präsenz im Museum für Naturkunde möglich als auch virtuell. Die Plätze vor Ort sind begrenzt, eine vorherige Anmeldung ist nötig.
Diskutieren werden mit Prof. Dr. Barbara Praetorius und Prof. Dr. Volker Quaschning zwei in Energiefragen profilierte HTW-Wissenschaftler*innen. Die Ökonomin Barbara Praetorius war eine der vier Vorsitzenden der von der Bundesregierung einberufenen Kommission Wachstum, Strukturwandel und Beschäftigung, der sogenannten „Kohlekommission“. Volker Quaschning ist Experte für Regenerative Energien und Mitbegründer der „Scientists for Future“. Die Position der Industrie vertritt Dr. Holger Lösch, seit 2017 Stellvertretender Hauptgeschäftsführer des Bundesverbands der Deutschen Industrie e.V. (BDI). Die Perspektive des Deutschen Gewerkschaftsbunds (DGB) bringt Katja Karger ein, Vorsitzende des DGB Berlin-Brandenburg.
Im Anschluss an die Podiumsdiskussion besteht die Möglichkeit, mit den Expert*innen sowohl vor Ort als auch virtuell ins Gespräch zu kommen. Die Moderation liegt bei der Journalistin Vivian Upmann. Die Veranstaltung ist Teil der Berlin Science Week, zu der sich seit 2016 Vertreter*innen aus Wissenschaft und Gesellschaft in Berlin treffen.
Beyond Erdgas: Wie werden wir unabhängig und klimaneutral?
5. November 2022, 15:30-17:00 Uhr
Berlin Science Week Campus, New Normal Hall, 1. Obergeschoss
c/o Museum für Naturkunde Berlin, Invalidenstraße 43, 10115 Berlin
Wissenschaftliche Ansprechpartner:
Prof. Dr. Barbara Praetorius
Prof. Dr. Volker Quaschning
Weitere Informationen:
https://events.htw-berlin.de/forschung/symposium/
Stress beeinträchtigt das episodische Gedächtnis
Sophie Ehrenberg Wissenschaftsorganisation & Öffentlichkeitsarbeit
Leibniz-Institut für Neurobiologie
Stress beeinträchtigt die Struktur und Funktion des Gehirns, was zu kognitiven Defiziten und einem erhöhten Risiko für psychiatrische Störungen wie Depression, Schizophrenie, Angstzuständen und posttraumatischen Belastungsstörungen führen kann. Dr. Alessio Attardo hat mit seinem Team vom Max-Planck-Institut für Psychiatrie in München und vom Leibniz-Institut für Neurobiologie (LIN) Magdeburg nun einen Mechanismus entdeckt: wiederholter Stress destabilisiert die Synapsen in der für das episodische Gedächtnis wichtigen Hippocampus-Region CA1, sodass die Neuronen zunächst hyperaktiv sind, anschließend Nervenverbindungen verschwinden und sich somit die Kodierung verändert.
Der erste Kuss, der Schulabschluss, ein Autounfall: Im episodischen Gedächtnis werden sowohl positive als auch negative Erfahrungen unseres Lebens abgespeichert. Es umfasst aber nicht nur die Erinnerungen an unsere persönlichen Lebensstationen, sondern auch an markante Ereignisse des öffentlichen Lebens, die uns geprägt haben, wie zum Beispiel den Fall der Mauer. Mit Hilfe des episodischen Gedächtnisses können wir komplexe Alltagserfahrungen in einen zeitlichen und räumlichen Zusammenhang stellen.
Durch Stress wird diese Form des Erinnerns jedoch erheblich verändert. Alessio Attardo suchte mit seinem Forscherteam den neuronalen Mechanismus: „In unserer Studie haben wir den Zusammenhang zwischen Veränderungen in den Aktivitätsmustern und der strukturellen Plastizität der Neuronen untersucht. Wir konnten mit unseren Experimenten zeigen: Wiederholter Stress erhöht bei den untersuchten Mäusen zunächst die neuronale Aktivität, doch anschließend geht die räumlich-zeitliche Struktur der Aktivitätsmuster verloren und die Enkodierung der Erinnerung im Hippocampus leidet.“
Für das Experiment trainierten die Wissenschaftler und Wissenschaftlerinnen Mäuse, die Position einer versteckten Plattform in einem kleinen Schwimmbecken zu erlernen. Mit Hilfe von Miniaturmikroskopen und der Zwei-Photonen-Bildgebung konnten sie Veränderungen in den Aktivitätsmustern von Tausenden von Neuronen erkennen, während sich die Mäuse frei bewegten. Die veränderte Aktivität ging mit einer Abnahme von erregenden Synapsen einher, weil vorhandene Synapsen durch den Stresseinfluss destabilisiert wurden und die Neubildung von synaptischen Kontakten drastisch abnahm.
Attardo erläutert: „Interessanterweise wurde der Verlust von Verbindungen in den Neuronen des Hippocampus erst nach mehreren Tagen Hyperaktivität deutlich, und die Desorganisation der Kodierung im Hippocampus zeigte sich erst nach einem erheblichen Kontaktverlust. Akuter Stress hingegen führte eher zu einer Stabilisierung der erregenden Synapsen, die in zeitlicher Nähe zum Stressereignis entstanden.“ Dies deutet darauf hin, dass Stress nicht gleich Stress ist, und dass die nach akutem Stress stabilisierten Synapsen möglicherweise an der Speicherung der negativen Stress-Wirkung beteiligt sind, nicht aber an der eigentlichen Lernaufgabe.
Die zellulären Mechanismen und Netzwerkveränderungen, durch die wiederholter oder lang anhaltender Stress bzw. Akutstress seine schädlichen Auswirkungen entfaltet, sind noch nicht vollständig geklärt. „Unsere Studie wirft ein Licht auf dieses Problem, indem sie zum ersten Mal zeigt, dass der Verlust neuronaler Konnektivität den Übergang zwischen früher neuronaler Hyperaktivität und späterer Beeinträchtigung der Hippocampusfunktion bei wiederholter Stressbelastung vermittelt“, so Attardo. Die Ergebnisse könnten das Potenzial haben, neue Therapien zur Linderung der negativen Auswirkungen von wiederholtem Stress zu ermöglichen.
Wissenschaftliche Ansprechpartner:
Dr. Alessio Attardo, alessio.attardo@lin-magdeburg.de
Originalpublikation:
https://www.nature.com/articles/s41398-022-02107-5
Als Unterstützung für Unternehmen: TH Lübeck Forscher entwickeln Energiesparkoffer
Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Viele kleine und mittlere Unternehmen stehen gerade vor großen Herausforderungen Energiesparpotentiale zu erfassen und Sparmaßnahmen umzusetzen. Damit sie gezielt vorgehen können und die verschiedenen Möglichkeiten ausprobieren können, haben Forscher des Kompetenzzentrums CoSA der TH Lübeck einen Energiesparkoffer entwickelt. Dieser besteht aus diversen Sensoren, die Verbrauche und damit Einsparpotentiale aufdecken.
Ob Friseursalon, Handwerksbetrieb oder Hotel – viele kleine und mittlere Unternehmen suchen derzeit nach Lösungen wie sie effektiv Energie einsparen können. Die TH Lübeck Forscher Prof. Horst Hellbrück und Marco Cimdins des Kompetenzzentrums CoSA entwickelten mit einem Energiesparkoffer eine praktische Lösung für Unternehmen. Erst kürzlich präsentierte Cimdins den Koffer beim Mittelstand-Digital Kongress im Umweltforum in Berlin.
„Wir zeigen mit einfachen Mitteln, wie die Unternehmen mit simplen technischen Anwendungen ihren Energieverbrauch ermitteln können – egal ob es um Stromverbräuche, das Raumklima oder den Zustand eines E-Parkplatzes geht“, sagt der wissenschaftliche Mitarbeiter Marco Cimdins. Im Rahmen des Mittelstand-Digital Zentrum Schleswig-Holstein stellte er einen Energieeffizienz-Koffer zusammen, der verschiedene Sensoren bündelt.
Prof. Horst Hellbrück erläutert den Prozess: „Im ersten Schritt geht es darum, den Energieverbrauch transparent zu machen und so Einsparpotenziale zu identifizieren. Grundlage sind Daten, die über Sensoren erfasst werden. Diese Daten können visualisiert werden, sie können dafür sorgen, dass automatische Benachrichtigungen geschickt werden oder sie können in andere Systeme integriert werden.“
Konkrete Beispiele für Sensoren im Energieeffizienz-Koffer sind:
• Raumklimasensor: der Temperatur, Luftfeuchtigkeit, Licht, Bewegung und auch CO2 misst. Mit diesen Sensoren kann nicht nur für ein optimales Raumklima gesorgt werden, sondern auch die Betriebskosten optimiert werden. Ob Friseur, Museum, Handwerk, Gastronom oder Maschinenbauer, diese Sensoren sind überall einsetzbar.
• Smarte Fenster- und Türsensoren: ermöglichen jederzeit einen Überblick, ob Türen und Fenster geschlossen oder offen sind und bieten so Potenzial, Energie zu sparen.
• KLAX: zum Nachrüsten von digitalen Stromzählern ermöglicht die Überwachung der internen Energieverbräuche in kurzen Intervallen. Diese können nach einzelnen Messstellen aufgeschlüsselt und visualisiert werden.
• Stromzangen: ermöglichen die Energiedatenerfassung und bieten durch die Auswertung Möglichkeiten zur Steigerung der Ressourceneffizienz.
• Smarte Steckdosen: messen nicht nur den Strombedarf, sondern können nach einem Zeitplan an- oder komplett abgeschaltet werden
Der Koffer entstand im Rahmen des Mittelstand-Digital Zentrums Schleswig-Holstein. Bei Interesse am Energieeffizienzkoffer ist eine Kontaktaufnahme mit Marco Cimdins und Prof. Horst Hellbrück möglich.
Wissenschaftliche Ansprechpartner:
Marco Cimdins, M.Sc.
Telefon: +49 451 300 5631
E-Mail: marco.cimdins@th-luebeck.de
Wie sich familiäre Entscheidungen auf die Wirtschaft auswirken – und umgekehrt
Dr. Anke Sauter Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Singles, Paare, alleinerziehende Elternteile, Familien mit einem Kind oder mit mehreren – private Haushalte können sehr unterschiedlich aussehen. Eine neue Forschungsgruppe an der Goethe-Universität will herausfinden, wie das individuelle Verhalten von Haushalten einerseits und die gesamtwirtschaftliche Situation und die Familienpolitik andererseits einander beeinflussen.
Wie Einkommen, Konsum und Vermögen in einer Volkswirtschaft verteilt sind, hat viel mit den Entscheidungen zu tun, die in den einzelnen Haushalten getroffen werden. Die Forschungsgruppe „Makroökonomische Implikationen von Intra-Haushalt-Entscheidungen“ will die Verhaltensweisen einzelner Haushaltsmitglieder im Hinblick auf Konsum-, Beschäftigungs- und Investitionsmöglichkeiten stärker in den Blick nehmen und deren Wechselwirkung erforschen. Die Deutsche Forschungsgemeinschaft (DFG) wird die Forschungen für zunächst vier Jahre mit 2,44 Millionen Euro finanzieren. Sprecher der Gruppe ist Prof. Alexander Ludwig, der an der Goethe-Universität die Professur für Public Finance and Macroeconomic Dynamics innehat. Die Forschungsgruppe besteht ausschließlich aus Frankfurter Ökonomen: Georg Dürnecker, Professor für Internationalen Handel, Entwicklung und Wachstum, die Leibniz-Preisträgerin Nicola Fuchs-Schündeln, Professorin für Makroökonomie und Entwicklung, Leo Kaas, Professor für Volkswirtschaftslehre, insbesondere Makroökonomik und Arbeitsmärkte sowie die Nachwuchswissenschaftlerinnen Chiara Lacava und Dr. Zainab Iftikhar, die ebenfalls auf arbeitsmarkt- und familienökonomische Fragestellungen spezialisiert sind.
„Traditionelle makroökonomische Modelle berücksichtigen die Dynamik in privaten Haushalten nicht. Jeder Haushalt wird durch ein einziges Mitglied repräsentiert. Mit Hilfe komplexer Wirtschaftsmodelle können wir nun Interaktionen zwischen den Haushaltsmitgliedern in makroökonomische Modelle einführen“, erklärt Prof. Ludwig, der Sprecher der Gruppe. Auf diese Weise werde man dazu beitragen, die mikroökonomischen Grundlagen der Makroökonomie noch besser zu verstehen. Das Thema Ungleichheit soll nicht nur zwischen Haushalten untersucht werden, sondern auch innerhalb von Haushalten – z.B. der ungleichen Einkommensverteilung zwischen Mann und Frau.
Die Forschungen sind in acht Projekte gegliedert, die unterschiedliche Themen bearbeiten werden. Eines der Projekte widmet sich der Frage, inwiefern die Möglichkeit, Eizellen einzufrieren und damit die Realisierung des Kinderwunsches zu vertagen, die Arbeitsbiographien von Frauen beeinflussen kann. Manche Firmen bieten bei diesem Jahr eine Kostenübernahme an, um so die Arbeitskraft im Betrieb halten zu können. Doch welche Auswirkungen hat dies auf die Frauen? Und auf die gesamte Volkswirtschaft? Weitere Themen sind etwa die Auswirkungen innerfamiliärer Arbeitsteilung auf die Einkommenssituation von Individuen oder die Wohnentscheidungen von Familien in Abhängigkeit von wohnungspolitischen Maßnahmen.
Die Forschenden erhoffen sich von ihrer Arbeit eine grundlegende Bereicherung der Kenntnisse darüber, wie ökonomische Maßnahmen wirken, die etwa durch Steuer- und Transferzahlungen Arbeitsangebots-, Spar-, Fertilitäts- und Wohnnachfrageentscheidungen beeinflussen. Diese Maßnahmen sollen sowohl hinsichtlich ihrer gesamtwirtschaftlichen Effizienz- als auch ihrer Verteilungswirkungen untersucht werden. Um diese Zusammenhänge zu verdeutlichen, untersuchen sie etwa, inwieweit eine Spezialisierung eines Partners in einer Familie auf dem Arbeitsmarkt, verursacht etwa durch die Geburt eines Kindes oder durch steuerpolitische Maßnahmen wie Ehegattensplittingtarife, zu stärkerer Ungleichheit zwischen Männern und Frauen führt und inwieweit dies die gesamtökonomische Effizienz verringert – z.B. durch eine verringerte Erwerbspartizipation von Frauen – oder etwa erhöht – da eine stärkere Spezialisierung die Arbeitsproduktivität des Main Breadwinners im Haushalt steigert.
Bild zum Download: https://www.uni-frankfurt.de/126914376
Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Ludwig
Chair of Public Finance and Macroeconomic Dynamics
Department Economic Policy & Quantitative Methods, Faculty of Economics and Business
Goethe-Universität
Telefon +49 (0)69 798-30036
E-Mail mail@alexander-ludwig.com
Weitere Informationen:
http://alexander-ludwig.com
Intelligente Algorithmen für die Energiewende
Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Mit einem Münchner Startup entwickeln HM-Professor Christoph Hackl und sein Team intelligente Algorithmen, die dafür sorgen, dass sich der Strom aus Wellenkraftwerken effizient und zuverlässig ins Stromnetz einspeisen lässt.
Früher passionierter Windsurfer, forscht HM-Professor Christoph Hackl heute an der Fakultät für Elektrotechnik und Informationstechnik zur Stromerzeugung aus Wellenkraft. Mit dem Münchner Start up SINN Power GmbH entwickeln Hackl und der wissenschaftliche Mitarbeiter Simon Krüner Steuerungssysteme für die Leistungselektronik für eine nachhaltige Stromgewinnung.
Stromproduktion auf dem Meer
Im Prinzip ist die Stromgewinnung auf See einfach: Das geplante Wellen-Kraftwerk besteht aus mehreren Reihen senkrechter Stangen, die miteinander verbunden und am Meeresgrund verankert sind. An jeder Stange befindet sich ein Schwimmköper, der von den Wellen auf- und ab bewegt wird. Dadurch werden Rollen angetrieben, die zwischen Schwimmkörper und Stange befestigt sind. Jede Rolle ist mit einem Generator verbunden, der die Bewegung in elektrische Energie verwandelt. Beim Auf und Ab der Rollen ändert sich die Drehrichtung. Deshalb produzieren die Generatoren Drehstrom, dessen Frequenz sich, abhängig von der Länge der Meereswellen, ständig verändert.
Ins Netz lässt sich dieser Strom nicht ohne weiteres einspeisen – dafür benötigt man Drehstrom mit einer konstanten Frequenz von 50 Hertz, das entspricht 50 Schwingungen pro Sekunde. Der im Wellenkraftwerk erzeugte Strom muss daher erst einmal umgewandelt werden. „Rein technisch ist das kein Problem: Man benötigt einen Umrichter, der aus dem primären Drehstrom Gleichstrom macht, sowie einen zweiten Umrichter, der zusammen mit einem Netzfilter 50 Hertz-Drehstrom erzeugt.
Herausforderung Effizienz und Zuverlässigkeit
„Die Herausforderung liegt darin, bei dieser Umwandlung eine möglichst hohe Effizienz und Zuverlässigkeit in allen Betriebsbereichen zu erreichen“, erklärt Hackl. Für den Prototypen der neuen Wellenkraftanlage hat er solche Algorithmen entwickelt, die unter anderem den Wirkungsgrad erheblich verbessern. Die Ergebnisse wurden unlängst unter dem Titel „Experimental Identification of the Optimal Current Vectors for a Permanent-Magnet Synchronous Machine in Wave Energy Converters“ veröffentlicht.
Hackls Algorithmen setzen da an, wo normalerweise Energie verloren geht: bei den verschiedenen Umwandlungsschritten – erst von Drehstrom in Gleichstrom und dann von Gleichstrom in netzkompatiblen Drehstrom. Jede dieser Umwandlungen verringert die Energieausbeute. Hackls Software minimiert die Verluste: „Unsere Algorithmen können das Zusammenspiel der verschiedenen Komponenten nicht nur optimal steuern, sondern steigern auch ihre Zuverlässigkeit.“ Wenn beispielsweise in einem Umrichter ein Schalter ausfalle, dann sorge die intelligente Software dafür, dass sich das System nicht abschalte, sondern sich an die veränderten Umstände anpasse und weiterarbeite – wenn auch mit etwas verringerter Leistung. Gleichzeitig werde eine Störungsmeldung an den Betreiber geschickt. „Insgesamt lässt sich so die Effizienz des Gesamtsystems erheblich verbessern“, resümiert Hackl.
Der Härtetest auf der Insel
Den Härtetest am Meer hat die Leistungselektronik mit Bravour bestanden: Für den Prototypen-Test wurden Umrichter, Netzfilter und Steuerungscomputer in eine wasserdichte, schuhschachtelgroße Box gepackt und nach Heraklion geflogen. Dort trotzt die Technik seit mehr als einem Jahr salziger Luft, Stürmen und spritzender Gischt und verwandelt den Strom des wellengetriebenen Generators zuverlässig in Netzstrom. Die Energieausbeute: 93 Prozent.
Technik für nachhaltige Energieerzeugung
Von den effizienten und fehlertoleranten Algorithmen sollen in Zukunft nicht nur die Hersteller von Wellenkraftanlagen profitieren, sondern auch die Betreiber von Wind-, Solar- oder Geothermieanlagen, sagt Hackl: „Die Leistungssoftware eignet sich für die Optimierung des Outputs aller regenerativen Kraftwerke – egal ob Erdwärme, Sonne, Wind oder Wasser. Man braucht am Ende immer Wandler, um Netzstrom daraus zu machen.“ Gesteigerte Effizienz und Zuverlässigkeit trägt zur Unabhängigkeit von fossilen Rohstoffen bei. „Tatsächlich sehe ich in den Algorithmen meinen persönlichen, bescheidenen, aber ganz konkreten Beitrag zur Energiewende. Ich habe selbst Kinder und ich möchte ihnen eine Welt hinterlassen, die lebenswert ist. Das ist meine Motivation.“
Gerne vermitteln wir einen Interviewtermin mit Prof. Dr. Christoph Hackl und Simon Krüner.
Christoph Hackl promovierte 2012 interdisziplinär an der Technischen Universität München in Mechatronik und Systemtheorie. 2018 wurde er zum Professor für “Elektrische Maschinen und Antriebe” an die HM berufen. Mit fünf Kollegen gründete er in 2019 das HM-Forschungsinstitut „Nachhaltige Energiesysteme”. In 2022 gewann er den HM-Oskar für angewandte Forschung. Seine Forschungsschwerpunkte umfassen mechatronische und regenerative Energiesysteme. Er hat mehr als 150 Konferenz-/Journal-/Buchbeiträge veröffentlicht.
Wissenschaftliche Ansprechpartner:
Kontakt: Christiane Taddigs-Hirsch unter 089 1265-1911 oder unter presseinfo@hm.edu
Originalpublikation:
C.M Hackl, J. Kullick and N. Monzen, „Optimale Betriebsführung von nichtlinearen Synchronmaschinen“, in Elektrische Antriebe – Regelung von Antriebssystemen (5. Auflage), Springer-Verlag, 2020.
C.M. Hackl, U. Pecha, K. Schechner, “Modeling and control of permanent-magnet synchronous generators under open-switch converter faults”, IEEE Transactions on Power Electronics, 2018 (doi: 10.1109/TPEL.2018.2855423).
Wärmere Ozeane erhöhen Niederschlagsmenge
Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Neue Nature-Studie: Die Erwärmung der oberen Ozeanschichten im westlichen tropischen Pazifik wird künftig zu stärkeren Winden und mehr Regen über Ostasien führen
Der östliche Pazifik ist eine der Schlüsselregionen im Klimasystem Erde. Ändern sich hier die Bedingungen, wirkt sich das direkt auf das Klima anderer Regionen aus. Eine neue Studie kommt zu dem Schluss, dass bereits eine Erwärmung der oberen Ozeanschichten im äquatorialen Pazifik dazu führen könnte, dass der ostasiatische Monsun insgesamt verstärkt wird. Die Studie, an der auch PD Dr. Mahyar Mohtadi vom MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen beteiligt ist, wird jetzt im Fachmagazin Nature veröffentlicht.
Das Indo-Pazifische Wärmebecken (IPWP) spielt eine entscheidende Rolle für das globale Klima, indem es enorme Mengen an Wasserdampf und latente Wärme an die Atmosphäre abgibt und so das Klima reguliert. In jüngster Zeit haben stetig wärmer werdende Ozeane dazu beigetragen, dass tropische Stürme verstärkt und intensiver werden – sie beziehen ihre Energie direkt von der Oberfläche des Meeres. Wie genau Ozeanerwärmung und Niederschlägen an Land zusammenhängen, ist jedoch noch nicht ausreichend erforscht. Fest steht aber, dass Ozeane die anthropogene Klimaerwärmung nur bis zu einem bestimmten Sättigungsgrad durch Aufnahme ausgleichen können.
Durch die Verwendung von Klimamodellen und geochemischen Untersuchungen an kalkhaltigen Meeresorganismen haben die Forschenden für die aktuelle Studie rekonstruiert, wie der Ozean seine Wärme und Energie verändert. Sie verglichen ihre Ergebnisse mit Rekonstruktionen von Monsunniederschlägen in Ostasien für denselben Zeitraum und fanden heraus, dass die Kopplung von ozeanischem Wärmeinhalt und Monsunschwankungen für die Regulierung des globalen Klimas entscheidend ist.
„Unsere Studie legt nahe, dass Änderungen in der thermischen Struktur des westlichen Pazifiks die Abgabe von Feuchtigkeit, latenter Wärme, und Niederschlag über Ostasien kontrollieren“, sagt Mahyar Mohtadi, Leiter der Forschungsgruppe „Klimavariabilität der Niedrigen Breiten“ am MARUM. „Der Temperaturgradient zwischen verschiedenen Breitengraden steuert nicht nur die Energieaufnahme vom tropischen Pazifik, sondern auch, wie Winde die Feuchtigkeit aus dem Ozean an Land tragen.“
Die von Forschenden aus China, Deutschland und den USA geleitete Studie ergab, dass in den vergangenen 360.000 Jahren die Zunahme des Monsunregens in Ostasien von einem erhöhten Wärmeinhalt des Indo-Pazifischen Wärmebeckens – einer Region, in der die Meeresoberflächentemperaturen das ganze Jahr über etwa 28 Grad Celsius bleiben – gesteuert wurde, wahrscheinlich durch einen verbesserten Transport von Feuchtigkeit und latenter Wärme durch Wasserdampf aus dem Ozean. Laut der Studie folgen die Änderungen des Wärmegehalts der oberen Ozeane den Verschiebungen in der Erdumlaufbahn, die etwa alle 23.000 Jahre auftreten und die Verteilung der einfallenden Sonnenstrahlung in jedem Breitengrad verändern.
Das MARUM gewinnt grundlegende wissenschaftliche Erkenntnisse über die Rolle des Ozeans und des Meeresbodens im gesamten Erdsystem. Die Dynamik des Ozeans und des Meeresbodens prägen durch Wechselwirkungen von geologischen, physikalischen, biologischen und chemischen Prozessen maßgeblich das gesamte Erdsystem. Dadurch werden das Klima sowie der globale Kohlenstoffkreislauf beeinflusst und es entstehen einzigartige biologische Systeme. Das MARUM steht für grundlagenorientierte und ergebnisoffene Forschung in Verantwortung vor der Gesellschaft, zum Wohl der Meeresumwelt und im Sinne der Nachhaltigkeitsziele der Vereinten Nationen. Es veröffentlicht seine qualitätsgeprüften, wissenschaftlichen Daten und macht diese frei zugänglich. Das MARUM informiert die Öffentlichkeit über neue Erkenntnisse der Meeresumwelt, und stellt im Dialog mit der Gesellschaft Handlungswissen bereit. Kooperationen des MARUM mit Unternehmen und Industriepartnern erfolgen unter Wahrung seines Ziels zum Schutz der Meeresumwelt.
Wissenschaftliche Ansprechpartner:
PD Dr. Mahyar Mohtadi
MARUM – Zentrum für Marine Umweltwissenschaften, Universität Bremen
Klimavariabilität der niedrigen Breiten
E-Mail: mmohtadi@marum.de
Telefon: 0421 218 65660
Originalpublikation:
Zhimin Jian, Yue Wang, Haowen Dang, Mahyar Mohtadi, Yair Rosenthal, David W. Lea, Zhongfang Liu, Haiyan Jin, Liming Ye, Wolfgang Kuhnt & Xingxing Wang: Warm pool ocean heat content regulates ocean–continent moisture transport. Nature 2022. DOI: 10.1038/s41586-022-05302-y.
Weitere Informationen:
http://www.marum.de/wir-ueber-uns/Klimavariabilitaet-der-niedrigen-Breiten.html – Forschungsgruppe „Klimavariabilität der Niedrigen Breiten“ am MARUM
Phosphor-Recycling aus Klärschlamm verbessern
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Phosphor ist ein wichtiger Rohstoff, insbesondere als Dünger für die Landwirtschaft. Aber in Gewässern verschlechtert er die Wasserqualität. Seit den 80er Jahren gehört darum die Phosphatfällung zu den Kernprozessen kommunaler Kläranlagen. Dabei wird Phosphor mit Salzen im Klärschlamm gebunden. Weil der Rohstoff aber auch zunehmend knapp wird, soll er dort zurückgewonnen werden. Das gelingt beispielsweise, wenn er in gebundener Form als Vivianit vorliegt. Forschende vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben untersucht, welche Faktoren die Bildung von Vivianit fördern und damit die Menge an rückgewinnbaren Phosphor erhöhen.
Es gibt viele gute Gründe, Phosphor zu recyceln: Rohphosphate sind zunehmend verunreinigt und die Versorgung hängt von einigen wenigen Ländern ab. Deshalb steht er seit 2014 auf der Liste der „kritischen Rohstoffe“ der Europäischen Union. Und auch die deutsche Bundesregierung hat 2017 eine novellierte Klärschlammverordnung verabschiedet: Bis 2032 sollen demnach größere Anlagenbetreiber dafür sorgen, dass der im Klärschlamm enthaltene Phosphor zurückgewonnen wird.
Bei der Fällung im Klärschlamm kann Vivianit entstehen – eine Eisen-Phosphor-Verbindung, aus der sich Phosphor relativ gut wieder recyceln lässt. „Aber bisher war nicht klar, welche Bedingungen in den Kläranlagen die Vivianitbildung begünstigen. Das interessiert uns auch für die Restaurierung von Seen, wo die Fällung von Phosphor aus dem Wasser ebenfalls Anwendung findet, um die Nährstofflast zu reduzieren und so die Wasserqualität zu verbessern“, erläutert IGB-Forscher Michael Hupfer, der die Studie geleitet hat. Das Team analysierte die Eigenschaften und die Zusammensetzungen von Schlammproben aus 16 Kläranlagen sowie die Prozessparameter der Anlagen, um die Einflussfaktoren der Vivianitbildung zu ermitteln.
Hoher Eisengehalt begünstigt, hoher Schwefelgehalt verringert die Vivianitbildung:
Ein hoher Eisengehalt erwies sich als wichtigster Faktor, um die Vivianitbildung zu begünstigen. Ein hoher Schwefelgehalt wiederum verringerte die Vivianitbildung. „Es gibt schwefelhaltige und schwefelfreie Fällungsmittel. Wir konnten im Vergleich zeigen, dass die Verwendung von schwefelhaltigen Fällungsmitteln den Schwefelgehalt im Schlamm erhöhen und so der Vivianitbildung entgegenwirken kann. Die Wahl des Fällmittels kann also das Phosphor-Recycling wesentlich beeinflussen“, erläutert die IGB-Doktorandin Lena Heinrich, Erstautorin der Studie.
Die Anpassung der Bedingungen kann einiges bewirken: In den 16 Kläranlagen variierte der Anteil von Phosphor, das in Vivianit gebunden war, zwischen rund 10 bis zu 50 Prozent. Diese Spanne zeigt das große Potenzial, die Ausbeute von Vivianit zu erhöhen. „Für uns als Gewässerökologen sind die Erkenntnisse sehr wichtig, weil eisenhaltige Fällmittel auch für die Restaurierung von eutrophierten, also mit Nährstoffen belasteten Seen in Frage kommen. Die Effizienz einer Eisensalz-Zugabe ist viel größer, wenn es im Sediment zur Bildung von stabilem Vivianit kommt, was dann – vielleicht eines Tages – auch für die Rückgewinnung von Phosphor zur Verfügung steht“ ordnet Michael Hupfer die Ergebnisse ein.
Wissenschaftliche Ansprechpartner:
Lena Heinrich
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), nun an der Universität Potsdam. E-Mail: lena.heinrich@uni-potsdam.de
Michael Hupfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). E-Mail: michael.hupfer@igb-berlin.de
Originalpublikation:
Lena Heinrich, Peter Schmieder, Matthias Barjenbruch, Michael Hupfer: Formation of vivianite in digested sludge and its controlling factors in municipal wastewater treatment. Science of The Total Environment, Volume 854, 2023, 158663, ISSN 0048-9697. https://doi.org/10.1016/j.scitotenv.2022.158663.
Weitere Informationen:
https://www.igb-berlin.de/news/phosphor-recycling-aus-klaerschlamm-verbessern
Virenfahndung in der Kanalisation
Jana Schlütter Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Mit am Max Delbrück Center entwickelten Algorithmen lassen sich nicht nur neue Varianten des Coronavirus im Abwasser rasch aufspüren. Das Verfahren, das ein Team um Altuna Akalin in „Science of the Total Environment“ vorstellt, kommt auch anderen Krankheitserregern leicht auf die Schliche.
Nicht nur das Coronavirus verändert permanent sein Gesicht, um sich den Angriffen des menschlichen Immunsystems möglichst zu entziehen. Auch andere Erreger nutzen diese Strategie: Durch winzige Veränderungen in ihrem Erbgut, den Mutationen, bringen sie immer wieder neue Varianten hervor, denen die Körperabwehr oft weniger entgegenzusetzen hat als den Erregern, die sie schon durch eine Infektion oder Impfung kennt.
Alle Infizierten hinterlassen ihre Spuren
„Daher ist es so wichtig, neu entstehende Virusvarianten möglichst rasch aufzuspüren“, erklärt Dr. Altuna Akalin, Leiter der „Bioinformatics and Omics Data Science Platform“ am Berliner Institut für Medizinische Systembiologie des Max Delbrück Centers (MDC-BIMSB). Gemeinsam mit vielen weiteren Forschenden des Max Delbrück Centers, den Berliner Wasserbetrieben und dem Laborunternehmen amedes hat der Bioinformatiker Akalin ein Verfahren entwickelt, um diese Varianten im Abwasser nachzuweisen. Denn dort hinterlässt sie jeder Mensch, der sich mit den Viren infiziert hat – unabhängig davon, ob oder welche Symptome er entwickelt und ob er getestet ist oder nicht.
Beteiligt waren an dem Projekt die Arbeitsgruppen „RNA-Biologie und Posttranscriptionale Regulation“ von Professor Markus Landthaler und „Systembiologie von Gen-regulatorischen Elementen“ von Professor Nikolaus Rajewsky sowie die Technologieplattform „Genomik“, die Dr. Janine Altmüller leitet. Landthaler und Rajewsky sind gemeinsam mit Akalin Letztautoren der aktuellen Publikation. Erstmals vorgestellt hatte das Team um Akalin
das computergestützte Werkzeug namens „PiGx SARS-CoV-2“ im Dezember 2021 auf der Preprint-Platform „medRxiv“. Erstautor*innen waren damals wie jetzt Vic-Fabienne Schumann und Dr. Rafael Cuadrat aus Akalins Arbeitsgruppe sowie Dr. Emanuel Wyler aus Landthalers Team.
Schneller als mit Proben von Patient*innen
Die Grundidee der Datenanalyse-Pipeline hat sich seither nicht verändert. „Um sie zu nutzen, muss das Erbgut der Viren im Abwasser zunächst sequenziert, also entschlüsselt werden“, erklärt Akalin. Die gewonnen Daten werden dann gemeinsam mit ein paar zusätzlichen Informationen, zum Beispiel zur verwendeten Sequenziermethode, in die Pipeline eingespeist. Heraus kommen grafische Darstellungen, an denen nicht nur Expert*innen, sondern auch Laien die Infektionsdynamik und die zirkulierenden Virusvarianten zeitgleich an verschiedenen Standorten ablesen können.
„Auch neu auftretende Varianten lassen sich auf diese Weise aufspüren – in den meisten Fällen sogar ein paar Tage früher, als es durch kontinuierliche Tests und die Sequenzierung von Patient*innenproben möglich wäre“, sagt Akalin. „Dank unserer Kooperationen konnten wir zudem zeigen, dass ein solches Abwasser-Frühwarnsystem sowohl in einem wissenschaftlichen Umfeld als auch auf industrieller Ebene erfolgreich ist.“ Routineuntersuchungen führe das Max Delbrück Center aber nicht durch, man stelle das Verfahren lediglich zur Verfügung, ergänzt Akalin.
Die Pipeline funktioniert weltweit
Das jetzt im Fachblatt „Science of the Total Environment“ beschriebene Tool hat sich in den vergangenen Monaten weiterentwickelt. „Die von uns erstellten Algorithmen sind robuster geworden“, sagt Akalin. „Wir haben etwa den Beweis erbracht, unter anderem am Beispiel von New York, dass die Pipeline Daten aus ganz unterschiedlichen Teilen der Welt zuverlässig analysieren kann – auch unabhängig davon, nach welchem Protokoll diese Daten erstellt wurden.“
Mit ihrer Methode haben Akalin und seine Kolleg*innen bereits die Delta- und die Omikron-Variante des Coronavirus entdeckt, bevor diese zu den jeweils dominierenden Varianten in der Bevölkerung wurden. „Unsere Software kann neu auftretende Mutationen sowohl räumlich als auch zeitlich verfolgen“, erklärt Akalin. „Finden sich an bestimmten Orten im Abwasser immer mehr Mutationen, werden diese markiert, um auf die Möglichkeit einer neuen Virusvariante hinzuweisen.“
„Mithilfe zusätzlicher Tools, die in die Pipeline integriert werden, lassen sich sogar die Auswirkungen der gefundenen Mutation vorhersagen“, ergänzt Akalin. Man könne so künftig beispielsweise abschätzen, inwieweit sich die neuen Virusvarianten dem menschlichen Immunsystem entziehen – und ob sie dadurch ansteckender als die alten Varianten sein werden oder schwerere Krankheitsverläufe hervorrufen.
Auch Grippeviren lassen sich aufspüren
„Eines der wichtigsten Merkmale unseres Ansatzes besteht jedoch darin, dass wir ein sehr robustes System mit einem hohen Automatisierungsgrad entwickelt haben, so dass es sich ohne Weiteres bei groß angelegten Abwasserüberwachungen einsetzen lässt“, sagt Akalin. Allerdings wolle sein Team nun noch weiter erforschen, wie das optimale Verfahren aussehe, um die Abwasserproben zu entnehmen. „Wo und wann man eine Probe nimmt, scheint die Daten durchaus zu beeinflussen“, räumt der Wissenschaftler ein.
Ziel aller beteiligten Teams am MDC-BIMSB ist es jedenfalls, den Ansatz nun auf andere Erreger als das Coronavirus auszuweiten und ein Frühwarnsystem zum Beispiel für kommende Grippe- oder Noroviren zu etablieren – also für Erreger, die sich ebenfalls stark auf die menschliche Gesundheit und damit auch auf die wirtschaftliche Produktivität auswirken.
„In den USA gibt es aufstrebende Unternehmen, die solche Dienstleistungen bereits anbieten“, sagt Akalin. Es sei daher absehbar, dass diese Art von Überwachungsstrategie künftig regelmäßig auch in anderen Teilen der Welt und, so hoffe er, auch für andere Krankheitserreger eingesetzt werde. Auch Impfstoffhersteller könnten von der Frühwarnung profitieren und ihre Impfstoffe in Zukunft womöglich leichter als bisher an neu auftretende Varianten anpassen.
Max Delbrück Center
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (Max Delbrück Center) gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den Standorten in Berlin-Buch und Mitte analysieren Forscher*innen aus rund 70 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organ-übergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patient*innen zugutekommen. Das Max Delbrück Center fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am Max Delbrück Center arbeiten 1800 Menschen. Finanziert wird das 1992 gegründete Max Delbrück Center zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin. www.mdc-berlin.de
Wissenschaftliche Ansprechpartner:
Dr. Altuna Akalin
Leiter der Technologieplattform „Bioinformatics and omics data science“
Max Delbrück Center
+49 30 9406-4271
Altuna.Akalin@mdc-berlin.de
Originalpublikation:
Vic-Fabienne Schumann, Rafael Ricardo de Castro Cuadrat, Emanuel Wyler et al. (2022): „COVID-19 infection dynamics revealed by SARS-CoV-2 wastewater sequencing analysis and deconvolution“, Science of the total environment, DOI: 10.1016/j.scitotenv.2022.158931
Weitere Informationen:
https://doi.org/10.1016/j.scitotenv.2022.158931 – Studie
https://www.mdc-berlin.de/de/news/press/omikron-hat-berlin-im-griff – PM zu Omikrondaten
https://www.mdc-berlin.de/bioinformatics – Bioninformatics and omics data science @ Max Delbrück Center
https://www.mdc-berlin.de/landthaler – Landthaler Lab
https://www.mdc-berlin.de/n-rajewsky – N.Rajewsky Lab
Studie zur Betriebswassernutzung – Wie Frankfurt am Main künftig Trinkwasser ersetzen könnte
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Die öffentliche Trinkwasserversorgung gerät insbesondere in Städten durch Bevölkerungswachstum und den Klimawandel immer stärker unter Druck. Lang anhaltende Trockenzeiten und große Hitze bringen auch in Frankfurt am Main das komplexe Wasserversorgungssystem in Phasen des Spitzenbedarfs an seine Grenzen. Im Auftrag des Wasserbeschaffungsunternehmens Hessenwasser hat das ISOE – Institut für sozial-ökologische Forschung untersucht, in welchem Umfang Trinkwasser in der Metropole durch Betriebswasser aus alternativen Ressourcen ersetzt werden könnte. In zwei Szenarien zeigen Forscher*innen die Potenziale häuslicher Betriebswassernutzung bis zum Jahr 2050.
Wie könnten die vorhandenen Ressourcen in Frankfurt am Main so genutzt werden, dass der absehbar zusätzliche Wasserbedarf – durch Bevölkerungswachstum und klimatische Veränderungen – künftig gedeckt wird? Welcher Anteil der Trinkwassermenge könnte beispielsweise im Bereich der Haushalte durch Betriebswasser, auch als Brauchwasser bezeichnet, ersetzt werden? Welche Maßnahmen wären dafür nötig? Das ISOE – Institut für sozial-ökologische Forschung hat das unter anderem am Beispiel eines Bestands- und eines Neubaugebiets in Frankfurt untersucht. Die Studie „Abschätzung theoretischer Trinkwasser-substitutionspotenziale in Frankfurt am Main“ basiert auf umfangreichen Erhebungen und vorhandenen Gutachten und umfasst zwei Szenarien mit einem zeitlichen Horizont bis 2050.
Häuslicher Trinkwassertagesbedarf pro Kopf: Rechnerisch 39 Liter ersetzbar
Ausgehend vom durchschnittlichen Trinkwasserbedarf der Haushalte einschließlich Kleingewerbe von täglich 118 Litern pro Einwohner*in haben ISOE-Wasserexpert*innen untersucht: Wie viel davon könnte durch Wasser ersetzt werden, das zwar keine Trinkwasserqualität aufweist, für eine Verwendung im Haushalt aber dennoch unbedenklich ist? Gemeint ist Betriebs- bzw. Brauchwasser, das sich aus Regen- oder Flusswasser gewinnen lässt. Dazu zählt auch gereinigtes Grauwasser oder Grundwasser, das etwa beim Bau von Hochhäusern abgepumpt werden muss und für bestimmte Bedarfe im Haushalt, insbesondere für Toilettenspülung, Raumreinigung und Gartenbewässerung genutzt werden kann. „Rein rechnerisch lassen sich mit alternativen Wasserressourcen in Frankfurt am Main 33 Prozent des Trinkwassers im häuslichen Bereich ersetzen“, sagt ISOE-Wasserexperte und Erstautor der Studie Engelbert Schramm. „Das sind 39 Liter des durchschnittlichen häuslichen Tagesverbrauchs einer Person in der Stadt.“ In welchem Umfang sich diese grundsätzlich mögliche Substitutionsmenge bis zum Jahr 2050 erreichen lässt, zeigen die beiden Szenarien „Trend“ und „Besondere Anstrengung“.
Szenario „Besondere Anstrengung“ – Betriebswasser kann Mehrbedarf ersetzen
Im Szenario „Besondere Anstrengung“ ließen sich durch eine konsequente Betriebswassernutzung bis 2050 etwa 13 Prozent an Trinkwasser im häuslichen Bereich ersetzen. Das entspricht einem Einsparvolumen von 5,5 Millionen Kubikmeter im Jahr. Mit einer erweiterten Betriebswassernutzung auch in anderen Bereichen ließe sich das Substitutionspotenzial in diesem Szenario sogar auf 6,6 Millionen Kubikmeter erhöhen. „Theoretisch ist es möglich, den bis 2050 prognostizierten Mehrbedarf an Trinkwasser mit allen derzeit möglichen Maßnahmen durch Betriebswasser zu ersetzen“, sagt Schramm. Dafür müsse die Stadt auf einen Ressourcenmix aus Mainwasser, Grundwasser, Grau- und Regenwasser zurückgreifen und den Umbau der vorhandenen Infrastrukturen angehen. „Dieses Szenario setzt vonseiten der Kommune eine politische Entscheidung für eine öffentliche Betriebswasserversorgung durch lokale Betriebswassernetze insbesondere auch im Wohnungsbestand und deren Mitgestaltung voraus“, betont Schramm. Für die Haushalte seien durch die Betriebswassernutzung keine Komforteinbußen verbunden. Mit Blick auf die untersuchten Quartiere zeige sich, dass die Kosten von der gewählten Betriebswasservariante abhingen und sich in etwa im Rahmen der Kosten des bestehenden Wasser- und Abwassersystems bewegten.
Szenario „Trend“ – Ersetzbare Trinkwassermenge gering
In einem zweiten Szenario hat das ISOE untersucht, was passiert, wenn bis 2050 nur solche Betriebswassernutzungen umgesetzt werden, die ohne größere Anstrengungen realisierbar sind. „Die ersetzbare Trinkwassermenge bleibt im Szenario, das sich am gegenwärtigen Trend orientiert, mit 0,5 Millionen Kubikmeter Wasser sehr gering und bringt deshalb keinen Entlastungseffekt“, sagt Schramm. Eine naheliegende Schlussfolgerung aus der Untersuchung sei vielleicht wenig überraschend, meint Mitautor Martin Zimmermann, der am ISOE den Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen leitet. „Die Stadt Frankfurt muss mittel- und langfristig neue Wege bei der Trinkwasserversorgung gehen, auch um den Druck auf die Wasservorkommen im Umland möglichst gering zu halten. Deshalb muss die Stadt jetzt dringend prüfen, welche Angebote sie zum Ersetzen von Trinkwasser machen kann.“
Nachhaltige Transformation der Wasserversorgung
Die ISOE-Studie im Auftrag von Hessenwasser bietet der Stadt Frankfurt eine Grundlage, um kommunalpolitische Entscheidungen über die künftige Strategie bei der Wasserversorgung vorzubereiten. „Ein nachhaltiges Wasserversorgungssystem setzt die Betriebswassernutzung als akzeptierten Standard voraus“, sagt Zimmermann. Dafür sei eine Kombination aus Technik, Ordnungs-, Preis- und Anreizpolitik notwendig. „Die Nutzung von Betriebswasser ist juristisch, technisch und ökonomisch realisierbar und sozioökonomisch denkbar, insofern sich Bewohner*innen für den Ersatz von Trinkwasser durch alternative Wasserressourcen offen zeigen“, so Zimmermann. „Die Studie zeigt, dass die wichtigsten Voraussetzungen für die Transformation der Wasserversorgung in Richtung Nachhaltigkeit und hin zu einer Betriebswasserkultur in Frankfurt am Main gegeben sind.“
Zur Studie
Die Studie „Abschätzung theoretischer Trinkwassersubstitutionspotenziale in Frankfurt am Main“ ist im Auftrag der Wasserbeschaffungsgesellschaft Hessenwasser entstanden und steht als Download zur Verfügung:
https://isoe-publikationen.de/fileadmin/redaktion/ISOE-Reihen/st/st-26-isoe-2022…
Über das ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Es entwickelt wissenschaftliche Grundlagen und zukunftsweisende Konzepte für sozial-ökologische Transformationen. Hierfür forscht das ISOE transdisziplinär zu globalen Problemen wie Wasserknappheit, Klimawandel, Biodiversitätsverlust und Landdegradation und findet tragfähige Lösungen, die ökologische, gesellschaftliche und ökonomische Bedingungen berücksichtigen.
Wissenschaftliche Ansprechpartner:
Dr. Martin Zimmermann
ISOE – Institut für sozial-ökologische Forschung
Leiter Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-44
zimmermann@isoe.de
www.isoe.de
Originalpublikation:
Schramm, Engelbert/Martina Winker/Michaela Rohrbach/Martin Zimmermann/Christian Remy (2022): Abschätzung theoretischer Trinkwassersubstitutionspotenziale in Frankfurt am Main. Optionen der Betriebswassernutzung und deren ökonomische und ökologische Auswirkungen im Betrachtungshorizont bis 2050. Unter Mitarbeit von Christoph Meyer. ISOE-Studientexte, 26. Frankfurt am Main: ISOE – Institut für sozial-ökologische Forschung
Weitere Informationen:
http://www.isoe.de
Dornröschen im Eiswürfel: Wie Bärtierchen Eiseskälte überdauern
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
Bärtierchen können sich hervorragend an raue Umweltbedingungen anpassen. Bereits 2019 bewies Ralph Schill, Professor am Institut für Biomaterialien und biomolekulare Systeme der Universität Stuttgart, dass anhydrobiotische (getrocknete) Bärtierchen viele Jahre ohne Wasseraufnahme unbeschadet überdauern können. Ob Tiere in gefrorenem Zustand schneller oder langsamer Altern oder das Altern gar zum Stillstand kommt, war bislang unklar. Das Rätsel ist nun gelöst: Gefrorene Bärtierchen altern nicht.
Bärtierchen, auch Wasserbären genannt, gehören zur Familie der Fadenwürmer. Ihre Gangart erinnert an die eines Bären, womit die Gemeinsamkeiten bereits erschöpft wären. Die nur knapp einen Millimeter großen Bärtierchen haben es geschafft, sich im Laufe der Evolution perfekt an schnell wechselnde Umweltbedingungen anzupassen und können bei extremer Hitze austrocknen und bei Kälte gefrieren. ,,Sie fallen in einen Dornröschenschlaf ohne zu sterben“, erklärt Schill.
Dornröschen-Hypothese
Für einen Zellorganismus bedeutet es unterschiedlichen Stress, je nachdem ob er nun gefriert oder austrocknet. Doch Bärtierchen über-stehen Hitze und Kälte gleichermaßen unbeschadet. Sie zeigen dabei keine offensichtlichen Lebenszeichen mehr. Daraus ergibt sich die Frage, was mit der inneren Uhr der Tiere passiert und ob sie in diesem Ruhezustand altern.
Für getrocknete Bärtierchen, die viele Jahre in ihrem Lebensraum auf den nächsten Regen warten, haben Ralph Schill und sein Team die Frage nach dem Altern schon vor einigen Jahren beantwortet. In einem Märchen der Gebrüder Grimm fällt die Prinzessin in einen tiefen Schlaf. Als ein Prinz sie nach 100 Jahren küsst, erwacht sie und sieht noch immer so jung und schön aus wie zuvor. Bei den Bärtierchen im getrockneten Zustand ist es genauso und daher wird dies auch als „Dornröschen“-Hypothese („Sleeping Beauty“-Model) bezeichnet. „Während inaktiver Perioden bleibt die innere Uhr stehen und läuft erst wieder weiter, sobald der Organismus reaktiviert wird“, sagt Schill. „So können Bärtierchen, die ohne Ruheperioden normalerweise nur wenige Monate leben, viele Jahre und Jahrzehnte alt werden.
Bislang war noch unklar, ob dies auch für gefrorene Tiere gilt. Altern sie schneller oder langsamer als die getrockneten Tiere oder kommt das Altern auch zum Stillstand?
Alterungsprozess stoppt auch in gefrorenem Zustand
Um dies zu erforschen, haben Schill und sein Team in mehreren Experimenten insgesamt über 500 Bärtierchen bei -30 °C eingefroren, wieder aufgetaut, gezählt, gefüttert und wieder eingefroren. Dies geschah so lang bis alle Tiere gestorben sind. Zur selben Zeit wurden Kontrollgruppen bei gleichbleibender Raumtemperatur gehalten. Die Zeit in gefrorenem Zustand ausgenommen, zeigte der Vergleich mit den Kontrollgruppen eine nahezu identische Lebensdauer. „Bärtierchen halten also auch im Eis wie Dornröschen ihre innere Uhr an“, schlussfolgert Schill.
Ihre Erkenntnisse und Vorgehensweise veröffentlichten Schill und seine Kolleg*innen im Journal of Zoology unter dem Titel „Reduced ageing in the frozen state in the tardigrade Milnesium inceptum (Eutardigrada: Apochela)“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Ralph Schill, Universität Stuttgart, Institut für Biomaterialien und biomolekulare Systeme, Tel. +49 (0) 172 730 4726, E-Mail ralph.schill@bio.uni-stuttgart.de
Originalpublikation:
Reduced ageing in the frozen state in the tardigrade Milnesium inceptum (Eutardigrada: Apochela, Sieger, J., Brümmer, F., Ahn, H., Lee, G., Kim, S., Schill, R.O., Journal of Zoology (ZSL), September 2022
Künstliches Enzym spaltet Wasser
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Auf dem Weg zur sonnenlichtgetriebenen Produktion von Wasserstoff ist ein Fortschritt gelungen. Ein Team aus der Chemie präsentiert einen enzymähnlichen molekularen Katalysator für die Wasseroxidation.
Die Menschheit steht vor einer zentralen Herausforderung: Sie muss den Übergang zu einer nachhaltigen und kohlendioxidneutralen Energiewirtschaft bewältigen.
Wasserstoff gilt als vielversprechende Alternative zu fossilen Brennstoffen. Er lässt sich unter Einsatz von elektrischem Strom aus Wasser herstellen. Stammt der Strom aus regenerativen Quellen, spricht man von grünem Wasserstoff. Noch nachhaltiger wäre es aber, könnte man Wasserstoff direkt mit der Energie des Sonnenlichts produzieren.
In der Natur läuft die lichtgetriebene Wasserspaltung bei der Photosynthese der Pflanzen ab. Diese verwenden dafür einen komplexen molekularen Apparat, das sogenannte Photosystem II. Dessen aktives Zentrum nachzuahmen ist eine vielversprechende Strategie, um eine nachhaltige Produktion von Wasserstoff zu realisieren. Daran arbeitet ein Team von Professor Frank Würthner am Institut für Organische Chemie und dem Zentrum für Nanosystemchemie der Julius-Maximilians-Universität Würzburg (JMU).
Wasserspaltung ist keine banale Reaktion
Wasser besteht aus einem Sauerstoff- und zwei Wasserstoffatomen. Der erste Schritt der Wasserspaltung ist eine Herausforderung: Um den Wasserstoff freizusetzen, muss aus zwei Wassermolekülen der Sauerstoff entfernt werden. Dafür ist es zunächst nötig, den beiden Wassermolekülen vier Elektronen und vier Protonen zu entziehen.
Diese oxidative Reaktion ist nicht banal. Pflanzen nutzen dafür ein komplexes Gebilde als Katalysator, bestehend aus einem Cluster mit vier Mangan-Atomen, über die sich die Elektronen verteilen können.
Würthners Team hatte in einem ersten Durchbruch eine ähnliche Lösung entwickelt, eine Art „künstliches Enzym“, das den ersten Schritt der Wasserspaltung erledigen kann. Dieser Wasseroxidations-Katalysator, bestehend aus drei miteinander agierenden Ruthenium-Zentren innerhalb eines makrozyklischen Konstrukts, katalysiert erfolgreich den thermodynamisch anspruchsvollen Prozess der Wasserspaltung. Publiziert wurde das 2016 und 2017 in den Journalen Nature Chemistry und Energy & Environmental Science.
Zum Erfolg mit einer künstlichen Tasche
Nun ist es den Chemikerinnen und Chemikern der JMU gelungen, die anspruchsvolle Reaktion mit einem einzigen Ruthenium-Zentrum effizient ablaufen zu lassen. Dabei wurden sogar ähnlich hohe katalytische Aktivitäten wie im natürlichen Vorbild erreicht, dem Photosyntheseapparat der Pflanzen.
„Möglich wurde dieser Erfolg, weil unser Doktorand Niklas Noll eine künstliche Tasche um den Ruthenium-Katalysator geschaffen hat. Darin werden die Wassermoleküle für den gewünschten protonengekoppelten Elektronentransfer vor dem Ruthenium-Zentrum in einer genau definierten Anordnung arrangiert, ähnlich wie es in Enzymen geschieht“, sagt Frank Würthner.
Publikation in Nature Catalysis
Die JMU-Gruppe präsentiert die Details ihres neuartigen Konzepts nun im Fachjournal Nature Catalysis. Das Team aus Niklas Noll, Ana-Maria Krause, Florian Beuerle und Frank Würthner ist davon überzeugt, dass sich dieses Prinzip auch zur Verbesserung anderer katalytischer Prozesse eignet.
Das langfristige Ziel der Würzburger Gruppe ist es, den Wasseroxidations-Katalysator in ein künstliches Bauteil einzubauen, das mit Hilfe von Sonnenlicht Wasser in seine beiden Bestandteile Wasserstoff und Sauerstoff zerlegt. Das wird noch seine Zeit dauern, denn dafür muss der Katalysator mit weiteren Komponenten zu einem funktionierenden Gesamtsystem gekoppelt werden – mit lichtsammelnden Farbstoffen und mit sogenannten Reduktionskatalysatoren.
Förderer
Der Europäische Forschungsrat (European Research Council, ERC) hat die beschriebenen Arbeiten im Rahmen eines ERC Advanced Grant für Frank Würthner gefördert (grant agreement No. 787937). Weitere Fördermittel stammen vom Bayerischen Wissenschaftsministerium im Rahmen des Forschungsnetzwerks „Solar Technologies go Hybrid“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Frank Würthner, wuerthner@uni-wuerzburg.de
Originalpublikation:
Enzyme-like water preorganization in a synthetic molecular cleft for homogeneous water oxidation catalysis. Nature Catalysis, 3. Oktober 2022, DOI: 10.1038/s41929-022-00843-x
Landkarte der molekularen Kontakte: Wie das Coronavirus SARS-CoV-2 mit menschlichen Körperzellen kommuniziert
Verena Coscia Kommunikation
Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH)
Wie genau sehen die molekularen Interaktionen zwischen dem menschlichen Wirt und dem COVID-19 Virus aus? Auf welchen genetischen Unterschieden beruhen die verschiedenen Krankheitsverläufe? Und wie unterscheiden sich die noch neu entstehenden Virusvarianten in ihren Wirt-Virus-Interaktionen? Um diesen Fragen auf den Grund zu gehen, hat ein internationales Forscherteam eine systematische Kontaktkarte erstellt.
Die Kontaktkarte, die im Fachmagazin Nature Biotechnology veröffentlicht wurde, umfasst mehr als 200 Protein-Protein-Kontakte, sogenannte Proteininteraktionen. Das internationale Konsortium aus Wissenschaftler:innen unter der Leitung von Pascal Falter-Braun, Direktor am Helmholtz Munich Institute of Network Biology (INET) und Professor für Mikroben-Wirts Interaktionen an der Fakultät für Biologie der Ludwig-Maximilians-Universität (LMU) in München, bestand aus Teams in Kanada, den USA, Frankreich, Spanien und Belgien.
Im Gegensatz zu früheren groß angelegten Studien über Protein-Protein-Komplexe, konnten jetzt die direkten Proteinkontakte zwischen Virus und Wirt genau identifiziert werden. „Um die mechanistischen Verbindungen zwischen Virus und Wirt wirklich zu verstehen, müssen wir wissen, wie die einzelnen Teile zusammenpassen“, sagt Frederick Roth, Professor am Donnelly Centre der Universität Toronto und am Sinai Health (Toronto, Kanada).
Bei einer genaueren Betrachtung dieser neu entdeckten direkten Eiweiß-Verbindungen (oder „Contaktome“) fand das Team Pfade von Verbindungen zwischen viralen Proteinen und infektionsrelevanten menschlichen Genen. So konnten sie beispielsweise Verbindungen zwischen bestimmten SARS-CoV-2-Proteinen und menschlichen Proteinen aufspüren, die von den Bereichen der Gene kodiert werden, die in anderen Studien mit einer erhöhten Wahrscheinlichkeit für eine schwere COVID-19-Erkrankung in Verbindung gebracht wurden. Sie fanden auch Verbindungen zwischen den viralen Proteinen und menschlichen Genen, die unter anderem an Stoffwechselstörungen wie Adipositas und Diabetes beteiligt sind.
„Wir wissen bereits, dass genetische Unterschiede beim Menschen eine wesentliche Rolle bei Verlauf und Schwere einer COVID-19-Erkrankung haben“, sagt Pascal Falter-Braun, und ergänzt weiter: „Dank der Identifizierung der molekularen Kontaktpunkte ist es nun möglich, die zugrundeliegenden Mechanismen detaillierter zu untersuchen.“
Erste Erkenntnisse zeigen, dass wichtige Entzündungssignalwege direkt durch das Virus aktiviert werden. Diese Kontakte könnten dazu beitragen, die überschießende Entzündungsreaktion zu erklären, die bei schweren Fällen von COVID-19 eine große Rolle spielt.
Die Protein-Protein-Kontakte haben aber nicht nur Auswirkungen auf die menschlichen Zellen und das menschliche Immunsystem. Bestimmte Verbindungen beeinflussen auch weitreichend SARS-CoV-2, etwa die Vermehrung des Virus.
Laut Falter-Braun kann man sich die Interaktion von Virus und menschlicher Zelle wie den Besuch des Virus in einem Restaurant vorstellen: Der Gast – das Virus – hat zunächst nur Kontakt mit dem Kellner. Aber dann geht der Kellner in die Küche, gibt die Bestellung an den Koch weiter, und das Virus bekommt wieder eine Antwort, in diesem Fall das Essen, das wiederum auf das Virus wirkt. Je nachdem, welche Proteine in der menschlichen Zelle – heißt: Kellner, Koch, Küchenhilfen, und andere – auf welche Proteine des Virus treffen, kann die Infektion und Immunreaktion ganz unterschiedlich ausfallen.
„Wegen dieser gegenseitigen Beeinflussung der Protein-Protein-Verbindungen gibt es in unserer systematischen Kontaktkarte eine Reihe potenzieller neuer Zielstrukturen für Medikamente“, sagt Falter-Braun. Eine erste Substanz konnten die Wissenschaftler bereits in ihrer Wirkung bestätigen: Das menschliche Protein USP25 wird rekrutiert, um bestimmte virale Prozesse zu fördern und seine Hemmung wiederum reduziert die Vermehrung des Virus deutlich.
„Viele der Technologien und Kooperationen in dieser Studie wurden eigentlich für andere Zwecke entwickelt und dann schnell auf die COVID-19-Pandemie umgestellt. Das unterstreicht den Wert von Investitionen in die Grundlagenforschung“, sagt Dr. Dae-Kyum Kim, einer der Hauptautoren, der diese Arbeit am Sinai Health (Toronto) begann und sie als Assistenzprofessor am Roswell Park Comprehensive Cancer Center fortsetzte. Dazu mussten die Wissenschaftler:innen zunächst einigen Aufwand betreiben und neueste Technologie einsetzen, denn das Erstellen der Kontaktkarte war für das internationale Team phasenweise wie das Lösen eines riesigen Puzzles: Die Wissenschaftler:innen haben systematisch die Reaktionen von rund 30 viralen Proteinen – darunter das bekannte Spike-Protein – mit jeweils etwa 17.500 menschlichen Proteinen in sogenannten Assays untersucht und dargestellt. Das ergibt rund 450.000 Kombinationen, die sie untersucht haben. Von Hand hätten sie das niemals in der kurzen Zeit geschafft. „Wir haben beim Präparieren der einzelnen Platten mit jeweils mehreren Assays auf Robotik zurückgegriffen, so dass jeweils eine Proteinart mit einer anderen automatisch gepaart wurde. Und die erste Auswertung, ob Interaktionen vorliegen oder nicht, haben wir von einem Computerprogramm mit künstlicher Intelligenz durchführen lassen“, so Falter-Braun.
Ein solches Mammut-Projekt erforderte eine Teamleistung: „Von molekularbiologischen Methoden über die computergestützte Analyse von Netzwerken und Proteinbereichen bis hin zu Fachkenntnissen in Virologie und angeborener Immunität haben wir interdisziplinär zusammengearbeitet“, sagt Falter-Braun. „Unser Fachwissen in der Virus-Wirt-Interaktomik in Verbindung mit der Biologie von RNA-Viren ermöglichte es, die Abhängigkeit des Virus von direkten Wirtspartnern zu bewerten“, ergänzt Caroline Demeret vom Institut Pasteur.
Der Aufwand, so glauben die Forscher:innen, hat sich gelohnt: Die Kontaktkarte soll der wissenschaftlichen Gemeinschaft als Plattform dienen, um einzelne Interaktionen eingehender zu untersuchen und ihre Auswirkungen auf molekulare Mechanismen und den klinischen Verlauf zu verstehen und so Ansatzpunkte für neue therapeutische Möglichkeiten aufzudecken.
Über die leitenden Wissenschaftler:innen:
Prof. Dr. Pascal Falter-Braun, Director, Institute of Network Biology (INET), Helmholtz Munich and Chair of Microbe-Host Interactions, Faculty of Biology Ludwig-Maximilians-University (LMU) Munich, Germany
Prof. Dr. Frederick P. Roth, Donnelly Centre for Cellular and Biomolecular Research, University of Toronto and the Lunenfeld-Tanenbaum Research Institute, Sinai Health in Toronto, Kanada.
Dr. Michael A. Calderwood, Dana-Farber Cancer Institute and Scientific Director of the Center for Cancer Systems Biology (CCSB), Boston, USA
Prof. Dr. Marc Vidal, Professor of Genetics, Harvard Medical School and Dana-Farber Cancer Institute and Director of the Center for Cancer Systems Biology (CCSB), Boston, USA
Dr. Caroline Demeret, leader of the Interactomics Group in the Molecular Genetics of RNA Viruses Unit at the Institut Pasteur, Paris, France
Wissenschaftliche Ansprechpartner:
Prof. Dr. Pascal Falter-Braun, Director, Institute of Network Biology (INET), Helmholtz Munich and Chair of Microbe-Host Interactions, Faculty of Biology Ludwig-Maximilians-University (LMU) Munich, Germany
E-Mail: pascal.falter-braun@helmholtz-muenchen.de
Originalpublikation:
Kim et al. (2022): A proteome-scale map of the SARS-CoV-2 human contactome. Nature Biotechnology. DOI: 10.1038/s41587-022-01475-z
Flexible Solarzellen mit Rekordwirkungsgrad von 22,2%
Norbert Raabe Kommunikation
Empa – Eidgenössische Materialprüfungs- und Forschungsanstalt
Ein Jahr nach ihrem letzten Wirkungsgradrekord haben Empa-Wissenschaftlerinnen und -Wissenschaftler einen neuen Höchstwert von 22,2% für flexible CIGS-Solarzellen auf Plastikfolien erreicht. Solarzellen dieses Typs eignen sich besonders für Anwendungen auf Gebäuden, Fahrzeugen, Satelliten, Luftschiffen und mobilen Geräten.
Die Empa-Forschenden haben den Wirkungsgrad von flexiblen CIGS-Solarzellen erneut verbessert. Unabhängig zertifizierte Messungen ergaben einen Wert von 22,2% bei der Umwandlung von Licht in Strom, was eine Verbesserung gegenüber dem bisherigen Rekordwert von 21,4% bedeutet. Zum Vergleich: Der maximale Wirkungsgrad einer starren Solarzelle aus kristallinem Silizium liegt bei 26,7%. Das Team um Romain Carron, Gruppenleiter im Empa-Labor für Dünnschichten und Photovoltaik unter der Leitung von Ayodhya N. Tiwari, präsentierte seine neusten Resultate an der «8. World Conference on Photovoltaic Energy Conversion» (WCPEC-8) am 26. September 2022 in Mailand.
Die flexiblen Solarzellen werden auf einer Polymerfolie verarbeitet mit Cu(In,Ga)Se2 als lichtabsorbierende Halbleiterschicht, die durch ein Niedrigtemperatur-Co-Verdampfungsverfahren abgeschieden wird. Der Empa-Wissenschaftler Shiro Nishiwaki veränderte die Zusammensetzung der Schicht, um die Leistung und die Ausgangsspannung der Zellen zu verbessern. «Zwei unterschiedliche Ansätze zur Legierung des Kristalls führten zu einer ähnlichen Verbesserungen in der Leistung des Bauelements», sagt Romain Carron. Daher lassen sich die Ergebnisse auf unterschiedliche Weise, aber mit gleichwertigen Ergebnissen auf einen industriellen Massstab übertragen. Der Wirkungsgrad der Solarzelle von 22,2% wurde unabhängig am Fraunhofer-Institut für Solare Energiesysteme ISE in Freiburg bestätigt.
Seit 23 Jahren regelmässig neue Rekorde
Ayodhya Tiwari forscht mit seinem Team seit mehr als 23 Jahren an flexiblen Dünnschichtsolarzellen. Mit ihrem profunden Wissen über die Technologie und die grundlegenden physikalischen Prozesse haben sie im Laufe der Jahre mehrere Effizienzrekorde aufgestellt. Ihre «Rekordserie» begann im Jahr 1999 mit einer Effizienz von 12,8%, ging dann weiter auf 14,1% (2005), 17,6% (2010), 18,7% (2011) und 20,4 %(2013) und erreichte schliesslich 20,8% im Jahr 2019 und 21,4% im Jahr 2021. Angesichts der bereits sehr hohen Wirkungsgrade erfordert jede noch so kleine Steigerung eine sorgfältige Untersuchung der Faktoren, die die Energieumwandlung einschränken, und innovative Ansätze zu deren Bewältigung. Die aktuelle Steigerung des Wirkungsgrads geht auf die Legierung der lichtabsorbierenden Halbleiterschicht zurück, um deren elektronische Eigenschaften verbessert hat.
Flexible und leichte Solarmodule mit dieser Technologie eignen sich besonders für Anwendungen auf Dächern und Fassaden von Gebäuden, auf Gewächshäusern, Fahrzeugen und Luftschiffen sowie für tragbare Elektronik. Die Empa arbeitet mit der Schweizer Firma Flisom an der Rolle-zu-Rolle-Herstellung von leichten, flexiblen Solarmodulen für derartige Anwendungen. Die Forschung wurde vom Bundesamt für Energie (BFE) unterstützt.
Wissenschaftliche Ansprechpartner:
Dr. Romain Carron
Empa-Abteilung Thin Films and Photovoltaics
Tel. +41 58 765 47 91
romain.carron@empa.ch
Prof. Dr. Ayodhya N. Tiwari
Empa-Abteilung Thin Films and Photovoltaics
Tel. +41 58 765 41 30
ayodhya.tiwari@empa.ch
Weitere Informationen:
https://plus.empa.ch/images/2022-10-10-Gebogene%20Solarzelle/ Bilder in hoher Auflösung zum Download
https://www.wcpec-8.com/ 8th World Conference on Photovoltaic Energy Conversion
https://www.empa.ch/web/s604/cigs-record-2019 CIGS-Solarzellen mit verbesserter Effizienz: Neuer Rekord für Dünnschicht-Solarzellen; Medienmitteilung Juli 2019
Wie digital wollen wir leben?
Jörg Heeren Medien und News
Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF) lädt zu Jahreskonferenz ein
Künstliche Intelligenz, Algorithmen und digitale Daten prägen unsere Gegenwart und beeinflussen auch ganz praktisch unseren Alltag. Wir gehen mit punkte- und datensammelnden Apps einkaufen, lassen Saugroboter für uns arbeiten und scrollen zum Einschlafen durch den auf uns zugeschnittenen Instagram-Feed. Was macht diese kluge Technik mit uns? Wie wirkt sich die Digitalisierung auf unser Leben aus? Diese Fragen stehen im Mittelpunkt der öffentlichen ZiF-Jahreskonferenz 2022 „Smarte neue Welt: Wie digital wollen wir leben?“ am 21. Oktober am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.
Themen sind unter anderem Chancen und Grenzen Künstlicher Intelligenz, die Gesellschaft der Roboter, Sinn und Unsinn smarter Produkte, Soziale Medien sowie digitale Ethik.
Um möglichst viele Facetten dieser Themenbereiche aufzuzeigen, geben Expert*innen aus Mathematik, Informatik, Rechts-, Wirtschafts- und Sozialwissenschaften Einblicke in ihre Forschungsfelder. Können wir wirklich damit rechnen, uns eines Tages von Roboterbutlern bedienen zu lassen? Und was bedeuten diese Entwicklungen für unser Wohlbefinden, für unsere Wirtschaft und unser Rechtssystem?
Um einige ‚kluge‘ Maschinen auch praktisch erleben zu können, stellen Initiativen und Forschungseinrichtungen als Teil der Konferenz ihre Projekte in einer kleinen Ausstellung vor – vom smarten Spiegel bis zur Virtual-Reality-Brille.
Am Abend findet eine Live-Coding-Performance von vier Digitalkünstler*innen statt. Beim Live-Coding dient Computercode als Element von Improvisation, Experiment und Kollaboration von Menschen mit Maschinen. Algorithmen sind dabei ein wesentlicher Teil von musikalischen, visuellen und textuellen Ausdrucksformen. Der Code ist während der Performances in einer Projektion sichtbar, die Entstehung der Klänge und Formen kann direkt nachvollzogen werden. Im Anschluss an die Performances hat das Publikum die Möglichkeit, selbst das Live-Coding auszuprobieren.
Das ZiF fördert als Institute for Advanced Study der Universität Bielefeld herausragende, interdisziplinäre und innovative Forschungsprojekte. Es steht Wissenschaftler*innen aller Länder und aller Disziplinen offen. Die renommierte ZiF-Jahreskonferenz widmet sich stets einem Thema von großer gesellschaftlicher Bedeutung, das zugleich eine wissenschaftliche Herausforderung darstellt. Sie richtet sich an die interessierte Öffentlichkeit.
Die Teilnahme an der Veranstaltung ist kostenlos. Eine Anmeldung ist erforderlich und online auf der ZiF-Webseite möglich. Auf der Seite ist auch das detaillierte Konferenzprogramm zu finden.
Weitere Informationen:
https://www.uni-bielefeld.de/(de)/ZiF/ZiF-Konferenz/2022/10-21-Smarte-neue-Welt…. Webseite der ZiF-Konferenz
Kontakt:
Trixi Valentin, Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF)
Telefon 0521 106-2769
E-Mail: zif-conference-office@uni-bielefeld.de
Influenza-Impfung ist das Gebot der Stunde – Vorstand des Dresdner Uniklinikums wirbt für zeitnahe Grippeschutzimpfung
Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
Mit dem Eintreffen der ersten Impfdosen gegen die saisonale Grippe startete das Universitätsklinikum Carl Gustav Carus Dresden Ende September die diesjährige Impfkampagne für die Belegschaft. An diesem Montagmittag (10. Oktober) lassen sich nun auch die beiden Klinikumsvorstände Prof. Michael Albrecht und Frank Ohi gegen Influenza impfen. Der damit verbundene Appell richtet sich nicht nur an die eigenen Teams, sondern an alle Mitarbeitenden des Gesundheitswesens sowie an die Bevölkerung.
Ohne eine hohe Zahl an immunisierten Personen besteht die Gefahr einer massiven Grippewelle. Folgen wären einerseits ein hoher Personalausfall in den Kliniken, der die Krankenversorgung einschränken könnte, und andererseits viele schwere Krankheitsverläufe mit einer überdurchschnittlichen Zahl an Klinikeinweisungen.
„Ich befürchte, dass die Corona-Infektionswelle Ende des Jahres – spätestens im Januar mit einer Influenza-Welle zusammenfällt, die diesmal viel massiver als sonst sein wird“, sagt Prof. Michael Albrecht, Medizinischer Vorstand des Dresdner Uniklinikums. „Denn wir haben nahezu keinen Immunschutz mehr gegen die Influenza. Das liegt daran, dass mit den notwendigen Corona-Maßnahmen wie das Maskentragen und die Abstandsregeln die Infektionsketten auch gegen die Grippeviren so unterbrochen worden sind, dass die Menschen keine Immunität in größerem Stil aufbauen konnten. Damit ist es für die Influenza-Erreger leichter, schwere Krankheitsverläufe auszulösen. Bei aller Aufmerksamkeit hinsichtlich der aktuellen Coronasituation sollte der Grippeschutz in dieser Saison nicht unterschätzt werden. Die echte Grippe – Influenza – ist keine einfache Erkältung, sondern eine ernstzunehmende Erkrankung“, sagt Prof. Albrecht weiter: „Sie ist häufig mit hohem Fieber verbunden und kann den Körper so stark schwächen, dass Erkrankte nicht selten länger arbeitsunfähig sind. Wenn eine solche Grippewelle durch unsere pflegerischen oder ärztlichen Teams rollt, geraten wir an unsere Grenzen.“ – „Das müssen wir unbedingt verhindern. Deshalb haben wir unsere interne Impfkampagne so frühzeitig gestartet und sind guter Hoffnung, dass sich am Uniklinikum die guten Impfquoten der vergangenen Jahre noch einmal erhöhen“, ergänzt Jana Luntz, Pflegedirektorin am Uniklinikum. „Die Impfangebote – sei es die gegen die Grippe oder bei Bedarf eine Covid-Boosterimpfung – sind uns sehr wichtig. Wir sorgen so für die Gesundheit unseres Personals sowie die Sicherheit der zu betreuenden Patientinnen und Patienten. Wir sehen uns hier als Arbeitgeber in der Pflicht. Dies ist unser Beitrag in der Bekämpfung möglicher Wellen in Herbst und Winter“, sagt der Kaufmännische Vorstand des Uniklinikums, Frank Ohi.
Die Impfung dient dem persönlichen Schutz der Mitarbeitenden, die häufiger als andere Berufsgruppen mit Influenzakranken in Kontakt kommen. Zudem folgt die Immunisierung des medizinischen Personals dem ethischen Gebot, den anvertrauten Patientinnen und Patienten nicht zu schaden. Denn viele davon tragen wegen bestehender Grunderkrankungen ein erhöhtes Risiko, eine schwere, eventuell tödliche Verlaufsform der Influenza zu entwickeln. Auch wenn die Immunisierung keinen hundertprozentigen Schutz gewährleisten kann, sorgt sie für zusätzliche Sicherheit: „Zahlreiche Studien haben gezeigt, dass eine Influenza-Erkrankung bei geimpften Personen milder, also mit weniger Komplikationen verläuft als bei Ungeimpften“, sagt Prof. Martin Aringer von der Medizinischen Klinik III, der am Montag die Vorstände im Rahmen des Pressetermins impft. Sachsens Gesundheitsministerin Petra Köpping appelliert unter anderem via Facebook: „Schützen Sie sich durch eine Influenza-Schutzimpfung! Influenza ist keine harmlose Erkrankung und es gibt eine sichere und sehr gut verträgliche Impfung.“ – Wie gewohnt kann sich die Bevölkerung in den Hausarztpraxen und den Impfstellen des öffentlichen Gesundheitsdienstes impfen lassen.
Kontakt für Medienschaffende
Universitätsklinikum Carl Gustav Carus Dresden
Pressesprecher: Holger Ostermeyer
Tel. 0351 4 58 41 62
E-Mail: pressestelle@uniklinikum-dresden.de
www.uniklinikum-dresden.de
Unternehmungsgeist von der Schule bis zur Weiterbildung
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Am 21. Oktober 2022 findet der 4. Deutsche Entrepreneurship Education Campus für Lehrer*innen, Trainer*innen, Dozenten und Dozentinnen an der Hochschule für Wirtschaft und Recht Berlin statt.
Berlin, 7. Oktober 2022 – „Innovative Lehre mit Unternehmungsgeist“ ist das Motto des vierten Deutschen Entrepreneurship Education Campus, der am 21. Oktober 2022 von 14.00 bis 17.00 Uhr am Campus Schöneberg der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) stattfindet, Badensche Straße 52, 10825 Berlin.
Lehrer*innen, Trainer*innen, Dozenten und Dozentinnen aus Schulen, von Universitäten und Hochschulen sowie anderen Weiterbildungseinrichtungen können sich Inspirationen holen, miteinander diskutieren und sich vernetzen. Das Themenspektrum reicht von fachdidaktischen Ansätzen zur Vermittlung unternehmerischen Denkens an Sekundarschulen und Gymnasien, über Online-Tools und Startups in Hochschulinkubatoren, bis zur Entrepreneurship Education in Familienunternehmen.
Die Keynote hält Prof. Dr. Ilona Ebbers von der Universität Flensburg. Sie tritt dafür ein, dass Lehre stärker auf Lernende ausgerichtet und entsprechende Rahmenbedingungen von der Schule bis zur Universität selbstgesteuerte Lehr- und Lernprozesse ermöglichen und fördern.
Die Teilnahme an der Veranstaltung ist kostenlos. Aus organisatorischen Gründen wird um vorherige Anmeldung gebeten.
Medienvertreter*innen sind herzlich eingeladen. Auf Anfrage können Interviews mit Experten und Expertinnen vermittelt werden.
Weitere Informationen, Programm und Anmeldung
https://www.hwr-berlin.de/aktuelles/veranstaltungen/veranstaltung-detail/804-deu…
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht Berlin (HWR Berlin) ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sven Ripsas
Tel.: +49 (0)30 30877 1230
E-Mail: sven.ripsas@hwr-berlin.de
Grüner Wasserstoff: Raschere Fortschritte durch moderne Röntgenquellen
Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Mit der Elektrokatalyse von Wasser lässt sich elektrische Energie aus Sonne oder Wind zur Erzeugung von grünem Wasserstoff nutzen und so speichern. Ein Überblicksbeitrag in der Fachzeitschrift Angewandte Chemie zeigt, wie moderne Röntgenquellen wie BESSY II die Entwicklung von passenden Elektrokatalysatoren vorantreiben können. Insbesondere lassen sich mit Hilfe von Röntgenabsorptionsspektroskopie die aktiven Zustände von katalytisch aktiven Materialien für die Sauerstoffentwicklungsreaktion bestimmen. Dies ist ein wichtiger Beitrag, um effiziente Katalysatoren aus günstigen und weit verbreiteten Elementen zu entwickeln.
Grüner Wasserstoff ist ein Energieträger mit Zukunft. Er wird durch die elektrolytische Aufspaltung von Wasser mit Energie aus Wind oder Sonne gewonnen und speichert diese Energie in chemischer Form. Damit die Aufspaltung von Wassermolekülen leichter (und mit weniger Energieeinsatz) gelingt, sind die Elektroden mit katalytisch aktiven Materialien beschichtet. Dr. Marcel Risch untersucht mit seinem Team in der Nachwuchsgruppe „Gestaltung des Sauerstoffentwicklungsmechanismus“ die Sauerstoffentwicklung bei der Elektrokatalyse von Wasser. Denn vor allem die Sauerstoffentwicklung muss für eine wirtschaftliche Wasserstoffproduktion noch effizienter ablaufen.
Eine spannende Materialklasse für Elektrokatalysatoren sind Manganoxide, die in vielen verschiedenen strukturellen Varianten vorkommen. „Ein entscheidendes Kriterium für die Eignung als Elektrokatalysator ist die Oxidationszahl des Materials und wie sie sich im Lauf der Reaktion verändert“, erläutert Risch. Bei den Manganoxiden gibt es auch hierbei eine große Vielfalt.
Informationen über die Oxidationszustände bringt die Röntgenabsorptionsspektroskopie (XAS): Röntgenquanten mit passender Energie regen dabei Elektronen auf den innersten Schalen an, die diese Quanten absorbieren. Je nach Oxidationszahl kann man diese Absorption bei unterschiedlichen Anregungsenergien beobachten. Das Team um Risch hat eine Elektrolyse-Zelle konstruiert, die XAS-Messungen während der Elektrolyse ermöglicht.
„Mit der Röntgenabsorptionsspektroskopie können wir nicht nur die Oxdationszahlen ermitteln, sondern auch Korrosionsprozesse oder Phasenveränderungen im Material beobachten“, sagt Risch. Kombiniert mit elektrochemischen Messungen ergibt sich aus den Messdaten damit ein deutlich besseres Verständnis des Materials während der Elektrokatalyse. Die benötigte hohe Intensität der Röntgenstrahlung steht allerdings nur an modernen Synchrotronlichtquellen zur Verfügung. In Berlin betreibt das HZB dafür BESSY II. Weltweit gibt es etwa 50 solcher Lichtquellen für die Forschung.
Risch sieht noch großes Potenzial für die Anwendung von Röntgenabsorptionsspektroskopie, insbesondere was die Zeitskalen der Beobachtung betrifft. Denn typische Messzeiten betragen einige Minuten pro Messung. Elektrokatalytische Reaktionen finden jedoch auf kürzeren Zeitskalen statt. „Wenn wir bei der Elektrokatalyse zuschauen könnten während sie passiert, könnten wir wichtige Details besser verstehen “ , meint Risch. Mit diesem Wissen würden sich preiswerte und umweltfreundliche Katalysatoren rascher entwickeln lassen. Andererseits finden viele „Alterungsprozesse“ binnen Wochen oder Monaten statt. „Wir könnten zum Beispiel in regelmäßigen Abständen die gleiche Probe immer wieder untersuchen, um diese Prozesse zu verstehen“, rät Risch. Damit ließen sich zusätzlich noch langlebigere Elektrokatalysatoren entwickeln.
Wissenschaftliche Ansprechpartner:
Dr. Marcel Risch, HZB, marcel.risch@helmholtz-berlin.de
Originalpublikation:
Angewandte Chemie 2022:
What X-ray absorption spectroscopy can tell us about the active state of earth-abundant electrocatalysts for the oxygen evolution reaction
Marcel Risch, Dulce M. Morales, Javier Villalobos, Denis Antipin
DOI: 10.1002/ange.202211949
Mit den Nachhaltigkeitstagen den Wandel (er)leben
Anette Schober-Knitz Referat für Hochschulkommunikation und Marketing
HBC Hochschule Biberach
Die Hochschule Biberach (HBC) wird klimaneutral – und bietet auf dem Weg zu diesem ehrgeizigen Ziel immer wieder die Gelegenheit für Einblicke in das Vorhaben und Möglichkeiten der Beteiligung. So veranstaltet die HBC vom 18. bis 20. Oktober die Nachhaltigkeitstage 2022 und lädt Hochschulmitglieder, aber auch die Biberacher Bevölkerung ein, den Wandel zu (er)leben. Geboten wir ein vielfältiges Programm rund um nachhaltige Transformationsprozesse, Klimaneutralität, Naturschutz und vieles mehr. Dabei sind die Formate bunt gemischt: Besucher*innen haben die Wahl zwischen Ausstellungen, Workshops, Vorlesungen, Diskussionsrunden und einer Filmvorführung im Traumpalast Biberach.
Der Filmabend bildet den Schlusspunkt für den ersten Veranstaltungstag, auch an den folgenden beiden Tagen findet jeweils ab 19 Uhr ein besonders hochkarätig besetztes Format statt. Der Film „Transformance“ porträtiert Pioniere des Wandels und ergründet deren Antrieb. An die Vorführung schließt sich ein Filmgespräch an (Dienstag, 18.10., 19 Uhr, Traumpalast, freier Eintritt). Am zweiten Abend stehen die Bemühungen um die Klimaneutralität bis 2030 der Hochschule, der Stadt sowie des Landkreises im Mittelpunkt. In einem Regionaldialog geht Kanzler Thomas Schwäble zusammen mit Landrat Mario Glaser und Baubürgermeister Christian Kuhlmann der Frage nach, wo die Region steht, welche Herausforderungen sich stellen und wie diese gemeinsam bewältigt werden können. Die Perspektive der jungen Generation bringen Studierende der Hochschule ein, angefragt ist zudem die Energieagentur Biberach (Mittwoch, 19. Oktober, 19 Uhr, Audimax der HBC).
„Der Wachstumszwang. Warum die Wirtschaft ohne Wachstum nicht funktioniert und was dies für die Umwelt bedeutet“: Unter diesem Titel steht der Abschlussvortrag am dritten und letzten Abend der Nachhaltigkeitstage. Dafür konnte die Hochschule den renommierten Ökonom Dr. Mathias Binswanger gewinnen, der Professor für Volkswirtschaftslehre an der Fachhochschule Nordwestschweiz in Olten und Privatdozent an der Universität St. Gallen ist und Autor zahlreicher Bücher. Binswanger zählt zu den einflussreichsten Ökonomen in der Schweiz. In Biberach wird er über den Zusammenhang von Wirtschaftswachstum und Umweltproblemen sprechen, Hintergründe erläutern und aufzeigen, wie ein modernes Wirtschaftssystem nachhaltiger gestaltet werden kann (Donnerstag, 20. Oktober, 19 Uhr, Audimax der HBC).
Mit den Nachhaltigkeitstagen will die Hochschule Biberach aufzeigen, „welche ökologischen, sozialen und wirtschaftlichen Herausforderungen unsere Zeit bestimmen und dass es in unseren Händen liegt, jetzt die richtigen Entscheidungen für eine nachhaltigere Zukunft zu treffen“, sagt die Klimaschutzmanagerin der Hochschule, Lisa Meyering. Wie das gelingen und welchen Beitrag jede*r Einzelne einbringen kann, zeigen die Nachhaltigkeitstage auf. „Unser dreitägiges Programm ist sehr vielseitig und richtet sich an alle Altersgruppen“, ergänzt ihr Kollege Tobias Götz. Jeweils nachmittags (16 bis 14 Uhr) finden interessierte Bürger*innen – Jugendliche wie Erwachsene – Austausch und Beteiligung am Campus Stadt (Gebäude B).
So wird beispielsweise vorgestellt, wie Ressourcen schonend genutzt oder wie Siedlungen nachhaltig entwickelt werden können, warum die Bioökonomie als innovativer Weg in die Nachhaltigkeit gilt und was wir für die Zukunft aus der (Architektur-)Geschichte lernen können. Auch ganz praktische Tipps gibt es bei der Veranstaltung, zum Beispiel zum aktuellen Thema Energie sparen in Privathaushalten. Neben eigenen Programmpunkten hat die HBC auch andere Akteure aus der Region eingeladen, sich vorzustellen. Mit Infoständen und Workshops sind das Haus der Nachhaltigkeit Ulm, die Solidarische Landwirtschaft Bad Waldsee sowie das Projekt Naturvielfalt Westallgäu vertreten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. jur. Gotthold Balensiefen, Beaufragter für Nachhaltigkeit
balensiefen@hochschule-bc.de
Weitere Informationen:
http://www.hochschule-biberach.de/nachhhaltigkeitsstage22
Neue Methode für Schnelltests: Hochempfindlicher Nachweis
Dr. Thomas Wittek Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Rot ist der Strich nicht, aber vielleicht leicht rosa – oder doch nur ein eingebildeter Schatten? Corona-Schnelltests können zwar eine Infektion nachweisen, ist die Viruslast aber gering, kommt es oft zu falschen Negativ-Ergebnissen, da der Test nicht empfindlich genug ist. Das wollen Wissenschaftler:innen der Physikalischen Chemie der Universität Duisburg-Essen (UDE) um Prof. Sebastian Schlücker ändern. Dafür erhielt er nun den Internationalen Raman-Innovationspreis.
Je empfindlicher der Test, desto niedriger kann die Konzentration der nachzuweisenden Substanz für ein eindeutiges Ergebnis sein. „Die Empfindlichkeit unserer Methodik ist unter Laborbedingungen zehn Millionen Mal höher als bei üblichen Tests“, erklärt Prof. Schlücker vom Center for Nanointegration (CENIDE) der UDE. Allerdings wissen die Forschenden hier genau, was in der Probe chemisch vorliegt. Nun muss das Verfahren in die Praxis übertragen werden. „Dort sind allerdings störende Komponenten enthalten. Wenn wir trotzdem ‚nur‘ noch eine 100- bis 1000-fache Verbesserung erhalten, ist dies immer noch ein Meilenstein.“ Und: Die Methode kann nicht nur bei Coronaviren eingesetzt werden, sondern überall dort, wo Stoffe vor Ort schnell und in sehr niedriger Konzentration nachgewiesen werden müssen – etwa bei einer Sepsis oder schädlichen Bakterien in Lebensmitteln.
Die Methode basiert auf den bereits bestehenden Schnelltests. „Die üblichen nanometerkleinen Goldpartikel, durch welche die rote Farbe beim Schnelltest entsteht, werden durch unser optimiertes Raman-Molekül-kodiertes Nanogold ersetzt.“ Ansonsten bleiben Herstellung und Funktion gleich. „Unsere Partikel sind etwas aufwendiger in der Herstellung. Diesen Prozess wollen wir automatisieren – dadurch schneller und günstiger werden“, erklärt Schlücker weiter.
Im Gegensatz zu den normalen Teststreifen, bei denen mit dem bloßen Auge die Testlinie erkannt wird, ist bei diesem Verfahren ein Laser-basiertes Messgerät (Reader) notwendig. Dieser ist derzeit noch so groß wie ein Notebook und soll kleiner werden. Dafür ist er 100- bis 1.000-fach schneller und kostet weniger als zehn Prozent im Vergleich zu den bisher verwendeten Raman-Forschungsgeräten. Für diese Entwicklung hat Schlücker den Internationalen Raman-Innovationspreis erhalten. Aber: da das Gerät benötigt wird, kann nicht jeder den Test bei sich zu Hause machen. „So ein Gerät könnte aber in Apotheken, Arztpraxen und Testzentren stehen. Da würde sich die Anschaffung für das Gerät dann rechnen – und benötigt immer noch weniger Zeit als ein PCR-Test. Bis zum flächendeckenden Einsatz könnte es noch zwei bis drei Jahre dauern.
Wissenschaftliche Ansprechpartner:
Prof. Dr Sebastian Schlücker, Physikalische Chemie und CENIDE, Tel. 0201/18 3- 6843, sebastian.schluecker@uni-due.de
Weitere Informationen:
https://www.uni-due.de/imperia/md/content/ag-schluecker/git_0322.pdf
Das Quecksilbergeheimnis in der Tiefsee
Bianca Loschinsky Presse und Kommunikation
Technische Universität Braunschweig
Die Kisten sind schon lange gepackt, Genehmigungen eingeholt und auch der Medizin-Check ist abgeschlossen: Nun ist Dr. Marta Pérez Rodríguez von der Technischen Universität Braunschweig an Bord des Forschungsschiffs „Polarstern“. Der Eisbrecher des Alfred-Wegener-Instituts (AWI) hat sich am 2. Oktober von Kapstadt aus auf den Weg in den Südatlantik begeben. Dort wird die Umweltwissenschaftlerin als Teil der Island-Impact-Expedition in den Gewässern um Südgeorgien Wasser- und Sedimentproben sammeln. Ziel ist es, zu erfahren, wo sich das Quecksilber in den Tiefen des Meeres ablagert.
Die zweigeteilte Expedition „Island Impact“ untersucht von Oktober bis Dezember biogeochemische Stoffflüsse um Südgeorgien, eine Inselgruppe im Südatlantik östlich der Ostküste Südamerikas. Hier treten einige der höchsten Konzentrationen von Phytoplankton im südlichen Ozean auf. Diese beträchtlichen Algenblüten benötigen für ihre Entwicklung eine Eisenquelle. Hauptaugenmerk der Expedition liegt darauf, die Quellen und Wege des Eintrags von Eisen und anderen Nährstoffen in die Schelfgewässer Südgeorgiens und weiter stromabwärts in den südlichen Antarktischen Zirkumpolarstrom (ACC) zu verstehen.
Quecksilber eingeschlossen in Sedimenten
Hier setzt auch die Forschung der Arbeitsgruppe Umweltgeochemie des Instituts für Geoökologie an, die sich auf das Spurenmetall Quecksilber konzentriert. Quecksilber ist ein hochgiftiger Schadstoff, der die menschliche Gesundheit ernsthaft schädigen kann. Der größte Teil der Quecksilberverschmutzung gelangt durch die Verbrennung von Kohle und anderen fossilen Brennstoffen sowie durch industrielle Aktivitäten in die Atmosphäre. Doch wohin gelangt es dann?
Bereits seit 2016 forschen Professor Harald Biester und Dr. Marta Pérez Rodríguez zum Quecksilberkreislauf und der Primärproduktion in den Ozeanen. In einer Studie, die 2018 in der Fachzeitschrift „Science“ veröffentlicht wurde und international Anerkennung fand, stellten sie fest, dass die untersuchten antarktischen Kieselsäuresedimente überraschend große Mengen an Quecksilber enthielten. Die Ergebnisse deuten darauf hin, dass bis zu 25 Prozent der Quecksilberemissionen der letzten 150 Jahre in solchen Sedimenten eingeschlossen sein könnten. „Von der Forschungsreise mit der ‚Polarstern‘ erhoffen wir uns nun weitere Erkenntnisse zum Quecksilberkreislauf, über den Verbleib von Quecksilber in der Wassersäule in produktiven Meeresgebieten und über die Rolle von Algenblüten für die Speicherung von Quecksilber in Meeressedimenten“, sagt Professor Biester.
Proben aus 6.000 Metern Tiefe
Dafür werden die Wissenschaftler*innen unter anderem Wasserproben in bis zu 5.000 Metern Tiefe und Meeressedimente in mehr als 6.000 Metern Tiefe nehmen. „Die Expedition gibt uns die Möglichkeit, vielfältige Proben zu sammeln, die wir sonst nicht erhalten würden“, sagt Dr. Marta Pérez Rodríguez. So setzen die Forschenden spezielle Wasserpumpen zum Sammeln von Schwebstoffen in der Tiefe ein, die nicht zur Standardausrüstung vieler Meeresuntersuchungen gehören. „Die gewonnenen Daten werden wird dann mit elementaren Meerwassereigenschaften wie Dichte, Salzgehalt, Temperatur, Sauerstoffkonzentration und Chlorophyllkonzentration sowie mit Informationen anderer Forschungsgruppen zusammenführen, beispielsweise die Identifizierung von Zooplanktonarten und anderen Spurenmetallkonzentrationen.“
Auf die Expedition hat sich die Wissenschaftlerin monatelang vorbereitet. Neben Schulungen für die Arbeit an Bord mussten Genehmigungen zu Probennahme eingeholt und vor allem das Arbeitsmaterial mehrfach gesäubert werden. „Die Quecksilberkonzentrationen im offenen Ozean sind sehr niedrig, sodass wir unter sehr sauberen Bedingungen arbeiten müssen“, erläutert Dr. Marta Pérez Rodríguez. „Die Reinigung der Flaschen, die wir zum Sammeln von Methylquecksilber verwenden werden, dauert zum Beispiel etwa zwölf Tage und umfasst mehrere Schritte mit Seifen, konzentrierten Säuren und ultrareinem Wasser.“
Gut gerüstet gegen stürmische See
Außerdem stand für alle Teilnehmenden ein medizinischer Check an. Das Leben und Forschen an Bord könnte für die Umweltwissenschaftlerin hin und wieder ungemütlich werden. Auch wenn die „Polarstern“ in Kapstadt voraussichtlich bei eher frühlingshaftem Wetter startet, wird es während der Expedition nicht dabei bleiben. Je weiter sich das Forschungsschiff Richtung Süden bewegt, desto niedriger werden die Temperaturen. Und in der Nähe von Südgeorgien könnten Stürme mit hohen Wellen die Arbeit beeinträchtigen. Gegen Kälte sind die Expeditionsteilnehmer*innen gut gerüstet: Das AWI stellt extra Kleidung mit wasserdichter Hose und Jacke, Fleecejacke, Wollmütze, Handschuhe und Sicherheitsstiefel zur Verfügung.
Dass die Expedition möglicherweise etwas stürmisch wird, schreckt Dr. Marta Pérez Rodríguez nicht. Sie freut sich, dass es nun endlich losgeht: „An einer Expedition an Bord eines Forschungsschiffes wie der Polarstern und an einem Ort wie dem Südatlantik teilzunehmen, ist ein Meilenstein in meiner Karriere und meinem Leben. Für mich persönlich geht als Umweltwissenschaftlerin damit ein Jugendtraum in Erfüllung.“
Expedition „Island Impact“
Die Polarstern-Expedition „Island Impact“ im Südatlantik findet unter der Leitung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) von Ende September bis Dezember 2022 statt und wird von Dr. Christine Klaas und Professorin Sabine Kasten (beide AWI) koordiniert. Dr. Marta Pérez Rodríguez wird im ersten Teil der Expedition bis Mitte November teilnehmen. Für die Untersuchungen kooperiert das Institut für Geoökologie mit Forschenden des Leibniz-Instituts für Ostseeforschung Warnemünde, dem National Institute of Aquatic Resources, Section for Oceans and Arctic an Dänemarks Technischer Universität (DTU), dem HADAL – Danish Center for Hadal Research der Süddänischen Universität und dem Institut Méditerranéen d’Océanographie der Aix-Marseille-Universität in Frankreich.
Der Polarstern folgen
Die Expeditionen des AWI-Forschungsschiffs „Polarstern“ kann man live per App verfolgen. Über https://follow-polarstern.awi.de gibt es Positions- und Wetterdaten in Echtzeit sowie mehrmals wöchentlich aktuelle Fotos und Berichte von Bord der „Polarstern“.
Link:
Interview mit Dr. Marta Pérez Rodríguez zur Expedition:
https://magazin.tu-braunschweig.de/m-post/aufbruch-zu-einer-stuermischen-forschu…
Wissenschaftliche Ansprechpartner:
Dr. Marta Pérez Rodríguez
Technische Universität Braunschweig
Institut für Geoökologie
Abt. Umweltgeochemie
Langer Kamp 19c
38106 Braunschweig
Tel.: 0531 391-7242
E-Mail: m.perez-rodriguez@tu-braunschweig.de
https://www.tu-braunschweig.de/geooekologie/institut/geochemie
Prof. Dr. Harald Biester
Technische Universität Braunschweig
Institut für Geoökologie
Abt. Umweltgeochemie
Langer Kamp 19c
38106 Braunschweig
Tel.: 0531 391-7240
E-Mail: h.biester@tu-braunschweig.de
https://www.tu-braunschweig.de/geooekologie/institut/geochemie
Originalpublikation:
Sara Zaferani, Marta Pérez-Rodríguez, Harald Biester: Diatom ooze – A large marine mercury sink. Science, Vol. 361, NO. 640424 Aug 2018: 797-800,
DOI: https://doi.org/10.1126/science.aat2735
Konferenzhinweis: Künstliche Intelligenz und ihre Auswirkungen auf Gesellschaften
Jens Rehländer Kommunikation
VolkswagenStiftung
Auf der Herrenhäuser Konferenz „AI and the Future of Societies“ werden Expert:innen aktuelle und zukünftige Entwicklungen in Forschung und Anwendung von Künstlicher Intelligenz sowie deren Auswirkungen auf Gesellschaften diskutieren. Medienvertreter:innen sind herzlich eingeladen, vom 12. bis 14. Oktober an der Konferenz in Hannover teilzunehmen.
Der breite Einsatz Künstlicher Intelligenz (KI) wird moderne Gesellschaften weltweit grundlegend verändern. Die Lebensbereiche, die KI durchdringt, nehmen zu – sowohl in Arbeitswelten, als auch im privaten Bereich. Und damit bekommt die Frage, wo sie sinnvoll und gewinnbringend implementiert werden und wo sie eventuell sogar ein Risiko darstellen kann, größere Bedeutung. Welche Auswirkungen kann die digitale Revolution also haben?
Auf der Herrenhäuser Konferenz „AI and the Future of Societies“ (https://www.volkswagenstiftung.de/veranstaltungen/veranstaltungskalender/herrenh…) diskutieren Expert:innen aus interdisziplinärer Perspektive unter anderem die Auswirkungen von KI auf die Ausgestaltung sozialer Ungleichheiten, ihren Einfluss auf politische und wirtschaftliche Systeme und Arbeitsbeziehungen sowie die Konsequenzen für die Zukunft der Mobilität. Die Forschenden suchen nach Antworten auf die Frage, wie Menschen KI-Anwendungen zu ihrem Vorteil nutzen und wie alle Teile der Gesellschaft am Nutzen von KI partizipieren können.
Die Konferenz teilt sich in verschiedene Sessions auf (Konferenzsprache ist Englisch):
Mittwoch, 12. Oktober 2022:
• Keynote: AI and the drive towards a cybernetic society
• Session 1: AI and social inequality
• Session 2: Challenges of automated decision-making
Donnerstag, 13. Oktober 2022:
• Session 3: AI and the future of work
• Session 4: AI in medicine and eldercare
• Session 5: AI and youth
• Session 6: AI, communication, and democracy
Freitag, 14. Oktober 2022:
• Session 7: AI and sustainability
• Session 8: AI and the future of societies 2035+
Das vollständige Programm mit allen Redner:innen, Vortragsthemen und Uhrzeiten finden Sie im Anhang. Als Medienvertreter:in sind Sie herzlich eingeladen, an der Konferenz oder Teilen davon teilzunehmen. Gerne organisieren wir Interviewtermine für Ihre Berichterstattung. Wir bitte um formlose Anmeldung zur Konferenz an presse@volkswagenstiftung.de.
INFORMATIONEN ZUR VOLKSWAGENSTIFTUNG
Die VolkswagenStiftung ist eine eigenständige, gemeinnützige Stiftung privaten Rechts mit Sitz in Hannover. Mit einem Fördervolumen von insgesamt etwa 150 Mio. Euro pro Jahr ist sie die größte private deutsche wissenschaftsfördernde Stiftung und eine der größten Stiftungen hierzulande überhaupt. Ihre Mittel vergibt sie ausschließlich an wissenschaftliche Einrichtungen. In den mehr als 60 Jahren ihres Bestehens hat die VolkswagenStiftung rund 33.000 Projekte mit insgesamt mehr als 5,5 Mrd. Euro gefördert. Auch gemessen daran zählt sie zu den größten gemeinnützigen Stiftungen privaten Rechts in Deutschland.
Weitere Informationen über die VolkswagenStiftung finden Sie unter https://www.volkswagenstiftung.de/stiftung/wir-ueber-uns.
NEWSLETTER DER VOLKSWAGENSTIFTUNG ERHALTEN
Der Newsletter der VolkswagenStiftung informiert regelmäßig (etwa einmal pro Monat) über aktuelle Förderangebote, Stichtage, Veranstaltungen und Nachrichten rund um die Stiftung und um geförderte Projekte. Haben Sie Interesse an unserem Newsletter? Dann folgen Sie diesem Link: https://www.volkswagenstiftung.de/newsletter-anmeldung
Weitere Informationen:
https://www.volkswagenstiftung.de/veranstaltungen/veranstaltungskalender/herrenh… Link zur Veranstaltungsseite.
https://www.volkswagenstiftung.de/stiftung/wir-ueber-uns Weitere Informationen über die VolkswagenStiftung.
https://www.volkswagenstiftung.de/aktuelles-presse/presse/konferenzhinweis-k%C3%… Die Presseinformation im Internet.
Anhang
AI and the Future of Societies – Conference Program
Die Besonderheit der Farbe Rot
Katharina Hempel Presse- und Öffentlichkeitsarbeit
Ernst Strüngmann Institute (ESI) for Neuroscience
Rot hat eine Signal- und Warnwirkung. Spiegelt sich diese farbliche Besonderheit auch im Gehirn wieder? Forschende des Ernst Strüngmann Institute (ESI) for Neuroscience sind dieser Frage nachgegangen.
Leuchtet die Ampel rot, bleiben wir stehen. Reife Kirschen an einem Baum stechen durch ihre Farbe hervor. Der Farbe Rot wird eine Signal- und Warnwirkung zugeschrieben. Aber spiegelt sich diese auch im Gehirn wieder? Forschende des Ernst Strüngmann Institute (ESI) for Neuroscience sind dieser Frage nun nachgegangen. Sie wollten wissen, ob Rot Hirnwellen in einem bestimmten Bereich stärker auslöst als andere Farben. Ihre Ergebnisse veröffentlichten sie jüngst in der Fachzeitschrift eLife.
Im Zentrum der Untersuchungen von Benjamin J. Stauch, Alina Peter, Isabelle Ehrlich, Zora Nolte und ESI-Direktor Pascal Fries steht der frühe visuelle Kortex, auch bekannt als V1. Es ist das größte visuelle Areal im Gehirn. Und das erste, das Input von der Netzhaut erhält. Dort entstehen Hirnwellen (Oszillationen) auf einer bestimmten Frequenz, dem sogenannten Gamma-Band (30-80 Hz), wenn dieser Bereich von starken und räumlich homogenen Bildern angeregt wird. Aber nicht alle Bilder erzeugen diesen Effekt in gleichem Maße!
Die Wirkung einer Farbe nachweisen
„In jüngster Zeit drehen sich viele Forschungsprojekte um die Frage, welcher spezifische Input Gamma-Wellen antreibt“, erläutert Benjamin J. Stauch, Erstautor der Studie. „Ein Auslöser scheinen farbige Oberflächen zu sein. Besonders, wenn sie rot sind. Die Wissenschaftler*innen haben dies dahingehend interpretiert, dass Rot für das visuelle System evolutionsbedingt etwas Besonderes ist, weil zum Beispiel Früchte oft rot sind.“
Aber wie lässt sich die Wirkung einer Farbe wissenschaftlich nachweisen? Oder gar widerlegen? Denn: Eine Farbe objektiv zu definieren ist schwer, Farben zwischen verschiedenen Studien zu vergleichen ebenfalls. Jeder Computermonitor gibt eine Farbe ein wenig anders wieder, sodass Rot auf dem einem Bildschirm nicht das gleiche ist wie auf einem anderen. Hinzu kommt, dass es eine Vielzahl von Möglichkeiten gibt, Farben zu definieren: auf der Grundlage eines einzelnen Monitors oder von Wahrnehmungsbeurteilungen oder basierend darauf, was deren Eintreffen auf der menschlichen Netzhaut bewirkt.
Farben aktivieren Lichtsinneszellen
Denn der Mensch nimmt Farben wahr, wenn in der Netzhaut bestimmte Lichtsinneszellen aktiviert werden, die sogenannten Zapfen. Sie reagieren auf Lichtreize, indem sie diese in elektrische Signale umwandeln, die dann von Nervenzellen zum Gehirn geleitet werden. Um Farben erkennen zu können, brauchen wir mehrere Typen von Zapfen. Jeder Zapfentyp ist besonders empfänglich für einen bestimmten Wellenlängenbereich: Rot (L-Zapfen), Grün (M-Zapfen) oder Blau (S-Zapfen). Das Gehirn vergleicht, wie stark die jeweiligen Zapfen reagieren und ermittelt daraus einen Farbeindruck.
Dies funktioniert bei allen Menschen in ähnlicher Weise. Es bestünde also die Möglichkeit, Farben objektiv zu definieren, indem gemessen wird, wie stark sie die verschiedenen Netzhautzapfen aktivieren. Wissenschaftliche Untersuchungen mit Makaken haben ergeben, dass das frühe visuelle System der Primaten zwei auf diesen Zapfen basierende Farbachsen besitzt: Die L-M-Achse vergleicht Rot mit Grün, die S – (L+M)-Achse vergleicht Gelb mit Violett. „Wir glauben, dass ein Farbkoordinatensystem, dem diese beiden Farbachsen zugrunde liegen, das richtige ist, um Farben zu definieren, wenn Forschende die Stärke von Gamma-Oszillationen erforschen wollen, weil es Farben direkt danach definiert, wie stark und auf welche Weise sie das frühe visuelle System aktivieren“, ist Benjamin J. Stauch überzeugt. Weil frühere Arbeiten zu farbbezogenen Gamma-Oszillationen meist mit kleinen Stichproben von einigen wenigen Primaten oder menschlichen Proband*innen durchgeführt wurden, aber die Spektren der Zapfenaktivierung genetisch bedingt von Individuum zu Individuum variieren können, messen er und sein Team in dem nun veröffentlichten Paper eine größere Stichprobe von Individuen (N = 30).
Gleiche Wirkung von Rot und Grün
Dabei gehen sie der Frage nach, ob Rot wirklich etwas Besonderes ist. Also ob diese Farbe stärkere Gamma-Oszillationen auslöst als ein Grün mit vergleichbarer Farbstärke (d. h. Zapfenkontrast). Und eine Nebenfrage lautet: Lassen sich farbinduzierte Gamma-Oszillationen auch durch Magnetoenzephalographie (MEG) nachweisen, also durch ein Verfahren zur Messung der magnetischen Aktivitäten des Gehirns?
Sie kommen zu dem Ergebnis, dass die Farbe Rot nicht besonders stark ist, was die Intensität der von ihr ausgelösten Gamma-Oszillationen betrifft. Vielmehr lösen Rot und Grün bei gleichem absolutem L-M-Zapfenkontrast gleich starke Gamma-Oszillationen im frühen visuellen Kortex aus. Darüber hinaus können farbinduzierte Gamma-Wellen bei sorgfältiger Behandlung im menschlichen MEG gemessen werden, sodass künftige Forschungen den 3R-Prinzipien für Tierversuche (Reduce/Verringern, Replace/Vermeiden, Refine/Verbessern) folgen könnten, indem sie an Menschen statt an nicht-menschlichen Primaten durchgeführt werden.
Farben, die nur den S-Zapfen (Blau) aktivieren, scheinen im frühen visuellen Kortex im Allgemeinen nur schwache neuronale Reaktionen hervorzurufen. Dies ist in gewisser Weise zu erwarten, da der S-Zapfen auf der Netzhaut von Primaten seltener vorkommt, evolutionär älter und träger ist.
Beitrag zur Entwicklung von Sehprothesen
Die Ergebnisse dieser Studie der ESI-Wissenschaftler*innen, das Verständnis der Art und Weise, wie der frühe menschliche visuelle Kortex Bilder kodiert, könnte eines Tages bei der Entwicklung von Sehprothesen hilfreich sein, die versuchen, den visuellen Kortex zu aktivieren, um bei Menschen mit geschädigter Netzhaut seh-ähnliche Wahrnehmungseffekte hervorzurufen. Dieses Ziel liegt jedoch noch in weiter Ferne. Es muss erst noch viel mehr über die spezifischen Reaktionen des visuellen Kortex auf visuelle Eingaben verstanden werden.
Wissenschaftliche Ansprechpartner:
Benjamin Stauch, presse@esi-frankfurt.de
Originalpublikation:
Stauch BJ, Peter A, Ehrlich I, Nolte Z, Fries P (2022). Human visual gamma for color stimuli. eLife 11, e75897. https://doi.org/10.7554/eLife.75897
Soziale Dilemma spielerisch erklären – Die Entwicklung von Moralvorstellungen fördert selbstloses Handeln
Jana Gregor Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Mathematik in den Naturwissenschaften (MPIMIS)
Die menschliche Entscheidungsfindung und das Zusammenspiel von individueller und Gruppendynamik ist außerordentlich vielschichtig. Leider kann unser Verhalten negative Konsequenzen, wie die Erschöpfung gemeinsamer Ressourcen auf Kosten der Umwelt, haben. Mohammad Salahshour, Forscher am MPI für Mathematik in den Naturwissenschaften, hat untersucht wie strategische Entscheidungen, soziale Normen und Moral Entscheidungen beeinflussen. Sein spieltheoretischer Ansatz zeigt, wie die Komplexität realer strategischer Zusammenhänge zur Entwicklung moralischer Normen führen kann, die Gesellschaften helfen, sich selbst besser zu steuern, indem sie Einzelentscheidungen im Interesse der Gruppe lenken.
Der Entscheidungsprozess ist nicht selten konfliktreich und kann zu sozialen Konfliktsituationen führen, in denen die Interessen des Einzelnen dem Nutzen für die Gruppe oder die Gesellschaft gegenüberstehen. Die Moral bietet einen Ausweg aus dieser Tragik der Allmende, indem sie altruistische Anreize fördert und den Einzelnen dazu motiviert, seinen Egoismus zu zügeln und zu kooperieren, selbst wenn es mit persönlichen Kosten verbunden ist. Die Entstehung von moralischen Werten ist immer noch ein evolutionäres Rätsel. Die Kernfrage ist, warum eine Person sich selbst aufopfern und ihre persönliche Stellung untergraben sollte, um zu kooperieren und der Gruppe zu helfen. Es zeigte sich, dass das individuelle Streben nach Ordnung und Organisation in der Gesellschaft diese Entwicklung vorantreibt. Nachdem also zunächst aus reinem Eigeninteresse eine Form der sozialen Ordnung erstrebt wurde, verlangt das daraus resultierende moralische System eine Form der aufopferungsvollen Zusammenarbeit.
Individuen in Gruppen stehen oft gleichzeitig vor unterschiedlichen strategischen Problemen, die es zu lösen gilt. Der Max-Planck-Forscher Mohammad Salahshour verwendete grundlegende strategische Spiele als eine Art Metapher für eine Vielzahl dieser Problemstellungen, einschließlich sozialer Dilemmas und Koordinations- und Kooperationsprobleme, wie etwa die Aufteilung von Ressourcen. Um zu ermitteln, ob diese einfachen spieltheoretischen Näherungen für die Darstellung komplexer Interaktionen in der realen Welt geeignet sind, entwickelte er ein neuartiges evolutionäres Modell gekoppelter interagierender Spiele. In einem ersten Schritt müssen die Akteure ein Gefangenendilemma lösen, gefolgt von einem zweiten Spiel, das verschiedenen Klassen angehören kann, die strategische Szenarien darstellen, mit denen Individuen in Gruppen konfrontiert werden können. Bei der Untersuchung der sich daraus ergebenden Nash-Gleichgewichte konnte Mohammad Salahshour nachweisen, dass das Resultat der Entscheidungen der Spieler im sozialen Dilemma, das ihnen im ersten Spiel präsentiert wurde, ihre strategischen Entscheidungen im zweiten Spiel beeinflusst und zur Lösung verschiedener strategischer Probleme wie Koordination, Ressourcenteilung und Wahl des Anführers beitragen kann.
Diese erhöhte Komplexität der interagierenden Spiele führt zu einer breiten Palette möglicher Szenarien, da ein kooperierender Spieler nun für seine Unterwerfung im sozialen Dilemma belohnt werden kann. Abhängig von dieser Entschädigung entstehen auf natürliche Weise moralische Normen wie „gutes“ oder „schlechtes“ Verhalten: Im Falle einer geringen Auszahlung aus dem Spiel mit dem nicht-sozialen Dilemma – und somit einer geringen Kopplung der Spiele und einer geringen Komplexität – gibt es keinen intrinsischen Nutzen in der Kooperation, und die Hinterlist bleibt die rationale Wahl. Wird die Kopplung jedoch stark genug, kommt es zu einem symmetriebrechenden Phasenübergang, bei dem die Symmetrie zwischen Kooperation und Verrat gebrochen wird und sich eine Reihe kooperationsfördernder sozialer Normen herausbildet, denen zufolge Kooperation eine wertvolle Eigenschaft ist, die es wert ist, übernommen zu werden.
Salashours Studie zur Entwicklung moralischer Normen zeigte, dass die Moral zwei ganz unterschiedliche Funktionen ausübt. Die bereits erwähnte Förderung von selbstaufopferndem oder altruistischem Verhalten und die Ermutigung zu gegenseitig vorteilhaftem Verhalten. Diese zweite Funktion setzt keine Selbstaufopferung voraus und könnte sich z. B. in gegenseitiger Kooperation oder Konfliktlösung manifestieren, also in Normen, die die soziale Ordnung und Organisation fördern können. Der Mathematiker sagt: „Ein Moralsystem verhält sich wie ein trojanisches Pferd: Sobald es aus dem Eigeninteresse der Individuen heraus zur Förderung von Ordnung und Organisation eingeführt wurde, bewirkt es auch eine selbstaufopfernde Zusammenarbeit und unterdrückt antisoziales Verhalten.“ Besonders faszinierend an seiner Theorie ist, dass allein die Kosten der Normen und nicht ihr tatsächlicher Nutzen für deren Etablierung ausschlaggebend sind. Diese Tatsache kann die überraschende Entwicklung schädlicher sozialer Normen wie destruktive kulturelle Praktiken, Ehrenmorde oder grausame Strafen erklären. Diese Normen sind für den Einzelnen kostspielig und haben oft keinen unmittelbaren sozialen Nutzen, was zu kollektiven Kosten führt; sie können jedoch ebenso wirksam zur Förderung der sozialen Ordnung und zur Stabilisierung von Gesellschaften beitragen, insbesondere wenn es keine staatlichen Organe zur Rechtsdurchsetzung gibt.
Wissenschaftliche Ansprechpartner:
Mohammad Salahshour
Mail: msalahshour@ab.mpg.de
Originalpublikation:
Salahshour M (2022) Interaction between games give rise to the evolution of moral norms of cooperation. PLoS Comput Biol 18(9): e1010429
https://doi.org/10.1371/journal.pcbi.1010429
UV-C-Strahlung zur Inaktivierung des Covid-19-Erregers in Aerosolen
Vanessa Offermann Abteilung Hochschulkommunikation
Hochschule Heilbronn
GEMEINSAME MEDIENINFORMATION
GEMEINSAME MEDIENINFORMATION
• Neue Studie liefert klare Ergebnisse: UV-C-Strahlung vernichtet Corona-Partikel in der Luft.
• Resultat zeigt Lösung für den Aufenthalt in Innenräumen.
• Herausgefunden hat das ein interdisziplinäres Forschungsteam der Uniklinik Tübingen und der Hochschule Heilbronn.
UV-C-Strahlung ist wirksam zur Desinfektion von Flüssigkeiten und Oberflächen. Unklar ist jedoch, in welchem Maße sie zur Inaktivierung von SARS-CoV-2-haltigen Aerosolen beitragen kann. Insbesondere die notwendige UV-C-Dosis zur Reduktion der Viruslast konnte bislang nicht ermittelt werden. Ein interdisziplinäres Forschungsteam aus Tübinger Virolog*innen und Ingenieur*innen der Hochschule Heilbronn (HHN) ging dieser Frage nun nach. Die Ergebnisse der Studie sind aktuell in der Fachzeitschrift Indoor Air publiziert. Für die Weiterführung der Aerosolstudie bemüht sich das Forschungsteam um Fördergelder.
SARS-CoV-2 hat sich seit Januar 2020 ausgebreitet und zu einer weltweiten Krise geführt. Neben direktem Kontakt und Tröpfchen sind Aerosole der Hauptübertragungsweg des Virus. Um Dekontaminationen der Atemluft zu ermöglichen, bedarf es daher einem Wirksamkeitsnachweis bereits eingesetzter Methoden. UV-C-Desinfektion wird seit Jahrzehnten zur Inaktivierung verschiedener infektiöser Erreger in kontaminierten Flüssigkeiten genutzt. Ob das Verfahren auch zur Inaktivierung von SARS-CoV-2-haltigen Aerosolen beitragen kann und wie hoch die notwendige UV-C-Dosis sein muss, konnte ein Forschungsteam nun erstmals ermitteln: Das Team um Prof. Dr. Michael Schindler vom Institut für Medizinische Virologie und Epidemiologie der Viruskrankheiten am Uniklinikum Tübingen sowie die Ingenieur*innen der Hochschule Heilbronn, unter Leitung von Prof. Dr.-Ing. Jennifer Niessner.
Über die Studie
Mithilfe eines im Hochsicherheitslabor der Tübinger Virologie eigens konstruierten Aerosol-Prüfstands konnte der Covid-19-Erreger unter kontrollierten Bedingungen vernebelt werden. Das Virus-Aerosol wurde einer genau definierten UV-C-Dosis ausgesetzt und Verfahren entwickelt, um die Viren aus dem Aerosol wieder abzuscheiden sowie ihre Vermehrungsfähigkeit zu testen. Dabei konnte das Forschungsteam nicht nur die sehr gute Effizienz von bereits geringen UV-C-Dosen zur Inaktivierung von Coronaviren nachweisen, sondern auch erstmals wissenschaftlich beweisen, dass UV-C-basierte Luftreiniger Coronaviren zuverlässig unschädlich machen. „Wir waren überrascht, dass UV-C Dosen im unteren Bereich dessen, was wir im Prüfstand anwenden können, ausreichend waren, um über 99,9 Prozent der infektiösen Viruspartikel zu inaktivieren“, erläutert Dr. Natalia Ruetalo, die die Infektionsexperimente in der Tübinger Virologie durchführte. Dies ist hinsichtlich der bevorstehenden Jahres- und Erkältungszeit als auch einer etwaigen weiteren Coronawelle von besonderer Relevanz.
„Mit dem modularen Prüfstand könnten wir nun nicht nur SARS-CoV-2, sondern auch andere über Aerosole übertragene Viren analysieren sowie die Effizienz verschiedenster Inaktivierungsverfahren oder den Einfluss von Umweltfaktoren“, so Prof. Schindler, der gemeinsam mit Prof. Niessner vom Institut für Strömung in additiv gefertigten porösen Strukturen an der Hochschule Heilbronn die Studie leitete. Dem interdisziplinären Team gelang es in nur einem Jahr diesen voll funktionsfähigen modularen Prüfstand zu konstruieren – von der Idee bis hin zum Aufbau und der Integration in die Anwendung. „Wir haben vorausschauend einen modularen Prüfstand konzipiert, der sich flexibel einsetzen und anwenden lässt und nach unserer Erkenntnis weltweit einzigartig ist“, so Prof. Niessner.
Warum es vorerst beim Konjunktiv bleibt, äußern sich die Studienleiter ratlos und ernüchtert, da sie bisher trotz intensiver Anstrengungen weder öffentliche noch industrielle Fördermittel zur Weiterführung ihrer Forschung akquirieren konnten. „Anscheinend wurden in den letzten zwei Jahren so viel Fördergelder in die Coronaforschung gesteckt, dass nun auch vielversprechende und über den Kontext hinausgehende Projekte im Angesicht der vermeintlich beendeten Pandemie eingestellt werden“, sagt Schindler.
Die angespannte Wirtschaftslage und Rezessionsängste tragen ihren Teil bei. Bleibt nur zu hoffen, dass es keine weitere Pandemie braucht, um dem innovativen Aerosol-Prüfstand aus Heilbronn und Tübingen wieder Leben einzuhauchen.
Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit rund 8.000 Studierenden ist die Hochschule Heilbronn (HHN) eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. Ihr Kompetenz-Schwerpunkt liegt in den Bereichen Technik, Wirtschaft und Informatik. An ihren vier Standorten in Heilbronn, Heilbronn-Sontheim, Künzelsau und Schwäbisch Hall bietet die HHN mehr als 60 zukunftsorientierte Bachelor- und Masterstudiengänge an, darunter auch berufsbegleitende Angebote. Die HHN bietet daneben noch weitere Studienmodelle an und pflegt enge Kooperationen mit Unternehmen aus der Region. Sie ist dadurch in Lehre, Forschung und Praxis sehr gut vernetzt. Das hauseigene Gründungszentrum unterstützt Studierende sowie Forschende zudem beim Lebensziel Unternehmertum.
Ansprechpartner*innen:
Prof. Dr.-Ing. Jennifer Niessner, Professorin für die Fachgebiete Technische Physik und Strömungslehre, Forschungsprofessur für Fluidmechanik, Institut für Strömung in additiv gefertigten porösen Strukturen,
Telefon: 07131-504-308, E-Mail: jennifer.niessner@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de
Prof. Dr. Michael Schindler, Leiter der Forschungssektion Molekulare Virologie, Institut für Medizinische Virologie und Epidemiologie der Viruskrankheiten, Telefon: 07071 29-87459, E-Mail:michael.schindler@med.uni-tuebingen.de,
Internet: http://www.medizin.uni-tuebingen.de
Forschungskommunikation Hochschule Heilbronn: Vera Winkler, Telefon: 07131-504-1156, E-Mail: vera.winkler@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de
Pressekontakt Hochschule Heilbronn: Vanessa Offermann, Telefon: 07131-504-553,
E-Mail: vanessa.offermann@hs-heilbronn.de Internet: http://www.hs-heilbronn.de
Medienkontakt Universitätsklinikum Tübingen: Stabsstelle Kommunikation und Medien, Hoppe-Seyler-Straße 6, 72076 Tübingen, Telefon: 07071 29-88548,
E-Mail: presse@med.uni-tuebingen.de, Internet: http://www.medizin.uni-tuebingen.de
Originalpublikation:
Titel der Originalpublikation
Natalia Ruetalo, Simon Berger et. al: “Inactivation of aerosolized SARS-CoV-2 by 254 nm UV-C irradiation”. Indoor Air, 21. September 2022.
DOI: https://doi.org/10.1111/ina.13115
Spurensuche: BfG wirkte an der Aufklärung des Fischsterbens an der Oder mit
Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Heute veröffentlichten das BMUV und das UBA den Statusbericht einer vom BMUV eingerichteten nationalen Expert/-innengruppe zum Fischsterben in der Oder. In die Arbeitsgruppe brachten Fachleute der BfG ihre Erfahrungen und Fähigkeiten mit ein. Die Untersuchungen der Bundesanstalt liefern wichtige Informationen, um die Ursachen der Katastrophe nachvollziehen zu können.
Für die Aufklärung des Fischsterbens an der Oder erhielt die Bundesanstalt für Gewässerkunde zur Untersuchung von Wasser- und Schwebstoffproben seit dem 12. August mehrere Bitten um Amtshilfe des Landeslabors Berlin-Brandenburg (LLBB) und des Landesamtes für Umwelt (LU) Brandenburg. Das BMUV bat die BfG im Rahmen der aktuellen „Verwaltungsvereinbarung im Bereich der Wasserwirtschaft sowie zur grenzüberschreitenden und internationalen Wasserkooperation“ tätig zu werden. In den darauffolgenden Wochen führten Mitarbeiterinnen und Mitarbeiter der BfG chemische und ökotoxikologische Analysen zur Identifizierung möglicher Schadstoffe durch. Weiter wurden von der BfG taxonomische und molekularbiologische Untersuchungen zur Identifizierung der Algenzusammensetzung vorgenommen.
Parallel dazu konstituierte sich eine deutsche Expertengruppe mit Fachleuten aus den Landesbehörden in Brandenburg, Mecklenburg-Vorpommern sowie dem THW, dem WSA Oder-Havel, dem BMUV, dem UBA und der BfG sowie eine polnisch-deutsche Expertengruppe. Gemeinsames Ziel war es, auf Basis der vorliegenden Informationen und der aktuellen Messergebnisse die möglichen Ursachen des Fischsterbens wissenschaftlich – soweit wie möglich – aufzuklären.
Dr. Birgit Esser, Leiterin der BfG: “In den vergangenen sechs Wochen haben meine Kolleginnen und Kollegen unter Hochdruck daran gearbeitet, um unseren Beitrag bei der Suche nach den Ursachen für das dramatische Fischsterben in der Oder zu liefern. Gemeinsam mit unseren Partnern haben wir eine breite und wissenschaftliche Datengrundlage geschaffen, die eine Bewertung der Hypothesen zu den Ursachen ermöglicht.“
Monitoringstationen bewähren sich
Bei Hohenwutzen, einem Ort im Landkreis Märkisch-Oderland, ist die BfG an einer automatisierten Messstation (Fluss-km 661,6) beteiligt. Die Station wird in Kooperation mit dem LfU Brandenburg und den Mitarbeitenden des WSA Oder-Havel betrieben. Mit Hilfe standardmäßig erhobener Tagesmischproben konnten u. a. die Zusammensetzung und der Eintrag der Salze, die zu einem Anstieg der elektrischen Leitfähigkeit des Oder-Wassers führten, identifiziert und im Vergleich mit Langzeitdaten eingeordnet werden.
Diese Informationen sind wichtige Indizien bei der Suche nach der Ursache der Katastrophe. Erhöhte Chloridkonzentrationen treten seit vielen Jahren in der Oder auf. Diese erhöhten Konzentrationen und die daraus resultierende hohe Leitfähigkeit sind nach Auffassung der BfG nicht unmittelbar ursächlich für das Sterben der Fische. Sie leisteten jedoch einen sehr deutlichen Beitrag, insbesondere als Sekundäreffekt in Bezug auf die Lebensbedingungen der Algen.
Giftige Toxine einer Brackwasser-Algenart in der Oder
Ein sprunghafter Anstieg der Sauerstoffkonzentration, des pH-Wertes und der Chlorophyllgehalte, sowie ein Absinken der Nitrat-Konzentration wiesen bereits früh auf eine massive Algenblüte in der Oder hin. Im Verdacht stand die Alge Prymnesium parvum, die eigentlich in salzhaltigen Gewässern beheimatet ist. Die Alge wurde durch molekularbiologische Analysen der BfG eindeutig identifiziert. In Hohenwutzen wurde am 16.08.2022 eine maximale Zellzahl von 141 Millionen Zellen P. parvum pro Liter festgestellt. Laut Literatur ist bereits ab einer Zellzahl von 20 Millionen Zellen pro Liter mit einem Fischsterben zu rechnen.
Es ist bekannt, dass P. parvum giftige Stoffwechselprodukte (Algentoxine) bilden kann. Mitarbeiterinnen und Mitarbeiter der BfG haben diese Toxine im Rahmen eines sogenannten Non-Target-Screening (NTS) in Gewässerproben der Oder identifiziert. Jedoch konnte die Konzentration der Toxine bislang nicht ermittelt werden, weil es keine allgemein zugänglichen Referenzstandards gibt. Weiter fehlen für diese Toxine abgesicherte Erkenntnisse, ab welchen Konzentrationen Fische und andere Organismen geschädigt oder getötet werden. Wissenschaftlich kann zum gegenwärtigen Zeitpunkt zwar kein eindeutiger Nachweis geführt werden, dass die Toxine zum Fischsterben geführt haben. Unter Berücksichtigung der gesammelten Erkenntnisse spricht jedoch viel dafür.
Detektivarbeit mit Spurenanalytik
Die Expert/-innen der BfG analysierten die Tagesmischproben der Messstation bei Hohenwutzen auch auf die darin enthaltenen Schadstoffe. Dazu führten sie u. a. das NTS durch. Diese Methode liefert eine Momentaufnahme von über tausend bekannten und unbekannten Substanzen in einer Probe und damit eine Art umfassenden „Fingerabdruck“. Durch das NTS wurde neben den Algentoxinen im Ereigniszeitraum auch ein erhöhtes Vorkommen anderer Substanzen detektiert, darunter z. B. Nebenprodukte, die bei der Herstellung von Herbiziden entstehen. Inwieweit einzelne dieser Substanzen oder deren Summe direkt oder indirekt zum Fischsterben beigetragen haben, ist derzeit nicht bekannt.
Zusätzliche Untersuchungen
Über die im Statusbericht veröffentlichten Ergebnisse hinaus führte die BfG weitere Analysen durch. So wurden beispielweise Wasser- und Schwebstoffproben auf 86 Metalle und weitere Elemente sowie zahlreiche organische Schadstoffe untersucht. Diese und weitere Ergebnisse wird die BfG zu einem späteren Zeitpunkt in einem separaten Bericht veröffentlichen.
Ausblick
Die BfG will sich auch an der Bearbeitung der aus wissenschaftlicher Sicht offenen Fragen beteiligen, z. B. zum Vorkommen von der Alge P. parvum und zur Wirkung der Algentoxine auf Fische. Der hohe Nutzen der Non-Target-Analytik hat sich gezeigt. Die BfG wird diese Methodik gezielt ausbauen und einsetzen. Dr. Birgit Esser, Leiterin der BfG: „Es ist insgesamt unser Anspruch, anthropogene und natürliche Effekte zu differenzieren und so wirksame Maßnahmen für die Gewässerentwicklung aus ökosystemarer und funktioneller Sicht abzuleiten. Mit diesem Grundverständnis bringt die BfG gerne ihre fachliche Expertise in die von Bund und Ländern initiierten weiteren Aktivitäten rund um die Oder ein.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thomas Ternes, Tel. 0261/1306-5560, Mail ternes@bafg.de
Dr. Franz Schöll, 0261/1306-5470, Mail schoell@bafg.de
Klimaschwankungen in Ostafrika waren ein Motor für die Evolution des Menschen
Eva Schissler Kommunikation und Marketing
Universität zu Köln
Interdisziplinäre Forschung in Südäthiopien zeigt, wie Schlüsselphasen des Klimawandels die menschliche Evolution, Ausbreitung sowie seinen technologischen und kulturellen Fortschritt beeinflusst haben / Veröffentlichung in „Nature Geoscience“
Drei Schlüsselphasen mit unterschiedlichen, dramatischen Klimaschwankungen im östlichen Afrika fielen mit Verschiebungen in der Entwicklung und Ausbreitung der Hominiden (alle menschlichen Vorfahren der Gattung Homo einschließlich des heutigen Menschen) in den letzten 620.000 Jahren zusammen. Das ergab eine Rekonstruktion der damaligen Umweltbedingungen anhand von Seesedimenten aus der unmittelbaren Nähe wichtiger paläoanthropologischer Siedlungsstätten in Südäthiopien. Ein internationales Tiefbohrprojekt unter der Leitung von Wissenschaftler*innen der Unis Köln, Potsdam, Aberystwyth und Addis Ababa nahmen die Rolle des Klimawandels für das jüngste Kapitel der menschlichen Evolution unter die Lupe. Die Ergebnisse der Forschungsstudie, geleitet von Dr. Verena Förster vom Institut für Geographiedidaktik der Universität zu Köln, an der mehr als 22 Forscher*innen aus 19 Einrichtungen in 6 Ländern beteiligt waren, sind unter dem Titel „Pleistocene climate variability in eastern Africa influenced hominin evolution“ in der Fachzeitschrift Nature Geoscience erschienen.
Trotz zahlreicher Fossilfunde von Hominiden in Ostafrika aus mehr als fünfzig Jahren waren die regionalen Umweltbedingungen während der Entwicklung und Ausbreitung des modernen Menschen und seiner Vorfahren bislang noch nicht ausreichend geklärt. Insbesondere für das Pleistozän (Eiszeit) vor 2.580.000 bis 11.700 Jahren gibt es keine kontinuierlichen und präzisen Paläo-Umweltdaten für den afrikanischen Kontinent.
Das Forschungsteam entnahm zwei zusammenhängende, 280 Meter lange Sedimentkerne aus dem Chew Bahir-Becken im Süden Äthiopiens. Chew Bahir liegt sehr abgelegen in einem tiefen tektonischen Graben in unmittelbarer Nähe des Turkana-Gebiets und des Omo-Kibish, einer Region wichtiger paläoanthropologischer und archäologischer Stätten. Die Bohrkerne liefern die vollständigsten Aufzeichnungen über einen so langen Zeitraum, die jemals in diesem Gebiet gewonnen wurden. Darüber hinaus können sie zeigen, wie unterschiedliche Klimaveränderungen den biologischen und kulturellen Wandel der Menschen in der Vergangenheit beeinflusst haben.
Ein interdisziplinäres Team aus den Bereichen der Geowissenschaften, Sedimentologie, Mikropaläontologie, Geologie, Geographie, Geochemie, Archäologie, Chronologie und Klimamodellierung bohrte die beiden Sedimentkerne, aus denen sie anhand von so genannten Proxies (Indikatoren wie Mikrofossilien oder Elementveränderungen) Daten zur Rekonstruktion der Klimageschichte der Region gewannen. Archäolog*innen, Evolutionsbiolog*innen und Evolutionsanthropolog*innen identifizierten daraus Phasen von Klimastress und Phasen mit günstigeren Bedingungen. Anhand dieser Informationen leiteten sie ab, wie diese Faktoren die Lebensräume der frühen modernen Menschen veränderten und seine biologische und kulturelle Entwicklung sowie seine Ausbreitung beeinflussten.
Konkret fanden die Wissenschaftler*innen heraus, dass eine Phase lang anhaltender und relativ stabiler feuchter Bedingungen von etwa 620.000 bis 275.000 Jahren vor heute günstige Lebensbedingungen für die Hominidengruppen des Gebietes bedeuteten. Diese im Allgemeinen stabile und feuchte Phase wurde jedoch durch eine Reihe kurzer, abrupter und extremer Trockenheitsschübe unterbrochen. Das führte wahrscheinlich zu einer Fragmentierung der Lebensräume, Verschiebungen in der Populationsdynamik und sogar zum Aussterben lokaler Gruppen. Infolgedessen mussten sich kleine, reproduktiv und kulturell isolierte Populationen an die dramatisch veränderten Umgebungen anpassen. Das beförderte mit hoher Wahrscheinlichkeit die Ausdifferenzierung der Hominiden in viele geografisch und anatomisch unterschiedliche Gruppen sowie die Abspaltung unserer modernen menschlichen Vorfahren von archaischen Gruppen.
Darauf folgte zwischen ca. 275.000 und 60.000 Jahren vor heute eine Phase mit erheblichen Klimaschwankungen, die immer wieder zu Veränderungen der Lebensräume in diesem Gebiet führte: von üppiger Vegetation mit tiefen Süßwasserseen zu sehr trockenen Landschaften, in denen ausgedehnte Seen zu kleinen salzhaltigen Pfützen vertrockneten. In dieser Phase gingen die Bevölkerungsgruppen allmählich von der Technologie des Acheuléen (ovale Handäxte aus Stein, die vor allem Homo ergaster und Homo erectus nutzten) zu höher entwickelten Technologien über. In dieser entscheidenden Phase entwickelte sich auch Homo sapiens in Ostafrika. Wichtige soziale, technologische und kulturelle Innovationen in dieser Phase wappneten die Menschen womöglich vor den schärfsten Auswirkungen der wiederkehrenden Umweltveränderungen. „Diese technischen und sozialen Innovationen, darunter differenziertere Werkzeuge und Langstreckentransport, hätten den modernen Menschen enorm anpassungsfähig an den wiederholt stark veränderten Lebensraum gemacht“, sagt Erstautorin Dr. Verena Förster.
In der Phase von etwa 60.000 bis 10.000 Jahren vor heute traten die extremsten Klimaschwankungen auf, darunter die trockenste Phase der gesamten Aufzeichnung. Diese Phase könnte den kontinuierlichen kulturellen Wandel der Bevölkerung beschleunigt haben. Das Forschungsteam geht davon aus, dass das kurzzeitige Überlappen von Feuchtigkeitsschüben in Ostafrika mit feuchten Phasen in Nordostafrika und im Mittelmeerraum günstige Migrationsrouten aus Afrika heraus entlang einer Nord-Süd-Achse entlang des Ostafrikanischen Grabensystems und in die Levante eröffnete, was die globale Ausbreitung des Homo sapiens ermöglicht haben könnte.
„Angesichts der aktuellen Bedrohungen durch den Klimawandel und die Überbeanspruchung natürlicher Ressourcen für den menschlichen Lebensraum ist es wichtiger denn je, die Beziehung zwischen Klima und menschlicher Entwicklung zu verstehen“, schlussfolgert die Wissenschaftlerin.
Die Forschung ist Teil des Hominin Sites and Paleolakes Drilling Project (HSPDP). Um die Auswirkungen unterschiedlicher Zeitskalen und Größenordnungen von Klimaveränderungen auf die Lebensbedingungen der frühen Menschen zu bewerten, wurden im Rahmen dieses Projekts aus fünf Seearchiven der Klimaveränderungen der letzten 3,5 Millionen Jahre Bohrkerne entnommen. Alle fünf Bohrlokationen in Kenia und Äthiopien befinden sich in unmittelbarer Nähe zu wichtigen paläoanthropologischen Fundstellen aus verschiedenen Stufen der menschlichen Evolution. Der Standort in Südäthiopien deckt dabei das jüngste Kapitel ab.
Im Rahmen des HSPDP wurde das Projekt vom International Continental Scientific Drilling Program (ICDP), der Deutschen Forschungsgemeinschaft (DFG), dem Natural Environment Research Council (NERC), der National Science Foundation (NSF) und dem DFG-Sonderforschungsbereich 806 „Our Way to Europe“ gefördert. Der SFB 806 war von 2009 bis 2021 an den Universitäten Köln, Bonn und Aachen angesiedelt und wurde von diesen Institutionen finanziell und strukturell großzügig unterstützt.
Wissenschaftliche Ansprechpartner:
Dr. Verena Förster
Originalpublikation:
Verena Foerster et al., Pleistocene climate variability in eastern Africa influenced hominin evolution, Nature Geoscience, 26.9.2022
https://www.nature.com/articles/s41561-022-01032-y
DOI: 10.1038/s41561-022-01032-y
„No War. Bildung als Praxis des Friedens“
Grit Gröbel Pressestelle
Fachhochschule Erfurt
Online-Ringvorlesung der Fakultät Angewandte Sozialwissenschaften im Wintersemester 2022/2023
Frieden ist nicht nur als die Abwesenheit von Krieg zu verstehen – das wäre negativer Frieden -, sondern Vorstellungen und Bedingungen eines positiven Friedens zu skizzieren und daran zu arbeiten. Positiver Frieden meint die Reduktion struktureller Gewalt; er ist ein Prozess, der auf den Abbau von Ungerechtigkeit und Ungleichheit zielt und zugleich Toleranz und die Akzeptanz von Vielfalt fördert sowie Gleichheit und die Entfaltung eines guten Lebens Aller will.
Ein positiver Friede bedarf der Friedensbildung und somit der Gestaltung von Bildungsprozessen. Darin liegt auch eine Aufgabe Sozialer Arbeit, insbesondere da diese mit Bildungsprozessen verknüpft ist. Insofern ist der Titel der Reihe programmatisch: Bildung kann zur Herstellung eines positiven Friedens beitragen. Hierzu sollen die Beispiele und Beiträge der Ringvorlesung beitragen:
Themen und Termine:
Die Online-Ringvorlesungen beginnen stets um 17:30 Uhr.
24.10.2022
Begrüßung und Einführung
Prof. Dr. Christine Rehklau (FH Erfurt), Prof. Dr. Claudia Lohrenscheit (HS Coburg)
Regionale Perspektiven auf den Krieg in der Ukraine
Mag. Sebastian Schäffer, Geschäftsführer des Instituts für den Donauraum und Mitteleuropa (IDM), Wien
7.11.2022
Organisation of social services during and after political confl ict – the role of grassroots, international and supranational organisations
Dr. Reima Ana Maglajlic, University of Sussex, United Kingdom
14.11.2022
Peacebuilding? Report from Slemani
Prof. Dr. Kristin Sonnenberg, Prof. Dr. Cinur Ghaderi; Evangelische Hochschule Rheinland-Westfalen-Lippe; Ass. Prof. Dr. Luqman Saleh Karim, Social Work De-partment, University of Sulaimani, Kurdistan Region of Iraq
21.11.2022
Lokale ‚Friedensbildung‘ – Perspektiven sozial- und kulturanthropologischer Friedensforschung
Dr. Philipp Naucke, Institut für Sozialanthropologie und Religionswissenschaft (ISAR), Philipps-Universität Marburg
28.11.2022
Social Work in the Context of War: What We Can Learn from Bosnia and Her-zegovina?
Prof. Dr. Sanela Bašić, University of Sarajevo, Faculty of Political Science, Depart-ment of Social Work
5.12.2022
Menschenrechte als Leitplanken für die Friedensarbeit. Das Beispiel der Su-che nach Verschwundenen in Kolumbien
Stefan Ofteringer, Dipl. Regionalwissenschaftler Lateinamerika, Berater für Men-schenrechte MISEREOR
12.12.2022
Global Citizenship Education als Perspektive für Frieden und Globale Ge-rechtigkeit
Prof. Dr. Hans Karl Peterlini, Institut für Erziehungswissenschaft und Bildungsfor-schung; Universität Klagenfurt
19.12.2022
Bildung – ein Ort epistemischer (und anderer) Gewalt?
Assoz. Prof. Mag. Dr. Claudia Brunner; Zentrum für Friedensforschung und Frie-densbildung; Institut für Erziehungswissenschaft und Bildungsforschung; Universität Klagenfurt
9.1.2023
Kriegsgesellschaftstheorie und ihre Konsequenzen für die Friedensbildung
Prof. i. R. Dr. Volker Kruse, Universität Bielefeld, Fakultät für Soziologie
16.1.2023
Krieg und Soziale Arbeit – Antinomien eines Berufsfeldes
Prof. Dr. Ruth Seifert, Ostbayerische Technische Hochschule (OTH) Regensburg
23.1.2023
Indigenous Peacemaking
Natasha Gourd, Traditional Court, at the Spirit Lake Nation – former Traditional Court Director of the Wodakota; Timothy Connors, Chief Judge; Verna Teller, Chief Jugde of the Pueblo of Isleta Nation
30.1.2023
Friedensarbeit als Element im Studium der Sozialen Arbeit
Assia Bitzan, Universität Tübingen; Prof. Dr. Kristin Sonnenberg, Evangelische Hochschule Rheinland-Westfalen-Lippe; Maria Mauersberger, Directora Fundación Mujeres en Paz, Colombia
Schlusswort: FG ISA, Prof. Dr. Andrea Schmelz
Alle Vorlesungen finden virtuell statt:
Hintergrund:
Seit dem 24. Februar 2022 erleben wir mit dem Beginn des Überfalls Russlands auf die Ukraine eine bis dahin nicht vorstellbare Steigerung des „Kata-strophischen“ in unserer Zeit. Zum Klimawandel und der noch immer grassierenden Pandemie kommt nun auch noch ein Krieg auf europäischem Boden. Gerade dieser zeigt noch einmal die Fragilität unserer globalisierten Welt und die darin liegenden Interdependenzen; Selbstverständlichkeiten bröckeln weiter und Eindeutigkeiten gehen verloren. Begriffe wie „Zeitenwende“ oder „Epochenbruch“ versuchen das Außergewöhnliche zu beschreiben.
Auch zeigt sich erneut die Vielfalt der Probleme in dieser globalisierten Welt wie in einem Brennglas: Abhängigkeiten von Öl, Gas, Kohle; Lieferketten- und Versorgungsprobleme. Soziale und Globale Ungleichheit wird sich verfestigen und Vulnerable, wie auch im Klimawandel und der Pandemie, sind die „Verliererinnen“.
Es stellen sich angesichts dessen viele Fragen, u.a.:
• Was ist eigentlich Frieden?
• Kann Soziale Arbeit das ignorieren?
• Welche Rolle kann oder soll sie darin spielen?
Hierauf gibt es, wie es in der Ringvorlesung diskutiert wird, eine klare Antwort: Als Menschenrechtsprofession muss Soziale Arbeit Position beziehen und sich zugleich als Akteurin der Friedensbildung verstehen und zudem einen Begriff von Frieden konzipieren. Dabei kann und muss sie vielfältige internationale Erfahrungen im Kontext von „peacebuilding“, in denen sie als Profession schon länger involviert ist, aufarbeiten, reflektieren und weiterdenken.
Wissenschaftliche Ansprechpartner:
Fachhochschule Erfurt, Fakultät Angewandte Sozialwissenschaften
Prof. Dr. phil. Ronald Lutz, E-Mail: lutz@fh-erfurt.de
Susanne Stribrny, E-Mail: stribrny@fh-erfurt.de
Weitere Informationen:
https://www.fh-erfurt.de/veranstaltungen/detailansicht/online-ringvorlesung Zur Veranstaltungswebsite
https://fh-erfurt.webex.com/fh-erfurt/j.php?MTID=mbc878cf72943ea1b669b3fff7134fb…
Direktlink zum Videokonferenzraum
Anhang
ASW_Plakat_Ringvorlesung
Climate Change Center Berlin Brandenburg: Berliner Kiezstruktur besonders klimafreundlich
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Klimafreundlich Städte planen mit Künstlicher Intelligenz
Studie des Climate Change Centers Berlin Brandenburg und der TU Berlin weist nach: Berliner Kiezstruktur besonders klimafreundlich
CO2-Emissionen des motorisierten Individualverkehrs müssen stark gesenkt werden, um Berlins Klimaziele zu erreichen. Ein großes Potenzial zur Einsparung von CO2-Emissionen im Transportsektor liegt in der Veränderung der urbanen Infrastruktur. Das zeigt der neueste Sachstandsbericht des Weltklimarats. Jedoch ist es bisher nicht klar, wie genau die Infrastruktur der Hauptstadt das individuelle Fahrverhalten der Berliner*innen und die damit verbundenen CO2-Emissionen beeinflusst. Wissenschaftler*innen der TU Berlin entwickeln eine KI-gestützte Methode, um den Einfluss der gebauten Umgebung auf den motorisierten Stadtverkehr zu ermitteln und damit Grundlagen für eine klimafreundliche Stadtplanung zu schaffen. Eine Studie mit ersten Ergebnissen ihrer Untersuchungen haben sie soeben in der renommierten Fachzeitschrift „Transportation Research“ veröffentlicht.
Die Studie des neugegründeten Climate Change Centers Berlin Brandenburg (CCC), unterstützt vom Mercator Research Institute on Global Commons and Climate Change (MCC Berlin), zeigt: Vor allem die Ausdehnung der Stadt, aber auch die Entfernung zu lokalen Kiezzentren, können einen großen Einfluss auf die gefahrenen PKW-Wegstrecken und auf die damit einhergehenden CO2-Emissionen haben. So wird deutlich, dass kurze Entfernungen zu Kiezzentren mit kürzeren Autofahrten einhergehen und dass, je weiter man sich vom Stadtzentrum entfernt, Wegstrecken und gekoppelte CO2-Emissionen exponentiell ansteigen. Dies betrifft vor allem Stadtteile im Süd-Osten (Marzahn-Hellersdorf, Treptow-Köpenick) sowie im Süd-Westen (Steglitz-Zehlendorf und Spandau). Außerdem zeigt sich, dass vor allem PKWs aus Stadtteilen mit einkommensschwacher Bevölkerungsstruktur längere PKW-Wegstrecken zurücklegen müssen. Das spreche, so die Wissenschaftler*innen, für Stadtplanungsstrategien, die auf eine Verdichtung der Innenstadt abzielen und gleichzeitig die Peripherien von der Abhängigkeit vom Auto befreien.
3,5 Millionen Autofahrten und hochauflösende Daten zur städtischen Bebauung wurden ausgewertet
Die Autor*innen der Studie haben für ihre Untersuchungen eine für den Kontext der Stadtplanung neu entwickelte KI-Methode verwendet sowie eine Stichprobe von 3,5 Millionen Autofahrten über ein Jahr lang und hochauflösende Daten zur städtischen Bebauung. Die Ergebnisse zeigen, wie KI für klimaschutzrelevante Anwendungen eingesetzt werden kann. Der leitende Autor der Studie, Felix Wagner, Doktorand am MCC, einem An-Institut der TU Berlin, sagt: „Das Potenzial von KI im Bereich der nachhaltigen Stadtplanung liegt darin, dass man stadtübergreifende Dynamiken, wie auch lokale Details in einem Modell berücksichtigen kann.“
Lokale Subzentren sind wichtig für nachhaltige Mobilität in Berlin
Prof. Dr. Felix Creutzig, wissenschaftlicher Koordinator des Climate Change Centers Berlin Brandenburg (CCC) und Koautor der Studie, betont die klimapolitische Bedeutung dieser neuen Methode: „Mit der Auswertung und Anwendung städtischer Big Data-Komponenten können Stadtplaner*innen agil und schnell wünschenswerte Ziele wie die Klimafreundlichkeit einschätzen. Gerade in Zeiten des Personalmangels kann dieser Ansatz effektiv helfen, die Klimaschutzziele bis 2045 zu erreichen.“ Entsprechend treibe das CCC, die Berlin-Brandenburger Klima-Allianz unter Federführung der TU Berlin, mit Unterstützung des MCC Berlin die Entwicklung von klimaschutzrelevanten KI-Anwendungen weiter voran.
Die Ergebnisse zeigen auch, wie wichtig lokale Subzentren für eine nachhaltige Mobilität in Berlin sind. Während die Studie von Felix Wagner einen ersten Ansatz darstellt, soll in weiteren Forschungen der Fokus noch mehr darauf gerichtet werden, den Einfluss zukünftiger Planungsstrategien auf Nachhaltigkeit vorherzusagen. Öffentlich zugängliche Daten auf Portalen wie https://daten.berlin.de/ können helfen, so Felix Creutzig, klimarelevante Stadtplanungsstrategien voranzutreiben. Dies könne die Berliner Senatsverwaltungen und Stadtplaner*innen unterstützen, Entscheidungen zu treffen, die den Klimaschutz stärker berücksichtigen.
http://www.climate-change.center/
http://www.mcc-berlin.net
Veröffentlichung in „Transportation Research“
Wagner, F., Milojevic-Dupont, N., Franken, L., Zekar, A., Thies, B., Koch, N., & Creutzig, F. (2022). Using explainable machine learning to understand how urban form shapes sustainable mobility. In: Transportation Research Part D: Transport and Environment, 111, 103442:
https://doi.org/10.1016/j.trd.2022.103442
Weitere Informationen erteilen Ihnen gern:
Prof. Dr. Felix Creutzig
TU Berlin
Fachgebiet Sustainable Economics of Human Settlements Berlin
E-Mail: creutzig@mcc-berlin.net
Felix Wagner
TU Berlin
Mercator Research Institute on Global Commons and Climate Change
Working group Land Use, Infrastructure and Transport
E-Mail: Wagner@mcc-berlin.net
Herzinfarkt unter 50? Blutfette beachten und Lipoprotein(a)-Wert bestimmen!
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Neben den Blutfetten LDL-Cholesterin und Triglyceride ist auch Lipoprotein(a) ein neuartiger Risikofaktor für Herzinfarkt und Schlaganfall. Ein Aktionsbündnis aus Patientenorganisationen sowie Herz- und Gefäßgesellschaften sensibilisiert für die Wichtigkeit von erhöhtem Lp(a) in der Infarktprävention. Aufklärungsaktion zum Weltherztag am 29. September.
Für die Betroffenen ist es ein Schock: Herzinfarkt – und das mit nicht mal 40 Jahren! Im Zuge der routinemäßigen Blutuntersuchung stellt sich bei jüngeren Infarktpatient*innen oftmals heraus, dass der Wert eines bestimmten Blutfetts: Lipoprotein(a), kurz Lp(a), stark erhöht ist. Lp(a) ist ein Cholesterin-Partikel, das dem LDL-Cholesterin (LDL-C/LDL=Low Density Lipoprotein), einem wichtigen Risikofaktor für Herz-Kreislauf-Erkrankungen, ähnelt. Auch stellt sich meist heraus, dass auch bei Familienangehörigen der Betroffenen bereits im jüngeren Lebensalter Herzinfarkte aufgetreten sind. „Das macht Lp(a) neben LDL-C zu einem weiteren lipidbasierten Marker für kardiovaskuläre Komplikationen wie Herzinfarkt und Schlaganfall. Das gilt besonders bei jüngeren Frauen und Männern und wenn keine klassischen Risikofaktoren vorliegen“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Deutschen Herzstiftung. „Ärztinnen und Ärzte müssen in der medizinischen Versorgung von Patient*innen mit Fettstoffwechselstörungen auch das Lp(a) als relativ neuen Risikofaktor auf dem Schirm haben. Aber auch die Bevölkerung muss über Lp(a) und Fettstoffwechselstörungen insgesamt gut informiert sein, um Risiken für Herz und Gefäße rechtzeitig vorzubeugen“, fordert der Herzstiftungs-Vorsitzende gemeinsam mit einem Aktionsbündnis der Deutschen Gesellschaften für Kardiologie – Herz- und Kreislaufforschung (DGK), für Angiologie (DGA), für Prävention und Rehabilitation von Herz-Kreislauferkrankungen (DGPR), zur Bekämpfung von Fettstoffwechselstörungen und ihren Folgeerkrankungen DGFF (Lipid-Liga) sowie der LipidHilfe-Lpa.
Unter dem Motto „Herzinfarkt unter 50? Blutfette beachten, Lp(a)-Wert bestimmen!“ sensibilisiert das Aktionsbündnis Ärzt*innen und die Bevölkerung für die Gefahr von Herzinfarkt und Schlaganfall durch Fettstoffwechselstörungen wie hohe Cholesterin-, Triglycerid- und Lp(a)-Werte und informiert anlässlich des Weltherztags unter www.herzstiftung.de/weltherztag und www.herzstiftung.de/podcast-lipoprotein
Was macht Lp(a) zum bösartigen Blutfett für die Gefäße?
Lp(a) gehört zu den Transportproteinen für Cholesterin, so wie LDL, dem es strukturell ähnelt. An Lp(a) ist zusätzlich ein weiteres Eiweiß, das Apolipoprotein A, kurz Apo(a), gebunden. Dieses Apo(a), kann im Gefäßsystem chronische Entzündungen verursachen und in der Gefäßwand abgelagert werden und so die Gefäßverkalkung (Arteriosklerose) beschleunigen. Auch hat dieses an Lp(a) gebundene und als „Kringle“ bezeichnete Apo(a) eine prothrombotische Wirkung, indem es zur Bildung von Blutgerinnseln beiträgt. Diese drei bösartigen Eigenschaften von Lp(a) erhöhen das Risiko für Herz-Kreislauf-Komplikationen wie Herzinfarkt und Schlaganfall sowie Herzklappenverengungen, darunter die Aortenklappenstenose (5).
Lp(a) meist genetisch bestimmt: Gesamtrisiko rückt in Fokus der Therapie
Die Lp(a)-Konzentration im Blut ist ganz überwiegend (> 90 %) genetisch bestimmt und bleibt somit im Leben weitgehend gleich. Eine Senkung des Lp(a)-Spiegels durch einen gesunden Lebensstil (Sport, Ernährung) und mit Medikamenten ist daher (noch) nicht möglich. Klinische Studien für eine medikamentöse Therapie des Lp(a) laufen derzeit. „Vor diesem Hintergrund ist für Personen mit erhöhtem Lp(a)-Wert umso wichtiger, ihr individuelles kardiovaskuläres Gesamtrisiko zu senken. Vorhandene Risikofaktoren können beispielsweise Rauchen, Bluthochdruck, erhöhtes LDL-Cholesterin und Diabetes mellitus sein. Liegt erhöhtes Lp(a) zusätzlich zu diesen Risikokrankheiten vor, ist das Risiko für Herz-Kreislauf-Erkrankungen stark erhöht“, warnt Prof. Dr. Bernhard Schwaab, Präsident der DGPR. „Bei erhöhter Lp(a)-Konzentration im Blut sollten Ärzt*innen deshalb Betroffene dazu animieren, generell ihr Risiko für Herz-Kreislauf-Erkrankungen zu senken, indem sie nicht rauchen, sich regelmäßig ausdauernd bewegen, gesund ernähren und Übergewicht vermeiden. Auch sollten sie ihren Blutdruck, Blutzucker und Blutfette wie LDL-C und Triglyceride regelmäßig kontrollieren“, so Schwaab. Dieses Vorgehen gilt ganz besonders auch für Personen mit erhöhtem Lp(a) und Durchblutungsstörungen als Folge der Arteriosklerose wie koronare Herzkrankheit (KHK) oder periphere arterielle Verschlusskrankheit (pAVK). Nach den Empfehlungen einer Expert*innengruppe der European Atherosclerosis Society (EAS) in einem Konsensus-Statement liegt ein erhöhtes Risiko bei Werten zwischen 30-50 mg/dl oder 75-125 nmol/l vor (1). Nach Expertenangaben weisen bis zu 20 % der Allgemeinbevölkerung erhöhte Lp(a)-Spiegel auf (3).
Jeder soll einmal im Leben seinen Lp(a)-Wert bestimmen lassen
Jede/r Erwachsene sollte einmalig seinen/ihren Lp(a)-Wert mit einem Bluttest bestimmen lassen. Dadurch sollen vor allem Personen mit sehr hohen Lp(a)-Spiegeln (>180 mg/dl bzw. >430 nmol/l) identifiziert werden mit einem vergleichbar hohen Risiko für Herz-Kreislauf-Erkrankungen (4). Die Kosten für den Bluttest tragen in der Regel die Krankenkassen, wenn ein begründeter Verdacht oder ein erbliches Risiko vorliegt. Den einmaligen Bluttest propagieren übereinstimmend die Herzstiftung und ihre Partner im Aktionsbündnis und folgen damit einer Empfehlung der EAS. „Alle Erwachsenen und Familienangehörige von Personen mit Gefäßverkalkungen im mittleren und jüngeren Lebensalter, die beispielsweise an einer koronaren Herzkrankheit leiden oder einen Herzinfarkt erlitten, sollten ihren Lp(a)-Wert im Blut bestimmen lassen“, raten DGPR-Präsident Prof. Schwaab und der Herzstiftungs-Vorsitzende Prof. Voigtländer. „Aufgrund der erblichen Komponente sollten auch die Kinder von Personen mit erhöhtem Lp(a)-Wert einem Blut-Check unterzogen werden“, fügt Dr. Christoph Altmann, Mitinitiator des Aktionsbündnisses und Ehrenvorsitzender des Landesverbands Sachsen der DGPR (LVS/PR) hinzu. Desweiteren ist eine Lp(a)-Bestimmung sinnvoll insbesondere bei folgenden Personen (2):
– bei Patienten mit einer Arteriosklerose vor dem 60. Lebensjahr (Männer)
– bei Patienten mit einer Familiären Hypercholesterinämie (FH)
– bei Patienten, bei denen eine Arteriosklerose oder eine KHK voranschreitet, obwohl der LDL-C-Zielwert medikamentös erreicht ist
Lipoprotein-Apherese (Blutwäsche): Therapieoption für wen?
Die Blutwäsche in Form der Lipoprotein-Apherese kann für eine bestimmte Patientengruppe mit rasch fortschreitenden arteriosklerotischen Erkrankungen (KHK, pVAK) und hohen Lp(a)-Konzentrationen erwogen werden. Die Apherese ist ein der Dialyse ähnliches Verfahren außerhalb des Körpers. Lp(a) und LDL-C werden innerhalb von 1,5 bis 3 Stunden aus dem Blut herausgefiltert. Je nach Lp(a)-Konzentration muss die Apherese wöchentlich oder alle zwei Wochen durchgeführt werden, weil sich rasch die Lp(a)-Werte wieder erhöhen. Für betroffene Patient*innen, die wegen stark erhöhter Lp(a)-Werte einen oder mehrere Infarkte erlitten haben, ist die Apherese derzeit eine Option, den Lp(a)-Wert im Blut immer wieder zu senken und so einen weiteren Infarkt zu vermeiden.
(wi)
Quellen:
(1) Kronenberg F. et al., Lipoprotein(a) in atherosclerotic cardiovascular disease and aortic stenosis: a European Atherosclerosis Society consensus statement, European Heart Journal, ehac361, https://doi.org/10.1093/eurheartj/ehac361
(2) DGFF (Lipid-Liga) (Hg.), Lipoprotein(a) – ein Risikofaktor für Herz-Kreislauf-Erkrankungen, Frankfurt a. M. 2022.
(3) Buchmann N. et al., Dtsch Arztebl Int 2022; 119: 270-6; DOI: 10.3238/arztebl.m2022.0153
(4) Wienbergen H. et al, Dtsch Arztebl 2021; 118(15): [16]; DOI: 10.3238/PersKardio.2021.04.16.05
(5) Video-Clip „Hohes Lipoprotein(a) – Was tun?“ mit Prof. Dr. Ulrich Laufs
(Leipzig): www.youtube.com/watch?v=5NNo64NMjbY&t=
Service-Tipps:
Unter dem Motto „Herzinfarkt unter 50? Blutfette beachten, Lp(a)-Wert bestimmen!“ bietet das Aktionsbündnis anlässlich des Weltherztags umfangreiche Informationen zum Thema Fettstoffwechselstörungen (hohes Cholesterin) und Lp(a) unter www.herzstiftung.de/weltherztag
Lp(a) im Herzstiftungs-Podcast: Der Podcast „Herzinfarkt-Risiko: Das sollten Sie über Lipoprotein (a) wissen“ mit dem Kardiologen und Lipid-Spezialisten Prof. Dr. Ulrich Laufs (Universitätsklinikum Leipzig) ist abrufbar unter www.herzstiftung.de/podcast-lipoprotein
Ratgeber zum Thema Hohes Cholesterin/Lp(a): Was tun?
Informationen über Ursachen und Folgen hoher Cholesterin-/Lp(a)-Werte sowie zu den aktuellen Therapieempfehlungen finden Betroffene unter www.herzstiftung.de/cholesterin bzw. in der Sprechstunde unter www.herzstiftung.de/lipoprotein-senken
Der kostenfreie Ratgeber „Hohes Cholesterin: Was tun?“ ist unter www.herzstiftung.de/bestellung oder per Tel. unter 069 955128-400 anzufordern.
Den Ratgeber „Lipoprotein(a) – ein Risikofaktor für Herz-Kreislauf-Erkrankungen“ bietet die DGFF (Lipid-Liga) kostenfrei (PDF) unter www.lipid-liga.de/buecher/lipidprotein-a
Video-Clips zu Lp(a)
Patientinnen-Portrait „Herzinfarkt unter 50? Blutfette beachten! Lipoprotein(a) bestimmen!“: Eine Lp(a)-Patientin berichtet eindrücklich über ihren Herzinfarkt mit 30 Jahren, auch Lipid-Experten kommen zu Wort: www.youtube.com/watch?v=gd0926Oo5ng
Experten-Film für Ärzt*innen „Herzinfarkt unter 50? Blutfette beachten! Lipoprotein(a) bestimmen!“ mit Herz- und Gefäßspezialistin Dr. Gesine Dörr (DGA): www.youtube.com/watch?v=e2eCX_QpKNc
Experten-Statements aus dem Aktionsbündnis
Vorstand, Deutsche Gesellschaft für Angiologie (DGA):
„Patienten mit peripherer arterieller Verschlusskrankheit (pAVK) haben ein sehr hohes Risiko für arterielle Gefäßerkrankungen. Erhöhtes LDL-Cholesterin und ein erhöhtes Lipoprotein (a) sind unabhängige, genetisch determinierte Risikofaktoren für das Auftreten von Stenosen im Gefäßsystem. Das frühzeitige Erkennen und die Behandlung dieser Risikofaktoren ist ein essenzieller Bestandteil der Primär- und Sekundärprävention. Die Deutsche Gesellschaft für Angiologie unterstützt daher dieses Aktionsbündnis, um Patienten mit hohem Risiko frühzeitig zu erkennen und eine nachhaltige Behandlung von Fettstoffwechselstörungen zu gewährleisten.“
Dr. med. Anja Vogt, stellv. Vorsitzende, Deutsche Gesellschaft zur Bekämpfung von Fettstoffwechselstörungen und ihren Folgeerkrankungen DGFF (Lipid-Liga):
„Seine LDL-Cholesterin-, Lp(a)- und Triglyzeridwerte sollte jeder kennen und früh aktiv werden, wenn sie erhöht sind. Denn dann fördern sie Atherosklerose und man riskiert Herzinfarkt, Schlaganfall und Durchblutungsstörungen der Beine. Diese schweren Erkrankungen kommen eben oft nicht aus heiterem Himmel. Und da viele Fettstoffwechselstörungen vererbt sind, muss man auch an Verwandte denken. Den Menschen das nahezubringen, ist die Triebfeder der DGFF (Lipid-Liga), beim Aktionsbündnis dabei zu sein.“
Dr. med. Manju Guha, Sprecherin der AG14, Arbeitsgemeinschaft „Präventive und rehabilitative Kardiologie“ der Deutschen Gesellschaft für Kardiologie, Herz- und Kreislaufforschung (DGK):
„Herzinfarkte bei Jüngeren sind häufiger als vermutet. Am Bremer Herzzentrum wurde 2015 gezeigt, dass jeder 15. Infarktpatient jünger als 45 Jahre ist. Der Infarkt ist oft schwer, mehr als bei Älteren überleben das erste Jahr nicht, belastend für junge Betroffene ohne klassisches Risikoprofil. Angeborene Störungen, wie ein hoher Lipoprotein(a)-Spiegel (Lp(a)), steigern das Risiko für einen Herzinfarkt. Lp(a) ist ein eigenständiger Risikofaktor und sollte bei jedem einmal im Leben bestimmt werden.“
Weitere Infos zum Thema
Überschüssige Fette im Blut
Grundsätzlich ist Cholesterin kein schädlicher Stoff, sondern sogar lebenswichtig als Baustein für Zellwände sowie als Ausgangsstoff für die Bildung von Gallensäuren und verschiedenen Hormonen. Problematisch wird es, wenn zu viel von der fettähnlichen Substanz im Blut anfällt.
LDL: Das Low Density Lipoprotein (LDL) arbeitet im Körper als Transportvehikel. Es bringt das Blutfett Cholesterin von der Leber (wo Cholesterin zu etwa drei Vierteln hergestellt wird, der Rest wird mit der Nahrung aufgenommen) zu den Organen. Sie nutzen Cholesterin als Baustein, um etwa Hormone oder Vitamin D zu produzieren. Zirkuliert zu viel LDL-Cholesterin im Blut, lagert es sich in den Wänden der Gefäße ab. Dadurch entsteht eine Gefäßverkalkung. Gemeinsam mit anderen Risikofaktoren steigern diese Verkalkungen das Risiko für Durchblutungsstörungen von Organen und schwerwiegende Ereignisse wie Herzinfarkt und Schlaganfall. Ziel einer Behandlung ist daher in erster Linie, dieses Risiko zu senken und Herzinfarkte und Schlaganfälle zu verhindern. Sind die Werte nur leicht erhöht, reicht häufig bereits eine Umstellung der Ernährungs- und Bewegungsgewohnheiten, um das Risiko deutlich zu senken. Bei stark erhöhten Werten oder wenn Lebensstilmaßnahmen nicht ausreichen, sollte eine medikamentöse Therapie erfolgen. Informationen über aktuelle Therapiemöglichkeiten und -empfehlungen finden Betroffene unter www.herzstiftung.de/cholesterin
Lipoprotein(a): Mit der Nahrung aufgenommene Fette können nicht einfach frei im Blut schwimmen. Sie werden von Lipoproteinen in Empfang genommen und transportiert. Das Lipoprotein(a) ist dem LDL-Cholesterin sehr ähnlich; liegen zu hohe Konzentrationen im Blut vor, führt es zu Gefäß- und Herzklappenerkrankungen. Die Höhe an Lp(a) im Körper ist vererbt. Der Lebensstil hat nur einen minimalen Einfluss. Lp(a) sollte bei jedem Menschen einmal im Leben bestimmt werden, insbesondere bei Familienangehörigen von Personen mit Gefäßverkalkungen in jüngerem Lebensalter. Bei hohem Lp(a) ist eine sorgfältige Senkung aller Risikofaktoren und des LDL-Cholesterins notwendig (Infos: www.herzstiftung.de/podcast-lipoprotein).
HDL: Das High Density Lipoprotein ist ein weiterer für Cholesterin zuständiger Transporter. HDL transportiert Cholesterin zwischen verschiedenen Transportern und der Leber. Nicht jedes HDL hat eine positive Funktion. Daher kann ein hoher HDL-Wert ein hohes LDL nicht wettmachen.
Triglyceride (Neutralfette): Natürlich vorkommende Fette, die mit der Nahrung aufgenommen werden, etwa mit Butter, Fleisch oder Milchprodukten. Was der Körper nicht unmittelbar verwertet, speichert er im Fettgewebe. Erhöhte Triglycerid-Werte begünstigen die Arteriosklerose. Hohe Triglyceride können durch Kalorienreduktion (insbesondere Verzicht auf Alkohol) und Sport günstig beeinflusst werden.
Quelle: Deutsche Herzstiftung (Hg.), Hohes Cholesterin: Was tun?, Frankfurt a. M. 2021
Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114
Presse-Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle: Michael Wichert (Ltg.) /Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Weitere Informationen:
http://www.herzstiftung.de/weltherztag – Infos zur Herz-Kreislauf-Gesundheit
http://www.herzstiftung.de/podcast-lipoprotein – Podcast zu Lp(a)
http://www.herzstiftung.de/lipoprotein-senken – Sprechstunde zu Lp(a)
Anhang
PM_DHS_Aktionsbündnis-Weltherztag-Herzinfarkt-unter-50_2022-09-29_Final
Mehrjährige Blühstreifen in Kombination mit Hecken unterstützen Wildbienen in Agrarlandschaften am besten
Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Blühzeitpunkte von Blühstreifen und Hecken ergänzen sich gegenseitig und fördern Bienendiversität
• Vivien von Königslöw: „Ergebnisse legen nahe, bevorzugt mehrjährige Blühstreifen statt einjährige Blühstreifen zu pflanzen, denn diese blühen im zweiten Standjahr viel früher als im Jahr der Aussaat und fördern über die Jahre verschiedene Bienengemeinschaften.“
Landwirt*innen sollten ein Netzwerk aus mehrjährigen Blühstreifen in Kombination mit Hecken schaffen, um Wildbienen ein kontinuierliches Blütenangebot zu bieten. Zu dieser Empfehlung kommen die Ökolog*innen Dr. Vivien von Königslöw, Dr. Felix Fornoff und Prof. Dr. Alexandra-Maria Klein vom Institut für Geo- und Umweltnaturwissenschaften an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg nach ihren Untersuchungen in Apfelplantagen in Süddeutschland. Ihre Forschungsergebnisse veröffentlichten sie im Journal of Applied Ecology.
Weniger Wildbienen wegen Blütenmangel
„In intensiven Agrarlandschaften sind Wildbienen vielfach selten geworden, da meist nur wenige Blüten als Nektar- und Pollenquellen zur Verfügung stehen“, erklärt von Königslöw. „Eine Kombination aus Blühstreifen und Hecken am Rand der Produktionsflächen könnte diesen Mangel an Blüten ausgleichen, denn ihre Blühzeitpunkte ergänzen sich gegenseitig.“
Bienendiversität durch Netzwerk von mehrjährigen Blühstreifen mit blütenreichen Hecken fördern
Das Forschungsteam verglich von 2018 bis 2020 die zeitliche Entwicklung der Blühressourcen und der Wildbienengemeinschaften in mehrjährigen Blühstreifen und Hecken am Rand von 18 konventionellen Apfelplantagen. „Unsere Ergebnisse legen nahe, bevorzugt mehrjährige Blühstreifen statt einjährige Blühstreifen zu pflanzen, denn diese blühen im zweiten Standjahr viel früher als im Jahr der Aussaat und fördern über die Jahre verschiedene Bienengemeinschaften. Am besten ergänzt man das Blütenangebot mit arten- und blütenreichen Hecken“, so von Königslöw.
In ihrer Studie beobachteten die Freiburger Ökolog*innen, dass die Wildbienen die Hecken hauptsächlich im zeitigen Frühjahr und teilweise auch noch bis in den Juni hinein besuchten. Die Blühstreifen suchten sie im ersten Standjahr hingegen erst von Juni bis August auf, doch ab dem zweiten Jahr bereits schon ab April. Insgesamt betrachtet war die Bienenanzahl und Artenvielfalt in den Blühstreifen höher als in den Hecken.
Faktenbox:
● Alexandra-Maria Klein leitet seit 2013 die Professur für Naturschutz und Landschaftsökologie an der Universität Freiburg. Ihre Forschungsschwerpunkte liegen bei: Bienen und ihrer Bestäubung von Nutzpflanzen sowie Biodiversitätsförderung in der Agrarlandschaft.
● Klein ist Mitglied der DFG Senatskommissionen für Grundsatzfragen der Genforschung und Grundsatzfragen der Biodiversität und ist in mehreren Beiräten der Landesregierung in Baden-Württemberg tätig.
● Originalpublikation:
von Königslöw, V., Fornoff, F., Klein, A.M. (2022): Temporal complementarity of hedges and flower strips promotes wild bee communities in apple orchards. Journal of Applied Ecology. DOI: 10.1111/1365-2664.14277
Wissenschaftliche Ansprechpartner:
Dr. Vivien von Königslöw
Institut für Geo- und Umweltnaturwissenschaften
Albert-Ludwigs-Universität Freiburg
Tel.: 0163 6151841
E-Mail: vivien.von.koenigsloew@nature.uni-freiburg.de
Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/mehrjaehrige-bluehstreifen-in-komb…
Brennstoff aus Treibhausgas
Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Vereinzelte Goldatome als Katalysator für die selektive Methanisierung von Kohlendioxid
Ein Schritt in Richtung CO2-Neutralität und damit zur Abmilderung des Treibhauseffekts sowie der Energiekrise könnte die Umwandlung von CO2 in Kohlenwasserstoff-basierte Brennstoffe wie Methan sein – angetrieben durch Sonnenlicht. In der Zeitschrift Angewandte Chemie stellt ein chinesisches Forschungsteam einen geeigneten, sehr effektiven Photokatalysator auf Basis vereinzelter Goldatome vor.
Die photokatalytische Umwandlung von CO2 läuft über eine Reihe von Prozessen, bei denen Elektronen übertragen werden. Dabei können verschiedenen Produkten entstehen, u.a. Kohlenmonoxid (CO), Methanol (CH3OH), Methan (CH4) sowie weitere Kohlenwasserstoffe. Acht Elektronen müssen für den Weg von CO2 zu CH4 transferiert werden – mehr als für andere C1-Produkte. Methan als Endprodukt ist zwar thermodynamisch bevorzugt, aber die Konkurrenzreaktion zu CO etwa benötigt nur zwei Elektronen und läuft viel schneller ab, ist also kinetisch bevorzugt. Eine effektive und selektive Methanisierung ist daher besonders herausfordernd.
Das Team um Hefeng Cheng von der Shandong University in Jinan hat jetzt einen praktikablen Ansatz entwickelt, um CO2 mittels Sonnenenergie effizient in Methan zu verwandeln. Schlüssel zum Erfolg ist ein neuartiger Katalysator mit einzelnen Goldatomen. Da Goldatome bei konventionellen Präparationsmethoden aggregieren, entwickelte das Team eine neue Strategie über einen Komplex-Austausch zur Herstellung des Katalysators.
Einzelatom-Katalysatoren verhalten sich aufgrund ihrer besonderen elektronischen Strukturen anders als herkömmliche Metall-Nanopartikel. Auf einem geeigneten Trägermaterial fixiert sind zudem quasi alle einzelnen Atome als katalytisch aktive Zentren zugänglich. Bei diesem neuen Katalysator sind einzelne Goldatome auf einer ultradünnen Zink-Indium-Sulfid-Nanoschicht verankert und mit nur je zwei Schwefelatomen koordiniert. Unter Sonnenlicht zeigte sich der Katalysator sehr aktiv bei einer Methan-Selektivität von 77 %.
Ein Photosensibilisator (ein Ruthenium-Komplex) absorbiert Licht, wird angeregt und nimmt ein Elektron auf, das von einem Elektronen-Donor (Triethanolamin) zur Verfügung gestellt wird, und gibt es an den Katalysator weiter. Die einzelnen Goldatome auf der Oberfläche des Trägermaterials agieren als „Elektronenpumpen“: Sie fangen die Elektronen wesentlich effektiver ein als z.B. Gold-Nanopartikel und übertragen sie dann auf CO2-Moleküle und Intermediate.
Detaillierte Charakterisierungen und Computerberechnungen ergaben, dass der Katalysator die CO2-Moleküle zudem deutlich stärker als Gold-Nanopartikel aktiviert, die angeregte *CO-Zwischenstufe stärker adsorbiert, die Energiebarriere für die Bindung von Wasserstoffionen senkt und die angeregte *CH3-Zwischenstufe stabilisiert. So kann sich bevorzugt CH4 bilden, während die Freisetzung von CO minimiert wird.
Angewandte Chemie: Presseinfo 19/2022
Autor/-in: Hefeng Cheng, Shandong University (China), https://faculty.sdu.edu.cn/chenghefeng/
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.
Originalpublikation:
https://doi.org/10.1002/ange.202209446
Weitere Informationen:
http://presse.angewandte.de
Mit Metallen gegen Pilzinfektionen
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Eine internationale Kollaboration unter der Leitung von Forschenden der Universität Bern und der University of Queensland in Australien hat gezeigt, dass chemische Verbindungen mit speziellen Metallen hocheffektiv gegen gefährliche Pilzinfektionen sind. Mit diesen Ergebnissen könnten innovative Medikamente entwickelt werden, die gegen resistente Bakterien und Pilze wirksam sind.
Jährlich erkranken über eine Milliarde Menschen an einer Pilzinfektion. Obwohl diese für die meisten Leute harmlos sind, sterben mehr als 1.5 Millionen Patienten und Patientinnen pro Jahr an den Folgen einer solchen Infektion. Während immer mehr Pilzstränge nachgewiesen werden, die gegen eine oder mehrere der verfügbaren Medikamente resistent sind, ist die Entwicklung von neuen Medikamenten in den letzten Jahren fast zum Stillstand gekommen. So laufen heute nur rund ein Dutzend klinische Studien mit neuen Wirkstoffen gegen Pilzinfektionen. «Im Vergleich zu den über tausend Krebsmedikamenten, die zurzeit an Menschen getestet werden, ist dies eine verschwindend kleine Menge», sagt Dr. Angelo Frei vom Departement für Chemie, Biochemie und Pharmazie der Universität Bern, Erstautor der Studie. Die Ergebnisse wurden in der Fachzeitschrift JACS Au publiziert.
Mit Crowd-Sourcing die Antibiotikaforschung ankurbeln
Um die Entwicklung von Pilz- und Bakterienwirkstoffen zu fördern, haben Forschende an der University of Queensland in Australian die Community for Open Antimicrobial Drug Discovery, kurz CO-ADD, gegründet. Das ambitionierte Ziel der Initiative: neue antimikrobielle Wirkstoffe finden, indem Chemikern und Chemikerinnen weltweit angeboten wird, jegliche chemische Verbindungen kostenfrei gegen Bakterien und Pilze zu testen. Wie Frei erklärt, lag der Fokus von CO-ADD anfangs auf «organischen» Molekülen, welche mehrheitlich aus den Elementen Kohlenstoff, Wasserstoff, Sauerstoff und Stickstoff bestehen und keine Metalle enthalten.
Frei, der mit seiner Forschungsgruppe an der Universität Bern versucht, neue Antibiotika auf der Basis von Metallen zu entwickeln, fand jedoch heraus, dass mehr als 1’000 der über 300’000 von CO-ADD getesteten Verbindungen Metalle enthalten. «Bei den meisten Leuten löst das Wort Metall in Verbindung mit Menschen Unbehagen aus. Die Meinung, dass Metalle für uns grundsätzlich schädlich sind, ist weit verbreitet. Allerdings stimmt dies nur bedingt. Ausschlaggebend ist, welches Metall in welcher Form angewendet wird», sagt Frei, der bei der CO-ADD Datenbank der Verantwortliche für alle Metall-Verbindungen ist.
Geringe Toxizität nachgewiesen
In der neuen Studie konzentrierten sich die Forschenden nun auf die Metallverbindungen, die eine Aktivität gegen Pilzinfektionen zeigten. So wurden 21 hochaktive Metallverbindungen gegen verschiede resistente Pilzstränge getestet. Diese enthalten die Metalle Kobalt, Nickel, Rhodium, Palladium, Silber Europium, Iridium, Platin, Molybdän und Gold. «Viele der Metallverbindungen zeigten gute Aktivität gegen alle Stränge und wirkten bis zu 30’000 mal aktiver gegen Pilze als gegen menschliche Zellen», erklärt Frei. Die aktivsten Verbindungen wurden dann in einem Modellorganismus, den Larven der Wachsmotte, getestet. Dabei konnten die Forschenden beobachten, dass nur eine der elf getesteten Metallverbindungen Anzeichen von Toxizität zeigte, während die anderen von den Larven gut toleriert wurden. Im nächsten Schritt wurden einige Metallverbindungen in einem Infektionsmodell getestet, wobei eine Verbindung effektiv die Pilzinfektion in Larven reduzieren konnte.
Grosses Potenzial für breite Anwendung
Metallverbindungen sind in der Medizin nicht neu: Das platinhaltige Cisplatin ist beispielsweise eines der meistverwendeten Medikamente gegen Krebs. Trotzdem ist es noch ein weiter Weg, bis neue antimikrobielle metallhaltige Medikamente zugelassen werden könnten. «Unsere Hoffnung ist, dass unsere Arbeit den Ruf von Metallen in der medizinischen Anwendung verbessert und andere Forschungsgruppen motiviert, dieses grosse, aber noch relativ unerforschte Feld weiter zu erkunden», so sagt Frei. «Wenn wir das volle Potenzial des Periodensystems ausschöpfen, können wir möglicherweise verhindern, dass wir bald ohne effektive Antibiotika und Wirkstoffe gegen Pilze dastehen.»
Die Studie wurde unter anderen vom Schweizer Nationalfonds als auch vom Wellcome Trust und der University of Queensland unterstützt.
Wissenschaftliche Ansprechpartner:
Dr. Angelo Frei
Departement für Chemie, Biochemie und Pharmazie (DCBP)
Universität Bern
Freiestrasse 3
3012 Bern
Telefon: +41 31 632 88 65
E-Mail: angelo.frei@unibe.ch
Originalpublikation:
Angelo Frei,* Alysha G. Elliott, Alex Kan, Hue Dinh, Stefan Bräse, Alice E. Bruce, Mitchell R. Bruce, Feng Chen, Dhirgam Humaidy, Nicole Jung, A. Paden King, Peter G. Lye, Hanna K. Maliszewska, Ahmed M. Mansour, Dimitris Matiadis, María Paz Muñoz, Tsung-Yu Pai, Shyam Pokhrel, Peter J. Sadler, Marina Sagnou, Michelle Taylor, Justin J. Wilson, Dean Woods, Jo-hannes Zuegg, Wieland Meyer, Amy K. Cain, Matthew A. Cooper, and Mark A. T. Blaskovich*:
Metal Complexes as Antifungals? From a Crowd-Sourced Compound Library to the First In Vivo Experiments JACS Au, 3 May 2022.
DOI: 10.1021/jacsau.2c00308
Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…
Anhang
Medienmitteilung UniBE
Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende
Annika Bingmann Presse- und Öffentlichkeitsarbeit
Universität Ulm
Ammoniak aus grünem Wasserstoff ist ein Energieträger mit hohem wirtschaftlichem Potenzial, der als chemischer Grundstoff, als Schiffstreibstoff oder für die stationäre Stromerzeugung eingesetzt werden kann. Zukünftig wird er in großem Umfang aus Regionen mit hohen Solar- und Windressourcen importiert werden. Im BMBF-geförderten Projekt »PICASO« arbeiten das Fraunhofer-Institut für Solare Energiesysteme ISE, die Universität Ulm und das Fukushima Renewable Energy Research Institute (FREA-AIST) an einem neuartigen Power-to-Ammonia- (PtA) Prozess für die nachhaltige Ammoniaksynthese. Das Verfahren könnte die CO2-Emissionen im Vergleich zum konventionellen Prozess um 95 Prozent senken.
Ammoniak als Wasserstoff-Vektor hat das Potenzial, einen wesentlichen Beitrag zur Energiewende zu leisten: »Ammoniak kann auch in sonnen- und windreichen, aber abgelegenen Regionen aus grünem Wasserstoff und Stickstoff hergestellt werden – zum Beispiel in der nordafrikanischen Wüste. Für den Transport nach Europa, in der Regel per Schiff, wird der Energieträger verflüssigt. Wir entwickeln dafür eine integrierte Reaktortechnologie mit dynamischen Betriebsstrategien, die den Betrieb mit fluktuierenden erneuerbaren Energiequellen erlaubt«, erläutert Prof. Dr. Christopher Hebling, Bereichsleiter Wasserstofftechnologien am Fraunhofer ISE.
Im Gegensatz zum konventionellen Haber-Bosch-Verfahren erlaubt der PtA-Prozess dank der hohen Reinheit des elektrolysebasierten »grünen« Wasserstoffs den Einsatz von aktiveren Synthesekatalysatoren. Diese können bei niedrigerer Temperatur arbeiten, was die thermodynamisch mögliche Ammoniakausbeute steigert und somit den Betrieb bei niedrigeren Drücken und ohne Rückführung unverbrauchter Edukte ermöglicht. Für das Projekt hat der japanische Partner FREA-AIST einen neuartigen Ruthenium-Katalysator entwickelt, der die Synthese bei deutlich milderen Prozessbedingungen mit Temperaturen unter 400 °C sowie Drücken unter 80 bar ermöglicht. Dieser kann bereits im halbindustriellen Maßstab (TRL > 7) hergestellt werden.
Um die Ausbeute noch weiter zu steigern, untersuchen das Fraunhofer ISE und die Universität Ulm die integrierte Abtrennung von Ammoniak: Die Reaktion und die Abtrennung von Ammoniak laufen in-situ in einem integrierten Reaktor ab. So kann der Betriebsdruck minimiert und die Rückführung von nicht umgesetztem Einsatzgas vermieden werden. »Da die Kompressoren und Wärmetauscher mit einem Anteil von 90 Prozent an den Investitionskosten die größten Kostentreiber bei der konventionellen Ammoniak-Synthese sind, bieten diese Verbesserungen ein enormes Potenzial für die Wirtschaftlichkeit flexibler Ammoniak- Produktionsanlagen, die auch in entlegenen Regionen einsetzbar sind«, so Dr.-Ing. Ouda Salem, Gruppenleiter Power to Liquids am Fraunhofer ISE. Somit ist keine aufwändige Infrastruktur mehr notwendig und die Ammoniakproduktion kann in wesentlich kleineren Maßstäben erfolgen. Damit bietet sich die Möglichkeit, das neuartige PtA-Verfahren für die Nutzung regenerativer Energiequellen auch in abgelegenen Regionen maßzuschneidern. Prof. Dr.-Ing. Robert Güttel, Leiter des Instituts für Chemieingenieurwesen an der Universität Ulm, ergänzt: »Außerdem können wir Wasserstoff und Stickstoff wesentlich besser ausnutzen, wenn keine Rückführung erforderlich ist, so dass wir die stoffliche und energetische Effizienz des gesamten PtA-Prozesses deutlich steigern können.«
Im Projekt soll bereits die Übertragung des neuen PtA-Konzepts vom Labor- in den Technikumsmaßstab realisiert werden. Während an der Universität Ulm der Labormaßstab im Fokus steht, werden am Fraunhofer ISE umfangreiche experimentelle Studien im Technikum durchgeführt. Robert Güttel: »Verknüpft werden die experimentellen Erkenntnisse in beiden Skalen durch detaillierte mathematische Modellierung und Simulation. Damit können wir sogar bereits belastbare Vorhersagen zum Pilotmaßstab treffen und die Implementierung des integrierten Reaktorkonzepts beschleunigen.«
Neben der technischen Demonstration wollen die Partner auch nachweisen, dass der neuartige, flexible PtA-Prozess wirtschaftlich mit dem konventionellen Verfahren wettbewerbsfähig ist.
Disruptives Verfahren mit hohem Einsparpotenzial
»Im Erfolgsfall wird der PICASO-Ansatz eine disruptive Technologie sein, die einen konventionellen fossilen Prozess ersetzt und damit den CO2-Ausstoss um bis zu 95 Prozent reduziert«, so Ouda Salem. Eine simulative Analyse des PICASO-Prozesses hat zudem ein Energieeinsparungspotenzial von 50 Prozent gegenüber dem konventionellen Haber-Bosch-Prozess ergeben. Ein konkretes Ziel für ein Folgeprojekt ist die Hochskalierung des integrierten Reaktors auf Demonstrationsniveau und dessen Erprobung in einer Pilotanlage am Standort der assoziierter Partner FREA-AIST in Fukushima. Darüber hinaus entwickeln die Forschenden spezifische dynamische Untersuchungen und Betriebsstrategien, um Schnittstellenanforderungen zwischen den Elektrolyseuren und der Syntheseanlage zu identifizieren. Mit dem erfolgreichen Abschluss dieser Projektphasen liegen die grundlegenden Engineering-Daten für eine industrielle Referenzanlage vor. Die PICASO-Partner werden diese Phasen mit FuE-Dienstleistungen und eigenen Patenten zu Katalysator- und Reaktorentwicklungen begleiten, um die komplette Technologie an die chemische und verfahrenstechnische Industrie zu lizenzieren.
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt PICASO (Process Intensification & Advanced Catalysis for Ammonia Sustainable Optimized process) startete am 1. August 2022.
Text: Fraunhofer ISE/Uni Ulm
Wissenschaftliche Ansprechpartner:
Universität Ulm: Prof. Dr.-Ing. Robert Güttel: Tel. 0731 50-25700, robert.guettel@uni-ulm.de
Forschung für Energiewende und Kreislaufwirtschaft
Gabriele Ebel M.A. Presse- und Öffentlichkeitsarbeit / Public Relations
Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg
Internationales Symposium zu Elektroden für Elektrolyse und Brennstoffzellen in Magdeburg ausgerichtet
Forscherinnen und Forscher aus den Bereichen Materialwissenschaften, Elektrochemie und Verfahrenstechnik haben sich vom 5. bis 7. September 2022 in Magdeburg zum zweiten Mal nach 2019 zum internationalen Symposium zu „Insights into Gas Diffusion Electrodes“ ge-troffen. Organisiert wurde die Veranstaltung vom Max-Planck-Institut für Dynamik komplexer technischer Systeme Magdeburg und der TU Clausthal im Rahmen der DFG-Forschungsgruppe 2397 „Multiskalen-Analyse komplexer Dreiphasensysteme“.
Gasdiffusionselektroden sind komplex aufgebaute Funktionsmaterialien, die in verschiedenen tech-nisch bedeutsamen elektrochemischen Prozessen wie Elektrolyseverfahren und Brennstoffzellen verwendet werden. Gerade im Hinblick auf die Herausforderungen der Energiewende, aber auch zur Elektrifizierung von chemischen Prozessen, beispielsweise durch direkte Nutzung von CO2 als Roh-stoff, ist die Weiterentwicklung dieser Materialien von großer Bedeutung.
Die Deutsche Forschungsgemeinschaft (DFG) fördert seit 2016 eine Forschungsgruppe zur „Mul-tiskalen-Analyse komplexer Dreiphasensysteme“. Die Wissenschaftlerinnen und Wissenschaftler möchten durch Experimente und Simulationen neue Einblicke in die komplexen Abläufe innerhalb von Gasdiffusionselektroden gewinnen. Schwerpunkt der Arbeiten in der zweiten Projektphase ist die elektrochemische Umwandlung von CO2 zu CO als wichtiges Wertprodukt für die chemische In-dustrie. Am Projekt sind Ingo Manke vom Helmholtz-Zentrum Berlin, Ulrich Nieken von der Universi-tät Stuttgart, Christina Roth von der Universität Bayreuth, Wolfgang Schuhmann von der Ruhr-Universität Bochum und Tanja Vidaković-Koch vom Max-Planck-Institut für Dynamik komplexer tech-nischer Systeme in Magdeburg beteiligt. Koordiniert wird die Gruppe von Thomas Turek (TU Claust-hal, Sprecher) und Ulrike Krewer (Karlsruher Institut für Technologie, stellvertretende Sprecherin).
100 Wissenschaftlerinnen und Wissenschaftler aus 11 Nationen sowie Vertreter und Sprecher aus verschiedenen Industrieunternehmen, unter anderem DE NORA, Elogen, Avantium, SGL Carbon und Johnson Matthey, trafen sich vom 5. bis 7. September 2022 in Magdeburg und diskutierten die neuesten Entwicklungen im Bereich der Gasdiffusionselektroden in Fachvorträgen und Posterbei-trägen. Im Rahmen des Symposiums im Veranstaltungszentrum Johanniskirche wurden drei Poster-preise für Nachwuchswissenschaftlerinnen und -wissenschaftler vergeben.
Das Symposium wurde federführend von Tanja Vidaković-Koch (Magdeburg) und Thomas Turek (TU Clausthal) organisiert. Die Veranstaltung wurde von der Deutschen Forschungsgemeinschaft (DFG), der Gesellschaft Deutscher Chemiker (GDCh), der International Society of Electrochemistry (ISE) und der Covestro AG gefördert.
Weitere Informationen:
https://www.mpi-magdeburg.mpg.de/2022-09-21-pm-gde-symposium
https://www.mpi-magdeburg.mpg.de/gde2022
Passagierflugzeuge: Sicher und effizient
Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart
DFG-Forschungsgruppe 2895 misst im kryogenen Windkanal erstmals detailliert den Druck auf Flügel und Leitwerk.
Im Kampf gegen den Klimawandel arbeitet die Flugbranche intensiv an der Senkung ihres fossilen Energieverbrauchs. Neben alternativen Treibstoffkonzepten suchen die Hersteller nach Möglichkeiten zur Effizienzsteigerung. Dafür müssen Flugzeuge künftig unabhängig von der Antriebsart bereits in der Entwurfsphase besser auf zu erwartende Lasten im Reiseflug oder auch in Extremsituationen ausgerichtet werden. Genau dies ist das Ziel der DFG-Forschungsgruppe 2895 an der Universität Stuttgart: Die Forschenden wollen die physikalischen Phänomene bei der Flugzeugumströmung besser verstehen und konnten jetzt beeindruckende Messergebnisse vorlegen.
Die Gruppe mit dem Namen „Erforschung instationärer Phänomene und Wechselwirkungen beim High-Speed Stall“ (Sprecher Dr. Thorsten Lutz, Institut für Aerodynamik und Gasdynamik, IAG) umfasst in sieben Teilprojekten Wissenschaftler*innen an vier deutschen Universitäten sowie am Deutschen Zentrum für Luft- und Raumfahrt (DLR) und wird von der Forschungsgemeinschaft DFG gefördert. Die Federführung liegt in Händen des IAG der Universität Stuttgart, das zudem zwei der wissenschaftlichen Teilprojekte bearbeitet. Dabei nutzen die Wissenschaftler*innen Windkanaldaten aus aufwändigen Experimenten im Europäischen Transsonischen Windkanal (ETW) in Köln, um in Verbindung mit modernsten numerischen Simulationsmethoden Einblicke in die physikalischen Prozesse im Flügelnachlauf zu bekommen.
Nur solche bei großer Kälte und bei Überdruck betriebenen sogenannten kryogenen Windkanäle sind in der Lage, Flugbedingungen aus dem realen Betrieb an Modellen nachzubilden. Hierzu wird ein aus Spezialstahl hergestelltes und mit Messtechnik vollgepacktes Flugzeugmodell in eine auf bis zu -160°C heruntergekühlte Umgebung eingebracht. Ein starker Kompressor erzeugt eine Anströmung bis 800 km/h und bildet die Bedingungen im Reiseflug knapp unterhalb der Schallgeschwindigkeit nach. Der Betrieb der Anlage ist teuer und jede Sekunde zählt. Um die Zeit im Kanal optimal zu nutzen, wird daher jeder Aspekt einer solchen mehrtägigen Messkampagne vorab monatelang akribisch geplant und optimiert. Die ersten Messreihen fanden Ende 2020 und 2021 statt.
Messungen mit Hochgeschwindigkeitskameras
In den aktuellen Messreihen gelang es Wissenschaftler*innen des DLR nun erstmals, den Druck auf dem gesamten Flügel und auf dem Leitwerk zu messen. Hierfür beschichteten sie die Oberflächen mit einem druckempfindlichen Lack und nutzten Hochgeschwindigkeitskameras, die bis zu 2.000 Fotos pro Sekunde aufnehmen. Eigens geschriebene Bildverarbeitungsalgorithmen erlauben es, die Bilder in Druckinformationen umzurechnen. „Solche fein aufgelösten Informationen sind für die Aerodynamiker Gold wert“, betont Koordinator Dr. Thorsten Lutz. „Damit lassen sich kleinste Schwankungen der Druckverhältnisse am Flügel erfassen und wir verstehen, ab welchen Flugzuständen diese zu einer Größe anwachsen, die im Flugzeug Vibrationen und unerwünschte Lasten erzeugt.“
Die Umströmung ist jedoch nicht nur an der Oberfläche von Bedeutung, sondern zum Beispiel auch am Flügelnachlauf, also in dem turbulenten Bereich hinter dem Flügel. Treffen die dort vorkommenden chaotisch schwankenden Luftteilchen auf das hinten liegende Leitwerk, führt dies zu unerwünschten Vibrationen, die sich negativ auf die Lebensdauer der Teile auswirken können. Die Bewegung der Luft ist aber mit bloßen Auge nicht erkennbar. Konstrukteure legen das Flugzeug und seine Steuerung daher so aus, dass diese Wechselwirkung möglichst vermieden wird.
Was passiert, wenn dies in einer Extremsituation doch auftritt, machten die Forschenden mittels Lasertechnik sicht- und messbar. Bei der sogenannten der PIV (Particle Image Velocimetry) Methode werden kleinste Eiskristalle in die Strömung gegeben, die von einem Laser beleuchtet und mit einer extrem schnellen Kamera fotografiert werden. Dies offenbart die Bewegung der Luftteilchen durch das turbulente Strömungsgebiet und gibt den Forschern Aufschlüsse über die dadurch verursachten Kräfte auf das Flugzeug. „Damit können wir in einer Detailtiefe in die Umströmung eines Verkehrsflugzeugs blicken, von der wir bisher nur träumen konnten”, konstatiert Lutz. „Durch die Analyse dieser Daten verstehen wir viel besser, was passiert, wenn das Flugzeug zum Beispiel von einer starken Böe erfasst wird.”
Wissenschaftliche Ansprechpartner:
Dr. Thorsten Lutz, Universität Stuttgart, Institut für Aerodynamik und Gasdynamik, Tel.: +49 711 685 63406, E-Mail lutz@iag.uni-stuttgart.de
Kein erhöhtes Schlaganfallrisiko durch die Impfung gegen SARS-CoV-2
Dr. Bettina Albers Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Neue Studien zeigen: Es gibt kein erhöhtes Schlaganfallrisiko nach Impfung gegen SARS-CoV-2 [1, 2]. Beide Erhebungen hatten sehr große Kohorten ausgewertet und kamen zu dem gleichen Ergebnis. Des Weiteren gibt es erste Daten, die sogar auf einen Schutz der Impfung vor Schlaganfällen während einer COVID-19-Erkrankung hindeuten: Bei Infektion mit SARS-CoV-2 hatten geimpfte Menschen nicht einmal ein halb so hohes Risiko wie ungeimpfte, einen Schlaganfall zu erleiden [4].
Ende März letzten Jahres wurde eine schwere, wenn auch seltene Nebenwirkung nach COVID-19-Impfung mit Vektor-basierten Vakzinen beobachtet: Impfassoziiert traten vor allem bei jüngeren Frauen Sinus- und Hirnvenenthrombosen auf, es kam zu Todesfällen. Bei Impfung mit mRNA-Vakzinen wurde diese unerwünschte Nebenwirkung nicht beobachtet, zumindest nicht in einer Häufigkeit, die einen Zusammenhang vermuten ließ. Der Vektor-basierte Impfstoff ChAdOx1 (AstraZeneca) wurde daraufhin nicht mehr jungen Frauen verabreicht, außerdem wurden Geimpfte für das Leitsymptom Kopfschmerzen nach Impfung sensibilisiert und Ärztinnen und Ärzte auf das Phänomen der Bildung von anti-PF4-Antikörpern hingewiesen. Der Nachweis dieser Antikörper kann Betroffene identifizieren, bevor klinische Symptome von Sinus- und Hirnvenenthrombosen auftreten, und erlaubt somit eine frühzeitige Therapie und Prävention dieser seltenen Komplikation.
Es wurde aber auch ein leicht erhöhtes Risiko für hämorrhagische Schlaganfälle (sogenannte Hirnblutungen) nach Impfung mit einem mRNA-Vakzin beschrieben. Eine im Oktober 2021 in „Nature Medicine“ publizierte Auswertung [3] zeigte diesbezüglich ein erhöhtes Risiko an den Tagen 1-7 und den Tagen 15-21 nach Impfung mit BNT162b2 (IRR: 1,27 und 1.38). Seitdem haftet allen Impfstoffen gegen SARS-CoV-2 das Stigma an, sie könnten Schlaganfälle auslösen, eine Sorge, die verständlicherweise zu Ängsten führt und zur Impfskepsis beiträgt. Doch zwei aktuelle Studien zeigen nun, dass die Impfung gegen SARS-CoV-2 nicht mit einem erhöhten Schlaganfallrisiko einhergeht.
In einem in „Neurology“ publizierten, systematischen Review [1] wurden zwei randomisierte Studien, drei Kohortenstudien und elf Register-basierte Studien ausgewertet. Insgesamt wurden 17.481 Fälle ischämischer Schlaganfälle erfasst – bei einer Gesamtzahl von 782.989.363 Impfungen. Die Schlaganfallrate betrug insgesamt 4,7 Fälle pro 100.000 Impfungen. Nur bei 3,1% der Schlaganfälle in Folge einer SARS-CoV-2-Impfung lag eine thrombotisch-thrombozytopenische Purpura (TTP) zugrunde. Wie die Autorinnen und Autoren schlussfolgern, ist damit die Schlaganfallrate nach Impfung mit der in der Allgemeinbevölkerung vergleichbar – und die TTP, die zu Sinus- und Hirnvenenthrombosen führte, zumindest nach den Vorkehrungen, die getroffen wurden, eine sehr seltene Komplikation. Des Weiteren betonen sie, dass die Schlaganfallrate bei SARS-CoV-2-infizierten Menschen hingegen deutlich höher liegt.
Bei der zweiten Studie handelt es sich um eine aktuelle Auswertung des „French National Health Data System“ (Système National des Données de Santé [SNDS]) [2]. Untersucht wurde, wie häufig nach erster und zweiter Gabe von Vakzinen gegen SARS-CoV-2 bei Menschen im Alter von 18 bis 75 Jahren kardiovaskuläre Ereignisse (Myokardinfarkte, Lungenembolien oder Schlaganfälle) auftraten. Insgesamt waren 73.325 Ereignisse dokumentiert worden, bei 37 Millionen geimpften Personen. Im Ergebnis zeigte die Studie, dass es keine Assoziation zwischen mRNA-Impfstoffen und dem Auftreten dieser schweren kardiovaskulären Komplikationen gab. Die erste Dosis des Vektor-basierten Impfstoffs ChAdOx1 war in Woche 2 nach der Impfung mit einer erhöhten Rate an Myokardinfarkten und Lungenembolien vergesellschaftet (RI: 1,29 und 1,41), auch beim Impfstoff von Janssen-Cilag konnte eine Assoziation mit dem Auftreten von Myokardinfarkten in Woche 2 nach Vakzinierung nicht ausgeschlossen werden. In Bezug auf die Schlaganfallrate ergab die Auswertung aber für keinen der Impfstoffe ein höheres Risiko.
DGN-Generalsekretär Professor Dr. Peter Berlit schlussfolgert: „Die vorliegenden Daten zeigen zumindest für die mRNA-Impfstoffe keinerlei Sicherheitssignale in Bezug auf ein erhöhtes Schlaganfallrisiko. Die Tatsache, dass beide Erhebungen sehr große Kohorten auswertet haben und beide zum gleichen Ergebnis kommen, gibt uns zusätzliche Sicherheit: mRNA-Vakzine gegen SARS-CoV-2 erhöhen nicht das Schlaganfallrisiko, die Sorge davor sollte also Menschen nicht davon abhalten, sich impfen zu lassen.“
Ganz im Gegenteil: Der Experte betont, dass die SARS-CoV-2-Infektion mit einer höheren Schlaganfallrate einhergeht und die Impfung somit vor Schlaganfällen schütze. Das zeigte jüngst eine koreanische Studie [4]: Von 592.719 SARS-CoV-2-positiven Patientinnen und Patienten im Studienzeitraum (von Juli 2020 und Dezember 2021) wurden 231.037 in die Studie eingeschlossen. 62.727 waren ungeimpft, 168.310 vollständig geimpft (zwei Dosen eines mRNA- oder Vektorimpfstoffs), sie hatten sich aber trotzdem mit Corona infiziert. Die geimpften Studienteilnehmerinnen und -teilnehmer waren älter und wiesen mehr Komorbiditäten auf. Dennoch waren schwere oder gar kritische COVID-19-Verläufe in dieser Gruppe seltener ebenso wie die Rate an Folgeerkrankungen. Das adjustierte Risiko betrug für den ischämischen Schlaganfall 0,40 bei den geimpften Teilnehmern, was bedeutet, dass die Impfung das Schlaganfallrisiko im Vergleich zur Gruppe der ungeimpftem Studienteilnehmer mehr als halbierte.
Literatur
[1] Stefanou MI, Palaiodimou L, Aguiar de Sousa D, Theodorou A, Bakola E, Katsaros DE, Halvatsiotis P, Tzavellas E, Naska A, Coutinho JM, Sandset EC, Giamarellos-Bourboulis EJ, Tsivgoulis G. Acute Arterial Ischemic Stroke Following COVID-19 Vaccination: A Systematic Review and Meta-analysis. Neurology. 2022 Aug 24:10.1212/WNL.0000000000200996. doi: 10.1212/WNL.0000000000200996. Epub ahead of print. PMID: 36002319.
[2] Botton J, Jabagi MJ, Bertrand M, Baricault B, Drouin J, Le Vu S, Weill A, Farrington P, Zureik M, Dray-Spira R. Risk for Myocardial Infarction, Stroke, and Pulmonary Embolism Following COVID-19 Vaccines in Adults Younger Than 75 Years in France. Ann Intern Med. 2022 Aug 23. doi: 10.7326/M22-0988. Epub ahead of print. PMID: 35994748.
[3] Patone, M., Handunnetthi, L., Saatci, D. et al. Neurological complications after first dose of COVID-19 vaccines and SARS-CoV-2 infection. Nat Med 27, 2144–2153 (2021). https://doi.org/10.1038/s41591-021-01556-7
[4] Kim YE, Huh K, Park YJ et al. Association Between Vaccination and Acute Myocardial Infarction and Ischemic Stroke After COVID-19 Infection. JAMA. 2022 Jul 22. https://jamanetwork.com/journals/jama/fullarticle/2794753
Pressekontakt
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o Dr. Bettina Albers, albersconcept, Jakobstraße 38, 99423 Weimar
Tel.: +49 (0)36 43 77 64 23
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org
Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als wissenschaftliche Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren fast 11.000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern und zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsident: Prof. Dr. med. Christian Gerloff
Stellvertretender Präsident: Prof. Dr. Lars Timmermann
Past-Präsidentin: Prof. Dr. med. Christine Klein
Generalsekretär: Prof. Dr. Peter Berlit
Geschäftsführer: David Friedrich-Schmidt
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org
Neues Zentrum für Mikrobenforschung in Marburg
Dr. Virginia Geisel Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für terrestrische Mikrobiologie
Das „Zukunftszentrum Mikrokosmos Erde“ adressiert aktuelle Fragen der Umwelt- und Klimamikrobiologie
Das Max-Planck-Institut für terrestrische Mikrobiologie und die Philipps-Universität in Marburg eröffneten am Freitag, den 16. September 2022 das neu geschaffene „Zukunftszentrum Mikrokosmos Erde“ auf dem Campus Lahnberge. Zahlreiche Ehrengäste, darunter die hessische Ministerin für Wissenschaft und Kunst Angela Dorn, gratulierten zum Start. Das Projekt hat eine geplante Laufzeit von zunächst sieben Jahren und wird vom Land Hessen mit 6,8 Mio. Euro gefördert.
Mikroorganismen und das globale Klima sind miteinander untrennbar verbunden. Damit ist das genaue Verständnis der Netzwerke mikrobieller Stoffkreisläufe – vom Kleinsten bis in die globalen Maßstäbe – ein wichtiger Schlüssel zur Lösung vieler drängender Fragen unserer Zeit.
Das neue Forschungszentrum (Microcosm Earth Center, MEC) entsteht mit Unterstützung des Landes Hessen, des Hessischen Ministeriums für Wissenschaft und Kunst (HMWK) und der Max-Planck-Gesellschaft. Als gemeinsames Projekt des Max-Planck-Instituts für terrestrische Mikrobiologie (MPI-TM) und der Philipps-Universität Marburg (UMR) widmet es sich dem ebenso hochaktuellen wie breit gefächerten Themengebiet Umwelt- und Klimamikrobiologie.
Zur Eröffnung am 16. September im Hörsaal des Max-Planck-Instituts begrüßten Prof. Dr. Tobias Erb, Direktor am MPI und Mit-Initiator des Projektes, sowie der Präsident der UMR, Prof. Dr. Thomas Nauss, ca. 50 geladene Ehrengäste aus Politik, Hochschule, Kuratorium, Industrie und Wissenschaft. Anschließend sprachen Ministerin Angela Dorn sowie Dr. Michael Kopatz, Stadtrat der Universitätsstadt Marburg.
„Das Forschungsfeld der Mikrobiologie entwickelt sich rasant und ist eine Schlüsselwissenschaft des 21. Jahrhunderts für Umwelt, Klima und Gesundheit. Mit dem Zukunftszentrum Mikrokosmos Erde entwickeln wir neue Themen und Talente zwischen der Max-Planck-Gesellschaft und der Philipps-Universität Marburg, die wir zur wissenschaftlichen und wirtschaftlichen Standortentwicklung, aber auch zur Vorbereitung der nächsten Exzellenzinitiative brauchen“, so Wissenschaftsministerin Angela Dorn. „Ein entscheidender Schlüssel dazu ist die frühzeitige Gewinnung internationaler Forschender – vor allem von Frauen. Ich freue mich, dass wir als Land Hessen tatkräftig zum Aufbau des Zukunftszentrums beitragen konnten; es ist aus dem Zentrum für Synthetische Mikrobiologie (SYNMIKRO) hervorgegangen – ehemals von unserem Forschungsförderprogramm LOEWE gefördert, zudem unterstützen wir das Zentrum mit 6,8 Millionen Euro. Ich wünsche den Forschenden viel Erfolg bei ihrer zukunftsweisenden Arbeit!“
Prof. Dr. Paul Schulze-Lefert vom Max-Planck-Institut für Pflanzenzüchtungsforschung in Köln erläuterte in seinem Vortrag, wie Pflanzen durch ihre Mikrobiome geschützt werden. Danach gewährten die ersten Mitglieder des Zentrums spannende Einblicke in Ihre Forschung.
Das Zukunftszentrum wird insgesamt drei Forschungsgruppen umfassen. Dr. Judith Klatt analysiert am MEC mikrobielle Prozesse in einem breiten Spektrum an Umgebungen wie kontaminierten Böden, hydrothermalen Quellen oder Seen. Dabei ergänzt sie Online-Messungen direkt in der Umwelt durch klassische biochemische Forschungen. Dr. Julia Kurth leitet ebenfalls eine Forschungsgruppe am MEC: Sie erkundet unter anderem, wie unlängst entdeckte methanbildende Mikroben zur weltweiten Bilanz dieses wichtigen Treibhausgases beitragen.
Ergänzt werden die Forschungsgruppen durch sechs „Fellows“, Nachwuchswissenschaftlerinnen und -Wissenschaftlern aus bestehenden Gruppen an der UMR und dem MPI-TM. Sie erhalten für einen Zeitraum von sechs Monaten eine Finanzierung für die Weiterentwicklung ihrer Projekte.
Dabei kommt der Interdisziplinarität ein besonderer Stellenwert zu, wie Universitäts-Präsident Thomas Nauss betont: „Seit Jahren kooperieren am Campus Lahnberge die Philipps-Universität und das MPI sehr erfolgreich miteinander, wovon vor allem das Zentrum SYNMIKRO zeugt. Im Zukunftszentrum erhalten Nachwuchswissenschaftlerinnen und -wissenschaftler die Möglichkeit, innovative Forschung zu betreiben. Damit stärkt es die Interdisziplinarität der Marburger Biowissenschaften und intensiviert die Zusammenarbeit der beteiligten Partner.“
Für die Durchführung der Arbeiten steht den Forschenden die Infrastruktur beider Institutionen zur Verfügung, die u.a. Proteomics, Metabolomics, Hochleistungsmikroskopie, DNA-Synthese & -Sequenzierung, Robotik, Strukturbiologie, Cryo-EM sowie Gewächshäuser umfasst.
Prof. Dr. Tobias Erb, Direktor am Max-Planck- Institut und Sprecher des Zentrums, sagt: „Das genaue Verständnis und der gezielte Einsatz von Mikroorganismen wird eine Schlüsselrolle in einer nachhaltigen Agrar-, Umwelt-, Klima- und Gesundheitspolitik spielen. Wir freuen uns, herausragende Wissenschaftlerinnen und Wissenschaftler begrüßen zu dürfen. Sie forschen über die Grenzen der traditionellen Disziplinen hinweg und eröffnen damit neue Wege im Bereich der Umwelt- und Klimamikrobiologie.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tobias Erb
toerb@mpi-marburg.mpg.de
Wie sicher ist der Verbands- und Vereinssport?
Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Mit über 4.300 befragten Vereinsmitgliedern und rund 300 beteiligten Sportverbänden stellt die SicherImSport-Studie die bislang größte Studie zu Gewalterfahrungen im organisierten Sport in Deutschland dar. Erste Ergebnisse des Projektes SicherImSport wurden bereits im Herbst 2021 veröffentlicht. Nun legt der Forschungsverbund der Deutschen Sporthochschule Köln, des Universitätsklinikums Ulm und der Bergischen Universität Wuppertal bei einer Fachtagung im Deutschen Sport & Olympia Museum in Köln den Abschlussbericht vor.
Die Studie zeigt, dass Gewalterfahrungen im Sport keine Einzelfälle sind. Psychische Gewalt, in Form von Erniedrigungen, Bedrohungen oder Beschimpfungen, wurde am häufigsten von den befragten Vereinsmitgliedern angegeben – 63% der Befragten berichten, dies bereits im Kontext des Vereinssports mindestens einmal erlebt zu haben, meistens häufiger. Zudem gab ein Viertel der Befragten an, sexualisierte Belästigungen oder Grenzverletzungen ohne Körperkontakt im Vereinssport erlebt zu haben. Ein Fünftel der befragten Vereinsmitglieder berichtete gar von sexualisierter Gewalt mit Körperkontakt (z.B. in Form von unerwünschten sexuellen Berührungen oder sexuellen Übergriffen). Jedoch: Auch wenn Vereinsmitglieder angeben, solche negativen und missbräuchlichen Erfahrungen im Kontext des Vereins gemacht zu haben, geben neun von zehn betroffenen Personen an, allgemein gute bis sehr gute Erfahrungen mit dem Vereinssport zu haben. Die generelle Beurteilung des Vereinssports fällt somit auch beim Vorliegen von Belästigungs- oder Gewalterfahrungen überwiegend positiv aus.
Zudem zeigt die Studie, dass die betroffenen Vereinsmitglieder auch außerhalb des Sports in ähnlichem Ausmaß Gewalt erleben; sexualisierte Grenzverletzungen, Belästigung und Gewalt mit und ohne Körperkontakt werden sogar außerhalb des Sportkontextes häufiger als innerhalb des Sportkontextes von den Vereinsmitgliedern erlebt. Die Studie belegt somit, dass interpersonelle und sexualisierte Gewalt gesamtgesellschaftliche Probleme darstellen, die auch den Sport betreffen.
„Kein Verein kann sich darauf berufen, dass es sich um Einzelfälle handelt“
PD Dr. Marc Allroggen vom Universitätsklinikum Ulm zieht das Fazit: „Mit dem Vorliegen der Befunde wird sich kein Verein darauf berufen können, dass es sich um Einzelfälle handelt und nur wenige Vereine betroffen sind.“ Zudem zeigen die Daten, dass es sich nicht überwiegend um „vergangene Fälle“ handelt. Im Gegenteil: Jüngere Personen (bis 30 Jahre alt) berichten in der Befragung deutlich häufiger von Gewalterfahrungen im Sportverein als ältere Mitglieder (über 30 Jahre alt). Zudem sind Vereinsmitglieder mit einem höheren sportlichen Leistungsniveau (z.B. Teilnahme an nationalen und internationalen Wettkämpfen) und solche mit längeren Trainingszeiten eher stärker als Vereinsmitglieder im Freizeitsport von Gewalt betroffen. Auch Mädchen und Frauen sowie Vereinsmitglieder mit nicht-heterosexueller Orientierung berichten häufiger von solchen negativen Erfahrungen.
Risikoanalysen und Schutzkonzepte sind für alle Sportvereine erforderlich
„Alle Vereine sind somit gut beraten, zielgruppenspezifische Risikoanalysen durchzuführen und eigene Schutzkonzepte zu entwickeln“, so heißt es im Fazit der Studie. Dass die Stadt- und Kreissportbünde sowie Landesfachverbände bereits verschiedene Maßnahmen auf den Weg gebracht haben, um die Sportvereine vor Ort beim Schutz vor Gewalt zu unterstützen, belegen die Ergebnisse der Studie SicherImSport ebenfalls. Dabei haben besonders die Landessportbünde eine wichtige Orientierungs- und Beratungsfunktion für die Mitgliedsverbände in den untersuchten Bundesländern und benötigen zugleich noch mehr Ressourcen, um dieser Verantwortung gerecht zu werden. Rund 60% der befragten Verbände auf der mittleren und regionalen Organisationsebene des Sportsystems in Deutschland wünschen sich mehr Unterstützung bei der Beratung zum Umgang mit Verdachtsfällen oder konkreten Vorfällen von Gewalt und suchen hier insbesondere bei den Landessportbünden Unterstützung. Rund die Hälfte der befragten Stadt- und Kreissportbünde sowie Landesfachverbände geben zudem an, dass sie mehr Unterstützung bei der Durchführung von Risikoanalysen und der Entwicklung von Schutzkonzepten benötigen.
Gut sichtbare Anlaufstellen für Betroffene im Sport wichtig
Die Studie SicherImSport zeigt außerdem, dass Betroffene von Gewalt im Sport nur selten über ihre Erfahrungen berichten, und nur selten Unterstützung bei den Sportvereinen oder -verbänden suchen. Vor diesem Hintergrund ist es besonders bedenklich, dass nach den Ergebnissen der Studie nur die Hälfte der befragten Sportverbände über nach außen sichtbare Kontaktmöglichkeiten für Betroffene (z.B. auf ihren Websites) verfügt. Prof. Dr. Bettina Rulofs von der Deutschen Sporthochschule resümiert: „Anlaufstellen für Betroffene im Sport sind wichtig. Der organisierte Vereins- und Verbandsport sollte dringend nach geeigneten Wegen suchen, wie er proaktiv und gut sichtbar, auf diejenigen zugehen kann, die Rat und Unterstützung bei Gewalterfahrungen benötigen.“
Das Forschungsprojekt SicherImSport wird mit Mitteln des Landessportbundes Nordrhein-Westfalen gefördert. Zehn weitere Landessportbünde beteiligten sich an der Finanzierung der einzelnen Teilprojekte. Die Projektleitungen liegen bei Prof. Dr. Bettina Rulofs an der Deutschen Sporthochschule Köln (zuvor: Bergische Universität Wuppertal) sowie bei PD Dr. Marc Allroggen am Universitätsklinikum Ulm.
Den Bericht zum Projekt gibt es hier: https://www.dshs-koeln.de/aktuelles/meldungen-pressemitteilungen/detail/meldung/…
Wissenschaftliche Ansprechpartner:
Prof. Dr. Bettina Rulofs: https://www.dshs-koeln.de/visitenkarte/person/univ-prof-dr-bettina-rulofs/
PD Dr. Marc Allroggen: https://www.uniklinik-ulm.de/kinder-und-jugendpsychiatriepsychotherapie/team/dr-…
Originalpublikation:
https://www.dshs-koeln.de/fileadmin/redaktion/Aktuelles/Meldungen_und_Pressemitt…
Warum versiegt das kostbare Nass?
Stephan Laudien Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Hydrologin von der Friedrich-Schiller-Universität Jena erforscht im internationalen Forschungsverbund DRYvER das Phänomen trockenfallender Flusssysteme.
Wasser ist Leben, diese simple Weisheit wird schon im Kindergarten vermittelt. Was aber geschieht, wenn das Wasser versiegt? Im Hitzesommer 2022 schafften es sinkende Pegel, eingestellte Fähren und ein zunehmend gestörter Warentransport über Schifffahrtswege immer häufiger in die Nachrichten. Eine Situation, die kaum noch Ausnahme, sondern eher Regel geworden ist, wie Dr. Annika Künne von der Friedrich-Schiller-Universität Jena konstatiert. Die Hydrologin arbeitet im internationalen Forschungsprojekt DRYvER mit, bei dem 25 Partner aus elf Ländern kooperieren. DRYvER wird durch das Horizon 2020-Programm der Europäischen Union gefördert. Neben europäischen Partnern gehören Forschungseinrichtungen in Südamerika, China und den USA dazu. Geleitet wird das Projekt vom Nationalen Forschungsinstitut für Landwirtschaft, Ernährung und Umwelt (INRAE) in Frankreich. Erforscht wird, wie sich die durch den Klimawandel und die menschliche Wassernutzung beförderte Austrocknung von Flusssystemen auf die biologische Vielfalt, die funktionale Integrität und die Ökosystemdienstleistungen auswirkt.
Ziel sind möglichst detaillierte Modelle der Flusssysteme
„Die ober- und unterirdischen Flussnetze erbringen wichtige Ökosystemdienstleistungen, beispielsweise für die Trinkwassergewinnung, den Anbau von Nahrungsmitteln und in Form der Klimaregulierung“, sagt Annika Künne. Hinzu komme, dass diese Ökosysteme eine riesige biologische Vielfalt beherbergen, deren Verlust kaum wiedergutzumachende Schäden verursachen würde. Gleichzeitig sind diese Wassersysteme sehr fragil und durch menschliche Aktivitäten bedroht.
Dr. Künnes Aufgabe in dem Verbundprojekt ist es, Flusssysteme detailgenau zu modellieren. Sechs Pilotgebiete stehen dabei im Fokus. Es sind die Flusssysteme von Guadiaro in Spanien, Krka in Kroatien, Morava in Tschechien, Ain in Frankreich, Fekete in Ungarn und Vantaanjoki in Finnland. Wie Annika Künne erläutert, sind diese Gebiete bis zu 10.000 Quadratkilometer groß. Die Erkenntnisse aus den Pilotprojekten können dann auf andere Flusssysteme übertragen werden. Prinzipiell, so sagt die Hydrologin, werden drei Zustände im Flussbett modelliert: Das Wasser fließt, es gibt Pfützen oder Pools und drittens, der Flusslauf ist trocken. Die Ursachen für trockenfallende Flüsse können jedoch sehr unterschiedlich sein.
Neue App für jedermann liefert der Forschung wertvolle Daten
„Meistens führt das Zusammenspiel verschiedener Faktoren dazu, dass ein Fluss trockenfällt“, sagt Annika Künne. Dazu gehören die Niederschlagsmenge, die Bodenbeschaffenheit und die Vegetation, die Geologie des Untergrundes, die herrschenden Temperaturen und natürlich die Wasserentnahme, etwa für Beregnungsanlagen der Landwirtschaft. In den Untersuchungsgebieten erfassen zudem Biologenteams regelmäßig den Bestand an Fischen, Kleinlebewesen, Mikroben und organischem Material, sozusagen den Stoffwechsel und den Gesundheitszustand des Flusses. Darüber hinaus wurde eine App entwickelt, mit der jedermann wertvolle Daten beisteuern kann. Per „DryRivers“-App werden Bilder und Standortdaten von trockengefallenen Flüssen übermittelt, wichtige Informationen, mit denen die vorhandenen Daten ergänzt werden. Andere Datenquellen sind beispielsweise lokale Umweltämter, die Pegelstände oder Durchflussmengen veröffentlichen.
„Hinter dem Projekt steht letztlich das Ziel, konkret eingreifen zu können, bevor es zu spät ist“, sagt Annika Künne. Die in Jena entwickelten Modelle helfen den Forscherinnen und Forschern, die komplizierten Wege des Wassers immer besser zu verstehen und Lösungsansätze zu finden, die Zahl austrocknender Flüsse zu verringern und sich an zukünftige Veränderungen anzupassen. Zwei Jahre läuft das Projekt noch, dessen Jenaer Part am Institut für Geographie, dem Lehrstuhl für Geoinformatik bei Prof. Dr. Alexander Brenning angesiedelt ist. Klar ist indes bereits jetzt: Die Zahl trockenfallender Flusssysteme hat in den letzten Jahren signifikant zugenommen.
Wissenschaftliche Ansprechpartner:
Dr. Annika Künne
Institut für Geographie der Friedrich-Schiller-Universität Jena
Löbdergraben 32, 07743 Jena
Telefon: 03641 / 948867
E-Mail: annika.kuenne@uni-jena.de
SARS-CoV-2 kann das Chronische Fatigue-Syndrom auslösen – Charité-Studie liefert Belege für lang gehegte Annahme
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Es wird seit Beginn der Pandemie vermutet, dass SARS-CoV-2 das Chronische Fatigue-Syndrom ME/CFS verursachen kann. Eine Forschungsgruppe der Charité – Universitätsmedizin Berlin und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) zeigt jetzt in einer gut kontrollierten Studie, dass ein Teil der COVID-19-Erkrankten auch nach mildem Verlauf tatsächlich das Vollbild einer ME/CFS-Erkrankung entwickelt. Zudem beschreiben die Forschenden eine zweite Gruppe von Post-COVID-Betroffenen mit ähnlichen Symptomen. Unterschiedliche Laborwerte weisen auf möglicherweise verschiedene Entstehungsmechanismen der beiden Krankheitsbilder hin (Nature Communications*).
Gemeinsame Pressemitteilung der Charité und des MDC
„Bereits in der ersten Welle der Pandemie entstand der Verdacht, dass COVID-19 ein Trigger für ME/CFS sein könnte“, sagt Prof. Dr. Carmen Scheibenbogen, kommissarische Direktorin des Instituts für Medizinische Immunologie am Charité Campus Virchow-Klinikum. Sie leitet das Charité Fatigue Centrum, das auf die Diagnostik von ME/CFS (Myalgische Enzephalomyelitis / Chronisches Fatigue-Syndrom) spezialisiert ist – eine komplexe Erkrankung, die unter anderem von bleierner körperlicher Schwäche geprägt ist. Das Zentrum wurde bereits im Sommer 2020 von den ersten Patient:innen nach einer SARS-CoV-2-Infektion aufgesucht. Seither mehren sich die Hinweise auf einen ursächlichen Zusammenhang zwischen COVID-19 und der Erkrankung ME/CFS, die oft zu einem hohen Grad körperlicher Beeinträchtigung führt.
„Diese Annahme wissenschaftlich zu belegen, ist jedoch nicht trivial“, erklärt Prof. Scheibenbogen. „Das liegt auch daran, dass ME/CFS noch wenig erforscht ist und es keine einheitlichen Diagnosekriterien gibt. Durch eine sehr gründliche Diagnostik und einen umfassenden Vergleich mit ME/CFS-Betroffenen, die nach anderen Infektionen erkrankt waren, konnten wir jetzt aber nachweisen, dass ME/CFS durch COVID-19 ausgelöst werden kann.“
Für die Studie untersuchten Expert:innen des Post-COVID-Netzwerks der Charité 42 Personen, die sich mindestens 6 Monate nach ihrer SARS-CoV-2-Infektion an das Charité Fatigue Centrum gewandt hatten, weil sie noch immer stark an Fatigue, also einer krankhaften Erschöpfung, und eingeschränkter Belastungsfähigkeit in ihrem Alltag litten. Die meisten von ihnen konnten lediglich zwei bis vier Stunden am Tag einer leichten Beschäftigung nachgehen, einige waren arbeitsunfähig und konnten sich kaum noch selbst versorgen. Während der akuten SARS-CoV-2-Infektion hatten nur drei der 42 Patient:innen ein Krankenhaus aufgesucht, aber keine Sauerstoffgabe benötigt. 32 von ihnen hatten einen nach der WHO-Klassifizierung milden COVID-19-Verlauf durchlebt, also keine Lungenentzündung entwickelt, in der Regel jedoch ein bis zwei Wochen lang starke Krankheitssymptome wie Fieber, Husten, Muskel- und Gliederschmerzen empfunden. Da die SARS-CoV-2-Infektion in der ersten Welle der Pandemie stattgefunden hatte, war keine der in die Studie eingeschlossenen Personen zuvor geimpft gewesen. An der Charité wurden alle Betroffenen von einem interdisziplinären Team aus den Fachbereichen Neurologie, Immunologie, Rheumatologie, Kardiologie, Endokrinologie und Pneumologie mit langjähriger Erfahrung in der Diagnose von ME/CFS untersucht. Zum Vergleich zogen die Forschenden 19 Personen mit ähnlichem Alters- und Geschlechtsprofil sowie einer vergleichbaren Krankheitsdauer heran, die ME/CFS nach einer anderen Infektion entwickelt hatten.
Für die Diagnosestellung berücksichtigten die Forschenden die sogenannten kanadischen Konsensuskriterien. „Dieser Kriterienkatalog wurde wissenschaftlich entwickelt und hat sich im klinischen Alltag bewährt, um ein Chronisches Fatigue-Syndrom eindeutig zu diagnostizieren“, erklärt Dr. Judith Bellmann-Strobl, Leiterin der multidisziplinären Hochschulambulanz des Experimental and Clinical Research Center (ECRC), einer gemeinsamen Einrichtung der Charité und des MDC. Zusammen mit Prof. Scheibenbogen hat sie die Studie geleitet. Den Kriterien zufolge erfüllten knapp die Hälfte der untersuchten Patient:innen nach ihrer SARS-CoV-2-Infektion das Vollbild einer ME/CFS-Erkrankung. Die andere Hälfte hatte vergleichbare Symptome, ihre Beschwerden nach körperlicher Anstrengung, die sogenannte Postexertionelle Malaise, waren jedoch meist nicht so stark ausgeprägt und hielten nur für einige Stunden an. Dagegen trat die Verschlimmerung der Symptome bei den ME/CFS-Patient:innen auch noch am nächsten Tag auf. „Wir können also zwei Gruppen von Post-COVID-Betroffenen mit stark reduzierter Belastbarkeit unterscheiden“, resümiert Dr. Bellmann-Strobl.
Neben der Erfassung der Symptome ermittelten die Forschenden verschiedene Laborwerte und setzten sie in Beziehung zur Handkraft der Erkrankten, die bei den meisten vermindert war. „Bei den Menschen mit der weniger stark ausgeprägten Belastungsintoleranz stellten wir unter anderem fest, dass sie weniger Kraft in den Händen hatten, wenn sie einen erhöhten Spiegel des Immunbotenstoffs Interleukin-8 aufwiesen. Möglicherweise ist die reduzierte Kraft der Muskulatur in diesen Fällen auf eine anhaltende Entzündungsreaktion zurückzuführen“, sagt Prof. Scheibenbogen. „Bei den Betroffenen mit ME/CFS korrelierte die Handkraft dagegen mit dem Hormon NT-proBNP, das von Muskelzellen bei zu schlechter Sauerstoffversorgung ausgeschüttet werden kann. Das könnte darauf hinweisen, dass bei ihnen eine verminderte Durchblutung für die Muskelschwäche verantwortlich ist.“ Nach vorläufigen Beobachtungen der Wissenschaftler:innen könnte die Unterscheidung der beiden Gruppen sich auch im Krankheitsverlauf spiegeln. „Bei vielen Menschen, die ME/CFS-ähnliche Symptome haben, aber nicht das Vollbild der Erkrankung entwickeln, scheinen sich die Beschwerden langfristig zu verbessern“, erklärt Prof. Scheibenbogen.
Die neuen Erkenntnisse könnten zur Entwicklung spezifischer Therapien für das Post-COVID-Syndrom und ME/CFS beitragen. „Unsere Daten liefern aber auch einen weiteren Beleg dafür, dass es sich bei ME/CFS nicht um eine psychosomatische, sondern um eine schwerwiegende körperliche Erkrankung handelt, die man mit objektiven Untersuchungsmethoden erfassen kann“, betont Prof. Scheibenbogen. „Leider können wir ME/CFS aktuell nur symptomatisch behandeln. Deshalb kann ich auch jungen Menschen nur ans Herz legen, sich mithilfe einer Impfung und dem Tragen von FFP2-Masken vor einer SARS-CoV-2-Infektion zu schützen.“
*Kedor C et al. Post COVID-19 Chronic Fatigue Syndrome following the first pandemic wave in Germany and biomarkers associated with symptom severity results from a prospective observational study. Nat Comm 2022 Aug 30. doi: 10.1038/s41467-022-32507-6
Über ME/CFS
ME/CFS (Myalgische Enzephalomyelitis / Chronisches Fatigue-Syndrom) ist eine schwerwiegende Erkrankung, die meistens durch einen Infekt ausgelöst wird und oft chronifiziert. Hauptmerkmal ist die „Postexertionelle Malaise“, eine ausgeprägte Verstärkung der Beschwerden nach geringer körperlicher oder geistiger Belastung, die erst nach mehreren Stunden oder am Folgetag einsetzt und mindestens bis zum nächsten, aber oft auch mehrere Tage oder länger anhält. Sie ist verbunden mit körperlicher Schwäche, häufig Kopf- oder Muskelschmerzen sowie neurokognitiven, autonomen und immunologischen Symptomen. Die Häufigkeit von ME/CFS in der Bevölkerung wurde weltweit bereits vor der Pandemie auf etwa 0,3 Prozent geschätzt. Expert:innen gehen davon aus, dass die Anzahl der Betroffenen durch die COVID-19-Pandemie deutlich steigen wird. Als Auslöser für ME/CFS waren bisher Krankheitserreger wie das Epstein-Barr-Virus, das Dengue-Virus und Enteroviren bekannt. Auch unter den Personen, die sich 2002/2003 mit dem ersten SARS-Coronavirus infizierten, wurden ME/CFS-Fälle beobachtet. Von einer ME/CFS-Erkrankung abzugrenzen ist eine sogenannte postinfektiöse Fatigue, die im Rahmen vieler Infektionskrankheiten wochen- bis monatelang anhalten kann. Den aktuellen Stand des Wissens zu ME/CFS nach COVID-19 hat Prof. Scheibenbogen in einer aktuellen deutschsprachigen Publikation zusammengefasst (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9281337/).
Behandlung von ME/CFS an der Charité
Für die Diagnostik und Behandlung von Menschen mit lang andauernden Beschwerden nach einer SARS-CoV-2-Infektion betreibt die Charité elf Spezialambulanzen an verschiedenen Kliniken und Instituten, die im Post-COVID-Netzwerk zusammenarbeiten und unterschiedliche Patient:innen abhängig von ihrer Hauptsymptomatik betreuen. Dazu gehört auch das Charité Fatigue Centrum, das die Anlaufstelle für Personen ist, die mindestens sechs Monate nach ihrer COVID-19-Erkrankung anhaltend schwere Fatigue, Konzentrationsstörungen und eine Belastungsintoleranz haben und deren Symptome nach Anstrengung zunehmen. Im Rahmen des Projekts CFS_CARE besteht ein interdisziplinäres Versorgungsangebot für Patient:innen mit ME/CFS, das ein speziell entwickeltes Rehaprogramm mit einschließt.
Zur Studie
Basis für die jetzt veröffentlichten Daten war die Studienplattform Pa-COVID-19. Pa-COVID-19 ist die zentrale longitudinale Registerstudie für COVID-19-Patient:innen an der Charité. Sie zielt darauf ab, COVID-19-Betroffene klinisch sowie molekular schnell und umfassend zu untersuchen, um individuelle Risikofaktoren für schwere Verlaufsformen sowie prognostische Biomarker und Therapieansätze zu identifizieren. Das Protokoll zur Studie ist hier (https://link.springer.com/epdf/10.1007/s15010-020-01464-x) veröffentlicht.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Carmen Scheibenbogen
Kommissarische Direktorin des Instituts für Medizinische Immunologie
Campus Virchow-Klinikum
Charité – Universitätsmedizin Berlin
Tel: +49 30 450 570 400
E-Mail: carmen.scheibenbogen@charite.de
Originalpublikation:
https://www.nature.com/articles/s41467-022-32507-6
Weitere Informationen:
https://cfc.charite.de/ Charité Fatigue Centrum
https://www.mdc-berlin.de/de/hochschulambulanz-fuer-neuroimmunologie Hochschulambulanz für Neuroimmunologie am ECRC
https://pcn.charite.de/ Post-COVID-Netzwerk der Charité
https://immunologie.charite.de/ Institut für Medizinische Immunologie
https://www.mecfs.de/presse/pressefotos/ Pressefotos der Deutschen Gesellschaft für ME/CFS
Auen verbessern die Wasserqualität von Flüssen
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Viele Flüsse sind durch Stickstoffeinträge belastet. Wie groß diese Einträge sind, in welchem Umfang sie abgebaut werden und welchen Anteil die Auengebiete daran haben, hat ein internationales Forschungsprojekt unter Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) nun erstmals für das Donau-Einzugsgebiet untersucht. Die Ergebnisse zeigen, wie sinnvoll die großräumige Renaturierung von Flussauen für eine bessere Wasserqualität ist.
Flussauen gehören zu den artenreichsten Ökosystemen der Erde. Weil sie die Schnittstelle zwischen Land und Wasser bilden, sind sie Hotspots von Nährstoffumsätzen und Biodiversität. Entlang vieler Flüsse wurden jedoch zahlreiche Auen von den Gewässern abgeschnitten oder umgenutzt. Zugleich gelangen zu viele Nährstoffe ins Wasser, vor allem Stickstoff. Beides verschlechtert die Wasserqualität und bedroht die Artenvielfalt – sowohl in den Flüssen selbst als auch in den Meeren, in die sie münden.
Dabei haben Flüsse in gewissem Umfang die Fähigkeit, Nährstoffe im Flusswasser selbst sowie in den Flussauen abzubauen. Wie groß der Beitrag von Auen zur Reduzierung von Stickstoff ist, haben Forschende im Rahmen des internationalen Kooperationsprojekts IDES für das Einzugsgebiet der Donau ermittelt. „Das Besondere unserer Untersuchung ist, dass wir erstmalig ein so großes Gebiet betrachtet haben, denn die Donau hat das zweitgrößte Einzugsgebiet Europas“, sagt IGB-Wissenschaftler und Ko-Autor Dr. Andreas Gericke.
Das Donau-Einzugsgebiet hat eine Fläche von mehr als 800000 km2 und erstreckt sich über 19 Länder. Etwa 70 bis 80 Prozent seiner Auen wurden den vergangenen Jahrzehnten vom Fluss abgetrennt oder in Agrarflächen umgewandelt und damit ihrer Ökosystemfunktionen und -leistungen beraubt. Die Forschenden wollten nun wissen, welchen Anteil am Nährstoffrückhalt die verbliebenen aktiven Auen haben. Dazu nutzte das Team das am IGB entwickelte Modell MONERIS, mit dem Nährstoffeinträge aus verschiedenen Quellen – darunter Atmosphäre, Düngereinsatz in der Landwirtschaft und Kläranlagen – bestimmt werden und ihr Verbleib sowie Transport im Flusssystem berechnet werden können. Demnach gelangen jährlich 500000 Tonnen Stickstoff in die Gewässer des Donau-Einzugsgebiets, überwiegend als Nitrat. Die meisten Einträge stammen aus der Agrarwirtschaft (44 Prozent) und aus urbanen Quellen (30 Prozent). Zwei Drittel dieser Einträge erreichen das Schwarze Meer, ein Drittel oder 160000 Tonnen werden in den Gewässern abgebaut.
Um herauszufinden, wie groß der Anteil der Auen am Nitrat-Rückhalt ist, ergänzte das Team die MONERIS-Berechnungen um weitere Modellierungen für die Donau sowie deren Zuflüssen Save, Theiß und Jantra. Dort finden sich 3842 km2 Flussauen und damit knapp die Hälfte aller aktiven Flussauen im Donau-Einzugsgebiet. „Das meiste Nitrat wird im Gewässernetz abgebaut, etwa indem Stickstoff von Plankton aufgenommen oder durch Bakterien umgewandelt wird (Denitrifikation) . Aber auch die Auen können zu einem nicht unerheblichen Teil zum Nährstoffrückhalt beitragen“, berichtet Andreas Gericke. Die Ergebnisse zeigen, dass die aktiven Auen 33200 Tonnen Nitrat jährlich abbauen, was einem Anteil von 6,5 Prozent des Eintrags entspricht. Die Forschenden schätzen auf Basis der Modellergebnisse, dass der Nitratabbau um 14,5 Prozent erhöht werden könnte, wenn die rund 1300 km² potenziell renaturierbaren Altauen und Altarme wieder an die Hauptläufe angeschlossen würden.
„Unsere Ergebnisse zeigen eindrucksvoll, dass es sinnvoll ist, Auen zu erhalten und ihre Funktionen wiederherzustellen – nicht nur wegen ihrer Fähigkeit, Nährstoffe abzubauen, sondern auch zum Erhalt der Artenvielfalt neben vielen weiteren Ökosystemleistungen“, betont Martin Tschikof vom Institut für Hydrobiologie und Gewässermanagement an der Universität für Bodenkultur in Wien (BOKU). Er ist der Hauptautor der Studie. Die vereinfachten Annahmen und Daten erlauben zwar nur eingeschränkte Aussagen. Sie sind jedoch eine gute Basis für eine bessere Berücksichtigung der Auen und deren Wiederanbindung für eine gute Wasserqualität in den großen Flussgebieten Europas.
Wissenschaftliche Ansprechpartner:
Dr. Andreas Gericke
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Originalpublikation:
Martin Tschikof, Andreas Gericke, Markus Venohr, Gabriele Weigelhofer, Elisabeth Bondar-Kunze, Ute Susanne Kaden, Thomas Hein:The potential of large floodplains to remove nitrate in river basins – The Danube case, Science of The Total Environment, Volume 843, 2022,156879, ISSN 0048-9697,
https://doi.org/10.1016/j.scitotenv.2022.156879
Weitere Informationen:
https://www.igb-berlin.de/news/auen-verbessern-die-wasserqualitaet-von-fluessen
https://www.interreg-danube.eu/approved-projects/ides
Biogasanlagen: Klimaschutz durch Verminderung von Gasemissionen
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Um klimaschädliche Methanemissionen in der Landwirtschaft zu reduzieren, plant die Bundesregierung bis 2030 den verstärkten Einsatz von Wirtschaftsdüngern in Biogasanlagen. Hierfür müssen zuvor die passenden Rahmenbedingungen, etwa in Form von gasdichten Gärrestelagern, geschaffen werden. Im Projekt »Gäremission« untersuchen das Fraunhofer UMSICHT und die HAWK Göttingen u. a. den Einfluss unterschiedlicher Anlagen- und Prozessparameter auf die Gasemissionen von Gülle- und Gärrestlagern.
Im vergangenen Jahr hat der Landwirtschaftssektor insgesamt 54,8 Mio. Tonnen CO2-Äquivalente produziert[1], was etwa 7 Prozent der gesamten deutschen Treibhausgasemissionen entspricht. Die größten Emissionsquellen sind die Lachgasemissionen als Folge des Stickstoffeinsatzes bei der Düngung, Methanemissionen aus der Verdauung von Wiederkäuern sowie Emissionen aus dem Güllemanagement. Hinzu kommt der Kraftstoffeinsatz landwirtschaftlicher Maschinen und Fahrzeuge. Durch abnehmende Viehbestände und verbessertes Güllemanagement nimmt die Menge an Treibhausgasemissionen in der Landwirtschaft bereits kontinuierlich ab. Dennoch bleibt es eine große Herausforderung, das Klimaziel der Bundesregierung bis 2030 zu erfüllen, das minus 35 Mio. Tonnen CO2-Äquivalente für den Bereich Landnutzung, Landnutzungsänderung und Forstwirtschaft vorsieht.
Bis zu 25 Mal klimaschädlicher als CO2
Schärfen wir den Blick in Richtung des Klimagases Methan. An tierischen Exkrementen wie Gülle, Jauche, Mist und Hühnertrockenkot fallen hierzulande jedes Jahr 150 bis 190 Mio. Tonnen an[2]. Ein Drittel davon wird energetisch in Biogasanlagen verwertet, der Rest dient als organischer Dünger auf landwirtschaftlichen Flächen (Wirtschaftsdünger). Alleine durch das Lagern und spätere Verteilen von Gülle auf Feldern werden jährlich rund 250 000 Tonnen Methan freigesetzt – eine enorme Menge, wenn man bedenkt, dass Methan bis zu 25 Mal klimaschädlicher als CO2 ist[3].
»Aus Klimaschutzgründen ist es daher sinnvoll, tierische Exkremente erst in Biogasanlagen zu Methan zu vergären und dann den Gärrest als Dünger auszubringen«, erklärt Lukas Rüller aus der Abteilung Verfahrenstechnik am Fraunhofer UMSICHT. Das Gas würde so energetisch nutzbar und gelangt nicht in die Atmosphäre. Die Emissionsvermeidung durch die fachgerechte Lagerung von Gülle habe außerdem positive Auswirkungen auf Luftreinhaltung und Gesundheit.
Forschende wollen Methanemissionen gezielt reduzieren
Forschende des Fraunhofer UMSICHT untersuchen gemeinsam mit der Hochschule für angewandte Wissenschaft und Kunst (HAWK) in Göttingen, wie sich zum einen die Anlagen- und Prozessparameter auf den Biogasertrag von Wirtschaftsdünger und zum anderen die Gasemissionen von vorgeschalteten Gülle- und nachgeschalteten Gärrestlagern auswirken. »Das erste Teilziel des Projekts ´Gäremission` ist die Ermittlung der Gasemissionen bei der Lagerung von Wirtschaftsdünger«, so Lukas Rüller. »Im nächsten Schritt werden die relevanten Prozessparameter auf den Biogasertrag bei der Fermentation und die Restgasemission der anschließenden Gärrestelagerung untersucht. Die unterschiedlichen Verfahren der Lagerung und Behandlung werden daraufhin in einer Ökobilanz bewertet.«
Relevant für die Bewertung sind neben der Art des Düngers und der Anzahl der Tiere auch deren Fütterung, die technischen Daten der Lagerbehälter sowie Zulaufmenge und Durchmischung. Bei den Gärrestelagern stehen vor allem die Eingangssubstrate, das Fermentersystem und die Beladung der Biogasanlage im Mittelpunkt. Gleichzeitig berücksichtigen die Forschenden die Verweilzeit im Lager und im Gesamtsystem, die Methanbildung bzw. Anlagenleistung, die Austragsmenge und die Frequenz der Gärreste.
Dazu werden bis 2024 eine Vielzahl von Biogasanlagen mit Gülle- und Gärrestlagern im Raum Nordrhein-Westfalen und Niedersachsen beprobt. Auf Grundlage von Laboranalysen können die entsprechenden Faktoren dann wissenschaftlich bewertet werden.
»Unsere Arbeit kann einen wichtigen Beitrag dazu leisten, klimaschädliche Emissionen gezielt zu reduzieren und gleichzeitig Optimierungsansätze für den Gesamtprozess der Biogaserzeugung zu liefern. Am Ende des Projekts wollen wir sowohl Anlagenbetreibern als auch politischen Entscheidungsträgerinnen und -trägern eine Handlungsempfehlung bereitstellen, die technische, ökonomische sowie ökologische Randbedingungen berücksichtigt«, blickt Lukas Rüller in die Zukunft.
Förderhinweis
Das Projekt »Gäremission« wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert.
Quellen:
1https://www.umweltbundesamt.de/daten/land-forstwirtschaft/beitrag-der-landwirtsc…
2https://biogas.fnr.de/rahmenbedingungen/duengeverordnung-duev
3https://www.umweltbundesamt.de/themen/boden-landwirtschaft/umweltbelastungen-der…
Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2022/gaere…
Wenn der Klimawandel den Stöpsel zieht: Sinkt das Grundwasser, versickern Bäche und Flüsse und verschmutzen Trinkwasser
Kerstin Theilmann Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Zunehmende Trockenheit, weniger Niederschlag, vermehrter Wasserbedarf in der Landwirtschaft – der Klimawandel macht unserem Grundwasser zu schaffen. In Deutschland und weltweit führt er regional zu sinkenden Grundwasserständen. Ist der unterirdische Wasserpegel niedrig, gelangt belastetes Oberflächenwasser aus Bächen und Flüssen vermehrt ins Grundwasser. Die Folge: Unser Trinkwasser und die Grundwasserökosysteme sind gefährdet, das Mengenproblem wird damit auch zu einem Güteproblem. Das beschreiben Forscher aktuell im Fachmagazin „Water Research“. Neue Forschungsansätze und regional abgestimmte Konzepte zur Verbesserung der Grundwasserneubildung sind dringend notwendig, so ihre Empfehlung.
„Wir sehen hier eine direkte Folge des Klimawandels, wodurch unsere wichtigste Wasserressource – das Grundwasser – gefährdet ist“, unterstreicht Hans Jürgen Hahn von der Universität Koblenz-Landau, einer der Autoren der Studie. In vielen Gegenden weltweit sinkt der Grundwasserspiegel zunehmend, da auch die Neubildungsrate von Grundwasser abnimmt. Gleichzeitig steigen die Grundwasserentnahmen durch die landwirtschaftliche Bewässerung und für die Trinkwasserversorgung. Dies hat eine zusätzliche Absenkung der Grundwasserstände zur Folge, und der Landschaftswasserhaushalt ändert sich – die Klimafolgenspirale beginnt, sich immer schneller zu drehen. „Wir stehen dadurch vielerorts an einem Kipppunkt im Landschaftswasserhaushalt“, erklärt Mitautorin Anke Uhl vom Arbeitskreis Quellen und Grundwasser der Deutschen Gesellschaft für Limnologie. Anders als bisher drückt das Grundwasser durch den gesunkenen Grundwasserstand an vielen Stellen nicht mehr nach oben und speist Bäche und Flüsse (exfiltriert), sondern das Wasser der Fließgewässer versickert nun in den Untergrund (infiltriert). Als Folge dieser Druckumkehr können Schadstoffe ins unterirdische Nass eindringen. Denn in den Bächen und Flüssen fließen nicht nur Regen- und Quellwasser, sondern auch die Abläufe von Kläranlagen. „Wir reichern das Grundwasser zunehmend mit Abwasserinhaltstoffen an – mit Resten von Medikamenten, Haushaltschemikalien, künstlichen Süßstoffen und anderen Schadstoffen“, erklärt Christian Griebler von der Universität Wien.
Ein weiterer Aspekt: Durch die Umkehr der Fließrichtung zwischen Oberflächenwasser und Grundwasser trocknen Feuchtgebiete aus. „Da alle aktuellen Studien in großen Teilen der Erde weitere Rückgänge der Grundwasserstände vorhersagen, wird sich das Problem in Zukunft noch weiter verstärken. Dadurch werden wir vor allem in den zunehmend trockenen Sommern damit konfrontiert werden“, unterstreicht Petra Döll von der Goethe-Universität Frankfurt am Main.
Ihre Schlussfolgerungen stützen die Forschenden auf eine weltweite Literaturstudie zu den Folgen des Klimawandels, den Auswirkungen von Grundwasserentnahme auf diese Ressource sowie auf Fachartikel zu neuen Schadstoffen im Grundwasser. „Diese Zusammenhänge sind naheliegend, bislang hatte sie die Wissenschaft aber noch nicht auf dem Radar“, ordnet Markus Weiler von der Universität Freiburg das Gewicht der Studienergebnisse ein.
Regionale Unterschiede
Der Klimawandel findet regional unterschiedlich statt. Dabei variieren die Niederschläge, die Grundwasserneubildung und die Menge der Grundwasserentnahme je nach Gebiet wie auch die Ausprägung der Wechselwirkung zwischen Oberflächenwasser und Grundwasser – die hydrogeologischen Verhältnisse.
So sind in Österreich insbesondere der Osten, Nordosten und Südosten betroffen. Die in Deutschland beeinträchtigten Gebiete sind übers Bundesgebiet verteilt: Unter anderem sind die Regionen Oberrhein, Mittelfranken, Allgäu, östliches Niedersachsen, westliches Nordrhein-Westfalen und Südhessen betroffen sowie große Teile der neuen Bundesländer.
Konzepte auf die Gegebenheiten vor Ort anpassen
„Die Studie zeigt vor allem auch, dass wir neue wissenschaftliche Ansätze und Modelle auf regionaler und lokaler Ebene brauchen, um die Wechselwirkungen zwischen Oberflächenwasser und Grundwasser und vor allem die Kipppunkte im Landschaftswasserhaushalt zu ermitteln“, erklärt Markus Noack von der Hochschule Karlsruhe. Klar wird auch: Das Oberflächenwasser muss weiter vor Verschmutzung geschützt werden. Denn der Zustand der oberirdischen Gewässer hat direkte Konsequenzen für die Qualität des Grundwassers. Zur Minimierung von Schadstoffen im Wasserkreislauf gibt es eine Lösung: „Es ist höchste Zeit, den Wasserverbrauch industriell wie privat zu senken, um weniger Grundwasser fördern zu müssen. Zusätzlich ist es wichtig, den Eintrag langlebiger Schadstoffe in den Wasserkreislauf drastisch zu reduzieren und vierte Reinigungsstufen in Kläranlagen konsequent ausbauen“, so Anke Uhl.
Wissenschaftliche Ansprechpartner:
Universität Koblenz-Landau
iES Landau – Institut für Umweltwissenschaften
Arbeitsgruppe Molekulare Ökologie
PD Dr. Hans Jürgen Hahn
Tel.: +49 (0)6341 280-31211
E-Mail: hjhahn@uni-landau.de
Originalpublikation:
Uhl, A., Hahn, H.J., Jager, A., Luftensteiner, T., Siemensmeyer, T., Doll, P., Noack, M., Schwenk, K., Berkhoff, S., Weiler, M., Karwautz, C., Griebler, C (2022). Making waves: Pulling the plug – Climate change effects will turn gaining into losing streams with detrimental effects on groundwater quality, Water Research Volume 220
https://doi.org/10.1016/j.watres.2022.118649
Materialrecycling – Aus alten Batterien werden neue
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Das Karlsruher Institut für Technologie (KIT) ist maßgeblich an einem neuen Projekt zum Batterierecycling beteiligt: In „LiBinfinity“ erarbeiten Partner aus Forschung und Industrie ein ganzheitliches Konzept zur Wiederverwertung der Materialien von Lithium-Ionen-Batterien. Dazu wird ein mechanisch-hydrometallurgisches Verfahren ohne energieintensive Prozessschritte vom Labor in einen für die Industrie relevanten Maßstab überführt. Das KIT prüft die Rezyklate auf ihre Eignung zum Herstellen neuer Batterien. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity mit knapp 17 Millionen Euro, davon erhält das KIT rund 1,2 Millionen Euro.
Das Karlsruher Institut für Technologie (KIT) ist maßgeblich an einem neuen Projekt zum Batterierecycling beteiligt: In „LiBinfinity“ erarbeiten Partner aus Forschung und Industrie ein ganzheitliches Konzept zur Wiederverwertung der Materialien von Lithium-Ionen-Batterien. Dazu wird ein mechanisch-hydrometallurgisches Verfahren ohne energieintensive Prozessschritte vom Labor in einen für die Industrie relevanten Maßstab überführt. Das KIT prüft die Rezyklate auf ihre Eignung zum Herstellen neuer Batterien. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity mit knapp 17 Millionen Euro, davon erhält das KIT rund 1,2 Millionen Euro.
Die Nachhaltigkeit der Elektromobilität hängt wesentlich von den Batterien ab. Diese enthalten wichtige Rohstoffe wie Lithium, Kobalt, Nickel und Mangan. Die in Lithium-Ionen-Batterien verwendeten Materialien lassen sich zu über 90 Prozent stofflich wiederverwerten. Doch das nun gestartete Projekt LiBinfinity geht darüber weit hinaus und zielt auf ein ganzheitliches Recyclingkonzept für Lithium-Ionen-Batterien (LiB). „Vor allem bei der Elektrifizierung von Lkws benötigen die Batterien so viel Material, dass ein Einsatz der Rezyklate für andere Anwendungen nicht ausreichend ist“, sagt Professor Helmut Ehrenberg, Leiter des Instituts für Angewandte Materialien – Energiespeichersysteme (IAM-ESS) des KIT. „Vielmehr bedarf es eines geschlossenen Kreislaufs bei den Batterien selbst. Das bedeutet, die Materialien aus gebrauchten Batterien zur Herstellung neuer Batterien zu verwenden.“
In LiBinfinity erarbeiten Partner aus Forschung und Industrie einen Ansatz, der sich von Logistikkonzepten bis hin zur Reintegration von Rezyklaten in den Lebenszyklus der Batterie erstreckt. Sie entwickeln ein mechanisch-hydrometallurgisches Verfahren, das ganz ohne energieintensive Prozessschritte auskommt und höhere Recyclingquoten ermöglicht: Materialien, die sich nicht mechanisch trennen lassen, werden unter relativ niedrigen Temperaturen mithilfe von Wasser und Chemikalien aufgespalten.
Kathodenmaterialien müssen hohe Anforderungen erfüllen
Das KIT übernimmt in LiBinfinity die Aufgabe, die Rezyklate, das heißt die wiedergewonnenen Stoffe, auf ihre Eignung als Ausgangsstoffe für die Herstellung neuer Batterien zu prüfen. „Diese Validierung ist unerlässlich, da Materialien für Batterien hohe Anforderungen erfüllen müssen“, erklärt Dr. Joachim Binder, Leiter der Forschungsgruppe Synthese und keramische Pulvertechnologie am IAM-ESS. „Vor allem gilt dies für Kathodenmaterialien, die Effizienz, Zuverlässigkeit, Lebensdauer und Kosten der Batterien wesentlich mitbestimmen.“ Am KIT laufen für LiBinfinity folgende Arbeiten: Eingangskontrolle der Rezyklate, Synthese neuwertiger Kathodenmaterialien, Elektrodenfertigung, Herstellung von großformatigen Lithium-Ionen-Batteriezellen in Industriequalität, Zelltestung und Bewertung der Batteriezellen. Basierend auf den Untersuchungen werden die Anforderungen an die Qualität der Rezyklate festgelegt, um diese in den Wertstoffkreislauf zurückführen zu können.
Ein ganzheitliches Recyclingkonzept für Batteriematerialien verbessert nicht nur die Nachhaltigkeit der Elektromobilität unter ökologischen, ökonomischen und sozialen Aspekten, sondern verringert auch Europas Rohstoffabhängigkeiten.
Über LiBinfinity
Für das Projekt LiBinfinity hat sich ein Konsortium um die Licular GmbH zusammengefunden, einem 100-prozentigen Tochterunternehmen der Mercedes-Benz AG. Projektpartner sind neben dem KIT die Mercedes-Benz AG, die Daimler Truck AG, die Primobius GmbH, die SMS group GmbH, die Technische Universität Clausthal und die Technische Universität Berlin. Am Mercedes-Benz-Standort Kuppenheim entsteht eine Recycling-Pilotanlage mit einer Jahreskapazität von 2 500 Tonnen. Das Bundesministerium für Wirtschaft und Klimaschutz (BMWK) fördert LiBinfinity in der Fördermaßnahme zum „Batterie-Ökosystem“ mit knapp 17 Millionen Euro. Davon erhält das KIT rund 1,2 Millionen Euro. Das Vorhaben LiBinfinity trägt soll wesentlich dazu beitragen, die von der Europäischen Kommission vorgeschlagenen und derzeit noch in Abstimmung befindlichen Zielvorgaben im Rahmen der EU-Batterieregulierung zu erfüllen. (or)
Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Originalpublikation:
https://www.kit.edu/kit/pi_2022_077_materialrecycling-aus-alten-batterien-werden…
Cochrane Review: Fraglicher Nutzen teurer High-Tech-Laufschuhe für Verletzungsschutz
Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Macht es einen Unterschied, welche Art von Laufschuhen man trägt, wenn es um Verletzungen und Schmerzen beim Joggen geht? Ein aktueller Cochrane Review findet dafür auf Basis schwacher Evidenz keine Hinweise.
Wer schon mal versucht hat, in Bergstiefeln, Stilettos oder Badelatschen joggen zu gehen, der weiß: In Sportschuhen geht das besser. Doch welche der vielen unterschiedlichen Typen von Laufschuhen ermöglichen nicht nur sportliche Höchstleistungen, sondern schützen vor Lauf-Verletzungen und schmerzhaften Überbelastungen?
Die Autor*innen eines neuen Cochrane Reviews haben nun die wissenschaftliche Evidenz zu dieser Frage ausgewertet. Sie fanden 12 randomisierte oder quasi-randomisierte Studien mit insgesamt mehr als 11.000 Teilnehmenden, die unterschiedliche Typen von Laufschuhen miteinander verglichen.
Leider erlaubt die momentan verfügbare Evidenz kaum eindeutige Schlüsse. Grund dafür ist die nach Einschätzung der Autor*innen fast durchwegs niedrige bis sehr niedrige Vertrauenswürdigkeit der Evidenz (nach GRADE), bedingt insbesondere durch die fehlende Verblindung der Teilnehmenden gegenüber dem Typ von Laufschuh, der ihnen zugeteilt war. Zudem war die Studiengröße für einige Vergleiche sehr klein.
Dort wo sich verwertbare Hinweis aus der Evidenz ergeben, sprechen diese gegen große Effekte bestimmter Laufschuhe gegenüber anderen Typen. „Wir können uns deshalb über die tatsächlichen Auswirkungen verschiedener Laufschuhtypen auf die Verletzungsraten nicht sicher sein“, so das ernüchternde Fazit der Autor*innen.
Eine ausführlichere Darstellung der Ergebnisse finden Sie auf dem Cochrane-Blog „Wissen Was Wirkt“, siehe Link.
Originalpublikation:
Relph N, Greaves H, Armstrong R, Prior TD, Spencer S, Griffiths IB, Dey P, Langley B. Running shoes for preventing lower limb running injuries in adults. Cochrane Database of Systematic Reviews 2022, Issue 8. Art. No.: CD013368. DOI: 10.1002/14651858.CD013368.pub2
Weitere Informationen:
https://wissenwaswirkt.org/laufschuhe-und-verletzungen
https://www.cochranelibrary.com/cdsr/doi/10.1002/14651858.CD013368.pub2/full/de
Auf dem Weg zu Zero Waste: 28 Maßnahmen für verpackungsarme Städte
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
Gemeinsame Pressemitteilung des Instituts für ökologische Wirtschaftsforschung (IÖW) und des Instituts für Energie- und Umweltforschung Heidelberg (ifeu)
► Was können Kommunen tun, damit weniger Verpackungen in Umlauf kommen?
► Institut für ökologische Wirtschaftsforschung (IÖW) und Institut für Energie- und Umweltforschung Heidelberg (ifeu) stellen Maßnahmen und Beispiele vor
► Städte sollten Verpackungsstrategien entwickeln, die Industrie, Handel und Gastronomie beraten, fördern und fordern sowie Verbraucher*innen unterstützen
Berlin/Heidelberg, 1. September 2022 – Öffentliche Flächen zu reinigen, kostet die Kommunen in Deutschland jährlich etwa 700 Millionen Euro. Ein Großteil des Mülls entsteht durch Verpackungen wie Einwegbecher, Getränkeflaschen oder To-go-Schachteln. Was können Städte und Gemeinden dagegen tun? Das Institut für ökologische Wirtschaftsforschung (IÖW) und das Institut für Energie- und Umweltforschung Heidelberg (ifeu) zeigen im Forschungsprojekt „Innoredux“: Städte haben viele Möglichkeiten, auf Unternehmen, Handel und Verbraucher*innen einzuwirken, damit diese weniger Verpackungen einsetzen und verbrauchen. Mit Förderung durch das Bundesforschungsministerium im Programm „Plastik in der Umwelt“ stellen die Forschenden in einem Leitfaden 28 Maßnahmen und zahlreiche Beispiele vor.
„Städte brauchen Verpackungsstrategien und hierfür müssen sie zunächst einmal klar definieren, welche kommunalen Ziele sie erreichen wollen“, betont Projektleiter Frieder Rubik, Umweltökonom am IÖW. „Die Stadt Kiel ist hierfür ein Beispiel: Sie will sich zu einer Zero-Waste-City entwickeln.“ Die Forschenden empfehlen, eine zentrale Anlaufstelle für die Umsetzung der Verpackungsstrategie zu schaffen, die verwaltungsintern verschiedene Maßnahmen koordiniert und Beratung anbietet. „Vor allem bei Unternehmen entstehen viele Fragen und Unsicherheiten bei der Umsetzung der kommunalen Vorgaben, etwa im Bereich Hygiene“, erläutert Rubik.
Fakten schaffen: Verträge und Satzungen
Einwegbesteck und -geschirr auf dem öffentlichen Marktplatz – Städte wie Jena und Kiel haben das mithilfe ihrer Marktsatzung unterbunden. Auch bei der Vermietung oder Verpachtung öffentlicher Liegenschaften sind ähnliche Vorschriften möglich, etwa Vorgaben für Volksfeste oder beim Catering von Sportveranstaltungen.
„Zusätzlich können Städte die Eigeninitiative der Unternehmen stärken: mit Wettbewerben für innovative Verpackungssysteme oder durch Vernetzungsangebote wie Runde Tische“, ergänzt Forscherin Eva Wiesemann vom IÖW. „Besonders ergiebig können Kooperationen in Industriegebieten sein: Welche Synergien sind möglich, um Reststoffe betriebsübergreifend zu nutzen?“
Mehrweg to go: Pfandsysteme aufbauen
Ein hoher Anteil des Verpackungsmülls in Städten entsteht in der Gastronomie, vor allem durch immer mehr To-go-Produkte. Städte können die Einführung von Mehrwegsystemen anschieben, finanziell fördern oder selbst betreiben. Freiburg im Breisgau etwa investierte 10.000 Euro in ein Pfandsystem für Mehrwegbecher. Der „FreiburgCup“ wurde 2016 bis 2021 von der Abfallwirtschaft und Stadtreinigung betrieben, bevor der Anbieter „ReCup“ den Service übernahm. Über 130 Betriebe beteiligen sich an diesem System.
Ab 2023 sind Betriebe ab einer gewissen Größe bundesweit verpflichtet, Mehrwegverpackungen für To-go-Angebote bereitzuhalten. Der Kreis Wesel etwa unterstützt Gastronomen deshalb mit Informationsveranstaltungen. Im Frühjahr 2022 wurde zudem eine Messe organisiert, auf der sich regionale Betriebe über verfügbare Mehrwegsysteme informieren konnten.
Verpackungsarm einkaufen
Mit Kampagnen, Aktionstagen und Informationsangeboten erreichen Städte auch Verbraucher*innen. Carola Bick vom ifeu nennt Beispiele: „Einkaufsratgeber stellen Tipps für einen nachhaltigen Konsum zusammen. Kommunen wie Heidelberg verschenken Frühstücksboxen an Erstklässler*innen. Und sogenannte Refill-Stationen, wo man sich kostenlos Leitungswasser abfüllen kann, erleichtern den Verzicht auf Plastikflaschen.“ Ende 2021 gab es solche Stationen deutschlandweit bereits in über 6.000 Cafés, Büros, Rathäusern oder anderen öffentlichen Einrichtungen, unter anderem in Hamburg, Hanau und Berlin.
Damit Städte selbst mit gutem Beispiel vorangehen, geben die Forschenden in ihrem Leitfaden außerdem Tipps für das Beschaffungswesen der Kommunen und deren Eigenbetriebe.
Downloads und Links:
► Verpackungsaufkommen reduzieren Einfluss und Steuerungsmöglichkeiten von Kommunen – eine Handreichung: https://www.ioew.de/publikation/verpackungsaufkommen_reduzieren
► Infografiken und Übersichts-Ökobilanzen zu beispielhaften Produktverpackungen: https://www.plastik-reduzieren.de/deutsch/infografiken/
► Einen Leitfaden für Unternehmen finden Sie auf der Projektwebsite: https://www.plastik-reduzieren.de/deutsch/veröffentlichungen/leitfaden-für-unter…
Über das Projekt Innoredux:
2019 bis 2022 erarbeiteten das Institut für ökologische Wirtschaftsforschung (IÖW) und das Institut für Energie- und Umweltforschung (ifeu) gemeinsam mit Handelsunternehmen und der Stadt Heidelberg innovative Verpackungslösungen für den Online- und stationären Handel. Im Zentrum stand die Frage, wie der Handel den Plastikeinsatz und Plastikmüll entlang der Wertschöpfungskette reduzieren kann. Berechnungen zu Ökobilanzen wurden ergänzt durch ein Reallabor, Interviews, Workshops und eine Kundschaftsbefragung. Im stationären Handel konnten der Drogeriemarkt dm, der Biohändler Alnatura und der Unverpacktladen „Annas Unverpacktes“ als Praxispartner gewonnen werden. Im Versandhandel beteiligten sich memo und der Avocadostore. Auch der Unverpackt-Verband, die Stadt Heidelberg und der Bund für Umwelt- und Naturschutz Deutschland (BUND) waren am Projekt beteiligt. Als Teil des Förderschwerpunktes „Sozial-ökologische Forschung“ hat das Bundesministerium für Bildung und Forschung das Projekt im Forschungsschwerpunkt „Plastik in der Umwelt“ gefördert.
http://www.plastik-reduzieren.de
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
http://www.ioew.de | http://twitter.com/ioew_de | http://www.ioew.de/service/newsletter
Das Institut für Energie- und Umweltforschung (ifeu) forscht und berät weltweit zu wichtigen Umwelt- und Nachhaltigkeitsthemen für zahlreiche internationale und nationale Fördermittel- und Auftraggeber. Es zählt mit über 40-jähriger Erfahrung zu den bedeutenden ökologisch ausgerichteten, unabhängigen und gemeinnützigen Forschungsinstituten in Deutschland. An den Standorten Heidelberg und Berlin sind rund 80 Wissenschaftlerinnen und Wissenschaftler der Natur-, Ingenieurs- und Gesellschaftswissenschaften beschäftigt. Das ifeu sucht Antworten auf drängende gesellschaftliche Fragen und entwickelt diese im Sinne einer transdisziplinären Ausrichtung in engem Dialog mit Akteuren aus Politik, Wirtschaft, Wissenschaft und Zivilgesellschaft: vor Ort, in Deutschland und weltweit.
Wissenschaftliche Ansprechpartner:
Dr. Frieder Rubik
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 6221/64916-6
frieder.rubik@ioew.de
Originalpublikation:
Rubik, Frieder; Wiesemann, Eva; Bick, Carola; Schmidt, Alina (2022): Verpackungsaufkommen reduzieren Einfluss und Steuerungsmöglichkeiten von Kommunen – eine Handreichung https://www.ioew.de/publikation/verpackungsaufkommen_reduzieren
Weitere Informationen:
https://www.plastik-reduzieren.de/
Gute Führung ist erlernbar – Beliebtes Führungskräfteentwicklungsprogramm der HSW geht in die nächste Runde
Lara Wollenhaupt Presse- und Öffentlichkeitsarbeit
Hochschule Weserbergland
(Hameln, im September 2022). Ein Team erfolgreich führen, Konflikte lösen und Führen in Veränderungsprozessen sind Themen, die aktueller denn je sind. Ihnen sowie diversen weiteren für den Führungsalltag relevanten Themen widmet sich das seit Jahren nachgefragte Führungskräfteentwicklungsprogramm (FKE) der Hochschule Weserbergland (HSW). In dieser Woche startet eine weitere Seminargruppe.
Seit der Programmeinführung im Jahr 2005 habe über 270 Führungskräfte aus rund 60 Unternehmen das Angebot für sich genutzt „[…] und die Nachfrage reißt zu unserer großen Freude einfach nicht ab“, berichtet Ramona Salzbrunn, Leiterin des Zentrums für Personalentwicklung und Lebenslanges Lernen an der HSW.
Erst im vergangenen Jahr starteten zwei Gruppen mit insgesamt 25 Teilnehmenden in das rund 10-monatige Zertifikatsprogramm und schlossen es kürzlich erfolgreich ab. Parallel dazu begann im April dieses Jahres eine weitere Gruppe mit zwölf Teilnehmenden und bereits diese Woche folgt die nächste mit der gleichen Anzahl an Wissbegierigen.
„Viel mehr Teilnehmende sollten es tatsächlich auch nicht sein, denn in dem Programm legen wir großen Wert darauf, dass sich jeder einzelne von ihnen individuell und seinen Bedarfen entsprechend weiterqualifizieren kann. Darüber hinaus profitiert die jeweilige Gruppe nicht zuletzt von einem intensiven Austausch und Networking untereinander“, so Salzbrunn.
Für Arbeitgeber bietet das berufsbegleitende Angebot die Möglichkeit, ihre Führungskräfte auf hohem Niveau zu qualifizieren und von ihrer Gestaltungskompetenz bei zukünftigen Herausforderungen direkt zu profitieren. In verschiedenen Modulen wird neuen als auch erfahrenen Führungskräften das praxisnahe Handwerkzeug mit an die Hand gegeben, welches sie sowohl für den Führungsalltag selbst als auch zum Vertiefen ihre sozial-kommunikativen Kompetenzen benötigen. Dabei stehen den Teilnehmenden praxiserfahrene Trainer zur Seite.
Das Angebot beinhaltet verschiedenen Bausteinen. Zu diesen zählen acht Modulen zu spezifischen Führungsthemen, drei Einzelcoachings, zwei Transfertage Führung und ein Einzel-Assessment.
Der nächste FKE-Programmstart ist für April 2023 in Planung. Interessierte können unter Telefon 05151/9559 – 20 Kontakt zum ZPL aufnehmen und sich unverbindlich informieren.
Ebenfalls gut zu wissen: Das Niedersächsische Ministerium für Wirtschaft, Arbeit, Verkehr und Digitalisierung fördert aktuell bestimmte Weiterbildungsmaßnahmen, die bis zum 30. Juni 2023 laufen. Weitere Hinweise und Fördervoraussetzungen stehen auf der Internetseite der NBank.
Weitere Informationen:
http://www.hsw-hameln.de
Breit abgestützte Schweizer Covid-19 Forschung
Medien Abteilung Kommunikation
Schweizerischer Nationalfonds SNF
Der Schweizerische Nationalfonds (SNF) unterstützte während der Corona-Pandemie insgesamt 114 Covid-19-Forschungsprojekte, für die er Fördermittel von über 45 Millionen CHF einsetzte. Im Nationalen Forschungsprogramm «Covid-19» (NFP 78) arbeiten rund 200 Forschende in 28 Projekten mit einem finanziellen Umfang von 20 Millionen CHF. Ein weiteres Forschungsprogramm zu Covid-19 steht am Start.
Für den SNF war es ein Novum, aufgrund einer akuten Krisensituation in derart kurzer Zeit Forschungsinfrastrukturen aufzubauen, um dringende Forschungsprojekte schnell aufzugleisen und geeignet zu unterstützen. Mit der Sonderausschreibung Coronaviren im März 2020 und der Lancierung des Nationalen Forschungsprogramms «Covid-19» (NFP 78) im April 2020 hat der SNF innerhalb sehr kurzer Zeit einen Rahmen für die Coronaforschung geschaffen, der die Schweizer Forschenden optimal unterstützt.
Rollende Planung und laufende Resultate
Die Herausforderung, Projekte schneller als üblich zu starten, haben die Forschenden problemlos bewältigt. So kämpften sie eher mit dem extrem dynamischen Forschungsfeld sowie mit logistischen oder personellen Problemen, die teilweise im Zusammenhang mit den Lockdowns standen. Zudem ergaben sich viele Fragestellungen, wie zum Beispiel die Long Covid-Erkrankungen, erst während der Pandemie. «Es war eine Freude zu sehen, wie sich zur Beantwortung dieser Fragen weltweit neue Forschungskooperationen bildeten. Beeindruckt hat uns auch die Kreativität und Agilität der Forschenden in diesem kompetitiven Umfeld, mit denen sie sich immer wieder den neuen Herausforderungen stellen.», resümiert Nicolas Rodondi, Professor am Berner Institut für Hausarztmedizin BIHAM und Mitglied des Nationalen Forschungsrats des SNF.
Breites Spektrum von Grundlagenforschung bis zu klinischen Studien
In der frühen Phase der Pandemie brachten epidemiologische und Monitoring-Projekte wichtige Erkenntnisse für die Swiss National COVID-19 Science Task Force, beispielsweise zur Übertragbarkeit des Virus, zum Mobilitätsverhalten der Bevölkerung während des Lockdowns, oder die wöchentlichen Analysen zur Akzeptanz von Schutzmassnahmen. Dies erlaubte dem Bundesrat, seine Empfehlungen entsprechend anzupassen. Ebenfalls ein früher Meilenstein war die Entwicklung eines günstigen Massentests durch eine Forschungsgruppe der EPFL, was erstmals den Nachweis von Covid-19 spezifischen Antikörpern bei breiten Bevölkerungsgruppen ermöglichte. «Dank dieser Tests konnten wir in Kindergärten Informationen über die Verbreitung des Virus gewinnen», erklärt Isabella Eckerle vom Universitätsspital Genf. Einen durchschlagenden Erfolg feierte das Abwassermonitoring der EAWAG Dübendorf, welches sehr präzise die Konzentration von SARS-CoV-2 Viren in Gewässern misst. Nach der ersten Forschungsphase wurde das Monitoring inzwischen auf über hundert Standorte ausgeweitet.
Wichtige Erkenntnisse aus dem biomedizinischen Bereich sind die besondere Exponierung und die unterschiedlichen Verläufe bei Kindern, die kognitiven und neuropsychologischen Einflüsse auf die psychische Gesundheit bei Erwachsenen sowie das Erkennen von Long Covid-Erkrankungen als immer noch nicht ausreichend verstandenem Gesundheitsproblem. Zahlreiche klinische Studien versuchten, für andere Indikationen eingesetzte Wirkstoffe bei Covid-19 Patientinnen und Patienten zu testen. Hier gab es neben erfolgreichen Ansätzen auch Studienabbrüche zu verzeichnen, da sich verfolgte Strategien als nicht zielbringend erwiesen.
Forschung schafft Lösungen: Entwicklung von Sensoren und Impfstoffen
Konkrete Ergebnisse von Forschungsprojekten sind ein von Forschenden der ETH Zürich entwickelter Sensor, der mit einer neu entwickelten Methode Aerosole mit Sars-CoV-2 aus der Luft filtert sowie ein Biosensor, der die Konzentration von Viren in der Raumluft von Pflegeheimen und Spitälern misst und entsprechende Warnungen auslöst.
Mehrere Forschungsprojekte widmen sich der Entwicklung neuer Corona-Impfstoffe. Impfpionier Steve Pascolo vom Universitätsspital Zürich will zum Beispiel die bewährten mRNA-Ansätze verfeinern und weiterentwickeln. Volker Thiel von der Universität Bern will einen Lebendimpfstoff als Nasenspray zur Verfügung stellen. Ob und welche dieser Ansätze es bis zur Zulassung schaffen, wird sich erst in den klinischen Phasen zeigen. «Ohne Kooperation mit der Industrie ist ein solches Wettrennen nicht zu gewinnen», sagt Volker Thiel, dessen Projekt am Anfang der klinischen Phase I steht. Die Zusammenarbeit mit der Industrie ermöglicht es, Impfstoffkandidaten in klinischen Studien zu testen und die Infrastruktur für die Produktion und Distribution von Impfstoffen bereitzustellen.
Positive Zwischenbilanz
Marcel Salathé, Professor für Epidemiologie an der EPFL, ist Präsident der Leitungsgruppe des NFP 78. Er zieht eine positive Zwischenbilanz der ersten zwei Jahre der Forschungsarbeiten. «Trotz hohem Druck und teilweise schwierigen Arbeitsbedingungen haben die Corona-Forschenden in der Schweiz eindrückliche Resultate vorgelegt», fasst er zusammen. «Da das Virus mit uns bleiben wird, muss die Forschung mit hoher Priorität weitergeführt werden.» Die Forschungsprojekte im NFP 78 laufen noch bis Ende Juni 2023. Im Dezember 2022 startet die Forschung des Nationalen Forschungsprogramms «Covid-19 in der Gesellschaft» (NFP 80). Die Projekte des Programms untersuchen die gesellschaftlichen Dimensionen, Prozesse und Massnahmen im Umgang mit Pandemien.
Nationales Forschungsprogramm «Covid-19» NFP 78
Das vom Schweizerischen Nationalfonds (SNF) durchgeführte NFP 78 hat zum Ziel, neue Erkenntnisse zu Covid-19 und zur weiteren Entwicklung der Pandemie zu gewinnen, Empfehlungen für das klinische Management und das Gesundheitswesen zu erarbeiten sowie die Entwicklung von Impfstoffen, Behandlungen und Diagnostika zu unterstützen.
In vier Modulen werden Aspekte der Biologie, Pathogenität und Immunogenität von SARS-CoV-2, neue Ansätze in der Covid-19-Epidemiologie und Prävention, Grundlagen für Impfstoffe, Medikamente und Diagnostika sowie innovative klinische Ansätze und therapeutische Interventionen zur Behandlung von Covid-19 Erkrankungen erforscht.
Die Forschung im NFP 78 startete im Herbst 2020 und dauert zweieinhalb Jahre. Das NFP ist mit einem Budget von 20 Millionen Schweizer Franken ausgestattet. Aus den 190 eingereichten Gesuchen wählte der SNF im Juli 2020 28 Forschungsprojekte aus, deren Ergebnisse schnellstmöglich veröffentlicht, kommunikativ begleitet und mit Politik und Gesellschaft diskutiert werden sollen.
Der Text dieser Medienmitteilung und weitere Informationen stehen auf der Webseite des Schweizerischen Nationalfonds zur Verfügung.
Wissenschaftliche Ansprechpartner:
Marcel Salathé
Präsident der Leitungsgruppe NFP 78
EPFL, Campus Biotech / Bâtiment B1.01
Ch. des Mines 91202
Genève
Tel.: +41 21 693 09 91
E-Mail: marcel.salathe@epfl.ch
Mark Bächer
Kommunikationsverantwortlicher NFP 78
Tel. +41 43 266 88 50
E-Mail: mark.baecher@lscom.ch
Weitere Informationen:
https://www.snf.ch/de/ugAcpfy8WjBXV0xK/news/breit-abgestuetzte-schweizer-covid-1…
Mit dem IntelliGrid-Stecker Strom intelligenter nutzen
Frauke Schäfer Pressestelle
Fachhochschule Kiel
Projekt der Fachhochschule (FH) Kiel will Stromnutzung effizienter machen. Mit dem IntelliGrid-Stecker lassen sich einige Haushaltsgeräte gezielt verwenden, wenn günstiger Strom verfügbar ist. Zurzeit sucht das Projekt-Team Testhaushalte.
Die Speicherung von Elektrizität ist schwierig. Kondensatoren sind oft sehr teuer und ihrer Kapazität begrenzt; Akkumulatoren weisen deutliche Energieverluste auf und haben eine begrenzte Lebensdauer. Deshalb gilt meistens: Die Stromerzeugung in einem Elektrizitätsnetz muss dem aktuellen Verbrauch folgen. Das ist insbesondere für erneuerbare Energie aus Wind und Sonne ein Problem. Schließlich bläst der Wind nicht immer gleich stark und die Sonne scheint nicht an allen Tagen mit derselben Intensität.
Forschende der Fachhochschule (FH) Kiel haben sich deswegen das Ziel gesetzt, verfügbare Energie effizienter nutzbar zu machen. Prof. Dr. Ralf Patz, Dozent am Institut für Kommunikationstechnik und Embedded Systems des Fachbereichs Informatik und Elektrotechnik, hat mit seinem Team einen Stecker entwickelt, mit dem die im Netz verfügbare elektrische Energie dann genutzt werden soll, wenn gerade viel verfügbar ist. Ziel des Projekts ist es zu evaluieren, ob es möglich ist, Geräte in privaten Haushalten, hauptsächlich Geräte wie Geschirrspüler, Waschmaschine und Wäschetrockner, als schaltbare Last zu verwenden, um zum Ausgleich von Angebot und Nachfrage im Stromnetz beizutragen.
„Verbrauch und Erzeugung von elektrischer Energie unterliegen starken Schwankungen. In privaten Haushalten ist der Verbrauch morgens und abends am größten. Strom aus erneuerbaren Energien wird jedoch nicht – wie von Kohle, Gas oder Atomkraft – konstant erzeugt, sondern ist wetterabhängig. Hier setzt IntelliGrid ein“, erläutert Patz. Der Stecker soll den Stromverbrauch auf Zeiten verschieben, in denen der Strom am günstigsten ist. Das Projekt konzentriert sich in der ersten Erprobungsphase auf die Verbraucher Waschmaschine, Trockner und Geschirrspülmaschine. Sie werden fast täglich benutzt und ihre Nutzung kann leicht verschoben werden.
Und so funktioniert‘s: Die Haushalte stecken den IntelliGrid-Stecker zwischen Steckdose und Geräte. Über das Heim-WLAN kommuniziert der Stecker mit dem IntelliGrid-Server. Die Nutzer*innen verwenden eine Smartphone-Anwendung, um dem Stecker zu sagen, wann etwa die Waschmaschine fertig sein soll. Der Server von IntelliGrid sucht dann nach dem besten Zeitraum, um die Waschmaschine laufen zu lassen und dabei den verfügbaren Strom am besten nutzt.
Zurzeit sucht das IntelliGrid Team interessierte Haushalte, die für drei Monate das System testen möchten und dann im Anschluss einen Fragebogen ausfüllen.
Wissenschaftliche Ansprechpartner:
Benjamin Mahler
Fachhochschule Kiel, Informatik und Elektrotechnik
benjamin.mahler@fh-kiel.de
Weitere Informationen:
https://IntelliGrid.eu
Das Arbeitsvolumen in Deutschland ist erneut gestiegen
Sophia Koenen, Jana Bart, Inna Felde und Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das Arbeitsvolumen stieg im zweiten Quartal 2022 gegenüber dem entsprechenden Vorjahresquartal 2021 um 1 Prozent auf 14,5 Milliarden Stunden. Dies geht aus der am Dienstag veröffentlichten Arbeitszeitrechnung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.
Die Zahl der Erwerbstätigen verzeichnete im zweiten Quartal 2022 einen deutlichen Anstieg von 664.000 Personen gegenüber dem Vorjahresquartal 2021 und liegt mit 45,5 Millionen Personen über dem Niveau vor Ausbruch der Covid-19-Pandemie im ersten Quartal 2020. Pro erwerbstätiger Person betrug die Arbeitszeit im zweiten Quartal 2022 durchschnittlich 319,3 Stunden. Damit zeigt sich ein Rückgang von 0,5 Prozent gegenüber dem Vorjahresquartal.
„Wegen des Beschäftigungsaufschwungs werden in Deutschland wieder fast so viele Stunden gearbeitet wie vor der Pandemie. Die Omikron-Welle und andere Infektionen sowie der Teilzeit-Boom lassen die geleistete Arbeitszeit pro Kopf aber trotz des Rückgangs der Kurzarbeit sinken.“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Nach vorläufigen Hochrechnungen ging die Kurzarbeit im zweiten Quartal 2022 gegenüber dem entsprechenden Vorjahresquartal um 1,78 Millionen Personen auf nun 390.000 Personen deutlich zurück.
Der Krankenstand lag im zweiten Quartal 2022 mit 5,18 Prozent deutlich über dem des Vorjahresquartals von 4,11 Prozent.
Die Teilzeitquote ist gegenüber dem Vorjahresquartal um 0,3 Prozentpunkte gestiegen und lag bei 38,8 Prozent. Damit hat sie ihren Höchstwert vom zweiten Quartal 2019 wieder erreicht. „Dies liegt auch an einem Beschäftigungszuwachs gerade in Branchen mit einem hohen Teilzeitanteil wie dem Gesundheits- und Sozialwesen oder dem Bereich Erziehung und Unterricht.“, erklärt IAB-Forscherin Susanne Wanger. Allerdings hat die Teilzeitquote damit erst wieder das Vorkrisenniveau erreicht. Zudem legen die Überstunden nach dem Corona-Einbruch wieder zu. „Ein Quiet Quitting kann man aus den Arbeitszeitdaten aktuell nicht ablesen“, stellt Weber fest.
Im Rahmen der Revision der Volkswirtschaftlichen Gesamtrechnungen des Statistischen Bundesamtes für den Zeitraum ab 2018 (Sommerrechnung) hat das IAB seine Arbeitszeitrechnung überarbeitet. Dabei wurden Datenquellen aktualisiert und neue Datengrundlagen integriert. Eine ausführliche Darstellung der Revisionspunkte der IAB-Arbeitszeitrechnung ist unter https://doku.iab.de/forschungsbericht/2022/fb1322.pdf online abrufbar.
Eine Tabelle zur Entwicklung der Arbeitszeit steht im Internet unter https://doku.iab.de/arbeitsmarktdaten/tab-az2202.xlsx zur Verfügung. Eine lange Zeitreihe mit den Quartals- und Jahreszahlen ab 1991 ist unter https://doku.iab.de/arbeitsmarktdaten/AZ_Komponenten.xlsx abrufbar.
Weitere Informationen zur Verbreitung von bezahlten und unbezahlten Überstunden sind unter http://doku.iab.de/aktuell/2014/aktueller_bericht_1407.pdf zu finden.
Gemeinsame Ziele für die Energiewende
Veronika Packebusch Hochschulkommunikation
Hochschule Stralsund
Empfang an der HOST für österreichische Delegation bringt Vertreter*innen von Wirtschaft, Wissenschaft und Politik zu vielversprechendem Austausch.
Das ist eine „Ebene der Kooperation“, wie Ulrike Szigeti, Vize-Rektorin der Fachhochschule Salzburg, sagt, aus der gemeinsame Ziele mit Potenzial für die Energiewende erwachsen. Eine solche Ebene haben die Hochschule Stralsund, der Landkreis Vorpommern-Rügen und eine österreichische Delegation am Freitag bei einem Empfang an der Hochschule Stralsund zu den Themen Erneuerbare Energien und Wasserstoff zelebriert.
Gerahmt und gewürdigt von Redebeiträgen der Ministerin für Wissenschaft, Kultur, Bundes- und Europaangelegenheiten des Landes Mecklenburg-Vorpommern, Bettina Martin, des Landrates Stefan Kerth, und des stellvertretenden Oberbürgermeisters der Hansestadt Stralsund, Heino Tanschus, wurde ein fachlicher und ganz praktischer Austausch zwischen Vertreter*innen aus Politik, Wirtschaft und Wissenschaft vorangetrieben. Durch Pitches, die in der Kürze Tiefe aufbauen konnten (zur Wasserstofferzeugung und Aufbau einer Wasserstoffinfrastruktur sowie zur Elektro- und Wasserstoffmobilität auf der Straße, Schiene und auf dem Wasser) wurden Anknüpfungspunkte für die Zukunft gefunden.
Ministerin lobt gelebten Wissenstransfer
Die Ministerin Bettina Martin suchte das Gespräch mit Prorektor Prof. Dr. Koch, Landrat Kerth, FH-Salzburg Vize-Rektorin Szigeti, Dr. Norbert Brandtner (NEOS Salzburg) und Dr. Werner Balika (Innovation Salzburg) und fasste in ihrem Grußwort zusammen, dass an der Hochschule Stralsund „exzellente Forschungs- und Wissenschaftsarbeit geleistet würde“, womit sie sich in diesem Fall vor allem auch auf den Bereich des Institutes Regenerative Energie Systeme (IRES) bezog. „Sie helfen uns, uns als Wissenschaftsstandort wettbewerbsfähig zu machen“, lobte die Ministerin und dankte stellvertretend Prorektor Koch und der Hochschule – für den internationalen Austausch, der durch diese Kooperation begünstigt würde. „Was hier an Innovationen und Vernetzung läuft“, sei noch gar nicht so bekannt, „wir sind im Norden ja immer etwas zurückhaltender: Aber hier entsteht Zukunft“, konstatierte die Ministerin und bezeichnete den mehrtägigen Austausch als „gelebten Wissenstransfer“. Der Standort MV lebe die Energiewende und das müsse er auch in Anbetracht des Krieges auf europäischem Boden. „Jetzt sind wir unter zeitlichem Druck, wir brauchen Sie um uns zu entwickeln“, wandte sie sich an die Forschung, Wissenschaft und dahingehend tätigen Wirtschaftsunternehmen. „Um ein Vielfaches beeindruckt es mich, welcher Sachverstand hier heute an der Hochschule Stralsund zusammengekommen ist“, sagte auch der stellvertretende Oberbürgermeister der Hansestadt Stralsund, Heino Tanschus. Gebraucht würden, betonte er wie die Ministerin, Wirtschaft und Wissenschaft.
Zusammenhalt als oberste Prämisse für die Energiewende
Der Landkreis Vorpommern-Rügen hatte diesen Austausch mit diversen Unternehmensbesuchen im Kreisgebiet und der Stadt forciert und war vom 30. August bis 2. September einer der Haupt-Gastgeber desselben. „Wir müssen auf kommunaler Ebene Lust darauf haben, zusammenzuhalten und voranzugehen, dann wird das auch wahrgenommen“, sagte Landrat Stefan Kerth. Der Umstand, dass der Landkreis einen Wasserstoffmanager hat, Brennstoffzellenbusse anschaffen möchte und an vielen kleinen Mosaiksteinchen, aus denen sich Realität und Taten ergeben würden, arbeitet, zeige wie ernsthaft das Thema im Landkreis bearbeitet würde. „Sie können alle sicher sein, dass das beim Landkreis Vorpommern-Rügen keine Eintagsfliege ist“, so Kerth.
Was sich schon in den Grußworten zeigte, spiegelte sich auch auf österreichischer Seite: Wesentlich, um mit Erneuerbaren Energien voranzukommen, wird der Zusammenhalt. „Machen wir es so wie früher, wir stehen – den Rücken zusammen, wir haben dieselben Herausforderungen, lassen Sie uns die Erneuerbaren Energien vorantreiben“, forderte Dr. Norbert Brandtner (NEOS Salzburg) auf.
Fachlicher Input und Arbeitsstände der Wirtschaft
„Wir leben in einer turbulenten Zeit“, sagte der Initiator des Treffens Prof. Dr. Georg Christian Brunauer von der Fachhochschule Salzburg, „es liegt an uns, was wir daraus machen“. Die Erde, betonte er, habe zwar schon einiges mitgemacht, aber seit menschliches Leben auf ihr sei, sei die Temperatur relativ konstant. „Jetzt haben wir einen Punkt erreicht, an dem das Klima mit uns eine Art Achterbahn fährt“, so Dr. Brunauer. „Damit es angenehm mit der Atmosphäre weitergeht“, müsse alles darangesetzt werden, CO2 zu reduzieren.
In den Pitches stellten Vertreter*innen hiesiger und österreichischer Politik, Wirtschaft und Wissenschaft ihre aktuellen Bestrebungen beziehungsweise Forschungsstände und Ziele vor. Darunter waren beispielsweise von Enertrag SE Projektleiter Stephan Petzoldt, der über großtechnische Wasserstoffproduktion an vier Elektrolyse-Standorten entlang der H2-Pipeline sprach und damit über den Aufbau einer flächendeckenden Wasserstoffinfrastruktur in MV, Stralsunds Klimaschutzbeauftragter Stephan Latzko sprach über den Titel als HyExpert-Wasserstoff-Region, Dr. Michaela Leonhardt, die Leiterin des Teams Wasserstoff von Wien Energie, gab Einblicke in den Bau einer eigenen Erzeugungsanlage und André Flemming von der Steamergy GmbH & Co KG berichtete über das Bestreben, den Dampfmotor weiterzuentwickeln und den neuen Standort auf dem Stralsunder Werftgelände.
Hochschule präsentiert Wasserstofftechnologie zum Anfassen
Im Anschluss präsentierte sich die HOST – zeigte ihre Elektrolysestation, bot Laborbesichtigung und Wasserstoffexperimente an sowie Besuche der Werkstatt des ThaiGer- H2-Racingteams und der Werkstatt des Baltic Racing Teams, gab die Möglichkeit zum Probefahren mit dem ThaiGer-Rennwagen und eröffnete mit einen Info-Stand Einblicke in Tourismus und Management in der Ostseeregion und wie sie in Studiengängen an der HOST verankert sind. Am späteren Nachmittag besuchten die österreichische Delegation aus Vertreter*innen der Wirtschaft, Wissenschaft und Politik sowie Vertreter*innen der hiesigen Wirtschaft, Politik und der Hochschule Stralsund das Stralsunder Werftgelände und brachen danach zu einer Abendausfahrt mit der Weißen Flotte aus dem Stadthafen auf.
Lesen Sie auch: Neue Kooperation für Wasserstoffinfrastruktur: https://www.hochschule-stralsund.de/host/aktuelles/news/detail/n/neue-kooperatio…
„Stadt? Land? Zukunft!“ – wie im Zwischenraum von Metropolen und Dörfern etwas Neues entsteht
Cosima Oltmann Kommunikation
ZEIT-Stiftung Ebelin und Gerd Bucerius
Ein neues Magazin der ZEIT-Stiftung Ebelin und Gerd Bucerius stellt Menschen und Projekte vor, die Grenzen zwischen Städten und ländlichen Räumen aufheben. Wie können neue Verbindungen unser aller Zusammenleben verbessern?
Stadt versus Land, Modernität versus Rückständigkeit, Beton versus Idylle – politische Debatten über die Lebensräume von Menschen sind oft von Klischees geprägt. Dabei haben Metropolen und ländliche Räume viel gemeinsam. Und zahlreiche Initiativen und Grenzgänger:innen zwischen den Welten arbeiten daran, die Unterschiede weiter zu verwischen. Die ZEIT-Stiftung Ebelin und Gerd Bucerius veröffentlicht daher ein Magazin, das sich den Räumen zwischen Regionen widmet. Wie gelingt es, Städte und ländliche Räume besser zu verbinden? Wie können Technologien dabei helfen? Was können Politik und Verwaltung tun?
Für das Magazin „Stadt? Land? Zukunft!“ hat das Bucerius Lab, das Zukunftslabor der ZEIT-Stiftung, in Zusammenarbeit mit dem Thünen-Institut für Regionalentwicklung sowie dem Denk- und Designbüro studio amore Studien gewälzt, Menschen getroffen und Ideen gesammelt. Herausgekommen sind spannende Geschichten über den Wandel, wie und wo Menschen leben möchten. In mehreren Porträts werden Akteur:innen vorgestellt, die sich den großen Herausforderungen unserer Zeit stellen und die Räume zwischen Stadt und Land zu regelrechten „Zukunftsorten“ machen. Und auch die verständliche Aufbereitung von wissenschaftlichen Grundlagen, wie man verschiedene Lebensräume einordnen kann, kommt nicht zu kurz.
„Die Texte rund um die Zukunft unseres Zusammenlebens sollen die Leser:innen inspirieren und motivieren, selbst mit anzupacken und etwas zu bewegen“, erklärt Manuel J. Hartung, Vorstandsvorsitzender der ZEIT-Stiftung Ebelin und Gerd Bucerius, das Ziel des Magazins. „Damit Demokratie und gesellschaftlicher Zusammenhalt funktionieren, dürfen Teilhabe und Wohlstand nicht stärker mit Ballungsräumen verbunden sein als mit anderen Orten, an denen Menschen leben.“
„Stadt-Land-Beziehungen sind vielfältiger als das, was wir häufig auf den ersten Blick sehen. Es gibt nicht nur Metropolen und – wahlweise idyllische oder abgehangene – Peripherie“, sagt Eleonore Harmel, wissenschaftliche Mitarbeiterin am Thünen-Institut für Regionalentwicklung und Mitgründerin des studio amore. „Wenn wir beides nicht mehr als getrennte Welten betrachten, finden wir schon heute Menschen und Projekte, Dörfer, Städte und Regionen, die ganz praktisch an ihrer Zukunftsfähigkeit bauen. In unserer wissenschaftlichen Analyse zeigen wir vier Wege, wie sich die Zukunft von Städten, ländlichen Regionen und den Räumen dazwischen entwickeln könnte.“
„In unserem Magazin stellen wir engagierte Menschen mit innovativen Ideen vor – in Städten und in ländlichen Räumen“, sagt Mirjam Büttner, Leiterin des Bucerius Labs der ZEIT-Stiftung. „Und egal in welcher Region, eines konnten wir überall sehen: Es braucht Menschen, die Stadt und Land als Kontinuum denken, und Verwaltungen, die Transformation als ihre Hauptaufgabe verstehen.“
Das neue Magazin der ZEIT-Stiftung wir beim ÜBERLAND Festival vom 2. Bis 4. September 2022 in Görlitz vorgestellt. Es wird in den kommenden Wochen auch bei anderen Veranstaltungen präsentiert und diskutiert. Ein besonderes Highlight: Im Oktober liegt „Stadt? Land? Zukunft!“ zum kostenfreien Lesen in den Fernverkehrszügen der Deutschen Bahn aus und lädt zum Schmökern und sich-Inspirieren-lassen ein.
Das Magazin in einer Online-Version zum Durchblättern finden Sie hier: https://read.zeit-stiftung.com/slz/
Das Magazin zum Download finden Sie hier: https://read.zeit-stiftung.com/slz/docs/Zeit_Stiftung_Zukunftsatlas.pdf
Die ZEIT-Stiftung Ebelin und Gerd Bucerius fördert Wissenschaft und Forschung, Kunst und Kultur sowie Bildung und Erziehung. Sie initiiert Debatten zu Themen, die Politik und Gesellschaft betreffen, und eröffnet Foren zur digitalen Entwicklung. In der Tradition ihrer Stifter Ebelin und Gerd Bucerius sieht sie sich als Teil und Förderer einer liberalen, weltoffenen Zivilgesellschaft, die Lösungen finden muss für die vielfältigen Herausforderungen unserer Zeit.
Das Bucerius Lab der ZEIT-Stiftung beschäftigt sich mit Zukunftsthemen: Es konzentriert sich auf den digitalen Wandel, der zu einem zentralen Motor gesellschaftlicher, ökonomischer, politischer und kultureller Veränderungen geworden ist. Fragen rund um die Entwicklung von Stadt und Land im digitalen Zeitalter bilden derzeit einen Arbeitsschwerpunkt des Labs.
Bei Rückfragen wenden Sie sich bitte an die ZEIT-Stiftung, Jessica Staschen, Leitung Kommunikation, Tel. 040 41336871 oder E-Mail: staschen@zeit-stiftung.de.
Chronische Entzündungen: Welche Rolle spielen ein verbreiteter Rezeptor und die Ernährung?
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Unter Koordination der Charité – Universitätsmedizin Berlin werden Forschende in den kommenden drei Jahren der Rolle des Arylhydrocarbon-Rezeptors bei chronischen Entzündungen im Zusammenhang mit Ernährung nachgehen. Zu dem interdisziplinären Verbundvorhaben TAhRget (Targeting AhR-dependent Inflammation for Organ Protection) tragen sechs Partnereinrichtungen bei. Die Projektleitung hat das Experimental and Clinical Research Center (ECRC) – ein gemeinsames klinisches Forschungszentrum der Charité und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Arbeiten mit rund drei Millionen Euro.
Viele chronische Erkrankungen und Autoimmunerkrankungen gehen mit andauernden oder schubweise auftretenden Entzündungen einher, die zu schweren Organschäden führen können. Mit solchen chronischen Entzündungsprozessen wird der Arylhydrocarbon-Rezeptor (AhR), der in einer Vielzahl unserer Körper- und Immunzellen vorkommt und dabei hilft, körperfremde Stoffe aus dem Körper zu schleusen, in Zusammenhang gebracht. Die dahinterstehenden Mechanismen sind allerdings bislang nicht hinreichend erforscht. Nun startet das BMBF-Verbundprojekt TAhRget, das die Rolle des Rezeptors AhR bei der Entstehung von Entzündungen und den Einfluss von Ernährung am Beispiel der chronischen Niereninsuffizienz (CKD) und der Multiplen Sklerose (MS) näher beleuchten soll. Vor dem Hintergrund dieser beiden sehr unterschiedlichen Erkrankungen erhoffen sich die Wissenschaftler:innen ein genaueres Bild über das Bindungs- und Wirkspektrum von AhR. „Wir möchten herausfinden, ob sich AhR als therapeutisches Ziel – im Englischen ‚target‘ – für Behandlungsstrategien eignet, mit denen Entzündungsprozesse in Schach gehalten und Organschäden minimiert oder gänzlich verhindert werden könnten“, sagt Dr. Nicola Wilck von der Medizinischen Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin der Charité, Gruppenleiter am ECRC und Koordinator des TAhRget-Verbundprojekts.
Das interdisziplinäre Forschungsteam des Verbunds aus sechs überregionalen Partnern will in den kommenden drei Jahren mithilfe von Patientenkohorten, Tiermodellen, Zellkulturen, Einzelzellanalysen sowie Mikrobiom- und Ernährungsstudien herausfinden, ob und in welchem Maße der Rezeptor AhR zu Entzündungsprozessen bei CKD und MS beiträgt, die die Organe schädigen. Auch fahnden die Forschenden nach aussagekräftigen Biomarkern, die die Aktivität von AhR anzeigen können. Bekannt ist, dass der Rezeptor körperfremde Stoffe – etwa Nahrungsbestandteile oder Stoffwechselprodukte unserer Darmbakterien – bindet, um sie ausscheidungsfähig zu machen. Studienergebnisse zeigen außerdem, dass sich Ernährungsumstellungen auf Erkrankungen mit chronischen Entzündungen positiv auswirken können.
„Wir vermuten, dass hier AhR-vermittelte Prozesse eine Rolle spielen. Ein Schwerpunkt unserer Untersuchungen wird daher insbesondere auf ernährungs- und mikrobiomvermittelten Prozessen liegen, die den AhR und damit einhergehende entzündliche Prozesse bei CKD und MS steuern“, sagt Dr. Anja Mähler, Leiterin der Clinical Research Unit am ECRC und Teilprojektleiterin von TAhRget mit dem Schwerpunkt Ernährung. Das Ziel ist herauszufinden, welche Nahrungsbestandteile, Stoffwechselprodukte und Ernährungsformen sich negativ und welche sich positiv auf AhR-vermittelte entzündliche Prozesse auswirken, um dies bei der Behandlung von Patient:innen künftig berücksichtigen zu können. „Unser interdisziplinärer Verbund vereint Kliniker:innen aus Nephrologie und Neurologie, Immunologinnen und Immunologen, Mikrobiom- und Metabolomik-Forschende sowie Ernährungswissenschaftler:innen“, sagt Dr. Wilck. „Mit diesem gemeinschaftlichen und fachübergreifenden Forschungsansatz erhoffen wir uns, grundlegend neue und zukunftsweisende Erkenntnisse über die Beteiligung des AhR an chronischen Entzündungen zu gewinnen und damit den Weg zu neuen Behandlungsformen zu bahnen.“
Verbundvorhaben TAhRget
Das TAhRget-Verbundprojekt wird im Rahmen der BMBF-Ausschreibung „Förderung interdisziplinärer Verbünde zur Erforschung von Pathomechanismen“ unterstützt. Die Charité – Universitätsmedizin Berlin koordiniert das interdisziplinäre Vorhaben, zu dem sechs Partnereinrichtungen beitragen. Das Experimental and Clinical Research Center (ECRC), ein gemeinsames klinisches Forschungszentrum der Charité und des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft, hat die Projektleitung inne. Weitere Partner sind das Helmholtz-Zentrum für Infektionsforschung (HZI), das Universitätsklinikum Erlangen, das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und die Universität Regensburg. Projektstart ist der 1. September 2022.
Wissenschaftliche Ansprechpartner:
Dr. Nicola Wilck
Medizinische Klinik mit Schwerpunkt Nephrologie und Internistische Intensivmedizin
Charité – Universitätsmedizin Berlin
t: +49 30 450 540 459
E-Mail: nicola.wilck@charite.de
Weitere Informationen:
https://nephrologie-intensivmedizin.charite.de
https://www.mdc-berlin.de/de/wilck
Klärwerk auf Nano-Ebene – Humboldt-Stipendiat in Technischer Chemie
Alexandra Nießen Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Wasser wird auf unserem Planeten immer knapper. Und das vorhandene ist oft verschmutzt. Dr. Libing Zheng möchte das Reinigen optimieren. Er ist derzeit Stipendiat bei Professor Mathias Ulbricht an der Fakultät für Chemie der Universität Duisburg-Essen (UDE). Finanziert wird sein Aufenthalt durch ein Forschungsstipendium für Postdocs der Alexander von Humboldt-Stiftung.
Wasseraufbereitung ist in vielen Ländern inzwischen Standard. „In der Industrie könnten wir auch Meerwasser verwenden“, so Libing Zheng von der Chinese Academy of Sciences. Wenn es vorher gesäubert wird, sei das kein Problem. Möglich macht das etwa die Membrandestillation (MD). Anders als beim bisherigen Destillieren werden die einzelnen Moleküle über durchlässige Schichten (Membranen) auf Nanoebene voneinander getrennt. „MD eignet sich sehr gut dafür, Abwässer mit hohem Salzgehalt aufzubereiten, also Brackwasser, Meerwasser oder Industrieabwasser“, sagt der Stipendiat. Er wurde über das Thema an der Chinese Academy promoviert.
Ist das Schmutz-Problem mit der MD aus der Welt? „Leider nein. Die Salze, organischen Stoffe und Mikroben, die aus der Flüssigkeit herausgefiltert werden, setzen sich auf den Membranen ab, verschmutzen sie und verringern nach und nach ihre Leistung“, sagt Zheng. Gegen dieses Fouling möchte er mit magnetischen Nanopartikeln angehen. Sie sollen die Membran sauber halten: „Diese Teilchen können die Porengröße der Membran regulieren und die Ablagerung des Schmutzes kontrollieren. Sie fangen unterm magnetischen Wechselfeld an zu vibrieren, werden quasi zu ‚Nanomixern‘ und verzögern so Ablagerungen auf der Membran“, erklärt der 33-Jährige. Wenn die Frequenz des Wechselfeldes hoch ist, würden die Teilchen zudem wärmer. „Sie werden im Wechselfeld zur ‚Nano-Heizung‘ und garantieren in Kombination mit dem Mixer eine hocheffiziente Wasseraufbereitung.“
An der UDE möchte Grundlagenforscher Zheng die magnetischen Partikel bis 2024 nicht nur gegen das Fouling einsetzen. „Wir müssen unbedingt herausfinden, wie der Mechanismus im magnetischen Wechselfeld funktioniert. Damit ergründen wir auch ein wenig die Magie des Magnetismus für die Verbesserung von Membranprozessen.“
Weitere Informationen:
Fakultät für Chemie, Technische Chemie II:
Dr. Libing Zheng, lbzheng@rcees.ac.cn
Prof. Dr. Mathias Ulbricht, Tel. 0201/183 3151, mathias.ulbricht@uni-due.de
Redaktion: Alexandra Nießen, Tel. 0203/37 9-1487, alexandra.niessen@uni-due.de
Mehr Sauerstoff in früheren Ozeanen
Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Sauerstoffarme Meeresregionen wurden in vergangenen Warmzeiten offenbar kleiner
Eine paläoklimatologische Studie eines internationalen Teams um Forschende des Max-Planck-Institutes für Chemie kommt zu dem Schluss, dass sauerstoffarme Gebiete in den Meeren in langen Warmzeiten der Vergangenheit schrumpften.
Wenn der Sauerstoff knapp wird, hat es das Leben schwer. Das gilt für Bergregionen über 7.000 Meter genauso wie für umgekippte Gewässer. So können in tropischen Küstenregionen Westamerikas und Westafrikas, aber auch im Golf von Bengalen und Arabischen Meer nur spezialisierte Mikroben oder Organismen mit langsamem Stoffwechsel wie Quallen überleben.
In den vergangenen 50 Jahren haben sich die sauerstoffarme Meeresregionen sogar ausgeweitet. Das hat gravierende Folgen auch für die Menschen, die in Küstenregionen vom Fischfang leben. Die Wissenschaft schreibt diese Entwicklung der Erderwärmung zu: Dadurch löse sich zum einen weniger Sauerstoff im Wasser, zum anderen würden die Ozeanschichten schlechter durchmischt und immer größere Teile der Meere umkippen, so die gängige Meinung. Doch wie wird diese Entwicklung weitergehen und was geschah in vergangenen Warmzeiten?
Ein Team um Alexandra Auderset und Alfredo Martínez-García vom Max-Planck-Institut für Chemie in Mainz hat in einer aktuellen Studie gezeigt, dass im offenen Ozean die sauerstoffarmen Zonen während der Warmzeiten der Vergangenheit kleiner wurden.
Der frühere Sauerstoffgehalt der Ozeane lässt sich aus Sedimenten ablesen
Die Forschenden leiten diese Erkenntnis aus ihren Analysen von marinen Sedimentarchiven ab. An Bohrkernen lassen sich vergangene Umweltbedingungen ähnlich ermitteln wie an Baumringen. So geben die in den Sedimenten abgelagerten Skelette von Kleinstlebewesen wie Foraminiferen unter anderem Aufschluss über den Sauerstoffgehalt des Meeres in der Vergangenheit. Zu seinen Lebzeiten speichert das Zooplankton in seinem Skelett Stickstoff, dessen Isotopenverhältnis vom Sauerstoffgehalt des Meeres abhängt. Denn unter sauerstoffarmen Bedingungen verstoffwechseln Bakterien bei der Denitrifikation Nitrat, und zwar bevorzugt solches mit dem leichten Isotop 14N, zu molekularem Stickstoff. So verringert sich in sauerstoffarmem Meerwasser die Konzentration von 14N im Vergleich zum schwereren Stickstoffisotop 15N, weil die Bakterien dann mehr Denitrifikation betreiben.
Der tropische Pazifik war während zweier Warmzeiten gut mit Sauerstoff versorgt
Anhand des veränderten Isotopenverhältnisses in den Skeletten etwa der Foraminiferen im Sediment ermittelten die Forschenden, dass die sauerstoffarmen Regionen im östlichen tropischen Nordpazifik während zweier Warmphasen der Erdneuzeit, nämlich vor etwa 16 und 50 Millionen Jahren, schrumpften.
„Mit diesem Ergebnis haben wir nicht gerechnet“, sagt Alexandra Auderset über die Studie, die nun in der Fachzeitschrift Nature veröffentlicht wurde. „Aus dem Zusammenhang zwischen den hohen globalen Temperaturen und verringerter Denitrifikation schlussfolgern wir, dass der tropische Pazifik gut mit Sauerstoff angereichert war.“
Was das für die derzeitige Ausweitung der sauerstoffarmen Meeresregionen bedeutet, können die Forschenden aber noch nicht genau abschätzen: „Ob unser Ergebnis bereits auf die kommenden Jahrzehnte übertragbar ist oder erst auf viel längere Sicht eine Rolle spielt, bleibt unklar“, sagt die Paläoklimaforscherin Auderset.
„Das liegt daran, dass wir noch nicht wissen, ob kurz- oder langfristige Prozesse dafür verantwortlich waren.“
Dass sauerstoffarme Zonen in wärmeren Zeiten schrumpften, könnte am Rückgang der biologischen Produktivität in den tropischen Oberflächengewässer liegen. Die Produktivität könnte zurückgegangen sein, weil Winde im äquatorialen Pazifik aufgrund des wärmeren Klimas schwächer wurden.
Dafür spricht eine weitere Erkenntnis der Autoren: Während der beiden Warmzeiten des Känozoikums – dem Klimaoptimum des mittleren Miozäns vor etwa 16 Millionen Jahren und dem Klimaoptimum des frühen Eozäns vor etwa 50 Millionen Jahren – war der Temperaturunterschied zwischen hohen und niedrigen Breitengraden viel geringer als heute.
Schwächere tropische Winde während der Warmzeiten
Sowohl die globale Erwärmung als auch ein geringer Temperaturunterschied zwischen hohen und niedrigen Breitengraden dürften die tropischen Winde geschwächt haben, wodurch der Auftrieb von nährstoffreichem Tiefseewasser verringert wurde. Dies wiederum hätte zu einer geringeren biologischen Produktivität an der Oberfläche geführt. Weniger Planktonwachstum bedeutet auch, dass beim Abbau der Biomasse auch weniger Sauerstoff verbraucht wird. Diese Kette von Ereignissen kann relativ schnell ablaufen. Ist dieser Mechanismus entscheidend, dann könnte das Ausmaß des Sauerstoffmangels im offenen Ozean in den kommenden Jahrzehnten abnehmen.
Ein Blick in die Zukunft
Die Ursache für den Rückzug der Zonen mit wenig Sauerstoff könnte aber auch im Tausende von Kilometern entfernten Südpolarmeer liegen, wo der Klimawandel, anders als in anderen Meeresregionen, zu einer beschleunigten Durchmischung von Oberflächen- und Tiefenwasser führen könnte. Dadurch könnte mehr Sauerstoff in tiefere Regionen des Ozeans gelangen und sich über die Ozeanzirkulation ausbreiten, was die sauerstoffarmen Zonen schrumpfen ließe. Dieser Mechanismus würde sich allerdings erst langfristig auswirken. Wenn also die stärkere Umwälzung im Südpolarmeer Teile der sauerstoffarmen Zonen der Tropen und Subtropen beleben würde, wäre mit deren Rückzug frühestens in hundert Jahren zu rechnen.
„Vermutlich spielen beide Mechanismen eine Rolle. Jetzt geht es darum, herauszufinden, welcher der dominierende ist“, so Martínez-García und zeichnet so vor, was sein Team künftig untersuchen möchte.
Unabhängig davon, wann der Klimawandel sauerstoffarme Zonen im offenen Ozean zurückdrängen könnte, bleibt die Frage, welche Rückkopplungseffekte dann überwiegen und welche ökologischen und sozioökonomischen Folgen zu erwarten sind. So spricht letztlich alles dafür, die Klimaerwärmung so schnell wie möglich zu begrenzen.
Wissenschaftliche Ansprechpartner:
Dr. Alexandra Auderset
Max-Planck-Institut für Chemie
E-Mail: a.auderset@princeton.edu
Dr. Alfredo Martínez-García
Max-Planck-Institut für Chemie
Telefon: 06131-305 6717
E-Mail: a.martinez-garcia@mpic.de
Originalpublikation:
Enhanced ocean oxygenation during Cenozoic warm periods
Alexandra Auderset, Simone Moretti, Björn Taphorn, Pia-Rebecca Ebner, Emma Kast, Xingchen T. Wang, Ralf Schiebel, Daniel M. Sigman, Gerald H. Haug and Alfredo Martínez-García
Nature, 31 August 2022, doi: 10.1038/s41586-022-05017-0
Weitere Informationen:
https://www.mpic.de/5260697/ocean-oxygenation
Countdown zum Tiefseebergbau läuft
Sabine Letz Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Die Uhr tickt, aber ist Eile geboten? Im Jahr 2021 hat der Inselstaat Nauru eine als „Zwei-Jahres-Regel“ bekannte Vertragsbestimmung ausgelöst, die die Internationale Meeresbodenbehörde (ISA) verpflichtet, innerhalb von 24 Monaten Vorschriften für den Tiefseebergbau auszuarbeiten und zu verabschieden. Diese Frist läuft im Juli 2023 ab. Der Wissenschaftler Pradeep Singh vom Institut für transformative Nachhaltigkeitsforschung (IASS) untersucht die rechtlichen Auswirkungen dieser Bestimmung.
Der pazifische Inselstaat Nauru hat der Internationalen Meeresbodenbehörde (ISA) am 25. Juni 2021 seine Absicht mitgeteilt, sich mit Wirkung vom 9. Juli 2021 auf Abschnitt 1 Nummer 15 des Durchführungsübereinkommens von 1994 (siehe Auszug unten) zu berufen, da das unter seiner Schirmherrschaft stehende Bergbauunternehmen Nauru Ocean Resources („NORI“) beabsichtigt, die Genehmigung eines Arbeitsplans für die Ausbeutung gemäß dem Seerechtsübereinkommen der Vereinten Nationen (UNCLOS) zu beantragen. Die ISA ist ein autonomes zwischenstaatliches Gremium, das für die Regulierung von Bergbauaktivitäten in internationalen Gewässern zuständig ist.
Nauru wiederum ist eine kleine Insel im Pazifischen Ozean und liegt nordöstlich von Australien. Sie ist mit ihren 21 Quadratkilometern flächenmäßig der drittkleinste Staat der Erde. Es leben etwa 11.500 Menschen auf Nauru. Das Unternehmen Nori, in Nauru gegründet und registriert, ist eine hundertprozentige Tochtergesellschaft des in Kanada ansässigen Unternehmens „The Metals Company“ (zuvor Deep Green).
Zwei-Jahres-Regel ausgelöst
Die Berufung auf die „Zwei-Jahres-Regel“ gibt dem ISA-Rat zwei Jahre Zeit – in diesem Fall bis zum 9. Juli 2023 – um ein Regelwerk für die Ausbeutung von Mineralien auf dem internationalen Meeresboden zu verabschieden, nach dem die Einnahmen aus dem Bergbau und andere Vorteile gerecht unter den Staaten aufgeteilt werden sollen. Sollte der Rat die Vorschriften nicht innerhalb dieser Frist verabschieden und ein Antrag auf Ausbeutung eingereicht werden, müsste der Rat diesen trotzdem „prüfen“ und „vorläufig genehmigen“.
Bislang hat die ISA ein Regelwerk für Abbautätigkeiten in Bezug auf drei verschiedene Arten von Mineralien geschaffen: für polymetallische Knollen im Jahr 2000, für polymetallische Sulfide im Jahr 2010 und für kobaltreiche Ferromangankrusten im Jahr 2012. Bis zum 1. Januar 2022 hat die ISA 31 Explorationsverträge vergeben, aber es wurden noch keine Anträge oder Verträge für den Abbau geprüft oder vergeben. Ein Hauptgrund dafür ist laut Pradeep Singh, dem Autor der Studie, dass „die Entwicklung von Vorschriften zur Erleichterung von Abbauaktivitäten noch nicht abgeschlossen ist“.
Die vielen Unbekannten der Tiefsee
Ein Argument gegen den Tiefseebergbau ist die Existenz bisher unbekannter Arten in der Tiefsee, darunter der kürzlich entdeckte Biremis-Spaghettiwurm und das herrlich seltsame Gummieichhörnchen. Diese Entdeckungen verdeutlichen den Mangel an verfügbaren Daten über die Lebensräume der Tiefsee, die zur Bewertung der grundlegenden Umweltbedingungen in den Zielgebieten herangezogen werden könnten. Unser Wissen über die Lebensräume und Ökosystemfunktionen der Tiefsee (einschließlich ihrer Rolle bei der Klimaregulierung und der Unterstützung des Nahrungsnetzes) und darüber, wie Bergbautätigkeiten sie beeinträchtigen könnten, ist noch lange nicht umfassend.
Obwohl die wissenschaftlichen Erkenntnisse nach wie vor spärlich sind, können die Wissenschaftler bereits vorhersagen, dass die Umweltauswirkungen, die sich aus der Gewinnung von Mineralien aus dem Meeresboden ergeben könnten, erheblich und weitgehend irreversibel wären. Daher hat eine Gruppe von über sechshundert Meereswissenschaftlern und -experten dazu aufgerufen, den Übergang der ISA von der Exploration zur Ausbeutung zu unterbrechen, bis kritische Wissenslücken geschlossen sind.
Vor diesem Hintergrund müssen die ISA-Mitgliedstaaten nun ein „akzeptables“ Maß an Umweltschäden durch den Tiefseebergbau aushandeln und festlegen. Bis vor kurzem haben jedoch die Auswirkungen der Covid-19-Pandemie den Rat daran gehindert, persönlich zusammenzukommen, um die Verhandlungen voranzutreiben. Seit der Pandemie konnte der Rat nur insgesamt vier Wochen lang persönlich über die Verordnungen verhandeln und soll später in diesem Jahr noch einmal für zwei Wochen zusammenkommen.
Gleichzeitig wirft die Aufgabe, einen Schwellenwert für Umweltschäden festzulegen, auch Fragen der rechtlichen Haftung auf, erklärt der Rechtswissenschaftler Pradeep Singh, Fellow am IASS. „Wir können nur hoffen, dass die ISA versuchen wird, durch die Herausgabe von Standards und Leitlinien klarere Vorgaben zu machen, was ein ‚akzeptabler Schaden‘ und was ein ‚nicht akzeptabler Schaden‘ ist. Und welche Kriterien wir bei der Bewertung von Umweltschäden anwenden sollten“, sagt Singh. „Diese Dinge müssen vereinbart werden, damit Akteure, die die von der ISA gesetzten Grenzen überschreiten, für ihre Handlungen haftbar gemacht werden können. Leider ist die Frage der rechtlichen Haftung in den bisherigen Diskussionen weitgehend vernachlässigt worden“, erklärt Singh.
Bergbau muss allen Menschen zugutekommen
Ein Hauptanliegen derjenigen, die die Bergbauvorschriften (zusammenfassend als Bergbaugesetz bezeichnet) ausarbeiten, ist, dass der Tiefseebergbau auf dem internationalen Meeresboden zum Nutzen der gesamten Menschheit erfolgen muss. Da die Verabschiedung der Vorschriften den Weg für die Aufnahme des kommerziellen Bergbaus ebnen würde, müssen die Mitgliedstaaten darauf vertrauen können, dass das von ihnen gebilligte Regime tatsächlich den Interessen aller dient und nicht nur einer Handvoll von Akteuren.
In der Studie kommt Pradeep Singh zu dem Schluss, dass die so genannte Frist keine absolute Frist ist und sich ihr Versäumen aus rechtlicher Sicht als weitgehend folgenlos erweisen könnte. Ein übereiltes Einhalten der Frist, ohne sicherzustellen, dass die Regelung zunächst „zweckmäßig“ ist, könnte weitaus schwerwiegendere Folgen haben, einschließlich der Gefahr, dass die ISA gerichtlich belangt wird und ihren Ruf schädigt. Er fordert die ISA-Mitgliedsstaaten daher dringend auf, sich die nötige Zeit für die Entwicklung eines robusten und vorsorglichen Systems zu nehmen, und rät dazu: „Die ISA sollte sich nicht zu sehr unter Druck gesetzt fühlen, die Verordnungen fertig zu stellen, insbesondere wenn dies bedeutet, dass minderwertige, inkohärente oder unvollständige Anforderungen eingeführt werden, um die gefühlte Frist einzuhalten.“
Gleichzeitig ist die Genehmigung eines Arbeitsplans nicht automatisch oder garantiert, wenn die Frist verpasst und ein Antrag auf Nutzung eingereicht wird. Der ISA-Rat könnte einen solchen Antrag ablehnen, wenn Bedenken hinsichtlich des Schutzes der Meeresumwelt vor den schädlichen Auswirkungen der Bergbautätigkeiten im Rahmen des Plans oder hinsichtlich der Angemessenheit der Umweltinformationen und -maßnahmen wie Folgenabschätzungen oder Überwachung bestehen. „Die Uhr tickt schnell und die Frist rückt näher, aber es gibt keinen Grund zur Eile“, fügt er hinzu.
Hintergrundmaterial zu dieser Pressemitteilung:
Abschnitt 1 Absatz 15 lautet wie folgt in einer aus dem Englischen übersetzen Version:
Die [ISA] arbeitet gemäß Artikel 162 Absatz 2 Buchstabe o) Ziffer ii) des Übereinkommens [RRP] aus, die auf den in den Abschnitten 2, 5, 6, 7 und 8 dieses Anhangs enthaltenen Grundsätzen beruhen, sowie alle zusätzlichen [RRP], die zur Erleichterung der Genehmigung von Arbeitsplänen für Explorations- oder Abbauarbeiten erforderlich sind, und nimmt sie gemäß den folgenden Unterabsätzen an:
(a) Der Rat kann eine solche Ausarbeitung jederzeit vornehmen, wenn er der Auffassung ist, dass alle oder einige dieser [RRP] für die Durchführung von Tätigkeiten im Gebiet erforderlich sind, oder wenn er feststellt, dass eine kommerzielle Nutzung unmittelbar bevorsteht, oder auf Ersuchen eines Staates, dessen Staatsangehöriger beabsichtigt, die Genehmigung eines Arbeitsplans für den Abbau zu beantragen;
(b) Wird ein Ersuchen von einem unter Buchstabe a) genannten Staat gestellt, so schließt der Rat gemäß Artikel 162 Absatz 2 Buchstabe o) des Übereinkommens die Annahme solcher [RRP] innerhalb von zwei Jahren nach dem Ersuchen ab;
(c) Hat der Rat die Ausarbeitung der [RRP] für die Nutzung nicht innerhalb der vorgeschriebenen Frist abgeschlossen und ist ein Antrag auf Genehmigung eines Arbeitsplans für die Nutzung anhängig, so prüft und genehmigt er diesen Arbeitsplan gleichwohl vorläufig auf der Grundlage der Bestimmungen des Übereinkommens und der [RRP], die der Rat gegebenenfalls vorläufig angenommen hat, oder auf der Grundlage der im Übereinkommen enthaltenen Normen und der in dieser Anlage enthaltenen Bedingungen und Grundsätze sowie des Grundsatzes der Nichtdiskriminierung unter den Vertragspartnern.
Wissenschaftliche Ansprechpartner:
Pradeep Singh
E-Mail: pradeep.singh@iass-potsdam.de
Tel.: +49 331 28822 340
Originalpublikation:
Pradeep Singh: The Invocation of the ‘Two-Year Rule’ at the International Seabed Authority: Legal Consequences and Implications, The International Journal of Marine and Coastal Law, 07/2022. DOI: https://doi.org/10.1163/15718085-bja10098
Weitere Informationen:
https://www.iass-potsdam.de/de/news/countdown-zum-tiefseebergbau-laeuft
Wie verlässlich sind Corona-Schnelltests bei der Omikron-Variante?
Kirstin Linkamp Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg
Eine groß angelegte klinische Studie mit mehr als 35.000 durchgeführten Paralleltestungen am Universitätsklinikum Würzburg zeigt, dass Antigen-Schnelltests eine Schwäche bei der Erkennung von Omikron-Infektionen haben.
Würzburg. Neben Impfen gehören Abstandhalten, Lüften, Maskentragen und Testen zu den wichtigsten Schutzmaßnahmen gegen die nächste, für den Herbst erwartete Corona-Welle. Große Hoffnung liegt wieder auf den unkomplizierten, weithin verfügbaren und kostengünstigen Antigen-Schnelltests, die vielen Aktivitäten Tür und Tor öffnen. Dass man sich bei einem negativen Schnelltest aber nicht immer in Sicherheit wiegen darf, zeigt die aktuellste am Universitätsklinikum Würzburg in Kooperation mit der Universität Würzburg und der Universität Greifswald durchgeführte Studie, die jetzt im Journal Clinical Microbiology and Infection veröffentlicht wurde (https://doi.org/10.1016/j.cmi.2022.08.006)
In der bisher weltweit größten veröffentlichten klinischen Studie zu Antigen-Schnelltests hat das Team um Isabell Wagenhäuser und Dr. Manuel Krone die Sensitivität von Antigen-Schnelltests bei verschiedenen Varianten von SARS-CoV-2, darunter die aktuell vorherrschende Omikron-Variante, verglichen. Insgesamt wurden zwischen November 2020 und Januar 2022 bei 26 940 Personen 35 479 Parallel-Proben entnommen.
Ergebnis: Von 426 SARS-CoV-2-positiven PCR-Proben waren im Schnelltest nur 164 positiv. Das entspricht einer Sensitivität von lediglich 38,50 Prozent. Bei der derzeit vorherrschenden Omikron-Variante schlugen sogar nur 33,67 Prozent an. Beim Wildtyp zeigten immerhin 42,86 Prozent der Schnelltests einen positiven Befund.
Sensitivität hängt von Viruslast ab
„Wir konnten erwartungsgemäß beobachten, dass mit abnehmender Viruslast auch die Empfindlichkeit der Schnelltests abnahm“, berichtet Isabell Wagenhäuser. „Doch gerade bei einer hohen Viruslast wurden Omikron-Infektionen durch Antigen-Schnelltests schlechter erkannt.“ Studienleiter Manuel Krone fügt hinzu: „Die Viruslast, bei der Schnelltests mit einer Wahrscheinlichkeit von 50 Prozent anschlagen, war bei Omikron-Infizierten 48-fach erhöht gegenüber dem Wildtyp-Virus. Diese zuvor in Laborstudien beobachtete Verringerung der Sensitivität konnten wir erstmals im klinischen Alltag nachweisen.“
Obwohl all diese Aspekte die Verwendung von Antigen-Schnelltests weiter einschränken, seien sie dem Autorenteam zufolge nach wie vor ein unersetzliches Diagnoseinstrument für ein schnelles, großflächiges SARS-CoV-2-Screening. Manuel Krone: „Schnelltests sind kein adäquater Ersatz für PCR-Untersuchungen bei symptomatischen Personen. Doch sie können potentielle Superspreader herausfiltern und somit dazu beitragen, die nächste Infektionswelle einzudämmen.“
Wissenschaftliche Ansprechpartner:
Manuel Krone, krone_m@ukw.de
Originalpublikation:
I Wagenhäuser, K Knies, D Hofmann, V Rauschenberger, M Eisenmann, J Reusch, A Gabel, S Flemming, O Andres, N Petri, M Topp, M Papsdorf, M McDonogh, R Verma-Führing, A Scherzad, D Zeller, H Böhm, A Gesierich, A K Seitz, M Kiderlen, M Gawlik, R Taurines, T Wurmb, R-I Ernestus, J Forster, D Weismann, B Weißbrich, L Dölken, J Liese, L Kaderali, O Kurzai, U Vogel, M Krone, Virus variant specific clinical performance of SARS-CoV-2 rapid antigen tests in point-of-care use, November 2020 to January 2022, Clinical Microbiology and Infection, 2022, doi.org/10.1016/j.cmi.2022.08.006.
Grüner Wasserstoff aus Offshore-Windkraft
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
H2Mare ist eines von drei Wasserstoff-Leitprojekten, die vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt bis zu 740 Millionen Euro gefördert werden. Bei H2Mare wird innerhalb von vier Jahren gemeinsam mit rund 32 Partnern aus Wissenschaft und Industrie die Erzeugung von grünem Wasserstoff und Folgeprodukten mit Offshore-Windkraft untersucht. Mit vier seiner Institute unterstützt das Helmholtz-Zentrum Hereon die Technologieentwicklung für eine nachhaltige und umweltfreundliche Energieproduktion.
Um die Treibhausgasneutralität bis 2045 zu erreichen, muss Deutschland seinen CO2-Fußabdruck drastisch reduzieren. Die Produktion von grünem Wasserstoff, gewonnen aus erneuerbaren Energien, kann dazu einen wesentlichen Beitrag leisten. Der flexible Energieträger und von ihm abgeleitete Produkte wie Ammoniak, Methanol und synthetische Kraftstoffe – Power-to-X (PtX)-Produkte genannt – können die erzeugte überschüssige Energie speichern. Sie können etwa in der Industrie oder im Mobilitätssektor genutzt werden und somit fossile Brennstoffe ersetzen.
Für die Herstellung von grünem Wasserstoff weisen Offshore-Windparks ein großes Potential auf, denn auf dem Meer stehen große Flächen mit beständigerem Wind zur Verfügung und es gibt weniger Konflikte um die Nutzung als an Land. Um dieses Potential zukünftig zu nutzen, wird in H2Mare die direkte Produktion von Wasserstoff und anderen PtX-Produkten in maritimer Umgebung erforscht. Dies bietet auch die Chance, die Herausforderung der Netzanbindung zu umgehen und die fluktuierende erneuerbare Energie speicherbar und transportfähig zu machen und damit die Stromnetze dauerhaft zu entlasten. Das Hereon ist an zwei Verbundprojekten von H2Mare beteiligt: Das Projekt „PtX-Wind“ entwickelt und testet Möglichkeiten einer Plattform im offenen Meer, auf der aus Offshore-Windenergie direkt Wasserstoff und PtX-Produkte hergestellt werden. Das zweite Verbundprojekt mit Hereon-Beteiligung heißt „TransferWind“ und widmet sich der Umsetzung der entwickelten Technologien und dem Wissensaustausch zwischen Wissenschaft, Politik, Wirtschaft und Gesellschaft.
Die Offshore-Produktion von Wasserstoff und anderen PtX-Produkten gilt als eine der Zukunftstechnologien für die Energiewende und kann zudem die Abhängigkeit von Energieimporten verringern. Doch es gibt noch viele offene Fragen und Herausforderungen. Diese beziehen sich unter anderem auf die Umweltauswirkungen, den Betrieb und die Nachhaltigkeit der Plattform, Kosten und Wirtschaftlichkeit sowie die gesellschaftliche Akzeptanz. Vier verschiedene Hereon-Institute tragen dazu bei, diese Fragen im Laufe des Projekts zu beantworten: das Institut für Membranforschung, das Institut für Umweltchemie des Küstenraumes, das Institut für Küstensysteme – Analyse und Modellierung und das Climate Service Center Germany (GERICS).
Vier Institute – viele Aufgaben
Das Institut für Membranforschung stellt sich der Herausforderung, langzeitstabile Membranen zur Meerwasseraufbereitung für Elektrolyseverfahren herzustellen. Das sogenannte Fouling auf der Membranoberfläche muss minimiert werden. Das bedeutet, die Membranen chemisch so zu modifizieren, dass die Bildung eines Biofilms reduziert wird. „Wir werden für diesen Prozess Membranen mit verbesserten Eigenschaften entwickeln, um das Meerwasser für die verschiedenen Prozesse aufzubereiten“, sagt Dr. Volkan Filiz, Abteilungsleiter am Institut.
Das Institut für Umweltchemie des Küstenraumes bringt vor allem chemisch-analytische Erfahrung zur Untersuchung von Schadstoffen in marinen Umweltproben ein. Das hilft, mögliche Emissionen der Offshore-Plattformen wie (Schwer-)Metalle oder organische Schadstoffe frühzeitig zu benennen und folglich Emissionen weiter zu verringern. „Emissionen können etwa aus Abwasserreinigungsanlagen, Seekühlwassersystemen, Brandschutzsystemen, Öleinleitungen, vermehrtem Schiffsverkehr oder durch die notwendigen Korrosionsschutzmaßnahmen der Bauwerke entstehen“, sagt Dr. Daniel Pröfrock, Abteilungsleiter am Institut.
Das Institut für Küstensysteme – Analyse und Modellierung untersucht die Wetter- und Umweltbedingungen, um auf dieser Grundlage Sicherheitskonzepte zu erarbeiten. „Dafür erstellen wir Daten, die eine Beurteilung der Gefährdung der Plattformen und des Abtransportes der PtX-Produkte ermöglichen. Diese Daten umfassen die Windgeschwindigkeiten und Windrichtungen sowie den Seegang und Strömungsverhältnisse“, sagt Dr. Beate Geyer, Küstenforscherin am Institut.
Das GERICS beschäftigt sich mit der Frage, welchen möglichen Einfluss die Herstellung von Wasserstoff und anderen PtX-Produkten auf dem Meer auf die regionale Bevölkerung und andere Interessensgruppen, wie etwa Fischerei, Naturschutz oder Tourismus hat. Damit verbunden untersuchen die Forschenden auch die Akzeptanz für eine Offshore PtX-Plattform. „Wir setzen auf den Dialog mit den Beteiligten. Das erlaubt, die verschiedenen Positionen offenzulegen und sie gemeinsam mit Projektpartnern zu diskutieren“, sagt Dr. Paul Bowyer, Abteilungsleiter am Institut.
Große Herausforderungen, große Ziele
Die Ziele, die H2Mare verfolgt, sind Voraussetzungen zu schaffen, um klimaneutrale und leicht transportierbare Energieträger offshore zu produzieren, ins Gespräch zu kommen mit den Akteuren vor Ort, Insellösungen zu erarbeiten, damit der Anschluss an das Stromnetz auf See entfallen kann. Außerdem sollen die Erfahrungen, die in die Entwicklung einer serienreifen PtX-Produktionsplattform einfließen, auch Anwendungen in anderen Ländern und Kontexten finden. Daher wird das Projekt nicht nur den Aufbau der deutschen Wasserstoffwirtschaft unterstützen, sondern bietet auch das Potenzial, einen globalen Beitrag zur Reduktion des CO2-Fußabdruckes zu liefern.
Wissenschaftliche Ansprechpartner:
Dr. Paul Bowyer I Helmholtz-Zentrum Hereon I Climate Service Center Germany I T: +49 (0) 40 226338-427 I paul.bowyer@hereon.de I www.hereon.de
Weitere Informationen:
https://www.wasserstoff-leitprojekte.de/projects/h2mare
Es ist nie zu spät: Rauchstopp senkt Herz-Kreislauf-Risiko auch nach einem ersten Herzinfarkt noch erheblich.
Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Ein aktueller Cochrane Review zeigt, dass es sich auch nach einem ersten Herzinfarkt noch lohnt, mit dem Rauchen aufzuhören: Das Risiko eines weiteren Infarkts oder Schlaganfalls lässt sich dadurch um rund ein Drittel senken.
Über ein Drittel aller Todesfälle in Deutschland sind auf kardiovaskuläre Erkrankungen (cardiovascular disease, CVD) zurückzuführen, die sich insbesondere in Form von Herzinfarkten und Schlaganfällen manifestieren. Zu den wichtigsten beeinflussbaren Risikofaktoren für CVD gehört neben der Ernährung das Rauchen – Schätzungen zufolge ist das Tabakrauchen für rund jeden zehnten Todesfall durch CVD verantwortlich.
Dabei ist es nie zu spät, um mit dem Rauchen aufzuhören: Wie auch das Risiko für Lungenkrebs, so sinkt auch das kardiovaskuläre Risiko nach einem Rauchstopp wieder deutlich ab. Dass sich dies selbst dann noch lohnt, wenn man bereits einen ersten Herzinfarkt erlitten hat, belegt die Evidenz aus dem eben erschienenen Cochrane Review „Rauchentwöhnung zur Sekundärprävention von Herz-Kreislauf-Erkrankungen“ auf Basis von 68 Studien mit insgesamt mehr als 80.000 Teilnehmenden.
Die Kernaussagen des Reviews:
CVD-Risiko:
Menschen mit koronarer Herzerkrankung, die mit dem Rauchen aufhören, verringern wahrscheinlich ihr Risiko, einen Herzinfarkt oder Schlaganfall zu erleiden und daran zu sterben um rund ein Drittel. Die Autor*innen schätzten die Vertrauenswürdigkeit der Evidenz nach GRADE hierfür als moderat (für CVD-Todesfälle) bzw. gering (für nicht tödliche CVD-Ereignisse) ein.
Lebensqualität:
Viele Raucher lieben ihr Laster und fürchten einen Verlust an subjektiver Lebensqualität, wenn sie damit aufhören. In den acht Studien, die den Endpunkt „Lebensqualität“ mindestens 6 Monate lang nachverfolgten, bestätigte sich diese Sorge nicht. Vielmehr fühlten sich die Studienteilnehmenden, die sich zum Rauchstopp entschlossen, langfristig sogar geringfügig besser als jene, die weiter rauchten.
„Unsere Ergebnisse belegen, dass das Risiko sekundärer CVD-Ereignisse bei denjenigen, die mit dem Rauchen aufhören, im Vergleich zu denjenigen, die das Rauchen fortsetzen, sinkt, und dass sich die Lebensqualität als Folge des Rauchstopps verbessert“, schlussfolgern die Autor*innen. „Wir hoffen, dass diese Ergebnisse dazu mehr Menschen zu einem Rauchstopp motivieren und Gesundheitspersonal dazu ermutigen, Patient*innen beim Aufhören aktiver zu unterstützen.“
Originalpublikation:
Wu AD, Lindson N, Hartmann-Boyce J, Wahedi A, Hajizadeh A, Theodoulou A, Thomas ET, Lee C, Aveyard P. Smoking cessation for secondary prevention of cardiovascular disease. Cochrane Database of Systematic Reviews 2022, Issue 8. Art. No.: CD014936. DOI: 10.1002/14651858.CD014936.pub2
Weitere Informationen:
https://www.cochrane.de/news/es-ist-nie-zu-spaet-rauchstopp-senkt-auch-nach-eine…
Grüne Wasserstofftechnologien industriell nutzbar machen: deutsch-neuseeländisches Projekt zur Wasserelektrolyse
Christian Wißler Pressestelle
Universität Bayreuth
Die Gewinnung von „grünem Wasserstoff“ durch Elektrolyse aus regenerativem Strom ist eine Schlüsseltechnologie der Energiewende. Ein ungelöstes Problem ist bislang der Bedarf an teuren, schwer verfügbaren Edelmetallen. Hier setzt das zum 1. August 2022 gestartete Projekt „HighHy“ an, in dem die Universität Bayreuth mit dem Fraunhofer IFAM und drei Universitäten in Neuseeland zusammenarbeitet. Gemeinsam wollen die Partner ein kostengünstiges und ressourcenschonendes Verfahren zur Wasserelektrolyse entwickeln, das Nickel und Mangan als Katalysatormaterialien verwendet. Das BMBF fördert das Vorhaben für drei Jahre, die Universität Bayreuth erhält insgesamt rund 240.000 Euro.
Im Juni 2021 hatte das Bundesministerium für Bildung und Forschung (BMBF) den Förderaufruf „Forschungskooperation Grüner Wasserstoff mit Neuseeland“ gestartet. Drei Projekte, darunter „HighHy“, wurden vor kurzem zur Förderung ausgewählt. „Deutschland und Neuseeland haben ein starkes Interesse an der Umstellung ihrer Energiesysteme auf nachhaltigere und effizientere Technologien. Ein Schwerpunkt der bilateralen Zusammenarbeit liegt auf der grünen Wasserstofftechnologie, die ein wesentlicher Bestandteil der deutschen Dekarbonisierungsstrategie ist. Die neuseeländischen Universitäten Canterbury, Auckland und Wellington, das Fraunhofer-Institut für Fertigungstechnik und angewandte Materialforschung in Dresden sowie die Universität Bayreuth, die 2020 eine eigene Wasserstoffstrategie auf den Weg gebracht hat, sind forschungsstarke und hochmotivierte Partner, die gemeinsam die grüne Wasserstofftechnologie mit innovativen Lösungen voranbringen wollen“, erklärt die Bayreuther Projekt-Koordinatorin Prof. Dr.-Ing. Christina Roth, Inhaberin des Lehrstuhls für Werkstoffverfahrenstechnik an der Fakultät für Ingenieurwissenschaften. In die bevorstehenden Forschungsarbeiten sollen auch Studierende, Doktorand*innen und Postdocs beider Länder einbezogen werden. „Ich hoffe sehr, dass es uns gelingt, den wissenschaftlichen Nachwuchs in Deutschland und Neuseeland für elektrochemische Energietechnologien zu begeistern“, sagt Roth.
Bei der Wasserelektrolyse wird Wasser in Sauerstoff und Wasserstoff aufgespalten. Als „grün“ wird der Wasserstoff bezeichnet, wenn die für die Aufspaltung verwendete Elektrizität aus nachhaltigen Quellen wie Sonne und Wind stammt. Ausgangspunkt des Projekts „HighHy“ ist die AEM-Elektrolyse. Hierbei handelt sich um eine noch junge, vielversprechende Technologie auf der Basis von Anionenaustauschmembranen (AEM = Anion Exchange Membran). Sie wird allerdings durch die unzureichende Geschwindigkeit der Sauerstoff-Entwicklungs-Reaktion (OER) behindert. Verläuft diese Reaktion zu langsam, hat dies nachteilige Auswirkungen auf den Prozess der Wasserstofferzeugung insgesamt. Aus diesem Grund hat sich die AEM-Elektrolyse noch nicht als industrielles Verfahren etablieren können. Daher wollen die deutschen und neuseeländischen Forschungspartner im Projekt „HighHy“ hochaktive Katalysatoren entwickeln, die einen raschen und zuverlässigen Ablauf der Sauerstoff-Entwicklungs-Reaktion gewährleisten. Entscheidend ist, dass diese Katalysatoren keine seltenen Edelmetalle wie Iridium enthalten, sondern mit Nickel und Mangan – zwei gut verfügbaren und kostengünstigen Metallen – arbeiten.
Unter der Leitung von Prof. Dr.-Ing. Christina Roth wird der Lehrstuhl für Werkstoffverfahrenstechnik grundlegende Forschungsbeiträge zur Entwicklung der Katalysatormaterialien und zu neuen Methoden der Elektrodenherstellung leisten. In Zusammenarbeit mit dem Fraunhofer IFAM und den neuseeländischen Partnern sollen hocheffiziente Anoden konzipiert, über umweltfreundliche Synthesewege hergestellt und unter realen Arbeitsbedingungen direkt im Betrieb getestet werden. Gemeinsames Ziel ist es, die AEM-Elektrolyse so weiterzuentwickeln, dass sie im Industriemaßstab zur Gewinnung von grünem Wasserstoff eingesetzt werden kann.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Christina Roth
Lehrstuhl für Werkstoffverfahrenstechnik
Universität Bayreuth
Tel.: +49 (0)921 / 55-7200 und -7201
E-Mail: christina.roth@uni-bayreuth.de
Land Niedersachsen fördert die vorklinische Entwicklung des optischen Cochlea Implantats
Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität
Das Land Niedersachsen und die VolkswagenStiftung bewilligen Forschenden der UMG und des Göttinger Exzellenzclusters Multiscale Bioimaging Mittel über 1 Million Euro aus dem „SPRUNG“ (vormals: „Niedersächsisches Vorab“) zur Entwicklung des optischen Cochlea-Implantats für die Wiederherstellung des Hörens beim Menschen.
(mbexc/umg) Die Schwerhörigkeit ist die häufigste Sinnesbehinderung des Menschen: Laut Weltgesundheitsorganisation (WHO) leiden 466 Mio. Menschen (davon 34 Mio. Kinder) weltweit an einer behandlungsbedürftigen Schwerhörigkeit. Ursächlich für die häufigste Form der Schwerhörigkeit sind defekte oder abgestorbene Hörsinneszellen. Bisher ist es nicht möglich, diese Sinneszellen zu reparieren oder wiederherzustellen. Die klinische Versorgung beruht daher auf Hörgeräten bei leicht- bis mittelgradiger Schwerhörigkeit und Cochlea-Implantaten bei hochgradiger Schwerhörigkeit und Taubheit. Elektrische Cochlea-Implantate (eCIs) werden weltweit von mehr als einer Million Menschen genutzt und ermöglichen den Betroffenen ein Sprachverstehen in ruhiger Umgebung. Doch Nutzer*innen haben Schwierigkeiten, Sprache bei Hintergrundgeräuschen zu verstehen, den emotionalen Tonfall von Sprache zu interpretieren oder Melodien in Musik zu genießen. Daher besteht ein großer klinischer Bedarf, das Hören mit CI zu verbessern.
Das Team um Prof. Dr. Tobias Moser, Direktor des Instituts für Auditorische Neurowissenschaften der Universitätsmedizin Göttingen (UMG) und Sprecher des Exzellenzclusters Multiscale Bioimaging (MBExC), erforscht intensiv die Weiterentwicklung des CI. Für deren Pionierarbeiten zur Etablierung des optischen Cochlea Implantats, das das herkömmliche eCI mit moderner Optogenetik kombiniert, erlangten er und sein Team international Aufmerksamkeit und Anerkennung. Die Vision vom „Hören mit Licht“ und die bisherigen Arbeiten zu seiner Umsetzung überzeugte das Niedersächsische Ministerium für Wissenschaft und Kultur und die VolkswagenStiftung. Der vielversprechende Forschungsansatz erhält eine Förderung über „SPRUNG“ (vormals „Niedersächsisches Vorab“) in Höhe von über 1 Millionen Euro. „Ausdrücklich danken möchte ich dem Land Niedersachsen für die Unterstützung. Ministerpräsident Stephan Weil hat bei seinem Besuch der UMG großes Interesse an diesem translationalen Projekt bekundet und die nun gewährte Landesförderung ist ein sehr wichtiger Schritt bei der Vorbereitung der klinischen Prüfung“, sagt Prof. Moser.
Das optische Cochlea-Implantat (oCI)
Regenerative Ansätze für die Wiederherstellung des Hörens, die den Ersatz von verlorenen Haarsinneszellen oder Hörnervenzellen mittels Pharmakologie, Gen- oder Zell-Therapie anstreben, konnten bislang keine signifikante Hörverbesserung erzielen. „Bevor solche Ansätze die Wiederherstellung des Hörens möglich machen werden, sind die meisten mittel- bis hochgradig Schwerhörigen oder Tauben vermutlich auch in den kommenden ein bis drei Jahrzehnten auf Hörgeräte und CIs als breit anwendbare Versorgungslösungen angewiesen, da sie unabhängig von der genauen Krankheitsursache hilfreich sind“, sagt Prof. Moser.
Das elektrische Cochlea-Implantat (eCI) wird bereits seit 20 Jahren zur Wiederherstellung des Hörens bei ca. einer Million Patient*innen erfolgreich eingesetzt und ist somit die erfolgreichste Neuroprothese. Es umgeht geschädigte Hörsinneszellen, indem es Sprache und Geräusche in elektrische Pulse umwandelt. Je nach Frequenzbereich aktiviert der eintreffende Schall einzelne Elektroden des Implantats. Diese stimulieren wiederum den Hörnerv, was vom Gehirn dann als Geräuscheindruck interpretiert wird. Die breite Stromausbreitung von jeder der 12 bis 24 Elektroden führt jedoch zu einer nicht-selektiven Anregung der Nervenzellen und so zu einer schlechten Wahrnehmung von Tonhöhen. Auf diese Weise kann zwar das Hören an sich wieder hergestellt werden, der Höreindruck bleibt aber noch weit entfernt vom natürlichen Hören.
Ein interdisziplinäres Team von Wissenschaftler*innen am Göttingen Campus (mit MBExC, SFB889, Institut für Auditorische Neurowissenschaften der UMG, Deutsches Primatenzentrum, Leibniz-Institut für Primatenforschung, Max-Planck-Institut für Multidisziplinäre Naturwissenschaften) setzt auf die Optogenetik als moderne Schlüsseltechnologie für das „Hören mit Licht“. Da Licht räumlich wesentlich besser begrenzt werden kann als elektrische Reize, verspricht die optische Stimulation des Hörnervs, die Grenzen der derzeitigen elektrischen CIs zu überwinden. Durch die Kombination eines optischen CI mit einer Gentherapie wird eine fundamentale Verbesserung der Frequenzauflösung erreicht. Dabei wird die Gentherapie genutzt, um einen Licht-aktivierbaren Ionenkanal („Lichtschalter“) in Spiralganglionneuronen der Cochlea einzuschleusen und diese lichtempfindlich zu machen. Was im Tiermodell bereits erfolgreich war, gilt es nun für die Anwendung beim Menschen weiter zu entwickeln. Das geplante 64-kanalige optische CI soll es Nutzer*innen ermöglichen, Sprache auch in geräuschreicher Umgebung zu verstehen, Sprachmelodien zu erkennen und auch Melodien zu genießen. Den präklinischen Machbarkeitsnachweis sowohl für Gentherapie der Hörschnecke als auch für das optische CI als neues Medizinprodukt haben Moser und sein Team in jahrelanger Forschung (seit 2007) bereits erbracht und in mehr als zwanzig wissenschaftlichen Publikationen dokumentiert. Bis zum geplanten Start der ersten klinischen Studie im Jahr 2026 besteht jedoch noch ein erheblicher Forschungsbedarf. Ein Teil dieser Arbeit soll durch die bewilligten Fördermittel finanziert werden.
Das Göttinger Exzellenzcluster 2067 Multiscale Bioimaging: Von molekularen Maschinen zu Netzwerken erregbarer Zellen (MBExC) wird seit Januar 2019 im Rahmen der Exzellenzstrategie des Bundes und der Länder gefördert. Mit einem einzigartigen interdisziplinären Forschungsansatz untersucht das MBExC die krankheits-relevanten Funktionseinheiten elektrisch aktiver Herz- und Nervenzellen, von der molekularen bis hin zur Organebene. Hierfür vereint MBExC zahlreiche universitäre und außeruniversitäre Partner am Göttingen Campus. Das übergeordnete Ziel ist: den Zusammenhang von Herz- und Hirnerkrankungen zu verstehen, Grundlagen- und klinische Forschung zu verknüpfen und damit neue Therapie- und Diagnostikansätze mit gesellschaftlicher Tragweite zu entwickeln.
WEITERE INFORMATIONEN
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Auditorische Neurowissenschaften
Prof. Dr. Tobias Moser
Telefon 0551 / 39-63071, tmoser@gwdg.de
Exzellenzcluster Multiscale Bioimaging (MBExC)
Dr. Heike Conrad (Kontakt – Pressemitteilungen)
Telefon 0551 / 39-61305, heike.conrad@med.uni-goettingen.de
Wissenschaftliche Ansprechpartner:
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Auditorische Neurowissenschaften
Prof. Dr. Tobias Moser
Telefon 0551 / 39-63071
tmoser@gwdg.de
Weitere Informationen:
http://zum Institut für Auditorische Neurowissenschaften: www.auditory-neuroscience.uni-goettingen.de
http://zum Exzellenzcluster Multiscale Bioimaging (MBExC): https://mbexc.de/
http://zum Sonderforschungsbereich 889: http://www.sfb889.uni-goettingen.de
http://zur Volkswagenstiftung: https://www.volkswagenstiftung.de
http://zu „SPRUNG“: https://www.volkswagenstiftung.de/unsere-foerderung/sprung
Das Auto einfach stehen lassen
Anna Riesenweber Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH
Die Städte Kerpen und Troisdorf und das Wuppertal Institut suchen Menschen, die im September für zwei Wochen den Schlüssel abgeben
Viele Arbeitnehmer*innen pendeln täglich über die Stadtgrenzen hinaus zur Arbeit. Der Pendelverkehr – oft mit dem eigenen Auto – verursacht erhebliche Verkehrs- und Umweltprobleme. Doch wie lässt sich der Autoverkehr reduzieren? Eine Lösung sind Mobilstationen, die komfortable, integrierte Wegeketten im Umweltverbund fördern. Die Kolpingstadt Kerpen und die Stadt Troisdorf machen vor wie es gelingt und wollen zeigen, wie es als Blaupause für weitere Städte dienen kann.
Im Rheinland verknüpfen die Mobilstationen verschiedene Verkehrsmittel an einem Ort und ermöglichen es Fahrgästen, flexibel etwa zwischen Öffentlichem Personennahverkehr (ÖPNV) und Leih-Angeboten (Sharing) zu entscheiden.
Die Mobilstationen an den Bahnhöfen Troisdorf und Spich sind die ersten im Stadtgebiet. Weitere acht sind bereits in Planung – unter anderem am Ursulaplatz und am Rathaus. Auch die Bahnhöfe Horrem, Sindorf und Buir in der Kolpingstadt Kerpen sind als Mobilstationen ausgebaut, wie auch sämtliche zentralen Bushaltepunkte des Stadtgebiets. Im Rahmen des Feinkonzepts des Rhein-Erft-Kreises erfolgt zudem ein sukzessiver Aufbau weiterer Mobilstationen in den kommenden Jahren. Im gesamten Rheinland sollen in den nächsten Jahren dann hunderte Mobilstationen entstehen. Auffällige Informationsstellen in Form einer Stele im einheitlichen mobil.nrw-Design sorgen dafür, dass die Stationen leicht wiedererkennbar sind.
Aktion „Gib den Schlüssel ab! Zwei Wochen ohne eigenes Auto”
Um der Bevölkerung diese vielfältigen Möglichkeiten näher zu bringen, nehmen die Städte Kerpen und Troisdorf an einer wissenschaftlichen Studie teil. Das Modellprojekt „Mobilstationen als intermodale Schnittstellen im Umweltverbund in der Stadtregion Köln“ – kurz MOST RegioKöln – soll helfen, die Nutzungsbedingungen von Mobilstationen besser zu erfassen und von den Erfahrungen zu lernen. Auf Basis der Erkenntnisse werden Empfehlungen zur Übertragbarkeit entwickelt, um den Ausbau von Mobilstationen auch in anderen Pendlerregionen in NRW und ganz Deutschland zu unterstützen.
„Mit der Studie wollen wir herausfinden, wie wir den Umstieg vom Auto auf den öffentlichen Verkehr, das Rad und Sharing-Mobilität erleichtern können. Die Ergebnisse sollen den Akteur*innen vor Ort helfen, diese Verkehrsmittel schlau miteinander zu verknüpfen, damit Fahrgäste möglichst oft die Möglichkeit haben, das Auto stehen zu lassen“, sagt Thorsten Koska, Leiter des Projekts MOST RegioKöln und Co-Leiter des Forschungsbereichs Mobilität und Verkehrspolitik am Wuppertal Institut.
Das Wuppertal Institut sucht in Kooperation mit der Kolpingstadt Kerpen und der Stadt Troisdorf interessierte Bürger*innen, die vom 12. bis zum 25. September symbolisch ihren Autoschlüssel abgeben. Mit einem kostenfreien „Rundum-Sorglos-Umsteige-Paket“ sollen sie als Alternative zum Auto die vielfältigen Angebote der Mobilstationen nutze, wie etwa ÖPNV, Car- und Bikesharing, Fahrradboxen, und davon mit dem Hashtag #DuGibstDenTonAn auf ihren öffentlichen Social-Media-Profilen berichten.
Mitmachen können alle Interessierten bis zum 31. August 2022, indem sie eine E-Mail an umsteigen@wupperinst.org schreiben – unter Angabe von Name, Alter, Wohnort, Beruf bzw. Tätigkeit sowie einem Foto und einer kurzen Beschreibung, warum sie mitmachen und wofür sie die Angebote vor allem nutzen möchten. Alternativ reicht auch ein Smartphone-Video, gepostet mit dem Hashtag #DuGibstDenTonAn, das diese Fragen beantwortet. Die eingesendeten Daten werden nur für interne Zwecke genutzt und nicht veröffentlicht. Das Wuppertal Institut wählt nach Ablauf der Bewerbungsfrist bis zu zehn Umsteiger*innen aus, berät diese, wie sie ohne Auto mobil(er) sein können und stattet sie mit ihrem persönlichen kostenlosen Rundum-Sorglos-Umsteige-Paket aus. Am Ende der Aktion ziehen die Umsteiger*innen ihr Fazit und nehmen an einem Auswertungsgespräch mit den Wissenschaftler*innen teil, welches in die Auswertung der Mobilitätsstudie einfließt.
Mobilitäts-Schnupper-Event an den Mobilstationen in Kerpen-Horrem und Troisdorf
Vom 22. August bis zum 23. September 2022 sollen alle Kerpener*innen und Troisdorfer*innen mithilfe der Kampagne #DuGibstDenTonAn motiviert werden, „ihre“ Mobilstationen kennenzulernen, die neuen Angebote auszuprobieren und sie in ihre Alltagsmobilität zu integrieren. Die Stadtverwaltungen freuen sich auf die Erfahrungsberichte der Bürger*innen in den Sozialen Medien unter dem Hashtag #DuGibstDenTonAn. Flyer und Plakate vermitteln die Kampagnenbotschaft: Mit den Mobilstationen gibst Du den Ton an – Du entscheidest, wie und wann Du fährst und bist 24/7 maximal flexibel! Zwei Aktionen laden zudem zum Ausprobieren ein:
– Am 16. September können Bürger*innen von 15 bis 19 Uhr an der Mobilstation Bahnhof Horrem (Bahnhofstraße 9, 50169 Kerpen) hautnah die Vorteile einer Mobilstation erleben. Der städtische Mobilitätsmanager Michael Strehling alle Menschen herzlich ein, vorbeizukommen und gemeinsam die neuen Mobilitäts-angebote kennenzulernen und auszuprobieren.
– Am 22. September haben Interessierte von 15 bis 19 Uhr Gelegenheit die Vorteile der Mobilstation am Troisdorfer Bahnhof (Poststraße 64, 53840 Troisdorf) zu erleben. Bürgermeister Alexander Biber lädt zusammen mit dem technische Beigeordneten Walter Schaaf, seinem Co-Dezernenten Thomas Schirrmacher und dem städtischen Mobilitätsmanager Daniel Euler alle Menschen herzlich ein, vorbeizukommen und gemeinsam die neuen Mobilitätsangebote kennenzulernen und auszuprobieren. An einem Glücksrad können Besucher*innen außerdem weitere Schnuppertickets gewinnen, beispielsweise für Bikesharing, Radboxen oder das örtliche Carsharing.
Über das Projekt MOST RegioKöln
Das Projektteam besteht aus Forschungs- und Praxispartner*innen, deren Kompetenzen sich ergänzen. Koordiniert wird das Projekt durch das Wuppertal Institut. Weitere Partner*innen sind der NVR – Nahverkehr Rheinland, das Institut für Landes- und Stadtentwicklungsforschung und die Bergische Universität Wuppertal. Im Unterauftrag wirken Jung Stadtkonzepte und tippingpoints – Agentur für nachhaltige Kommunikation am Projekt mit. Gefördert wird das Projekt mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Wirtschaftsministerium NRW. Gefördert wird das Projekt mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Wirtschaftsministerium NRW.
Wissenschaftliche Ansprechpartner:
https://wupperinst.org/c/wi/c/s/cd/657 – Thorsten Koska, Co-Leiter des Forschungsbereichs Mobilität und Verkehrspolitik
Originalpublikation:
https://wupperinst.org/a/wi/a/s/ad/7819 – Pressemitteilung auf der Website des Wuppertal Instituts
Weitere Informationen:
https://most-regio-koeln.de – Website MOST RegioKöln
https://www.mobil.nrw/mobilstationen – Infoportal mobil.nrw
https://wupperinst.org/p/wi/p/s/pd/939 – Projekt MOST RegioKöln
https://bit.ly/3QNvW8u – Download Onepager „Gib den Schlüssel ab!“
https://bit.ly/3JVt5Z0 – Download Infoflyer „Was ist eine Mobilstation?
Partikel aus alltäglichen Wandfarben können lebende Organismen schädigen – Neuartige Membran zeigt hohe Filterleistung
Christian Wißler Pressestelle
Universität Bayreuth
Für Wand- und Deckenanstriche werden in Haushalten meistens Dispersionsfarben verwendet. Ein interdisziplinäres Forschungsteam der Universität Bayreuth hat jetzt zwei typische Dispersionsfarben auf ihre chemische Zusammensetzung hin analysiert und darin sehr viele feste Partikel entdeckt, die nur wenige Mikro- oder Nanometer groß sind. Untersuchungen an biologischen Testsystemen ergaben, dass diese Partikel lebende Organismen schädigen können. Mit einer neuartigen, an der Universität Bayreuth entwickelten Membran lassen sich diese Partikel aus dem Wasser herausfiltern, bevor sie in die Umwelt gelangen.
Inhaltsstoffe von Dispersionsfarben
Die Bayreuther Studie zu den Inhaltsstoffen der Dispersionsfarben und ihren möglichen Auswirkungen auf lebende Organismen ist in der Zeitschrift „Ecotoxicology and Environmental Safety“ erschienen. Sie basiert auf einer engen interdisziplinären Zusammenarbeit im Sonderforschungsbereich 1357 „Mikroplastik“ an der Universität Bayreuth. Für die Untersuchungen haben die Wissenschaftler*innen zwei handelsübliche, in Haushalten häufig verwendete Dispersionsfarben ausgewählt. Diese unterscheiden sich vor allem durch ihre Tropfeigenschaften, weil sie einerseits für Wandanstriche und andererseits für Deckenanstriche entwickelt wurden. Die beiden Farben haben einen Feststoffgehalt von 49 bzw. 21 Gewichtsprozent, der organische Anteil liegt bei 57 bzw. sieben Gewichtsprozent. Charakteristische feste Bestandteile im Mikro- oder Nanometerbereich sind Partikel aus Siliziumdioxid, Titandioxid und Kalziumkarbonat sowie Partikel aus verschiedenen Kunststoffen, vor allem Polyacrylat.
„Viele dieser winzigen Partikel gelangen zum Beispiel durch Abrieb der Farbschichten oder Verwitterung in die Umwelt. Unsere Untersuchung zeigt nun: Wenn Pinsel, Rollen, Abstreifgitter und Eimer, die beim Anstreichen von Wänden und Decken verwendet wurden, durch Auswaschen von Farbresten gereinigt werden, können die Partikel aus den Dispersionsfarben in Abwässer und damit auch in die Umwelt gelangen. Die Folgen für die Umwelt müssen gründlich untersucht werden, was angesichts der weltweiten Verbreitung von Dispersionsfarben und ihrer vielfältigen Materialzusammensetzung umso dringender erscheint. Deshalb haben wir uns nicht nur auf die chemische Untersuchung der Farbkomponenten beschränkt, sondern auch ihre Auswirkungen auf lebende Organismen und Zellen untersucht“, sagt Prof. Dr. Andreas Greiner, stellvertretender Sprecher des Sonderforschungsbereichs „Mikroplastik“.
Auswirkungen auf lebende Organismen
Für ihre biologischen Untersuchungen haben die Bayreuther Wissenschaftler*innen zwei in der Forschung bewährte Testsysteme ausgewählt: Wasserflöhe der Spezies Daphnia magna und eine Linie von Mauszellen. Maßgeblich für die Untersuchung der Wasserflöhe war ein Test nach OECD-Richtlinien für die Prüfung von Chemikalien. Bei diesem Test wird die Mobilität der Organismen betrachtet. Es stellte sich heraus, dass die Beweglichkeit der Tiere deutlich herabgesetzt war, wenn das Wasser einen hohen Anteil an gelösten und ungelösten anorganischen Nano- und Mikroplastikpartikeln enthielt. Bei den Mauszellen ließ sich eine Verringerung der Zellaktivität feststellen, die generell durch Partikel im Nanometerbereich verursacht wurde. Der Stoffwechsel in den Mauszellen wurde insbesondere durch Nanopartikel aus Titandioxid und Kunststoffen erheblich gestört.
„Unsere Forschungsarbeiten zeigen, dass die Inhaltsstoffe von Dispersionsfarben unterschiedlich starke Reaktionen in Organismen und Zellen hervorrufen können. Es lässt sich daher nicht ausschließen, dass die Inhaltsstoffe schädigend für die Umwelt sein könnten. Weitere Untersuchungen auf diesem Gebiet sind dringend erforderlich, zumal wir noch viel zu wenig darüber wissen, ob Wechselwirkungen zwischen Nanopartikeln aus Kunststoff und anorganischen Nanopartikeln zusätzliche Schädigungen auslösen können“, erklärt Prof. Dr. Christian Laforsch, Sprecher des Sonderforschungsbereichs „Mikroplastik“. „Es ist ebenso eine noch weitgehend ungeklärte Frage, wie die Inhaltsstoffe von Dispersionsfarben in verschiedenen Umweltkompartimenten – beispielsweise in der Luft, im Boden oder in Flüssen – mit anderen Stoffen wechselwirken. Schon heute ist aber klar, dass Dispersionsfarben nicht achtlos in der Umwelt entsorgt werden sollten“, sagt Prof. Dr. Ruth Freitag, Inhaberin des Lehrstuhls für Bioprozesstechnik an der Universität Bayreuth.
Eine neuartige Membran mit hohen Filterleistungen
Parallel zu den Untersuchungen von Dispersionsfarben und ihren möglichen Auswirkungen haben sich Forscher*innen unter der Leitung von Prof. Dr. Andreas Greiner einem weiteren Vorhaben gewidmet: Sie haben ein neues Verfahren entwickelt, mit dem potenziell umwelt- und gesundheitsschädliche Partikel aus Dispersions-Wandfarben aus dem Abwasser durch Filtration entfernt werden können. Dabei kommt eine im Elektrospinnverfahren hergestellte, aus funktionalisierten Fasern bestehende Membran zum Einsatz, die auf unterschiedliche Weisen mikro- und nanometergroße Partikel zurückhält. Einerseits sind die Poren der Membran so fein, dass Mikropartikel nicht hindurchgelassen werden. Andererseits führen Wechselwirkungen zwischen den Membranfasern und Nanopartikeln dazu, dass diese an der Membranoberfläche hängen bleiben, obwohl sie in die Poren hineinpassen würden. In beiden Fällen ist die Filterwirkung nicht mit einer raschen und großflächigen Verstopfung der Poren verbunden. Daher kann beispielsweise Wasser problemlos die Membran durchdringen und abfließen.
In der Zeitschrift „Macromolecular Materials and Engineering“ beschreiben die Bayreuther Wissenschaftler*innen die erfolgreiche Anwendung der Membran. Getestet wurden dabei auch die beiden Dispersionsfarben, die sich in der Studie als potenziell schädlich für lebende Organismen erwiesen hatten. Wie sich herausstellte, ist die Membran in der Lage, typische Farbkomponenten mit hoher Filterleistung zurückzuhalten – insbesondere Nanopartikel aus Titandioxid und Polyacrylat und Mikropartikel aus Kalziumkarbonat. „Im Alltag gelangen alle diese Farbkomponenten gemeinsam ins Abwasser. Hier mischen sie sich und ändern aufgrund ihrer Wechselwirkungen in manchen Fällen sogar ihre Strukturen und Eigenschaften. Daher haben wir die Filterleistung unserer elektrogesponnenen Membran gezielt an solchen Mischungen getestet. Die hohen Filterwirkungen, die wir dabei erzielt haben, zeigen: Dieses Verfahren hat ein großes Potenzial, wenn es darum geht, Wasser von Partikeln im Mikro- und Nanometerbereich zu reinigen, wie sie in weltweit handelsüblichen Farben enthalten sind“, sagt Greiner.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Greiner
Makromolekulare Chemie II
Sonderforschungsbereich 1357 „Mikroplastik“
Universität Bayreuth
Telefon: +49 (0)921 / 55-3399
E-Mail: andreas.greiner@uni-bayreuth.de
Originalpublikation:
Ann-Kathrin Müller, Julian Brehm, Matthias Völkl, Valérie Jérôme, Christian Laforsch, Ruth Freitag, Andreas Greiner: Disentangling biological effects of primary nanoplastics from dispersion paints’ additional compounds. Ecotoxicology and Environmental Safety (2022).
DOI: https://doi.org/10.1016/j.ecoenv.2022.113877
Ann-Kathrin Müller, Zhi-Kang Xu, Andreas Greiner: Filtration of Paint-Contaminated Water by Electrospun Membranes. Macromolecular Materials and Engineering (2022).
DOI: https://doi.org/10.1002/mame.202200238
Schutz vor Corona: Erfahrung ist beim Immunsystem nicht immer ein Vorteil
Frederike Buhse Presse- und Öffentlichkeitsarbeit
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Bei der Corona-Impfung basiert eine gute Impfreaktion auf naiven Immunzellen, bereits existierende Gedächtniszellen sind eher nachteilig, wie ein Forschungsteam des Exzellenzclusters PMI zeigt.
Wer viele Infektionen mit gewöhnlichen Erkältungsviren durchgemacht hat, die ja auch zu den Coronaviren zählen, steht dadurch nicht besser da, was die Bekämpfung von COVID-19 angeht, sowohl nach Infektion mit SARS-CoV-2 als auch nach einer Corona-Impfung. „Wir haben bereits 2020 gezeigt, dass ein früherer Kontakt mit Erkältungsviren keinen Schutz vor COVID-19 bietet. In der Folgestudie konnten wir jetzt zeigen, dass dies auch für die Qualität der Impfreaktion nicht vorteilhaft ist“, erklärt Professorin Petra Bacher vom Institut für Immunologie der Christian-Albrechts-Universität zu Kiel (CAU) und dem Universitätsklinikum Schleswig-Holstein (UKSH), Campus Kiel. Gemeinsam mit Professor Alexander Scheffold, dem Leiter des Instituts für Immunologie, und weiteren Kolleginnen und Kollegen des Exzellenzclusters „Precision Medicine in Chronic Inflammation“ (PMI) aus Kiel analysierte die Immunologin Blutproben von gesunden Personen vor und nach der Corona-Impfung. Das Ergebnis der jetzt in Immunity publizierten Studie: „Eine gute Immunantwort kommt aus dem naiven Repertoire an T-Zellen. Bereits vorhandene T-Gedächtniszellen, die SARS-CoV-2 erkennen, haben eher einen negativen Effekt.“ Das könnte erklären, warum bei alten Menschen die Immunreaktion nach Infektion oder Impfung oft schlechter verläuft.
Was macht eine gute Impfantwort aus?
T-Zellen, genau genommen, T-Helferzellen, sind die zentralen Organisatoren von Immunantworten. Jede einzelne erkennt über ihren „T-Zell-Rezeptor“ einen spezifischen Krankheitserreger. Naive T-Zellen, hatten noch keinen Kontakt mit einem Erreger. Bei einer Infektion oder Impfung werden nur die Erreger-spezifischen T-Zellen aktiviert und können sich zu Gedächtniszellen umwandeln. Diese sorgen bei erneutem Kontakt mit dem Erreger für eine schnelle Immunreaktion, das Prinzip der Impfung. Man findet aber im Blut von Menschen, die weder geimpft sind noch infiziert waren auch Gedächtniszellen, die auf SARS-CoV-2 reagieren können, die aber aus Infektionen mit anderen Erregern stammen. Ein Phänomen, das Kreuzreaktivität genannt wird und das bisher als protektiv betrachtet wurde. „Wir haben uns gefragt, ob Gedächtniszellen, die bereits gegen einen ähnlichen Erreger wir SARS-CoV-2 reagiert haben, zum Beispiel ein Schnupfenvirus, tatsächlich die Reaktion auf die Corona-Impfung verbessern. Oder ob es wichtiger ist, viele naive Zellen gegen SARS-CoV-2 zu haben, die sich spezifisch auf den neuen Erreger einstellen können. Das ist in der Regel bei jungen Menschen der Fall, die meist gut mit Infektionen und Impfungen zurechtkommen“, verdeutlicht Bacher, die den Dorothea-Erxleben-Forscherinnenpreis 2021 des Exzellenzclusters PMI erhalten hat und das Preisgeld in dieses Projekt steckte.
Für die aktuelle Studie wurde das Blut von 50 gesunden Personen vor der Corona-Impfung sowie mehrere Wochen nach der ersten und zweiten Impfung analysiert. Eine vorhergehende Corona-Infektion wurde ausgeschlossen. Durch eine spezielle Technik, die sogenannte Antigen-reaktive-T-Zell-Anreicherung, können ganz gezielt die Zellen untersucht werden, die auf den Impfstoff reagieren. Bacher: „Wir sortieren die Zellen heraus, die auf SARS-CoV-2 reagieren, denn nur die entscheiden über die Immunantwort. Über den T-Zell-Rezeptor können wir feststellen, ob die Zellen aus dem naiven Repertoire stammen oder aus dem Gedächtnis-Repertoire.“ Die Ergebnisse dieser Analyse wurden mit der Qualität der Impfantwort in Beziehung gesetzt.
Impferfolg bei über 80-Jährigen nicht so gut
Das Ergebnis der Untersuchung war, so Bacher, „Bereits vorhandene Gedächtnis-T-Zellen tragen nicht zu einer qualitativ hochwertigen Immunantwort bei. Eher im Gegenteil. Eine sehr gute Immunantwort kommt aus dem naiven Repertoire.“ Bei den über 80-jährigen zeigte sich eine insgesamt schwächere Reaktion. Die Impfung führte bei ihnen nur zu einem geringen Anstieg der SARS-CoV-2 spezifischen T-Zellen. „Wir zeigen, dass bei Älteren die wenigen naiven T-Zellen, die im höheren Alter noch übrig sind, nicht mehr so gut aktiviert werden können. Aber auch die stark vorhandenen Gedächtniszellen tragen bei Älteren nicht positiv zur Impfantwort bei.“ Dieser Defekt im Immunsystem von alten Menschen lasse sich zwar mit weiteren Auffrischimpfungen mildern aber nicht ausgleichen. Trotz Impfungen bleiben hochbetagte Menschen eine vulnerable Gruppe. „Wir müssen uns bewusst machen, dass es immer noch eine Gruppe gibt, die gefährdet ist. Das betrifft überwiegend die Älteren, deren Immunsystem nicht mit diesem „neuen“ Erreger zurechtkommt. Aber auch bei jungen Menschen gibt es welche mit schlechter Impfantwort. Das sieht man auch daran, dass trotz Impfung immer noch schwere Verläufe vorkommen“, ergänzt Alexander Scheffold.
Impfschutz – Antikörperwerte sind nicht aussagekräftig
Wie gut und wie lange die Impfung im Einzelfall vor einer Infektion mit Corona schützt, lässt sich nach wie vor durch Blutuntersuchungen nicht zuverlässig feststellen. Die Messung spezifischer Antikörper gegen den Erreger ist nicht wirklich aussagekräftig. Denn es ist nicht bekannt, ab welchem Wert ein ausreichender Immunschutz vorliegt. Bacher: „Im Immunsystem gibt es keine klaren Grenzen. Welcher Faktor entscheidend ist, kann von Mensch zu Mensch verschieden sein. Insgesamt tragen viele Faktoren zum Infektionsschutz bei, neben den Antikörpern eben vor allem die T-Zellen“. Die in der Studie angewandten T-Zelluntersuchungen sind aber für die klinische Anwendung noch viel zu aufwändig. Hier muss noch einiges in Forschung und Entwicklung investiert werden, um diese Organisatoren der Immunantwort auch im klinischen Alltag bestimmen zu können, nicht nur für SARS-CoV-2. Die Notwendigkeit aber hat die Corona-Epidemie klar vor Augen geführt.
Fotos stehen zum Download bereit:
www.precisionmedicine.de/de/pressemitteilungen/pressebilder-2022/08-immune-cell-isolation-blood_CopyrightSaschaKlahnCAU.jpg
Isolation von Immunzellen aus dem Blut.
© Sascha Klahn, Uni Kiel
www.precisionmedicine.de/de/pressemitteilungen/portraitbilder/petra-bacher.jpg
Prof. Dr. Petra Bacher, Mitglied im Exzellenzcluster PMI und Schleswig-Holstein Excellence-Chair Nachwuchsgruppenleiterin am Institut für Immunologie und Institut für klinische Molekularbiologie, CAU und UKSH.
© Jürgen Haacks, Uni Kiel
www.precisionmedicine.de/de/pressemitteilungen/portraitbilder/scheffold-alexander.jpg
Prof. Alexander Scheffold, Vorstandsmitglied im Exzellenzcluster PMI, Direktor des Instituts für Immunologie, CAU und UKSH.
© Jürgen Haacks, Uni Kiel
Der Exzellenzcluster „Präzisionsmedizin für chronische Entzündungserkrankungen/Precision Medicine in Chronic Inflammation“ (PMI) wird von 2019 bis 2025 durch die Exzellenzstrategie des Bundes und der Länder gefördert (ExStra). Er folgt auf den Cluster Entzündungsforschung „Inflammation at Interfaces“, der bereits in zwei Förderperioden der Exzellenzinitiative (2007-2018) erfolgreich war. An dem neuen Verbund sind rund 300 Mitglieder in acht Trägereinrichtungen an vier Standorten beteiligt: Kiel (Christian-Albrechts-Universität zu Kiel, Universitätsklinikum Schleswig-Holstein, Muthesius Kunsthochschule, Institut für Weltwirtschaft und Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik), Lübeck (Universität zu Lübeck, Universitätsklinikum Schleswig-Holstein), Plön (Max-Planck-Institut für Evolutionsbiologie) und Borstel (Forschungszentrum Borstel – Leibniz Lungenzentrum).
Ziel ist es, die vielfältigen Forschungsansätze zu chronisch entzündlichen Erkrankungen von Barriereorganen in ihrer Interdisziplinarität verstärkt in die Krankenversorgung zu übertragen und die Erfüllung bisher unbefriedigter Bedürfnisse von Erkrankten voranzutreiben. Drei Punkte sind im Zusammenhang mit einer erfolgreichen Behandlung wichtig und stehen daher im Zentrum der Forschung von PMI: die Früherkennung von chronisch entzündlichen Krankheiten, die Vorhersage von Krankheitsverlauf und Komplikationen und die Vorhersage des individuellen Therapieansprechens.
Exzellenzcluster Präzisionsmedizin für chronische Entzündungserkrankungen
Wissenschaftliche Geschäftsstelle, Leitung: Dr. habil. Susanne Holstein
Postanschrift: Christian-Albrechts-Platz 4, D-24118 Kiel
Telefon: (0431) 880-4850, Telefax: (0431) 880-4894
Twitter: PMI @medinflame
Pressekontakt:
Kerstin Nees
Telefon: (0431) 880 4682
E-Mail: kerstin.nees@hamburg.de
https://precisionmedicine.de
Link zur Meldung:
www.precisionmedicine.de/de/detailansicht/news/schutz-vor-corona-erfahrung-ist-beim-immunsystem-nicht-immer-ein-vorteil
Wissenschaftliche Ansprechpartner:
Prof. Petra Bacher
Institut für Immunologie und Institut für klinische Molekularbiologie, CAU und UKSH
0431 500-31005
Petra.Bacher@uksh.de
Prof. Alexander Scheffold
Institut für Immunologie, CAU und UKSH
0431 500-31000
Alexander.Scheffold@uksh.de
Originalpublikation:
Carina Saggau, Gabriela Rios Martini, Elisa Rosati, …, Alexander Scheffold, Petra Bacher. The pre-exposure SARS-CoV-2 specific T cell repertoire determines immune response quality to vaccination. Immunity (2022). Doi: https://doi.org/10.1016/j.immuni.2022.08.003
Befragung zu Klimaanpassung: Hessens Kommunen im Klimawandel
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Die Folgen des Klimawandels spüren auch Hessens Kommunen immer deutlicher. Mit dem derzeit aktuellen „Integrierten Klimaschutzplan 2025“ zielt das Land deshalb auf umfangreiche Maßnahmen zur Klimaanpassung. Doch bei der Umsetzung stehen Mitarbeitende in Städten und Gemeinden vor großen Herausforderungen. Welche Expertise haben oder benötigen sie, um Maßnahmen zur Klimaanpassung erfolgreich umzusetzen? Für eine wissenschaftliche Bestandsaufnahme wendet sich das ISOE – Institut für sozial-ökologische Forschung noch bis September 2022 mit einer Online-Befragung an kommunale Akteure in Hessen.
Die Herausforderungen für Kommunen sind gewaltig, was die Umsetzung von Klimaschutzmaßnahmen betrifft – nicht nur in Hessen. Der Aufgabenkatalog ist weitreichend. Er reicht von kleinräumigen Anpassungsmaßnahmen über umfassende Risikobewertungen bis hin zu fachübergreifenden Querschnittsaufgaben. Je nach Größe und Lage der Kommunen gestalten sich die Herausforderungen und die Wissensbedarfe daher sehr unterschiedlich. Oft fehlen in der kommunalen Alltagspraxis auch Zeit und Kapazitäten, um das breite Informationsangebot zu sichten. Maßnahmen zur Anpassung an den Klimawandel werden mithin für viele Städte und Gemeinden zum Kraftakt.
Mit der Frage, wie kommunale Akteure bei der Umsetzung von Klimaanpassungsmaßnahmen noch besser unterstützt werden können, beschäftigt sich das Forschungsprojekt WissTransKlima. „Wir wollen besser verstehen, wie es in den hessischen Städten und Gemeinden um das Thema Klimaanpassung bestellt ist, um speziell für Kommunen zugeschnittene Informations- und Beratungsangebote zu entwickeln“, sagt Nicola Schuldt-Baumgart, Leiterin des Forschungsprojekts.
WissTransKlima: Forschungsprojekt zur Unterstützung hessischer Kommunen
Das Forschungsteam ruft deshalb jene Mitarbeitende in den hessischen Kommunen zur Teilnahme an einer wissenschaftlichen Befragung auf, die sich mit dem Thema Klima und Klimaanpassung befassen. Die anonyme Umfrage wird online durchgeführt. Noch bis Mitte September können Mitarbeitende aus der kommunalen Verwaltungspraxis an der 10- bis 15-minütigen Umfrage teilnehmen. „Die Ergebnisse der Umfrage werden im kommenden Jahr mit Vertreterinnen und Vertretern einzelner Kommunen in moderierten Workshops diskutiert, um dann gemeinsam Lösungsstrategien und Maßnahmen zu erarbeiten“, erklärt ISOE-Klimaexperte Thomas Friedrich. „Die an der Befragung Teilnehmenden können uns im Rahmen der Befragung ihr Interesse an diesen Workshops sehr gern mitteilen.“
Das Forschungsprojekt „Wissenstransfer in Kommunen – Voraussetzungen und Möglichkeiten für eine gelingende Klimaanpassung (WissTransKlima)“ wird durch das Hessische Landesamt für Naturschutz, Umwelt und Geologie (HLNUG) gefördert und als Leitlinienprojekt umgesetzt. Das ISOE führt die transdisziplinäre Forschungs- und Praxisarbeit in dem dreijährigen Projekt zusammen mit dem Fachzentrum Klimawandel und Anpassung (FZK) noch bis September 2024 durch.
Wissenschaftliche Ansprechpartner:
Dr. Thomas Friedrich
Forschungsschwerpunkt Energie und Klimaschutz im Alltag
ISOE – Institut für sozial-ökologische Forschung
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-60
friedrich@isoe.de
www.isoe.de
Weitere Informationen:
https://www.isoe.de/nc/forschung/projekte/project/wisstransklima/
Umstellung auf Wasserstoff: BAM entwickelt hochpräzise Kalibriergase für Dekarbonisierung des europäischen Gasnetzes
Oliver Perzborn Referat Kommunikation, Marketing
Bundesanstalt für Materialforschung und -prüfung (BAM)
Wasserstoff soll möglichst bald fossiles Erdgas im europäischen Gasnetz ersetzen. Die Bundesanstalt für Materialforschung und -prüfung (BAM) entwickelt für ein EU-weites Projekt hochpräzise Kalibriergase. Sie sind die Grundlage, um später Verbrauchsmengen und Kosten exakt berechnen und die Umstellung beschleunigen zu können.
Um bis 2050 das Ziel der Klimaneutralität zu erreichen, hat die Europäische Union beschlossen, ihr Gasnetz zu dekarbonisieren: Wasserstoff soll zukünftig den fossilen Energieträger Erdgas möglichst ganz ersetzen. Vor dem Hintergrund der aktuellen Versorgungskrise erhält dieses Ziel eine besondere Dringlichkeit.
Es geht dabei um eine monumentale Aufgabe: Das Gasnetz erstreckt sich in der Europäischen Union über fast eine Viertelmillion Kilometer, davon liegen ca. 38.000 Kilometer in Deutschland. Bevor dieses Netz in den kommenden Jahren schrittweise auf Wasserstoff umgestellt werden kann, müssen eine Reihe von technischen Herausforderungen bewältigt werden: So ist es derzeit noch nicht möglich, den Durchfluss von Wasserstoff-Erdgasmischungen oder auch von reinem Wasserstoff mit der erforderlichen Exaktheit zu messen und so den Verbrauch zu bestimmen. „Die Gasindustrie verwendet bislang mathematische Modelle, die jedoch nicht ausreichend validiert sind“, erklärt Dirk Tuma von der BAM. „Hochpräzise Messungen der Mischungen und der Durchflussmengen sind unverzichtbar, um den Verbrauch exakt abrechnen zu können. Das ist sowohl für die Industrie wie auch für private Endverbraucher*innen von großer Bedeutung. Angesichts der enormen Mengen, um die es geht, bedeuten bereits Unsicherheiten im Promillebereich große Kostenunterschiede.“
Der Chemiker ist Teil eines großen internationalen Forschungsprojekts, das diese messtechnischen Fragen lösen will. Initiiert hat es EURAMET, die Europäische Vereinigung von 37 nationalen Metrologieinstituten. Ziel ist es, die Gasindustrie bei der Umstellung von Erdgas auf Wasserstoff optimal zu unterstützen und so den Markthochlauf von Wasserstoff zu beschleunigen.
Die BAM wird für das Projekt in ihrem Wasserstoff-Kompetenzzentrum H2Safety@BAM hochpräzise Kalibriergase entwickeln: Mischungen von Erdgaskomponenten und Wasserstoff, die in ihrer Zusammensetzung bis auf 0,01 Prozent exakt sind. „Die besondere Herausforderung besteht darin, aus den Ausgangskomponenten Mischungen herzustellen, die über einen Zeitraum von mindestens drei Jahren nachweislich stabil sind“, erklärt Dirk Tuma.
Die hochgenauen Referenzgase der BAM sind die Grundlage, um alle weiteren metrologischen Fragen zu klären. Mit ihnen lassen sich Messgeräte kalibrieren und weiterentwickeln, um später in der Praxis Durchflussmengen exakt zu berechnen. Sie sind eine Voraussetzung dafür, um eine Messinfrastruktur in Europa aufzubauen und das vorhandene Gasnetz auf Wasserstoff umzustellen.
Beteiligt an dem Projekt des Programms EMPIR (European Metrology Programme for Innovation and Research) sind 18 namhafte Institutionen aus Forschung und Industrie, u. a. aus Frankreich, Spanien, den Niederlanden, Norwegen und Großbritannien. Aus Deutschland sind neben der BAM die Physikalisch-Technische Bundesanstalt (PTB), die DB Gas- und Umwelttechnik, die Gastransport Nord sowie Open Grid Europe vertreten.
Weitere Informationen:
https://www.decarbgrid.eu/
https://www.bam.de/Navigation/DE/Themen/Energie/Wasserstoff/energietraeger-der-z…
Fraunhofer auf der ACHEMA 2022: Lösungen für eine erfolgreiche Rohstoff- und Energiewende
Fraunhofer-Gesellschaft Kommunikation
Fraunhofer-Gesellschaft
Auf der Weltleitmesse der Prozessindustrie ACHEMA in Frankfurt am Main präsentiert sich die Fraunhofer-Allianz für den Leitmarkt Chemie mit gebündeltem Know-how als starker Partner für die Branche. Von 22. bis 26. August 2022 stellen die beteiligten Institute aktuelle, gemeinsame Forschungsaktivitäten zu den Schwerpunkten Digitalisierung chemischer Prozesse, Weiterentwicklung der Grünen Chemie, Erleichterung des Scale-Up, zu Sicherheits- und Regulatorikfragen und zur Effizienz chemischer Prozesse sowie zum Aufbau einer Kreislaufwirtschaft aus.
Defossilisierte und zirkuläre Produktionsprozesse – nichts Geringeres hat sich die chemische Industrie in Deutschland zum Ziel gesetzt. Noch liegen große Herausforderungen vor den Verantwortlichen auf dem Weg zu mehr Nachhaltigkeit und Grüner Chemie. Die einzelnen Schritte in Zusammenarbeit mit den Industriepartnern erfolgreich zu meistern ist eine Aufgabe, der sich die Fraunhofer-Allianz Chemie verschrieben hat. Aufbauend auf die jahrzehntelange Zusammenarbeit der beteiligten 15 Fraunhofer-Institute mit der chemischen Industrie und untereinander liegt der Fokus der Fachleute darauf, Ergebnisse der Grundlagenforschung bis zu einer höheren Technologiereife weiterzuentwickeln und ihre Partner bei der großtechnischen Umsetzung zu unterstützen – mit einer hoch modernen Forschungsinfrastruktur vom Labor- bis zum Pilotmaßstab.
»Die besondere Stärke unserer Allianz liegt in ihren komplementären Kompetenzen und der hohen fachlichen Qualifikation ihrer Mitarbeiter. Unser erklärtes Ziel ist es, diese Kompetenzen und interdisziplinären Synergien zu nutzen, um unsere Industriekunden bei der Technologieentwicklung und Skalierung noch besser und zielgenauer zu unterstützen. Auf diese Weise können wir effizient nachhaltige, innovative Produkte und Prozesse entwickeln«, erläutert Geschäftsstellenleiter Dr. Stefan Löbbecke vom Fraunhofer-Institut für Chemische Technologie ICT. »Wir bieten unseren Industriekunden eine Art One-Stop-Shop für angewandte Forschung und Entwicklung – und das in einer Vielzahl von möglichen Kooperationsformaten: Ob dringende Trouble-Shooting Projekte, exklusive Prozess- und Produktentwicklungen oder strategische Projekte zur Bewältigung der Herausforderungen, vor denen sie im globalen Wandel aktuell stehen. Wir freuen uns darauf, auf der ACHEMA 2022 einen Einblick in die Bandbreite unserer Lösungen zu geben und mit unseren Kunden in einen intensiven Dialog zu treten.«
Weitere Informationen:
https://www.chemie.fraunhofer.de/de/veranstaltungen/ACHEMA-2022.html
Anhang
Fraunhofer auf der ACHEMA
LKH₂ – Laserkolloquium Wasserstoff: Grüne Alternative zu fossilen Brennstoffen
Petra Nolis M.A. Marketing & Kommunikation
Fraunhofer-Institut für Lasertechnik ILT
Das Fraunhofer Institut für Lasertechnik ILT lädt zum dritten Mal zum LKH₂ – Laserkolloquium Wasserstoff nach Aachen ein. Am 13. und 14. September 2022 geht es im Research Center for Digital Photonic Production um neue wichtige Aufgaben für den Laser. Hersteller von Automobilen, Maschinen, Anlagen und Lasern diskutieren erstmals in Präsenz mit Forschern über den Stand der Produktionstechnik: Im Mittelpunkt stehen nun nicht mehr nur das Laserschneiden und -schweißen von Bipolarplatten oder der metallische 3D-Druck, sondern auch die gesamte Prozesskette und deren Überwachung.
»Nie war er so wertvoll wie heute«. Ein altbekannter Werbeslogan der Medizinbranche fällt einem spontan ein beim Blick auf das ständig wachsende Interesse am Hype-Thema Wasserstoff. Unter der Vielzahl an Veranstaltungen zu diesem Thema hat sich das LKH₂ – Laserkolloquium Wasserstoff des Fraunhofer ILT seit seiner virtuellen Premiere vor zwei Jahren als das Expertenforum für den Einsatz der Lasertechnik bei der Produktion von Bipolarplatten etabliert. Nachdem die ersten beiden Kolloquien im Herbst 2020 und 2021 rund 110 Online-Teilnehmer anlockten, rechnet das Fraunhofer ILT nun beim 3. LKH₂ – Laserkolloquium Wasserstoff bei der Präsenz-Premiere mit einer ähnlich hohen Teilnehmerzahl.
Der Prozess steht im Mittelpunkt
Die Aachener setzen auf einen bewährten Dreiklang: An zwei Tagen erwarten die Gäste 16 Vorträge, viele Laborführungen und ein Networking-Meeting. Sie erfahren z. B. wie Audi Bipolarplatten laserschweißt, wie Trumpf laserbasierte Prozesse für die Brennstoffzellen-Produktion weiterentwickelt und wie sich das TBC-Beschichtungsverfahren (thermal barrier coating) bei Anwendern wie dem Maschinenbauer Gräbener bewährt. Erweitert hat sich auch das Themenspektrum: Stand früher nur Produktionstechnik im Mittelpunkt, hat der Veranstalter nun die gesamte Prozesskette bis hin zur Überwachung im Visier. So berichtet Christian Knaak vom Fraunhofer ILT, wie sich mit KI-Prozesskontrolle Spritzer beim Laserschweißprozess frühzeitig erkennen und vermeiden lassen.
Dr. Alexander Olowinsky, Gruppenleitung Mikrofügen am Fraunhofer ILT und Initiator des Kolloquiums, weist auf ein besonderes Highlight hin: Das 300 Quadratmeter große Wasserstoff-Labor, das im Mai 2022 auf dem »International Laser Technology Congress AKL‘22« erstmals seine Pforten öffnete. Olowinsky freut sich besonders darauf, dass nun auch die Fachleute der Wasserstoff-Community die Leistungsfähigkeit des Labors bei einer Präsenzveranstaltung kennenlernen.
Wasserstoff-Labor: Ideale Ergänzung zur LKH2-Plattform
Dem Wissenschaftler ist zwar bewusst, dass es nicht das einzige deutsche Forschungslabor ist, das sich mit Wasserstoff beschäftigt. Olowinsky: »Was die Vielfalt der praktischen Möglichkeiten betrifft, ist unser neues Wasserstoff-Labor jedoch einzigartig.« Live und in Farbe erleben die LKH2-Gäste im September eine große Bandbreite an lasertechnischen Versuchsanlagen für variable Dimensionen und Designs.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Alexander Olowinsky
Gruppenleitung Mikrofügen
Telefon +49 241 8906-491
alexander.olowinsky@ilt.fraunhofer.de
Dr.-Ing. André Häusler
Gruppe Mikrofügen
Telefon +49 241 8906-640
andre.haeusler@ilt.fraunhofer.de
Weitere Informationen:
https://www.ilt.fraunhofer.de/
Zwischen Sorge und Euphorie: Wie künstliche Intelligenz unser Leben verändert
Theresa Trepesch Pressereferat
Alexander von Humboldt-Stiftung
Neue Ausgabe des Magazins Humboldt Kosmos über Chancen und Herausforderungen künstlicher Intelligenz
Die Begeisterung für die Leistungen künstlicher Intelligenz ist groß – genauso wie die Sorgen vor den Risiken einer Technik, die dem Menschen über den Kopf wachsen könnte. Was KI heute schon kann, was sie noch lernen muss und welche Risiken sie birgt, analysieren KI-Expert*innen aus dem Netzwerk der Alexander von Humboldt-Stiftung.
Nach Meinung von KI-Experte Holger Hoos ist der wissenschaftliche Fortschritt in der KI-Forschung zentral für unsere künftige Lebensqualität: „Wer hier zurückfällt, wird auch als Gesellschaft abgehängt werden“. Der Alexander von Humboldt-Professor für Künstliche Intelligenz meint: „Insgesamt tut Europa zu wenig, um zum Beispiel die von der Europäischen Kommission formulierten Ambitionen zu realisieren.“ Hoos glaubt aber, dass eine mensch-zentrierte KI zum großen Standortvorteil für Deutschland und Europa werden kann. Daher schlägt er die Einrichtung einer großen Forschungseinrichtung, eines „CERN für KI“ vor, um Talente aus aller Welt anzulocken.
Neue Perspektiven in die technologische Entwicklung einbringen, um eine gerechtere Zukunft für alle zu schaffen – dieses Ziel verfolgt die Humboldtianerin Priya Goswami mit ihrer App „Mumkin“, die sich an Opfer von Genitalverstümmelung richtet. Eine KI dient als erste Ansprechpartnerin, „wie eine Art Trainingspartnerin zum Üben für spätere, reale Gespräche“, sagt Goswami.
Künstliche Intelligenz wirkt in der digitalen Welt oft als Meinungsverstärker. Sie schafft Filterblasen, fördert radikale Tendenzen und beeinflusst Wahlen. Diese Schattenseiten der KI erforscht José Renato Laranjeira de Pereira. „KI kann Rassismus, Homophobie und Radikalisierung fördern, unter anderem weil sie althergebrachte Vorurteile verstärkt. Sie kann etwa Menschen mit dunkler Hautfarbe als weniger kreditwürdig bewerten“, erklärt der brasilianische Rechtswissenschaftler. Deswegen arbeitet er an Strategien für mehr Transparenz und Nutzerrechte.
Wie nützlich oder schädlich KI ist, ob sie dem Menschen dient oder die Demokratie schwächt, hängt davon ab, welche KI wir erschaffen. Die Diskussion hierüber ist in vollem Gange und zeigt: Deutschland und Europa könnten Vorreiter einer wertegeleiteten KI werden, die der Gesellschaft dient.
Das gesamte Kosmos-Heft „Mit freundlicher Unterstützung. Wie künstliche Intelligenz unser Leben verändert“ lesen Sie hier: https://www.humboldt-foundation.de/web/Magazin-Humboldt-Kosmos.html.
Künstliche Intelligenz ist ein Schwerpunkt in der Förderung und Kommunikation der Humboldt-Stiftung: 2020 wurden zusätzlich zur Alexander von Humboldt-Professur, Deutschlands höchstdotiertem Forschungspreis, die Alexander von Humboldt-Professuren für Künstliche Intelligenz ins Leben gerufen. Diese können auch die gesellschaftlichen, rechtlichen oder ethischen Aspekte der künstlichen Intelligenz erforschen.
Humboldt-Professor*innen und weitere KI-Expert*innen aus dem Humboldt-Netzwerk diskutieren im Podcast der Humboldt-Stiftung „KI und Wir“ Fragen der KI-Forschung.
Weitere Informationen:
https://www.humboldt-foundation.de/entdecken/magazin-humboldt-kosmos/mit-freundl… Interview mit Humboldt-Professor Holger Hoos
https://www.humboldt-foundation.de/ki-und-wir Podcast „KI und Wir“
Podcast: Macht Homeoffice krank?
Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
Viele Unternehmen wollen auch nach der Pandemie das Angebot des mobilen Arbeitens beibehalten und zahlreiche Arbeitnehmende wollen weiterhin im Homeoffice arbeiten. Eine kürzlich veröffentlichte Studie des Deutschen Gewerkschaftsbundes zeigt: Mehr als jeder Vierte der befragten Arbeitnehmer:innen macht häufig unbezahlte Überstunden und von jedem Dritten wird eine besondere Erreichbarkeit erwartet. Welche positiven und negativen Aspekte es gibt, erklärt Dr. Ulrich Hößler, Professor für Wirtschaftspsychologie im Fernstudium der Hochschule Fresenius, in der aktuellen Folge des Wissenschaftspodcasts adhibeo.
Das mobile Arbeiten betrifft mittlerweile einen Großteil der Arbeitnehmer:innen. Was die einen freut, empfinden andere zunehmend als Belastung. Welche Vor- und Nachteile hat das Konzept „Homeoffice“? Welcher Zusammenhang besteht bei der Zunahme psychischer Erkrankungen, die insbesondere in den letzten zehn Jahren beobachtet wurde? Welche Art des Arbeitens ist am effektivsten und wie sollte sinnvolle Büroarbeit vor dem Hintergrund der neuen Arbeitswelt und ihrer Möglichkeiten aussehen? Diese und weitere Fragen beantwortet Prof. Dr. Ulrich Hössler, Professor für Wirtschaftspsychologie im Fernstudium an der Hochschule Fresenius.
Die Zuhörer:innen erfahren, warum Pauschallösungen nicht die Antwort sein können, worauf es ankommt, damit mobiles Arbeiten gelingt und weshalb Unternehmen den Mut haben sollten, ihre Mitarbeitenden „fürs Kaffeetrinken zu bezahlen“.
Die Podcastfolge „Macht Homeoffice krank?“ ist in voller Länge unter folgenden Links erreichbar: https://www.adhibeo.de/macht-homeoffice-krank/ und https://www.hs-fresenius.de/podcast/adhibeo/macht-homeoffice-krank/ und überall dort, wo es Podcasts gibt.
Über die Hochschule Fresenius
Die Hochschule Fresenius mit ihren Standorten in Berlin, Düsseldorf, Frankfurt am Main, Hamburg, Id-stein, Köln, München und Wiesbaden sowie dem Studienzentrum in New York gehört mit über 18.000 Studierenden zu den größten und renommiertesten privaten Hochschulen in Deutschland. Sie blickt auf eine mehr als 170-jährige Tradition zurück. 1848 gründete Carl Remigius Fresenius in Wiesbaden das „Chemische Laboratorium Fresenius“, das sich von Beginn an sowohl der Laborpraxis als auch der Ausbil-dung widmete. Seit 1971 ist die Hochschule staatlich anerkannt. Sie verfügt über ein sehr breites, vielfäl-tiges Fächerangebot und bietet in den Fachbereichen Chemie & Biologie, Design, Gesundheit & Soziales, onlineplus sowie Wirtschaft & Medien Bachelor- und Masterprogramme in Vollzeit sowie berufsbegleitende und ausbildungsbegleitende (duale) Studiengänge an. Die Hochschule Fresenius ist vom Wissenschaftsrat institutionell akkreditiert. Bei der Erstakkreditierung 2010 wurden insbesondere ihr „breites und innovati-ves Angebot an Bachelor- und Master-Studiengängen“, „ihre Internationalität“ sowie ihr „überzeugend gestalteter Praxisbezug“ vom Wissenschaftsrat gewürdigt. Weitere Informationen finden Sie auf unserer Website: www.hs-fresenius.de
Weitere Informationen:
http://www.hs-fresenius.de
Weinbau braucht neue pilzwiderstandsfähige und stresstolerante Rebsorten, um Klimawandel trotzen zu können
Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Rebenzüchter und -genetiker aus 23 Ländern tauschten sich auf dem vom Julius Kühn-Institut (JKI) organisierten XIII. GBG-Symposium in der Pfalz aus.
(Siebeldingen) Das auf dem Geilweilerhof in der Pfalz angesiedelte Institut für Rebenzüchtung des Julius Kühn-Instituts (JKI) hatte in diesem Sommer (2022) die Ehre, das internationale Symposium zu Rebenzüchtung und -genetik auszurichten. Das „XIII. Symposium for Grapevine Breeding and Genetics“ fand vom 10.-15. Juli in der Jugendstilfesthalle Landau statt. Dazu kamen 180 Wissenschaftlerinnen und Wissenschaftler aus 23 Ländern aus Europa und Übersee zusammen, um aktuelle Forschungsergebnisse zu präsentieren und zu diskutieren. Die Veranstaltung findet alle vier Jahre an wechselnden Orten in aller Welt statt. Nächstes Austragungsland nach Deutschland ist 2026 Kroatien. Die Veranstaltungsreihe wurde vor fast einem halben Jahrhundert von den Rebenzüchtern am Geilweilerhof in Siebeldingen ins Leben gerufen, die seit 2008 dem Julius Kühn-Institut angehören.
„Sowohl die Vorgaben aus Politik und Gesellschaft zur Verminderung des Pflanzenschutzmitteleinsatzes in der Dauerkultur Rebe als auch die Folgen des sich deutlich abzeichnenden Klimawandels, unterstreichen die Bedeutung der auf dem GBG-Symposium vorgestellten Forschungsanstrengungen zur Züchtung neuer Rebsorten“, resümiert Prof. Dr. Reinhard Töpfer, der Leiter des Fachinstituts für Rebenzüchtung des JKI. „In der Züchtungsforschung nehmen wir das als Ansporn, die Genetik hinter den Rebeneigenschaften weiter aufzuklären und Methoden zu finden, um den Züchtungsprozess effizienter gestalten“, erklärt Töpfer weiter. Es bräuchte einen langen Atem, denn die aktuelle Generation von PIWIs hält leider nur langsam Einzug in die deutschen Weinberge.
Das GBG-Symposium war die Plattform, um sich über neue Erkenntnisse, Methoden und Techniken auszutauschen, aber auch das Potenzial alter Sorten oder Wildarten zu diskutieren, die in Genbanken erhalten werden. Bedeutsam sind etwa die internationalen Fortschritte bei der Aufklärung von Resistenzen gegen Mehltau, Grauschimmel (Botrytis) und Schwarzfäule, die in erheblichem Maße zur Reduktion der Pflanzenschutzaufwendungen beitragen. Auch die Ergebnisse aus Untersuchungen zur Sonnenbrandtoleranz bei Reben werden angesichts des Klimawandels immer bedeutsamer. „Die genetischen Arbeiten kommen in gleicher Weise dem ökologischen wie dem integrierten Weinbau zugute und sind unentbehrlich zur Bewältigung der Herausforderungen durch den Klimawandel und zur Steigerung der Nachhaltigkeit im Weinbau“, betont Töpfer. Ein Sortenwandel sei in den kommenden Jahrzehnten unausweichlich, wenn die Kulturlandschaft der Weinbaubaugebiete mit ihrem hohen touristischen Wert erhalten bleiben soll, darüber waren sich die Teilnehmenden der Tagung einig.
Neben den Vorträgen zur Forschungsergebnissen und Posterpräsentationen, die vom 11.-14. Juli stattfanden, wurden dem Fachpublikum am 13. Juli technische Ganztagsexkursion zu verschiedenen Weingütern der Umgebung, an das DLR in Neustadt und natürlich zum Züchtungsstandort des JKI auf dem Geilweilerhof angeboten. Hier wurde u.a. der Phänotypisierungsroboter gezeigt, dem eine bedeutende Rolle bei der Effizienzsteigerung der Züchtung zukommt. Eine weitere Voraussetzung für künftigen Erfolg in der Rebenzüchtung ist die Verfügbarkeit und Nutzung rebengenetischer Ressourcen. Sie enthalten wichtige Eigenschaften wie Krankheits-, Schädlings- oder Hitzestressresistenz, die die Züchtungsforschung weltweit untersucht und einer Nutzung zuführt. Das JKI verfügt am Geilweilerhof selbst über eine der weltweit größten Sammlungen genetischer Ressourcen der Rebe. Die zum Teil historischen Sorten sowie Wildreben werden in einer Genbank als Rebstöcke im Weinberg erhalten. Das JKI koordiniert auch die Deutsche Genbank Reben und betreibt mehrere Datenbanken (siehe dazu auch hier das Interview mit der Genbankexpertin: https://www.julius-kuehn.de/zr/interview-fr-dr-erika-maul/)
Der Verein der Förderer und Freunde des Geilweilerhofs hatte dankenswerterweise die Preisgelder für die Prämierung der besten Poster zur Verfügung gestellt. Die unabhängige Expertenjury kürte die Nachwuchsforscherin Nele Schneider, die am JKI-Institut für Rebenzüchtung im Projekt VitiSoil arbeitet, zur Siegerin.
Wissenschaftliche Ansprechpartner:
Kontakt
Prof. Dr. Reinhard Töpfer
Geilweilerhof, 76833 Siebeldingen
Tel.: 06345/41-115
E-Mai: zr@julius-kuehn.de
Weitere Informationen:
https://gbg2022.julius-kuehn.de/
Wie die Biodiversität in Weinbergen am besten gefördert wird
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Forschende der Universität Bern haben untersucht, wie sich eine biologische, biodynamische und konventionelle Bewirtschaftung in Weinbergen auf die Insektenfauna auswirkt. Sie konnten zeigen, dass biologische – und in einem geringeren Masse auch biodynamische – Bewirtschaftung bessere Lebensraumbedingungen für die Insekten bietet als konventionell bewirtschaftete Weinberge.
Weinberge werden zumeist entweder konventionell, biologisch oder biodynamisch bewirtschaftet. Konventionell bedeutet, dass synthetischer Dünger und Pestizide erlaubt sind. Zudem werden häufig Herbizide, also Unkrautmittel, eingesetzt, um eine allfällige Konkurrenz um Nährstoffe und Wasser zwischen den Reben und der Bodenvegetation zu verhindern. Im Gegensatz dazu werden in der biologischen und biodynamischen Bewirtschaftung mechanische Methoden eingesetzt, um die Bodenvegetation zu minimieren – teilweise werden auch Schafe zur Mahd eingesetzt. Hier dürfen nur natürliche Düngemittel und Fungizide verwendet werden. Darüber hinaus werden in der biodynamischen Bewirtschaftung in der Regel fermentierter Mist und Pflanzenpräparate auf den Boden und die Pflanzen aufgebracht, um den Nährstoffkreislauf im Boden zu stimulieren. Die biodynamische Bewirtschaftung ist zwar selten, wird weltweit aber am häufigsten in Rebbergen eingesetzt. Während die Vorteile des biologischen gegenüber dem konventionellen Landbau auf die Biodiversität bereits mehrfach in der Forschung nachgewiesen wurden, waren die Effekte der biodynamischen Bewirtschaftung bislang unklar.
Bessere Lebensraumbedingungen für Insekten
Forschende der Universität Bern haben nun die Effekte der drei Bewirtschaftungsformen «biologisch», «biodynamisch» und «konventionell» im Zusammenhang mit der Bodenbegrünung auf die Insektenfauna in Walliser Weinbergen untersucht. Als Bodenbegrünung wird eine spontane Begrünung oder das bewusste Einsäen oder Zulassen geeigneter Pflanzen im Weinberg zwischen den Rebzeilen bezeichnet. Die Ergebnisse der Studie zeigen, dass biologische und biodynamische Bewirtschaftung bessere Lebensraumbedingungen für die Bodeninsekten bieten als konventionell bewirtschaftete Weinberge, wobei die biologische Bewirtschaftung einen stärkeren Effekt zeigt. Dieser Zusammenhang ist aber weiter mit der Bodenbegrünung verknüpft, so dass in biologischen Weinbergen die Insektendichte mit zunehmender Bodenbegrünung stetig zunimmt. In biodynamischen und konventionellen Parzellen ist der Zusammenhang mit der Bodenbegrünung etwas komplexer und weniger eindeutig.
Vielfältige Bodenbegrünung als Erfolgskonzept
«Wir interpretieren diese Resultate so, dass biologische Parzellen bessere Bedingungen für die Insekten bieten, indem die Bodenbegrünung strukturell komplexer und vielfältiger ist und weniger oft bewirtschaftet und somit gestört wird», sagt Professor Raphaël Arlettaz vom Institut für Ökologie und Evolution (IEE) der Universität Bern, Leiter des Projekts. Dies entspricht der sogenannten Mittlere-Störung-Hypothese, die besagt, dass ein Ökosystem, das leicht gestört (in diesem Falle bewirtschaftet) wird, im Vergleich mit einem statischen (keine Störung) oder einem stark gestörten Ökosystem (etwa Vernichtung der Bodenvegetation mit Herbizid), mehr Nischen für die Artenvielfalt bietet.
In biodynamischen Parzellen wird häufig jede zweite Reihe oberflächlich gepflügt, was zu einer höheren Störung des Bodens und dadurch der Bodeninsekten führt. In konventionell bewirtschafteten Weinbergen wird die Bodenbegrünung häufig mit Herbiziden oder seltener maschinell zerstört, und dadurch die Nahrungs- und Lebensraumgrundlage vieler Insekten entzogen. «Diese neuen Forschungsresultate zeigen, dass alternative Bewirtschaftungsformen in Weinbergen biodiversitätsfördernd sind, insbesondere für Insekten in biologischen Weinparzellen», erklärt die Erstautorin der Studie, Dr. Laura Bosco von der Abteilung Conservation Biology im IEE.
Gemäss den Forschenden bieten die Ergebnisse grundlegende Anhaltspunkte für einen ökologisch nachhaltigeren Weinbau in der Zukunft. Ob sich diese Schlussfolgerungen auf andere Agrarökosysteme, andere Organismen und andere Grössenverhältnisse verallgemeinern lassen, bedürfe jedoch weiterer Untersuchungen. Die Studie wurde im Fachjournal Frontiers in Conservation Science publiziert.
Wissenschaftliche Ansprechpartner:
Französisch:
Prof. Dr. Raphaël Arlettaz, Institut für Ökologie und Evolution, Division of Conservation Biology, Universität Bern
Tel. +41 31 631 31 61 / 079 637 51 76
raphael.arlettaz@iee.unibe.ch
Deutsch:
Dr. Laura Bosco, Institut für Ökologie und Evolution der Universität Bern, Division of Conservation Biology. Gegenwärtig an der University of Helsinki, Finnish Museum of Natural History
Tel. +358 45 278 50 58
laura.bosco@helsinki.fi
Originalpublikation:
Bosco L, Siegenthaler D, Ruzzante L, Jacot A and Arlettaz R (2022) Varying Responses of Invertebrates to Biodynamic, Organic and Conventional Viticulture. Front. Conserv. Sci. 3:837551.
doi: 10.3389/fcosc.2022.837551
Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…
Anhang
Medienmitteilung UniBE
Post-Covid: Covid-19 hat langfristige Folgen für Herz und Gefäße
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Was ist zu Long-/Post-Covid mit Blick auf Herz und andere Organe bekannt und welche Hilfsangebote für Betroffene gibt es? Herzstiftungs-Experten informieren
Im dritten Jahr der Corona-Pandemie und bei über 30 Millionen erfassten Covid-19-Fällen in Deutschland (RKI) zeichnet sich ab, dass viele Betroffene nach einer Infektion mit SARS-CoV-2 noch lange Beschwerden haben wie Herzrasen, Gedächtnisprobleme, Muskelschwäche und -schmerzen sowie lähmende Erschöpfung. Bis zu 30 Prozent der an Covid-19 Erkrankten geben nach der Infektion anhaltende Beschwerden an, die sich an ganz unterschiedlichen Stellen im Körper zeigen, auch am Herzen. Eine US-Studie fand zum Beispiel nach einem Jahr bei ehemals Covid-Erkrankten ein um über 70 Prozent erhöhtes Risiko für Herzinsuffizienz im Vergleich zu Nichtinfizierten (1). „Nach den Erfahrungen der vergangenen zwei Jahre ist das Herz auch über den akuten Infekt hinaus gefährdet, einen Schaden davonzutragen“, betont Prof. Dr. Thomas Voigtländer, Vorstandsvorsitzender der Deutschen Herzstiftung. Typische anhaltende Herzbeschwerden, über die Patienten in der Folge noch weiter klagen, sind dem Kardiologen zufolge „insbesondere Brustschmerzen, Herzstolpern und Herzrasen, Kurzatmigkeit sowie eingeschränkte körperliche Belastbarkeit und Schwäche nach körperlicher Belastung“. Die Krankheitsmechanismen sind unklar; am ehesten sind Autoimmunreaktionen dafür verantwortlich. Über die langfristigen Folgen von Covid-19 auf das Herz und was unter Long-/Post-Covid genau zu verstehen ist, informiert die Herzstiftung unter www.herzstiftung.de/post-covid-herzschaeden
Long-/Post-Covid: Über 200 Symptome
Inzwischen gibt es etliche Berichte und Studien über anhaltende Symptome nach Abklingen der eigentlichen Covid-19-Infektion. 200 verschiedene Symptome, die sich etwa zehn Organsystemen zuordnen lassen, sind beschrieben worden. Long-Covid hat sich als Überbegriff für anhaltende Beschwerden nach der Infektion etabliert. Ärzte differenzieren zwischen einem
– Long-Covid-Syndrom, wenn die Beschwerden länger als vier Wochen anhalten, und einem
– Post-Covid-Syndrom, wenn die Symptome mehr als zwölf Wochen andauern.
– Chronisches Covid-Syndrom wird häufig als Begriff genutzt, wenn die Beschwerden sogar mehr als ein halbes Jahr anhalten.
Allerdings: Alter, Vorerkrankungen und Schwere der Covid-19-Erkrankung sind keine verlässlichen Vorhersage-Parameter für das Risiko von Post-Covid. Nachgewiesen ist, dass Long-Covid bzw. Post-Covid offenbar Frauen häufiger trifft. Doch viele weitere Aspekte der Langzeitfolgen sind noch nicht geklärt.
Wohin kann man sich bei Post-/Long-Covid wenden?
Immer häufiger wenden sich Betroffene mit Beschwerden mehrere Wochen oder Monate nach einer Covid-Erkrankung an ihren Hausarzt oder an eine der rund 100 Post-Covid-Ambulanzen hierzulande. Die Bandbreite bei über 200 Symptomen, die sich unter dem Oberbegriff „Post-Covid“ sammeln, ist groß und kann „in individuell unterschiedlichen und phasenweise wechselnden Konstellationen auftreten“, wie Prof. Dr. Bernhard Schieffer, Direktor der Klinik für Kardiologie, Angiologie und internistische Intensivmedizin am Universitätsklinikum Marburg (UKGM) berichtet. Er leitet dort auch eine interdisziplinäre Post-Covid-Ambulanz. Neben Herzbeschwerden klagen die Patienten dort auch über neurologische und kognitive Symptome wie Seh- bzw. Konzentrationsstörungen oder Beschwerden der Lunge (Luftknappheit, Atemnot) sowie Abgeschlagenheit und Erschöpfung, die dem sogenannten Chronischen Fatigue-Syndrom (CFS) ähneln. Was zu den bisher vermuteten Ursachen von Long-Covid und Risikofaktoren bekannt ist und welche Hilfsangebote zur Verfügung stehen, erläutert der aktuelle Podcast „Long-Covid: Wer leidet besonders unter Langzeitfolgen?“ mit Prof. Schieffer und seiner Kollegin Dr. Ann-Christin Schäfer unter www.herzstiftung.de/podcast-longcovid
Langzeitfolgen für Herz und Kreislauf
Gerade Patienten mit einem vorerkrankten Herzen oder Risikofaktoren für Herzkrankheiten wie Bluthochdruck und Diabetes mellitus sind für schwere Covid-19-Verläufe besonders gefährdet. US-Wissenschaftler haben sich in einer großen Studie (1) bei über 150.000 ehemaligen Militärangehörigen mit überstandener Covid-Erkrankung ein Jahr lang den Gesundheitsstatus angeschaut. Die Analyse ergab eine deutlich erhöhte Fallzahl an Vorhofflimmern und anderen Rhythmusstörungen, von koronarer Herzkrankheit (KHK) und Herzschwäche. So hatten Covid-Patienten nach einem Jahr ein um 72 Prozent höheres Risiko für eine Herzinsuffizienz im Vergleich zu Kontrollpersonen ohne Infektion. Daraus errechneten die Wissenschaftler, dass es auf 1.000 Infizierte 12 zusätzliche Fälle von Herzinsuffizienz und insgesamt 45 zusätzliche Fälle an einer der 20 untersuchten Herzkreislauf-Erkrankungen insgesamt gab. „Und dieses Risiko war auch bei Patienten erhöht, die vorher keine Anzeichen für eine Herzerkrankung hatten“, berichtet der Herzstiftungs-Vorsitzende Voigtländer. Laut einer schwedischen Studie (2) ist offenbar auch das Risiko für venöse Thromboembolien nicht nur in der Akutphase, sondern noch Monate nach der Infektion erhöht – vor allem bei Patienten mit schwerem Covid-19. In diesem Zusammenhang war vor allem die Gefahr einer Lungenembolie über die folgenden sechs Monate deutlich erhöht. „Schwer an Covid Erkrankte haben allerdings generell ein erhöhtes Risiko für Thrombosen und Herz- und Gefäßerkrankungen, bedingt allein durch die Bettlägerigkeit und durch den schweren Krankheitsverlauf“, so Voigtländer.
Long-Covid: Was zu Therapie und Schutzmaßnahmen bekannt ist
Die Behandlung von Post-Covid-Beschwerden orientiert sich in der Regel an der Symptomatik. Etablierte Behandlungsverfahren gibt es bislang nicht. Kardiologen der US-Fachgesellschaft ACC haben in ihrer Stellungnahme speziell zu langfristigen Herzbeschwerden allerdings Empfehlungen zusammengefasst (3). Sie unterscheiden dabei zwei Post-Covid-Formen (PASC=Post acute sequelae of Covid-19) mit jeweils verschiedenen Beschwerdebildern, die das Herz betreffen. Beide Formen, das PASC-cardiovascular syndrome (PASC-CVS) und das PASC-cardiovascular disease (PASC-CVD) unterscheiden sich grob gefasst darin, dass bei der Therapie von Patienten mit PASC-CVD – also definierten Herzschäden – die Behandlung der Herzerkrankung entsprechend den ärztlichen Leitlinien im Vordergrund steht. Bei der PASC-CVS richten sich die Empfehlungen an der Symptomatik aus. Beide Formen werden unter www.herzstiftung.de/post-covid-herzschaeden genauer erläutert.
Was können wir nun tun, um uns vor Long-/Post-Covid zu schützen? Kardiologe Prof. Schieffer, Mitglied des Wissenschaftlichen Beirats der Deutschen Herzstiftung, verweist auf Schutzmaßnahmen, die bereits für Covid-19 auch von Experten der US-Amerikanischen Kardiologenvereinigung ACC für Herz-Kreislauf-Patienten und Ältere mit einem erhöhten Risiko für schwere Covid-Verläufe empfohlen wurden: „Jeder sollte sein Risikoprofil optimieren und auf seinen Gesundheitsstatuts achten: regelmäßig mit Ausdauerbewegung aktiv sein, sich gesund ernähren. Auch sollte man seinen Immunstatuts durch Impfen gegen SARS-CoV-2, Influenza, Pneumokokken sowie Herpes Zoster, verbessern. Ältere Menschen sollten auch ihren Vitamin-D-Spiegel prüfen – und nicht zu vergessen die etablierten Hygienemaßnahmen und Abstandsregeln.“
(wi)
Service-Tipp
Weitere Infos zu den Langzeitfolgen von Covid-19 auf das Herz und Long-Covid unter www.herzstiftung.de/post-covid-herzschaeden
Podcast der Reihe imPULS. Wissen für Ihre Gesundheit: „PostCovid – Wie Betroffenen mit Covid-Langzeitfolgen geholfen wird“
Im Gespräch mit dem Marburger Kardiologen Prof. Bernhard Schieffer und seiner Kollegin Dr. Ann-Christin Schäfer, die sich intensiv mit den Langzeitfolgen von Covid – und in seltenen Fällen – auch einer Impfung (Post-Vac) auseinandersetzen, geht es darum, was schon zu den Ursachen bekannt ist und wie bisher Betroffenen geholfen wird (Post-Covid-Ambulanzen/-Sprechstunden) www.herzstiftung.de/podcast-longcovid
Zusatzmaterial für Redaktionen
Long-Covid: Rund 200 Symptome erfasst und drei Gruppen zugeordnet
Britische Forscher haben die unterschiedlichen Dauerbeschwerden im Zuge einer Befragung von rund 3.800 Betroffenen erfasst und rund 200 Symptome zehn Organsystemen zugeordnet (4). 66 Symptome davon hielten mehr als sieben Monate an und wurden nach Symptomdauer in drei Gruppen aufgeteilt:
1. Symptome vor allem der Atemwege und des Magen-Darm-Bereichs, die früh im Erkrankungsverlauf auftreten, nach 2-3 Wochen ihren Höhepunkt erreichen und langsam innerhalb von 90 Tagen abklingen.
2. Symptome insbesondere neuropsychiatrisch und kardiovaskulär, aber auch Fatigue (übergroße Müdigkeit) und Hauterscheinungen mit z.B. frostbeulen-ähnlichen Veränderungen an den Zehen, die ihren Höhepunkt etwa sieben Wochen nach Covid-Beginn erreichen und deutlich langsamer abnehmen.
3. Symptome wie Allergien, Tinnitus, Neuralgien oder die als „Brain Fog“ bezeichneten ausgeprägten Konzentrationsstörungen, die mild beginnen und nach etwa 10-15 Wochen ihr Maximum erreichen und danach kaum Besserung aufweisen.
Quellen:
(1) Long-term cardiovascular outcomes of COVID-19Nat. Med. 2022, doi.org/10.1038/s41591-022-01689-3
(2) Risks of deep vein thrombosis, pulmonary embolism and bleeding after Covid-19, BMJ February 2022; doi.org/10.1136/bmj-2021-069590
(3) ACC Expert Consensus Decision Pathway on Cardiovascular Sequelae of COVID-19 in Adults; J Am Coll Cardiol. März 2022; DOI: 10.1016/j.jacc.2022.02.003
(4) Characterizing long COVID in an international cohort: 7 months of symptoms and their impact,E Clinical Med 2021; online 15. Juli; doi.org/10.1016/j.eclinm.2021.101019
Weitere: https://www.acc.org/~/media/665AFA1E710B4B3293138D14BE8D1213.pdf
Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle:
Michael Wichert (Ltg.)/Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Weitere Informationen:
http://www.herzstiftung.de/post-covid-herzschaeden – Infos der Herzstiftung zu Long-/Post-Covid
http://www.herzstiftung.de/podcast-longcovid – Podcast der Herzstiftung zu Long-/Post-Covid
Anhang
PM_DHS_Long-Covid-und-Herzkrankheit_2022-08-03_Final
Bakteriengemeinschaften in städtischem Wasser zeigen „Signaturen der Verstädterung“
Dipl. Soz. Steven Seet Wissenschaftskommunikation
Leibniz-Institut für Zoo- und Wildtierforschung (IZW) im Forschungsverbund Berlin e.V.
Ein Team unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und des Leibniz-Instituts für Zoo- und Wildtierforschung (Leibniz-IZW) untersuchte nun im Rahmen des Leibniz-Forschungsverbundes „Infektionen“ Bakteriengemeinschaften in städtischen Gewässern und Abwässern in Berlin und verglichen sie mit Gemeinschaften aus weniger vom Menschen beeinflussten Seen aus dem ländlichen Umland.
Gemeinschaften von Bakterienarten (Mikrobiome) sind in einer bestimmten Umgebung oft stabil und gut an sie angepasst, sei es in der menschlichen Mundhöhle oder in einem See. Der Mensch verändert naturnahe Lebensräume immer schneller – im Zuge der Verstädterung insbesondere Städte und ihr Umland. Die Ergebnisse zeigen, dass die Verstädterung große Mengen an Nährstoffen, chemischen Schadstoffen und antimikrobiellen Produkten in Gewässer verbringt und dadurch die Zusammensetzung des Mikrobioms zugunsten von Bakteriengruppen verändert, die humanpathogene Bakterien enthalten – mit noch unbekannten Folgen für die Funktion der Lebensräume und für die Gesundheit von Mensch und Tier. Die Publikation ist heute in der Fachzeitschrift „Science of the Total Environment“ erschienen.
Ob in der Achselhöhle, im Gartenboden oder im Wasser – fast jeder Ort auf der Erde hat eine natürliche bakterielle Gemeinschaft. Indem der Mensch seine Umwelt verändert, verändert er auch die bakterielle Zusammensetzung nahezu aller Ökosysteme: Er schafft neue Bedingungen, die einige Bakteriengruppen gegenüber anderen begünstigen. In einer Untersuchung analysierten Wissenschaftler:innen von IGB und Leibniz-IZW zusammen mit Kolleg:innen aus dem Leibniz-Forschungsverbund „Infections“ diese mit der Verstädterung verbundenen Veränderungen in der Bakterienzusammensetzung und zeigten, dass sich die Bakteriengemeinschaften in städtischen Gewässern und Abwässern in Berlin deutlich von denen ländlicher Seen in den umliegenden Regionen der Bundesländer Brandenburg und Mecklenburg-Vorpommern unterscheiden. Darüber hinaus werden durch die Verstädterung nicht nur menschliche Bakterien eingeführt („Humanisierung“), sondern auch übermäßige Mengen an Nährstoffen („Eutrophierung“), chemischen Schadstoffen und antimikrobiellen Produkten wie Antibiotika. Diese komplexen Veränderungen begünstigen bestimmte Bakterien gegenüber anderen drastisch und können die Zusammensetzung und die Funktion des Mikrobioms erheblich verändern.
„Wir wollten wissen, ob städtisches Wasser ‚Signaturen der Verstädterung‘ aufweist, die Vorhersagen über das Auftreten bestimmter Bakterienstämme in einer mikrobiellen Gemeinschaft innerhalb von Städten zulassen“, sagt Prof. Hans Peter Grossart vom IGB, einer der Hauptautoren der Publikation. Die Ergebnisse zeigen, dass mehrere Bakteriengruppen in städtischen Gewässern angereichert sind, wobei die meisten anthropogenen Bakterienstämme in den Zu- und Abflüssen einer Kläranlage gefunden wurden, was auf eine „Humanisierung“ des Mikrobioms städtischer Seen und Fließgewässer hinweist.
„Überraschenderweise sind die angereicherten Bakteriengruppen in städtischen Umgebungen diejenigen, die häufig pathogene Arten enthalten. Das deutet darauf hin, dass ein Krankheitserreger, wenn er in eine solche Umgebung gelangt, ein sehr günstiges Umfeld vorfindet, in dem er wachsen kann“, sagt Prof. Alex Greenwood, Leiter der Leibniz-IZW-Abteilung für Wildtierkrankheiten und einer der Hauptautoren des Aufsatzes. Dies könne möglicherweise zu Ausbrüchen in solchen Umgebungen führen. Dies steht im Gegensatz zu ländlichen Gewässern, die eher ungünstige Bedingungen für Krankheitserreger bieten.
Die Autor:innen schließen aus ihrer Untersuchung, dass die Reinhaltung und Aufbereitung des städtischen Wasser in der Zukunft stärker auf Bakteriengemeinschaften und das Mikrobiom ausgerichtet werden müsse, um wieder natürlichere Wasserökosysteme zu schaffen. Dies werde zunehmend wichtiger und zugleich schwieriger werden, da durch den Klimawandel viele städtische Gebiete trockener und nährstoffreicher werden, wodurch sich die Bakteriengemeinschaften in städtischem Wasser noch extremer ändern werden. Dies könnte tiefgreifende Auswirkungen auf die Gesundheit von Menschen und Tieren haben, da das Risiko einer Kontamination mit Krankheitserregern steigt.
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
im Forschungsverbund Berlin e.V.
Müggelseedamm 310, 12587 Berlin, Deutschland
Pressestelle
Nadja Neumann
Telefon: +49(0)3064181975
E-Mail: pr@igb-berlin.de
Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Straße 17, 10315 Berlin, Deutschland
Steven Seet
Leiter der Wissenschaftskommunikation
Telefon: +49(0)30 5168125
E-Mail: seet@izw-berlin.de
Wissenschaftliche Ansprechpartner:
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
im Forschungsverbund Berlin e.V.
Müggelseedamm 310, 12587 Berlin, Deutschland
Prof. Hans-Peter Grossart
Leiter der Forschungsgruppe Aquatische Mikrobielle Ökologie
Telefon: +49(0)33082 69991
E-Mail: hanspeter.grossart@igb-berlin.de
Pressestelle
Nadja Neumann
Telefon: +49(0)3064181975
E-Mail: pr@igb-berlin.de
Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Straße 17, 10315 Berlin, Deutschland
Prof. Dr. Alex D. Greenwood
Leiter der Abteilung für Wildtierkrankheiten
Telefon: +49(0)30 5168255
E-Mail: greenwood@izw-berlin.de
Originalpublikation:
Numberger D, Zoccarato L, Woodhouse J, Ganzert L, Sauer S, García Márquez JR, Domisch S, Grossart HP, Greenwood AD (2022): Urbanisierung fördert bestimmte Bakterien in Süßwasser-Mikrobiomen, einschließlich potenzieller Krankheitserreger. Science of the Total Environment 845, 157321; https://doi.org/10.1016/j.scitotenv.2022.157321.
Gewässergüte wird im Saarland online von Wissenschaftlern überwacht – kleine Fließgewässer im Fokus
Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Ein starker Regen kann Düngemittel aus Äckern ausschwemmen und Bäche damit belasten, aus Berghalden können Sulfate in Gewässer gelangen. Um solche Probleme frühzeitig zu erkennen, werden im Saarland auch kleine Fließgewässer mit mobilen Messstationen überwacht. Die Messergebnisse landen direkt online bei der Arbeitsgruppe Gewässermonitoring an der Universität des Saarlandes, die seit 20 Jahren die Untersuchungen durchführt. Die flexible Online-Überwachung verknüpft mit einer ausgefeilten Messstrategie ist bundesweites Vorbild.
An großen Flüssen wie Rhein und Donau gibt es feste Messstationen, deren Gewässerproben später im Labor ausgewertet werden. Im Unterschied dazu wurden im Saarland mit einer Förderung der Europäischen Union und des Landesumweltministeriums schon vor 20 Jahren mobile Messeinheiten aufgebaut, die in Autoanhänger flexibel zu jedem kleinen Bach im Saarland transportiert werden können. Von dort werden die Messdaten per GSM direkt an die Universität des Saarlandes übertragen und von der Arbeitsgruppe Gewässermonitoring ausgewertet, die am Lehrstuhl für Anorganische Festkörperchemie angesiedelt ist.
“Die Stationen sind mit Online-Sonden und Analysegeräten ausgestattet, so dass kontinuierlich verschiedene Messgrößen wie Sauerstoff, Wassertemperatur, pH-Wert und Salzgehalt erfasst werden. Zudem werden die Gehalte an Phosphat, Nitrat, Ammonium und Kohlenstoff-Verbindungen analysiert“, erläutert Diplomgeographin Angelika Meyer, die die Arbeitsgruppe Gewässermonitoring im Saarland unter Leitung von Professor Horst P. Beck mit aufgebaut und von Beginn an wissenschaftlich begleitet hat. Neben den mobilen Messeinheiten verfügt die Arbeitsgruppe auch über Einzelsonden, um bei besonderen Belastungen direkt im Gewässer messen zu können. Auch können einzelne Proben im Labor auf eine Vielzahl weiterer Parameter untersucht werden.
„Wenn die Gewässergüte in kleineren Fließgewässern durch Schadstoffe belastet wird, merkt man das in größeren Flüssen oft nicht, weil sich bis dorthin die Konzentration der Schadstoffe stark verdünnt hat. Daher ist die engmaschige Überwachung durch mobile Messstationen so wichtig, weil wir damit neben anthropogenen Einträgen auch Schwankungen während des Tages und bei verschiedenen Wetterlagen genau verfolgen können“, erklärt Guido Kickelbick, Professor für Anorganische Festkörperchemie der Universität des Saarlandes. Heute spielten dabei nicht nur die Gewässerqualität und der Hochwasserschutz eine zentrale Rolle, sondern verstärkt auch Aspekte des Klimaschutzes. „Wenn wir verrohrte und kanalisierte Bäche wieder freilegen, so dass sie sich auf natürliche Weise durch Wiesen und Wälder schlängeln können, und wir zusätzlich die Ufer mit Gehölzen bepflanzen, hilft das nicht nur beim Hochwasserschutz, sondern wirkt sich auch positiv auf das Mikroklima aus und trägt zum Erhalt der Biodiversität bei“, erklärt Kickelbick.
Die Arbeitsgruppe Gewässermonitoring wurde vor 20 Jahren mit Förderung der EU und des Landes eingerichtet, um die europäische Wasserrahmenrichtlinie umzusetzen, die zum Ziel hat, den chemischen und ökologischen Zustand aller Fließgewässer in Europa zu schützen und zu verbessern. Inzwischen wurde die Finanzierung des Gewässermonitorings von der Landesregierung fast vollständig übernommen. Die Wissenschaftlerinnen und Wissenschaftler entwickeln die aufwändige Messmethodik kontinuierlich weiter. Im vergangenen Jahr wurde das Projekt um weitere fünf Jahre verlängert. Eine langfristige Perspektive der Thematik befindet sich in enger Abstimmung aller Beteiligten.
„Die gute und langjährige Zusammenarbeit mit der Arbeitsgruppe Gewässermonitoring der Universität des Saarlandes liefert uns wichtige Daten zur Gewässergüte der unterschiedlichsten Flüsse im Saarland. Die Ergebnisse helfen bei der Umsetzung des Maßnahmenprogramms nach der Wasserrahmenrichtlinie und sind ein wichtiger Baustein auf dem Weg zum guten Zustand der saarländischen Gewässer“, betonte die saarländische Umweltministerin Petra Berg gestern bei dem Besuch einer mobilen Messstation in Wiebelskirchen.
Wissenschaftliche Ansprechpartner:
Dipl.-Geogr. Angelika Meyer
Arbeitsgruppe Gewässerschutz
Tel. 0681 / 302-4230
Mail: a.meyer@mx.uni-saarland.de
Prof. Dr. Guido Kickelbick
Anorganische Festkörperchemie
Tel. 0681 302-70651
Mail: guido.kickelbick@uni-saarland.de
Weitere Informationen:
http://www.gewaesser-monitoring.de
Aufbereitete Abwässer in der Landwirtschaft: Gesundheitliches Risiko durch Krankheitserreger auf Obst und Gemüse?
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Bundesinstitut für Risikobewertung (BfR) rät in bestimmten Fällen von Bewässerung ab
Bodennah wachsendes und roh konsumiertes Obst und Gemüse wie Salat, Möhren, Erdbeeren, oder auch frische Kräuter sollten in Deutschland nicht mit aufbereitetem Abwasser bewässert werden. Davon rät das Bundesinstitut für Risikobewertung (BfR) vor allem im Hinblick auf krankmachende Viren und Parasiten ab, die über diesen Weg auf oder in die Pflanzen gelangen können. Für eine abschließende Risikobewertung ist die derzeitige Datenlage noch unzureichend. Belegt ist jedoch, dass bestimmte Viren und einzellige Parasiten (Protozoen) Umwelteinflüssen trotzen und über rohes Obst und Gemüse Erkrankungen auslösen können. „Aufbereitetes Abwasser in der Landwirtschaft stellt die Lebensmittelsicherheit vor eine neue Herausforderung“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Um Krankheitserreger bestmöglich zu reduzieren, benötigen wir sehr gute Aufbereitungs- und Nachweisverfahren.“
Klimawandel, unvorhersehbare Wetterverhältnisse und Dürren verknappen die Wasserressourcen in Deutschland und Europa. Um dem zu begegnen wurden in der Verordnung (EU) 2020/741 Mindestanforderungen an die Nutzung von aufbereitetem Abwasser zur landwirtschaftlichen Bewässerung festgelegt. Die EU-Verordnung für die Wasserwiederverwendung ist ab dem 26. Juni 2023 gültig und soll die Umwelt sowie die Gesundheit von Mensch und Tier schützen. Das BfR hat mögliche gesundheitliche Risiken durch die Nutzung von aufbereitetem Abwasser für die Bewässerung von pflanzlichen Lebensmitteln mit Blick auf ausgewählte krankmachende Viren und Protozoen bewertet. Im besonderen Fokus standen dabei roh verzehrbares Obst und Gemüse, bei dem möglicherweise vorkommende Krankheitserreger nicht durch Erhitzen reduziert oder abgetötet werden.
Auf Basis der verfügbaren Daten spricht das BfR die Empfehlung aus, auf die Bewässerung von Pflanzen mit aufbereitetem Abwasser zu verzichten, deren roh verzehrbarer Anteil im Boden oder bodennah wächst. Diese gilt solange, bis geeignete Aufbereitungsverfahren und Kontrollen sicherstellen können, dass im Bewässerungswasser keine Krankheitserreger enthalten sind, insbesondere humanpathogene Viren oder Protozoen. Denn bei jedem der betrachteten Bewässerungssysteme (unterirdische und oberirdische Tropfbewässerung, wasserführende Gräben, Beregnungssystem, hydroponische Kultur) können Krankheitserreger nach derzeitigem Wissensstand auf oder in die essbaren Teile der Pflanzen gelangen und bei deren Rohverzehr Erkrankungen beim Menschen auslösen. Je nach Art des Krankheitserregers und Gesundheitszustands der betroffenen Person kann die gesundheitliche Beeinträchtigung variieren, bei Risikogruppen sind mitunter schwere Verläufe möglich. Hinsichtlich der Eignung von Methoden zur Inaktivierung oder Reduzierung von Krankheitserregern während der Abwasseraufbereitung besteht weiterer Forschungsbedarf.
Pflanzen, deren roh verzehrbarer Anteil bodenfern wächst, zum Beispiel Weinstöcke und Obstbäume, können nach Ansicht des BfR mit aufbereitetem Abwasser der Güteklasse A oder B bewässert werden, sofern ein direkter Kontakt der roh verzehrbaren Anteile mit dem aufbereiteten Abwasser (durch Auswahl eines geeigneten Bewässerungssystems) und dem bewässerten Boden ausgeschlossen wird. Da die betrachteten Viren und Protozoen sensibel auf Hitze reagieren, sind bei pflanzlichen Lebensmitteln, die vor dem Verzehr ausreichend erhitzt werden, keine gesundheitlichen Beeinträchtigungen durch Krankheitserreger im aufbereitetem Abwasser zu erwarten.
Stellungnahme „Aufbereitete Abwässer: Virale Krankheitserreger auf pflanzlichen Lebensmitteln vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-virale-krankheitserreger-a…
Stellungnahme „Aufbereitete Abwässer: Protozoen auf pflanzlichen Lebensmitteln vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-protozoen-auf-pflanzlichen…
Auch für den Menschen krankmachende humanpathogene Bakterien in landwirtschaftlich genutztem aufbereiteten Abwasser können das Erkrankungsrisiko durch roh verzehrtes Obst und Gemüse steigern. Dies hat bereits eine im Jahr 2020 veröffentlichte gemeinsame Bewertung von BfR, Julius Kühn-Institut (JKI) und Max Rubner-Institut (MRI) ergeben:
Stellungnahme „Aufbereitete Abwässer: Bakterielle Krankheitserreger auf frischem Obst und Gemüse vermeiden“
https://www.bfr.bund.de/cm/343/aufbereitete-abwaesser-bakterielle-krankheitserre…
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Tankrabatt wird bisher größtenteils weitergegeben
RWI Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Der seit 1. Juni geltende Tankrabatt für Diesel und Benzin ist bisher im Wesentlichen an die Verbraucherinnen und Verbraucher weitergegeben worden. Das ergeben aktuelle Auswertungen im Rahmen des Benzinpreisspiegels des RWI – Leibniz-Institut für Wirtschaftsforschung.
Das Wichtigste in Kürze:
– Um die Bevölkerung von hohen Energiepreisen zu entlasten, wurde in Deutschland am 1. Juni 2022 für drei Monate der sogenannte Tankrabatt eingeführt, eine temporäre Senkung der Energiesteuern auf Kraftstoffe auf das in der EU erlaubte Mindestmaß. Für Diesel sinkt in diesem Zeitraum die Energiesteuer um 14,04 Cent pro Liter, für Superbenzin um 29,55 Cent pro Liter. Inklusive der entsprechend entfallenden Mehrwertsteuer in Höhe von 19 Prozent liegt die theoretische steuerliche Entlastung insgesamt bei 16,7 Cent pro Liter Diesel und 35,2 Cent pro Liter Superbenzin.
– Der Vergleich mit den Kraftstoffpreisen zwischen Frankreich und Deutschland vor und nach Einführung des Tankrabatts zeigt, dass dieser bisher im Wesentlichen an die Verbraucherinnen und Verbraucher weitergegeben worden ist. Das ergeben Auswertungen im Rahmen des Benzinpreisspiegels des RWI – Leibniz-Institut für Wirtschaftsforschung.
– Im Mai lagen die Dieselpreise in Deutschland im Mittel etwas mehr als 13 Cent je Liter höher als in Frankreich (s. Abbildung 1). Nach Einführung des Tankrabatts in Deutschland drehte sich das Verhältnis um: Die Dieselpreise fielen in Deutschland im Juni geringer aus als in Frankreich, im Mittel um mehr als 8 Cent je Liter. Die Summe beider Differenzen in den Dieselpreisen zwischen Frankreich und Deutschland vor und nach Einführung des Tankrabatts von rund 21 Cent je Liter Diesel weist darauf hin, dass der Tankrabatt von rund 17 Cent je Liter Diesel zumindest zu sehr großen Teilen, wenn nicht gar gänzlich an die Verbraucherinnen und Verbraucher weitergegeben worden ist.
– Ein ähnliches Bild zeigt sich für die Preise von Superbenzin E10 (s. Abbildung 2): Lagen die E10-Preise in Deutschland im Mai zumeist noch über denen in Frankreich, im Mittel um rund 3,5 Cent je Liter, fielen sie im Juni deutlich geringer aus als in Frankreich. Im Mittel lagen die E10-Preise im Juni um rund 28 Cent je Liter tiefer als in Frankreich. Zusammengenommen ergibt sich eine Differenz von rund 31,5 Cent für die beiden Monate unmittelbar vor und nach der Einführung des Tankrabatts. Diese Differenz ist nahe der steuerlichen Entlastung von rund 35 Cent pro Liter Superbenzin und deutet darauf hin, dass der Tankrabatt bei Superbenzin E10 weitgehend an die Verbraucherinnen und Verbraucher weitergegeben worden ist.
– Ein abschließendes und präziseres Urteil, in welchem Ausmaß der Tankrabatt weitergegeben worden ist, lässt sich erst nach Ablauf der Vergünstigung Ende August unter Verwendung geeigneter ökonometrischer Methoden fällen.
Zum Tankrabatt für Kraftstoffe sagt der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI, Manuel Frondel: „Trotz der Weitergabe an die Autofahrer ist der Tankrabatt weder unter Verteilungs- noch unter ökologischen Aspekten sinnvoll. Denn mit dem Tankrabatt wird eher den Wohlhabenden geholfen als den armen Haushalten. Diese besitzen häufig gar kein Auto. Zudem ist der Tankrabatt ökologisch kontraproduktiv: Er hält nicht dazu an, weniger Benzin und Diesel zu verbrauchen. Genau das wäre aus ökologischen Gründen aber notwendig.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, manuel.frondel@rwi-essen.de, Tel.: 0201 8149-204
Politikpanel-Umfrage: Deutsche fühlen sich von aktuellen Krisen stark bedroht
Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• Befragte sehen vor allem beim Einkommen und beim Thema Gendern eine deutliche Spaltung der Gesellschaft
• Die Corona-Pandemie liegt nur noch auf Platz fünf der aktuellen Krisen – Ukrainekrieg und Preissteigerungen werden als stärkste Bedrohungen wahrgenommen
• An der Online-Umfrage nahmen 8.000 Personen aus ganz Deutschland teil
Die Mehrheit der Deutschen sieht sich durch die aktuellen Krisen in ihrer Sicherheit bedroht: Über 78 Prozent der Befragten des aktuellen „Politikpanels Deutschland“ der Universität Freiburg betrachten den Ukraine-Krieg als bedrohlich oder sehr bedrohlich. Der Krieg im Osten Europas überlagert damit alle andere Probleme. Auf Platz zwei liegt die Angst vor Inflation und steigenden Preisen (72 Prozent). Von den Teilnehmer*innen der Online-Befragung empfinden 65 Prozent der Befragten die Klimakrise als eher oder sehr bedrohlich.
Für die Umfrage des Politikpanel Deutschland haben die Freiburger Politikwissenschaftler Prof. Dr. Uwe Wagschal und Dr. Sebastian Jäckle in Zusammenarbeit mit Dr. James Kenneth Timmis vom Universitätsklinikum Freiburg mehr als 8.000 Personen aus ganz Deutschland zu politischen und gesellschaftlichen Themen befragt. Das lange beherrschende Corona-Thema liegt bei der aktuellen Umfrage noch hinter dem Thema Staatsverschuldung nur noch auf Platz fünf der bedrohlichen Krisen, lediglich 29,6 Prozent der Befragten sehen hier noch eine große Bedrohung.
Deutliche Unterschiede nach Parteipräferenz
Dabei unterscheiden sich die Befragten je nach Wahlabsicht zum Teil deutlich in ihrer Bedrohungswahrnehmung: So wird der Ukraine-Krieg nur von 47 Prozent der AfD-Anhänger*innen als bedrohlich oder sehr bedrohlich genannt, wohingegen mehr als 80 Prozent der Unions-, SPD- und Grünen-Anhänger*innen dies so sehen. Auch bei der Klima-Krise ist die Wahrnehmung der Bedrohung extrem unterschiedlich ausgeprägt: 48 Prozent der AfD-Anhänger*innen sehen die Klima-Krise als gar nicht bedrohlich, bei den Grünen-Anhängern*innen sind dies nur 0,25 Prozent.
Gesellschaft bei vielen Fragen gespalten
Ein Schwerpunkt der aktuellen Politikpanel-Umfrage ist die Spaltung der Gesellschaft. Über 80 Prozent der Befragten sehen die Gesellschaft bei der Einkommens- und Vermögensverteilung als ziemlich stark beziehungsweise sehr stark gespalten an. Beim Thema Gendern sehen knapp 70 Prozent eine solch starke Spaltung. „Offensichtlich sind in der Gesellschaft starke Unterschiede bei den Werte- und Normeneinstellungen zu beobachten“, erklärt Jäckle.
Das gelte auch in Bezug auf eine so genannte Cancel Culture, also die Tendenz, andere Menschen aufgrund ihrer Ansichten und Einstellungen zu blockieren und von Veranstaltungen auszuschließen: Hier sieht ebenfalls eine Mehrheit die Gesellschaft als gespalten an, gleichzeitig ist dieser Begriff fast 30 Prozent der Befragten nicht bekannt oder sie haben keine Meinung hierzu. Die geringste Spaltung wird zwischen Ost- und Westdeutschland gesehen, nur etwas über 30 Prozent der Befragten sehen hier eine starke Spaltung.
Deutsche wollen Dienstpflicht – vor allem die Älteren
Das kürzlich von Bundespräsident Frank-Walter Steinmeier aufgebrachte Thema einer allgemeinen Dienstpflicht stößt in der Bevölkerung überwiegend auf Zustimmung. Befragte über 30 Jahre befürworten eine solche Dienstpflicht zu 60 bis 70 Prozent, am stärksten ist die Zustimmung bei Befragten über 60 Jahre. Die jüngste Gruppe der 18- bis 30-Jährigen lehnt eine Dienstpflicht hingegen mehrheitlich ab, obwohl auch hier etwa 42 Prozent ihr positiv gegenüberstehen.
So gut wie keinen Unterschied zwischen den Altersgruppen gibt es bei der Frage, ob die Gesellschaft auf freiwilliges Engagement der Bevölkerung angewiesen ist: Etwa 85 Prozent stimmen dieser Aussage eher oder voll und ganz zu. Die große Mehrheit derjenigen, die in der Vergangenheit einen Dienst abgeleistet haben (zum Beispiel Wehrdienst oder Zivildienst), haben diesen als gute und sinnvolle Erfahrung in Erinnerung.
Faktenübersicht:
• Das Politikpanel Deutschland ist eine Umfrage des Seminars für Wissenschaftliche Politik der Universität Freiburg. Seit der Bundestagswahl 2017 findet es in unregelmäßigen Abständen statt.
• Die aktuellen Ergebnisse können abgerufen werden unter www.politikpanel.uni-freiburg.de .
• Für die aktuelle Umfrage wurden mehr als 8.000 Personen aus ganz Deutschland online zu politischen und gesellschaftlichen Themen befragt. Die Befragung lief vom 30. Juni bis zum 17. Juli 2022. Die Daten der Teilnehmenden wurden anhand der soziodemographischen Merkmale Alter, Geschlecht, Bundesland und Wahlabsicht gewichtet und somit an die reale Verteilung in der Bevölkerung angepasst.
• Prof. Dr. Uwe Wagschal ist Professor für Vergleichende Regierungslehre am Seminar für Wissenschaftliche Politik der Universität Freiburg. Dr. Sebastian Jäckle ist dort Akademischer Rat. Dr. James Kenneth Timmis ist Mitarbeiter des Universitätsklinikums Freiburg.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Uwe Wagschal
Seminar für Wissenschaftliche Politik
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-9361
E-Mail: politikpanel@politik.uni-freiburg.de
Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/politikpanel-umfrage-deutsche-fueh…
Anhang
Politikpanel-Umfrage_Grafiken
Hitze – was tun?
Dr. Manuela Rutsatz Stabsstelle Kommunikation und Marketing
Universität Augsburg
Längere Hitzephasen gehören zu den Folgen eines Klimawandels, die unsere Gesundheit genau wie die Natur und Landwirtschaft direkt betreffen. Wie Menschen am besten mit Hitze umgehen können und welche Maßnahmen seitens der Politik nötig sind, fasst Prof. Dr. Claudia Traidl-Hoffmann, Umweltmedizinerin an der Medizinischen Fakultät der Universität Augsburg im Interview zusammen.
Wer ist besonders durch Hitze gefährdet?
Besonders gefährdet sind die vulnerablen Gruppen: ältere Menschen, Säuglinge und Kleinkinder. Und natürlich auch Vorerkrankte. Aber auch gesunde, fitte Menschen sind gefährdet, nämlich die Gefahr zu unterschätzen. Immer wieder werden Menschen in die Notaufnahme eingeliefert, die trotz hoher Temperaturen intensiv Sport treiben, stundenlang Rasen mähen oder in der prallen Sonne ausgiebig Arbeiten im Freien durchführen. Der menschliche Körper, mag er noch so fit und gesund sein, kann sich nicht unbegrenzt selbst kühlen – hier ist gesunder Menschenverstand gefragt.
Was kann ich persönlich tun, um Hitzewellen gut zu überstehen?
Die meisten Dinge, die helfen sich vor Hitze zu schützen, sind sehr einfach. Lüften Sie in der Nacht, um Kühle in die Wohn- und Arbeitsräume zu lassen und schließen Sie Fenster und ggf. Jalousien tagsüber, um die Wärme auszusperren. Gehen Sie anstrengenden Tätigkeiten nicht in praller Mittagshitze nach oder treiben Sie Sport in den frühen Morgenstunden oder am späten Abend. Trinken Sie ausreichend, am besten jede Stunde ein Glas Wasser, in etwa 2,5 – 3 l pro Tag. Wasser oder ungesüßte Tees sind am geeignetsten. Nehmen Sie leichte Mahlzeiten zu sich: Obst, Gemüse und Salat sind ideal – fette Speisen belasten eher. Auch Salziges wie etwa Salzstangen können helfen, den Elektrolythaushalt wieder ins Gleichgewicht zu bringen, wenn Sie viel geschwitzt haben. Lauwarme Duschen oder ein Sprühnebel auf der Haut schaffen Kühlung und erleichtern eventuell das Einschlafen bei hohen Temperaturen.
Langfristig hilft auch, das Umfeld zu begrünen – Bäume wirken wie Klimaanlagen.
Sind wir hier in Deutschland generell gewappnet für die kommende Hitze?
Nein, leider sind wir das momentan noch nicht. Frankreich hat nach dem Hitzesommer 2003 reagiert und Pläne in Kraft gesetzt, die nun die Bevölkerung umfassend im Falle einer Hitzeperiode schützen. Jeder weiß, was er im Fall der Fälle zu tun hat und die Zahl der Hitzetoten ist daraufhin dramatisch gesunken. In Deutschland sind wir leider noch nicht so weit. Die diesjährige, sehr langanhaltende Hitze trifft uns quasi unvorbereitet, als ob wir noch nicht glauben wollten, dass es bei uns heiß ist, sogar sehr heiß im Sommer. Die Gefahr wird noch immer, zum Teil auch in der Ärzteschaft, unterschätzt. Andererseits ist viel in Bewegung gekommen. Ich arbeite z.B. an der Erstellung eines Hitzeschutzplanes des Freistaates Bayern mit und nicht zuletzt die umfangreiche Berichterstattung bringt den Menschen die Dringlichkeit näher. Zum jetzigen Zeitpunkt jedoch sind wir hier weder institutionell oder individuell ausreichend vorbereitet oder geschützt. Dramatische Szenen könnten die Folge sein.
Was muss die Politik verändern?
Das naheliegendste in puncto Hitzeschutz ist zunächst ein Plan. Jeder sollte wissen, auf was bei Hitze zu achten ist: als Lehrer, als Nachbarin, als Ärztin, als Vater, als Altenpfleger oder Bürgermeisterin. Wo wohnen in der Kommune ältere Menschen in Dachgeschosswohnungen? Wer muss an kühlere Orte gebracht werden? Ab wann gibt es dann einfach keine Bundesjugendspiele mehr? Sehr viele weitere Maßnahmen sind nur mittel- und langfristig umsetzbar. Der Umbau der Städte zu grünen, nachhaltigen Orten, Schwammstädten z.B., die den sogenannten „Hitzeinseleffekt“ abmildern oder vermeiden, ist eine längerfristige, sehr kostenintensive Notwendigkeit. Und, von seiten der Politik unabdingbar: die Vermeidung von Emissionen und die Einhaltung der Klimaziele müssen jetzt einfach Priorität 1 haben. Es geht nicht mehr „nur“ um den Eisbären, es geht schon lange um uns selbst.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Claudia Traidl-Hoffmann
Lehrstuhlinhaberin Umweltmedizin
Telefon: +49 821 598-6424 (Sekretariat)
melanie.pawlitzki@uni-a.de (Pressereferentin)
Wasserstoffbedarfe künftig decken: ESYS zeigt Importoptionen für grünen Wasserstoff auf
Anja Lapac Geschäftsstelle
acatech – Deutsche Akademie der Technikwissenschaften
Wasserstoff ist ein Schlüsselelement, um Klimaneutralität zu erreichen. Besonders für die Dekarbonisierung der Industrie und bestimmter Verkehrssektoren stellt er eine wichtige Ergänzung zur direkten Elektrifizierung dar. Um die künftig hohen Bedarfe zu decken, werden Importe nötig sein. Es gilt, aus der Vergangenheit zu lernen und Abhängigkeiten zu minimieren. Die ESYS-Fachleute zeigen in einer Analyse Transportoptionen und ihre Vor- und Nachteile auf und beschreiben Hemmnisse und Herausforderungen für den Aufbau von Transportketten und Wasserstoffkooperationen.
Einige Szenarien sehen für 2030 einen inländischen Bedarf an Wasserstoff und dessen Syntheseprodukten von rund 45–110 Terawattstunden, der bis 2045 auf etwa 400–700 Terawattstunden steigen wird. Diese Mengen wird Deutschland kaum selbst herstellen können und deshalb bei diesem Schlüsselelement der Energiewende auf ergänzende Importe aus der EU und voraussichtlich auch aus Nicht-EU-Ländern zurückgreifen müssen. Doch woher soll der benötigte Wasserstoff kommen? Und wie viel wird dieser Transport kosten?
Eine Arbeitsgruppe des Akademienprojekts „Energiesysteme der Zukunft“ (ESYS) – einer vom Bundesministerium für Bildung und Forschung (BMBF) geförderten gemeinsamen Initiative von acatech, Leopoldina und Akademienunion – zeigt in der Analyse „Optionen für den Import von grünem Wasserstoff nach Deutschland bis zum Jahr 2030“ auf, welche Transportoptionen bestehen, und vergleicht diese anhand verschiedener Kriterien. Berechnungen zu Kosten und Energieeffizienz der jeweiligen Transportketten fließen ebenso in die Betrachtungen ein wie qualitative Kriterien, unter anderem zu Umweltwirkungen, bestehenden Infrastrukturen sowie zur politisch-rechtlichen Umsetzbarkeit.
Die Analyse zeigt, dass die bis 2030 benötigten Importmengen grundsätzlich zu beschaffen sind, wenn die richtigen infrastrukturellen, rechtlichen und unternehmerischen Weichen schnell gestellt werden. Die Fachleute sprechen sich nicht für eine dominante Transportoption aus, sondern zeigen auf, dass eine Reihe von Optionen – mit unterschiedlichen Umsetzungsanforderungen sowie jeweiligen Vor- und Nachteilen – einen Beitrag zur Bedarfsdeckung 2030 leisten können. Dabei ist die Transportdistanz nicht zwangsläufig der treibende Kostenfaktor und eine Vielzahl an Regionen eignet sich für die Herstellung und den Export von Wasserstoff nach Deutschland.
Relevante Transportoptionen bis 2030: Reiner Wasserstoff per Pipeline, Syntheseprodukte via Schiff
Sowohl der Transport per Schiff als auch der über Pipelines ist möglich, eignet sich aber je nach Verwendung und Transportdistanz nicht für jeden Zweck gleichermaßen: Reiner Wasserstoff lässt sich gut mittels Pipelines transportieren, doch der Aufbau neuer Pipelines bis 2030 ist herausfordernd. Durch eine Umrüstung oder die Trassennutzung bestehender Infrastrukturen ließen sich nicht nur Kosten einsparen, sondern vor allem Planungs- und Umsetzungszeiten verkürzen. Für Syntheseprodukte wie Ammoniak und Methanol bietet sich hingegen der Transport via Schiff an: Es gibt bereits bestehende Produktions- und Transportstrukturen, auf die zurückgegriffen werden kann. Das Transportgut sollte dann jedoch direkt als Syntheseprodukt genutzt werden, ohne den gebundenen Wasserstoff wieder zu extrahieren, denn dies wäre energetisch ineffizienter und teuer.
Weichen stellen für eine grüne Wasserstoffwirtschaft 2030: technologisch, rechtlich und kooperativ
Ein ambitionierter Einstieg in die Wasserstoffwirtschaft ist notwendig. Zugleich gilt es, Schnellschüsse und Lock-ins zu vermeiden und im europäischen und globalen Maßstab zu denken – auch über 2030 hinaus. Es braucht nicht nur den Sprung relevanter Technologien von der Entwicklung in die industrielle Serienfertigung, sondern auch rechtliche und politische Rahmensetzungen, um für potenzielle Produzenten, Investoren und Abnehmer mehr Klarheit und Sicherheit zu schaffen. Das betrifft zum Beispiel eine Zertifizierung, die verlässlich definiert, was grüner Wasserstoff und die entsprechenden Derivate sind.
Für die Kooperation mit potenziellen Exportländern ist es wichtig, dass diese genügend Erneuerbare-Energien-Potenziale haben, um neben der eigenen Defossilisierung auch Wasserstoffexporte realisieren zu können. Zudem sind mögliche Konflikte um Ressourcen zu berücksichtigen – etwa hinsichtlich der Flächenverfügbarkeit oder der Wasserversorgung. Ziel der deutschen Wasserstoffpolitik sollte eine nachhaltige Umsetzung auf Augenhöhe sein, die beiden Handelspartnern nutzt.
Zur Publikation:
https://energiesysteme-zukunft.de/publikationen/analyse/transportoptionen-wasser…
Ansprechpartnerin:
Anja Lapac, Referentin Presse- und Öffentlichkeitsarbeit
acatech – Deutsche Akademie der Technikwissenschaften | Koordinierungsstelle „Energiesysteme der Zukunft“
Tel.: +49 (0)89 5203 09-850
lapac@acatech.de
Weitere Ansprechpartnerinnen:
Caroline Wichmann, Leiterin der Abteilung Presse- und Öffentlichkeitsarbeit
Nationale Akademie der Wissenschaften Leopoldina
Tel.: +49 (0)345 472 39-800
presse@leopoldina.org
Dr. Annette Schaefgen, Leiterin Presse- und Öffentlichkeitsarbeit
Union der deutschen Akademien der Wissenschaften
Tel.: +49 (0)30 325 98 73-70
schaefgen@akademienunion-berlin.de
Wissenschaftliche Ansprechpartner:
Sven Wurbs
acatech – Deutsche Akademie der Technikwissenschaften
Koordinierungsstelle „Energiesysteme der Zukunft“
Tel.: +49 (0) 30/2 06 30 96-23
wurbs@acatech.de
Originalpublikation:
Staiß, F. et al.: Optionen für den Import grünen Wasserstoffs nach Deutschland bis zum Jahr 2030: Transportwege – Länderbewertungen – Realisierungserfordernisse (Schriftenreihe Energiesysteme der Zukunft), München 2022.
Anhang
Importoptionen Wasserstoff – ESYS
Forschung für den Klimaschutz: Projekte zur Reduzierung der CO2-Konzentration in der Atmosphäre gesucht.
Dr. Kristine Bentz Förderbereich Forschung
Vector Stiftung
Die Vector Stiftung unterstützt Ideen, Konzepte und Strategien, die vorhandenes CO2 aus der Atmosphäre entfernen, CO2-Emissionen reduzieren oder ganz vermeiden. Pro Projekt können bis zu 350.000 Euro beantragt werden. Projektanträge werden laufend entgegengenommen.
Anthropogene Treibhausgasemissionen, allen voran CO2-Emissionen, die durch die Verbrennung fossiler Energieträger und durch industrielle Prozesse freigesetzt werden, sind die Hauptursache für den Klimawandel. Um die globale Erwärmung unter 2°C (über dem vorindustriellen Niveau) zu halten, sind zusätzlich Anstrengungen zur Reduktion des Emissionswachstums bzw. zur Verringerung der Treibhausgaskonzentration in der Atmosphäre erforderlich.
Die aktuelle Ausschreibung richtet sich an Wissenschaftler:innen, die sich mit neuen innovativen Konzepten oder technologischen (Weiter-)Entwicklungen zur Reduzierung der CO2-Konzentration in der Atmosphäre beschäftigen.
Pro Projekt können bis zu 350.000 Euro für eine Laufzeit von maximal 36 Monaten beantragt werden.
Antragsberechtigt sind Hochschulen, Universitäten und außeruniversitäre Forschungseinrichtungen in Baden-Württemberg. Projekte können als Einzel- oder als Verbundvorhaben durchgeführt werden. Auch ganzheitliche Betrachtungsweisen und interdisziplinäre Ansätze verschiedener Fachrichtungen werden begrüßt.
Insbesondere werden Projektanträge eingeladen, die sich mit folgenden Forschungsfragen auseinandersetzen, jedoch nicht auf diese beschränkt sein müssen:
▸ CO2-Gewinnung aus der Luft
▸ CO2-Abscheidung an Punktquellen
▸ CO2-neutrale Kohlenstoffverwertung
▸ Ersatz fossiler Kohlenstoffquellen
▸ Dauerhafte Speicherung von CO2
Um den fachlichen Austausch zu unterstützen, plant die Vector Stiftung ein jährliches Netzwerktreffen aller zur Förderung ausgewählten Projekte. Mittel für Organisation und Durchführung werden von der Vector Stiftung zentral zur Verfügung gestellt.
Keine Einreichungsfrist. Anträge können laufend über das Online-Antragsportal eingereicht werden. Eingereichte Anträge werden zeitnah begutachtet, die Antragstellenden werden ggf. aufgefordert, ihr Vorhaben dem Forschungsbeirat persönlich zu präsentieren (virtuell oder vor Ort). Die finale Förderentscheidung fällt i.d.R. innerhalb von 4 Monaten nach Antragseinreichung.
Alle relevanten Informationen sowie den Zugang zum Online-Antragsportal unter https://vector-stiftung.de/foerderbereiche/#ausschreibungen
Wissenschaftliche Ansprechpartner:
Dr. Kristine Bentz
Leiterin Forschungsförderung
+49 (0)711 80670 1181
kristine.bentz@vector-stiftung.de
Herzinfarkt bei Hitze – welche Rolle spielen Herz-Kreislauf-Medikamente?
Verena Coscia Kommunikation
Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH)
Bei hohen Temperaturen haben Menschen, die bestimmte Medikamente einnehmen, ein erhöhtes Herzinfarktrisiko: Dies fand ein Forscherteam um Dr. Alexandra Schneider, Forschungsgruppenleiterin ‚Environmental Risks‘ vom Helmholtz Munich Institut für Epidemiologie und Kai Chen, PhD vom Yale Institute for Global Health heraus. Für Menschen mit koronarer Herzkrankheit können Betablocker zwar die Lebensqualität verbessern und Thrombozytenaggregationshemmer das Risiko eines Herzinfarkts senken. Allerdings deuten die Ergebnisse der neuen Studie darauf hin, dass diese Schutzmaßnahmen an besonders heißen Tagen auch eine gegenteilige Wirkung haben können.
Bekannt ist, dass Umweltfaktoren, wie Luftverschmutzung und niedrige Außentemperaturen, Herzinfarkte auslösen können. Darüber hinaus zeigt sich immer deutlicher, dass ein akuter Herzinfarkt auch durch Hitze ausgelöst werden kann. Allerdings war bisher unklar, ob Patient:innen, die bestimmte Herz-Kreislauf-Medikamente einnehmen, ein höheres Risiko aufweisen, an heißen Tagen einen Herzinfarkt zu erleiden, als Patient:innen ohne diese regelmäßige Medikamenteneinnahme. Dieser Frage gingen die Forscher auf den Grund und zogen für ihre Analysen Daten des Herzinfarktregisters Augsburg der Jahre 2001 bis 2014 heran. Insgesamt konnten 2.494 Fällen während der Monate Mai bis September betrachtet werden.
Anstieg des Herzinfarktrisikos um mehr als 60 %
Es zeigte sich an heißen Tagen im Vergleich zu kühleren Kontrolltagen ein signifikant erhöhtes Risiko für nicht-tödliche Herzinfarkte bei Patient:innen, die Thrombozytenaggregationshemmer bzw. Betablocker einnahmen im Vergleich zu Patient:innen, die diese Medikamente nicht einnahmen. Die Einnahme von Thrombozytenaggregationshemmern war mit einem Anstieg des Risikos um 63% und die Einnahme von Betablockern mit einem Anstieg des Risikos um 65% verbunden. Patient:innen, die beide Medikamente einnahmen, hatten ein um 75% höheres Risiko. Bei Nichtanwendern dieser Medikamente war die Wahrscheinlichkeit eines Herzinfarkts an heißen Tagen nicht erhöht. Interessant ist auch, dass der Effekt der Medikamenteneinnahme in der jüngeren Altersgruppe (25–59 Jahre) stärker als bei älteren Patient:innen (60–74 Jahre) war, obwohl letztere häufiger bereits zugrunde liegende koronare Herzerkrankungen aufwiesen.
Mögliche Gründe für das erhöhte Risiko
Die Forschungsergebnisse beweisen nicht, dass diese Medikamente bei Hitze die Herzinfarkte verursacht haben. Die Wissenschaftler:innen spekulieren jedoch auf Grund dieser Daten, dass die Einnahme der Medikamente die Thermoregulation im Körper, also die Anpassung an hohe Temperaturen, erschwert. Somit könnte die Medikamenteneinnahme diese Patient:innen tatsächlich empfindlicher gegenüber Hitzeexposition machen. Denkbar ist allerdings auch, dass die zugrunde liegende schwere Herzerkrankung, sowohl die Verschreibung der genannten Medikamente erklärt, als auch die höhere Empfindlichkeit dieser Patient:innen gegenüber Hitze. Gegen letztere Hypothese spricht, dass zum einen der beobachtete Risikoanstieg durch die Medikamenteneinnahme besonders stark in der an sich gesünderen und jüngeren Patient:innengruppe auftrat. Darüber hinaus konnte bei keinem weiteren Medikament, das häufig von Herzpatient:innen eingenommen wird, eine Risikoerhöhung bzgl. das Auftretens von Herzinfarkten bei Hitze beobachtet werden (mit Ausnahme bei der Einnahme von Statinen).
Besondere Vorsicht bei Hitzewellen
„Die Ergebnisse legen nahe, dass Herzinfarkte mit fortschreitendem Klimawandel und damit verbundenen häufigeren heißen und sehr heißen Tagen zu einer größeren Gefahr für Patient:innen mit bestehenden Herz-Kreislauf-Erkrankungen werden können“ erklärt Dr. Alexandra Schneider. Besonders während Hitzewellen sei es für Betroffene daher ratsam, vorsichtig zu sein und sich im Kühlen aufzuhalten. „Welche Untergruppen der Bevölkerung am anfälligsten für diese Umweltextreme sind und damit am meisten von einem auf sie zugeschnittenen gesundheitlichen Hitzeschutz profitieren würden, ist aber noch unklar und bedarf weiterer Forschung“, so die Wissenschaftlerin. Vor allem die Wirkung der Medikamente auf die Thermoregulation, die veränderte Wirksamkeit der Medikamente bei Hitze sowie das Zusammenspiel von Medikamenten mit gesundheitlichen Hitzefolgen wie Dehydrierung, müsse noch besser erforscht werden. „Nur dann können Hausärzte auf angekündigte heiße Tage und Hitzewellen reagieren und die Medikation ihrer Patient:innen kurzfristig entsprechend anpassen“ erläutert die Forscherin.
Wissenschaftliche Ansprechpartner:
Dr. Alexandra Schneider, Forschungsgruppenleiterin ‚Environmental Risks‘ vom Helmholtz Munich Institut für Epidemiologie
Originalpublikation:
Kai Chen et al.: Triggering of myocardial infarction by heat exposure is modified by medication intake, Nature Cardiovascular Research. DOI: 10.1038/s44161-022-00102-z
Die Gestalt des Raumes – Ausstellung von IÖR und BBSR in Berlin zeigt Facetten der Landnutzung
Heike Hensel Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für ökologische Raumentwicklung e. V.
Deutschlands Landschaften sind vielfältig und einem steten Wandel unterworfen. Wachsende Städte, Windkraftanlagen und Solarfelder, Hochspannungstrassen, neue Verkehrswege, Agrarindustrie und zunehmende Technisierung verändern das Landschaftsbild immer schneller. Die Ausstellung „Die Gestalt des Raumes – Landschaften Deutschlands als Abbilder der Gesellschaft“ macht diesen Wandel mit vielfältigen Luftbildern sichtbar. Das Leibniz-Institut für ökologische Raumentwicklung (IÖR) und das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) präsentieren die Ausstellung vom 1. bis 26. August im Ernst-Reuter-Haus in Berlin.
Die Ausstellung „Die Gestalt des Raumes – Landschaften Deutschlands als Abbilder der Gesellschaft“ dokumentiert den gesellschaftlichen Umgang mit Landschaft in Deutschland. Unsere räumlichen Lebensgrundlagen sind einem steten Wandel unterworfen. Landnutzung ist dabei Ausdruck gesellschaftlicher Ansprüche, wirtschaftlicher Tätigkeiten, kultureller Prägungen, naturräumlicher Ausstattung und geschichtlicher Entwicklungen. Sie ist auch ein Resultat räumlicher Planungen auf verschiedenen Ebenen, die die Veränderungen steuern und versuchen, Flächennutzungskonflikte auszugleichen. Das Ergebnis sind im Vergleich zu europäischen Nachbarn meist klar gegliederte Siedlungsstrukturen und häufig auch schöne Kulturlandschaften, vielerorts aber auch Zersiedelung, Landschaftszerschneidung sowie Boden- und Waldschäden.
Anhand einer Vielzahl von Luftaufnahmen zeigt die Ausstellung eindrücklich verschiedene Facetten der Landnutzung in Deutschland: Siedlungsstrukturen von hochverdichteten Innenstädten bis hin zu Stadtrandlagen und urbanem Grün, Verkehrsinfrastrukturen sowie Industrie- und Energielandschaften, landwirtschaftliche Flächen von ausgeräumten Bergbaufolge- und agrarindustriellen Landschaften bis zu Ökolandbau, Waldbeständen und Freizeitlandschaften. Die von einem Fotokopter und einem Luftschiff aus einer Höhe von bis zu 100 Metern aufgenommenen Bilder ermöglichen einen neuen und zuweilen überraschenden Blick auf meist kleinräumig strukturierte, geordnete und genutzte Landschaften.
Am 25. August findet um 17 Uhr die Finissage der Ausstellung statt. Die Präsidentin des Bundesamtes für Bauwesen und Raumordnung, Petra Wesseler, wird die Veranstaltung eröffnen. In einem Gespräch mit den Autorinnen und Autoren des Fotobandes, der der Ausstellung zugrunde liegt, geht es um Wege für einen schonenden Umgang mit Landschaften und Siedlungsräumen in Deutschland.
Der Eintritt zu Ausstellung und Finissage ist frei.
Ausstellungsdauer: 01.08. – 26.08.2022
Ausstellungsort: Bundesamt für Bauwesen und Raumordnung, Ernst-Reuter-Haus, Straße des 17. Juni 112, 10623 Berlin
Öffnungszeiten: Montag bis Freitag 10 bis 18 Uhr
Eintritt frei
Wissenschaftliche Ansprechpartner:
Dr. Gotthard Meinel, E-Mail: G.Meinel@ioer.de
Originalpublikation:
Fotoband zur Ausstellung
Wendelin Strubelt, Fabian Dosch, Gotthard Meinel (Hrsg.)
„Die Gestalt des Raumes. Landschaften Deutschlands als Abbilder der Gesellschaft“ mit Fotos von Jürgen Hohmuth und Marcus Fehse (zeitort.de, Berlin) sowie Fachbeiträgen verschiedener Autor*innen
Wasmuth & Zohlen Verlag, 2021
ISBN: 978 3 8030 2224 0
Weitere Informationen:
http://www.die-gestalt-des-raumes.de – Internetseite zum Fotoband
https://wasmuth-verlag.de/shop/architektur-stadtplanung/urbanismus/die-gestalt-d… – Verlagsinformationen
Anhang
Pressemitteilung als PDF
Neues Zentrum für modell-basierte Künstliche Intelligenz
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Um Methoden der mathematischen Modellierung mit der Informationsverarbeitung in neuronalen Netzen zu verbinden, ist an der Universität Heidelberg ein Zentrum für modell-basierte Künstliche Intelligenz etabliert worden. Den Aufbau des CZS Heidelberg Center for Model-Based AI fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit fünf Millionen Euro. Hier sollen Forschungsaktivitäten des Interdisziplinären Zentrums für Wissenschaftliches Rechnen (IWR) mit Techniken des Deep Learning verknüpft werden.
Carl-Zeiss-Stiftung fördert Aufbau des CZS Heidelberg Center for Model-Based AI mit fünf Millionen Euro
Um Methoden der mathematischen Modellierung mit der Informationsverarbeitung in neuronalen Netzen zu verbinden, ist an der Universität Heidelberg ein Zentrum für modell-basierte Künstliche Intelligenz etabliert worden. Den Aufbau des CZS Heidelberg Center for Model-Based AI fördert die Carl-Zeiss-Stiftung (CZS) über einen Zeitraum von sechs Jahren mit fünf Millionen Euro. Hier sollen Forschungsaktivitäten des Interdisziplinären Zentrums für Wissenschaftliches Rechnen (IWR) mit Techniken des Deep Learning verknüpft werden. Ziel ist es, hocheffektive, energieeffiziente und datenschutzkonforme Verfahren der Problemlösung für Forschung und Industrie zu entwickeln, wie Prof. Dr. Jürgen Hesser, Wissenschaftler an der Medizinischen Fakultät Mannheim, als Sprecher der neuen interdisziplinären Einrichtung erläutert.
Ansatz der Wissenschaftler am CZS Heidelberg Center for Model-Based AI ist es, vorhandenes Wissen aus großen Datenmengen in Methoden des modellbasierten Deep Learning zu implementieren. Damit sollen neuronale Netze zur Informationsverarbeitung so trainiert werden, dass sie eine möglichst schnelle und präzise Lösung von Problemen erzielen. Um dies zu erreichen, werden die Experten verschiedene Fragestellungen aus der Forschung zur Künstlichen Intelligenz bearbeiten, unter anderem zur Verlässlichkeit von Lerndaten, zur Effektivität der Objekterkennung sowie zur Qualität der Datenspeicherung und Datenauswertung. Von zentraler Bedeutung ist dabei die Kombination von mathematischen Modellen und modernen Verfahren des maschinellen Lernens.
„Wir arbeiten an Methoden, die zuverlässig sind und aufzeigen, wie sicher die mithilfe der neuronalen Netze getroffenen Entscheidungen sind“, so Prof. Dr. Ullrich Köthe, Gruppenleiter in dem am IWR angesiedelten Computer Vision and Learning Lab, der maßgeblich am Aufbau des neuen Zentrums beteiligt ist. Unter dem Stichwort „green IT“ wollen die Forscherinnen und Forscher die von ihnen verwendeten numerischen Techniken so gestalten, dass sie nicht nur bei der Auswertung, sondern bereits bei ihrer Anpassung an die jeweils zu nutzenden Daten möglichst wenig Energie verbrauchen. Zudem soll untersucht werden, wie gesetzliche Bestimmungen – etwa Datenschutz oder Medizinrecht – sinnvoll in die KI-Modelle implementiert werden können.
Um zu demonstrieren, was die neuen Methoden zu leisten imstande sind, wollen die Wissenschaftler ihre Verfahren in einem hoch relevanten Feld der Medizin – der Krebsbehandlung – anwenden. Ziel ist es, mit vorprogrammiertem Wissen Systeme der Künstlichen Intelligenz für die Therapie zu optimieren, wie Prof. Hesser erläutert. Der Experte für Medizinische Physik leitet die Forschungsgruppe „Datenanalyse und Modellierung in der Medizin“ am Mannheim Institute for Intelligent Systems in Medicine, das an der Medizinischen Fakultät Mannheim angesiedelt ist; zudem ist er Mitglied im Interdisziplinären Zentrum für Wissenschaftliches Rechnen der Universität Heidelberg.
Das CZS Heidelberg Center for Model-Based AI hat im Frühjahr seine Arbeit aufgenommen. Dem Zentrum gehören elf Forscherinnen und Forscher aus den Bereichen Mathematik, Informatik, Physik und Medizin an. Eingebunden ist neben dem IWR auch das Institut für Technische Informatik der Universität Heidelberg. Neu eingerichtet werden soll zudem eine Nachwuchsprofessur im Bereich Model-Based AI, um auch hier grundlegende Fragen der Forschung vertiefend bearbeiten zu können.
Die Carl-Zeiss-Stiftung fördert den Aufbau des CZS Heidelberg Center for Model-Based AI im Rahmen des „CZS Durchbrüche“-Programms. Damit unterstützt die Stiftung internationale Spitzenforschung in Baden-Württemberg, Rheinland-Pfalz und Thüringen. Mit diesen Mitteln soll bereits ausgewiesene Forschungsstärke weiterentwickelt und national wie auch international ausgebaut werden.
Kontakt:
Universität Heidelberg
Kommunikation und Marketing
Pressestelle, Telefon (06221) 54-2311
presse@rektorat.uni-heidelberg.de
Weitere Informationen:
https://www.uni-heidelberg.de/de/newsroom/neues-zentrum-fuer-modell-basierte-kue… – Pressemitteilung
http://www.umm.uni-heidelberg.de/miism/data-analysis-and-modeling-in-medicine – Jürgen Hesser
https://hci.iwr.uni-heidelberg.de/vislearn/people/ullrich-koethe – Ullrich Köthe
http://www.carl-zeiss-stiftung.de/themen-projekte/uebersicht-projekte/detail/mod… – CZS Heidelberg Center for Model-Based AI
http://www.carl-zeiss-stiftung.de – Carl-Zeiss-Siftung
Schwimmen ohne Hirn und Muskeln
Dr. Manuel Maidorn Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Dynamik und Selbstorganisation
Bakterien und andere einzellige Organismen haben trotz ihrer vergleichsweisen einfachen Strukturen ausgeklügelte Methoden entwickelt, um sich aktiv fortzubewegen. Um diese Mechanismen aufzudecken, haben Forschende des Max-Planck-Instituts für Dynamik und Selbstorganisation (MPI-DS) Öltröpfchen als Modell für biologische Mikroschwimmer verwendet. Corinna Maass, Gruppenleiterin am MPI-DS und Associate Professor an der Universität Twente, untersuchte zusammen mit ihren Kolleg*innen in mehreren Studien die Strategien von Mikroschwimmern: Wie navigieren diese in engen Kanälen, wie beeinflussen sie sich gegenseitig und wie schaffen sie es sich durch kollektive Rotation fortzubewegen?
Um zu überleben, müssen biologische Organismen auf ihre Umwelt reagieren. Während Menschen oder Tiere über ein komplexes Nervensystem verfügen, um ihre Umgebung wahrzunehmen und bewusste Entscheidungen zu treffen, haben einzellige Organismen andere Strategien entwickelt. In der Biologie bewegen sich kleine Organismen wie Parasiten und Bakterien beispielsweise durch enge Kanäle wie Blutgefäße. Sie tun dies oft in einer regelmäßigen, oszillierenden Weise, die auf hydrodynamischen Wechselwirkungen mit der begrenzenden Wand des Kanals beruht. „In unseren Experimenten konnten wir das theoretische Modell bestätigen, das die spezifische Dynamik der Mikroschwimmer in Abhängigkeit von ihrer Größe und den Wechselwirkungen mit der Kanalwand beschreibt“, sagt Corinna Maass, Leiterin der Studie. Diese regelmäßigen Bewegungsmuster könnten auch genutzt werden, um Mechanismen für die gezielte Verabreichung von Medikamenten zu entwickeln – sogar für den Transport von Gütern gegen die Strömung, wie in einer früheren Studie gezeigt wurde.
Eine Spur aus verbrauchtem Treibstoff
In einer weiteren Studie untersuchten die Wissenschaftler*innen, wie sich bewegte Mikroschwimmer gegenseitig beeinflussen. In ihrem Versuchsmodell bewegen sich kleine Öltröpfchen in einer Seifenlösung selbstständig, indem sie kleine Mengen Öl absondern und so einen Antrieb erzeugen. Ähnlich wie ein Flugzeug Kondensstreifen hinterlässt, erzeugen die Mikroschwimmer eine Spur von verbrauchtem Treibstoff, die andere Schwimmer abstoßen kann. Auf diese Weise können sie erkennen, ob ein anderer Mikroschwimmer kurz zuvor an der gleichen Stelle gewesen ist. „Interessanterweise führt dies bei einzelnen Mikroschwimmern zu einer selbstausweichenden Bewegung, während ein Ensemble von ihnen dazu führt, dass die Tröpfchen zwischen den Spuren der anderen gefangen werden“, berichtet Babak Vajdi Hokmabad, Erstautor der Studie. Die Abstoßung des zweiten Tropfens auf der Flugbahn eines zuvor vorbeiziehenden Tropfens hängt von seinem Annäherungswinkel und der nach dem ersten Schwimmer verstrichenen Zeit ab. Diese experimentellen Ergebnisse bestätigen auch die theoretischen Arbeiten auf diesem Gebiet, die zuvor von Ramin Golestanian, Geschäftsführer des MPI-DS, durchgeführt wurden. Die Forschung wurde im Rahmen des „Max Planck Center for Complex Fluid Dynamic“ durchgeführt, einem gemeinsamen Forschungszentrum des MPI-DS, des MPI für Polymerforschung und der Universität Twente.
Kollektive Bewegung durch Kooperation
Schließlich untersuchte die Gruppe auch das kollektive hydrodynamische Verhalten von mehreren Mikroschwimmern. Es stellte sich heraus, dass sich mehrere Tröpfchen zu Clustern zusammenschließen können, die spontan wie Luftkissenboote zu schweben beginnen oder sich wie mikroskopische Hubschrauber erheben und drehen. Die Rotation des Clusters beruht dabei auf einer kooperativen Kopplung zwischen den einzelnen Tröpfchen, die zu einem koordinierten Verhalten führt – obwohl einzelne Tröpfchen sich nicht auf diese Weise bewegen. Solche koordinierten Anordnungen stellen somit ein weiteres physikalisches Prinzip dar, wie Mikroschwimmer sich fortbewegen können – und das ohne dabei Gehirn oder Muskeln zu benutzen.
Originalpublikation:
https://www.pnas.org/doi/10.1073/pnas.2122269119
https://www.nature.com/articles/s41467-022-30611-1
https://pubs.rsc.org/en/content/articlelanding/2022/sm/d1sm01795k
Weitere Informationen:
https://www.ds.mpg.de/3950225/220729_microswimmers
COVID-19-Impfung aktiviert langfristig das angeborene Immunsystem – Signalweg entschlüsselt
Christoph Wanko Unternehmenskommunikation und Marketing
Uniklinik Köln
Aktuelle Studie zur Aktivierung von Abwehrzellen nach COVID-19 mRNA-Impfung publiziert
Eine Infektion mit SARS-CoV-2 führt bei einigen Menschen zu schwersten Entzündungen der Lunge und anderer lebenswichtiger Organe. Die Impfung gegen SARS-CoV-2 bietet einen sehr guten Schutz gegenüber diesen schweren Krankheitsverläufen. Zahlreiche Studien haben sich mit der Rolle der sogenannten erworbenen Immunantwort nach einer Impfung beschäftigt und konnten zeigen, dass zum Beispiel Antikörper nach der Impfung im Blut zu messen sind und diese dann über Monate hinweg weniger werden. Für das Auslösen einer potenten Immunantwort benötigen Impfungen jedoch zunächst die Aktivierung des angeborenen Immunsystems, das unspezifisch auf körperfremde Eiweiße von Viren oder Bakterien reagiert. Bisher war nicht bekannt, wie genau und wie lange die neuen mRNA-Impfstoffe die Zellen des angeborenen Immunsystems stimulieren. Forschende der Uniklinik Köln und der Medizinischen Fakultät fokussieren in einer neuen Impfstudie erstmals auf die Signalwege dieser Abwehrzellen und deren Auswirkung auf die erworbene Immunantwort. Die Ergebnisse wurden nun im renommierten Wissenschaftsjournal „EMBO Molecular Medicine“ veröffentlicht.
Die rasche Entwicklung von potenten Impfstoffen gegen SARS-CoV-2 hat stark zur Eindämmung der Pandemie beigetragen. Zahlreiche Studien belegen den Schutz vor schweren Krankheitsverläufen und eine Reduktion der Ansteckungen durch eine vollständige Impfung. Insbesondere die potenten mRNA-Impfstoffe, die schnell zur Verfügung gestellt werden konnten, waren ein wichtiger Meilenstein für diese Entwicklung. Mittlerweile konnte relativ gut untersucht werden, wie lange der Impfschutz über eine Aktivierung des erworbenen Immunsystems anhält. Wichtig für eine möglichst langanhaltende und potente Wirkung einer Impfung ist zunächst jedoch die Aktivierung des angeborenen Immunsystems, welches das Zusammenspiel von verschiedenen Abwehrzellen anstößt und eine Gedächtnisfunktion im Immunsystem hinterlässt. Bei den meisten herkömmlichen Impfstoffen werden hierfür sogenannte Adjuvantien genutzt, Zusatzstoffe, die Zellen des angeborenen Immunsystems wie zum Beispiel Makrophagen anregen sollen. Bei mRNA-Impfstoffen fehlen diese klassischen Zusätze, und der Mechanismus, mit dem Abwehrzellen direkt nach der Impfung stimuliert werden, ist nicht bekannt. Hier setzt die Forschung der Arbeitsgruppe von Priv. Doz. Dr. Dr. Jan Rybniker an. „Wir konnten zeigen, dass die mRNA-Impfung im Blut zirkulierende Makrophagen sehr spezifisch über einen ganz bestimmten Signalweg anregt. Erst wenn diese Makrophagen mit dem Spike-Protein von SARS-CoV-2 in Kontakt kommen, erlaubt die Voraktivierung der Zellen die Ausschüttung entzündungsfördernder Botenstoffe und somit die Aktivierung von Abwehrzellen des erworbenen Immunsystems“.
Diese Voraktivierung der Blutzellen stellt auch eine Art Schutzvorrichtung der Zellen dar, bei der erst im Spike-Protein produzierenden Gewebe eine Entzündung entsteht und eben nicht für längere Zeit im ganzen Körper. Diese Entzündungsreaktion erfolgt dann am ehesten lokal begrenzt im Lymphknoten, in den diese Blutzellen einwandern können, so Rybniker, Leiter des Forschungslabors der Infektiologie an der Uniklinik Köln und Letztautor der Veröffentlichung. Die in der Studie beobachtete, sehr spezifische Reaktion auf das Spike-Protein ist für Abwehrzellen des angeborenen Immunsystems ungewöhnlich. Verantwortlich hierfür sind Spike-Protein bindende Rezeptoren auf der Oberfläche der Makrophagen. Diese Rezeptoren aktivieren nach der Impfung das zentrale Kontrollprotein SYK, welches zahlreiche entzündungsfördernde Prozesse in den Abwehrzellen aktiviert. Interessanterweise waren die beobachteten Effekte erst nach der zweiten Impfung besonders stark ausgeprägt. Aber auch die dritte Impfung (Booster) konnte noch Monate nach der Grundimmunisierung die Makrophagen reaktivieren. Im Blut vorliegende Makrophagen haben jedoch eine sehr kurze Lebensdauer von nur wenigen Tagen. „Anscheinend führt die Grundimmunisierung auch zu einer Gedächtnisfunktion in diesen kurzlebigen Zellen. Diese wichtige Erkenntnis ist für die mRNA-Impfung neu. Der zugrundeliegende Mechanismus könnte ebenfalls zu der starken Schutzwirkung, die wir durch die Booster-Impfung erzielen, beitragen“, berichtet Dr. Sebastian Theobald, Postdoktorand an der Uniklinik Köln und Erstautor der Studie.
Der in der Studie beschriebene SYK-Signalweg und die vorgeschalteten Rezeptormoleküle gelten schon seit längerer Zeit als ein möglicher und attraktiver Mechanismus, mit dem im Rahmen von Impfungen Zellen des angeborenen Immunsystems stimuliert werden könnten. Diese Theorie kann nun für die mRNA-Impfung, die ein sehr gutes Sicherheitsprofil aufweist, bestätigt werden. Die Ergebnisse können jetzt genutzt werden, um auch bei zukünftigen Impfungen ganz gezielt ähnliche immunitätsverstärkende Mechanismen zu aktivieren, zum Beispiel über entsprechende Adjuvantien. „mRNA basierte Therapien und Impfungen sind auf dem Vormarsch. Umso wichtiger ist es bereits jetzt, möglichst viele Informationen über die durch diese Medikamente ausgelösten Immunantworten zu entschlüsseln um deren Potential voll auszuschöpfen“ so Dr. Rybniker.
Interessanterweise scheint der SYK-Signalweg auch bei der schweren COVID-19 Erkrankung eine Rolle zu spielen. In einer früheren Studie konnte die Gruppe bereits ähnliche Einflüsse auf Blutzellen von COVID-19 Patienten nachweisen. Daher gilt SYK auch als ein möglicher therapeutischer Ansatzpunkt für immunmodulatorische Therapien bei schweren COVID-19-Infektionen. Klinische Studien mit entsprechenden Medikamenten werden bereits durchgeführt.
Diese vielschichtigen und aufwändigen Untersuchungen waren nur durch die Hilfe mehrerer Kooperationspartner möglich. „Unser Dank gilt daher allen Arbeitsgruppen und Forschern, die zum Erfolg der Studie beigetragen haben. Ganz besonders möchten wir uns bei den zahlreichen geimpften Personen bedanken, die uns ihr Blut für die Laborversuche zur Verfügung gestellt haben“, so Dr. Rybniker. Finanziert wurde die Studie unter anderem von der Deutschen Forschungsgemeinschaft (DFG) Zudem wurde die Studie maßgeblich durch die Immunologie-Plattform COVIM unterstützt, einem Verbundprojekt zur Bestimmung und Nutzung von SARS-CoV-2 Immunität. COVIM ist Teil des Netzwerks Universitätsmedizin (NUM). Das Netzwerk umfasst die gesamte deutsche Universitätsmedizin und fördert kooperative und strukturbildende Projekte, bei denen möglichst viele Universitätsklinika eingebunden sein sollen.
Wissenschaftliche Ansprechpartner:
Priv.-Doz. Dr. Dr. Jan Rybniker
Oberarzt – Klinik I für Innere Medizin
Onkologie, Hämatologie, Klinische Infektiologie, Klinische Immunologie, Hämostaseologie und internistische Intensivmedizin.
Uniklinik Köln
Center for Molecular Medicine Cologne (CMMC)
Robert-Koch-Str. 21 – 50931 Cologne – Germany
Head: Translational Research Unit – Infectious Diseases (TRU-ID)
www.tru-id.de
www.infektiologie-koeln.de
Referentin/Teamassistenz
Sandra Szablowski
Tel. 0049-221 478 38374
Fax. 0049-221 478 1433711
Originalpublikation:
https://www.embopress.org/doi/10.15252/emmm.202215888
Stickstoff-Fußabdruck: Hohe Verschmutzung und Ressourcenverlust durch Gülle
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Massentierhaltung für die Fleischproduktion schadet der Umwelt. Zusätzlich zum direkt emittierten Methan werden durch das Ausbringen von Gülle klimaschädliche Stickstoffverbindungen wie Ammoniak und Lachgas in die Atmosphäre freigesetzt. Zudem wird das Grundwasser über die Flüssigphase mit Nitrat verunreinigt. Wie sich die Gülle, die bei der Viehhaltung entsteht und häufig als Düngemittel eingesetzt wird, auf den Stickstoff-Fußabdruck auswirkt, haben nun Forschende des KIT untersucht. Sie haben gezeigt, dass die Stickstoffbelastung durch Gülle aus der Rindfleischproduktion drei beziehungsweise acht Mal höher ist als bei Gülle aus der Schweine- und Geflügelfleischproduktion.
In der Landwirtschaft kommen große Mengen stickstoffhaltige Dünge- und Futtermittel zum Einsatz. Ein erheblicher Teil des eingesetzten Stickstoffs gelangt dabei ungenutzt in die Umwelt, etwa durch das Auswaschen von Nitrat aus Ackerböden oder durch Ammoniakemissionen aus der Tierhaltung. „Dass die Fleischproduktion sich sehr nachteilig für die globale Stickstoffbilanz auswirkt, ist bekannt. Der Stickstoff-Fußabdruck-Rechner zeigt bislang aber nicht, welch hohen Anteil die dabei entstehende Menge an Gülle daran hat“, sagt Prantik Samanta vom Engler-Bunte-Institut – Wasserchemie und Wassertechnologie des KIT. „Zugleich bedeuten diese Stickstoffmengen einen enormen Ressourcenverlust. Denn Stickstoff rückzugewinnen, ist energetisch sehr aufwendig.“ Wie viel Stickstoff über Gülle bei der Rind-, Schweine- und Geflügelfleischproduktion jeweils die Umwelt verschmutzt und als Rohstoff verloren geht, hat der Doktorand und Erstautor der Studie nun gemeinsam mit Kolleginnen und Kollegen untersucht. Zusätzlich haben sie berechnet, wie viel Energie benötigt würde, um die Gülle aufzubereiten und Stickstoff zurückzugewinnen. Dieser könnte wiederrum etwa gezielt als Düngemittel bereitgestellt werden.
Größte Stickstoffverlust bei der Rindfleischproduktion
„Wir haben festgestellt, dass sich der Stickstoffverlust pro Kilo Fleisch direkt mit einem virtuellen Stickstofffaktor, kurzVNF, berechnen lässt“, so Samanta. „Die Beziehung zwischen der Gesamtstickstoffzufuhr und dem entsprechenden Stickstoffverlust pro Kilogramm Fleischproduktion ist linear.“ Der VNF setzt den Stickstoffverlust mit dem Stickstoffgehalt im Fleisch ins Verhältnis. Dabei schlägt sich der größte Verlust in der zu entsorgenden beziehungsweise zu behandelnden Gülle nieder. Die Ergebnisse zeigen, dass sich die Rindfleischproduktion in den meisten Teilen der Welt am stärksten auf den Stickstoff-Fußabdruck auswirkt. Der Stickstoffverlust ist drei beziehungsweise acht Mal höher als bei Gülle aus der Schweine- und Geflügelfleischproduktion. Die Forschenden führen dies auf den hohen Futtermittelbedarf und den hohen Grundumsatz von Rindern zurück. Die Stickstoffverluste bei der Schweine- und Geflügelfleischerzeugung begründen sie eher mit schlechten Stallbedingungen als mit Futter und der Verdauung der Tiere.
Bei ihren Untersuchungen haben die Forschenden zudem mehrere Länder miteinander verglichen: „Japan setzt die größte Menge an Stickstoff in Bezug auf das konsumierte Fleisch frei, gefolgt von Australien. Das liegt auch daran, dass es zur Verschiebung der Werte kommt, wenn die Länder Futter und Fleisch in größerem Umfang ex- beziehungsweise importieren“, so Samanta. „Als Resultat ist in Japan auch die zu behandelnde Menge an Gülle pro Kilogramm Fleisch am höchsten.“ Der Stickstoffverlust durch die Fleischerzeugung sei in den USA und Europa niedriger.
Preissteigerungen von Fleisch durch hohen Energiebedarf
Die Forschenden haben außerdem berechnet, wie viel Energie nötig wäre, um den Eintrag von Stickstoff in die Umwelt weitestgehend zu minimieren. „Bei der Produktion von einem Kilogramm Rindfleisch verbleiben 140 Gramm Ammoniumstickstoff in der Rindergülle. Um diesen zurückzugewinnen, benötigen wir sieben Kilowattstunden an Energie. Zum Vergleich: Die Deutschen verbrauchen pro Kopf im Durchschnitt etwa 29 Kilowattstunden Strom pro Woche“, zeigt der Wissenschaftler auf. Bei der Behandlung von einem Kilogramm Schweine- und Geflügelmist sinke der Energiebedarf deutlich auf unter drei beziehungsweise 0,8 Kilowattstunden.
„Unsere Ergebnisse zeigen deutlich, wie hoch der Energieverbrauch für die Güllebehandlung wäre, um den gesamten Stickstoff-Fußabdruck in der Tierhaltung zu verringern“, sagt Samanta. Zurzeit werde dieser Energiebedarf bei der Preisbildung nicht berücksichtigt: „Bezöge man ihn ein, müsste der Fleischpreis, je nach Fleischsorte, um 0,20 bis 1,50 Euro pro Kilo steigen.“ (swi)
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Originalpublikation:
Prantik Samanta, Harald Horn and Florencia Saravia: Impact of Livestock Farming on Nitrogen Pollution and the Corresponding Energy Demand for Zero Liquid Discharge. MDPI Water, 2022. https://www.mdpi.com/2073-4441/14/8/1278
9-Euro-Ticket: Mehr Menschen fahren Bus und Bahn
Klaus Becker Corporate Communications Center
Technische Universität München
Nach der Einführung des 9-Euro-Tickets haben viele Menschen in der Region München ihr Mobilitätsverhalten geändert. Eine Studie der Technischen Universität München (TUM) zeigt, dass mehr als 20 Prozent der Teilnehmenden, die vorher keine öffentlichen Verkehrsmittel genutzt hatten, nun Bus und Bahn fahren. Gut ein Drittel war häufiger als zuvor im ÖPNV unterwegs. Als einziges Forschungsprojekt zum 9-Euro-Ticket erfasst die Untersuchung die tatsächlich zurückgelegten Wege digital.
Wie hat sich das 9-Euro-Ticket in der ersten Hälfte seines Angebotszeitraums auf das Mobilitätsverhalten in der Metropolregion München ausgewirkt? Rund 1.000 Erwachsene aller Altersstufen nutzen von Mitte Mai bis Mitte September eine Smartphone-App, die eigens für die Studie „Mobilität.Leben“ entwickelt wurde. Die App registriert Wege und Verkehrsmittel, sodass das Forschungsteam die Daten beispielsweise nach exakten Streckenlängen und Zeiträumen auswerten kann.
Erste Auswertungen der bis Mitte Juli erhobenen Daten zeigen: 35 Prozent der Teilnehmerinnen und Teilnehmer fuhren häufiger mit öffentlichen Verkehrsmitteln, nachdem das 9-Euro-Ticket Anfang Juni eingeführt worden war. Drei Prozent nutzten seltener ihr eigenes Fahrzeug.
22 Prozent der Teilnehmenden waren vorher nicht Bahn und Bus gefahren und nutzten nun diese Angebote, ein Viertel von ihnen an mehr als drei Tagen pro Woche.
Erstmals im Juni weniger Autoverkehr als im Mai
„Es war nicht zu erwarten, dass sich das tägliche Verhalten wegen eines neuen Angebots radikal ändert. Umso höher einzustufen ist der Anteil der Menschen, die erstmals mit Alternativen zum eigenen Auto unterwegs sind“, sagt Studienleiter Prof. Klaus Bogenberger vom Lehrstuhl für Verkehrstechnik der TUM. Diejenigen, die bislang nur oder hauptsächlich mit eigenen Fahrzeugen unterwegs waren, nutzten den öffentlichen Verkehr in der ersten Junihälfte intensiver als im Juli. „Die Menschen haben beim Start des 9-Euro-Tickets Bus und Bahn getestet“, sagt Bogenberger. „Wenn das Neue dann normal wird, klingt die Neugier wieder etwas ab. Aber das wichtige Ergebnis ist: Viele haben die öffentlichen Verkehrsmittel in ihren Alltag integriert.“
Die Studie zeigt auch: Menschen, die auch bislang schon regelmäßig mit öffentlichen Verkehrsmitteln fuhren, nutzen dennoch vor allem am Wochenende weiterhin ihr eigenes Auto, vor allem für längere Strecken.
Die Projektergebnisse spiegeln sich auch in Daten wieder, die die Stadt München regelmäßig zum Verkehrsaufkommen erhebt: Erstmals gab es im Juni weniger Autoverkehr als im Mai. Rechnet man den Sondereffekt der Ferienzeiten raus, betrug die Differenz drei Prozent, während sonst von Mai zu Juni ein Plus von drei Prozent üblich ist. „Das klingt vielleicht zunächst nach einem kleinen Unterschied – aber dass es diese Änderung im Jahreszeitraum gibt, ist außergewöhnlich“, betont Forschungsteamleiter Dr. Allister Loder.
Einkommen unerheblich bei Bereitschaft für 9-Euro-Ticket
Zusätzlich zur Datenerhebung per App fragt das Forschungsteam die Studienteilnehmerinnen und -teilnehmer im Mai, im Juli und im Oktober nach ihren Einstellungen zum 9-Euro-Ticket, zu ihrer Bereitschaft, für den öffentlichen Verkehr zu zahlen, zum Klimawandel und weiteren Rahmenbedingungen sowie zu demographischen Daten.
Die Auswertung der ersten Befragung zeigt, dass Menschen, die ein Auto besitzen, und Menschen, die auf dem Land leben, eine leicht geringere Bereitschaft hatten, das 9-Euro-Ticket zu kaufen. Keinen Unterschied gab es aufgrund des Einkommens der Befragten.
Nach dieser Zwischenbilanz wird das Forschungsteam nicht nur das Mobilitätsverhalten während der zweiten Hälfte des 9-Euro-Ticket-Zeitraums erfassen, sondern auch den Verkehr in den anschließenden Wochen analysieren. Der kürzlich gegründete TUM Think Tank wird die Ergebnisse mit Bürgerinnen und Bürgern diskutieren sowie Handlungsempfehlungen für Politik, Wirtschaft und Gesellschaft erarbeiten.
Mehr Informationen:
Koordiniert wird die Studie der TUM und der Hochschule für Politik München (HfP) vom TUM Think Tank in enger Zusammenarbeit mit „MCube – Dem Münchner Cluster für die Zukunft der Mobilität in Metropolregionen“.
An der interdisziplinären Forschungsgruppe sind die Professuren für Verkehrstechnik, Data Analytics and Machine Learning, Economics, Erneuerbare und Nachhaltige Energiesysteme, Fahrzeugtechnik, Innovation Research, Policy Analysis und Umwelt- und Klimapolitik beteiligt.
Begleitet wird das Projekt durch eine Kommission u.a. mit Vertreterinnen und Vertretern des Bayerischen Staatsministeriums für Wohnen, Bau und Verkehr, der Landeshauptstadt München, des Münchener Verkehrsverbunds (MVV) und der Münchener Verkehrsgesellschaft (MVG).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Klaus Bogenberger
Technische Universität München
Lehrstuhl für Verkehrstechnik
Tel: +49 89 289 22437
klaus.bogenberger@tum.de
Weitere Informationen:
http://www.hfp.tum.de/hfp/tum-think-tank/mobilitaet-leben/ Projekt „Mobilität.Leben“
Covid-Impfung schützt nierentransplantierte Patientinnen und Patienten nur unzureichend
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Dr. Louise Benning ist für Impfstudien am Nierenzentrum des Universitätsklinikums mit dem Anita und Friedrich Reutner Preis der Medizinischen Fakultät Heidelberg ausgezeichnet worden / Vorrübergehendes Pausieren eines immunsupprimierenden Medikaments kann die Impfwirkung bei manchen Patienten verbessern
Mit ihren Forschungsarbeiten lieferte Dr. Louise Benning, Assistenzärztin am Nierenzentrum des Universitätsklinikums Heidelberg (UKHD), wichtige Informationen zum Ansprechen nierentransplantierter Patientinnen und Patienten auf die Covid-Impfung. Dafür ist sie nun mit dem Anita und Friedrich Reutner Preis der Medizinischen Fakultät Heidelberg ausgezeichnet worden. Mit dem jährlich vergebenen und mit 10.000 Euro dotierten Preis unterstützt Stifter Professor Dr. Friedrich Reutner, Ehrensenator der Universität Heidelberg, junge Forschende der Medizinischen Fakultät, die noch keine etablierte Position innehaben. Dr. Benning zeigte in mehreren Impfstudien und Publikationen, dass Nierentransplantierte auch nach mehrmaliger Impfung nur unzureichend vor einer Covid-Erkrankung geschützt sind. Betroffene sind daher auf das verantwortungsvolle Handeln ihres Umfeldes und Maßnahmen des Infektionsschutzes angewiesen. In einer aktuell noch nicht publizierten Studie zeigte Benning jedoch einen möglichen Lösungsansatz auf: Wird vor der Impfung eines der immununterdrückenden Medikamente zeitweise pausiert, verbessert sich die Impfantwort. Das kommt aber nur bei einigen Patienten in Frage: Voraussetzung ist eine stabile Transplantatfunktion, kein vorbestehendes Abstoßungsrisiko und eine bestimmte Dreifachkombination immununterdrückender Medikamente.
„Die Forschungsarbeiten von Dr. Louise Benning sind am Puls der Zeit und von enormer Bedeutung für die Betroffenen. Die Forschungsergebnisse der Preisträgerin tragen dazu bei, besonders vulnerable Patientinnen und Patienten in der Corona-Pandemie bestmöglich zu schützen“, sagt Prof. Dr. Hans-Georg Kräusslich, Dekan der Medizinischen Fakultät Heidelberg. „Ich hoffe, dass die Auszeichnung der Medizinischen Fakultät Heidelberg Dr. Benning auf ihrem weiteren wissenschaftlichen Weg motiviert.“
Nierentransplantierte Patientinnen und Patienten tragen ein hohes Risiko, bei einer Covid-Infektion schwer zu erkranken. Grund ist unter anderem die medikamentöse Unterdrückung des Immunsystems, die nötig ist, um eine Abstoßung des Spenderorgans zu verhindern. Da Nierentransplantierte nicht in die Zulassungsstudien der Impfstoffe eingeschlossen wurden, war zu Beginn der Impfkampagne im Dezember 2019 nicht klar, in wie weit diese Patientengruppe einen Impfschutz entwickelt. Medizinerinnen und Mediziner des Nierenzentrums Heidelberg starteten daher im Januar 2020 klinische Studien zum Impfansprechen ihrer Patienten.
„Es zeigte sich, dass unsere nierentransplantierten Patientinnen und Patienten im Vergleich zu Normalgesunden deutlich schlechter auf die Impfung ansprachen: Nach der Zweitimpfung bildete nur knapp ein Drittel der 135 eingeschlossenen Patienten Antikörper gegen SARS-CoV-2 – im Gegensatz zu 100 Prozent in der gesunden Kontrollgruppe“, erläutert Dr. Louise Benning. „Auch bei Patienten, die COVID-19 spezifische Antikörper nach Zweitimpfung ausbildeten, wurden die Varianten Alpha, Beta und Delta signifikant schlechter neutralisiert als bei der gesunden Kontrollgruppe – die Menge an gebildeten Antikörpern war zu niedrig.“ Auch nach Drittimpfung bildeten mehr als 40 Prozent der Nierentransplantierten keine ausreichenden SARS-CoV-2-spezifischen Antikörper aus, um eine Infektion erfolgreich zu verhindern oder abzumildern. Insbesondere die nun vorherrschende Variante Omikron konnte den Impfschutz umgehen.
„Das deutlich eingeschränkte Impfansprechen unserer Patienten auch nach mehrmaligen Impfungen ist insbesondere im Hinblick auf die derzeit wieder steigenden Inzidenzen besorgniserregend“, so die Preisträgerin. „Es ist daher dringend nötig, sich über alternative Impfstrategien für diese Patienten Gedanken zu machen.“ Einen passenden Ansatz entwickelte das Team aus der Beobachtung heraus, dass Art und Umfang der Immunsuppression Einfluss darauf haben, wie die Impfantwort ausfällt. Insbesondere Patienten mit einer dreifachen immunsuppressiven Therapie inklusive dem Wirkstoff Mycophenolsäure sprachen schlecht auf die Impfungen an. In einer noch nicht veröffentlichten Studie pausierten Patientinnen und Patienten unter engmaschiger Kontrolle der Transplantatfunktion eine Woche vor bis vier Wochen nach der Impfung dieses Medikament, um dem Immunsystem eine bessere Chance zu bieten, auf die Impfung zu reagieren. Vorläufige Ergebnisse zeigen ein deutlich besseres Impfansprechen dieser Patienten ohne erhöhtes Abstoßungsrisiko. „Diese Ergebnisse stimmen vorsichtig optimistisch. Das Pausieren des Medikaments darf jedoch nur in enger Abstimmung mit dem Facharzt erfolgen, um das Spenderorgan nicht zu gefährden“, betont Dr. Benning.
Wissenschaftliche Ansprechpartner:
Dr. med. Louise Benning
Nierenzentrum am UKHD
E-Mail: louise.benning@med.uni-heidelberg.de
Originalpublikation:
Benning L, Morath C, Bartenschlager M, et al. Neutralization of SARS-CoV-2 Variants of Concern in Kidney Transplant Recipients after Standard COVID-19 Vaccination. Clin J Am Soc Nephrol. 2022;17(1):98-106. doi:10.2215/CJN.11820921
Benning L, Morath C, Bartenschlager M, et al. Neutralizing antibody response against the B.1.617.2 (delta) and the B.1.1.529 (omicron) variants after a third mRNA SARS-CoV-2 vaccine dose in kidney transplant recipients [published online ahead of print, 2022 Apr 5]. Am J Transplant. 2022;10.1111/ajt.17054. doi:10.1111/ajt.17054
Weitere Informationen:
https://www.medizinische-fakultaet-hd.uni-heidelberg.de/forschung/forschungsfoer…
Thüringen wird Zentrum für nachhaltige Wasserforschung
Axel Burchardt Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Die Erforschung neuer, zukunftsweisender Ansätze einer sicheren und nachhaltigen Wasserversorgung wird in Thüringen langfristig gefördert. Der von der Universität Jena gemeinsam mit dem Fraunhofer-Institut für Keramische Technologien und Systeme IKTS und der Ernst‐Abbe‐Hochschule Jena initiierte „Thüringer Wasser-Innovationscluster“ (ThWIC) hat sich in der Endrunde des Clusters4Future-Wettbewerbs durchgesetzt und wird ab 2023 vom Bundesforschungsministerium gefördert. Damit fließen über die nächsten neun Jahre bis zu 45 Millionen Euro Fördermittel in die Entwicklung neuer Wassertechnologien und die Erforschung des gesellschaftlichen Umgangs mit der knapper werdenden Ressource.
„Mit unserem Cluster wollen wir die erfolgreiche Grundlagenforschung aus den Thüringer Hochschulen und Forschungseinrichtungen in gesellschaftliche Anwendung bringen und zeigen, wie sich die kleinen und mittleren Unternehmen der Region mit modernsten Technologien globale Marktchancen erarbeiten können“, so Prof. Dr. Michael Stelter. Der Chemiker, der als stellvertretender Institutsleiter am IKTS und Direktor am Center for Energy and Environmental Chemistry der Universität Jena Koordinator des Projekts ist, zeigt sich besonders erfreut, dass mit ThWIC kein reiner Technologiecluster zur Förderung ausgewählt wurde: „Es geht bei unseren Projekten nicht nur um technische Innovationen für eine nachhaltigere Wasserversorgung, sondern auch um die Zusammenarbeit mit der Zivilgesellschaft.“ Auch wenn das Thema Wasser zunehmend in den Medien präsent sei, fehle es häufig noch an überzeugenden Angeboten zur Vermittlung von Wasserwissen und zur Beteiligung breiter Bevölkerungsschichten an den anstehenden Umbrüchen in der Wasserwirtschaft.
Zukunftsweisende Entscheidung für den Wissenschaftsstandort
Die langfristige Förderung des Clusters durch das Bundesforschungsministerium freut auch den Präsidenten der Universität Jena Prof. Dr. Walter Rosenthal: „Der Erfolg in der Zukunftscluster-Initiative zeigt die herausragende Zusammenarbeit der Friedrich-Schiller-Universität mit den Wissenschaftseinrichtungen und Unternehmen der Region. Die Förderung ist ein starkes Signal für den Wissenschaftsstandort Thüringen und insbesondere für Jena.“ Rosenthal bezeichnete die im Cluster geplante Zusammenarbeit von naturwissenschaftlicher Wasserforschung, Datenwissenschaften und Soziologie als „perfektes Beispiel für die in Jena etablierte Bearbeitung wissenschaftlicher Problemstellungen über die Grenzen von Disziplinen und Wissenschaftskulturen hinweg, das das große Portfolio der Nachhaltigkeitsforschung der Universität Jena komplementiert“.
Datengetriebene Wasserbewirtschaftung
Die mehr als 20 Teilprojekte des Innovationsclusters beschäftigen sich mit verschiedensten Aspekten nachhaltiger Wasserversorgung. Ein zentraler Bereich sind neue Technologien zur Analyse und Reinigung von Wasser. „Mit der im Cluster entwickelten neuen Generation von Sensoren können tausendfach mehr Daten über die Wasserqualität erhoben werden“, erläutert der Mitkoordinator des Clusters, Dr. Patrick Bräutigam. „Wir können damit erstmals in Echtzeit Veränderungen der Wasserqualität beobachten und viel effektiver auf Belastungen durch Mikroschadstoffe wie Arzneimittelrückstände reagieren.“ Den Potenzialen einer smarten, datengetriebenen Wasserbewirtschaftung stünden jedoch, so Bräutigam, auch Fragen der Datensicherheit und die gesellschaftliche Angst vor Datenmissbrauch gegenüber. Deshalb komme es darauf an, „die Bürgerinnen und Bürger mit neuen Methoden frühzeitig in die Technologieentwicklung einzubeziehen und ihre Fragen ernst zu nehmen.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Stelter
Institut für Technische Chemie und Umweltchemie der Friedrich-Schiller-Universität Jena
Philosophenweg 7a, 07743 Jena
Tel.: 03641/ 948402
E-Mail: michael.stelter@uni-jena.de
Weitere Informationen:
https://www.agstelter.uni-jena.de/thwic
https://www.clusters4future.de/die-zukunftscluster/die-zukunftscluster-der-zweit…
Neue Wasserstandsvorhersagen schaffen mehr Planungssicherheit für die Wirtschaft und die Binnenschifffahrt
Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Dr. Volker Wissing, Bundesminister für Digitales und Verkehr, gab bei seinem Besuch an der BfG den Startschuss für zwei neue Wasserstandsvorhersage-Produkte der BfG: „Mit der 6-Wochen-Vorhersage und der 14-Tage-Vorhersage ist ein wesentlicher Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ erfüllt. Von den neuen Diensten der BfG profitieren Logistik und Schifffahrt an Rhein und Elbe.“
Die Wasserstände an den Bundeswasserstraßen sinken wieder: Die Elbe führt bereits seit Mitte Juni Niedrigwasser und auch am Rhein müssen tiefergehende Schiffe mancherorts die Abladung verringern. Zwei neue Vorhersageprodukte der BfG lassen die Binnenschifffahrt sowie die Logistik an Rhein und Elbe weiter in die Zukunft schauen. Damit kann effizienter auf Niedrigwassersituationen reagiert und die Transportplanung verbessert werden.
Neue Vorhersageprodukte rechtzeitig zur aktuellen Niedrigwassersaison
Die BfG veröffentlicht ab sofort zweimal die Woche eine 6-Wochen-Vorhersage des
Wasserstandes und Abflusses für ausgewählte Pegel an Rhein und Elbe. Angegeben werden Wochenmittelwerte und die Einschätzung, wie sicher die Aussagen sind. Die Vorhersage erscheint über das WSV-Portal ELWIS für die Rheinpegel Kaub, Köln und Duisburg-Ruhrort sowie für die Elbepegel Dresden, Barby und Neu Darchau.
Zusammen mit dem Start der 6-Wochen-Vorhersage ging auch die 14-Tage-Wasserstandsvorhersage für den Rhein in den operationellen Betrieb. Es handelt sich dabei um den verbesserten Nachfolger der 10-Tage-Wasserstandsvorhersage. Die 14-Tage-Wasserstandsvorhersage gibt Tageswerte der Wasserstände für sieben besonders relevante Rheinpegel in Verbindung mit ihren Eintrittswahrscheinlichkeiten an. Damit kann die Schifffahrt die Beladung ihrer Schiffe für die jeweiligen Routen noch präziser planen.
Beide Vorhersageprodukte fokussieren auf den Niedrig- und Mittelwasserbereich. Sie sind in erster Linie für Akteure konzipiert, die an der Planung der Logistik des Wasserstraßentransports und den damit verbundenen Produktions- und Geschäftsprozessen beteiligt sind.
Wesentlicher Handlungspunkt des Aktionsplans „Niedrigwasser Rhein“ erfüllt
Dr. Birgit Esser, Leiterin der BfG: „Meine Kolleginnen und Kollegen haben in den
vergangenen Jahren einen intensiven Dialog mit den Nutzerinnen und Nutzern der Bundeswasserstraßen geführt. Dass Wasserstände mit derart langen Zeiträumen überhaupt vorhergesagt werden können, ist das Ergebnis mehrjähriger Forschungs- und Entwicklungsarbeit. Ich freue mich, dass wir mit diesen Produkten unseren Beitrag zum Aktionsplan Niedrigwasser Rhein und zum Masterplan Binnenschifffahrt leisten“
Bundesminister Dr. Volker Wissing: „Dank der neuen Vorhersagen erhalten Schifffahrt und verladende Wirtschaft zusätzliche Informationen, mit denen sie ihre Transportplanungen optimieren können. Die neuen Produkte stehen rechtzeitig zum Beginn der Niedrigwassersaison bereit. Das ist von großem Wert für die Gesellschaft und den Umgang mit den Folgen des Klimawandels. Denn das Binnenschiff ist elementarer Bestandteil vieler Transportketten. Mit Maßnahmen wie diesen setzen wir uns dafür ein, dass künftig noch mehr Güter auf der Wasserstraße transportiert werden.“
Prof. Dr.-Ing. Hans-Heinrich Witte, Präsident der Generaldirektion Wasserstraßen und Schifffahrt: „Die erweiterte Wasserstandvorhersage hilft uns insbesondere bei länger andauernden Niedrigwasserereignissen dabei, frühzeitig Vorkehrungen an den Bundeswasserstraßen zu treffen. Durch die neuen Vorhersagen können wir z. B. unsere Peilungen anpassen, zielgerichtete Messkampagnen vorbereiten und unsere Anlagen noch effizienter steuern.“
Weitere Informationen:
https://www.elwis.de/DE/Service/Wasserstaende/14-Tage-Vorhersage-Rhein/14-Tage-V…
https://www.elwis.de/DE/Service/Wasserstaende/6-Wochen-Vorhersage-Rhein-Elbe/6-W…
Welche Rolle spielt der Mensch im Zeitalter der Technik und in der zukünftigen digitalisierten Arbeitswelt?
Jennifer Strube Stabsstelle Presse, Kommunikation und Marketing
Universität Paderborn
Diskurse über Mensch und Maschine von den 1920er- bis zu den 2020er-Jahren: Humanistische Ideen in Management und Kultur angesichts neuer Technik
Von der Dampfmaschine über das Fließband bis hin zu Robotern und künstlicher Intelligenz: Im Laufe der Zeit haben immer mehr Maschinen Aufgaben übernommen, die früher Menschen erledigt haben. Heute verändern Algorithmen die Arbeitswelt. Durch technologischen Wandel kommt es immer wieder zu Umbrüchen, die das Bild und die Rolle des Menschen in Wirtschaft und Gesellschaft infrage stellen. Konfrontiert mit der fortschreitenden Industrialisierung wurde das „Humane“ in den vergangenen 100 Jahren intensiv diskutiert. Aktuell ist die Debatte erneut entfacht. Im Zuge der vierten Industriellen Revolution – bei der Menschen, Maschinen und Produkte intelligent miteinander vernetzt sind – stellt sich die Frage: Wie werden Menschen in der künftigen, zunehmend digitalisierten Arbeitswelt gesehen? Mit diesem Thema beschäftigen sich Paderborner Kultur- und Wirtschaftswissenschaftler gemeinsam mit Forschenden aus Italien und Frankreich in einem neuen Projekt. Um Strategien und Lösungen für die zukünftige Personalführung und Gesellschaftspolitik zu entwickeln, vergleichen sie Debatten aus zwei historischen Zeiträumen, die wichtige Etappen im Modernisierungs- und Technisierungsprozess markieren: die 1920er- und die 2020er-Jahre.
Das Präsidium der Universität Paderborn hat das Projekt „Diskurse über Mensch und Maschine von den 1920er- bis zu den 2020er-Jahren“ für die Aufnahme in das Paderborner Wissenschaftskolleg „Data Society“ ausgewählt. Ziel ist es, durch eine Anschubfinanzierung interdisziplinäre Forschungsvorhaben und internationale Kooperationen zu einem für die Gesellschaft wichtigen Zukunftsthema zu fördern. Das vorgesehene Forschungssemester für das Projekt beginnt im April 2023.
Humanistische Ideen vor 100 Jahren und heute
„Im Zuge der fortschreitenden Industrialisierung wurden Fragen nach dem ‚Humanen‘ und der Tragfähigkeit eines Humanismus nach dem Vorbild von Antike und Renaissance in den Literatur- und Kulturwissenschaften prominent diskutiert. Heute wird im Zuge der Digitalisierung die Debatte über Mensch und Maschine von einem neuen Startpunkt aus geführt. Wie schon zu Beginn des 20. Jahrhunderts sehen Intellektuelle, Wissenschaftlerinnen und Wissenschaftler sowie Expertinnen und Experten sowohl Chancen als auch massive Gefahren des technologischen Wandels für den Menschen als vernünftiges, aber auch gefährdetes Wesen“, erklärt Prof. Dr. Claudia Öhlschläger, Professorin für Vergleichende Literaturwissenschaft und Intermedialität an der Universität Paderborn als eine Leiterin des Projekts.
Besonders krisenhaft waren die 1920er-Jahre: Aufbauend auf Fortschritten in den Bereichen Maschinenbau und Elektrifizierung vervollkommnete sich die industrielle Massenfertigung in Großbetrieben. Unter dem Eindruck dieses Transformationsprozesses, der sich auch auf die Technik der Kriegsführung während des Ersten Weltkriegs auswirkte, setzte eine humanistische Wende ein. Fortan sollten der Mensch und sein Verhältnis zur Technik im Mittelpunkt stehen. Bis heute prägen humanistische Ansätze auch Ideen der Personalführung sowie Managementliteratur und -praxis. Angesichts technisierter Prozesse gehören emotionale Kompetenzen wie Empathie ebenso zu einer humanen Personalführung wie eine gesundheitsschonende Gestaltung des Arbeitsplatzes oder die Förderung von individuellen Entwicklungsmöglichkeiten.
100 Jahre später wird im Zuge unserer digitalisierten Welt die Debatte um Mensch und Maschine erneut, jedoch unter anderen Voraussetzungen und Herausforderungen geführt. „‚Digitaler Humanismus‘ oder ‚humanistische Führung‘ in der digitalisierten Arbeitswelt sind Schlagworte aktueller Diskussionen“, so Prof. Dr. Martin Schneider, Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Personalwirtschaft der Universität Paderborn, der das Projekt zusammen mit Claudia Öhlschläger leitet. „Im Zuge von Industrie 4.0 befürchten einige Massenarbeitslosigkeit, andere sehen Technologien aufziehen, die Menschen entweder zu Cyborgs machen, sie ganz ersetzen oder sogar das Ende der Gattung Mensch bedeuten könnten“, schildert der Wirtschaftswissenschaftler.
Personalführung im digitalen Zeitalter
Indem die am Projekt beteiligten Wissenschaftler die Diskussionen der 1920er- und 2020er-Jahre analysieren, sollen Unterschiede und Parallelen erkennbar werden, die Antworten auf folgende Fragen liefern: Was können wir heute aus den Debatten früherer Maschinenzeitalter lernen? Wie und wodurch wird der Begriff des „Humanen“ damals und heute in kulturwissenschaftlichen, literarischen und anthropologisch-philosophischen Diskussionen geprägt? Während sich Öhlschläger zusammen mit PD Dr. Alexander Dunst vom Institut für Anglistik und Amerikanistik der Universität Paderborn und Prof. Dr. Isolde Schiffermüller von der italienischen Universität Verona den kulturwissenschaftlichen Fragen widmet, gehen Schneider, Prof. Dr. Kirsten Thommes, Professorin für Organizational Behavior an der Universität Paderborn, und Prof. Dr. Sabine Bacouël-Jentjens von der französischen ISC Paris Grand École ökonomischen Fragestellungen nach: Wie werden die Begriffe des „Humanen“ in der Führungsforschung aufgegriffen? Wie werden geschlechtsspezifische Effekte von Digitalisierung diskutiert? Welche Herausforderungen werden heute an eine humanistische Personalpolitik herangetragen?
Während des Forschungssemesters soll u. a. eine Ringvorlesung dazu dienen, mit Personen aus Wissenschaft, Kultur und Managementpraxis in einen interdisziplinären Dialog zu kommen. Durch die Untersuchungen wollen die Forschenden kreative Lösungen für die künftige Personalführung in einer digitalisierten Arbeitswelt finden, die sich aus kulturwissenschaftlichen Debatten des Humanen ableiten lassen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Claudia Öhlschläger, Fakultät für Kulturwissenschaften der Universität Paderborn, Fon.: +49 5251 60-3212, E-Mail: claudia.oehlschlaeger@upb.de
Prof. Dr. Martin Schneider, Fakultät für Wirtschaftswissenschaften der Universität Paderborn, Fon.: +49 5251 60-2929, E-Mail: kooperationen@wiwi.upb.de
Weitere Informationen:
http://www.upb.de
Warum Erdgas keine Brückentechnologie ist
Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin
Ausbau der Erdgas-Infrastruktur gefährde die Energiewende, sagt eine neue Studie unter Beteiligung der TU Berlin
Der geplante Ausbau der Erdgas-Infrastruktur stelle ein Risiko für die Energiewende dar, da Erdgas keine Brückentechnologie hin zu einem 100 Prozent erneuerbaren Energiesystem im Sinne des Pariser Klimaabkommens ist. Das ist das Ergebnis einer Studie eines interdisziplinären Forschungsteams unter Beteiligung eines Forschers der Technischen Universität (TU) Berlin, die in der Zeitschrift Nature Energy erschienen ist. Die Wissenschaftler*innen stellen dem Gas eine vergleichbar schlechte Klimabilanz aus wie Kohle oder Öl. Sie empfehlen Politik und Wissenschaft, die aktuellen Annahmen über Erdgas zu überarbeiten.
Im Zuge des russischen Angriffskrieges steht die Regierung in Deutschland vor der Herausforderung, die Energieabhängigkeit von Russland zu reduzieren und weiterhin eine bezahlbare und gesicherte Energieversorgung zu gewährleisten, die im Einklang mit den Klimazielen steht. Aktuell gehen die Bemühungen dahin, russisches Erdgas, dessen Lieferung gedrosselt und unsicher ist, durch den Aufbau neuer Gashandelsbeziehungen und neuer Infrastruktur auszugleichen. Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW) und Leiterin der Studie, erläutert dazu: „Fossiles Erdgas ist weder sauber noch sicher. Das zu lange Festhalten an fossilem Erdgas hat Deutschland in eine Energiekrise geführt, aus der jetzt nur entschlossenes Handeln für eine konsequente Dekarbonisierung führen kann, hin zu einer Vollversorgung aus erneuerbaren Energien.“
Erdgasnutzung ist nicht per se vorteilhaft gegenüber Kohle und Öl
Die Forschenden hinterfragen weitverbreitete Annahmen zu Erdgas. Während die Vorstellung des sauberen Energieträgers noch immer weit verbreitet ist, zeigen Forschungsergebnisse, dass die Folgen der Erdgasnutzung auf das Klima erheblich unterschätzt werden und Erdgas keinesfalls per se die bessere Alternative zur Kohle- und Ölnutzung darstellt. „Das Problem ist nicht nur das bei der Verbrennung entstehende CO2, sondern das stark wirksame Treibhausgas Methan, das entlang der kompletten Wertschöpfungskette durch flüchtige Emissionen unverbrannt in die Atmosphäre entweicht. Diese Emissionen wurden bislang nicht ausreichend berücksichtigt und unterschätzt“, erklärt Fabian Präger vom Fachgebiet Wirtschafts- und Infrastrukturpolitik der TU Berlin.
Das Narrativ der Brückentechnologie ist irreführend
Zudem stellen die Forschenden fest, dass ein Ausbau von Erdgas-Infrastruktur die Abhängigkeit von fossilen Energien zementiere („Lock-In Effekte“) und auf der anderen Seite ökonomische Risiken berge, wenn eben diese fossilen Vermögenswerte dann im Zuge der Energiewende einen vorzeitigen Wertverlust erfahren („Stranded Assets“). „Die klima- und geopolitische Energiekrise um fossile Brennstoffe unterstreicht die Notwendigkeit eines zeitnahen und konsequenten Erdgasausstiegs, der gesamtgesellschaftlich zu organisieren und umzusetzen ist“, betont Fabian Präger.
Fünf Maßnahmen
Die Wissenschaftler*innen schlagen fünf Maßnahmen vor, um die oben genannten Risiken zu vermeiden:
• Reduzierung von Methan-Emissionen entlang der kompletten Wertschöpfungskette in der bestehenden Erdgas-Infrastruktur
• Einbeziehung der neuesten Forschungserkenntnisse über die Treibhausgasemissionen in Zusammenhang mit Erdgas in allen Szenarien zur Energiewende und zur Klimaentwicklung
• Ersetzen des Narrativs der Brückentechnologie durch eindeutige und entschlossene Dekarbonisierungskriterien
• Kein Bau von neuer Erdgas-Infrastruktur und damit Vermeidung neuer fossiler Abhängigkeiten und Methanlecks
• Ernsthafte und strikte Einbeziehung klimabezogener Risiken bei der Planung von Energie-Infrastruktur
Die Studie wurde unter der Leitung von Prof. Dr. Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW) und der Leuphana Universität Lüneburg in Zusammenarbeit mit Fabian Präger von der TU Berlin sowie Wissenschaftlerinnen von der Ruhr-Universität Bochum und der Europa-Universität Flensburg erstellt. Fabian Präger promoviert am Fachgebiet Wirtschafts- und Infrastrukturpolitik unter der Leitung von Prof. Dr. Christian von Hirschhausen.
Weiterführende Informationen:
Link zur Studie:
Claudia Kemfert, Fabian Präger, Isabell Braunger, Franziska M. Hoffart, Hanna Brauers: The expansion of natural gas infrastructure puts energy transitions at risk, in Nature Energy, 2022, DOI: 1038/s41560-022-01060-3
https://www.nature.com/articles/s41560-022-01060-3
Weitere Informationen erteilen Ihnen gern:
Fabian Präger
Technische Universität Berlin
Fachgebiet Wirtschafts- und Infrastrukturpolitik (WIP)
Straße des 17. Juni 135
10623 Berlin
Tel.: +49 (0)30 314-25377
E-Mail: fpr@wip.tu-berlin.de
Prof. Dr. Claudia Kemfert
Deutsches Institut für Wirtschaftsforschung
E-Mail: sekretariat-evu@diw.de, presse@diw.de
Weitere Informationen:
https://www.nature.com/articles/s41560-022-01060-3
Sommerurlaub: Wie man die Augen vor Schäden durch UV-Strahlung schützt
Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft
Die Sommerferien beginnen und damit auch die Reisezeit. Viele Familien machen sich auf den Weg ans Meer, ins Grüne oder in die Berge. Doch Vorsicht: Wer sich ungeschützt in die Sonne begibt, riskiert gutartige und bösartige Erkrankungen am Auge, die bis zum Sehverlust führen und das Leben bedrohen können. Besonders empfindlich für Schäden durch UV-Strahlung sind die Augen von Kindern und Jugendlichen, warnen Experten der Deutschen Ophthalmologischen Gesellschaft (DOG). Sie klären auf, wie man sich richtig verhält, worauf bei UV-Index und Sonnenbrille zu achten ist und welchen Einfluss die Umgebung hat.
Ausgedünnte Ozonschicht, geringere Bewölkung, aber auch weniger Luftverschmutzung: All diese Umweltfaktoren tragen dazu bei, dass die UV-Strahlung, die die Erdoberfläche erreicht, deutlich zugenommen hat – vor allem in den hohen und mittleren Breitengraden. Damit steigt auch die Gefahr von Sonnenschäden an und in den Augen. „UV-Licht kann verschiedene gutartige und bösartige Erkrankungen am Auge auslösen“, erklärt Professor Dr. med. Dr. phil. Ludwig M. Heindl vom Zentrum für Augenheilkunde am Universitätsklinikum Köln. „Besonders empfindlich sind die Augen von Kindern und Jugendlichen“, ergänzt Privatdozent Dr. med. Vinodh Kakkassery von der Klinik für Augenheilkunde am Universitätsklinikum Schleswig-Holstein, Campus Lübeck. Die beiden Augenärzte sind Delegierte der DOG im UV-Schutzbündnis, einer Initiative von 28 Institutionen zur Prävention von UV-bedingten Erkrankungen.
Schäden an Hornhaut, Bindehaut, Netzhaut und Augenlinse
Zu den Schäden durch UV-Licht zählen unter anderem gutartige und bösartige Tumoren an Lidern und Bindehaut wie auch eine schmerzhafte Entzündung der Binde- und Hornhaut („Keratoconjunctivitis photoelectrica“). Sehr selten, insbesondere bei Kindern, können Hitzeschäden an der Netzhaut die Sehschärfe dauerhaft reduzieren. UV-Strahlung kann bei Erwachsenen zudem ein Pterygium auslösen, eine Gewebeveränderung an der Bindehaut, die zu Hornhautverkrümmung, trockenen Augen und Sehminderung führen kann. Starke Sonnenreflexion des Bodens etwa in den Tropen oder der Arktis kann schließlich eine Ablagerung von gelblichen Proteinen in der Hornhaut bewirken („klimatische Tröpfchenkeratopathie“).
Auf den UV-Index achten
Um sich zu schützen, raten die DOG-Experten, auf den UV-Index zu achten. „Der tagesaktuelle UV-Index lässt sich online beim Deutschen Wetterdienst einsehen, auch zahlreiche Wetter-Apps weisen diesen Wert aus“, erläutert Kakkassery. Der UV-Index, von der WHO definiert und weltweit einheitlich gültig, beschreibt den am Boden erwarteten Tagesspitzenwert der sonnenbrandwirksamen UV-Strahlung auf einer Skala von 1 bis 11; die Vorhersage teilt zugleich das gesundheitliche Risiko in fünf Gefahrenbereiche von „gering“ bis „extrem“ ein. In Deutschland werden im Sommer Werte von 8 bis 9, in den Hochlagen der süddeutschen Gebirgsregionen sogar bis 11 erreicht. Von April bis August gibt zudem das Zentrum für Medizin-Meteorologische Forschung (ZMMF) in Freiburg UV-Warnungen heraus.
Bei praller Sonne in den Schatten oder ins Haus
Bereits ab UV-Index 3 sollten Sonnenschutzmaßnahmen ergriffen werden. „Konkret bedeutet das: Sonnenschutzmittel mit ausreichendem Lichtschutzfaktor verwenden, Kopfbedeckung und Sonnenbrille tragen und in den zwei Stunden vor und nach Sonnenhöchststand möglichst den Schatten aufsuchen“, erläutert Heindl. Die Sonnenhöchststände variieren in Europa Anfang August je nach Land zwischen knapp 13.00 Uhr und 14.30 Uhr. Ab UV-Index 8 ist verschärfter Schutz erforderlich. „Dann sollte man in den zwei Stunden vor und nach Sonnenhöchststand möglichst gar nicht mehr draußen sein“, warnt Kakkassery. „Darüber hinaus sind Kleidung, Sonnencreme auch unter der Kleidung, Kopfbedeckung und Sonnenbrille dringend empfohlen.“
Sonnenbrille mit Filterkategorie 3 für Meer und Berge
Sonnenbrillen, die man in Deutschland kaufen kann, tragen die CE-Zertifizierung, entsprechen damit der EU-Norm DIN EN ISO 12312 und garantieren wirksamen UV-Schutz. Noch sicherer können Kaufinteressierte sein, wenn die Brille die Aufschrift „UV400“ oder „100 Prozent UV-Schutz“ trägt – ein solches Modell filtert alle UV-Strahlen bis zu einer Wellenlänge von 400 Nanometern heraus. Darüber hinaus spielt der Blendungsfilter eine Rolle: Er reicht von Kategorie 1 bis 4 und gibt an, wieviel Prozent an Sonnenstrahlung absorbiert wird. „Kategorie 1 eignet sich für bewölkte Tage“, sagt Heindl. „Urlauber am Meer und in den Bergen sind mit der höheren Schutzkategorie 3 gut beraten.“ Daneben gibt es auch selbsttönende Gläser, die für Brillenträger eine Option darstellen. „Sie sind allerdings nicht unbedingt für den Autoverkehr geeignet“, ergänzt Kakkassery.
Wasser, Sand und Schnee erhöhen den UV-Index
Spiegelnde Oberflächen wie Wasser, Sand und Schnee reflektieren das ultraviolette Licht und erhöhen den vorhergesagten UV-Index. So steigern Gras oder Wasser den UV-Wert um bis zu zehn Prozent, Sand am Meer um etwa 15 Prozent, Meeresschaum um 25 Prozent. Am stärksten reflektiert Schnee: Er erhöht den UV-Gesamtwert um rund 50 Prozent. Da die UV-Strahlung zudem alle 1000 Höhenmeter etwa zehn Prozent zunimmt, ist im Hochgebirge oder auf Gletschern besondere Vorsicht angebracht. „Aufgrund der starken Blendung sollte man dort Sonnenbrillen mit Filterkategorie 4 tragen, die bis zu 97 Prozent des Lichts absorbieren“, rät Heindl.
Neuerdings werden auch Kontaktlinsen mit UV-Schutz angeboten. „Aber Achtung: Sie bieten keinen ausreichenden UV-Schutz für die Augenlider und die Bindehaut, weshalb eine zusätzliche Sonnenbrille ratsam ist“, fügt der Kölner Augenexperte hinzu.
Literatur:
Hampel, U., Elflein, H.M., Kakkassery, V. et al. UV-strahlenexpositionsbedingte Veränderungen am vorderen Augenabschnitt. Ophthalmologe 119, 234–239 (2022). https://doi.org/10.1007/s00347-021-01531-0
Saßmannshausen, M., Ach, T. Einfluss von ultravioletter Strahlung auf die Netzhaut. Ophthalmologe 119, 240–247 (2022). https://doi.org/10.1007/s00347-021-01506-1
Kakkassery, V., Heindl, L.M. UV-Schutz am Auge – ein häufig vernachlässigtes Thema. Ophthalmologe 119, 221–222 (2022). https://doi.org/10.1007/s00347-021-01530-1
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 8.000 Mitglieder, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscherinnen und Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.
Neues Forschungsprojekt: Warnsystem für gefährliche Starkregen und Sturzfluten
Bastian Strauch Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
• AVOSS verknüpft Wetterdaten mit hydrologisch relevanten Informationen wie aktuelle Bodenfeuchte, Landbedeckung und Geländeneigung
• Bisher sind Vorhersagen von lokalen Sturzfluten oft kaum möglich, weil ihre Entstehung kompliziert ist und die aktuellen hydrologischen Bedingungen nicht berücksichtigt werden
• Prototypische Anwendungen in Pilotregionen sollen Qualität und Belastbarkeit der Vorhersagen zeigen
In den vergangenen Jahren gab es in Deutschland immer wieder Sturzfluten mit zum Teil verheerenden Auswirkungen. Ausgelöst wurden sie durch lokalen Starkregen. Eine Warnung vor solchen Ereignissen ist bisher oft nicht möglich, weil ihre Entstehung kompliziert ist und sie meist schnell und räumlich stark begrenzt auftreten. Ein neues Forschungsprojekt soll diese Lücke im Warnsystem schließen. Es wird koordiniert von Prof. Dr. Markus Weiler, Hydrologe an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Das Bundesministerium für Bildung und Forschung (BMBF) finanziert das Vorhaben, das über drei Jahre läuft.
Skalen von ganz Deutschland bis Gemeindeebene
Das neue Forschungsprojekt heißt AVOSS (Auswirkungsbasierte Vorhersage von Starkregen und Sturzfluten auf verschiedenen Skalen: Potentiale, Unsicherheiten und Grenzen). Es soll prototypisch Warnungen auf unterschiedlichen räumlichen Skalen von ganz Deutschland über einzelnen Bundesländern bis auf Gemeindeebene ermöglichen.
„Bestehende Warnwerkzeuge für Starkregen und deren Folgen beziehen sich nur auf die Vorhersage von Niederschlag und lassen die aktuellen hydrologischen Verhältnisse unbeachtet“, erklärt Weiler. Dabei seien gerade hydrologische Eigenschaften wie etwa die aktuelle Bodenfeuchte und Landbedeckung sowie das Gefälle oder die Bodenbeschaffenheit letztlich dafür entscheidend, ob ein Starkregenereignis auch eine Sturzflut auslöst: „Eine belastbare Sturzflutwarnung muss daher neben den meteorologischen Faktoren auch die hydrologischen berücksichtigen“, sagt der Freiburger Forscher.
Gefährdung quasi in Echtzeit abbilden
Meteorologische, hydrologische und hydraulische Informationen sollen in dem Projekt verknüpft und zu einem Warnsystem zusammengeführt werden, das quasi in Echtzeit die aktuelle Sturzflutgefährdung abbilden kann. Dazu arbeiten im interdisziplinären AVOSS-Projekt mehrere Universitäten und Forschungseinrichtungen aus ganz Deutschland mit Meteorolog*innen und Ingenieurbüros zusammen. Zusätzlich sind Akteur*innen aus der Praxis wie Landesbehörden und Gemeinden eingebunden.
So soll die Praxistauglichkeit der zu entwickelnden Warnwerkzeuge gewährleistet werden. Außerdem sind prototypische Anwendungen für Pilotregionen geplant, um die Qualität und Belastbarkeit der Sturzflutwarnungen zu bewerten.
Weitere Informationen zu AVOSS auf der Projekthomepage: www.avoss.uni-freiburg.de
Faktenübersicht:
• Das Forschungsprojekt AVOSS wird an der Universität Freiburg koordiniert. Außerdem beteiligt sind die Leibniz Universität Hannover, das GFZ Helmholtz-Zentrum Potsdam, die Forschungszentrum Jülich GmbH, die AtmoScience GmbH aus Gießen (Tochtergesellschaft der Kachelmann AG), die BIT Ingenieure AG aus Freiburg und die HYDRON GmbH aus Karlsruhe.
• Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt im Rahmen der Fördermaßnahme „WaX – Wasser-Extremereignisse“ mit rund 2,6 Millionen Euro für den Zeitraum von drei Jahren.
• Projektkoordinator Prof. Dr. Markus Weiler ist Professor für Hydrologie an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg. Zu seinen Forschungsschwerpunkten gehören die Identifikation und Modellierung der dominanten Abflussbildungsprozesse unter verschiedenen meteorologischen und hydrologischen Gegebenheiten, speziell auch hinsichtlich des Auftretens von Starkregenereignissen und der daraus resultierenden Überflutungsgefahren.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Markus Weiler
Professur für Hydrologie
Fakultät für Umwelt und Natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3530 oder 3535
E-Mail: markus.weiler@hydrology.uni-freiburg.de
avoss@hydrology.uni-freiburg.de
Weitere Informationen:
https://kommunikation.uni-freiburg.de/pm/2022/neues-forschungsprojekt-warnsystem…
Studie bestätigt Ergebnisgenauigkeit des nationalen Virusvarianten-Monitorings im Abwasser
Anna Schwendinger Public Relations
CeMM Forschungszentrum für Molekulare Medizin der Österreichischen Akademie der Wissenschaften
Das Sequenzieren von Viruspartikel aus Abwasserproben ist seit 2020 ein wichtiger Teil des COVID19 Pandemiemonitorings in Österreich, das damit international eine Vorreiterrolle einnimmt. Eine aktuelle Studie des CeMM, dem Forschungszentrum für Molekulare Medizin der ÖAW sowie der Medizinischen Universität Wien, der Universität Innsbruck und vieler weiterer Kollaborationspartner zeigt nun, wie erstaunlich detailliert und exakt die Analysen des Abwassers die Variantendynamik widerspiegeln. Diese Studie, publiziert in Nature Biotechnology, liefert eine wissenschaftliche Bestandsaufnahme und neue bioinformatische Instrumente, die internationale Überwachung von Virusvarianten zu unterstützen.
Dass die Analyse des Abwassers ein geeigneter, ergänzender Ansatz zur Beobachtung des epidemiologischen Geschehens ist, davon wird bereits länger ausgegangen. Dennoch wurde die Methode erst in jüngster Zeit in vielen Ländern flächendeckend ausgerollt. In Österreich widmen sich WissenschaftlerInnen der Forschungsgruppe von Andreas Bergthaler, CeMM Adjunct Principal Investigator und Professor für Molekulare Immunologie an der MedUni Wien, bereits seit 2020 gemeinsam mit Kollaborationspartnern anderer Universitäten und Institutionen in ganz Österreich der Auswertung von Abwasserproben aus Kläranlagen. In der aktuellen Studie konnten die Erstautoren Fabian Amman vom CeMM und Rudolf Markt von der Uni Innsbruck zeigen, dass die Abwasserdaten sehr genau die Verbreitung von Virusvarianten in der Bevölkerung widerspiegeln.
Hohe Übereinstimmungen der Virusvarianten in Patientenproben und Abwasser
Für die Studie sequenzierten und analysierten die WissenschaftlerInnen von Dezember 2020 bis Februar 2022 insgesamt 3.413 Abwasserproben aus über 90 kommunalen Einzugsgebieten bzw. Kläranlagen, die zusammen wöchentlich mehr als 50 Prozent der österreichischen Bevölkerung abdecken. Mittels einer eigens entwickelten Software (Variant Quantification in Sewage designed for Robustness, kurz VaQuERo) konnten die WissenschaftlerInnen die räumlich-zeitliche Häufigkeit von Virusvarianten aus komplexen Abwasserproben ableiten. Diese Ergebnisse wurden anschließend anhand epidemiologischer Aufzeichnungen von mehr als 311.000 Einzelfällen gemeinsam mit den Infektionsepidemiologen der AGES validiert. Erstautor Fabian Amman, Bioinformatiker in der Forschungsgruppe von Bergthaler am CeMM und der MedUni Wien, erklärt: „Unsere Ergebnisse bestätigen, dass trotz zahlreicher Herausforderungen bei der Abwasseranalyse die Ergebnisse einen sehr genauen Überblick über das Pandemiegeschehen eines ganzen Landes bieten. Für jede Woche und jedes Einzugsgebiet, in denen laut epidemiologischem Meldesystem eine bestimmte Variante zumindest einmal auftrat, sehen wir in 86% der Proben derselben Woche ein entsprechendes Signal im Abwasser. Umgekehrt sehen wir in rund 3% der Abwasserproben Varianten, die dem Patienten-basierten System entgangen sind.“
Die im Rahmen der Studie generierten Daten bieten eine Basis für die Vorhersage neu entstehender Varianten und machen den Reproduktionsvorteil bedenklicher Varianten besser kalkulierbar.
Ein weiterer Vorteil des Abwassermonitorings ist zudem, dass auch asymptomatische Personen sowie Personen, die das Testangebot nicht nutzen, in den Daten erfasst werden.
Erfolgsfaktor Zusammenarbeit
In Österreich konnte insbesondere durch die erfolgreiche Zusammenarbeit zwischen Forschungseinrichtungen und verschiedenen Behörden frühzeitig ein flächendeckendes Monitoring aufgesetzt werden. Andreas Bergthaler erklärt: „Dies ist auch eine Erfolgsstory, was wissenschaftliche Zusammenarbeit schaffen kann. Im konkreten Fall war dies gekennzeichnet von früh begonnenen und erfolgreich weiterausgebauten Kollaborationen zwischen CeMM und MedUni Wien, Universität Innsbruck, der Medizinischen Universität Innsbruck, der Technischen Universität Wien, der AGES sowie mehr als zehn weiteren Institutionen.“ Gemeinsam konnte gezeigt werden, dass die Virussequenzierungen aus dem Abwasser auf nationaler Ebene einen wesentlichen Beitrag zur Überwachung von SARS-CoV-2 Varianten, dem Pandemiemanagement und der öffentlichen Gesundheit liefern vermag. Es ist zu erwarten, dass der Fokus auf SARS-CoV-2 zukünftig auch auf die Analysen anderer Infektionserreger im Abwasser Anwendung finden wird. Somit liefern die Erkenntnisse dieser Studie auch einen wichtigen Beitrag zur internationalen Überwachung von Infektionskrankheiten.
Die Studie „Viral variant-resolved wastewater surveillance of SARS-CoV-2 at national scale“ erschien in der Zeitschrift Nature Biotechnology am 18. Juli 2022, DOI: 10.1038/s41587-022-01387-y
AutorInnen: Fabian Amman*, Rudolf Markt*, Lukas Endler, Sebastian Hupfauf, Benedikt Agerer, Anna Schedl, Lukas Richter, Melanie Zechmeister, Martin Bicher, Georg Heiler, Petr Triska, Matthew Thornton, Thomas Penz, Martin Senekowitsch, Jan Laine, Zsofia Keszei, Peter Klimek, Fabiana Nägele, Markus Mayr, Beatrice Daleiden, Martin Steinlechner, Harald Niederstätter, Petra Heidinger, Wolfgang Rauch, Christoph Scheffknecht, Gunther Vogl, Günther Weichlinger, Andreas Otto Wagner, Katarzyna Slipko, Amandine Masseron, Elena Radu, Franz Allerberger, Niki Popper, Christoph Bock, Daniela Schmid, Herbert Oberacher, Norbert Kreuzinger, Heribert Insam, Andreas Bergthaler
**geteilte Erstautoren
Förderung: Dieses Projekt wurde teilweise vom Förderkreis 1669 der Universität Innsbruck, dem FFG-Emergency-Call, der Österreichischen Agentur für Gesundheit und Ernährungssicherheit (AGES), dem Wiener Wissenschafts- und Technologiefonds (WWTF) im Rahmen des WWTF COVID-19 Rapid Response Funding 2020 (A.B.), dem Österreichischen Wissenschaftsfonds (FWF1212P) und der Österreichischen Akademie der Wissenschaften/CeMM finanziert. Der Zugang zu den Kläranlagen und die Probenlogistik wurden durch das Coron-A-Projekt sowie durch die nationalen Abwasserüberwachungsprogramme des Bundesministeriums für Bildung, Wissenschaft und Forschung und des Bundesministeriums für Soziales, Gesundheit, Pflege und Konsumentenschutz ermöglicht.
Andreas Bergthaler hat Veterinärmedizin in Wien studiert. Nach seinem Doktorat bei Hans Hengartner und Nobelpreisträger Rolf Zinkernagel an der Universität Zürich und der ETH Zürich folgten postdoktorale Forschungsaufenthalte an der Universität Genf und am Institute for Systems Biology in Seattle. 2011 startete er als Forschungsgruppenleiter am CeMM und wurde 2016 ERC Start Preisträger, seit 1. Jänner 2022 ist er Professor für Molekulare Immunologie und Leiter des Instituts für Hygiene und Angewandte Immunologie an der MedUni Wien sowie CeMM Adjunct Principal Investigator.
Das CeMM Forschungszentrum für Molekulare Medizin der Österreichischen Akademie der Wissenschaften ist eine internationale, unabhängige und interdisziplinäre Forschungseinrichtung für molekulare Medizin unter wissenschaftlicher Leitung von Giulio Superti-Furga. Das CeMM orientiert sich an den medizinischen Erfordernissen und integriert Grundlagenforschung sowie klinische Expertise, um innovative diagnostische und therapeutische Ansätze für eine Präzisionsmedizin zu entwickeln. Die Forschungsschwerpunkte sind Krebs, Entzündungen, Stoffwechsel- und Immunstörungen, sowie seltene Erkrankungen.
Das Forschungsgebäude des Institutes befindet sich am Campus der Medizinischen Universität und des Allgemeinen Krankenhauses Wien. cemm.at
Die Medizinische Universität Wien (kurz: MedUni Wien) ist eine der traditionsreichsten medizinischen Ausbildungs- und Forschungsstätten Europas. Mit rund 8.000 Studierenden ist sie heute die größte medizinische Ausbildungsstätte im deutschsprachigen Raum. Mit 6.000 MitarbeiterInnen, 30 Universitätskliniken und zwei klinischen Instituten, 13 medizintheoretischen Zentren und zahlreichen hochspezialisierten Laboratorien zählt sie auch zu den bedeutendsten Spitzenforschungsinstitutionen Europas im biomedizinischen Bereich. meduniwien.ac.at
Die Universität Innsbruck wurde 1669 gegründet und ist heute mit über 28.000 Studierenden und über 5.000 Mitarbeiterinnen und Mitarbeitern die größte und wichtigste Forschungs- und Bildungseinrichtung in Westösterreich. Im Herzen der Alpen gelegen, bietet die Universität Innsbruck beste Bedingungen für erfolgreiche Forschung und Lehre. Internationale Rankings bestätigen die führende Rolle der Universität Innsbruck in der Grundlagenforschung. In diesem erfolgreichen Umfeld wird an den 16 Fakultäten eine breite Palette von Studien über alle Fachbereiche hinweg angeboten. In zahlreichen Partnerschaften hat sich die Universität mit Bildungs- und Forschungseinrichtungen rund um die Welt zusammengeschlossen, um den internationalen Austausch in Forschung und Lehre zu fördern. uibk.ac.at
Originalpublikation:
DOI: 10.1038/s41587-022-01387-y
Kommunales Klimaschutzmanagement lohnt sich
Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Kommunen, die aktiv Klimaschutzmaßnahmen steuern, sparen bis zu neunmal mehr klimaschädliche Treibhausgase ein als solche ohne Klimaschutzmanagement. Vor allem kleinere Gemeinden setzen doppelt so viele Projekte um und nutzen fünfmal so viele Fördermittel wie vergleichbare Kommunen ohne eigene Zuständigkeit für den Klimaschutz. Auch der Umfang der geförderten Projekte ist je nach Größe der Kommune zwei- bzw. dreimal höher. Das zeigt eine aktuelle Studie des Öko-Instituts im Auftrag des Umweltbundesamtes, die Städte, Gemeinden und Landkreise mit und ohne Klimaschutzmanagement vergleicht.
„Unsere Analyse zeigt klar den Erfolg des kommunalen Klimaschutzmanagers bzw. der -managerin“, fasst Tanja Kenkmann, Senior Researcher und Projektleiterin am Öko-Institut zusammen. „Städte und Gemeinden in Deutschland sollten deshalb flächendeckend diese Kompetenzen aufbauen, um ihre Klimaschutzaktionspläne zielorientiert umzusetzen.“
Klimaschutzförderung sinnvoll nutzen
Die Wissenschaftlerinnen und Wissenschaftler analysierten mehr als 350 Städte und Gemeinden verschiedener Größe sowie ihre mehr als 2.500 Klimaschutzvorhaben, die in 11 Bundesförderprogrammen gefördert wurden. Insgesamt, so die Auswertung, wurden in Kommunen mit Klimaschutzmanagement mehr geförderte Vorhaben durchgeführt, mehr Fördermittel eingesetzt und mehr Treibhausgasminderungen erzielt als in den jeweiligen Vergleichsgruppen ohne Klimaschutzmanagement.
Dabei spielt die Größe der Kommunen bei allen ausgewerteten Indikatoren – Anzahl der geförderten Vorhaben, Fördervolumen insgesamt, Fördervolumen der einzelnen Projekte, erzielte Treibhausgasminderungen – eine Rolle. So lag etwa das Volumen aller abgerufenen Förderungen in Städten mit 20.000 bis 100.000 Einwohnerinnen und Einwohnern etwa fünf Mal über dem von Kommunen der gleichen Größe ohne Klimaschutzmanagement. In diesen Städten betrug die erzielte Einsparung von Treibhausgasen das Zweieinhalbfache.
Aber auch kleinere Kommunen profitieren vom Klimaschutzmanagement: Bei den abgerufenen Fördermitteln können sie doppelt so viel Fördervolumen pro Klimaschutzprojekt geltend machen wie kleine Kommunen ohne Klimaschutzmanagement. Die erzielten THG-Minderungen sind neun Mal so groß wie in kleinen Kommunen ohne Klimaschutzmanagement.
Hintergrund: Klimaschutzmanagement in Kommunen
Kommunen sind wichtige Akteure für den Klimaschutz und verfügen über enorme Potenziale Treibhausgase einzusparen. Viele Gemeinden haben sich eigene Klimaschutzaktionspläne gegeben, die von Mobilitätskonzepten bis zur kommunalen Wärmeplanung verschiedene Handlungsfelder abdecken. Diese Projekte zu planen und umzusetzen, ist Hauptaufgabe des kommunalen Klimaschutzmanagements. Die Studie des Öko-Instituts zeigt, dass die strategische Einbindung dieser Aufgabe in der Verwaltung zum Erfolgsfaktor wird.
Klimaschutzmanagerinnen und -manager sorgen dabei insbesondere für die Vernetzung aller Akteure der Stadtverwaltungen, die an der Realisierung von Klimaschutzprojekten beteiligt sind. Sie werben Fördermittel ein und befördern den fachlichen Austausch. Nicht zuletzt wirken sie in die Stadtgesellschaft, koordinieren die Öffentlichkeitsarbeit sowie die Einbindung der Bevölkerung und leisten Beiträge für die Umweltbildung in Schulen und Kitas.
Die Studie ist der 2. Teilbericht im Projekt „Wirkungspotenzial kommunaler Maßnahmen für den nationalen Klimaschutz“, das bis Ende des Jahres Ergebnisse vorlegt.
Studie „Wirkungsanalyse für das Klimaschutzmanagement in Kommunen – Fördermittelnutzung“ des Öko-Instituts (https://www.oeko.de/publikationen/p-details/wirkungsanalyse-fuer-das-klimaschutz…)
Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
www.oeko.de | Podcast | blog.oeko.de | Twitter | Instagram | Onlinemagazin
Wissenschaftliche Ansprechpartner:
Tanja Kenkmann
Senior Researcher im Institutsbereich
Energie & Klimaschutz
Öko-Institut e.V., Geschäftsstelle Freiburg
Telefon: +49 761 45295-263
E-Mail: t.kenkmann@oeko.de
Anhang
PM Kommunaler Klimaschutz Öko-Institut
Präventions-Studie: Fußball als Bewegungsmotor für Herzkranke
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Fit und Fun mit Fußball nach Herzinfarkt oder koronarer Herzkrankheit: von Herzstiftung und Land Niedersachsen geförderte MY-3F-Studie soll Gesundheitsfußball auch in der Herz-Kreislauf-Prävention etablieren.
Regelmäßige Bewegung zählt zur besten Medizin – sowohl um Herz-Kreislauf-Erkrankungen vorzubeugen als auch zur Therapie bei Herzerkrankung. Mit Ausdauerbewegung (5-mal/Woche á 30 Minuten) lassen sich nahezu alle wichtigen Risikofaktoren für Herzinfarkt und Schlaganfall wie Bluthochdruck, Diabetes mellitus, Fettstoffwechselstörungen (hohes LDL-Cholesterin) und Adipositas bessern. Und Sport wirkt auch psychischem Stress und Depressionen entgegen. Dennoch schafft es ein Großteil der Bevölkerung nicht, sich wenigstens 2,5 Stunden pro Woche mit mäßiger Intensität zu bewegen, wie von der Weltgesundheitsorganisation (WHO) empfohlen. Gerade Patienten mit Herzerkrankung haben im Zuge ihrer chronischen Krankheit häufig den „Drive“ verloren, sich regelmäßig zu bewegen. Manche waren etwa vor ihrer Erkrankung in einer Ballsportart aktiv, trauen sich das aber im höheren Alter und wegen ihrer Herzkrankheit nicht mehr zu. Für sie sind deshalb niederschwellige Bewegungskonzepte gefragt, die Sport mit Spaß verbinden. Um speziell Menschen mit verengten Herzkranzgefäßen, der sogenannten koronaren Herzkrankheit (KHK), oder nach einem Herzinfarkt zu mehr körperlicher Aktivität anzuspornen, fördert die Deutsche Herzstiftung daher das Forschungsprojekt die „MY-3F-Studie: Fit und Fun mit Fußball nach Myokardinfarkt oder koronarer Herzerkrankung“ mit 70.000 Euro. Weitere gut 200.000 Euro erhält das Projekt vom Niedersächsischen Ministerium für Wissenschaft und Kultur.
„Der Lebensstilfaktor Ausdauerbewegung ist enorm wichtig, um das Risiko für Herzinfarkt und andere Herz-Kreislauf-Komplikationen wie Schlaganfall oder plötzlicher Herztod zu verringern“, betont der Kardiologe und Vorstandsvorsitzende der Deutschen Herzstiftung, Prof. Dr. Thomas Voigtländer. „Wir fördern dieses Projekt, weil Fußball ein populärer Breitensport ist. Und ein auf Herzkranke abgestimmtes, attraktives Bewegungskonzept kann bedeutsam zur Verbesserung der kardiovaskulären Prävention in Deutschland beitragen.“ Die MY-3F-Studie leistet zudem einen wichtigen Forschungsbeitrag, indem jetzt auch die Gesundheitseffekte von Fußball bei kardiovaskulären Erkrankungen wissenschaftlich erfasst werden. „Wissenschaft, Fußball und Gesundheit miteinander zu verbinden ist eine tolle Sache“, so der Niedersächsische Wissenschaftsminister Björn Thümler. „Damit zeigt sich, dass Wissenschaft lebenswichtige Fragestellungen adressieren, den Beteiligten zugleich Spaß machen und dabei eine hohe Breitenwirkung entfalten kann“, so der Minister weiter.
Mit Fußball die langjährig inaktiven chronisch Kranken erreichen
Studien belegen, dass auch Patienten mit bestehender KHK oder nach einem Herzinfarkt nicht ausreichend Medikamente erhalten, die sich gegen ihre kardiovaskulären Risikofaktoren richten. Und auch lebensstilfördernde Maßnahmen wie Bewegung, gesunde Ernährung und Rauchverzicht werden nicht ausreichend umgesetzt. Dabei ist die Verbesserung der körperlichen Aktivität auch bei diesen Patienten ein Kernelement, um das Fortschreiten der Herzerkrankung oder einen neuen Herzinfarkt zu verhindern. „Mit der MY-3F-Studie untersuchen wir am Beispiel Fußball, inwiefern sich mit diesem Sport besonders auch lange inaktive Personen mit Risikokrankheiten wie Bluthochdruck, Diabetes oder einer Herzerkrankung für körperliche Aktivität gewinnen lassen. Denn das ist bei dieser Personengruppe meistens besonders schwierig“, berichtet der Internist und Studienleiter Prof. Dr. Joachim Schrader, Institut für Klinische Forschung in Cloppenburg. Die MY-3F-Studie wird gemeinsam von der Universitätsklinik für Kardiologie im Klinikum Oldenburg, der Carl von Ossietzky Universität Oldenburg, dem Institut für klinische Forschung in Cloppenburg und der Nephrologie am St. Josefs-Hospital Cloppenburg unter der Studienleitung von Prof. Dr. Joachim Schrader, PD Dr. Stephan Lüders, Dr. Bastian Schrader und Prof. Dr. Albrecht Elsässer durchgeführt. In dem Studienbeirat finden sich renommierte Wissenschaftler aus Göttingen, Hannover und München.
Vom wettkampforientierten hin zum „Gesundheitsfußball“
Fußball ist die mit Abstand populärste Sportart Deutschlands. Die Verbreitung in sämtlichen Regionen und die starke Infrastruktur sind von Vorteil, wenn es darum geht, mehr Menschen mit Risikofaktoren oder bestehender Herzerkrankung zu körperlicher Aktivität zu ermutigen. Allerdings hat Fußball als Präventions- oder Gesundheitssportart derzeit praktisch keine Bedeutung. Dies liegt den Projektleitern zufolge einerseits an der fehlenden wissenschaftlichen Datenlage zur Verbesserung bestimmter Gesundheitsparameter durch Fußball. „Neben dem typischen auf Wettkampf ausgerichteten Fußball gibt es kaum Angebote für ausschließlich auf Gesundheitsaspekte angelegtes Fußballspielen“, sagt Schrader, selbst ein begeisterter Fußballer. Dies gilt insbesondere für ältere Personen mit Risikofaktoren oder bereits bestehender KHK. Der wettkampforientierte Fußball wird dem Internisten zufolge den speziellen Bedürfnissen von inaktiven Personen mit Risikofaktoren oder Herzerkrankungen „nicht gerecht – auch wegen der Verletzungsgefahr“.
Das Trainingsformat der MY-3F-Studie ist daher auf die Verbesserung von Fitness, Spaß und Gesundheit durch Fußball ohne wesentliches Verletzungsrisiko ausgerichtet. Dieses Konzept „Gesundheitsfußball“ wurde von der Studiengruppe entwickelt und beinhaltet den Verzicht auf direkte Zweikämpfe und gefährliche Kontaktaktionen. Der Schwerpunkt liegt auf einem zielgruppenorientierten Pass- und Laufspiel. Vier kleine Tore ziehen die Spielfläche für dieses Trainingskonzept in die Breite. Das unterstützt die Balleroberung über das Laufen statt Tacklings. Hinzu kommen eine Unterbrechung des Trainings mit Dehnübungen zur Vorbeugung von Muskelverletzungen und der vermehrte Einbau von Koordinations- und Kognitionsübungen. Jeder Teilnehmer hat unabhängig von seinen fußballerischen Fähigkeiten gleich viele Ballkontakte. Zu einem derartigen Programm gehören auch leichtere Bälle. Voraussetzung sind ausgebildete Trainer, die ein derartiges Konzept in einer Gruppe umsetzen. Mit der MY-3F-Studie bauen die Ärzte und Forscher auf die erste „3F-Studie: Fit und Fun mit Fußball“ auf (1). Dieses Programm für „Gesundheitsfußball“ wurde bereits bei noch gesunden Teilnehmern mit Risikofaktoren für Herzkreislauferkrankungen erfolgreich eingesetzt. Die primären Ziele (Blutdrucksenkung, Gewichtsabnahme, Reduktion von Medikamenten) wurden erreicht, ohne dass es zu wesentlichen Verletzungen kam.
Ziel der Studie: Gesundheitsfußball landesweit etablieren
Ziel der anlaufenden MY-3F-Studie ist es, das erfolgreiche 3F-Trainingskonzept „Gesundheitsfußball“ in einer Studie bei Patientinnen und Patienten mit bestehender KHK oder nach Myokardinfarkt im Vergleich zu einer Kontrollgruppe einzusetzen und so den Gesundheitsfußball auch in der Sekundärprävention zu etablieren. Körperlich inaktive Patientinnen und Patienten mit Herzerkrankungen trainieren über ein Jahr einmal die Woche für 90 Minuten unter einem für Gesundheitsfußball DFB-lizenzierten Trainer. Das Konzept von Gesundheitsfußball soll langfristig landesweit etabliert werden, daher sind eine Anbindung an lokale Fußballvereine und eine Ausbildung von Trainern erforderlich. Um ein langfristiges Präventionsangebot zu schaffen, wurden bereits Vereine eingebunden und eine Zusatzqualifikation von Trainern speziell für „Gesundheitsfußball“ vom DFB geschaffen. Insgesamt haben 17 Frauen und 73 Männer für eine Teilnahme an der MY-3F-Studie zugesagt, insgesamt 110 bis 120 Studienteilnehmer sollen in die Studie eingeschlossen werden.
Literatur:
(1) Schrader B., Schrader J. et al., Football beats hypertension: results of the 3F (Fit&Fun with Football) study Journal of Hypertension 2021, DOI:10.1097/HJH.0000000000002935
Herz-Kreislauf-Forschung nah am Patienten
Dank der finanziellen Unterstützung durch Stifterinnen und Stifter, Spender und Erblasser kann die Deutsche Herzstiftung gemeinsam mit der von ihr 1988 gegründeten Deutschen Stiftung für Herzforschung (DSHF) Forschungsprojekte in einer für die Herz-Kreislauf-Forschung unverzichtbaren Größenordnung finanzieren. Infos zur Forschung unter www.herzstiftung.de/herzstiftung-und-forschung
Fotomaterial erhalten Sie gerne auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114
Kontakt:
Deutsche Herzstiftung e. V.
Pressestelle: Michael Wichert (Ltg.)/
Pierre König
Tel. (069) 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Niedersächsisches Ministerium
für Wissenschaft und Kultur
Pressestelle: Heinke Traeger
Tel.: (0511) 120-2603
Fax: (0511) 120-2601
E-Mail: pressestelle@mwk.niedersachsen.de
www.mwk.niedersachsen.de
Weitere Informationen:
http://www.herzstiftung.de
http://www.mwk.niedersachsen.de/startseite/
http://www.herzstiftung.de/herzstiftung-und-forschung
Anhang
PM_DHS_Prävention-Gesundheitsfussball_MY-3F-Studie_2022-07-15-Final
UDE-Chemiker:innen entwickeln Brühtechnik: Mehr als kalter Kaffee
Dr. Thomas Wittek Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Vor allem im Sommer ist er der Renner: Cold Brew Coffee. Fix zubereiten geht aber leider nicht. Ein Team aus der Chemiefakultät der Universität Duisburg-Essen (UDE) wollte das ändern und hat dafür ein neues Brühverfahren entwickelt: Anstatt den Kaffeesatz für mindestens zwölf Stunden bei Raumtemperatur ziehen zu lassen, dauert ihr Prozess nur drei Minuten – dank Laser. Ihr Ergebnis haben sie in „npj Science of Food“ veröffentlicht. Nun tüfteln zwei von ihnen weiter.
Auf den Gedanken gebracht wurde Dr. Anna Rosa Ziefuß durch einen Ideenwettbewerb ihres Doktorvaters Prof. Stephan Barcikowski. „Die Intention dahinter war, uns zum Denken anzuregen und zwar über unsere eigene Forschung hinaus“, erzählt die Chemikerin. Sie weiß, warum kalt aufgebrühter Kaffee so im Trend liegt: „Er schmeckt nicht so bitter und hat mehr Aromen. Zudem enthält er weniger Säure und lässt sich besser verdauen.“ Aber: Die Geschmacks- und Aromastoffe aus dem gemahlenen Kaffee lösen sich im kalten Wasser nur sehr langsam auf – der „Brühvorgang“ kann bis zu 24 Stunden dauern.
Das Verfahren: das Wasser samt Kaffeepulver mit einem ultrakurz gepulsten Laser für etwa drei Minuten beleuchten – ohne dass das Gemisch erhitzt wird. Das Ergebnis: Neben dem Geschmack stimmt auch die Chemie. Sowohl die Koffein- als auch die Bitterstoffkonzentration entspricht herkömmlichem Cold Brew Coffee. „Durch die fehlende Erhitzung bleiben Pyridin und Diphenol erhalten, die dem Getränk seinen Geschmack verleihen.“ Mit ihrer Brühvariante hat Ziefuß nicht nur den ersten Preis des GUIDE Ideenwettbewerbes gewonnen, sondern zusammen mit ihrer UDE-Teamkollegin, Lebensmittelingeneurin Tina Friedenauer, auch den dritten Platz bei der „From Lab to Market challenge“ von Chemstars.nrw erreicht.
Nun wollen die beiden mit LEoPARD ausgründen. Das steht für Laser-based Extraction offers Pure and Advanced Refreshment Drinks – was zeigt, wo die beiden das Marktpotenzial sehen. „Es ist nicht der Kaffee, sondern das laserbasierte Herstellungsverfahren, das einen enormen Eventcharakter hat. So stellen wir uns vor, dass wir entsprechende Lasersysteme für Veranstaltungen, wie Hochzeiten, vermieten. Aber man könnte es auch an Kaffeehäuser verleihen oder lizensieren.“ Zudem kann der Prozess in Zukunft auch für die Getränkeindustrie interessant werden, da auch Tee oder Matcha so hergestellt werden könnten.
Noch tüfteln die Wissenschaftlerinnen aber an der Vielfallt von LEoPARD. „Cold Brew Coffee ist erst der Anfang, aktuell arbeiten wir an der Entwicklung für weitere Rezepturen für kalte Erfrischungsgetränke,“ sagt Ziefuß.
Wissenschaftliche Ansprechpartner:
Dr. Anna Rosa Ziefuß, Tel. 0201/18 3-3067, anna.ziefuss@uni-due.de
Redaktion: Jennifer Meina, Tel. 0203/37 9-1205, jennifer.meina@uni-due.de
Weitere Informationen:
https://www.nature.com/articles/s41538-022-00134-6
Krankenhäuser als hybride Energiespeicher nutzen
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Ob Kraft-Wärme-Kopplung (KWK) oder Kältemaschinen – in vielen deutschen Krankenhäusern stehen Anlagen, die aufgrund ihrer Größe hervorragend geeignet sind, die Einbindung erneuerbarer Energien zu fördern sowie kurzfristige Strompreisschwankungen zu nutzen. Wie hoch das Potenzial der Lastverschiebung konkret ist, haben das Fraunhofer UMSICHT, die Stadtwerke Bochum GmbH und das Evangelische Krankenhaus Hattingen im Projekt »Hybrider Energiespeicher Krankenhaus (HESKH)« untersucht.
Der Startschuss für das Projekt fiel im Oktober 2018. »Wir sind mit der Zielsetzung angetreten, zu ermitteln, welches Potenzial für Lastverschiebungen in Krankenhäusern vorliegt und welche wirtschaftlichen Vorteile sich daraus für die Krankenhäuser ergeben«, erklärt Dr. Anne Hagemeier vom Fraunhofer UMSICHT. »Ein weiterer Schwerpunkt lag auf der Prognose des Wärmebedarfs, der eine wichtige Rolle bei der vorausschauenden Optimierung des Anlageneinsatzes spielt.«
In einem umfangreichen Monitoring wurden über einen Zeitraum von mehr als einem Jahr die Wärme- und Kältemengen im Evangelischen Krankenhaus Hattingen gemessen und durch Kurzzeitmessungen einzelner Stromverbraucher und Abteilungen ergänzt. Die Ergebnisse flossen in verschiedene, im Projekt erstellte Modelle ein und erlaubten es, die Zusammensetzung der Energieverbräuche zu verstehen und Einsparpotenziale aufzudecken. Gleichzeitig konnten durch eine Simulation von Energieverbrauch und -versorgung Möglichkeiten zum Energiesparen und zur Kostenreduktion aufgezeigt werden.
»Es zeigte sich, dass – wenn die Nennlast des Blockheizkraftwerkes (BHKW) des Krankenhauses die Grundlast übersteigt und thermische Speicher vorhanden sind – Flexibilität bereitgestellt und wirtschaftliche Vorteile erzielt werden können. Auch, wenn ein konstanter Strompreis verwendet wird«, so UMSICHT-Wissenschaftler Sebastian Berg. »Gehen wir von einem dynamischen Stromtarif aus, der sich an dem Börsenstrompreis orientiert, können die Stromkosten zusätzlich um bis zu 15 Prozent reduziert werden. Die Stromerzeugung mit dem BHKW erfolgt dann vorzugsweise zu Zeiten, in denen die Strompreise hoch sind.«
Um den vorausschauenden Betrieb in der Praxis umzusetzen, ist die Prognose von Rahmenbedingungen notwendig. Dazu gehören die Energiebedarfe (Strom, Wärme etc.), die Preisen für deren Ein- und Verkauf sowie nicht-steuerbare Eigenerzeugungen (Photovoltaik, Solarthermie). »Um eine hohe Prognosegenauigkeit zu erzielen, haben wir u.a. auf Basis künstlicher neuronaler Netze unterschiedliche Prognosemodelle erstellt und anschließend simulativ getestet«, beschreibt UMSICHT-Wissenschaftler Malte Stienecker das Vorgehen. »Dabei konnten wir feststellen, dass die Prognoseabweichungen zwar zum Teil durch den thermischen Speicher des Krankenhauses ausgeglichen werden konnten, jedoch regelmäßig Anpassungen am ursprünglichen Anlagenfahrplan, der mit den prognostizierten Daten erstellt wurde, notwendig waren, um auch den tatsächlich auftretenden Wärmebedarf zu decken.«
Welche Mehrkosten dadurch im Betrieb anstehen, hängt sowohl von der Größe der Abweichung als auch von ihrem Zeitpunkt ab. So waren vor allem in den Wintermonaten vermehrte Fahrplananpassungen notwendig. Zu dieser Zeit laufen allerdings – aufgrund des höheren Wärmebedarfs – die Spitzenlastkessel, die kurzfristig und ohne Beeinträchtigung der Stromseite ihre Wärmeerzeugung anpassen können. Anders in den Sommermonaten: Dann nutzt das Krankenhaus ausschließlich das BHKW zur Wärmeversorgung, so dass sich Fahrplananpassungen stärker auswirken, weil z.B. mehr Strom eingekauft werden muss.
Die Projektergebnisse sind übrigens sowohl auf andere Krankenhäuser als auch auf Gebäudetypen mit ähnlichen Anlagen bzw. ähnlicher Energieerzeugung übertragbar – beispielweise Hotels, Schwimmbäder oder Gewerbebetriebe. Sebastian Berg: »Wir haben eine Analyse der Krankenhauslandschaft in Deutschland durchgeführt und dabei die ermittelten Lastverschiebepotenziale für das Krankenhaus in Hattingen hochgerechnet. Ergebnis: Wenn alle KWK-Anlagen, die aktuell in Krankenhäusern eingebaut sind, flexibel betrieben werden, liegt ein Lastverschiebepotenzial von etwa 300 MW für positive und 200 MW für negative Flexibilität vor – wenn die Fahrweise der Anlagen nach den Marktpreisen für Strom optimiert wird.« Sprich: Durch eine verbesserte Steuerung können Krankenhäuser zur Energiewende beitragen und gleichzeitig Kosten sparen.
Fraunhofer-Verfahren erhöht Methanausbeute von Biogasanlagen
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Biogasanlagen erzeugen Methan – und etwa 40 Prozent CO2, das bislang ungenutzt entweicht. Forschende des Fraunhofer-Instituts für Mikrotechnik und Mikrosysteme IMM wandeln dieses Abfallprodukt nun ebenfalls in Methan um und erhöhen die Methanausbeute von Biogasanlagen somit drastisch. Das Verfahren läuft, derzeit skaliert das Forscherteam die Demonstrationsanlage auf fünf Kubikmeter Methan pro Stunde hoch.
Deutschland ist auf dem Weg zur Klimaneutralität, bereits bis 2030 sollen die Emissionen von Kohlenstoffdioxid um 65 Prozent sinken – verglichen mit den Werten von 1990. Ein Element der Defossilisierung sind Biogasanlagen: In ihnen bauen Bakterien Biomasse unter Ausschluss von Sauerstoff zu Biogas ab, das durchschnittlich aus etwa 60 Prozent Methan und 40 Prozent CO2 besteht. Während das Biogas in Blockheizkraftwerken Strom und Wärme erzeugt oder aber auf Erdgasqualität aufbereitet ins Erdgasnetz eingespeist werden kann, entweicht das CO2 bislang ungenutzt in die Luft.
Biogas in vollem Umfang nutzen
Forscherinnen und Forscher des Fraunhofer IMM wollen dies nun ändern. »Wir wandeln das CO2 mit Hilfe von grünem Wasserstoff in Methan um«, erläutert Dr. Christian Bidart, Wissenschaftler am Fraunhofer IMM, den Ansatz des neuen Verfahrens. Das entstehende Biogas kann also nicht nur wie bisher zu etwa 60 Prozent, sondern in vollem Umfang genutzt werden. Die zugrundeliegende Reaktion ist bereits seit etwa hundert Jahren bekannt, blieb allerdings bislang meist auf Laborniveau. Erst die anstehende Energiewende rückt mögliche Anwendungen in den Fokus, die Forschenden überführen die Reaktion daher erstmals in einen industriellen Prozess.
Eine Demonstrationsanlage entwickelte das Forscherteam bereits im Projekt ICOCAD I: Diese wandelt einen Kubikmeter Biogas pro Stunde in einen Kubikmeter Methan um, ihre thermische Leistung beträgt zehn Kilowatt. Im Folgeprojekt ICOCAD II skalieren die Forschenden diese Anlage derzeit auf die fünffache Größe, also auf eine thermische Leistung von 50 Kilowatt. Eine der Herausforderungen, die dabei auf der Agenda stehen: der hochdynamische Prozess. Denn die Strommenge, die aus Wind- und Photovoltaikanlagen erzeugt wird, schwankt stark – und damit auch die Menge des grünen Wasserstoffs, der mittels Strom in Elektrolyseuren aus Wasser gewonnen wird. Die Anlage muss also schnell auf schwankende Mengen an Wasserstoff reagieren können. Zwar wäre auch eine Speicherung von Wasserstoff möglich, jedoch aufwändig und teuer. »Wir arbeiten daher daran, die Anlage flexibel zu gestalten, um die Speicherung von Wasserstoff möglichst zu umgehen«, sagt Bidart. Dazu gehören unter anderem CO2-Speicher: Denn die Menge an CO2, das aus den Biogasanlagen strömt, ist gleichbleibend.
Entwicklung effizienter Katalysatoren
Eine weitere Herausforderung lag in der Entwicklung effizienter Katalysatoren für die Reaktion. Die Forschenden des Fraunhofer IMM haben dafür eine Mikrobeschichtung aus Edelmetallen verwendet. Das Prinzip: Wasserstoff und Kohlenstoffdioxid strömen durch zahlreiche Mikrokanäle, in denen sie miteinander reagieren können und deren Wände mit einer Beschichtung des Katalysators versehen sind. »Auf diese Weise können wir die Kontaktfläche der Gase mit dem Katalysatormaterial vergrößern und die benötigte Katalysatormenge reduzieren«, weiß Bidart. Im Reaktionsreaktor werden zahlreiche solcher Mikrostrukturen übereinandergestapelt.
Weitere Skalierungen geplant
Derzeit arbeiten die Forscherinnen und Forscher daran, die größere Anlage umzusetzen und den dynamischen Betrieb zu realisieren. 2023, so hofft das Team, könnte diese dann in Betrieb gehen und an einer Biogasanlage real getestet werden. Damit ist die Hochskalierung jedoch keineswegs abgeschlossen – schließlich sind die CO2-Mengen, die an den Biogasanlagen entstehen, groß. Bis zum Jahr 2025 planen die Forschenden daher eine Hochskalierung auf 500 Kilowatt, bis 2026 soll die Anlage gar ein bis zwei Megawatt Leistung erzeugen.
Potentialflächen von Wasser erstmals kartiert
Dr. Antonia Rötger Kommunikation
Helmholtz-Zentrum Berlin für Materialien und Energie GmbH
Flüssigkeiten sind schwerer zu beschreiben als Gase oder kristalline Feststoffe. Ein HZB-Team hat nun an der Swiss Light Source SLS des Paul Scherrer Instituts, Schweiz, erstmals die Potentialflächen von Wassermolekülen in flüssigem Wasser unter normalen Umgebungsbedingungen kartiert. Das trägt dazu bei, die Chemie des Wassers und in wässrigen Lösungen besser zu verstehen. Diese Untersuchungen können demnächst an der neu errichteten METRIXS-Station an der Röntgenquelle BESSY II fortgesetzt werden.
Wasser ist die bekannteste Flüssigkeit der Welt. In allen biologischen und vielen chemischen Prozessen spielt Wasser eine entscheidende Rolle. Die Wassermoleküle selbst bergen kaum noch ein Geheimnis. Schon in der Schule lernen wir, dass Wasser aus einem Sauerstoff-Atom und zwei Wasserstoff-Atomen besteht. Wir kennen sogar den typischen stumpfen Winkel, den die beiden O-H-Schenkel miteinander bilden. Außerdem wissen wir natürlich, wann Wasser kocht oder gefriert und wie diese Phasenübergänge mit dem Druck zusammenhängen. Aber zwischen der Kenntnis des einzelnen Moleküls und dem Wissen über die makroskopischen Phänomene klafft ein weiter Bereich des Ungefähren: Ausgerechtet über das Verhalten der einzelnen Moleküle in ganz normalem flüssigem Wasser ist nur Statistisches bekannt, die Wassermoleküle bilden ein fluktuierendes Netz aus Wasserstoffbrücken, ungeordnet und dicht und ihre Wechselwirkungen sind überhaupt nicht so gut verstanden wie im gasförmigen Zustand.
Nun hat ein Team um die HZB-Physikerin Dr. Annette Pietzsch hochreines, flüssiges Wasser bei Zimmertemperatur und normalem Druck unter die Lupe genommen. Mit Röntgenuntersuchungen an der Swiss Light Source des Paul Scherrer Instituts und statistischen Modellierungen ist es den Forscher:innen erstmals gelungen, die so genannten Potentialflächen der einzelnen Wassermoleküle im Grundzustand zu kartieren, die je nach Umgebung vielfältige Gestalt annehmen.
„Das Besondere ist hier die Methode: Wir haben die Wassermoleküle an der ADRESS-Beamline mit resonanter inelastischer Röntgenstreuung untersucht. Einfach ausgedrückt haben wir einzelne Moleküle nur ganz vorsichtig angeschubst und dann gemessen, wie sie in den Grundzustand zurückfallen“, sagt Pietzsch. Die niederenergetischen Anregungen führten zu Streckschwingungen und anderen Vibrationen, durch die sich – kombiniert mit Modellrechnungen – ein detailliertes Bild der Potentialoberflächen ergab.
„Damit haben wir eine Methode, um experimentell die Energie eines Moleküls in Abhängigkeit von seiner Struktur zu ermitteln“, erläutert Pietzsch. „Das hilft, die Chemie im Wasser zu verstehen, also auch mehr zu durchblicken, wie sich Wasser als Lösungsmittel verhält.“
Die nächsten Experimente sind schon in Vorbereitung, und zwar an der Röntgenquelle BESSY II am HZB. Dort hat Annette Pietzsch mit ihrem Team die Messstation METRIXS aufgebaut, die genau dafür konzipiert ist, flüssige Proben mit RIXS-Experimenten zu untersuchen. „Nach den Wartungsarbeiten im Sommer starten wir mit ersten Tests der Messinstrumente. Und dann kann es weitergehen.“
Wissenschaftliche Ansprechpartner:
Dr. Annette Pietzsch; annette.pietzsch@helmholtz-berlin.de
Originalpublikation:
PNAS (2022): Cuts through the manifold of molecular H2O potential energy surfaces in liquid water at ambient conditions
Annette Pietzsch, Johannes Niskanen, Vinicius Vaz da Cruz, Robby Büchner, Sebastian Eckert, Mattis Fondell, Raphael M. Jay, Xingye Lu, Daniel McNally, Thorsten Schmitt, Alexander Föhlisch
DOI: 10.1073/pnas.2118101119
KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.
Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_067_kit-klimawandel-und-landnutzungsanderungen-b…
Das Hochwasser im Juli 2021 gehört zu den fünf schwersten und teuersten Naturkatastrophen der letzten 50 Jahre in Europa. Mehr als 180 Menschen verloren ihr Leben, weit über 10 000 Gebäude wurden beschädigt. Kritische Infrastrukturen wie Strom- und Wasserversorgungsnetze, Brücken, Bahnstrecken und Straßen wurden teilweise oder vollständig zerstört. Das Gesamtausmaß des Hochwassers am 14. und 15. Juli 2021 in der Eifel war auch für Expertinnen und Experten überraschend. Eine Kombination mehrerer Faktoren bedingte diese Katastrophe: „Wir haben untersucht, wie Niederschläge, Verdunstungsprozesse sowie Gewässer- und Abflussverhalten dieses Hochwasser begünstigt haben“, sagt Dr. Susanna Mohr, Geschäftsführerin des Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT, welche die Studie zusammen mit einem interdisziplinären Team aus mehreren Instituten des KIT erstellt hat.
Geschiebe erhöhte das Ausbreiten sowie die Auswirkungen des Hochwassers an der Ahr
An der Ahr bewegte sich die geschätzte Wasserabflussmenge 2021 in einer ähnlichen Größenordnung wie bei den historischen Hochwasserereignissen 1804 und 1910. Trotzdem lagen die Pegelstände 2021 an mehreren Orten deutlich höher. „Wir haben gesehen, dass sich die Art des Geschiebes – also Material, das durch ein Fließgewässer mittransportiert wird – erheblich verändert hat. Neben Abtragungen von Sedimenten und bereits vorhandenem Totholz hat der anthropogene, also vom Menschen verursachte Einfluss eine erhebliche Rolle gespielt“, sagt Mohr. „So haben sich etwa Fahrzeuge, Wohnwagen, Mülltonnen oder Baumaterialien an Brückenbereichen gestaut, was zu zusätzlichen Engpässen geführt und die Auswirkungen des Hochwassers weiter verschärft hat.“ Um zukünftig besser auf solche Ereignisse vorbereitet zu sein, sei es beim Hochwasserrisikomanagement notwendig, Landschaft, Infrastrukturen und Bebauung sowie Flussverläufe einschließlich deren Veränderungen und mögliche Sedimenttransporte in die Gefährdungsbeurteilung miteinzubeziehen.
Niederschlagsausmaß nicht einzigartig
Die Forschenden verglichen weiterhin das Niederschlagsereignis vom Juli 2021 mit historischen Niederschlagsaufzeichnungen: „Unsere Analysen zeigen, dass die beobachtete Gesamtniederschlagsumme mit zu den höchsten der letzten 70 Jahre in Deutschland zählt – und somit extrem, aber nicht einzigartig war“, sagt Dr. Florian Ehmele vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO). „Die Niederschlagsereignisse, die beispielsweise zu den schweren Hochwassern in Berlin und Brandenburg 1978 oder an der Elbe 2002 geführt haben, waren sowohl hinsichtlich ihrer Niederschlagsintensität als auch ihrer Ausdehnung oder Lebensdauer deutlich stärker.“ Allerdings seien vergangene Niederschlagsereignisse, die mit dem im Juli 2021 vergleichbar sind, überwiegend im Osten und Süden von Deutschland und seltener im Westen beobachtet worden.
Simulationen zeigen: Klimawandel verstärkt künftige Hochwasserereignisse
Zusätzlich haben die Forschenden des KIT das Hochwasserereignis unter verschiedenen Klimarandbedingungen simuliert. „Die Intensität solcher Niederschlagsereignisse nimmt um circa sieben Prozent pro Grad Erwärmung zu. Die Simulationen zeigen, dass sich die Niederschlagsmenge bereits jetzt um elf Prozent gegenüber vorindustriellen Bedingungen erhöht hat“, sagt Dr. Patrick Ludwig, Leiter der Arbeitsgruppe „Regionale Klimamodellierung“ am IMK-TRO. „Bei fortschreitender globaler Erwärmung müssen wir also von einer weiteren Verstärkung des Niederschlags ausgehen.“ Aber nicht nur das sei zukünftig ein Problem: „Laut unserer Zukunftsprojektionen dehnen sich solche Extremereignisse zusätzlich sowohl räumlich als auch zeitlich aus und deren Häufigkeit nimmt zu“, prognostiziert Ludwig.
Risikokompetenz der Bevölkerung muss verbessert werden
Das schwere Hochwasser im Juli 2021 habe somit gezeigt, wie wichtig es ist, auf derartige Ereignisse vorbereitet zu sein und angemessen zu reagieren, so die Forschenden. Um die Resilienz, also die Widerstandfähigkeit im Falle von Katastrophen, zu erhöhen und somit Schäden und Opferzahlen zu verringern, gelte es daher, neben dem Gefahrenpotenzial auch die Verwundbarkeit von Systemen und soziale Aspekte miteinzubeziehen. Ein essenzieller Bestandteil von Resilienz sei dabei die Risikokompetenz der Bevölkerung, also das Wissen um angemessene und rasche Handlungsmöglichkeiten bei Eintritt einer Katastrophe.
Center for Disaster Management and Risk Reduction Technology (CEDIM)
Das CEDIM, eine interdisziplinäre Einrichtung des KIT, forscht zu Katastrophen, Risiken und Sicherheit. Ziel ist, natürliche und menschengemachte Risiken in einer sich rasch verändernden, von Bevölkerungswachstum, Urbanisierung und Klimawandel geprägten Welt genauer zu verstehen, früher zu erkennen und besser zu bewältigen. Dazu verbinden die Forschenden Risikoerfassung, Risikoanalyse, Risikomanagement und Risikokommunikation und entwickeln darauf aufbauend Konzepte zum Verbessern der Resilienz von Infrastrukturen und Versorgung. (swi)
Originalpublikationen
Susanna Mohr, Uwe Ehret, Michael Kunz, Patrick Ludwig, Alberto Caldas-Alvarez, James E. Daniell, Florian Ehmele, Hendrik Feldmann, Mário J. Franca, Christian Gattke, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Marc Scheibel, Frank Seidel, and Christina Wisotzky (2022): A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 1: Event description and analysis. Nat. Hazards Earth Syst. Sci. Discuss., https://doi.org/10.5194/nhess-2022-137, in review.
Patrick Ludwig, Florian Ehmele, Mário J. Franca, Susanna Mohr, Alberto Caldas-Alvarez, James E. Daniell, Uwe Ehret, Hendrik Feldmann, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Michael Kunz, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Frank Seidel, and Christina Wisotzky: A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 2: Historical context and relation to climate change. In finaler Vorbereitung für Nat. Hazards Earth Syst. Sci. Discuss.
Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
Weitere Informationen zum CEDIM: https://www.cedim.kit.edu
Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Originalpublikation:
https://doi.org/10.5194/nhess-2022-137, in review.
Weitere Informationen:
http://Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
http://Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
http://Weitere Informationen zum CEDIM: https://www.cedim.kit.edu
Molekül facht die Fettverbrennung an
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Eine Studie unter Federführung der Universität Bonn hat ein Molekül identifiziert, das die Fettverbrennung in braunen Fettzellen anfacht. Der Mechanismus wurde in Mäusen entdeckt, existiert aber wahrscheinlich auch im Menschen: Ist bei ihnen ein Transporter für den Signalstoff weniger aktiv, bleiben sie trotz fettreicher Kost deutlich schlanker. Die Arbeit, an der unter anderem auch Forschende der Universität Leipzig und des Universitätsklinikums Hamburg-Eppendorf beteiligt waren, ist nun in der Fachzeitschrift Nature erschienen.
Normalerweise speichern Fettzellen Energie. In braunen Fettzellen dagegen verpufft sie dagegen als Wärme – braunes Fett dient uns also gewissermaßen als biologische Heizung. Unter kalten Bedingungen ist das nicht nur praktisch, sondern überlebenswichtig. Die meisten Säugetiere verfügen daher über diesen Mechanismus. Auch Menschen besitzen braunes Fett. Seine Aktivierung schützt zusätzlich vor Herz-Kreislauf-Erkrankungen.
„Heutzutage haben wir es aber selbst im Winter muckelig warm“, erklärt Prof. Dr. Alexander Pfeifer vom Institut für Pharmakologie und Toxikologie der Universität Bonn. „Unsere körpereigenen Verbrennungsöfen werden also kaum noch gebraucht.“ Gleichzeitig ernähren wir uns immer energiereicher und bewegen uns zudem weit weniger als unsere Vorfahren. Diese drei Faktoren sind Gift für braune Fettzellen: Sie stellen nach und nach ihre Funktion ein und sterben schließlich sogar ab. Andererseits nimmt die Zahl stark übergewichtiger Menschen weltweit immer weiter zu. „Weltweit suchen Arbeitsgruppen daher nach Wirkstoffen, die das braune Fett stimulieren und so die Fettverbrennung erhöhen“, sagt Pfeifer.
Sterbende Fettzellen kurbeln Verbrennung bei ihren Nachbarn an
Zusammen mit einer Gruppe von Kolleginnen und Kollegen hat nun das Team der Universität Bonn nun ein zentrales Molekül identifiziert, das dazu in der Lage ist. „Es ist bekannt, dass sterbende Zellen oft einen Mix aus Botenstoffen abgeben, die das Verhalten ihrer Nachbarn beeinflussen“, erläutert Dr. Birte Niemann aus Pfeifers Arbeitsgruppe. Zusammen mit ihrer Kollegin Dr. Saskia Haufs-Brusberg hat sie die zentralen Experimente der Studie geplant und durchgeführt. „Wir wollten wissen, ob das bei braunem Fett genauso ist.“
Die Forschenden untersuchten daher braune Fettzellen aus Mäusen, die sie stark gestresst hatten, so dass die Zellen quasi auf dem Weg in den Tod waren. „Dabei haben wir festgestellt, dass sie in großen Mengen ein Molekül namens Inosin ausschütten“, sagt Niemann. Interessanter war aber, wie intakte braune Fettzellen auf den molekularen Hilferuf reagierten: Sie wurden durch das Inosin (oder auch schlicht durch sterbende Zellen in ihrer Nähe) aktiviert. Der Signalstoff fachte also den Verbrennungsofen in ihnen an. Weiße Fettzellen wandelten sich zudem in ihre braunen Geschwister um. Mäuse, die sehr energiereiche Nahrung erhielten und gleichzeitig Inosin injiziert bekamen, blieben auch schlanker als ihre Artgenossen und waren vor Diabetes geschützt.
Eine wichtige Rolle scheint in diesem Zusammenhang der sogenannte Inosin-Transporter zu spielen: Dieses Protein in der Zellmembran transportiert Inosin in die Zelle und senkt so die Konzentration des Botenstoffs auf deren Außenseite. Das Signalmolekül kann so vermutlich nicht mehr seine verbrennungsfördernde Wirkung entfalten.
Medikament hemmt den Inosin-Transporter
„Es gibt ein Medikament, das eigentlich gegen Gerinnungsstörungen entwickelt wurde, aber auch den Inosin-Transporter hemmt“, sagt Pfeifer, der auch Mitglied in den Transdisziplinären Forschungsbereichen „Leben und Gesundheit“ sowie „Nachhaltige Zukunft“ an der Universität Bonn ist. „Wir haben es Mäusen verabreicht, die daraufhin mehr Energie verbrauchten.“ Auch wir verfügen über einen Inosin-Transporter. Bei zwei bis vier Prozent aller Menschen ist er durch eine genetische Veränderung weniger aktiv. „Unsere Kollegen an der Universität Leipzig haben 900 Personen genetisch analysiert“, erklärt Pfeifer. „Diejenigen mit dem weniger aktiven Transporter waren im Schnitt deutlich schlanker.“
Die Ergebnisse deuten darauf hin, dass Inosin auch bei uns die Verbrennung in braunen Fettzellen reguliert. Substanzen, die in die Aktivität des Transporters eingreifen, könnten sich daher möglicherweise zur begleitenden Behandlung einer Fettleibigkeit (Adipositas) eignen. Als Ausgangspunkt könnte der bereits zugelassene Wirkstoff gegen Gerinnungsstörungen dienen. „Es sind aber weitere Studien in Menschen nötig, um das pharmakologische Potential dieses Mechanismus zu klären“, meint Pfeifer. Auch glaubt er nicht, dass eine Pille allein die Lösung für die weltweit grassierende Adipositas-Pandemie sein wird. „Die verfügbaren Therapien sind aber momentan zu wenig wirksam“, betont er. „Wir brauchen daher unbedingt Medikamente, um den Energiehaushalt in adipösen Patienten zu normalisieren.“
Welche Schlüsselrolle dabei der körpereigenen Heizung zuerkannt wird, zeigt sich auch in einem neuen Großprojekt: Die Deutsche Forschungsgemeinschaft (DFG) hat kürzlich einen Transregio-Sonderforschungsbereich bewilligt, in dem die Universitäten Bonn, Hamburg und München zielgerichtet an braunem Fettgewebe forschen.
Förderung:
An der Studie waren die Universität sowie das Universitätsklinikum Bonn, das Universitätsklinikum Hamburg-Eppendorf, die Universität sowie das Universitätsklinikum Leipzig, das Helmholtz-Zentrum München und die Universität Texas beteiligt. Die Arbeiten wurden durch die Deutsche Forschungsgemeinschaft sowie das National Institute of Health (USA) finanziert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Alexander Pfeifer
Institut für Pharmakologie und Toxikologie
Universität Bonn
Tel. +49 228 28751300
E-Mail: alexander.pfeifer@uni-bonn.de
Originalpublikation:
Birte Niemann et al.: Apoptotic brown adipocytes enhance energy expenditure via extracellular inosine; Nature; https://doi.org/10.1038/s41586-022-05041-0
KI im Wassersektor – Umweltministerin unterzeichnet Kooperationsvertrag „DZW – Digitaler Zwilling Wasserwirtschaft“
Tanja Loch-Horn Referat für Öffentlichkeitsarbeit Umwelt-Campus
Hochschule Trier
Am 4. Juli 2022 unterzeichnete die rheinlandpfälzische Umweltministerin Katrin Eder an der Außenstelle des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Trier den Kooperationsvertrag für das Vorhaben „DZW – Digitaler Zwilling Wasserwirtschaft“. Die Hochschule Trier (Umwelt-Campus Birkenfeld) und das DFKI erforschen damit den Einsatz von KI-Methoden für Simulations- und Prognosemodelle in der Wasserwirtschaft.
Uneingeschränkten Zugang zu Frischwasser in Deutschland garantieren zu können, wird allgemein als Selbstverständlichkeit angesehen. Der Schein des glanzvollen Wassers trügt jedoch – insbesondere der Klimawandel und die Urbanisierung stellen für natürliche Ressourcen eine enorme Belastung dar. Auch die demographischen und gesellschaftlichen Veränderungen, politische Zielvorgaben in Bezug auf die Abwasserreinigung oder die energiebedingten CO2-Emissionen der Wasserversorgung gehören zu den vielen neuen Herausforderungen in der Wasserwirtschaft. Wasserwerke in der ganzen Nation stehen vor ähnlichen Fragestellungen. Variablen wie Größe, Besiedlungsdichte, Nutzungsarten, Topologie des Versorgungsgebiets und unterschiedliche Strukturen des Wasser- und Abwassernetzwerkes beeinflussen die Problematik. Neue und resiliente Lösungen müssen gefunden werden. Mit ingenieurstechnischem Höchstmaß und KI gelingt es, den intelligenten Umgang mit Wasser zu gewährleisten.
„Der effiziente und verantwortungsvolle Umgang mit natürlichen Ressourcen ist eine gesellschaftliche Verantwortung und ein entscheidender Beitrag zum Klimaschutz und zur Klimafolgenanpassung. Deshalb unterstützen wir die zukunftsweisende Forschung des DFKI und der Hochschule Trier in diesem Vorhaben. Der Erkenntnisgewinn und Wissenstransfer über digitale Zwillinge sind wegweisend für das Wasser 4.0“, betonte Umweltministerin Katrin Eder. „Die vehemente Fortführung der Digitalisierung der Wasserwirtschaft kann einen großen Beitrag dazu leisten, den neuen Herausforderungen gewachsen zu sein. Das Land Rheinland-Pfalz setzt entschieden auf das Thema KI für Umwelt und Nachhaltigkeit und unterstützt das DFKI deshalb seit mehr als 30 Jahren.“
Prof. Dr. Andreas Dengel, Geschäftsführender Direktor des DFKI in Kaiserslautern und KI-Botschafter des Landes Rheinland-Pfalz: „Die Nutzung von digitalen Zwillingen aus dem Bereich der Künstlichen Intelligenz wird industrielle Prozesse, so auch die Wasserwirtschaft, in den kommenden Jahren maßgeblich beeinflussen. Wir freuen uns, gemeinsam mit dem Umwelt-Campus Birkenfeld der Hochschule Trier einen weiteren essenziellen Forschungsbeitrag für eine nachhaltige und umweltfreundliche KI zu leisten. Wir sehen den Einsatz von KI für gesamtgesellschaftliche Herausforderungen als Teil der DFKI-Mission. Mit dem Kompetenzzentrum „DFKI4planet“ und verschiedenen Projekten aus dem breiten Spektrum der KI haben wir uns zum Ziel gesetzt, das große Potenzial intelligenter Technologien effektiv für Umweltschutz und Nachhaltigkeit einzusetzen.“
Die Präsidentin der Hochschule Trier, Prof. Dr. Dorit Schumann, ergänzt: „Digitalisierung und Nachhaltigkeit sind Schwerpunktthemen der Hochschule Trier und ich freue mich besonders, dass das ‚Lebenselixier Wasser‘ im Mittelpunkt der Kooperation steht.“
Projektleiter Prof. Dr. Ralph Bergmann erklärt: „Wir sehen eine große Entwicklungsmöglichkeit, mit Hilfe von erfahrungsbasierten Methoden auf Herausforderungen in der Wasserwirtschaft zu reagieren und mithilfe von Prognose- und Simulationsmodellen beweglich handlungsfähig zu sein. Als Ergebnis erhoffen wir uns, die Prozesse im Wassersektor zukünftig ressourcenschonender und resilient gegen Störungen gestalten zu können. Auf die gemeinsame Zusammenarbeit mit dem Umwelt-Campus freuen wir uns, da wir besonders den Wissenstransfer der Forschenden schätzen.“ Prof. Dr. Stefan Naumann, der seitens des Instituts für Softwaresysteme am Umwelt-Campus das Projekt leitet, sieht in dieser Kooperation erhebliche Chancen, „sowohl im informationstechnischen Bereich als auch im Anwendungsfeld der Wasser- und Energieeinsparung wissenschaftliche Fortschritte zu erzielen und diese auch in die Praxis zu überführen.“
In Anlehnung an der Initiative „Industrie 4.0“, prägt die „German Water Partnership“ den Begriff „Wasser 4.0“ zur Transformation bestehender industrieller Produktionsanlagen zu Cyber-Physical-Systems. Die optimale Vernetzung virtueller und realer Wassersysteme soll in Zukunft in der Wasserwirtschaft Anwendung finden und dabei Planung, Bau und Betrieb berücksichtigt werden. Die Kooperation zwischen der Hochschule Trier (Umwelt-Campus Birkenfeld) und dem DFKI hat unter anderem zum Ziel, gemeinsame Modellprojekte zu entwickeln. Für kommunale Entscheidungsträgerinnen und Entscheidungsträger können die gemeinsam erarbeiteten Ergebnisse als guter Ansatzpunkt für die Entwicklung von Maßnahmen dienen. Weiter soll das Potenzial der Entwicklung eines digitalen Zwillings in der Wasserwirtschaft exemplarisch konkretisiert werden.
Grundsätzlich wird Gegenstand dieser Kooperation sein:
– Die Referenzmodellentwicklung und Validierung „Digitaler Zwilling Wasserwirtschaft“.
– Anwendungsfälle für den Einsatz Künstlicher Intelligenz in der Wasserwirtschaft.
– Wissenschaftliche Begleitung von Projekten und Wissenstransfer.
GOOD TO KNOW | DIGITALE ZWILLINGE IN DER WASSERWIRTSCHAFT
Ein digitaler Zwilling ist ein virtuelles Abbild eines Produkts oder Prozesses, welches mit realen Daten versorgt wird. Bevor Ressourcen in der realen Welt eingesetzt werden, sind digitale Zwillinge von großem Nutzen. Mit ihnen kann das Unternehmen eine realistische Modellierung vornehmen und Produktionsprozesse optimieren und planen. Beispielsweise können Prognose- oder auch Simulationsmodelle mit digitalen Zwillingen angefertigt werden. So können Fehler bei der Verwaltung der Systeme gelöst oder auch verhindert werden. Beispiele hierfür sind die Ortung eines Lecks, die Energieeffizienz, die Wasserqualität, die Planung der Wartungsarbeiten und die frühzeitige Reaktion auf Notfälle. Häufige Fehler können finanzielle Verluste zur Folge haben und vielzählige Gefahren für das Unternehmen mit sich bringen. Umso sinnvoller ist die Anwendung der digitalen Zwillinge in der Wasserwirtschaft. Auf Basis von Echtzeitmodellierung und Wertschöpfung von Wasser- und Umweltdaten wird ein erfolgreicher Grundbaustein der Industrie 4.0 in den Wassersektor implementiert.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Naumann
06782 171217 | s.naumann@umwelt-campus.de
Wie die Gesellschaft über Risiko denkt
Noemi Kern Kommunikation
Universität Basel
Von Pandemien bis zur Kernenergie – die Welt ist voller Risiken. Psychologen der Universität Basel haben eine neue Methode entwickelt, mit der die Risikowahrnehmung innerhalb einer Gesellschaft ermittelt werden kann.
Ob es um Arbeit, Finanzen oder Gesundheit geht: Viele unserer alltäglichen Handlungen sind mit einem Risiko verbunden. Doch wie wird Risiko in einer Gesellschaft wahrgenommen und wie denkt der Einzelne darüber nach?
Das wollten Dr. Dirk Wulff und Prof. Dr. Rui Mata wissen, Forscher an der Fakultät für Psychologie der Universität Basel. «Risiko ist etwas, das viele Wissenschaftlerinnen und Wissenschaftler interessiert», sagt Dirk Wulff. «Jedoch definieren es Disziplinen wie die Psychologie, Soziologie und die Wirtschaftswissenschaften unterschiedlich.»
Gerade der Tatsache, dass die Bedeutung von Risiko je nach Zielsetzung und Lebenserfahrung von Individuum zu Individuum unterschiedlich sein kann, wurde laut Wulff bisher wenig Aufmerksamkeit geschenkt. Es sei jedoch wichtig zu verstehen, wie verschiedene Personen über Risiken denken, um beispielsweise die Einstellung zu neuen Technologien oder gesellschaftlichen Herausforderungen zu bewerten.
Risiko verbindet diametrale Enden des Gefühlsspektrums
Um dem auf den Grund zu gehen, haben die Forscher eine neue Methode entwickelt, die mit Wortassoziationen und algorithmischen Verfahren die Bedeutung von Risiko für verschiedene Gruppen und Einzelpersonen abbildet. Diese Methode ähnelt einem Schneeballsystem: Dabei wurden Teilnehmende aufgefordert, fünf Wörter zu nennen, die sie mit dem Begriff Risiko assoziieren, sowie fünf Wörter, die sie wiederum mit diesen Assoziationen verbinden. Mit dieser Methode befragten die Forscher eine landesweit repräsentative Stichprobe von 1205 Personen, in der Männer und Frauen sowie verschiedene Altersgruppen gleichermassen vertreten waren.
Aus den insgesamt 36’100 Assoziationen wurde mithilfe eines Algorithmus ein semantisches Netzwerk des Begriffs Risiko generiert, das folgende Komponenten aufweist: Bedrohung, Glück, Investment, Aktivitäten und Analyse. Am prominentesten wurde dabei das semantischer Cluster «Bedrohung» (Gefahr, Unfall, Verlust etc.) mit Risiko in Verbindung gebracht, dicht gefolgt von «Glück» (Profit, Spiel, Abenteuer). «In bisherigen Untersuchungen wurden meist die negativen Komponenten von Risiko betrachtet und dabei ausser Acht gelassen, dass durchaus auch positive Bewertungen damit verbunden sind», sagt Wulff.
Die Methode soll individuelle, aber auch gruppenspezifische Unterschiede in der Risikowahrnehmung erkennen. Dazu haben die Psychologen die Unterschiede zwischen Männern und Frauen und zwischen verschiedenen Altersgruppen untersucht. Allgemein fiel auf, dass Frauen und Männer sowie Menschen verschiedenen Alters ähnlich über Risiken denken. Dennoch ergaben sich Differenzen: Vor allem Ältere gegenüber Jüngeren und Frauen gegenüber Männern verbinden das Wort Risiko stärker mit Bedrohung und weniger mit Glück.
Kleine Unterschiede zwischen Sprachen
Ausserdem haben die Forscher die Frage gestellt: Denken Menschen aus verschiedenen Sprachregionen ähnlich über Risiko? Um das zu untersuchen, haben sie das auf Deutsch ermittelte semantische Netzwerk des Risikos mit dem von zwei anderen Sprachen, Niederländisch und Englisch, verglichen. Zwar gibt es kleine Unterschiede in der Häufigkeit. So wurde im Niederländischen Risiko eher mit Bedrohung und im Englischen stärker mit Vermögen in Verbindung gebracht. Doch deuten die Ergebnisse insgesamt daraufhin, dass es einige universelle Merkmale der Risikodarstellung gibt, die über die Sprache hinweg vergleichbar sind.
«Unsere Untersuchung hat ein neues Fundament geschaffen zu der Frage, wie Menschen über Risiko nachdenken», sagt Wulff. «Dies könnte wichtig sein, um besser zu verstehen, wie verschiedene gesellschaftliche Gruppen Risiken interpretieren und die gesellschaftliche Polarisierung durch bessere Risikokommunikationsstrategien zu bekämpfen.»
Wissenschaftliche Ansprechpartner:
Prof. Dr. Rui Mata, Universität Basel, Fakultät für Psychologie, Center for Cognitive and Decision Sciences, Tel. +41 61 207 06 11, E-Mail: rui.mata@unibas.ch
Dr. Dirk Wulff, Universität Basel, Fakultät für Psychologie, Center for Cognitive and Decision Sciences, Tel. +41 61 207 06 24, E-Mail: dirk.wulff@unibas.ch
Originalpublikation:
Dirk U. Wulff and Rui Mata
On the semantic representation of risk
Science Advances (2022), doi: 10.1126/sciadv.abm1883
KIT: Klimawandel und Landnutzungsänderungen begünstigen Hochwasserereignisse
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.
Auf rund 32 Milliarden Euro schätzt die deutsche Bundesregierung den Gesamtschaden der verheerenden Überschwemmungen im Juli 2021. Wie Niederschläge, Verdunstungsprozesse, Gewässer- und Abflussverhalten dieses Hochwasser begünstigten, haben Forschende des Karlsruher Instituts für Technologie (KIT) in zwei Studien untersucht. Um künftig besser auf solche Extremereignisse vorbereitet zu sein, raten sie dazu, bei Risikobewertungen die Landschaft und Flussverläufe, deren Veränderungen und den Sedimenttransport stärker zu berücksichtigen. Zukunftsprojektionen zeigen außerdem eine zunehmende räumliche Ausdehnung und Häufigkeit solcher Extremereignisse sowie erhöhte Niederschlagsmengen.
Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_067_kit-klimawandel-und-landnutzungsanderungen-b…
Das Hochwasser im Juli 2021 gehört zu den fünf schwersten und teuersten Naturkatastrophen der letzten 50 Jahre in Europa. Mehr als 180 Menschen verloren ihr Leben, weit über 10 000 Gebäude wurden beschädigt. Kritische Infrastrukturen wie Strom- und Wasserversorgungsnetze, Brücken, Bahnstrecken und Straßen wurden teilweise oder vollständig zerstört. Das Gesamtausmaß des Hochwassers am 14. und 15. Juli 2021 in der Eifel war auch für Expertinnen und Experten überraschend. Eine Kombination mehrerer Faktoren bedingte diese Katastrophe: „Wir haben untersucht, wie Niederschläge, Verdunstungsprozesse sowie Gewässer- und Abflussverhalten dieses Hochwasser begünstigt haben“, sagt Dr. Susanna Mohr, Geschäftsführerin des Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT, welche die Studie zusammen mit einem interdisziplinären Team aus mehreren Instituten des KIT erstellt hat.
Geschiebe erhöhte das Ausbreiten sowie die Auswirkungen des Hochwassers an der Ahr
An der Ahr bewegte sich die geschätzte Wasserabflussmenge 2021 in einer ähnlichen Größenordnung wie bei den historischen Hochwasserereignissen 1804 und 1910. Trotzdem lagen die Pegelstände 2021 an mehreren Orten deutlich höher. „Wir haben gesehen, dass sich die Art des Geschiebes – also Material, das durch ein Fließgewässer mittransportiert wird – erheblich verändert hat. Neben Abtragungen von Sedimenten und bereits vorhandenem Totholz hat der anthropogene, also vom Menschen verursachte Einfluss eine erhebliche Rolle gespielt“, sagt Mohr. „So haben sich etwa Fahrzeuge, Wohnwagen, Mülltonnen oder Baumaterialien an Brückenbereichen gestaut, was zu zusätzlichen Engpässen geführt und die Auswirkungen des Hochwassers weiter verschärft hat.“ Um zukünftig besser auf solche Ereignisse vorbereitet zu sein, sei es beim Hochwasserrisikomanagement notwendig, Landschaft, Infrastrukturen und Bebauung sowie Flussverläufe einschließlich deren Veränderungen und mögliche Sedimenttransporte in die Gefährdungsbeurteilung miteinzubeziehen.
Niederschlagsausmaß nicht einzigartig
Die Forschenden verglichen weiterhin das Niederschlagsereignis vom Juli 2021 mit historischen Niederschlagsaufzeichnungen: „Unsere Analysen zeigen, dass die beobachtete Gesamtniederschlagsumme mit zu den höchsten der letzten 70 Jahre in Deutschland zählt – und somit extrem, aber nicht einzigartig war“, sagt Dr. Florian Ehmele vom Institut für Meteorologie und Klimaforschung – Department Troposphärenforschung (IMK-TRO). „Die Niederschlagsereignisse, die beispielsweise zu den schweren Hochwassern in Berlin und Brandenburg 1978 oder an der Elbe 2002 geführt haben, waren sowohl hinsichtlich ihrer Niederschlagsintensität als auch ihrer Ausdehnung oder Lebensdauer deutlich stärker.“ Allerdings seien vergangene Niederschlagsereignisse, die mit dem im Juli 2021 vergleichbar sind, überwiegend im Osten und Süden von Deutschland und seltener im Westen beobachtet worden.
Simulationen zeigen: Klimawandel verstärkt künftige Hochwasserereignisse
Zusätzlich haben die Forschenden des KIT das Hochwasserereignis unter verschiedenen Klimarandbedingungen simuliert. „Die Intensität solcher Niederschlagsereignisse nimmt um circa sieben Prozent pro Grad Erwärmung zu. Die Simulationen zeigen, dass sich die Niederschlagsmenge bereits jetzt um elf Prozent gegenüber vorindustriellen Bedingungen erhöht hat“, sagt Dr. Patrick Ludwig, Leiter der Arbeitsgruppe „Regionale Klimamodellierung“ am IMK-TRO. „Bei fortschreitender globaler Erwärmung müssen wir also von einer weiteren Verstärkung des Niederschlags ausgehen.“ Aber nicht nur das sei zukünftig ein Problem: „Laut unserer Zukunftsprojektionen dehnen sich solche Extremereignisse zusätzlich sowohl räumlich als auch zeitlich aus und deren Häufigkeit nimmt zu“, prognostiziert Ludwig.
Risikokompetenz der Bevölkerung muss verbessert werden
Das schwere Hochwasser im Juli 2021 habe somit gezeigt, wie wichtig es ist, auf derartige Ereignisse vorbereitet zu sein und angemessen zu reagieren, so die Forschenden. Um die Resilienz, also die Widerstandfähigkeit im Falle von Katastrophen, zu erhöhen und somit Schäden und Opferzahlen zu verringern, gelte es daher, neben dem Gefahrenpotenzial auch die Verwundbarkeit von Systemen und soziale Aspekte miteinzubeziehen. Ein essenzieller Bestandteil von Resilienz sei dabei die Risikokompetenz der Bevölkerung, also das Wissen um angemessene und rasche Handlungsmöglichkeiten bei Eintritt einer Katastrophe.
Center for Disaster Management and Risk Reduction Technology (CEDIM)
Das CEDIM, eine interdisziplinäre Einrichtung des KIT, forscht zu Katastrophen, Risiken und Sicherheit. Ziel ist, natürliche und menschengemachte Risiken in einer sich rasch verändernden, von Bevölkerungswachstum, Urbanisierung und Klimawandel geprägten Welt genauer zu verstehen, früher zu erkennen und besser zu bewältigen. Dazu verbinden die Forschenden Risikoerfassung, Risikoanalyse, Risikomanagement und Risikokommunikation und entwickeln darauf aufbauend Konzepte zum Verbessern der Resilienz von Infrastrukturen und Versorgung. (swi)
Originalpublikationen
Susanna Mohr, Uwe Ehret, Michael Kunz, Patrick Ludwig, Alberto Caldas-Alvarez, James E. Daniell, Florian Ehmele, Hendrik Feldmann, Mário J. Franca, Christian Gattke, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Marc Scheibel, Frank Seidel, and Christina Wisotzky (2022): A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 1: Event description and analysis. Nat. Hazards Earth Syst. Sci. Discuss., https://doi.org/10.5194/nhess-2022-137, in review.
Patrick Ludwig, Florian Ehmele, Mário J. Franca, Susanna Mohr, Alberto Caldas-Alvarez, James E. Daniell, Uwe Ehret, Hendrik Feldmann, Marie Hundhausen, Peter Knippertz, Katharina Küpfer, Michael Kunz, Bernhard Mühr, Joaquim G. Pinto, Julian Quinting, Andreas M. Schäfer, Frank Seidel, and Christina Wisotzky: A multi-disciplinary analysis of the exceptional flood event of July 2021 in central Europe. Part 2: Historical context and relation to climate change. In finaler Vorbereitung für Nat. Hazards Earth Syst. Sci. Discuss.
Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
Weitere Informationen zum CEDIM: https://www.cedim.kit.edu
Kontakt für diese Presseinformation:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Sandra Wiebe, Pressereferentin, Tel.: +49 721 608-41172, E-Mail: sandra.wiebe@kit.edu
Originalpublikation:
https://doi.org/10.5194/nhess-2022-137, in review.
Weitere Informationen:
http://Zur Presseinformation vom 22. Juli 2021: https://www.kit.edu/kit/pi_2021_070_hochwasserrisiken-wurden-deutlich-unterschat…
http://Zum ersten Bericht des CEDIM zur Flutkatastrophe, Juli 2021: https://publikationen.bibliothek.kit.edu/1000135730
http://Weitere Informationen zum CEDIM: https://www.cedim.kit.edu
Positionspapier zur Energie- und Klimawende
Dr. Barbara Laaser (Pressestelle) Öffentlichkeitsarbeit/Pressestelle
Westfälische Hochschule
Sieben Instituts-Professoren des Westfälischen Energieinstituts (WEI) legen heute nach intensiver Forschungsarbeit ein Positionspapier zur Energie- und Klimawende vor. Unter dem Titel „Energie- und Klimawende zwischen Anspruch, Wunschdenken und Wirklichkeit“ kommen Heinz-J. Bontrup, Michael Brodmann, Christian Fieberg, Markus Löffler, Ralf-M. Marquardt, Andreas Schneider und Andreas Wichtmann zu den folgenden Befunden:
Gelsenkirchen. Die sich verschärfende Klimakrise kann nur durch eine verstärkte internationale Kooperation gelöst werden. Deutschland, mit einem Anteil von rund 2 % der weltweiten CO2-Emissionen, wird dazu nur einen marginalen Beitrag leisten können. Dennoch müssen wir als eines der reichsten Länder der Erde überproportionale Anstrengungen zur CO2-Neutralität unternehmen.
Die bisherigen Bemühungen waren dazu nicht in allen Bereichen hinreichend und die jetzt von der Ampel-Regierung neu ausgegebenen Ziele sind als hoch anspruchsvoll einzustufen. Das WEI sieht hier zum Erreichen der zukünftigen Ziele und dem dazu notwendigen weiteren Ausbau mit erneuerbaren Energien (EE) in Deutschland nicht unbeträchtliche Herausforderungen bei der Versorgungssicherheit mit Elektrizität. Dies gilt sowohl für die Flächen- und Energiespeicherbedarfe, genauso wie für die viel zitierten Wasserstoffszenarien. Der Ausbau mit EE muss auf jeden Fall von Brückentechnologien begleitet werden. Dazu zählen Erdgaskraftwerke im H2-ready-Format und/oder Biogasanlagen. Zusätzlich muss es zu einem wesentlich verbesserten Lastenverschiebungsmanagement und zum verstärkten Ausbau von Grenzkuppelkapazitäten kommen.
Die dabei zur Versorgungssicherheit womöglich dennoch auftretende zu geringe Menge an elektrischer Anschlussleistung mit Auslandsimporten zu lösen, sieht das WEI als problematisch an. Genauso wie die geforderte höhere Energieeffizienz sicher rational ist, ergeben sich aber auch hier mehr Fragen als Antworten. Dennoch wird Deutschland nach Einschätzung der Studie weiter ein Energieimportland bleiben. Selbst wenn für diesen Fall der Import von Kohle, Erdöl und Gas zukünftig verringert werden kann, so entsteht über den notwendigen riesigen Speicherbedarf an elektrischer Energie aus EE eine neue Importabhängigkeit von im Ausland regenerativ erzeugten Wasserstoff und Basiswerkstoffen für Batteriespeicher wie Kobalt und Lithium. Die deutsche Gasreserve würde im Falle einer reinen Wasserstoffwirtschaft nur noch 20 bis 30 Prozent der derzeitigen Erdgasreserve betragen können.
Will man hier im internationalen Austausch verhindern, dass vor allem die Schwellen- und Entwicklungsländer aufgrund ihrer schwierigen ökonomischen Herausforderungen ihre Energieversorgung über die – unter Vernachlässigen externer Effekte – kostengünstigen fossilen Energieträger decken, sondern mittel- bis langfristig aus eigener Kraft die Herausforderungen der Klimakrise angehen können, so sind diesbezüglich Exportmöglichkeiten für diese Länder zu schaffen. Da viele dieser Länder im Sonnengürtel der Erde liegen und enorme Windenergiepotenziale haben, bietet sich hier eine neue internationale Arbeitsteilung an, bei der dort grüner Wasserstoff erzeugt und nach Europa exportiert wird. Dazu müssen aber die reichen Länder entsprechende technische und finanzielle Unterstützungen bereitstellen.
Neben den vielfältigen und beträchtlichen Problemen bei der technischen Umsetzung der Energiewende in Deutschland müssen ebenso große sozioökonomische Herausforderungen bewältigt werden. Energie wird sich dauerhaft drastisch verteuern. Ohne Preissignale und eine Internalisierung negativer Effekte der konventionellen Energieerzeugung auf die Umwelt in die Kalkulationen wird es aber nicht zu notwendigen Verbrauchseinsparungen kommen.
Die unteren Einkommensschichten werden die Preiserhöhungen nur schwerlich stemmen können: Dies zeichnet sich bereits ab, selbst wenn Sondereffekte der Coronakrise und des Ukrainekriegs außen vorgelassen werden. Die politisch aufgesetzten Entlastungspakete der Regierung erweisen sich hier als halbherzig, nicht zielgenau und letztlich auch als ungeeignet, die Problematik dauerhaft zu lösen. Eine Symptompolitik und Sekundärverteilung sind hier nicht zielgerichtet und nur mit einer Beseitigung der Ursachen für niedrige Primäreinkommen angehbar. Es muss deshalb zu einer spürbaren Umverteilung zu Gunsten der Einkommensschwachen kommen. Dazu bedarf es zumindest einer verteilungsneutralen Tarifpolitik zwischen Gewerkschaften und Unternehmerverbänden.
Die für die Umsteuerung benötigten Investitionsbedarfe sind auf Grund der gesamtwirtschaftlichen Ersparnisse nicht das größte Problem der Umsetzung der Energiewende. Tatsächlich müssen dazu die hohen deutschen Exportüberschüsse reduziert werden, was nicht leicht sein wird, weil davon zwei Wirkungen ausgehen: Erstens ein beträchtlicher Transformationsprozess in der deutschen Industrie, nicht nur in der Automobilindustrie, und zweitens Anpassungsprozesse in den Importländern. Ein Großteil der für die Energiewendeinvestitionen notwendigen Finanzmittel würde dann binnenwirtschaftlich zum Einsatz kommen und nicht mehr wie heute, unsere Exportüberschüsse finanzieren. Das Ausland hätte dadurch aber auch weniger kreditbasierte Importmöglichkeiten. Alternativ oder ergänzend könnte hier mit deutschem Finanzkapital in den Schwellen- und Entwicklungsländern eine Infrastruktur aufgebaut werden, um damit EE-Strom und Wasserstoff zu produzieren und für diese Staaten in einer beiderseitigen Win-Win-Lösung eine neue Wohlstandsquelle aufzubauen.
Ohne Lenkung und Regulierung durch den Staat und Interventionen wird die Energiewende nicht umsetzbar sein. Überdies wird eine Verschuldung des Staates unumgänglich sein, was aber nur generationengerecht ist. Daher bedarf es einer Suspendierung der Schuldenbremse zugunsten einer an den Zukunftsinvestitionen orientierten Schuldenbegrenzung. Zudem werden die hohen Einkommen und Vermögen von einer wesentlich höheren Besteuerung betroffen sein. Ohne die ergänzende Wiedereinführung der 1997 ausgesetzten Vermögensteuer und einer höheren Erbschaftsteuer wird die Energie- und Klimawende ebenfalls nicht gelingen.
Das Positionspapier ist unter https://www.w-hs.de/wei/aktuelles/positionspapier-zur-energiewende abrufbar.
Autoren der Meldung und des Positionspapiers: Prof. Dr. Heinz-Josef Bontrup, Prof. Dr. Michael Brodmann, Prof. Dr. Christian Fieberg, Prof. Dr. Markus Löffler, Prof. Dr. Ralf-Michael. Marquardt, Prof. Dr. Andreas Schneider und Prof. Dr. Andreas Wichtmann.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Heinz-J. Bontrup, Telefon: 0160 944 799 84, E-Mail: bontrup@w-hs.de und Prof. Dr. Markus Löffler, Telefon: Tel. 0151 5115 0961, E-Mail: markus.loeffler@w-hs.de
Wissenschaftsjournalistischer Vortrag: Zahlen lügen nicht?
Marietta Fuhrmann-Koch Kommunikation und Marketing
Universität Heidelberg
Was bedeutet es, wenn der Deutsche im Durchschnitt mehr Geld verdient als ich? Verursacht der Verzehr von Eiscreme vor dem Baden tatsächlich mehr Ertrinkungsunfälle? Über die Bedeutung von Zahlen und Statistiken in der Berichterstattung geht es in einem Vortrag, den die renommierte Wissenschaftsjournalistin Prof. Dr. Ionica Smeets an der Universität Heidelberg halten wird. Die promovierte Mathematikerin ist im laufenden Sommersemester Nature Marsilius Gastprofessorin für Wissenschaftskommunikation; an der Universität Leiden hat sie eine Professur auf diesem Gebiet inne. Die Vortragsveranstaltung mit dem Titel „Lying with Numbers“ findet am 12. Juli 2022 im Marsilius-Kolleg statt.
Wissenschaftsjournalistischer Vortrag: Zahlen lügen nicht?
Veranstaltung mit Ionica Smeets, Nature Marsilius Gastprofessorin für Wissenschaftskommunikation an der Universität Heidelberg
Was bedeutet es, wenn der Deutsche im Durchschnitt mehr Geld verdient als ich? Verursacht der Verzehr von Eiscreme vor dem Baden tatsächlich mehr Ertrinkungsunfälle? Über die Bedeutung von Zahlen und Statistiken in der Berichterstattung geht es in einem Vortrag, den die renommierte niederländische Wissenschaftsjournalistin Prof. Dr. Ionica Smeets an der Universität Heidelberg halten wird. Die promovierte Mathematikerin ist im laufenden Sommersemester Nature Marsilius Gastprofessorin für Wissenschaftskommunikation; an der Universität Leiden hat sie eine Professur auf diesem Gebiet inne. Die englischsprachige Vortragsveranstaltung mit dem Titel „Lying with Numbers“ findet am Dienstag, 12. Juli 2022, im Marsilius-Kolleg, Im Neuenheimer Feld 130.1, statt. Beginn ist um 19.30 Uhr.
„Zahlen lügen nicht, aber sie können ein verzerrtes Bild der Wahrheit vermitteln“, betont Prof. Smeets. Die Nature Marsilius Gastprofessorin wird in ihrem Vortrag in eine Welt voller „überraschender Paradoxien, irreführender Diagramme und heiterer Logik“ entführen. Damit, so die Journalistin und Professorin für Wissenschaftskommunikation, möchte sie dazu beitragen, dass sich ihre Zuhörerinnen und Zuhörer künftig von vermeintlich klaren Zahlen und Statistiken nicht mehr so einfach täuschen lassen.
Die Nature Marsilius Gastprofessur ist eine gemeinsame Initiative von Holtzbrinck Berlin, der Klaus Tschira Stiftung und der Universität Heidelberg. Namhafte Expertinnen und Experten werden im Rahmen der Professur an die Universität eingeladen, um in eigenen Veranstaltungen zu vermitteln, was eine qualitativ hochwertige Berichterstattung über wissenschaftliche Arbeit und wissenschaftliche Erkenntnis ausmacht. Zugleich sollen die Gastprofessorinnen und Gastprofessoren eine breit angelegte Diskussion über neue Formen des Austauschs zwischen Wissenschaft und Öffentlichkeit anstoßen. Im Rahmen ihres Aufenthaltes an der Universität Heidelberg gestaltet Prof. Smeets verschiedene Workshops, etwa eine Veranstaltung zu der Frage, was einen guten populärwissenschaftlichen Vortrag ausmacht, um insbesondere junge Wissenschaftlerinnen und Wissenschaftler darin zu schulen, ihre Forschung einem breiten Kreis von Adressaten zu vermitteln und zum gesellschaftlichen Dialog beizutragen.
Ionica Smeets hat Angewandte Mathematik und Informatik an der Technischen Universität Delft (Niederlande) studiert und wurde 2010 mit einer Arbeit zum Thema „On continued fraction algorithms“ an der Universität Leiden promoviert. Dort ist sie seit 2015 als Professorin tätig und leitet in Leiden die Forschungsgruppe Wissenschaftskommunikation und Gesellschaft. Seit 2004 arbeitet sie als freiberufliche Journalistin unter anderem für die Zeitung „de Volkskrant“, in der auch eine wöchentliche Kolumne von ihr erscheint. Zugleich vermittelt sie in zahlreichen TV-Formaten wissenschaftliche Themen. Ionica Smeets hat darüber hinaus mehrere Bücher veröffentlicht, zuletzt ein Kinderbuch über Mathematik, das unter anderem mit dem niederländischen Literaturpreis „Zilveren Griffel“ ausgezeichnet wurde.
Kontakt:
Kommunikation und Marketing
Pressestelle
Tel. +49 6221 54-2311
presse@rektorat.uni-heidelberg.de
Weitere Informationen:
http://www.uni-heidelberg.de/de/transfer/kommunikation/nature-marsilius-gastprof…
Die Energielandschaft der Zukunft
Dr. Margareta Bögelein Pressestelle
Hochschule Coburg
Die heutigen Studierenden werden den Wandel gestalten – durch die Stärkung von Windkraft, Photovoltaik, Biomasse und neuer Energieübertragungs- und Speichersysteme.
Kohle, Öl, Gas: Fossile Brennstoffe sind Hauptursache der globalen Erderwärmung. Und sie sind teuer geworden. Deutlich offenbart der Russland-Ukraine-Krieg die Abhängigkeiten. Die Art der Energiegewinnung muss sich grundlegend ändern. Prof. Dr. Bernd Hüttl forscht und lehrt als Professor für erneuerbare Energien insbesondere im Bereich Photovoltaik. Er erklärt, wie die Energielandschaft der Zukunft aussehen wird – und warum wir dafür jetzt dringend gute Ingenieurinnen und Ingenieure brauchen.
Seit 50 Jahren wird über die Energiewende gesprochen – was fehlt denn noch?
Prof. Dr. Bernd Hüttl: Es gibt technische Themen, aber zuerst erfordert die Energiewende gesellschaftliche Akzeptanz, Umsetzungswillen und Betriebswirte, die clevere Finanzierungsmechanismen entwickeln. Das Erneuerbare-Energien-Gesetz mit der festen Vergütung für Strom aus erneuerbaren Energien war ein wichtiger Schritt. Es hat ganze Technologiezweige gefördert, so dass diese heute preiswert zur Verfügung stehen. PV-Strom großer Anlagen kostet heute in Deutschland nur noch 5 Cent/kWh. Andererseits hat das EEG den Strompreis in die Höhe getrieben, das muss nun geändert werden. Grüner Strom selbst ist inzwischen billig, der Vorteil muss an die Verbraucher zurückgegeben werden. Nur so kann das Stocken der Energiewende überwunden werden.
Und das hat sich jetzt geändert …
Jetzt passiert alles gleichzeitig. Der Atomausstieg ist noch immer Thema, die Abhängigkeit von Russland und die Preissteigerungen haben einen gesellschaftspolitischen Schock ausgelöst und der Klimawandel wird sichtbarer, spürbarer. Aber die Hektik, die nun entsteht, hätte nicht sein müssen. Stöhnend fragen die energieintensiven Industriezweige: Können wir schnell was machen? Nein, schnell können wir nichts machen. Es gibt technische Lösungen, aber da fehlt noch einiges an Entwicklung, damit die Lösungen preiswert werden. Erst das macht Technologien zukunftsfähig. Dafür braucht’s eine Anschubfinanzierung. Und gute Ingenieurinnen und Ingenieure, die wir ausbilden.
Was sind die Themen der Ingenieurinnen und Ingenieure?
Die Energielandschaft der Zukunft. Sie ist dezentral. Zum Beispiel sind Genossenschaften im Bereich der Windenergie stark im Kommen, weil die Menschen vor Ort etwas davon haben und nicht nur die großen Konzerne. Photovoltaik hat große Bedeutung, aber auch Geothermie und Wasserkraft leisten einen Beitrag. Und all die kleinen dezentralen Versorgungseinheiten müssen intelligent, smart, miteinander vernetzt sein, denn die Anforderungen an die Netze sind ganz anders als früher. „Zappelenergie“ nennen es manche, wir sagen volatile Stromerzeugung; das ist ingenieurtechnisch exakt. Die Netze müssen stabilisiert werden, und man muss Energie zwischenspeichern, damit sie greifbar ist, wenn es die sogenannte Dunkelflaute gibt. Kollegen an der Hochschule forschen und lehren auch die Themen Smart Grid und Wasserstofftechnik, außerdem wird man künftig Gas aus erneuerbaren Energien herstellen. Die Speicherung macht Energie teuer. Deshalb müssen wir an allen Stellen daran arbeiten, das weiterzuentwickeln und da gibt es auch spannende Berufsfelder für unsere Absolventinnen und Absolventen.
Was studieren diejenigen, die die Energielandschaft der Zukunft gestalten?
Es gibt natürlich junge Leute, die auf die Straße gehen und den Wandel fordern und zum Beispiel Politikwissenschaft studieren. Aber es gibt auch diejenigen, die sagen: Wenn die Probleme technisch sind, muss ich da ansetzen. Die sind bei uns richtig. Die Hochschule Coburg gehört zum Netzwerk „Study Green Energy und wir sind in allen Bereichen sehr praxisorientiert ausgerichtet, das reicht von kleinen Studierendenprojekten bis zur Promotion. In unserem Bachelorstudiengang Energietechnik und Erneuerbare Energien steht die Speicherung und Verteilung der Erneuerbaren Energie im Mittelpunkt. Aber auch die Studienrichtung Energieeffizientes Gebäudedesign im Bachelor-Studiengang Bauingenieurwesen und der Master-Studiengang ressourceneffizientes Planen und Bauen (Bauingenieurwesen) sind auf die Energiewende ausgerichtet. Die Bewerbungsphase für’s Wintersemester an den Studiengängen der Hochschule läuft. Weitere Informationen darüber gibt es auf der Webseite www.hs-coburg.de.
Interview: Natalie Schalk
Neue Omikron-Untervarianten BA.2.12.1, BA.4 und BA.5 werden schlechter durch Antikörper gehemmt
Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Infektionen mit den „alten“ Omikron-Untervarianten BA.1 und BA.2 schützen kaum vor der für die Sommerwelle verantwortlichen SARS-CoV-2-Untervariante BA.5
Die Omikron Untervarianten BA.1 und BA.2 des SARS-CoV-2 haben die COVID-19 Pandemie im Frühjahr 2022 dominiert. In vielen Ländern werden diese Viren nun durch neue Untervarianten verdrängt. In Deutschland breitet sich derzeit die Untervariante BA.5 stark aus und führt zu einem Anstieg der Fallzahlen. Bislang war es jedoch noch unklar, ob die Untervarianten BA.2.12.1, BA.4 und BA.5 die vorherrschenden Varianten aufgrund einer gesteigerten Übertragbarkeit verdrängen oder ob sie möglicherweise weniger gut durch Antikörper gehemmt werden. Eine Studie von Forschenden des Deutschen Primatenzentrums (DPZ) – Leibniz-Institut für Primatenforschung, der Medizinischen Hochschule Hannover und der Friedrich-Alexander-Universität Erlangen-Nürnberg zeigt, dass die meisten therapeutischen Antikörper die Omikron Untervarianten BA.2.12.1, BA.4 und BA.5 nur schwach oder gar nicht hemmen. Lediglich der Antikörper Bebtelovimab blockierte alle getesteten Varianten mit hoher Effizienz. Außerdem zeigt die Studie, dass die Omikron Untervarianten BA.2.12.1 und insbesondere BA.4 und BA.5 schlechter als ihre Vorgänger BA.1 und BA.2 durch Antikörper gehemmt werden, die nach einer Impfung oder einer Impfung gefolgt von einer Infektion gebildet wurden. Somit handelt es sich bei BA.2.12.1, BA.4 und BA.5 um Immunflucht-Varianten. Eine durchlaufene Infektion mit „alten“ Omikron Untervarianten verleiht nur einen eingeschränkten Schutz gegen eine Infektion mit „neuen“ Untervarianten (The Lancet Infectious Diseases).
SARS-CoV-2 Varianten entstehen, weil das Virus bei seiner Vermehrung Fehler macht. Diese Fehler führen zu Mutationen, die die viralen Proteine verändern, einschließlich des Oberflächenproteins Spike, das den zentralen Angriffspunkt für die Antikörperantwort darstellt. Führen diese Mutationen zu einer schlechteren Bindung von Antikörpern an das Spike-Protein, können sich diese Varianten auch in Bevölkerungen ausbreiten, die infolge von Impfung oder Impfung und zurückliegender Infektion bereits immunisiert wurden.
Die Infektionsbiolog*innen am Deutschen Primatenzentrum haben sich auf die Analyse der Hemmung von SARS-CoV-2 durch Antikörper spezialisiert. Zusammen mit Forschenden von der Medizinischen Hochschule Hannover und der Friedrich-Alexander-Universität Erlangen-Nürnberg haben sie untersucht, wie die neuen SARS-CoV-2 Omikron-Untervarianten durch Antikörper gehemmt werden. BA.2.12.1 und BA.4/BA.5 – das Spike-Protein dieser Varianten ist identisch – sind in vielen Ländern auf dem Vormarsch und BA.5 ist wesentlich für den Anstieg an Infektionen in Deutschland verantwortlich.
Das Team um Prerna Arora, Markus Hoffmann und Stefan Pöhlmann fand heraus, dass von zehn Antikörpern, die für die COVID-19 Therapie entwickelt wurden, nur zwei die Infektion mit BA.2.12.1, BA.4 und BA.5 zumindest teilweise hemmten und dass lediglich ein Antikörper, Bebtelovimab (LY-CoV1404), die Infektion mit allen Omikron-Untervarianten wirksam blockierte. „Diese Ergebnisse bestätigen einen Trend, der sich bereits in unseren früheren Studien gezeigt hat: Omikron-Untervarianten werden durch die meisten therapeutischen Antikörper nicht gut gehemmt und die wenigen Antikörper, die gute Hemmung zeigen, sind häufig gegen eine Untervariante aktiv, aber nicht gegen eine andere. Es ist daher wichtig, dass zeitnah neue Antiköper für die Therapie entwickelt werden, um für zukünftige Varianten gut gerüstet zu sein“, so Prerna Arora, Erstautorin der Studie.
Antikörper von ungeimpften Personen, die sich im Frühjahr mit den Omikron-Untervarianten BA.1 oder BA.2 infiziert hatten blockierten zwar auch BA.2.12.1, waren aber gegen BA.4 und BA.5 kaum aktiv. Es ist daher davon auszugehen, dass eine durchgemachte Infektion mit BA.1 oder BA.2 nur einen geringen Schutz vor einer nachfolgenden Infektion mit BA.4 oder BA.5 bietet. Die Antikörperantwort nach einer Grundimmunisierung und Booster-Impfung mit dem mRNA-Impfstoff von BioNTech/Pfizer hemmte alle Omikron Untervarianten, allerdings war die Hemmung deutlich geringer als die des Ursprungsvirus, das sich zu Beginn der Pandemie ausgebreitet hat. Zudem zeigte sich, dass BA.2.12.1, BA.4 und BA.5 weniger effizient gehemmt wurden als BA.1 und BA.2. Ähnliche Ergebnisse wurden auch für Antikörper erhalten, die nach Impfung und anschließender Durchbruchinfektion gebildet wurden. Auch wenn diese sogenannte Hybrid-Immunität zu einer besonders starken Hemmung aller getesteten Varianten führte, war die Hemmung von BA.2.12.1, BA.4 und BA.5 deutlich reduziert.
„BA.2.12.1 sowie insbesondere BA.4 und BA.5 sind Antikörperfluchtvarianten. Die Impfung wird dennoch vor einem schweren Verlauf schützen, der Schutz wird jedoch wahrscheinlich etwas geringer ausfallen als bei den vorher zirkulierenden Varianten“, schließt Markus Hoffmann, Letztautor der Studie. „Unsere zukünftigen Studien müssen zeigen, ob BA.2.12.1 und BA.4 und BA.5 nicht nur schlechter durch Antikörper gehemmt werden, sondern auch Lungenzellen besser infizieren. Wenn das der Fall sein sollte, ist ein Anstieg der Hospitalisierungen nicht auszuschließen. Allerdings wurde ein solcher Effekt zumindest in Südafrika, wo BA.4 und BA.5 zuerst nachgewiesen wurden, bislang noch nicht beobachtet“, sagt Stefan Pöhlmann, der die Studie gemeinsam mit Markus Hoffman geleitet hat.
Originalpublikation
Augmented neutralisation resistance of emerging omicron subvariants BA.2.12.1, BA.4, and BA.5. P. Arora, A. Kempf, I. Nehlmeier, S. R. Schulz, A. Cossmann, M. V. Stankov, H.-M. Jäck, G. M. N. Behrens, S. Pöhlmann, M. Hoffmann (2022). The Lancet Infectious Diseases. DOI: https://doi.org/10.1016/S1473-3099(22)00422-4
Kontakt und Hinweise für Redaktionen
Prof. Dr. Stefan Pöhlmann
Tel: +49 (0) 551 3851-150
E-Mail: spoehlmann@dpz.eu
Dr. Markus Hoffmann
Tel: +49 (0) 551 3851-338
E-Mail: mhoffmann@dpz.eu
Susanne Diederich (Kommunikation)
Tel.: +49 (0) 551 3851-359
E-Mail: sdiederich@dpz.eu
Druckfähige Bilder finden Sie unter folgendem Link:
http://medien.dpz.eu/pinaccess/showpin.do?pinCode=BzjZyFjR8oV1
Die Deutsches Primatenzentrum GmbH (DPZ) – Leibniz-Institut für Primatenforschung betreibt biologische und biomedizinische Forschung über und mit Primaten auf den Gebieten der Infektionsforschung, der Neurowissenschaften und der Primatenbiologie. Das DPZ unterhält außerdem vier Freilandstationen in den Tropen und ist Referenz- und Servicezentrum für alle Belange der Primatenforschung. Das DPZ ist eine der 97 Forschungs- und Infrastruktureinrichtungen der Leibniz-Gemeinschaft.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Stefan Pöhlmann
Tel: +49 (0) 551 3851-150
E-Mail: spoehlmann@dpz.eu
Dr. Markus Hoffmann
Tel: +49 (0) 551 3851-338
E-Mail: mhoffmann@dpz.eu
Originalpublikation:
Augmented neutralisation resistance of emerging omicron subvariants BA.2.12.1, BA.4, and BA.5. P. Arora, A. Kempf, I. Nehlmeier, S. R. Schulz, A. Cossmann, M. V. Stankov, H.-M. Jäck, G. M. N. Behrens, S. Pöhlmann, M. Hoffmann (2022). The Lancet Infectious Diseases. DOI: https://doi.org/10.1016/S1473-3099(22)00422-4
Weitere Informationen:
http://medien.dpz.eu/pinaccess/showpin.do?pinCode=BzjZyFjR8oV1 Druckfähige Bilder
https://www.dpz.eu/de/aktuelles/pressemitteilungen/einzelansicht/news/neue-omikr… Pressemitteilung
Studien zu Essstörungen: Gen beeinflusst Gewicht und Magersucht
Dr. Milena Hänisch Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Neben Umweltfaktoren beeinflussen auch die Gene die Wahrscheinlichkeit, an einer Essstörung zu erkranken. Wissenschaftler:innen der Medizinischen Fakultät der Universität Duisburg-Essen (UDE) haben nun jeweils fast 200 Proband:innen untersucht, die entweder von einer Magersucht (Anorexia nervosa) oder extremem Übergewicht betroffen waren. Beim Vergleich genetischer Marker fiel vor allem ein Gen auf, von dem gleich 25 Varianten identifiziert werden konnten: das Gen für PTBP2. Dieses Gen könnte vor allem bei Männern einen ausgeprägten Einfluss auf die Regulierung des Körpergewichts haben. Die Forscher:innen haben ihre Erkenntnisse kürzlich in Translational Psychiatry veröffentlicht.*
„PTBP2 scheint das Körpergewicht und die Magersucht gleichermaßen zu beeinflussen“, erklärt Prof. Dr. Anke Hinney, Leiterin der Forschungsabteilung Molekulargenetik an der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Kindes- und Jugendalters des LVR-Klinikums Essen. „Eine frühere Studie hat gezeigt, dass die Expression von PTBP2 bei Patient:innen mit Adipositas höher ist als bei normalgewichtigen Kontrollpersonen.
Die Forschenden kommen zu dem Schluss, dass PTBP2 mit vielen weiteren Genen in Wechselwirkung steht, die entscheidend für die Regulierung des Körpergewichts sind. Bei Männern dürfte PTBP2 zudem eine größere Rolle spielen, vermuten die Autor:innen, weil bei ihnen eine größere Zahl an Varianten für die Gewichtsregulation relevant ist als bei Frauen.
Yiran Zheng, Doktorandin in der Molekulargenetik, betont, dass es keinen unmittelbaren Zusammenhang zwischen den beschriebenen genetischen Veränderungen und der Entwicklung einer Essstörung gibt: „Darüber entscheidet nicht nur ein einziges Gen. Aber wir wissen, dass sowohl Anorexia nervosa, also Magersucht, als auch ein hoher BMI in hohem Maße vererbbar sind. Deshalb ist PTBP2 für uns ein weiterer Ansatzpunkt, um die genetischen Faktoren genauer zu betrachten.“
Redaktion: Dr. Milena Hänisch, Medizinische Fakultät, Tel. 0201/723-1615, milena.haenisch@uk-essen.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Anke Hinney, Leiterin der Forschungsabteilung Molekulargenetik, Klinik f. Psychiatrie, Psychosomatik und Psychotherapie des Kindes- und Jugendalters/LVR-Klinikum Essen, Tel. 0201/7227-342, anke.hinney@uni-due.de
Originalpublikation:
PTBP2 – a gene with relevance for both Anorexia nervosa and body weight regulation
https://pubmed.ncbi.nlm.nih.gov/35680849/
Sicheres Trinkwasser auch für entlegene Gebiete – Projekt zur Entwicklungshilfe gestartet
Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Verfügbarkeit von sauberem und sicherem Trinkwasser ist in vielen Teilen der Erde alles andere als selbstverständlich. Seine Beschaffung beschäftigt viele Millionen Menschen tagtäglich und ist oft mit erheblichen Strapazen und Gefahren verbunden. Sauberes Trinkwasser ist nicht nur lebensnotwendig, sondern es leistet einen Beitrag zur kulturellen und sozialen Entwicklung insbesondere abgelegener Regionen. Im Projekt LEDSOL entwickelt das iso-Institut in Saarbrücken im Verbund mit internationalen Partnern ein portables Wasserreinigungssystem für Menschen in entlegenen Regionen, die keinen Zugang zu sauberem Wasser haben.
Durch politische Krisen und Naturkatastrophen wird die wirtschaftliche und soziale Entwicklung vieler Regionen dieser Welt behindert. Insbesondere die Folgen des Klimawandels sind spürbar: Andauernde Dürreperioden bedrohen vor allem die ärmsten Regionen der Erde und zwingen nicht selten die Menschen zur Flucht aus ihrer Heimat. Das Menschenrecht auf Zugang zu sauberem Wasser ist in diesen Gebieten meist nicht gewährleistet. Das LEDSOL-Projekt entwickelt vor diesem Hintergrund ein handliches, tragbares und zuverlässiges Wasserreinigungssystem, mit dem Menschen in entlegenen Regionen sauberes Wasser gewinnen können. Mittelbar sollen so der Alltag der Menschen vereinfacht, gesundheitliche Risiken reduziert und gesellschaftliche Entwicklung ermöglicht werden. Die Wasserreinigung basiert auf einer nachhaltigen UV/LED-Technologie, die Strom aus Solarzellen gewinnt, und reduziert so den ökologischen Fußabdruck des Systems auf ein Minimum.
Ein multidisziplinäres Projektkonsortium mit Forschungspartnern aus Europa und Afrika entwickelt das LEDSOL-System mit Förderung der europäischen Kommission im Rahmen des LEAP-RE Cofund Calls. Beteiligt sind dabei neben dem Saarbrücker Institut für Sozialforschung und Sozialwirtschaft (iso) die Partner des Centrul IT pentru Stiinta si tehnologie SRL in Rumänien (CITST), der Tampere University in Finnland (TAU) und die afrikanischen Partner des Laboratory of Applied Hydrology and Environment of University of Lomé (LOME), Togo sowie der Unité de Développement des Equipements Solaires /EPST- Centre de Développement des Energies Renouvelables (UDES / EPST-CDER) mit Sitz in Tipaza, Algerien.
Bei der Systementwicklung stehen die Nutzenden im Fokus und sie werden von Beginn an mit in den Entwicklungsprozess einbezogen. Zur optimalen Anpassung der Dekontaminationsanlage an die Bedarfe und Gewohnheiten der Menschen werden die Systemanforderungen mit sozialwissenschaftlichen Methoden vor Ort in Algerien und Togo erhoben und evaluiert. Die Ergebnisse fließen in die Technikentwicklung ein und werden in Pilottestungen auf ihre Tauglichkeit überprüft. Darüber hinaus wird ein Businessplan entwickelt, um in der Breitennutzung einen kosteneffizienten, niedrigschwelligen und flächendeckenden Zugang zum Wasserreinigungssystem zu gewährleisten.
Wissenschaftliche Ansprechpartner:
Kathrin Bierwirth
bierwirth@iso-institut.de
Norwegische Wasserkraft im treibhausgasneutralen Europa: Das Projekt HydroConnect
Uwe Krengel Pressestelle
Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE
Wasserkraft ist ein wesentlicher Bestandteil des norwegischen Energiesystems. Im Rahmen des HydroConnect-Projekts wird untersucht, ob und wie die norwegische Wasserkraft einen Beitrag zum Klimaschutz in Europa leisten kann. HydroConnect ist ein Verbundprojekt vom Fraunhofer-Institut für Energiewirtschaft und Energiesystemtechnik IEE, der norwegischen Forschungsorganisation SINTEF Energy Research, der Norwegian University of Science and Technology (NTNU) und der University of Trento. HydroConnect wird vom Norwegian Research Council mitfinanziert.
Um das Ziel der Klimaneutralität in Europa bis 2050 zu erreichen, ist ein erheblicher Ausbau der variablen erneuerbaren Stromerzeugung erforderlich. Daher stehen die europäischen Strom- und Energiesysteme vor mehreren grenz- und sektorenübergreifenden Herausforderungen, insbesondere um diesen Übergang effektiv und effizient zu ermöglichen. HydroConnect analysiert dazu die Auswirkungen der Nutzung norwegischer Wasserkraft und wie diese zum Ausgleich variabler erneuerbarer Energiequellen eingesetzt werden kann.
Die Rolle norwegischer Wasserkraft für den Klimaschutz
Die norwegischen Wasserkraftsysteme verfügen über eine große Speicherkapazität in bestehenden Wasserreservoiren. Basierend auf den Ergebnissen des Projekts HydroBalance und den Szenarien zum Energiesystem aus dem Projekt openENTRANCE bewertet HydroConnect die Auswirkungen der norwegischen Wasserkraftsysteme auf die Bereitstellung von Flexibilität für das europäische Stromsystem. Ein besonderer Fokus liegt hierbei auf den Treibhausgasemissionen in Europa, den Strompreisen in Norwegen und Europa sowie den Umweltauswirkungen auf norwegische Stauseen und Flüsse. Anhand verschiedener Szenarien für die Entwicklung des Stromnetzes und insbesondere der Interkonnektoren wird so untersucht, ob norwegische Wasserkraft einen wesentlichen Beitrag zum Klimaschutz in Europa leisten kann.
Das Fraunhofer IEE setzt hierfür Modellierungs- und Optimierungswerkzeuge für die mittel- bis langfristigen Szenarioentwicklungen ein. „Konkret haben wir unser Energiesystemmodell SCOPE Scenario Development (SCOPE SD) genutzt, um relevante europäische Energieszenarien für die norwegische Wasserkraft zu entwickeln. Hierbei verwenden wir unter anderem ein detailliertes Wasserkraftmodell und untersuchen verschiedene Szenariovarianten, um die Rolle der Wasserkraft in zukünftigen europäischen Energieszenarien zu analysieren und die prägenden Unsicherheiten der Zukunft widerzuspiegeln“, so Dr. Philipp Härtel, Leiter des Projektes am Fraunhofer IEE.
Insgesamt hat das Projektteam 15 verschiedene Szenarien analysiert. In einem mittelfristigen Szenario, das für 2030 entwickelt wurde, werden die Treibhausgasemissionen im Vergleich zu 1990 um 55 Prozent reduziert. In den langfristigen Szenarien für 2050 wird Europa als treibhausgasneutrales System modelliert, sodass weniger Treibhausgase produziert als vom System absorbiert werden.
Die Abbildung von Multireservoir-Wasserkraftsystemen in Europa basiert auf der internen Datenbank des Fraunhofer IEE. Diese umfasst die Wasserkraftwerks- und Reservoirparameter von über 850 Wasserkraftsystemen in Europa. Neben anlagen- und speicherspezifischen Daten enthält die Datenbank auch komplexe hydraulische Verbindungen und Kopplungen individueller Becken sowie Informationen über die grenzüberschreitende Marktteilnahme. Die Parameter der Wasserkraftsysteme in Norwegen wurden in enger Abstimmung mit SINTEF und auf Basis der vorhandenen detaillierten Modelle aktualisiert.
Ergebnisse bieten Raum für weiterführende Forschung
Einer der nächsten unmittelbaren Schritte ist der Transfer der Ergebnisdaten aus dem Energiesystemmodell SCOPE SD zu den nachgelagerten Modellen bei SINTEF und NTNU über die openENTRANCE-Nomenklatur. Insbesondere werden die Ergebnisdaten von SCOPE SD genutzt, um den Einsatz der norwegischen Wasserkraft mit dem Modell FanSI noch detaillierter zu analysieren.
Mit dem etablierten Modellaufbau und der geschaffenen Modell-Verknüpfung ist es möglich, neue Sensitivitäten auf Basis der betrachteten Referenzfälle zu untersuchen. In Anbetracht der aktuellen politischen Debatte könnten zusätzliche Sensitivitäten in Bezug auf Offshore-Energie-Inseln oder künftige Wasserstoff- und E-Fuel-Importpreisunsicherheiten neue Erkenntnisse liefern.
Wissenschaftliche Ansprechpartner:
Dr. Philipp Härtel, Fraunhofer IEE
Weitere Informationen:
https://www.iee.fraunhofer.de/de/presse-infothek/Presse-Medien/2022/norwegische-…
Das Neun-Euro-Ticket: Eine Chance für Menschen in Armut. Verkehrswissenschaftler der TU Hamburg führen Befragung
durchFranziska Trede Presse- und Öffentlichkeitsarbeit, PressestelleTechnische Universität Hamburg
Seit dem 1. Juni können Fahrgäste bis Ende August für neun Euro im Monat bundesweit auf allen Strecken und in allen Verkehrsmitteln des Öffentlichen Personennahverkehrs (ÖPNV) reisen. Das verlockende Angebot hat auch seine Schwachstellen. So die Einschätzung von Christoph Aberle, Doktorand und Wissenschaftlicher Mitarbeiter am Institut für Verkehrsplanung und Logistik an der Technischen Universität Hamburg. Dort erforscht er den Zusammenhang von sozialer Exklusion und Mobilität. Mit einer qualitativen Befragung in Zusammenarbeit mit dem Hamburger Verkehrsverbund (hvv) möchten er und sein Team herausfinden, welche Auswirkungen das kurzfristige Angebot auf einkommensschwache Menschen hat.
Armut schränkt Mobilität ein
Bis Juli befragen Aberle und zwei Masteranden rund 30 Personen, denen monatlich weniger als 900 Euro netto im Monat zur Verfügung steht. Die TU-Forschenden möchten herausfinden, ob diese Menschen mithilfe des 9-Euro-Tickets verstärkt am öffentlichen Leben teilnehmen. Ihre bisherige Erkenntnis: Einkommensarme Menschen fahren kürzere Strecken und sind seltener unterwegs als Menschen mit höherem Einkommen.
Herr Aberle, was erhoffen Sie sich von der qualitativen Befragung?
Wir wollen die Daten aus quantitativen Befragungen, beispielsweise des Verbands Deutscher Verkehrsunternehmen, mit einem Fokus auf Menschen in Armut ergänzen. Die Antworten der Betroffenen helfen uns, soziale Ausgrenzung besser zu verstehen und daraus politische Maßnahmen zu entwickeln. Unser Ziel ist es, Mobilitätsarmut zu bekämpfen und Möglichkeitsräume für Betroffene zu eröffnen und zu erweitern.
Denken Sie, dass Menschen mit geringerem Einkommen den ÖPNV durch das 9-Euro-Ticket verstärkt nutzen?
Eindeutig ja. Eine Person, die „Hartz IV“ bekommt, hat nur 41 Euro im Monat für den Verkehr zur Verfügung. Die Mehrheit der Betroffenen überschreitet dieses Budget fast um das Doppelte. Demzufolge ist der ÖPNV für die meisten Menschen in Armut schlichtweg zu teuer. Zwar gibt es Möglichkeiten, für kleines Geld in Städten wie Hamburg mobil zu sein, dann muss ich mich aber den Sperrzeiten und Zonengrenzen unterordnen. Wir erwarten, dass viele Einkommensarme mit dem 9-Euro-Ticket sowohl in ihrem Alltag als auch in ihrer Freizeit verstärkt Bus und Bahn nutzen. Wobei der Tarif ja für alle hoch attraktiv ist.
Sollte es das 9-Euro-Ticket dann nicht dauerhaft geben?
Einkommensarme Menschen werden durch die kurzfristige Maßnahme deutlich entlastet. Sie können sich, was für viele Menschen selbstverständlich ist, uneingeschränkt und sorglos im Nahverkehr fortbewegen. Hier sehe ich einen absoluten Gewinn an Teilhabechance, den es zu verstetigen gilt, und zwar spezifisch für diese Zielgruppe. Allgemein bewerte ich das 9-Euro-Ticket aus zwei Gründen kritisch. Erstens verfolgt diese kurzfristige Maßnahme keine strategischen Ziele. So bleibt etwa der Individualverkehr gegenüber dem ÖPNV weiterhin attraktiv – zumal gleichzeitig die Energiesteuer gesenkt wurde, die ohnehin durch die Inflation stetig an Wert verliert. Ein finanzieller Anreiz, mittelfristig den Autoschlüssel gegen die Abokarte einzutauschen, fehlt. Dabei bräuchten wir so eine strategische Rahmensetzung, um unsere Klimaziele einzuhalten. Zweitens kann der pauschal günstige Preis die Botschaft transportieren, dass die Bereitstellung von Personenbeförderung ohne Aufwand erfolgt. Das ist schön für den einzelnen Fahrgast – aber ein falsches Signal, wenn es eigentlich darum gehen sollte, den Energiebedarf unserer Verkehrssysteme und Siedlungsstrukturen zu senken.
Weitere Informationen zum Thema Mobilität und soziale Ausgrenzung unter www.stadtarmmobil.de sowie unter www.mobileinclusion.de.
Wissenschaftliche Ansprechpartner:
Christoph Aberle M.Sc.
Technische Universität Hamburg
Institut für Verkehrsplanung und Logistik
E-Mail: christoph.aberle@tuhh.de
Weitere Informationen:
http://www.mobileinclusion.de
Besser vorbereitet sein auf Starkregen und Sturzfluten
Peter Kuntz Kommunikation & Marketing
Universität Trier
Die Universität Trier ist an einem Verbundprojekt beteiligt, das den Einsatz von Notabflusswegen während Wasser-Extremereignissen erforscht.
Starkregen und daraus entstehende Sturzfluten gab es in den letzten Jahren immer häufiger. Sie haben zu großen Schäden an der Infrastruktur und vereinzelt sogar zu Verletzten und Todesopfern geführt. Sogenannte Notabflusswege stellen eine Möglichkeit dar, Wassermengen möglichst schadlos durch Wohngebiete abzuleiten. Mit ihnen befasst sich das Verbundforschungsprojekt „Urban Flood Resilience – Smart Tools“ (FloReST), das nun unter der Förderinitiative „Wasser-Extremereignisse“ des Bundesministeriums für Bildung und Forschung (BMBF) gestartet ist.
Neben der Universität Trier sind die Hochschule Trier mit dem Umwelt-Campus Birkenfeld, die Hochschule Koblenz, das Deutsche Forschungszentrum für Künstliche Intelligenz, der Softwareentwickler Disy Informationssysteme GmbH sowie die Ingenieurgesellschaft Dr. Siekmann & Partner beteiligt. Gemeinsam bündeln sie die nötigen Fachkenntnisse aus Wissenschaft und Praxis.
„Unsere Kanalisation ist auf eine gewisse Wassermenge beschränkt, die sie abtransportieren kann“, erklärt Juniorprofessor Dr. Tobias Schütz von der Universität Trier. Bei Wasser-Extremereignissen wie Starkregen und dadurch entstehenden Sturzfluten würden allerdings so große Wassermengen frei, dass die Kanalisation regelrecht überflutet werde. „Es entstehen Oberflächenabflüsse, die möglichst kontrolliert und ohne große Schäden zu verursachen durch Siedlungen gesteuert werden müssen. Hierfür werden Notabflusswege in die Bebauung hinein geplant“, so Schütz.
In enger Abstimmung mit Pilotkommunen, Fachverbänden und betroffenen Bürgerinnen und Bürgern sollen nachhaltige und lokal angepasste Maßnahmen zur Hochwasser- und Sturzflutvorsorge entwickelt werden. Dabei stellt die kontinuierliche Einbindung einiger bereits von Sturzfluten betroffener Kommunen sicher, dass sich die entwickelten Maßnahmen auch in die Praxis übertragen lassen. Schütz betont allerdings, dass alle beteiligten Gemeinden das Thema Notabflusswege bereits vor der Flutkatastrophe des vergangenen Jahres im Blick hatten: „Aus fachlicher Sicht war das Thema schon lange relevant, es mangelte an einer Umsetzung in der Praxis. Mit allen beteiligten Akteuren hatten wir schon vor mehr als anderthalb Jahren erstmals Kontakt.“
Während der dreijährigen Projektlaufzeit verfolgen die sechs Verbundpartner eine Reihe von Schwerpunktthemen. Dazu zählt die Neuentwicklung eines robotergestützten Systems, das eine hochaufgelöste 3D-Datenerfassung der innerörtlichen Infrastruktur ermöglicht. Damit wird eine bisher schwer erreichbare Erfassung kleinster Fließhindernisse und Bruchkanten ermöglicht. Technologien mit künstlicher Intelligenz sollen zukünftig Notabflusswege durch Machine-Learning-Verfahren auch ohne die ressourcen-intensive detaillierte Anpassung hydraulischer Modelle für große Einzugsgebiete nachweisbar machen. Zudem soll der Einsatz von Drohnentechnik dazu genutzt werden, belastungsabhängige Notabflusswege experimentell auszuweisen, um die Maßnahmen zur Hochwasser- und Sturzflutvorsorge zielgenau planen und umsetzen zu können.
Des Weiteren ist geplant, eine App zu entwickeln, die die Erfahrungen und Ortskenntnisse der Bürgerinnen und Bürger zu vergangenen Starkregenereignissen erfasst. So soll die Bürgerbeteiligung gefördert und die Betroffenenperspektive mit einbezogen werden. Hinzu kommen Workshops, um Forschungsinteressen und die benötigten Lösungen in den einzelnen Kommunen zu ermitteln. „Was wir im Projekt erforschen, wollen wir möglichst zielgenau an die Bedürfnisse der Kommunen und der darin lebenden Bürgerinnen und Bürger anpassen“, betont Schütz.
Neben der Zusammenarbeit mit fünf Pilot-Kommunen wird das Projekt FloReST durch Mitglieder eines Projektbeirats aus der Praxis (Ingenieurkammer Rheinland-Pfalz), aus der Landesverwaltung (Kompetenzzentrum Hochwasservorsorge und Hochwasserrisikomanagement, Landesamt für Umwelt) sowie dem Gemeinde- und Städtebund (Informations- und Beratungszentrum Hochwasservorsorge Rheinland-Pfalz) unterstützt.
Wissenschaftliche Ansprechpartner:
Kontakt
JProf. Dr. Tobias Schütz
Hydrologie
Tel. +49 651 201-3071
Mail: tobias.schuetz@uni-trier.de
Covid-19-Infektion vor allem von Sozialstatus abhängig
Jörg Heeren Medien und News
Universität Bielefeld
Studie untersucht, welche Faktoren das Infektionsgeschehen beeinflussen
Der soziale Status und migrationsbezogene Faktoren wirken unabhängig auf die Verbreitung von Corona-Infektionen. Das zeigt eine heute (13.06.2022) veröffentlichte Studie zur regionalen Verteilung der gemeldeten Infektionen über die ersten drei Wellen der Pandemie. „Im Verlauf der Pandemie hat der soziale Status als Faktor für das Infektionsgeschehen an Bedeutung gewonnen“, sagt der Epidemiologe Professor Dr. med. Kayvan Bozorgmehr von der Universität Bielefeld.
Um die Bedeutung des sozialen Status zu ermitteln, hat das Studienteam um Bozorgmehr sozioökonomische Merkmale wie Bildung, Beschäftigungsstatus und Einkommen mit den Infektionen auf Stadt- und Landkreisebene in Verbindung gebracht. Die Studie ist im Fachjournal Lancet eClinicalMedicine erschienen. Die Forschung ist Teil der StopptCOVID-Studie, einem Kooperationsprojekt der Universität Bielefeld und des Robert Koch Instituts, gefördert vom Bundesministerium für Gesundheit.
„Uns ging es darum, mit Blick auf die unterschiedlichen Regionen in Deutschland Faktoren herauszuarbeiten, von denen abhängt, wie stark sich das Coronavirus ausbreitet“, sagt Kayvan Bozorgmehr. Er ist Professor für Bevölkerungsmedizin und Versorgungsforschung an der Universität Bielefeld und hat die Studie geleitet.
Die Forschenden analysierten die Entwicklung in 401 Landkreisen in Deutschland in einem Zeitraum von 72 Wochen. Das Hauptergebnis der Studie: Sozioökonomische und migrationsbedingte Merkmale beeinflussen das Infektionsgeschehen in Landkreisen in Deutschland unabhängig voneinander. „Ein Mehrwert unserer Studie liegt darin, dass wir beide Faktoren zusammen analysiert haben“, sagt Bozorgmehr. „Die Faktoren wurden bislang meist getrennt voneinander betrachtet.“
In der ersten Welle der Pandemie waren Menschen in wohlhabenderen Landkreisen, in denen ein höherer Sozialstatus dominiert, einem höherem Infektionsrisiko ausgesetzt – zum Beispiel durch Reiserückkehrer*innen. Das war zuvor bereits aus anderen Erhebungen bekannt. Die jetzt veröffentlichte Studie zeigt, dass sich dieses Muster in der zweiten und dritten Welle änderte: Nun waren hauptsächlich Menschen in sozial benachteiligten Regionen stärker gefährdet, sich zu infizieren. Das Risiko in sozial benachteiligten Regionen nahm über die Wellen hinweg zu.
Menschen ausländischer Staatsangehörigkeit nur in erster Welle stärker betroffen
„Bei migrationsbedingten Faktoren sehen wir ein gegenläufiges Muster“, sagt Erstautor Sven Rohleder, wissenschaftlicher Mitarbeiter in der Arbeitsgruppe von Bozorgmehr. „In der ersten Welle war das Infektionsrisiko in Landkreisen mit einem höheren Anteil an Personen mit ausländischer Staatsangehörigkeit relativ hoch. In den späteren Wellen stieg das Risiko jedoch nicht weiter an, sondern es verringerte sich.“
Bozorgmehr erklärt: „Wir interpretieren unsere Ergebnisse so, dass sozioökonomische Faktoren in der gesamten Pandemie für das Infektionsrisiko bedeutsam waren und im Pandemieverlauf an Bedeutung gewannen. Migrationsbedingte Faktoren hatten hingegen zu Beginn der Pandemie ein stärkeres Gewicht.“ Offenbar habe es nach Pandemiebeginn länger gedauert, die Teile der Bevölkerung mit ausländischer Staatsangehörigkeit zu erreichen – ob mit Informationen zur Pandemie oder entsprechenden Maßnahmen.
Studie zeigt Verbindung von sozialer Ungleichheit und Infektionsrisiko
In der Studie haben die Forschenden den German Index of Socioeconomic Deprivation (GISD, Deutscher Index sozioökonomischer Deprivation) verwendet. Deprivation bezieht sich auf einen Mangel an Chancengleichheit. Der Index verzeichnet, in welchen deutschen Regionen soziale Ungleichheit stärker und weniger stark vertreten ist. Der Index wurde am Robert Koch Institut entwickelt und umfasst darüber hinaus auch Informationen zu den einzelnen Dimensionen Bildung, Beschäftigungstatus und Einkommen.
Das Studienteam setzte den Deprivationsindex und dessen einzelne Dimensionen in Beziehung zur Covid-19-Inzidenz in den Stadt- und Landkreisen. Dafür nutzte das Team räumlich-epidemiologische statistische Verfahren. Im Ergebnis zeigt sich: Bei Landkreisen mit einem hohen Anteil von Menschen mit niedriger Bildung oder mit niedrigem Einkommen sind diese einem höheren Infektionsrisiko ausgesetzt. In Landkreisen mit einem höheren Beschäftigungsanteil gibt es hingegen ein umgekehrtes Muster: Hier geht der höhere Beschäftigungsanteil mit einem höherem Inzidenzrisiko einher. Laut Bozorgmehr deute dies auf die große Rolle arbeitsplatzbedingter Faktoren bei der Pandemiekontrolle hin.
Studienteam hat umfangreiche Datenbasis ausgewertet
Für die Studie haben die Forschenden neben dem Deprivationsindex weitere Datensätze miteinander verbunden. Dazu zählen die an das Robert Koch Institut (RKI) gemeldeten Infektionszahlen aus den Stadt- und Landkreisen, Populationsdaten (Anzahl der Einwohner*innen sowie der ausländischen Bevölkerung, jeweils nach Alter und Geschlecht), Informationen zur Siedlungsstruktur und Daten zu Impfungen des RKIs.
Das Studienteam leitet aus den Befunden Empfehlungen für Maßnahmen gegen die Verbreitung von Covid-19 ab: „Ganz grundlegend müssen die Politik und Behörden berücksichtigen, wie sozioökonomische Faktoren bei der Ausbreitung wirken. Nur so können Bevölkerungsgruppen gezielt adressiert werden, um die Pandemie zu bekämpfen“, sagt Bozorgmehr. In sozial benachteiligten Stadt- oder Landkreisen könne mit maßgeschneiderten Maßnahmen gearbeitet werden, zum Beispiel mit angepassten Aufklärungs- und Informationsmaßnahmen. „Außerdem muss das niedrige Einkommen berücksichtigt werden, wenn es um Schutzmaßnahmen geht“, so Bozorgmehr. „Deswegen ist es sinnvoll, in Stadtteilen mit geringem Einkommen kostenlose Tests oder auch kostenlose Masken zur Verfügung zu stellen.“
Ein Fazit: Schon in frühen Phasen von Epidemien mehrsprachige Maßnahmen nutzen
„Man sollte die Diversität in der Gesellschaft mehr berücksichtigen“, so der Gesundheitswissenschaftler. „Insbesondere in frühen Phasen einer Pandemie muss man auf migrationsbedingte Faktoren vorbereitet sein, damit mehrsprachige und zielgruppengerechte Maßnahmen etabliert werden können.“ Er wirft aber auch ein, dass das verwendete Maß des „Anteils der Personen mit ausländischer Staatsangehörigkeit“ sehr ungenau sei und es sich lediglich um eine Annährung an migrationsbedingte Faktoren in Stadt- und Landkreisen handle. Denn zu dieser Gruppe zählen von Personen aus EU-Nachbarländern über Wissenschaftler*innen aus anderen Ländern bis hin zu Geflüchteten alle, die einen Nicht-Deutschen-Pass besitzen. Es sei daher nicht zulässig, basierend auf den Ergebnissen der Studie ein höhere Infektionsrisiko für einzelne Gruppen abzuleiten.
Die aktuelle Veröffentlichung ist nur ein Teil der StopptCOVID-Studie. Im nächsten Schritt analysieren die Wissenschaftler*innen in dem Projekt, wie wirksam die Pandemiemaßnahmen in den Stadt- und Landkreisen waren. In diese Erhebung werden dann auch Daten der vierten Pandemiewelle einfließen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Kayvan Bozorgmehr, Universität Bielefeld
Fakultät für Gesundheitswissenschaften
Telefon: 0521 106-6311 (Sekretariat: -6889)
E-Mail: kayvan.bozorgmehr@uni-bielefeld.de
Originalpublikation:
Sven Rohleder, Diogo Costa, Kayvan Bozorgmehr: Area-level socioeconomic deprivation, non-national residency, and Covid-19 incidence: a longitudinal spatiotemporal analysis in Germany. Lancet eClinicalMedicine, https://doi.org/10.1016/j.eclinm.2022.101485, erschienen am 13. Juni 2022.
Weitere Informationen:
https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Projekte_RKI/Stoppt… Website zur StopptCOVID-Studie
https://www.uni-bielefeld.de/fakultaeten/gesundheitswissenschaften/ag/ag2/index…. Website der Arbeitsgruppe Bevölkerungsmedizin und Versorgungsforschung
Gewässer setzen Methan frei – auch wenn sie austrocknen
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Gewässer sind unterschätzte Quellen von Klimagasen. Nun haben Forschende unter Beteiligung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) gezeigt, dass auch trockener Gewässerboden erhebliche Mengen Methan freisetzen kann. Ein Überblick über die Ursachen und Größenordnungen von Methanemissionen aus Gewässern und ein Ausblick auf die zukünftige Entwicklung im Klimawandel verdeutlichen: saubere Gewässer und mehr Moor, bitte.
Methan entsteht, wenn organisches Material in Abwesenheit von Sauerstoff zersetzt wird. Es kann beim Abbau, von Kohle, Erdöl oder Erdgas freigesetzt werden, wird in Kuhmägen gebildet – aber auch in Binnengewässern und Ozeanen.
Methan entsteht auf verschiedene Arten in Gewässern:
„Unter den verschiedenen Typen von Binnengewässern sind Stauseen und Seen die Hauptemittenten von Treibhausgasen“, erläutert IGB-Forscher Professor Hans-Peter Grossart. „Das liegt daran, dass organisches Material von abgestorbenen Pflanzen und Tieren dort in stärkerem Maße als in fließenden Gewässern auf den sauerstoffarmen Gewässergrund absinkt. Dieser Prozesse wird durch höhere Temperaturen verstärkt. In kleinen Gasbläschen steigt das Methan dann vom Grund bis an die Wasseroberfläche und gelangt so in die Atmosphäre.“
Lange gingen Forschende davon aus, dass Methan in Binnengewässern eben nur dort gebildet wird, wo kein Sauerstoff vorhanden ist. „Jüngste Studien zeigen, dass dieses Treibhausgas auch in der sauerstoffreichen Wassersäule entsteht: Verschiedene Phytoplankton-Arten – Cyanobakterien, Kieselalgen und Haptophyten – emittieren Methan während ihrer Photosynthese,“ sagt IGB-Forscherin Dr. Mina Bizic, die das Wissen über die Methanbildung durch Phytoplankton in einem wissenschaftlichen Artikel zusammengetragen hat.
Methan entsteht auch auf trockenfallenden Flächen:
Und selbst dort entsteht Methan, wo gar kein Wasser mehr ist: Trockenfallende Gewässer sind als Quelle für Klimagase wie Kohlendioxid bekannt. Allerdings wusste man bisher wenig, ob und wie viel über die Freisetzung von Methan aus diesen Flächen freisetzen. Ein Forschungsteam unter Leitung der niederländischen Radboud University hat die globalen Methanemissionen für trockenfallende Flächen von Seen, Teichen, Stauseen und Flüssen in verschiedenen Klimazonen abgeschätzt. Außerdem bestimmten die Forschenden die Umweltfaktoren, welche diese Emissionen steuern.
Hans-Peter Grossart war an der Studie beteiligt: „Die Methanemissionen aus trockenen Binnengewässern waren in allen Klimazonen und in allen aquatischen Systemen mit Ausnahme von Bächen durchweg höher als die Emissionen, die in den angrenzenden Böden in Hanglage gemessen wurden“. Weltweit emittieren trockene Binnengewässer laut den Hochrechnungen 2,7 Millionen Tonnen Methan pro Jahr.
Der Gewässertyp an sich und die Klimazone hatten keinen Einfluss auf die Menge an freigesetztem Methan. Der Gehalt an organischer Substanz im Gewässerboden in Wechselwirkung mit der lokalen Temperatur und die Feuchtigkeit waren die maßgeblichen Einflussfaktoren. Besonders viel Methan entsteht vor allem zu Beginn der Austrocknung und im Laufe des sogenannten First-Flush – also dem Moment, wenn auf die die trockengefallene Fläche wieder Wasser trifft, durch einen Starkregen zum Beispiel.
Mehr Methanfreisetzung durch die Folgen des Klimawandels:
Prozesse im Klimawandel könnten die Emission von Methan weiter antreiben. Zum einen werden Gewässer wärmer. Außerdem sinkt in Seen weltweit der Sauerstoffgehalt. Hans-Peter Grossart war an einer Nature-Studie beteiligt, die den Sauerstoffschwund für 400 Seen verschiedener Klimazonen quantifiziert hat: Im Durchschnitt sank der Sauerstoffgehalt der untersuchten Gewässer in den letzten 40 Jahren um 5,5 Prozent an der Oberfläche und um 18,6 Prozent in der Tiefenzone.
„Auch Phytoplankton wird in Zukunft mehr Methan emittieren, einfach weil mehr davon in Gewässern vorhanden sein wird“, prognostiziert Mina Bizic. Denn zunehmende Nährstofflasten und Erwärmung von Gewässern gelten als Hauptursachen für die jüngsten Zunahmen von Phytoplanktonblüten. Darüber hinaus kann die Phytoplanktonblüte das Auftreten von sauerstofffreien, sogenannten toten Zonen verstärken. Das wiederum kurbelt die klassische Methanbildung unter Sauerstoffarmut an.
„Die Methanfreisetzungen aus ausgetrockneten Gewässerabschnitten werden durch häufigere extreme Wetterereignisse – Austrocknung und Starkregen – ebenfalls zunehmen, denn genau während dieser Wechsel werden besonders viele Treibhausgase emittiert“, ergänzt Hans-Peter Grossart.
Was kann man tun? Saubere Gewässer und mehr Moore, bitte!
Um die Methanbildungen aus Gewässern trotz des Klimawandels in Schach zu halten, helfen Maßnahmen zur Verbesserung der Gewässerqualität. „Wenn weniger Nährstoffe in Gewässer eingetragen werden, wird auch weniger organisches Material gebildet. Außerdem entsteht weniger Phytoplankton“, so Mina Bizic.
Auch Maßnahmen, die das Wasser in der Landschaft halten und das Grundwasser stabilisieren sind hilfreich, denn viele Seen speisen sich durch das Grundwasser. Austrocknende Gewässer haben also oft nicht nur mit einer erhöhten Verdunstung, sondern auch mit sinkenden Grundwasserständen zu tun. Die Schaffung von Feuchtgebieten und Mooren sorgt dafür, dass mehr Wasser in der Landschaft gespeichert wird und dadurch Wasserdefizite aber auch Wasserüberschuss ausgeglichen werden. Moore haben noch einen weiteren Vorteil: „Ein ökologisch intaktes Moor fungiert als langfristige Senke für Kohlenstoff. Trocknet es aus, werden hingegen verstärkt Treibhausgase freigesetzt. Ein trockengelegtes Moor setzt im Jahr durchschnittlich 15 Tonnen CO2 pro Hektar frei. In einem naturnahen Moor entsteht durchaus Methan. Die Methanfreisetzung aus einem entwässerten Mooren fällt in der Regel jedoch höher aus – auch durch die hohe Methanfreisetzung aus den zahlreichen Entwässerungsgräben. Moorschutz ist also immer auch Klimaschutz“, erläutert Dr. Dominik Zak, Gastwissenschaftler am IGB und Moorforscher an der Universität Aarhus in Dänemark.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
HansPeter.grossart@igb-berlin.de
Dr. Mina Bizic
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
mina.bizic@igb-berlin.de
Dr. Dominik Zak
Aarhus University, Department of Bioscience
doz@ecos.au.dk
Originalpublikation:
José R. Paranaíba, Ralf Aben, Nathan Barros, Gabrielle Quadra, Annika Linkhorst, André M. Amado, Soren Brothers, Núria Catalán, Jason Condon, Colin M. Finlayson, Hans-Peter Grossart, Julia Howitt, Ernandes S. Oliveira Junior, Philipp S. Keller, Matthias Koschorreck, Alo Laas, Catherine Leigh, Rafael Marcé, Raquel Mendonça, Claumir C. Muniz, Biel Obrador, Gabriela Onandia, Diego Raymundo, Florian Reverey, Fábio Roland, Eva-Ingrid Rõõm, Sebastian Sobek, Daniel von Schiller, Haijun Wang, Sarian Kosten: Cross-continental importance of CH4 emissions from dry inland-waters, Science of The Total Environment, Volume 814, 2022, 151925, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2021.151925.
Weitere Informationen:
https://www.igb-berlin.de/news/gewaesser-setzen-methan-frei-auch-wenn-sie-austro…
Führende Klimaforscher*innen fordern globale Partnerschaft: Regenfälle vorhersagen und Klimawandel entgegentreten
Dr. Annette Kirk Kommunikation
Max-Planck-Institut für Meteorologie
Neun der weltweit führenden Klimawissenschaftler*innen rufen zu umfangreichen internationalen Investitionen auf, um eine neue Generation von Klimamodellen zu entwickeln, die grundlegende Fragen über die Vorhersagbarkeit zukünftiger Niederschläge und damit verbundenen Extremereignissen beantworten können.
Trotz jahrzehntelanger Forschung ist nicht bekannt, wie sich die Niederschläge in den kommenden Jahren entwickeln werden, und schwere Überschwemmungen sowie lang anhaltende Dürreperioden fallen bereits jetzt anders aus als erwartet. In einer Veröffentlichung, die heute in der Fachzeitschrift Nature Climate Change veröffentlicht wurde, argumentieren die Wissenschaftler*innen, dass Lösungen zwar vorhanden sind, aber eine verstärkte und strategische internationale Zusammenarbeit erforderlich ist, um Durchbrüche in der Datenverarbeitung wirksam einsetzen zu können und wesentlich fortschrittlichere Klimamodelle zu entwickeln.
Hauptautorin Dame Julia Slingo vom Cabot Institute for the Environment der Universität Bristol sagt: „Die Grundlage, auf der die Klimamodelle in den letzten 30 Jahren aufgebaut wurden, vereinfacht die wasserführenden Systeme stark und lässt einige grundlegende physikalische Aspekte außer Acht, von denen wir heute wissen, dass sie für zuverlässige Vorhersagen unerlässlich sind. Die Lösung liegt in greifbarer Nähe; wir müssen einen Quantensprung von unseren derzeitigen globalen Klimamodellen auf der 100-Kilometer-Skala zu Modellen auf der 1-Kilometer-Skala machen.“
Co-Autor Prof. Bjorn Stevens vom Max-Planck-Institut für Meteorologie in Hamburg, ein Pionier globaler Modelle im Kilometermaßstab, betont, dass die wissenschaftliche Grundlage hierfür unbestreitbar ist: „Auf diesen Skalen wird die komplexe Physik von regenführenden Systemen zum ersten Mal richtig dargestellt – mit Folgen, die weit über die Zukunft unseres Wassers hinausgehen und viele Aspekte des Klimawandels betreffen.“
Das internationale Team plädiert für die Schaffung und Bereitstellung von Mitteln für einen Zusammenschluss führender Modellierungszentren, die hochmoderne Exascale-Rechenkapazität nutzen können und eine passende Infrastruktur aufweisen, um die enormen Datenmengen weiterzuverarbeiten. Ziel ist es, ein einsatzfähiges Klimavorhersagesystem im Kilometermaßstab aufzubauen, das allen Nationen dient und ihnen zuverlässige Erkenntnisse über alle Aspekte des Klimawandels liefert.
„Die große Vision ist die Schaffung eines digitalen Zwillings der Erde, der sich auf diese Vorhersagen stützt. Die europäische Initiative Destination Earth (DestinE) weist hierfür den Weg, aber die Dringlichkeit und die internationale Dimension des Vorhabens erfordern eine noch größere Mobilisierung von Ressourcen und Kollaboration, um zu erreichen, was nötig ist“, sagt Co-Autor Dr. Peter Bauer, ein Leiter von DestinE und leitender Wissenschaftler am ECMWF.
Prof. Stephen Belcher, leitender Wissenschaftler des britischen Met Office und Co-Autor, stellt fest: „Die Aufgabe ist gewaltig. Auch wenn sich unser wissenschaftliches Verständnis und die technologischen Entwicklungen im Bereich der Datenverarbeitung und -speicherung weiterentwickelt haben, erfordert das Ausmaß dieses Unterfangens eine internationale Anstrengung.“
Überschwemmungen und Dürren gehören zu den kostspieligsten Auswirkungen des Klimawandels, und Veränderungen in der saisonalen Niederschlagsverteilung und natürlichen Variabilität der Niederschläge können tiefgreifende Auswirkungen auf viele Lebensräume haben, die wiederum unsere Ernährungssicherheit, Wassersicherheit, Gesundheit und Infrastrukturinvestitionen bedrohen. Wie wenig wir jedoch über die Zukunft unseres Wassers wissen, wurde im jüngsten Sachstandsbericht des Weltklimarats IPCC deutlich. Dieser zeigte einmal mehr, dass es erhebliche Unsicherheiten in Bezug auf die Veränderungen der Niederschläge gibt, insbesondere auf regionaler und lokaler Ebene.
Professor Tim Palmer, Co-Autor von der Universität Oxford, sagt: „Es ist dringend. Was wir jetzt brauchen, ist eine ‘Mission für den Planeten Erde’, die sich mit den Gefahren des Klimawandels befasst und entsprechend gefördert ist. Die Welt erlebt schon jetzt Extreme, die außerhalb dessen liegen, was uns die derzeitigen Modelle zeigen können, und unsere sozialen und wirtschaftlichen Strukturen sind bereits massiv gefährdet.“
Professor Thomas Stocker, Universität Bern, Co-Autor und ehemaliger Vorsitzender der Arbeitsgruppe I des Weltklimaberichts IPCC AR5, schließt sich dieser Ansicht an. „Die doppelte Zielsetzung von ‘Netto-Null’ und Klimaresilienz erfordert eine erhebliche Beschleunigung bei der Bereitstellung zuverlässiger und umsetzbarer Klimainformationen, insbesondere für die am stärksten gefährdeten Regionen. Die derzeitigen Klimamodelle können dies nicht leisten, aber durch weltweite Investitionen und wissenschaftliche Partnerschaften im Bereich der globalen Modellierung im Kilometermaßstab wird dies Realität werden.“
Co-Autor Prof. Georg Teutsch vom Helmholtz-Zentrum für Umweltforschung in Leipzig, der eine der größten Forschungsinitiativen zur Klimaanpassung in Europa leitet, ist sich dieser Problematik äußerst bewusst. „Wir verfügen heute über sehr detaillierte und ausgefeilte Klimafolgen-Modelle, aber uns fehlen die detaillierten Wetter- und Wasserinformationen, um sie anzutreiben. Solange diese Lücke nicht geschlossen ist, können wir keine verlässlichen Anpassungsentscheidungen treffen“, sagt Teutsch.
Der führende Hydrologe und Co-Autor Prof. Paul Bates, ebenfalls Cabot Institut, stellt fest: „Die vorgeschlagene Investition verblasst im Vergleich zu den klimabedingten Verlusten, die auch heute schon auftreten. Sie macht etwa 0,1 Prozent der geschätzten jährlichen Kosten hydrologischer Extremereignisse aus – ohne dabei die verlorenen Menschenleben zu berücksichtigen. Diese Kosten werden mit dem fortschreitenden Klimawandel noch weiter steigen.“
Autor*innenliste:
Dame Julia Slingo, Cabot Institute, University of Bristol
Prof. Paul Bates, Cabot Institute, University of Bristol, und Fathom, 17-18, Berkeley Square, Bristol
Dr. Peter Bauer, European Centre for Medium-Range Weather Forecasts, Reading
Prof. Stephen Belcher, Met Office, Exeter
Prof. Tim Palmer, University of Oxford
Dr. Graeme Stephens, NASA Jet Propulsion Laboratory, Caltech, Pasadena
Prof. Bjorn Stevens, Max-Planck-Institut für Meteorologie, Hamburg
Prof. Thomas F. Stocker, Oeschger-Zentrum für Klimaforschung, Universität Bern
Prof. Georg Teutsch, Helmholtz-Zentrum für Umweltforschung GmbH – UFZ, Leipzig
Wissenschaftliche Ansprechpartner:
Prof. Bjorn Stevens
Direktor Max-Planck-Institut für Meteorologie
Tel.: 040 41173 422 (Assistentin Angela Gruber)
E-Mail: bjorn.stevens@mpimet.mpg.de
Dr. Annette Kirk
Leitung Kommunikation
Max-Planck-Institut für Meteorologie
Tel.: 040 41173 374
E-Mail: annette.kirk@mpimet.mpg.de
Originalpublikation:
Slingo, J., P. Bates, P. Bauer, S. Belcher, T. Palmer, G. Stephens, B. Stevens, T. Stocker, G. Teutsch, 2022, Ambitious partnership needed for reliable climate prediction. Nature Climate Change, doi: 10.1038/s41558-022-01384-8
Die Region als „Wasserschwamm“ – Wie muss Oberfranken auf den Klimawandel reagieren?
Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Der Klimawandel und seine oft verheerenden Folgen sind weltweit allgegenwärtig. Ein Projekt an der Hochschule Hof widmet sich im kommenden Jahr nun den konkreten Folgen für den ländlichen Raum in der Region Oberfranken. Die Forscher des Instituts für Wasser- und Energiemanagement (iwe) möchten ein Konzept für regionale Klimaanpassung entwickeln, das durch die Einbindung digitaler Elemente unter anderem Trockenperioden und Starkregen im Wassermanagement ausgleichen kann – ein bislang einmaliges Projekt.
„Smart Sponge Region (SPORE)“ – zu Deutsch: „Intelligente Schwammregion“ – ist der Titel des Anfang Mai gestarteten Pilotprojektes, das bis Ende Oktober 2023 abgeschlossen sein soll. Der Name ist dabei Programm: Wie ein Schwamm soll die Region zukünftig mit ihren Wasserressourcen umgehen und so die Grundlage dafür legen, dass ein Ausgleich zwischen Trockenheitsperioden und den zunehmenden Starkregenereignissen erfolgen kann.
Sicherung der Grundlagen für Mensch und Tier
„Wir möchten herausfinden, welchen Anpassungsbedarf an den Klimawandel es bei uns gibt – im Hinblick auf Land- und Forstwirtschaft, aber auch mit Blick auf die Wasserwirtschaft für Siedlungen“, erläutert Projektleiter Dr. Stephan Wagner das Ziel der Forschenden. Unter anderem zusammen mit Kommunen und Unternehmen sollen anhand regionaler Prognosen für die Klimaveränderung Lösungen erarbeitet werden, um ökologische Grundfunktionen und einen nachhaltigen Umgang mit Wasserressourcen sicherzustellen. „Letztlich geht es dabei am Ende um nichts weniger als die Sicherung der wirtschaftlichen Entwicklung in der Region und um den Erhalt der Lebensqualität für Mensch und Tier“, so Dr. Wagner weiter.
Detaillierte Untersuchung des ländlichen Raums
Das Konzept der „Schwammregion“ fußt dabei auf einer systematischen Untersuchung der notwendigen Klimawandelanpassung des ländlichen Raums und seiner urbanen Zentren.
„Oberfranken wird auch zukünftig mit trockneren Sommern mit kurzen intensiven Niederschlägen konfrontiert. Das führt z.B. zu Trockenstress der Bäume und es kommt vermehrt zum Waldsterben beispielsweise durch Borkenkäferbefall. Weitere Auswirkungen des Klimawandels können auch Überflutungen infolge von Starkregenereignissen, die Absenkung des Grundwasserspiegels, Ernteausfall, Waldsterben sowie Wald- und Flächenbränden infolge langanhaltender Trockenheit sein“ so Dr. Stephan Wagner. Unbekannt sei bisher, wie stark die Region davon betroffen sein werde und wo demnach Anpassungsmaßnahmen besonders notwendig sind. „Für die Region Oberfranken sollen im Projekt SPORE deshalb zunächst die Auswirkungen des Klimawandels auf den Wasserhaushalt kleinstädtischer Strukturen sowie landwirtschaftlich genutzter Flächen und Wälder ermittelt werden. Für die am schwersten betroffenen Bereiche werden wegweisende und regionale Lösungen für Anpassungsmaßnahmen entwickelt. Dazu zählen z.B. die Wiedervernässung von Wäldern, die Gestaltung wasserresilienter Neubausiedlungen und die Wiederverwertung von Abwasser zur Bewässerung“, so Wagner.
Digitalisierung für eine bessere Vernetzung
„Unser Vorhaben ist in dieser Form bislang einmalig – auch, da bislang meist die Auswirkungen des Klimawandels auf Küstenregionen oder urbane Regionen untersucht wurden“, freut sich auch Prof. Günter Müller-Czygan, der die Leitung des Projektes ab Juli übernehmen wird. Der Stiftungsprofessor beleuchtet an der Hochschule Hof im Rahmen vieler Projekte die fortschreitende Digitalisierung der Wasserwirtschaft, die auch in Bezug auf den Klimawandel von Vorteil sein dürfte: „Die klimatische Veränderung ist bereits heute zum Teil nicht mehr zu stoppen. Darum bedarf es intelligenter und moderner Lösungen, um seine Folgen für die Menschheit so erträglich wie möglich zu machen. Die Digitalisierung schafft Vernetzung und versorgt uns mit vielen und schnellen Informationen, die wir nützen können“, so Prof. Müller-Czygan. So soll der Einbau digitaler Elemente in das Wassermanagement dazu führen, die „Schwammfunktion“ zu einer bestmöglichen Nutzung der Wasserressourcen zu stärken.
Entwicklung dreier konkreter Pilotvorhaben
Das Projekt selbst gliedert sich in zwei Phasen. In Phase eins entwickelt die Hochschule Hof das Konzept der Schwammregion und ermittelt den Bedarf an Anpassungsmaßnahmen an den Klimawandel. Das heimische Kompetenznetzwerk Wasser und Energie e.V., das auch die Projektidee entwickelte, unterstützt die Forschenden beim Aufbau des Netzwerks und bei der Bedarfsermittlung durch die Organisation und Durchführung von Wissenstransfer-Workshops. In der Phase zwei werden dann fünf Projektideen als Pilotvorhaben von Hochschule und ihren Partnern erarbeitet. Drei der Pilotvorhaben sollen so weit entwickelt werden, dass eine Umsetzung im Anschluss an das Projekt SPORE machbar wird.
Förderung
Die für die Realisierung des Forschungsprojektes erforderlichen Fördermittel wurden bei der Wilo Stiftung und bei der Hochschule Hof erfolgreich beantragt. Neben dem Kompetenznetzwerk Wasser und Energie e.V. aus Hof unterstützt auch die Fernwasserversorgung Kronach das Projekt.
Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4683
E-Mail: guenter.mueller-czygan@hof-university.de
Anhang
Die Region Oberfranken als Wasserschwamm
Weitergeben, was wichtig ist
Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin
Leistung und soziales Engagement sind den 46 Deutschlandstipendiat*innen der HWR Berlin gleichermaßen wichtig. Für Stipendiengeber*innen ist es eine Investition für die Gesellschaft und in die Zukunft.
Berlin, 22. Juni 2022 – Nina Schiller wollte beruflich eigentlich in eine ganz andere Richtung gehen. Nach dem Abitur machte sie eine Ausbildung und arbeitete als Rettungssanitäterin. Inzwischen studiert sie International Business Management an der Hochschule für Wirtschaft und Recht Berlin (HWR Berlin). Wenngleich der neuen Deutschlandstipendiatin neben dem Studium nur wenig Freizeit bleibt, sie nutzt diese auch, um sich weiter für andere Menschen einzusetzen.
„Ich habe die Chance und viele Möglichkeiten, aus meinem Leben das zu machen, was ich mir wünsche und vorgenommen habe. Das ist nicht allen Menschen vergönnt, das ist mir bewusst. Deshalb möchte ich etwas weitergeben und bin da für die, die Hilfe brauchen“, sagt die 20-Jährige. Und das tut sie, generationenübergreifend. Sie unterstützt ehrenamtlich den Freunde alter Menschen e. V. und telefoniert mehrmals pro Woche mit einer älteren Dame. Der Verein engagiert sich gegen Einsamkeit und Isolation im Alter. In einem anderen Altersspektrum hilft Nina Schiller im Rahmen des HWR-Buddy-Programms seit zwei Semestern einer Studentin aus der Ukraine, sich in Studium und Alltag besser zurechtzufinden und pflegt außerdem eine Sprachpartnerschaft mit einem amerikanischen Kommilitonen. Davon profitiert auch die Berliner Studentin, nicht nur, weil auf ihrem Studienplan schon bald Auslandssemester an den Partnerhochschulen der HWR Berlin im kalifornischen San Diego und Leeds in England stehen.
Helfen, Netzwerken, Türen öffnen. Neben der finanziellen Unterstützung steht die ideelle ebenso bei den Förderern im Fokus. Seit dem Programmstart im Jahr 2013 hat die HWR Berlin 378 Deutschlandstipendien an Studentinnen und Studenten für ihre Leistungsbereitschaft und ihr gesellschaftliches Engagement neben dem Studium vergeben. Die Ausgezeichneten erhalten monatlich 300 Euro, zur Hälfte finanziert vom Bund und zur Hälfte von Unternehmen, Stiftungen, Vereinen oder privaten Förderern. Die Ausgezeichneten erhalten Wertschätzung und werden Teil eines Netzwerkes aus gegenwärtigen und ehemaligen Stipendiaten und Stipendiatinnen. „Ein Stipendium ist eine Investition in die Zukunft, die jeder einzelnen Stipendiatin und jedem einzelnen Stipendiaten auf dem eigenen Bildungsweg hilft und auch unserer Gesellschaft, die Engagement braucht und Engagement auch würdigt“, sagt Prof. Dr. Andreas Zaby, Präsident der HWR Berlin, zur feierlichen Übergabe im historischen Schöneberger Rathaus.
Ein Gewinn für beide Seiten ist der Kontakt zwischen den Förderern und ihren Stipendiaten und Stipendiatinnen. Die Ziele und der Grundgedanke des Deutschlandstipendiums sowie die soziale Einstellung der studentischen Bewerberinnen und Bewerber decken sich mit dem internationalen Lions-Motto „We Serve“, betonen Vorsitzende Christine Steinmüller und Schatzmeisterin Marieta Frey. Seit 20 Jahren engagieren sich Damen des Lions Club Berlin-Glienicker Brücke für das Allgemeinwohl mit dem Schwerpunkt in der Kinder- und Jugendarbeit. Nun gehören auch drei Deutschlandstipendien an der HWR Berlin zu den vielseitigen Maßnahmen und Aktivitäten. Die erfahrenen Netzwerkerinnen voller Ideen und Tatendrang erleben immer wieder selbst, was möglich wird, wenn Menschen mit gleichen Visionen zusammenkommen und freuen sich auf den Austausch mit ihren Stipendiatinnen, die sie nun unterstützen.
Förderin Jenny Klann kennt das aus eigener Erfahrung, ist Alumna des dualen Studiengangs Bauingenieurwesen der HWR Berlin. Ihr ersparte das Stipendium damals einen Bildungskredit. Das Deutschlandstipendium berücksichtigt neben der Leistung persönliche Lebensumstände und Werdegänge der Bewerber*innen, denen eine finanzielle Unterstützung den erfolgreichen Abschluss ihres Studiums maßgeblich erleichtert. Klann kam auf dem zweiten Bildungsweg zum Studium, hat Durchhaltevermögen bewiesen und hart gearbeitet. Im Anschluss an das nachgeholte Fachabitur machte sie zunächst einen Berufsabschluss und sammelte Praxiserfahrung, ging dann zum Studium und arbeitet jetzt im Technischen Gebäude- und Baumanagement der Europa-Universität Viadrina. „Ohne das Stipendium hätte ich mein Studium wahrscheinlich nicht beenden können“, sagt die Berlinerin rückblickend. „Ich hatte mir damals vorgenommen, jemandem die gleiche Möglichkeit zu geben, sobald ich es mir leisten kann.“ Das kommt Sabrina Menz zugute, die in die Fußstapfen ihrer Förderin tritt, ebenfalls mit Begeisterung Bauingenieurin werden möchte. Die 20-Jährige aus Schwaben ist die Erste in ihrer Familie, die studiert und ist neben der finanziellen Hilfe vor allem dankbar, für den Kontakt zu ihrer neuen Mentorin und dafür, nun Teil des Netzwerks von Deutschlandstipendiaten und -stipendiatinnen zu sein.
Diese Verbindung zwischen fördernden Unternehmen und individuellen Unterstützern und Unterstützerinnen und besonders qualifizierten, engagierten Studierenden, die Verzahnung zwischen Hochschule und Praxis ist eines der Ziele, die das Bundesbildungsministerium mit der vor elf Jahren eingeführten Begabtenförderung verfolgt. Unternehmen nutzen das Deutschlandstipendium als Instrument zur Nachwuchsgewinnung, erhalten Einblicke in Forschung und Wissenschaft, stärken die Region und tragen zur Chancengleichheit in der Bildung bei. Damit sind die jährlich 1 800 Euro pro Deutschlandstipendium gut angelegt bei den Talenten von morgen.
Weitere Informationen zum Deutschlandstipendium an der HWR Berlin
https://www.hwr-berlin.de/kooperationen/unternehmen/deutschlandstipendium/
Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit über 11 500 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in über 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält 195 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bei der internationalen Ausrichtung von BWL-Bachelorstudiengängen und im Dualen Studium belegt die HWR Berlin Spitzenplätze in deutschlandweiten Rankings und nimmt auch im Masterbereich vordere Plätze ein. Die HWR Berlin ist einer der bedeutendsten und erfolgreichen Hochschulanbieter im akademischen Weiterbildungsbereich und Gründungshochschule. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.
Wissenschaftliche Ansprechpartner:
Denise Gücker
Deutschlandstipendium@hwr-berlin.de
Wie können Mikroorganismen unsere Welt retten?
Dr. Gabriele Neumann Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Wie können Mikroorganismen unsere Welt retten? Um nichts weniger als Varianten dieser existenziellen Frage geht es bei der Forschung des Zentrums für Synthetische Mikrobiologie (SYNMIKRO). Die Erforschung großer Fragen verlangt große Leistungen. Dass SYNMIKRO damit aufwarten kann, wurde beim Symposium zum zwölfjährigen Bestehen des Zentrums am 21. und 22. Juni 2022 deutlich. Rund 20 Kurzvorträge gaben einen Einblick in die Breite der Forschung.
Seit 2021 ist der Forschungsneubau von SYNMIKRO auf dem Campus Lahnberge in Betrieb. Unter einem Dach arbeiten dort etwa 250 Wissenschaftlerinnen und Wissenschaftler der Philipps-Universität Marburg (UMR) und des Max-Planck-Instituts für terrestrische Mikrobiologie (MPI) zusammen. Der Bau bietet moderne Infrastruktur für Forschung und Lehre und gleichzeitig eine gute Umgebung für das Arbeiten miteinander, von modernen Laboren bis zu gut ausgestatteten Seminarräumen und einem begrünten Innenhof als Begegnungsort. Die transdisziplinäre Zusammenarbeit ist auf allen Karriereebenen fruchtbar. So entstehen bei SYNMIKRO zahlreiche Spitzenpublikationen, aber auch erfolgreiche studentische Initiativen. Das Marburger iGEM-Team gewann zum Beispiel schon zweimal die „International Genetically Engineered Machine (iGEM) competition“, einen bedeutenden Wettbewerb für Studierende im Bereich synthetischer Biologie.
In SYNMIKRO werden die vielfältigen Interaktionen von Mikroorganismen mit ihrer Umwelt im molekularen Detail erforscht und neue Möglichkeiten geschaffen, die Fähigkeiten von Mikroorganismen gezielt nutzbar zu machen. Denn Mikroorganismen produzieren und konsumieren klimarelevante Treibhausgase, beeinflussen die Bodenfruchtbarkeit und die Biodiversität. Die Mechanismen, Konsequenzen und Lösungen mikrobieller Umwandlungen von Treibhausgasen stehen vor den aktuellen und künftigen Auswirkungen des Klimawandels besonders im Fokus der Forschung und der Lehre.
Dr. Jan Michael Schuller forscht seit Sommer 2020 bei SYNMIKRO an der Frage, wie Bakterien unter extremen Umweltbedingungen überleben können. Ein Schwerpunkt seiner Forschung ist die Frage, wie Bakterien Wasserstoff oder Licht nutzen können, um das Treibhausgas CO2 zu binden. Wichtige Erkenntnisse im Interesse des Klimaschutzes und für die Entwicklung potenziell wichtiger Zukunftstechnologien. Der Leiter einer Emmy Noether-Arbeitsgruppe und Träger des Heinz Maier-Leibnitz-Preises, sagt: „Ich fühle mich hier zu Hause, weil das Gesamtpaket stimmt. Von den technischen Voraussetzungen für die Forschung bis zu den Kolleginnen und Kollegen. Unter diesen Bedingungen kann man optimale Ergebnisse erzielen – und die Arbeit macht sehr viel Spaß.“
Den Erfolgsfaktor interdisziplinärer Zusammenarbeit und exzellenter technischer Ausstattung betont auch die geschäftsführende Direktorin von SYNMIKRO, Prof. Dr. Anke Becker. „In SYNMIKRO kommen Wissenschaftlerinnen und Wissenschaftler mit unterschiedlichen Erfahrungen und Expertenwissen zusammen. Neben dem geplanten Austausch bei wissenschaftlichen Veranstaltungen sind es gerade die zufälligen Begegnungen auf dem Weg oder in Pausen auf dem Campus und jetzt im neuen SYNMIKRO-Gebäude, die zu spannenden Diskussionen, neuen Ansätzen zur Problemlösung und neuen kreativen Ideen führen.“
„Zwölf Jahre SYNMIKRO haben in Wissenschaft und Lehre, in den Strukturen und in der Zusammenarbeit viel vorangebracht“, so die Hessische Wissenschaftsministerin Angela Dorn. „Hier wird unter einem Dach geforscht, in einem gelebten Geist der Gemeinsamkeit zwischen dem Max-Planck-Institut für terrestrische Mikrobiologie und der Philipps-Universität Marburg. Ermöglicht wurde diese intensive Kooperation durch die Förderung als LOEWE-Zentrum. Die Entwicklung von SYNMIKRO zeigt einmal mehr, dass wir mit Wissenschaft und Forschung den großen Herausforderungen unserer Zeit begegnen. Zum zwölfjährigen Bestehen gratuliere ich herzlich und wünsche weiterhin viel Erfolg und Elan bei der Entwicklung und Umsetzung der innovativen Ideen und bei der bedeutsamen Arbeit.“
Über SYNMIKRO
SYNMIKRO wurde 2010 als LOEWE-Zentrum gegründet und ging nach Ende der LOEWE-Förderung 2019 in die gemeinsame Trägerschaft der Philipps-Universität Marburg (UMR) und dem Max-Planck-Institut für terrestrische Mikrobiologie (MPI) über. SYNMIKRO ist heute ein international weithin sichtbares Zentrum, in dem mehr als 250 Wissenschaftlerinnen und Wissenschaftler aus 27 Nationen erfolgreich zusammen forschen und lehren. In den Reihen von SYNMIKRO gibt es zahlreiche Preise und Einzelförderungen, unter anderem drei Heinz Maier-Leibnitz-Preise, neun ERC Grants und fünf DFG Emmy Noether Gruppen.
Seit 2019 hat SYNMIKRO knapp 29 Millionen Euro an Drittmitteln eingeworben. In den zehn Jahren zuvor wurden neben der LOEWE-Förderung weitere 46 Millionen Euro an zusätzlichen Drittmitteln eingeworben.
Seit der Gründung hat SYNMIKRO 210 Promovierende zum Abschluss geführt (Stichtag 31.12.2020), davon 89 Frauen.
Weitere Informationen:
http://www.uni-marburg.de/synmikro
KI im Unternehmen – Führungskräfte brauchen neue Kompetenzen
Christine Molketin Presse- und Öffentlichkeitsarbeit
ifaa – Institut für angewandte Arbeitswissenschaft
„Künstliche Intelligenz (KI) wird in den Medien oft sehr stark diskutiert. Bei Beschäftigten entsteht oft die Angst, durch Technologien ersetzt zu werden oder gar ihren Arbeitsplatz zu verlieren“, so Yannick Peifer, wissenschaftlicher Experte des ifaa – Institut für angewandte Arbeitswissenschaft. „KI dient eher als Unterstützung. Bei der Einführung und dem Einsatz von KI steht immer noch der Mensch im Mittelpunkt. Führungskräfte haben im Prozess eine große Verantwortung und besondere Rolle u. a. bei der Aufklärung und Anwendung. Diese Rolle haben wir im Rahmen des Forschungsprojektes humAIn work lab empirisch untersucht.“
Im Kern lässt sich sagen: Führungskräfte stehen sehr unterschiedlichen Anforderungen gegenüber. Sie benötigen zur Bewältigung vor allem Fach-, Methoden- und Führungskompetenzen mit Fokus auf Moderation und Coaching. Genaueres zum Projekt: https://www.arbeitswissenschaft.net/forschung-projekte/humain-work-lab/.
Welche Kompetenzen sind bei Führungskräften gefragt?
Fachkompetenzen:
– Die Führungskraft besitzt ein umfassendes Verständnis von KI und kennt die Bedeutung von Daten.
– Die Führungskraft besitzt umfangreiches Wissen über die Arbeitsprozesse, welche durch KI unterstützt werden sollen.
– Die Führungskraft besitzt ausreichend informationstechnologische Kompetenzen und kann die Zusammenhänge zur KI erklären.
Methodenkompetenzen:
– Die Führungskraft kann der benötigte Begleiter und Coach der Beschäftigten bei der KI-Einführung sein und diesen Veränderungsprozess erfolgreich gestalten.
– Die Führungskraft besitzt ausreichend Moderationsfähigkeiten.
Führungskompetenz: Moderation und Coaching
– Die Führungskraft agiert als Moderator im ganzen Veränderungsprozess, indem sie alle Beteiligten umfangreich einbindet und ihre individuellen Erfahrungen berücksichtigt.
– Mitarbeitende besitzen im Rahmen unterschiedlicher Formate die Möglichkeit, an der KI-Einführung teilzunehmen (Workshops, Einzelgespräche etc.).
– Die Führungskraft analysiert die Erwartungen der Mitarbeitenden an den Einsatz der KI-Anwendung.
Wo müssen Führungskräfte hinschauen?
Die Einführung von KI geht mit erheblichen und dabei sehr unterschiedlichen Anforderungen an Führungskräfte einher. Im Zentrum stehen die Handlungsfelder: Gestaltung des Einführungsprozesses, Auswirkungen auf die Beschäftigungen, Prozessauswirkungen, KI-Kompetenzentwicklung, KI-Qualifizierung, Führungssituation, Unternehmenskultur, Mensch-KI-Interaktion
Im Rahmen von humAIn work lab entwickelt das ifaa Empfehlungen, wie diese Anforderungen zu bewältigen sind.
Veränderung der Arbeit
In der Gesamtheit sind bereits heute starke Veränderungen zu erkennen, welche die Arbeit einer Führungskraft betreffen. „Führungskräfte nehmen bei der Einführung von KI unterschiedliche Rollen ein. Sie sind Multiplikatoren, Begleiter der Beschäftigten im Veränderungsprozess aber oftmals auch Projektverantwortliche. Auf Grund der Komplexität des Themas bedarf es praxisnaher Handlungsempfehlungen. Wir wollen Führungskräften wirksame Instrumente zur Verfügung stellen“, so Peifer.
Das Projekt
Das Projekt humAIn work (Laufzeit: 07.09.2020 bis 06.09.2023) wird im Rahmen der INQA Förderrichtlinie „Zukunftsfähige Unternehmen und Verwaltungen im digitalen Wandel (EXPKI)“ durch das Bundesministerium für Arbeit und Soziales (BMAS) unter dem Dach der Initiative Neue Qualität der Arbeit (INQA) gefördert. Unter Federführung des Instituts für Sozialwissenschaftliche Forschung e.V. (ISF) München beteiligen sich das ifaa – Institut für angewandte Arbeitswissenschaft, INPUT Consulting gGmbH, IBM Deutschland GmbH, Deutsche Telekom Service GmbH, MICARAA GmbH, Atruvia AG und die Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA) sowie ver.di – Vereinte Dienstleistungsgewerkschaft an dem Projekt.
Wissenschaftliche Ansprechpartner:
Yannick Peifer, M. Sc., B. Eng.
ifaa – Institut für angewandte Arbeitswissenschaft e. V.
Tel.: 0211 / 542263-22
E-Mail: y.peifer@ifaa-mail.de
Wie künstliche Gehirne die Robotik der Zukunft prägen könnten
Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der neuen Folge des Forschungspodcast „TUCscicast“ spricht Prof. Dr. Florian Gunter Röhrbein von der TU Chemnitz über das Human Brain Project und die Entwicklung Künstlicher Intelligenz
Forschung und Entwicklung in den Bereichen „Deep Learning“, „Quanten-Computing“ und „Künstliche Intelligenz“ gehen rasant voran und werden schon bald ganz neue Möglichkeiten für den Einsatz von unter anderem Robotern und weiteren interaktiven Technologien ermöglichen. Auch die Technische Universität Chemnitz forscht intensiv an dieser Schnittstelle der Mensch-Technik-Interaktion, unter anderem im Rahmen ihrer Kernkompetenz „Mensch und Technik“ sowie im Sonderforschungsbereich „Hybrid Societies“. Mit der Berufung von Prof. Dr. Florian Gunter Röhrbein an die TU Chemnitz ergibt sich ein weiteres Forschungsfeld im Bereich der Neurorobotik.
In der aktuellen Folge des Wissenschaftspodcast „TUCscicast“ der TU Chemnitz spricht Röhrbein, Inhaber der Professur Neurorobotik an der TU Chemnitz, über den aktuellen Forschungsstand in diesem Bereich sowie technologische Entwicklungslinien. Darüber hinaus spricht er über die Ziele des Human Brain Project, in dem im Auftrag der Europäischen Kommission der Wissensstand über das menschliche Gehirn zusammengefasst und in Computermodelle übertragen werden soll. Röhrbein ist selbst auch Forscher in dem Projekt, an dem über 150 Forschungseinrichtungen überwiegend aus Europa beteiligt sind.
Der Podcast kann auf verschiedenen Wegen gehört werden:
– im Web-Player der TU Chemnitz,
– in jeder Podcast-App über unseren RSS-Feed,
– auf Spotify, Deezer und Apple Podcast.
Hintergrund: TUCscicast – Forschung, die ins Ohr geht
Die TU Chemnitz präsentiert seit 2018 im Podcast „TUCscicast“ aktuelle Forschung an der TU Chemnitz. Zu Wort kommen Forscherinnen und Forscher, die im Gespräch über ihre Arbeit und ihre Erkenntnisse berichten. Die Themen sind dabei ebenso vielfältig wie die Wissensgebiete der Interviewten und decken das gesamte Spektrum von Forschung und Lehre an der Universität ab, wobei der Fokus auf aktuellen Themen und Entwicklungen in Wissenschaft, Politik, Wirtschaft und Gesellschaft liegt.
Es liegen aktuell drei Staffeln des „TUCscicast“ mit jeweils zehn Episoden sowie ein „Special“ zu Schwerpunkten des Sonderforschungsbereichs „Hybrid Societies“ der TU Chemnitz vor.
Produziert werden die Folgen von „Die Podcastproduzenten“ der BEBE Medien GmbH, die auch den Online-Radiosender „detektor.fm“ betreibt. Ausführender Redakteur ist Pascal Anselmi. Die Produktion an der TU Chemnitz übernehmen Dr. Andreas Bischof und Matthias Fejes.
Die Hörerinnen und Hörer sind herzlich dazu eingeladen, ihre Anmerkungen und Anregungen für die inhaltliche Gestaltung der Audio-Reihe an tucscicast@tu-chemnitz.de zu richten.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Florian Gunter Röhrbein, Professur Neurorobotik der TU Chemnitz, Tel.
+49 371 531-37498, E-Mail florian.roehrbein@informatik.tu-chemnitz.de
Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php#s4
Auf der Spur der lebensbedrohlichen und lebensverkürzenden Krankheiten
Kathrin Anna Kirstein Kommunikation, Marketing und Veranstaltungsmanagement
Humboldt-Universität zu Berlin
In einer empirischen Studie wird erstmals die Häufigkeit der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen bei Kindern und Jugendlichen in Deutschland erhoben
Wie viele Kinder und Jugendliche in Deutschland sind von lebensbedrohlichen und lebensverkürzenden Erkrankungen betroffen? Um dies zu berechnen, wurde bisher auf Studienergebnisse aus Großbritannien zurückgegriffen und diese auf Deutschland übertragen. Prof. Dr. Sven Jennessen und Dr. Nadja Melina Burgio vom Institut für Rehabilitationswissenschaften der Humboldt-Universität zu Berlin haben nun erstmals eine Studie dazu durchgeführt: Sie erhoben Daten zur Häufigkeit von Diagnosen lebensbedrohlicher und lebensverkürzender Erkrankungen bei Kindern und Jugendlichen im Alter bis 19 Jahren in Deutschland. Hierfür arbeiteten sie mit dem Spitzenverband Bund der Krankenkassen (GKV-Spitzenverband) und dem Institut für angewandte Gesundheitsforschung Berlin GmbH (InGef) zusammen. Die Studie entstand im Projekt „PraeKids“ in Kooperation mit der Stiftung des Kinderhospizes Regenbogenland in Düsseldorf, welche das Projekt maßgeblich gefördert hat.
Grundlage der Studie sind Behandlungsdiagnosen, die in den Abrechnungsdaten der Krankenkassen dokumentiert sind. Um diese auszuwerten, griffen die Wissenschaftler:innen auf sogenannte ICD-10-Kodierungen zurück, die der amtlichen Klassifikation für Diagnosen dienen. Gemeinsam mit Palliativmediziner:innen der Kinder- und Jugendmedizin erarbeiteten sie eine Liste an Kodierungen, anhand derer sie die Prävalenz bestimmten, also die Häufigkeit der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen.
Für das Jahr 2019 bewegt sich diese Prävalenz zwischen 354.748 (InGef) und 402.058 (GKV) Betroffenen. Berücksichtigt man zusätzlich die Code-Liste, die in den Studien in Großbritannien angewandt und im Zuge der Studie aktualisiert wurde, erweitern sich diese Zahlen auf einen Bereich zwischen 319.948 und 402.058 betroffenen Kindern und Jugendlichen.
Die nun mittels einer Studie erhobene Prävalenz der diagnostizierten lebensbedrohlichen und lebensverkürzenden Erkrankungen stellt eine wichtige Grundlage für weitere Untersuchungen wie die Erhebung gesundheitsbezogener Versorgungs- und Begleitungsangebote in Deutschland dar. Weitere Studien sind notwendig, um das Versorgungsangebot mit dem Versorgungsbedarf betroffener Kinder, Jugendlicher sowie deren Familien zu vergleichen und daraufhin konkrete Handlungsempfehlungen für die Gestaltung gesundheitsbezogener Versorgungs- und Begleitungsangebote zu erarbeiten, beispielsweise im Hospiz- und Palliativbereich.
Zum Forschungsbericht des Projekts „PraeKids”: https://edoc.hu-berlin.de/handle/18452/25451
Kontakt
Prof. Dr. Sven Jennessen
Leiter der Abteilung Pädagogik bei Beeinträchtigungen der körperlich-motorischen Entwicklung
Institut für Rehabilitationswissenschaften
Humboldt-Universität zu Berlin
E-Mail: sven.jennessen@hu-berlin.de
Dr. Nadja Melina Burgio
wissenschaftliche Mitarbeiterin
Institut für Rehabilitationswissenschaften
Humboldt-Universität zu Berlin
E-Mail: nadja.burgio@hu-berlin.de
Wie Algen aus Abwässern zu Dünger werden
Jörg Heeren Medien und News
Universität Bielefeld
Bielefelder Forschende errichten Testanlage am Klärwerk in Lichtenau
Wenn Landwirt*innen ihre Felder düngen, versickert ein Teil des Düngemittels im Boden. Das belastet nicht nur das Grundwasser, auch wichtige Nährstoffe gehen verloren. Forschende der Universität Bielefeld und des Forschungszentrums Jülich untersuchen, wie sich diese Nährstoffe mit der Hilfe von Mikroalgen in den Düngekreislauf zurückführen lassen: Die mikroskopisch kleinen Algen nutzen Nährstoffreste in Abwässern, um zu wachsen – und können so selbst als Düngemittel verwendet werden.
Gemeinsam mit den Stadtwerken Lichtenau haben die Wissenschaftler*innen eine Testanlage zur Algenproduktion an einer Kläranlage in Lichtenau aufgebaut. Das Land NRW fördert das Projekt BiNäA mit rund 413.000 Euro. Medienvertreter*innen sind eingeladen, die Testanlage am 23. Juni bei einem Pressetermin zu besichtigen.
„Die Idee unseres Projekts ist, mithilfe von Algen ein Kreislaufsystem zu errichten“, sagt Professor Dr. Olaf Kruse, wissenschaftlicher Direktor am Zentrum für Biotechnologie (CeBiTec) der Universität Bielefeld. Er leitet die Arbeitsgruppe Algenbiotechnologie und Bioenergie und koordiniert BiNäA. „Wir versuchen, wichtige Nährstoffe zu recyceln und sie am Ende wieder als Düngemittel zu benutzen.“ BiNäA steht für „Biologischer Nährstofftransfer durch Mikroalgen“.
Pflanzen benötigen Nährstoffe wie Phosphor, Stickstoff und Kalium. Diese Elemente sind daher zentrale Bestandteile von Dünger. Weil aber ein Teil des Düngemittels im Boden versickert, gehen auch Nährstoffe verloren. „Es gibt zum Beispiel nur ein begrenztes Vorkommen an Phosphor. Bei solchen Stoffen ist es wichtig, möglichst nachhaltig mit ihnen umzugehen“, sagt Kruse. Auch Stickstoff ist ein Problem: Der Anteil, den die Pflanzen nicht verbrauchen, gelangt als Nitrat in das Grundwasser. Das kann negative Folgen für die Trinkwasserversorgung haben.
Mikroalgen lassen sich mit Nährstoffen anreichern
Algen sind in der Lage, Phosphor, Stickstoff und Kalium aus Abwässern zu verwerten. „Algen nutzen diese Stoffe, um zu wachsen – und das auf sehr nachhaltige Art und Weise: Sie brauchen außer einigen Mineralien nichts weiter als Sonnenlicht und Kohlenstoffdioxid aus der Atmosphäre“, sagt Kruse. Im BiNäA-Projekt versuchen die Wissenschaftler*innen, Mikroalgen, die bereits im Abwasser vorhanden sind, möglichst effizient zu vermehren und mit Nährstoffen anzureichern. Die so gewonnene Algen-Biomasse lässt sich trocknen und als Düngemittel verwenden.
Ein besonderer Fokus des Projekts liegt auf der Nährstoffgewinnung aus Klärwasser: Abwasser, das die Reinigungsstufen der Kläranlage schon durchlaufen hat und wieder zurück in den natürlichen Wasserkreislauf geleitet werden soll. Dieses Wasser enthält noch sehr viel Phosphor und Stickstoff. Zusammen mit den Stadtwerken Lichtenau haben die Wissenschaftler*innen eine Versuchsanlage neben der Kläranlage Altenautal in Lichtenau aufgebaut.
Algen helfen dabei, Abwasser besser zu filtern
In der Versuchsanlage wird das nährstoffreiche Wasser über eine geneigte Reaktorfläche geleitet, auf der dann ein natürlicher Algenteppich heranwächst. Die Algen binden Kohlendioxid aus der Luft und führen dem Wasser Sauerstoff zu. Somit produziert die Anlage nicht nur Algen, die Landwirt*innen als Düngemittel verwenden können, sondern hilft auch dabei, das Abwasser zu filtern und die Wasserqualität zu verbessern.
„Wir sind immer daran interessiert, unsere Kläranlagen zu optimieren. Für die Zukunft können sich so neue Möglichkeiten der biologischen Abwasserreinigung ergeben“, sagt Henning Suchanek, der technische Betriebsleiter Abwasserversorgung bei den Stadtwerken Lichtenau. „Der Nährstofftransfer aus den städtischen Abwässern in die Landwirtschaft ist gerade im ländlichen Bereich wichtig.“ Die Stadtwerke Lichtenau haben die Testanlage angeschafft und kümmern sich um Wartungs- und Reparaturarbeiten. Solche Systeme zur Wasseraufreinigung mittels Algenteppich gibt es bereits weltweit, oft werden sie als Algal Turf Scrubber (ATS, Algenteppichsysteme) bezeichnet.
Algendünger oft besser als Mineraldünger
Von Anfang an waren Wissenschaftler*innen des Forschungszentrums Jülich (FZJ) an dem Projekt BiNäA beteiligt. Sie unterstützen neben der Planung und dem Aufbau bei der Analyse von Algen-Biomasse und Nutzungskonzepten. „Wir forschen seit mehreren Jahren zum algenbasierten Nährstofftransfer vom Abwasser zur Kulturpflanze“, sagt Dr.-Ing. Diana Reinecke-Levi vom Bereich Pflanzenwissenschaften am Institut für Bio- und Geowissenschaften (IGB-2). „Unsere ATS-Anlagen zeichnen sich durch ihre einfache Handhabung, stabile Kultivierung, und geringere Kosten aus. Das macht sie für die dezentrale Abwasseraufbereitung und regionale Landwirtschaft so attraktiv.“
Mit der Versuchsanlage in Lichtenau prüfen und optimieren die Forschenden im Projekt das Verfahren zur Nährstoffgewinnung. Die Biotechnolog*innen vom Bielefelder CeBiTec untersuchen etwa, welche Algenarten dort heranwachsen und wie hoch der Anteil an Phosphor und Stickstoff ist. Wie der entstandene Algendünger im Vergleich abschneidet, testen die Wissenschaftler*innen am Jülicher IBG-2 derzeit an Weizenpflanzen. Erste Ergebnisse zeigen: Der Algendünger funktioniert – und zwar mindestens so gut wie herkömmlicher Mineraldünger, oft sogar besser. Darüber hinaus befasst sich das Projekt auch mit der Nachhaltigkeit des Algendüngers und erforscht, ob von ihm Risiken für Mensch und Umwelt ausgehen.
Enge Zusammenarbeit mit lokalen Akteur*innen
Eine Besonderheit des BiNäA-Projekts ist die enge Zusammenarbeit zwischen Wissenschaftler*innen und lokalen Akteur*innen. Neben den Stadtwerken Lichtenau sind mehrere Landwirte aus Ostwestfalen-Lippe als Projektpartner eingebunden. In einer weiteren Versuchsanlage wird das Verfahren für Abwässer getestet, die in landwirtschaftlichen Betrieben entstehen. „Das Ziel ist, ein möglichst einfaches und robustes Verfahren zu entwickeln, das die Rückgewinnung von Nährstoffen auf einer regionalen Ebene ermöglicht. Kommunen können so ihre eigenen Düngemittel produzieren“, sagt Kruse. Das Landesamt für Natur, Umwelt, und Verbraucherschutz NRW fördert BiNäA im Rahmen der Europäischen Innovationspartnerschaft EIP-Agrar. Das Projekt ist im März 2020 gestartet und läuft noch bis Dezember 2022.
Medienvertreter*innen können sich die Versuchsanlage in Lichtenau bei einem Pressetermin genauer anschauen. Es werden sowohl Wissenschaftler*innen der Universität Bielefeld und des Forschungszentrums Jülich vor Ort sein, als auch Vertreter aus der Landwirtschaft und von den Stadtwerke Lichtenau. Um Anmeldung per E-Mail bis zum 22. Juni an olaf.kruse@uni-bielefeld.de wird gebeten.
Der Pressetermin in Kürze:
Datum: Donnerstag, 23. Juni, 11 Uhr
Ort: Kläranlage Altenautal der Stadtwerke Lichtenau, Ettelner Straße, 33165 Lichtenau
Wissenschaftliche Ansprechpartner:
Prof. Dr. Olaf Kruse, Universität Bielefeld
Fakultät für Biologie
Telefon: 0521 106-12258
E-Mail: olaf.kruse@uni-bielefeld.de
Henning Suchanek, Stadtwerke Lichtenau GmbH
Abwasserentsorgung
Telefon: 05295 8070
E-Mail: suchanek@stadtwerke-lichtenau.de
Hochwasserschutz für Mensch und Natur
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Mitte Juli jährt sich zum ersten Mal das katastrophale „Ahrtal-Hochwasser“, das in Westdeutschland mehr als 180 Menschen das Leben kostete sowie Schäden in Höhe von 29,2 Milliarden Euro verursachte. Wie ein kluger Hochwasserschutz der Zukunft aussehen sollte und welche Vorteile insbesondere „naturbasierte Lösungen“ bieten, haben deutsche Wissenschaftler*innen unter Federführung der Senckenberg Gesellschaft für Naturforschung (SGN) in einer Handlungsempfehlung zusammengefasst. Der „Policy Brief“ rät zu einem kombinierten Hochwasserschutz unter Einbeziehung der von der EU geforderten Erhöhung der Schutzgebietsflächen von aktuell 10 auf 30 Prozent.
Bei einem Wasserstand von 5,75 Metern brach am 14. Juli 2021 die Datenübermittlung des Pegels Altenahr an das zuständige Landesamt ab – Wassermassen hatten die Messstation mit sich gerissen. Modellierungen zeigen, dass das Ahrwasser einen Pegelstand von bis zu sieben Metern erreichte – im Normalfall liegt er in diesem Flussabschnitt unter einem Meter. „Hochwasser sind grundsätzlich natürliche Ereignisse, die in unseren Flusslandschaften über Jahrtausende eine einzigartige Biodiversität sowie widerstandsfähige Ökosysteme mit mannigfaltigen Leistungen geschaffen haben“, erklärt Senckenberg-Wissenschaftler Dr. Phillip Haubrock und fährt fort: „In den vergangenen Jahrzehnten sind die Frequenz, die Höhe und das Risiko von Hochwassern durch massive Eingriffe des Menschen wie Flussbegradigung, Abtrennung und Bebauung der Auen, Entwaldung, Bodenversiegelung und Drainage deutlich gestiegen. Mit dem Klimawandel verstärkt sich die Hochwassergefahr zusätzlich. Die Katastrophe im letzten Sommer hat uns dies unverkennbar vor Augen geführt.“
Überschwemmungen zählen weltweit zu den häufigsten und größten aller Naturgefahren: Zwischen 1994 und 2013 waren 43 Prozent aller registrierten Naturkatastrophen Hochwasser und betrafen fast 2,5 Milliarden Menschen. Im 20. Jahrhundert forderten Überschwemmungen von Flüssen etwa 7 Millionen Todesopfer. Weltweit wird der jährliche Schaden auf 104 Milliarden US-Dollar geschätzt. „Diese Zahlen zeigen die Grenzen eines vorwiegend technisch orientierten und dabei häufig nicht nachhaltigen Hochwasserschutzes, denn dieser verlagert das Risiko nur örtlich und schadet der Umwelt“, sagt Mitautorin Prof. Dr. Sonja Jähnig vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB). Dringend notwendig sei daher ein umfassendes und integriertes Risikomanagement von Land und Wasser, das den Flüssen und ihren Auen mehr Raum gibt, die natürliche Speicherkapazität der Landschaft erhöht und damit auch naturnahe Lebensräume für mehr Artenvielfalt schafft.
Als Lösung schlägt das Forscher*innen-Team von Senckenberg, dem IGB, dem Helmholtz-Zentrum Potsdam Deutsches GeoForschungsZentrum GFZ und der Universitäten Duisburg-Essen, Kiel, Frankfurt, Osnabrück sowie der Technischen Hochschule Aachen in einem gemeinsamen „Policy Brief“ einen kombinierten Hochwasserschutz vor. Anstatt rein auf bauliche Maßnahmen wie Deiche oder künstliche Rückhaltebecken zu setzen, sollten verstärkt „naturbasierte Lösungen“ (NbS) zum Einsatz kommen, indem zum Beispiel Flüsse, Auen, Feuchtgebiete und Wälder renaturiert oder Flächen entsiegelt werden. Solche naturbasierten Lösungen erhöhen den Wasserrückhalt in der Landschaft und somit auch die Resilienz gegenüber Hochwasserereignissen. Ein wesentliches Ziel sei es, einen möglichst großen Anteil des Niederschlages am Ort des Auftretens versickern zu lassen oder dort zurückzuhalten. „Eine Erhöhung des Waldanteils kann zum Beispiel helfen, wenigstens einige Hochwasser abzumildern“, sagt Prof. Dr. Dörthe Tetzlaff vom IGB, die ebenfalls am „Policy Brief“ mitgewirkt hat. Neben dem Einsatz naturbasierter Lösungen fordern die Wissenschaftler*innen auch eine verstärkte Ausweisung von Überschwemmungsflächen bei der Erhöhung der Schutzgebietsfläche von derzeitigen 10 auf 30 Prozent, wie sie in der EU-Biodiversitätsstrategie für 2030 vorgesehen ist. Dies fördere die biologische Vielfalt und schütze zugleich die Menschen.
„Durch den globalen Klimawandel werden sich die Häufigkeit und Intensität von Starkniederschlägen weiter verstärken – die Folge sind weitere Überschwemmungen und Katastrophen. Wir brauchen ein grundlegendes Umdenken im Hochwasserschutz, in welchem naturbasierte Lösungen ein essenzielles Segment darstellen. Ein kombinierter Hochwasserschutz, der sowohl technische als auch naturbasierte Maßnahmen beinhaltet, befördert Ökosystemleistungen und die einzigartige biologische Vielfalt von Flusslandschaften und verbindet somit den Schutz von Mensch und Natur! Die Renaturierung von Flüssen und ihren angrenzenden Auenflächen, die Wiedervernässung von Mooren und die Umgestaltung des deutschen Forsts in einen vielfältigen Wald müssen mit Nachdruck vorangetrieben werden. Wir müssen mit und dürfen nicht gegen die Natur handeln“, schließt Senckenberg-Generaldirektor und Gewässerökologe Prof. Dr. Klement Tockner.
Wissenschaftliche Ansprechpartner:
Dr. Phillip J. Haubrock
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 06051- 61954 3125
phillip.haubrock@senckenberg.de
Weitere Informationen:
https://sgn.one/h3h Policy Brief
„Bürger messen ihre Bäche selbst“ – Umwelt-Campus Birkenfeld unterstützt DRK – Modellprojekt an der Kyll
Tanja Loch-Horn Referat für Öffentlichkeitsarbeit Umwelt-Campus
Hochschule Trier
Am 14./15. Juli 2021 hat die Flutkatastrophe die Menschen an der Kyll überrascht und ihr Leben nachhaltig verändert. Um sie angesichts der zunehmenden Wahrscheinlichkeit von Starkregen und Hochwasser zu stärken, haben der Umwelt-Campus Birkenfeld der Hochschule Trier, der DRK-Kreisverband Vulkaneifel und engagierte Bürger*innen zusammen ein Selbsthilfeprojekt geplant und Anfang Mai 2022 umgesetzt. Seit einem Monat messen die Bewohner in Jünkerath nun selbst den Pegel der Kyll.
Vor fast einem Jahr wurde der Lebensraum und die Existenzgrundlage vieler Bürgerinnen und Bürger in der Vulkaneifel in Folge eines Unwetters und des dadurch ausgelösten Hochwassers nachhaltig beschädigt oder zerstört. Das wirkt immer noch nach: Bei jedem starken Regen mit Unwetter sind die Menschen im Alarmzustand, schlimme Erinnerungen kommen in ihnen hoch. In der Beratung der DRK-Hochwasserhilfe berichteten die Menschen immer wieder: „Ich höre den Regen ganz anders als früher, viel lauter, ich habe Angst“.
Wissenschaftliche Studien warnen
Die Studie der World Weather Attribution (WWA) zum Starkregen in Westeuropa im Juli 2021 kommt zu dem Schluss, dass die Wahrscheinlichkeit für solche extremen Regenfälle sich durch den bisherigen menschengemachten Temperaturanstieg um das 1,2 bis 9-Fache erhöht hat. Maarten van Aalst, Leiter des Klimazentrums des Internationalen Roten Kreuzes in Den Haag sagte im Deutschlandfunk: „Die Ergebnisse unserer Studie zeigen, dass es immer wichtiger wird, auch solche extremen und sehr seltenen Ereignisse zu berücksichtigen. Denn durch den Klimawandel werden sie künftig wahrscheinlicher.“ In diesem Kontext arbeiten auch Forschende am Umwelt-Campus z. B. im BMBF Projekt FLOREST an wissenschaftlichen Lösungen zur Beherrschung der Klimafolgen. Aber auch die Bürgerinnen und Bürger vor Ort können sich im Rahmen von Bürgerwissenschaften (Citizen-Science) aktiv an den Forschungen beteiligen.
Selbst die Bäche in der Vulkaneifel beobachten
Hochwasservorhersage und frühzeitige Warnungen ermöglichen rechtzeitige Schutzmaßnahmen und werden überlebenswichtig. Das aktuelle Messnetz überwacht allerdings nur die Pegelstände der großen Flüsse. Bei lokalen Starkregenereignissen sind es aber auch die kleinen Fließgewässer in der Nähe, die über die Ufer treten und Schaden anrichten. Vor diesem Hintergrund leistet das Projekt „Bürger messen ihre Bäche selbst“ einen wichtigen Beitrag zur Steigerung der Resilienz jedes Einzelnen und der Gemeinschaft.
Intelligente Technik zum Internet der Dinge (IoT) startet in Jünkerath
Mit einer von der IoT2-Werkstatt am Umwelt-Campus Birkenfeld (UCB) entwickelten Technik können die Menschen selbst tätig werden und den Bach in Nähe von Haus und Hof per Messstation überwachen. Dazu wurde ein Pegelsystem am Oberlauf der Kyll in Jünkerath eingerichtet. Gemessen wird mit einem Ultraschallsensor, der oberhalb der Wasseroberfläche an der Brücke befestigt ist und seine Informationen in das Internet sendet. Mit der Citizen-Science-Box wurde ein neuartiges Gerät mit wasserdichtem Gehäuse und einer autarken Energieversorgung entwickelt, welches sich per grafischer Tools fast spielerisch programmieren lässt. Professor Dr. Klaus-Uwe Gollmer vom Umwelt-Campus Birkenfeld zu dem von ihm mitentwickelten Projekt: „Der Pegel an der Glaadter Brücke ist ein tolles Beispiel für Hilfe zur Selbsthilfe und wurde in Kooperation des DRK Vulkaneifel, der IoT2-Werkstatt am UCB und engagierten Bürgern realisiert. Hier zeigt sich, wie wichtig MINT (Mathematik, Informatik, Naturwissenschaft und Technik) schon in der Schule für unsere Gesellschaft ist.“
Unterstützung von BBS Gerolstein und DRK Vulkaneifel
Viele Beteiligte arbeiten Hand in Hand: Die Kommunen gaben die Erlaubnis, das System in ihrer Infrastruktur zu montieren, das DRK-Reparatur-Café wartet die Technik, der Umwelt-Campus Birkenfeld und Ehrenamtliche vor Ort werten die Daten aus und stellen diese den Anliegern zur Verfügung. In Zukunft sollen auch die Schülerinnen und Schüler der Berufsbildenden Schule Vulkaneifel in den Bau weiterer Geräte einbezogen werden. So lernen sie im Unterricht, wie IoT und Algorithmen funktionieren und wie MINT uns bei der Beherrschung der Klimafolgen unterstützen kann. Trockene Theorie wird dabei anfassbar konkret und vermittelt den jungen Menschen das Gefühl, die Zukunft selbst gestalten zu können. Manfred Wientgen ist als Projektverantwortlicher des DRK-Kreisverbandes Vulkaneifel überzeugt vom Nutzen der eigenverantwortlichen Messungen: „Aus vielen Gesprächen mit Flutopfern weiß ich, dass es von großer Bedeutung ist, etwas tun zu können und das Projekt Hochwassernetzwerk ermöglicht den Menschen, durch eigene Messungen aktiv zu werden. Der erste Monat hat gezeigt, dass wir neben wichtigen Daten auch das Gefühl vermitteln konnten, den Ereignissen nicht hilflos ausgeliefert zu sein, sondern selbst das Wetter und mögliche Gefahren im Blick zu behalten.“
Die Pegelmessung und viele weitere spannende Forschungsprojekte können am Tag der offenen Tür (25.06.22) am Umwelt-Campus besichtigt werden.
Hintergrund
Der Umwelt-Campus Birkenfeld ist Teil der Hochschule Trier und bündelt Forschung und Lehre zu MINT-Themen mit Fokus auf Digitalisierung und Nachhaltigkeit. Hier arbeiten Studierende der Informatik und der Ingenieurwissenschaften gemeinsam mit den Lehrenden an der Lösung drängender gesellschaftlicher Fragestellungen. Der Umwelt-Campus belegt im internationalen Wettbewerb GreenMetric Platz 6 von über 900 Hochschulen und Universitäten und ist damit Deutschlands nachhaltigster Hochschulstandort.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Klaus-Uwe Gollmer | k.gollmer@umwelt-campus.de | 06782/17-1223
Urbanen Wetterextremen begegnen: Vorhaben AMAREX erforscht, wie Städte im Umgang mit Regenwasser besser werden können
Julia Reichelt Universitätskommunikation
Technische Universität Kaiserslautern
Wetterextreme und ihre Folgen für die Menschen und ihr Lebensumfeld sind insbesondere in Städten spürbar. Versiegelte und dicht bebaute Flächen lassen bei Starkregen die Wassermassen nicht versickern und heizen sich im Sommer überproportional auf. Zudem schädigen längere Dürreperioden die urbane Vegetation, die im gesunden Zustand ausgleichend auf das Stadtklima wirkt. Deswegen arbeitet das Verbundvorhaben AMAREX (Anpassung des Managements von Regenwasser an Extremereignisse) jetzt an wissenschaftlichen Beiträgen, um die Folgen solcher Wetterextreme abzumildern. Forschende der Technischen Universität Kaiserslautern (TUK) sind im Projektkonsortium federführend.
„Im Zuge des Klimawandels werden sowohl Häufigkeit als auch Intensität von Wetterextremen wie Starkregen und Dürreperioden zunehmen – davon geht die Wissenschaft aus“, verdeutlicht Prof. Dr.-Ing. Ulrich Dittmer, der an der TUK das Fachgebiet Siedlungswasserwirtschaft leitet, die Relevanz des Verbundvorhabens. „Im Rahmen von AMAREX widmen wir uns den Beiträgen, die das städtische Regenwassermanagement zur Starkregen- und Dürrevorsorge leisten kann.
Mit unserer Forschung wollen wir insbesondere Antworten auf zwei zentrale Fragen liefern: Wie können Anlagen der Regenwasserbewirtschaftung (RWB) erweitert bzw. modifiziert werden, um Städte besser an Wetterextreme anzupassen? Wie lassen sich Umsetzungspotenziale und erreichbare Effekte im Bestand und bei Neuplanungen quantifizieren?“ Dabei hat das Projektkonsortium das gesamte blau-grüne System aus RWB-Anlagen, urbanen Grünflächen und städtischer Vegetation im Blick.
Das Projekt umfasst mehrere Teilaufgaben: Forschende der TUK untersuchen in Kooperation mit den Berliner Wasserbetrieben (BWB) Lösungen für die Überflutungsvorsorge und deren Effekte in Berliner Pilotgebieten. Dabei geht es ebenso um dezentrale Maßnahmen des Regenwasserrückhalts (z.B. auf Gründächern oder in Mulden wie den vorübergehenden Einstau von öffentlichen Freiflächen zum Schutz vor Überflutungsschäden. In einem weiteren Arbeitspaket erforscht die Universität Stuttgart zusammen mit den Stadtentwässerungsbetrieben Köln (StEB Köln) und der HELIX Pflanzensysteme GmbH das Potenzial der Regenwasserspeicherung zur Trockenheits- und Hitzevorsorge am Beispiel der Stadt Köln. Das Kompetenzzentrum Wasser Berlin überprüft anhand eines detaillierten Wasserhaushaltsmodells von Berlin, inwiefern die lokale Wasserbilanz sich als Indikator für die erfolgreiche Adaption an Wasserextreme im urbanen Raum eignet. Das Ecologic Institute entwickelt Methoden zur Bewertung sozialer, ökologischer und wirtschaftlicher Wirkungen von blau-grünen Infrastrukturen.
Der kontinuierliche Austausch zwischen Wissenschaft und Praxis, koordiniert von den Projektpartnern BWB und StEB Köln, erfasst die Anforderungen und Bedarfe der unterschiedlichen Stakeholder und Akteure im Bereich der RWB, wie etwa Wasserbehörden, Verbänden, Kommunal- und Bezirksverwaltungen, NGOs und Eigentümern. „Ebenso werden regelmäßige Rückmeldungen der kommunalen Ebene die Entwicklung der Methoden begleiten. Diese sollen letztlich anwendbar und übertragbar sein.“
Alle erarbeiteten Methoden fließen abschließend in eine Web-Applikation zur Entscheidungsunterstützung. Dieses Tool, das von der Technologiestiftung Berlin entwickelt wird, soll bereits in einer frühen Planungsphase die ganzheitliche Bewertung von Szenarien der RWB und damit eine wassersensible Stadtentwicklung ermöglichen.
Projektförderung und beteiligte Partner
Das Verbundvorhaben AMAREX (Förderkennzeichen 02WEE1624 A-H) wird gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme „WaX Wasser-Extremereignisse“ im Bundesprogramm „Wasser:N“ als Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Fördersumme beträgt rund 2,2 Mio. Euro. Das Verbundvorhaben wird vom Fachgebiet Siedlungswasserwirtschaft der TUK koordiniert und geleitet. Neben den genannten Forschungspartnern wirken die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz Berlin (SenUMVK) und die Senatsverwaltung für Stadtentwicklung, Bauen und Wohnen Berlin (SenSBW) als assoziierte Partner mit sowie das Amt für Landschaftspflege und Grünflächen, Grün- und Landschaftsplanung der Stadt Köln.
Fragen beatwortet:
Prof. Dr.-Ing. Ulrich Dittmer
Technische Universität Kaiserslautern
Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 631 205-3685
E-Mail: ulrich.dittmer@bauing.uni-kl.de
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Ulrich Dittmer
Technische Universität Kaiserslautern
Fachgebiet Siedlungswasserwirtschaft
Tel.: +49 631 205-3685
E-Mail: ulrich.dittmer@bauing.uni-kl.de
Anhang
Informationen zur Projektförderung
Die neue Website der Bundesanstalt für Wasserbau – informativ, vielseitig und spannend
Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
„Die Website baw.de ist unsere zentrale digitale Kommunikationsplattform. Sie erfreut sich seit Jahren steigender Beliebtheit und wird monatlich fast 100.000 Mal aufgerufen“, kommentierte der Leiter der Bundesanstalt für Wasserbau (BAW), Prof. Dr.-Ing. Christoph Heinzelmann, den Start des grundlegend überarbeiteten Internetauftritts, der am heutigen Tag online gegangen ist. „Unser Webauftritt ist der erste Anlaufpunkt für Informationen über die BAW. Er präsentiert unsere vielfältigen digitalen Angebote sowie unsere umfangreichen Projekt- und Forschungsarbeiten und richtet sich an unsere Partner in Verwaltung, Wissenschaft und Unternehmen sowie an die interessierte Öffentlichkeit.“
Infrastruktur, Umwelt und Mobilität – diese drei Themenbereiche markieren die wesentlichen Aufgabenschwerpunkte der BAW und kommen daher in der neuen Struktur besonders zum Ausdruck. Anhand ausgewählter Beispielprojekte haben Besucherinnen und Besucher der Website die Möglichkeit, sich vertieft über die Arbeit der BAW zu informieren. Prof. Heinzelmann ergänzt: „Durch unsere Arbeit leisten wir einen wichtigen Beitrag dazu, dass die Wasserstraßen in Deutschland den wachsenden verkehrlichen, technischen und ökologischen Anforderungen gerecht werden.“
Die Startseite des neuen Internetauftritts bietet Schnellzugriff auf das große Spektrum sämtlicher Dienste und Informationsangebote der BAW. Die interessierte Öffentlichkeit findet dort beispielsweise das IZW-Medienarchiv mit derzeit mehr als 20.000 frei verfügbaren Bildern aus der langen Geschichte der Bundeswasserstraßen, den BAW-Flickr-Kanal mit aktuellen Bilddokumentationen, Erklärvideos zu wasserbaulichen Themen auf dem BAW-YouTube-Kanal und vieles mehr. Im BAWBlog berichten Beschäftigte der BAW direkt aus ihrem Arbeitsalltag.
Im Repositorium für den Wasserbau ‚HENRY‘ hält die BAW aktuell über 10.000 frei zugängliche wissenschaftliche Publikationen für die Fachöffentlichkeit bereit. Spezielle Fachinformationen zu verkehrswasserbaulichen Themen sind im BAWiki zu finden, das als breitgefächertes Nachschlagewerk fortlaufend erweitert wird und zunehmend an Bedeutung gewinnt, wie die Zugriffszahlen zeigen. Mit diesen und weiteren Onlineangeboten positioniert sich die BAW als eine der wichtigsten Fachinformationsquellen in Deutschland und Europa auf dem Gebiet des Verkehrswasserbaus.
Originalpublikation:
www.baw.de
Weitere Informationen:
http://www.bw.de
Hubble-Weltraumteleskop nimmt größtes Nahinfrarotbild auf, um die seltensten Galaxien des Universums zu finden
Dr. Markus Nielbock (MPIA Presse- und Öffentlichkeitsarbeit) Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Ein internationales Team von Forschenden, darunter Ivelina Momcheva vom MPIA, hat heute das größte Nahinfrarotbild veröffentlicht, welches das Hubble-Weltraumteleskop, das von der NASA und der ESA betrieben wird, je aufgenommen hat. Es ermöglicht den Astronomen, die Sternentstehungsgebiete des Universums zu kartieren und zu lernen, wie die frühesten und entferntesten Galaxien entstanden sind. Diese hochauflösende Durchmusterung mit dem Namen 3D-DASH ist insbesondere dazu geeignet, seltene Objekte und Ziele für Folgebeobachtungen mit dem kürzlich gestarteten Weltraumteleskop James Webb (JWST) während dessen jahrzehntlanger Mission zu finden.
„Seit seinem Start vor mehr als 30 Jahren hat das Hubble-Weltraumteleskop eine Renaissance in der Erforschung der Entwicklung von Galaxien der letzten 10 Milliarden Jahre des Universums ausgelöst“, sagt Lamiya Mowla, Dunlap Fellow am Dunlap Institute for Astronomy & Astrophysics der Fakultät für Kunst und Wissenschaft der Universität Toronto und Hauptautorin der Studie. „Das 3D-DASH-Programm vergrößert das Erbe von Hubble im Hinblick auf Weitwinkelaufnahmen insofern, als dass wir damit beginnen können, die Geheimnisse der Galaxien jenseits unserer eigenen zu enträtseln.“
3D-DASH bietet den Forschern zum ersten Mal eine vollständige Nahinfrarot-Durchmusterung des gesamten COSMOS-Feldes, eines der reichhaltigsten Datensätze für extragalaktische Studien außerhalb der Milchstraße. Da das nahe Infrarot die längste und röteste Wellenlänge ist, die mit Hubble beobachtet werden kann – knapp jenseits dessen, was für das menschliche Auge sichtbar ist – können die Astronominnen und Astronomen die frühesten und am weitesten entfernten Galaxien besser erkennen.
Außerdem müssen sie einen großen Bereich des Himmels absuchen, um seltene Objekte im Universum zu finden. Bislang war ein so großes Bild nur vom Boden aus verfügbar und litt unter einer schlechten Auflösung, was die Beobachtungsmöglichkeiten einschränkte. 3D-DASH wird dazu beitragen, einzigartige Phänomene wie die massereichsten Galaxien des Universums, hochaktive schwarze Löcher und Galaxien zu identifizieren, die kurz davor stehen, miteinander zu kollidieren und zu verschmelzen.
„Ich bin neugierig auf Riesengalaxien, die massereichsten Galaxien im Universum, die durch die Verschmelzung anderer Galaxien entstanden sind. Wie haben sich ihre Strukturen entwickelt und was hat ihre Form verändert?“, sagt Mowla, die 2015 als Doktorandin an der Yale University mit dem Projekt begann. „Es war schwierig, diese extrem seltenen Ereignisse mit vorhandenen Aufnahmen zu untersuchen, und das war der Grund für die Konzeption dieser großen Durchmusterung.“
Um einen so ausgedehnten Himmelsbereich abzubilden, setzten die Forscher eine neue Technik mit Hubble ein, die als Drift And SHift (DASH) bekannt ist. DASH erzeugt ein Bild, das achtmal größer ist als das Standard-Sichtfeld von Hubble, indem mehrere Aufnahmen gemacht werden, die dann zu einem Gesamtmosaik zusammengefügt werden, ähnlich wie bei der Aufnahme eines Panoramabildes mit einem Smartphone.
DASH nimmt auch schneller Bilder auf als die übliche Methode, indem es acht Bilder pro Hubble-Umlaufbahn aufnimmt, anstatt eines einzigen Bildes, wodurch in 250 Stunden erreicht wird, was vorher 2.000 Stunden gedauert hätte.
„3D-DASH fügt dem COSMOS-Feld eine neue Ebene einzigartiger Beobachtungen hinzu und ist auch ein Sprungbrett für die Weltraumdurchmusterungen des nächsten Jahrzehnts“, sagt Ivelina Momcheva, Leiterin der Datenwissenschaft am Max-Planck-Institut für Astronomie in Heidelberg und Leitende Wissenschaflerin der Studie. „Sie gibt uns einen Vorgeschmack auf zukünftige wissenschaftliche Entdeckungen und ermöglicht uns die Entwicklung neuer Techniken zur Analyse dieser großen Datensätze.“
3D-DASH deckt eine Gesamtfläche ab, die von der Erde aus gesehen fast sechsmal so groß ist wie der Mond am Himmel. Dieser Rekord wird wahrscheinlich auch vom Hubble-Nachfolger JWST nicht gebrochen werden. Dieses wurde eher für empfindliche Nahaufnahmen gebaut, um feine Details eines kleinen Gebiets zu erfassen. Es ist das größte Nahinfrarotbild des Himmels, das Astronomen zur Verfügung steht, bis die nächste Generation von Teleskopen wie das Nancy Grace Roman Space Telescope und Euclid im nächsten Jahrzehnt in Betrieb gehen. Das MPIA ist beiden Projekten beteiligt, sowohl wissenschaftlich als auch in der Entwicklung von Messinstrumenten.
Bis dahin können professionelle Astronomen und Hobby-Sterngucker den Himmel mit einer interaktiven Online-Version des 3D-DASH-Bildes erkunden, die von Gabriel Brammer, Professor am Cosmic Dawn Center des Niels-Bohr-Instituts der Universität Kopenhagen, erstellt wurde.
Weitere Informationen
Das Hubble-Weltraumteleskop ist ein Projekt der internationalen Zusammenarbeit zwischen der NASA und der Europäischen Weltraumorganisation (ESA). Das Goddard Space Flight Center der NASA verwaltet das Teleskop in Greenbelt, Maryland. Das Space Telescope Science Institute (STScI) in Baltimore, Maryland, ist für den wissenschaftlichen Betrieb von Hubble zuständig. Das STScI wird im Auftrag der NASA von der Association of Universities for Research in Astronomy in Washington, D.C. betrieben.
Medienkontakt
Dr. Markus Nielbock
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Heidelberg, Deutschland
Tel.: +49 (0)6221 528-134
E-Mail: pr@mpia.de
Wissenschaftliche Ansprechpartner:
Dr. Ivelina Momcheva
Leiterin Datenwissenschaft
Max-Planck-Institut für Astronomie
Heidelberg, Deutschland
Tel.: +49 (0)6221 528-453
E-Mail: momcheva@mpia.de
Originalpublikation:
Lamiya A. Mowla, Sam E. Cutler, Gabriel B. Brammer, Ivelina G. Momcheva, et al., „3D-DASH: The Widest Near-Infrared Hubble Space Telescope Survey“ in The Astrophysical Journal (2022)
https://arxiv.org/abs/2206.01156
Weitere Informationen:
https://www.mpia.de/aktuelles/institutsmeldungen/2022-3d-dash – Mitteilung des MPIA mit Bildern zum Download
Digitalisierung in den KMU schreitet nur langsam voran
Dr. Jutta Gröschl Presse- und Öffentlichkeitsarbeit
Institut für Mittelstandsforschung (IfM) Bonn
IKT-Know how findet sich weiterhin vorrangig in den Großunternehmen
Der Anteil der kleinen und mittleren Unternehmen (KMU), die mindestens ein Prozent ihres Umsatzes mit Online-Verkäufen erwirtschaften, ist im Vergleich zu 2020 um zwei Prozentpunkte (2021: 19 %) gestiegen. Damit bieten die KMU zwar weiterhin deutlich seltener als Großunternehmen ihre Produkte und Dienstsleistungen über das Internet an, gleichwohl liegen sie damit nun leicht über dem EU-Durchschnitt. Deutlich höher ist allerdings der Anteil der KMU in Dänemark (38 %), Irland (33 %), Schweden (33 %) und Litauen (32 %), die mindestens ein Prozent ihres Umsatzes mit Online-Verkäufen erwirtschaften.
Deutlicher Rückgang bei den IKT-Weiterbildungen
Kleine und mittlere Unternehmen beschäftigen weiterhin seltener Fachkräfte der Informations- und Kommunikationstechnologie (IKT) als Großunternehmen (78 %): Lediglich in 17 % aller KMU fand sich in 2020 IKT-Personal.
Im Vergleich zu 2019 (30 %) sank im ersten Pandemiejahr der Anteil der kleinen und mittleren Unternehmen, die ihren Mitarbeiterinnen und Mitarbeitern Fortbildungen im IKT-Bereich anboten, um 8 %. Gleichwohl lag damit der Anteil immer noch über dem EU-Durchschnitt (18 %) in 2020.
Niedrige digitale Intensität bei den KMU
Abhängig von der Unternehmensgröße ist auch der Grad der digitalen Intensität: Für diese wird erfasst, wie viele von 12 festgelegten Technologien in einem Unternehmen zu finden sind. Demnach weisen die kleinen und mittleren Unternehmen in Deutschland eine leicht niedrigere digitale Intensität als der EU-Durchschnitt auf. Die Großunternehmen in Deutschland liegen hingegen im EU-Durchschnitt.
Weitere Informationen:
https://www.ifm-bonn.org/statistiken/mittelstand-im-einzelnen/digitalisierung-de…
Wohl dem, der Wärme liebt – Insekten im Klimawandel
Dr. Katharina Baumeister Corporate Communications Center
Technische Universität München
Wie sich der fortschreitende Klimawandel auf die Bestände heimischer Tierarten auswirkt, ist aufgrund lückenhafter Datensätze oft schwer zu verfolgen. In einer neuen Studie der Technischen Universität München (TUM) und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) wurde nun das umfangreiche Datenbanksystem der Artenschutzkartierung (ASK) des Bayerischen Landesamts für Umwelt (LfU) zum Vorkommen von Schmetterlingen, Libellen und Heuschrecken in Bayern seit 1980 ausgewertet. Das Ergebnis: Wärmeliebende Arten zeigen positive Trends.
Der Klimawandel hat in Mitteleuropa längst Einzug gehalten. Dass er auch die Populationen und Verbreitungsgebiete von Tieren und Pflanzen beeinflusst, ist schon lange kein Geheimnis mehr. Wie sich die Bestände unserer heimischen Tierarten über Jahre und Jahrzehnte verändern, ist eine Fragestellung, mit der sich das BioChange Lab der TUM beschäftigt. „Dazu kommt, dass nicht nur das Klima sich wandelt, sondern auch die Art und Intensität der Landnutzung. Hierzu zählen Landwirtschaft, Forstwirtschaft, Besiedlung und Verkehr“, sagt Dr. Christian Hof, Leiter der Forschungsgruppe BioChange an der TUM.
Mögen Veränderungen in der Tier- und Pflanzenwelt in bestimmten Gebieten oder für einzelne Arten gut dokumentiert sein, so ist die flächendeckende Datenlage über viele Arten und vor allem über längere Zeiträume hinweg nur lückenhaft. Dies erschwert generelle Rückschlüsse darüber, wie sich Populationen heimischer Arten entwickeln und welche treibenden Faktoren für die Veränderung der biologischen Vielfalt eine Rolle spielen. Gerade Erkenntnisse zur Entwicklung des Artenbestandes über einen möglichst ausgedehnten Zeitraum in Zusammenhang mit Faktoren wie Landnutzung und Klima lassen valide Schlussfolgerungen zum Arten-, Biotop- und Klimaschutz zu.
Auswertung bestehender Datenschätze
Zahlreiche ehrenamtlich und hauptberuflich arbeitende Naturbeobachterinnen und -beobachter sind im unermüdlichen Einsatz. So existieren glücklicherweise Datenbestände zum Vorkommen verschiedener Arten. Hierzu gehört das Datenbanksystem der Artenschutzkartierung (ASK) am Bayerischen Landesamt für Umwelt. Die Artenschutzkartierung ist mit derzeit rund 3,1 Mio. Artnachweisen das landesweite Artenkataster für Tier- und Pflanzenarten in Bayern. Sie bildet eine zentrale Datengrundlage für die tägliche Arbeit der Naturschutzbehörden oder auch für die Erstellung Roter Listen gefährdeter Arten durch das LfU.
Anhand komplexer statistischer Verfahren gelang es Forscherinnen und Forschern des Lehrstuhls für Terrestrische Ökologie der TUM, diewertvollen Daten der ASK auszuwerten und die Bestandstrends von über 200 Insektenarten – rund 120 Schmetterlinge, 50 Heuschrecken und 60 Libellen – in Bayern zu analysieren. In Zusammenarbeit mit zahlreichen weiteren Expertinnen und Experten konnten sie in ihrer Studie zeigen, dass in allen untersuchten Insektengruppen wärmeliebende Arten in ihrem Bestand zunahmen, während das Vorkommen von Arten, die an kühlere Temperaturen angepasst sind, zurückging.
Arten wie die wärmeliebende Feuerlibelle profitieren vom Klimawandel
Die Unterteilung in Wärme und Kälte bevorzugende Insekten erfolgte aufgrund einer Berechnung anhand empirischer Daten. „Wir haben die Temperaturvorlieben der einzelnen Arten nach ihrem Verbreitungsgebiet innerhalb Europas ermittelt. Dazu verwendeten wir die mittlere darin vorherrschende Temperatur. Das heißt, Arten, die ein eher nördliches Verbreitungsgebiet haben, sind kälteangepasste Arten, und Arten, die eher ein südeuropäisches Verbreitungsgebiet haben, sind wärmeangepasste Arten“, sagt Eva Katharina Engelhardt, Doktorandin am TUM BioChange Lab.
Wärmeangepasst sind beispielsweise der Graublaue Bläuling (Schmetterling), das Weinhähnchen (Heuschrecke) und die Feuerlibelle. „Die Feuerlibelle ist einer der bekanntesten Profiteure der Klimaerwärmung. Die ursprünglich im mediterranen Raum verbreitete Großlibelle trat Anfang der 90er Jahre zum ersten Mal in Bayern auf und ist inzwischen großflächig verbreitet“, sagt Hof zu dem Ergebnis.
Zu den kälteangepassten Arten gehören der Alpen-Perlmutterfalter, die Alpine Gebirgsschrecke oder die Kleine Moosjungfer.
Bestände von Faltern, Heuschrecken und Libellen vom Klimawandel beeinflusst
„Unsere Vergleiche der verschiedenen Insektengruppen zeigten deutliche Unterschiede“, sagt Engelhardt. „Während bei Schmetterlingen und Heuschrecken mehr Bestandsabnahmen als -zunahmen zu verzeichnen waren, zeigten die Libellen überwiegend positive Trends.“ Ein möglicher Grund hierfür ist die Verbesserung der Gewässerqualität während der letzten Jahrzehnte, was insbesondere den auf Wasser-Lebensräume angewiesenen Libellen zu Gute kommt. Lebensraumspezialisten, also Arten, die an ganz bestimmte Ökosysteme angepasst sind, verzeichneten einen Rückgang der Population. Schmetterlinge, wie das Große Wiesenvögelchen oder der Hochmoor-Bläuling sind hierfür Beispiele, denn sie sind auf ihren ganz speziellen Lebensraum angewiesen.
„Unsere Studie belegt, dass die Auswirkungen des Klimawandels eindeutige Spuren auch in unserer heimischen Insektenfauna hinterlassen. Unsere Arbeit ist ein Beispiel dafür, wie man mit modernen wissenschaftlichen Verfahren spannende Ergebnisse aus vorhandenen Datensätzen gewinnen kann. Diese sind im ehrenamtlichen und behördlichen Naturschutz zwar oft vorhanden, aber kaum systematisch ausgewertet. Dies sollte, in Form von Kooperationen wie unserer, viel öfter passieren“, meint Dr. Diana Bowler vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv).
Johannes Voith, Entomologe am Bayerischen Artenschutzzentrum im LfU, fügt hinzu: „Im Rahmen der Kooperation insbesondere mit der TUM profitieren wir nicht nur von dem reinen Erkenntnisgewinn. So ist beispielsweise geplant, dynamische Verbreitungskarten zu einzelnen Arten zu erstellen.“
Mehr Informationen:
Die Studie ist Teil der Arbeit der Juniorforschungsgruppe „mintbio“ am BioChange Lab der TUM, welche vom Bayerischen Klimaforschungsnetzwerk bayklif gefördert wird. Für die Untersuchungen arbeiteten Doktorandin Eva Katharina Engelhardt und Dr. Christian Hof intensiv mit Diana Bowler vom Deutschen Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig, der Friedrich-Schiller Universität Jena, des Helmholtz-Zentrums für Umweltforschung (UFZ), mit dem Bayerischen Landesamt für Umwelt sowie verschiedenen weiteren Wissenschaftlern und Wissenschaftlerinnen sowie Expertinnen und Experten für die untersuchten Insektengruppen zusammen.
Wissenschaftliche Ansprechpartner:
Dr. Christian Hof
Junior Research Group Leader
www.toek.wzw.tum.de/index.php?id=271
Technische Universität München
Lehrstuhl für Terrestrische Ökologie
School of Life Sciences Weihenstephan
Tel.: +49 (0) 8161 71-2489
christian.hof@tum.de
www.professoren.tum.de/en/tum-junior-fellows/h/hof-christian/
https://www.biochange.de/dr-christian-hof/
Eva Katharina Engelhardt
Technische Universität München
Hans-Carl-von-Carlowitz-Platz 2
85354 Freising
Tel.: +49.8761.3019847
e.k.engelhardt@tum.de
https://www.biochange.de/e_k_engelhardt/
https://www3.ls.tum.de/toek/team/engelhardt-eva-katharina/
www.biochange.de
www.bayklif.de/juniorgruppen/mintbio/
Originalpublikation:
Eva Katharina Engelhardt, Matthias F. Biber, Matthias Dolek, Thomas Fartmann, Axel Hochkirch, Jan Leidinger, Franz Löffler, Stefan Pinkert, Dominik Poniatowski, Johannes Voith, Michael Winterholler, Dirk Zeuss, Diana E. Bowler, Christian Hof (2022): Consistent signals of a warming climate in occupancy changes of three insect taxa over 40 years in central Europe. In: Global Change Biology, URL: https://onlinelibrary.wiley.com/doi/10.1111/gcb.16200
Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37448 (Pressemitteilung)
https://mediatum.ub.tum.de/1660497 (Bilder)
Mit fortschreitender Erholung des Arbeitsmarkts arbeiten Beschäftigte wieder mehr Stunden
Sophia Koenen, Jana Bart, Inna Felde und Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Das Arbeitsvolumen stieg im ersten Quartal 2022 aufgrund der Lockerungen der coronabedingten Einschränkungen gegenüber dem entsprechenden Vorjahresquartal 2021 um 3,3 Prozent auf 15,4 Milliarden Stunden. Dies geht aus der am Dienstag veröffentlichten Arbeitszeitrechnung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.
Die Zahl der Erwerbstätigen verzeichnete im ersten Quartal 2022 einen Anstieg von 690.000 Personen gegenüber dem Vorjahresquartal 2021 und übertraf mit 45,1 Millionen Personen erstmals wieder das Niveau vor Ausbruch der Covid-19-Pandemie im ersten Quartal 2020. Pro erwerbstätiger Person betrug die Arbeitszeit im ersten Quartal 2022 durchschnittlich 341,3 Stunden – das ist ein Anstieg von 1,7 Prozent im Vergleich zum entsprechenden Vorjahresquartal.
Nach ersten Hochrechnungen ging die Kurzarbeit im ersten Quartal 2022 gegenüber dem Vorjahresquartal um 2,4 Millionen Personen auf 1,1 Millionen Personen deutlich zurück. Während die coronabedingten Einschränkungen gelockert wurden, führten die verschärften Engpässe bei Rohstoffen und Vorleistungsgütern im Produzierenden Gewerbe infolge des russischen Kriegs gegen die Ukraine zu einem Anstieg der Kurzarbeit im Vergleich zum Vorquartal. „Der sinkende Trend bei der konjunkturellen Kurzarbeit würde sich aller Voraussicht nach umkehren, falls es kurzfristig zu einem Gas-Lieferstopp oder zu weiteren geopolitischen Verwerfungen kommt“, berichtet Enzo Weber, Leiter des Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“.
Der Krankenstand erreichte im ersten Quartal 2022 mit 6,4 Prozent einen historischen Höchststand und lag damit deutlich über dem Wert im Vorjahresquartal in Höhe von 4,4 Prozent. „Wegen der Kurzarbeit und des hohen Krankenstands infolge der Omikron-Welle lag das Arbeitsvolumen noch unter Vorkrisenniveau. Diese coronabedingten Effekte gehen aber derzeit weiter zurück“, so Weber. Im ersten Quartal hätten die Wirkungen der Covid-19-Pandemie das Arbeitsvolumen saison- und kalenderbereinigt jedoch noch um 1,0 Prozent gedämpft.
4,15 Millionen Beschäftigte gingen im ersten Quartal 2022 einer Nebentätigkeit nach. Das entspricht 6,8 Prozent mehr als noch im ersten Quartal 2021. „Ebenso wie bei geringfügigen Formen der Beschäftigung sind Nebenjobs häufig kurzfristig angelegt. Viele dieser Jobs sind während der Pandemie weggefallen und werden nun im Zuge der Lockerungen wieder nachgefragt“, erklärt IAB-Forscherin Susanne Wanger.
Weitere Informationen:
https://doku.iab.de/arbeitsmarktdaten/tab-az2021.xlsx
https://doku.iab.de/arbeitsmarktdaten/AZ_Komponenten.xlsx
https://doku.iab.de/aktuell/2014/aktueller_bericht_1407.pdf
Polarstern II: Der Startschuss für den Neubau ist gefallen
Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Bundestag macht den Weg frei für den Bau des neuen AWI-Forschungseisbrechers. Nächster Schritt ist ein Teilnahmewettbewerb, in dem sich Werften um den Auftrag bewerben können
Seit 40 Jahren fährt das Forschungsschiff Polarstern in die Arktis und Antarktis und gibt Menschen aus aller Welt die Chance, in den extremsten Regionen des Planeten sicher und effektiv zu forschen. Es hat wesentlich dazu beigetragen, dass die Bundesrepublik Deutschland rasch nach dem Beitritt zum Antarktisvertrag als Konsultativmitglied eine führende Rolle in der Polar- und Meeresforschung erreicht hat. Damit diese auch in Zukunft auf höchstem wissenschaftlichem und technischem Niveau möglich ist, hat das Bundesministerium für Bildung und Forschung (BMBF) das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in die Lage versetzt, den Bau eines modernen, leistungsfähigen und nachhaltigen Nachfolgeschiffs auszuschreiben und zu koordinieren. Mit dem Beschluss des Bundeshaushalts 2022 durch den Deutschen Bundestag am 3. Juni 2022 kann nun das Vergabeverfahren starten. Das AWI plant, die europaweite Ausschreibung für den Neubau umgehend zu veröffentlichen, sodass der Teilnahmewettbewerb als erster Schritt des Vergabeverfahrens zeitnah starten kann. Die Inbetriebnahme des neuen Schiffs ist für 2027 geplant. Für einen möglichst lückenlosen Übergang soll die notwendige Klassifikation – der so genannte Schiffs-TÜV – der Polarstern bis Ende 2027 verlängert werden.
Als Forschungs- und Versorgungsschiff der Neumayer-Station III in der Antarktis ist die Polarstern eine zentrale Säule der deutschen Polarforschung. Seit seiner Indienststellung am 09. Dezember 1982 hat das Forschungsflaggschiff der Bundesrepublik Deutschland mehr als 1,8 Millionen Seemeilen zurückgelegt – und damit rechnerisch mehr als 82-mal die Erde am Äquator umrundet. Seit 1981 gehört die Bundesrepublik Deutschland dem Antarktisvertrag als Konsultativstaat an. Das hohe Ansehen der deutschen Polarforschung und ihrer international herausragenden Forschungsplattform trägt wesentlich dazu bei, dass Deutschlands Engagement für Umwelt- und Klimaschutz in den Polarregionen unter den Vertragsstaaten Gewicht hat. Dank einer Generalüberholung von 1999 bis 2001 zählt die Polarstern auch nach 40-jähriger Dienstzeit noch immer zu den leistungsfähigsten Forschungsschiffen der Welt. Zuletzt hat sie bei extremen Wetter- und Eisbedingungen die einjährige Drift-Expedition MOSAiC am Nordpol absolviert.
Damit das AWI und die internationale Wissenschaftsgemeinde auch in den kommenden und für die Zukunft des Planeten entscheidenden Jahrzehnten Polar- und Meeresforschung auf höchstem Niveau betreiben können, hat das BMBF zugestimmt, dass das AWI das Vergabeverfahren für den Bau des multifunktionalen eisbrechenden Polarforschungs- und Versorgungsschiffs Polarstern II durchführt. Das AWI wird zudem die Bauaufsicht führen sowie die Inbetriebnahme der Polarstern II nach erfolgter Erprobung koordinieren. Danach soll der neue Forschungseisbrecher die derzeitige Polarstern vollständig ersetzen.
Dazu erklärt Bundesforschungsministerin Bettina Stark-Watzinger:
„Ich freue mich sehr, dass der Weg für den Bau der neuen Polarstern II nun frei ist. Damit kann die deutsche Meeres- und Polarforschung nahtlos an die Erfolge der Polarstern anknüpfen, wie die MOSAiC-Expedition in die Arktis. Die Polarregionen sind ein Frühwarnsystem für die Folgen des Klimawandels. Sie erlauben uns einen tiefen Blick hinein in die Zukunft unseres Klimas und Wetters. Es ist deshalb existenziell wichtig, dass wir die Vorgänge an den Polen noch besser verstehen. Denn gute Klimaforschung ist die Grundlage für besseren Klimaschutz. Die Polarstern II wird als leistungsfähiges und nachhaltiges Forschungsschiff einen wichtigen Beitrag dazu leisten.“
„Das Ziel des Neubauprojekts ist ganz klar: Wir wollen ein Forschungsschiff bauen, das wie sein Vorgänger der internationalen Wissenschaft eine Basis bietet und die Möglichkeit eröffnet, in den extremsten Umfeldern der Welt den Puls unseres Planeten zu fühlen“, sagt AWI-Direktorin Prof. Dr. Antje Boetius. „Das neue Schiff ist dabei auch ein wichtiger internationaler Beitrag Deutschlands zur UN-Dekade der Ozeanforschung für nachhaltige Entwicklung, um die globalen Nachhaltigkeitsziele der UN-Agenda 2030 zu erreichen. Außerdem soll die neue Polarstern dank modernster Ausstattung und klimafreundlicher Technik zu einer Botschafterin für Nachhaltigkeit in der Schifffahrt werden.“
Koordiniert wird der Bau des neuen Forschungs- und Versorgungsschiffes von einem neu gebildeten AWI-Projektteam unter Leitung des Luft- und Raumfahrtingenieurs Detlef Wilde. „Die einzigartige Polarstern hat in 40 Jahren hohe Maßstäbe gesetzt“, sagt Detlef Wilde. „Wir wollen diese Messlatte überspringen und der Wissenschaft mit der Polarstern II ein modernes, leistungsfähiges und nachhaltiges Schiff und damit eine mehr als würdige Nachfolgerin liefern.“ Der erste Schritt des Vergabeverfahrens sei nun der demnächst beginnende Teilnahmewettbewerb, erläutert Detlef Wilde. Dabei ist eine europaweite Ausschreibung vergaberechtlich vorgeschrieben. „Die geeigneten Bewerber werden wir nach erfolgreichem Abschluss des Teilnahmewettbewerbes zur Abgabe von Angeboten auffordern.“
Die Polarstern II wird Wissenschaftlerinnen und Wissenschaftlern aus der ganzen Welt die Möglichkeit geben, insbesondere aus den Polarregionen entscheidende Erkenntnisse zu dem tiefgreifenden Klimawandel zu gewinnen, in dem unser Planet steckt. Ziel ist es, Lösungen zu finden, um das ökologische Gleichgewicht der Polargebiete und Meere für künftige Generationen zu erhalten. In das Anforderungsprofil sind die Erfahrungen aus 40 Jahren Polarstern-Betrieb eingeflossen.
Die Polarstern II wird unter sich verändernden Eis- und Witterungsbedingungen einsetzbar sein, damit das AWI langfristig seinen Forschungsauftrag erfüllen kann, vor allem in den kalten und gemäßigten Regionen der Welt die komplexen Prozesse im System Erde zu entschlüsseln. So wird das Forschungsschiff, das wie sein Vorgänger weiterhin die Bundesdienstflagge führen wird, eine höhere Eisbrechleistung besitzen, damit es auch in die wenigen Gebiete vordringen kann, in denen das Eis für die heutige Polarstern zu dick ist, etwa das südliche Weddellmeer in der Antarktis. Die neue Polarstern soll eine Lebensdauer von mindestens 30 Jahren haben und auch im Eis überwintern können. Sie muss modernstes Großgerät für tiefe Sedimentbohrungen beherbergen können und wird über einen sogenannten „Moonpool“ verfügen, eine geschützte Rumpföffnung im Schiff, damit komplexe Tauchroboter auch unter dem Eis tauchen können.
„Wir brauchen ein leistungsfähiges Schiff, das unter allen Eisbedingungen in Arktis und Antarktis einsetzbar ist und Wissenschaftlerinnen und Wissenschaftlern die Möglichkeit gibt, Beobachtungen und Daten aus den am stärksten vom Klimawandel betroffenen Regionen zu liefern“, so Antje Boetius. „Dies sind Erkenntnisse, die unsere Gesellschaft dringend benötigt, um die richtigen Entscheidungen zu Klima-, Umwelt- und Naturschutz zu treffen – für die Zukunft der Polarregionen, der Lebensvielfalt an Land und im Meer und für kommende Generationen.“
Nicht zuletzt soll die Polarstern II für Innovation und Nachhaltigkeit in der Forschung stehen und muss dazu höchste Energieeffizienz- und Umweltstandards erfüllen – etwa durch eine deutliche Reduzierung der Stickstoffoxid-(NOx)- und Partikelemissionen durch den Einsatz von Abgasnachbehandlungsanlagen und Partikelfiltern. Dabei muss gewährleistet sein, dass die Polarstern II auch in extremen Regionen fernab jeder Versorgung sicher, effizient und verlässlich betrieben werden kann.
„Nach Abschluss des Ausschreibungsverfahrens und erfolgter Zuschlagserteilung sollte die Arbeit auf der ausgewählten Werft 2023 beginnen“, sagt Detlef Wilde. „Nach eingehenden Testfahrten auch im Eis ist die Inbetriebnahme des neuen Schiffs für 2027 geplant.“
Informationen zur Ausschreibung:
Über den Start des Vergabeverfahrens für den Neubau der Polarstern II wird das AWI auf seiner Website www.awi.de informieren. Mit Bekanntgabe im Supplement zum Amtsblatt der Europäischen Union wird die Ausschreibung auf dem elektronischen Vergabeinformationssystem subreport ELViS öffentlich zugänglich sein.
Informationen für Redaktionen
Druckbare Fotos finden Sie in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html
Ansprechpersonen:
Sebastian Grote, Abteilung Kommunikation und Medien des Alfred-Wegener-Instituts: Tel.: 0471 4831-2006, E-Mail: sebastian.grote@awi.de
Lavinia Meier-Ewert, Referentin für Öffentlichkeitsarbeit Polarstern II: Tel.: 0471 4831-1406, E-Mail: lavinia.meier-ewert@awi.de
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Weitere Informationen:
https://www.awi.de/ueber-uns/service/presse.html
https://www.awi.de/expedition/schiffe/polarstern-ii.html
Effektive Auffrischung der Antikörperantwort gegen Omikron und andere Virusvarianten nach 3. und 4. COVID-19-Impfung
Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Forschende des Paul-Ehrlich-Instituts (PEI) und der Main-Kinzig-Kliniken haben die Antikörperantwort nach COVID-19-mRNA (Comirnaty)-Impfungen gegenüber verschiedenen SARS-CoV-2-Virusvarianten im zeitlichen Verlauf untersucht. Nach zweifacher Impfung gegen COVID-19 sind die Antikörperspiegel gegenüber der derzeit in Deutschland dominierenden Omikron-Variante gering. mRNA-Auffrischimpfungen erhöhen die Antikörperspiegel gegen Omikron deutlich. Über die Ergebnisse berichtet Vaccines.
Die nach COVID-19-Impfung im zeitlichen Verlauf nachlassende Immunantwort gegen SARS-CoV-2 sowie das Auftreten von SARS-CoV-2-Varianten führen zu reduziertem Infektionsschutz und Unsicherheiten in der Vorhersage des Schutzes vor schweren Krankheitsverläufen insbesondere nach Infektion mit der Omikron-Variante des SARS-CoV-2.
Ein Forschungsteam der Abteilung Virologie und der Abteilung Sicherheit von Arzneimitteln und Medizinprodukten des Paul-Ehrlich-Instituts sowie der Main-Kinzig-Kliniken unter Leitung von Prof. Eberhard Hildt, Leiter der Abteilung Virologie des Paul-Ehrlich-Instituts, untersuchten die Antikörperantwort nach COVID-19-Impfungen. Dabei ermittelten sie den Anstieg der Blutspiegel (Titer) der Antikörper nach Auffrischimpfung(en) und die Abnahme der Titer gegenüber SARS-CoV-2-Varianten mit der Zeit nach Impfung. Zusätzlich zum Nachweis bindender und neutralisierender Titer wurde auch die Veränderung der Affinität – also die Stabilität – der Antikörperbindung an das Spikeprotein verschiedener Virusvarianten im Zeitverlauf untersucht.
Zwei Impfungen mit dem mRNA-Impfstoff Comirnaty führten nicht zur adäquaten Bildung neutralisierender Antikörper gegen die aktuell dominierende Omikron-Variante. Eine erste Auffrischungsimpfung (Booster) erhöhte dagegen die Spiegel von IgG- und IgA-Antikörpern, die gegen die Rezeptorbindungsdomäne der Virusvariante Omikron gerichtet sind, sowie deren Virus-neutralisierende Kapazität. Zwar waren fünf bis sechs Monate nach der dritten Impfung weiter Omikron-Spikeprotein-bindende Antikörper nachweisbar, aber in 36 Prozent der untersuchten Seren wurden keine Omikron-neutralisierenden Antikörper mehr detektiert. Dagegen konnten alle Seren die Delta-Variante, die im vergangenen Jahr in Deutschland weit verbreitet war, effizient neutralisieren.
Eine zweite Auffrischimpfung mit dem mRNA-Impfstoff Comirnaty – was der vierten COVID-19-Impfung entspricht – sorgte erneut für einen deutlich Anstieg Omikron-, Delta- und Wuhan-neutralisierender Antikörper.
Beim Vergleich der verschiedenen Impfstrategien bei der Grundimmunisierung (homologe Impfung mit ausschließlich Comirnaty oder Kombination Vaxzevria (AstraZeneca) und Comirnaty) zeigte sich kein Unterschied im Hinblick auf die Breite der Immunantwort nach Booster-Impfung.
Originalpublikation:
Hein S, Mhedhbi I, Zahn T, Sabino C, Benz NI, Husria Y, Renelt PM, Braun F, Oberle D, Maier TJ, Hildt C, Hildt E (2022): Quantitative and Qualitative Difference in Antibody Response against Omicron and Ancestral SARS‐CoV‐2 after Third
and Fourth Vaccination. Vaccines 2022, 10(5), 796
DOI:https://doi.org/10.3390/vaccines10050796
Weitere Informationen:
https://www.mdpi.com/2076-393X/10/5/796/htm – Volltext der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2022/12-antikoerperantwort-omikron-nach-d… Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts
Neues Tool für Notfallplanung bei Extrem-Hochwassern
Nathalie Matter Media Relations, Universität Bern
Universität Bern
Das Mobiliar Lab für Naturrisiken der Universität Bern zeigt, dass in der Schweiz weit grössere Hochwasser möglich sind als bisher angenommen. Diese Extremereignisse unterstreichen die Bedeutung einer überregionalen Notfallplanung. Ein neues Modellierungs-Tool soll bei der Bewältigung grosser Überschwemmungen helfen.
Auch Expertinnen und Experten konnten sich das Ausmass dieser Hochwasser nicht vorstellen: Mit den verheerenden Unwettern vom Sommer 2021 in Deutschland hatte schlicht niemand gerechnet. Dies zeigt, dass Hochwasser möglich sind, die den bisherigen Erfahrungsbereich massiv überschreiten – auch in der Schweiz. «Wir müssen das Undenkbare denken: extreme, noch nie so aufgetretene Niederschlagsszenarien sind möglich», sagt Olivia Romppainen, Professorin für Klimafolgenforschung und Co-Leiterin des Mobiliar Labs.
Nun hat das Mobiliar Lab Auswirkungen von extremen Hochwasserszenarien in der Schweiz mit Hilfe eines neuen Modellierungstools ermittelt. Die Berechnungen zeigen, dass es bei einem extremen Niederschlagszenario innert kürzester Zeit in sehr vielen Flüssen zu Überschwemmungen kommt. An unterschiedlichen Orten treten die Schäden praktisch gleichzeitig auf und schnellen sprunghaft in die Höhe. Die extremen Hochwasser hätten in einem solchen Worst-Case-Szenario Gebäudeschäden von knapp 6 Milliarden Franken zur Folge, was die gesamten ökonomischen Schäden von 3 Milliarden Franken des Jahrhunderthochwassers in der Schweiz von 2005 bei weitem übertrifft. Kommt dazu: Treten extreme Überschwemmungen simultan auf, werden die Rettungsorganisationen vor massive Herausforderungen gestellt. Es kann zu grossen logistischen und personellen Problemen kommen.
Neue Sicht auf die Dynamik von Naturgefahren
«Wir sind für unsere Berechnungen von Niederschlagsszenarien ausgegangen, die extrem, aber physikalisch plausibel sind», sagt Andreas Zischg, Professor für die Modellierung von Mensch-Umwelt-Systemen und Co-Leiter des Mobiliar Labs. «Sie haben sich zwar noch nie ereignet, könnten aber auftreten. Dann hätten wir es mit einem hydrologischen Erdbeben zu tun, also einem Ereignis mit grosser räumlicher Betroffenheit.» Dabei liegt der Fokus des Hochwasser-Tools nicht, wie bei der Betrachtung von Naturgefahren bisher üblich, auf Auswirkungen in einzelnen Gemeinden. Betrachtet werden erstmals die kombinierten Folgen für mehrere Flusseinzugsgebiete in weiten Teilen der Schweiz.
Wie die Untersuchung von neun extremen gesamtschweizerischen Niederschlags- und Hochwasserszenarien zeigen, liefert das Werkzeug Forschungsresultate von grosser gesellschaftlicher Relevanz. So zeigen die Simulationen des Mobiliar Labs etwa erstmals, welche indirekten Auswirkungen Überschwemmungen haben: Durch extreme Hochwasser werden unter anderem Verkehrsverbindungen unterbrochen. Im Worst Case-Szenario führt das zu Umleitungen in der Länge von 3’000 Kilometern – mit entsprechenden Folgen für Personen, die pendeln, und Lieferketten. Zu den erweiterten Präventionsmassnahmen im Hochwasserfall gehört deshalb die Planung möglicher Ausweichrouten bei Überschwemmungen.
«Treten grosse Schäden an vielen Orten gleichzeitig auf, führt dies innert Kürze zu einer komplexen und schwierig zu bewältigenden Situation», erklärt Andreas Zischg. Deshalb brauche es unbedingt eine koordinierte überregionale Notfallplanung, um auch auf Hochwasser von bisher undenkbaren Dimensionen vorbereitet zu sein. Das Tool soll nun als Übungstool für den Bevölkerungsschutz und für Blaulichtorganisationen dazu beitragen, die Notfallplanung zu verbessern und Schäden im Katastrophenfall zu mindern.
Das Mobiliar Lab für Naturrisiken an der Universität Bern
Das Mobiliar Lab für Naturrisiken ist eine gemeinsame Forschungsinitiative des Oeschger-Zentrums für Klimaforschung der Universität Bern und der Mobiliar. Untersucht werden in erster Linie die an Hagel, Hochwasser und Sturm beteiligten Prozesse und die Schäden, die daraus entstehen. Das Mobiliar Lab arbeitet an der Schnittstelle von Wissenschaft und Praxis und strebt Resultate mit hohem Nutzen für die Allgemeinheit an. Die Unterstützung durch die Mobiliar ist Teil des Gesellschaftsengagements der Mobiliar Genossenschaft.
Wissenschaftliche Ansprechpartner:
PROF. DR. ANDREAS ZISCHG
Mobiliar Lab für Naturrisiken, Universität Bern
Telefon: +41 31 684 88 39
E-Mail-Adresse: andreas.zischg@giub.unibe.ch
Originalpublikation:
https://hochwasserdynamik.hochwasserrisiko.ch/de/scenarios
Weitere Informationen:
https://www.unibe.ch/aktuell/medien/media_relations/medienmitteilungen/2022/medi…
Anhang
Medienmitteilung UniBE
Vitamin D-Anreicherung von Lebensmitteln – Potenziale auch für die Krebsprävention
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Die systematische Anreicherung von Lebensmitteln mit Vitamin D könnte mehr als hunderttausend krebsbedingte Todesfälle pro Jahr in Europa verhindern. Das ermittelten Wissenschaftlerinnen und Wissenschaftler vom Deutschen Krebsforschungszentrum (DKFZ) mithilfe statistischer Modellrechnungen.
Vitamin D-Mangel wird nicht nur mit Knochen- und Muskelerkrankungen, sondern auch mit einer erhöhten Infektanfälligkeit und zahlreichen anderen Erkrankungen in Zusammenhang gebracht. Meta-Analysen großer randomisierter Studien haben gezeigt, dass die Einnahme von Vitamin D-Präparaten die Sterberaten an Krebs um circa 13 Prozent senkt. Die Anreicherung von Lebensmitteln mit Vitamin D kann die Vitamin D-Spiegel in ähnlicher Weise erhöhen wie die Einnahme von Vitamin D-Präparaten. Einige Länder wie die USA, Kanada und Finnland reichern Lebensmittel bereits seit längerem mit einer Extraportion Vitamin D an. Die meisten anderen Nationen tun das allerdings bislang nicht.
Epidemiologen am Deutschen Krebsforschungszentrum (DKFZ) unter Leitung von Hermann Brenner untersuchten nun den möglichen Einfluss einer gezielten Anreicherung von Lebensmitteln mit Vitamin D auf die Krebssterblichkeit in Europa. Brenners Team sammelte dazu zunächst Informationen über die Richtlinien zur Nahrungsmittelergänzung von Vitamin D aus 34 europäischen Ländern. Zudem ermittelten die Wissenschaftler aus Datenbanken die Anzahl krebsbedingter Todesfälle und die Lebenserwartung in den einzelnen Ländern. Diese Informationen verknüpften sie mit den Ergebnissen der Studien zum Einfluss der Vitamin D-Gabe auf die Krebssterberaten. Mit statistischen Methoden schätzten sie daraus die Anzahl der krebsbedingten Todesfälle, die in den Ländern mit Lebensmittelanreicherung bereits verhindert werden. Außerdem errechneten sie die Zahl der Todesfälle, die zusätzlich vermieden werden könnten, wenn alle europäischen Länder die Anreicherung von Vitamin D in Lebensmitteln einführen würden.
Die Forscher kamen zu dem Ergebnis, dass die Vitamin D-Anreicherung aktuell etwa 27.000 Krebstodesfälle in allen betrachteten europäischen Ländern pro Jahr verhindert. „Würden alle von uns betrachteten Länder Lebensmittel mit angemessenen Mengen Vitamin D anreichern, könnten nach unseren Modellrechnungen ca. 130.000 bzw. etwa neun Prozent aller Krebstodesfälle in Europa verhindert werden. Das entspricht einem Gewinn von fast 1,2 Millionen Lebensjahren“, so Brenner.
Die regelmäßige Gabe von Vitamin D bei Kindern ist zwischenzeitlich weltweit gängige Praxis. Sie hat die früher verbreitete Rachitis, die bekannteste Vitamin D-Mangelerkrankung, weitestgehend verschwinden lassen. Aber noch immer hat ein großer Teil der Bevölkerung, insbesondere der älteren Menschen, niedrige Vitamin D-Spiegel, die mit einem erhöhten Risiko zahlreicher anderer Erkrankungen in Verbindung stehen. „Die aktuellen Daten zur Senkung der Krebssterblichkeit zeigen das immense Potenzial, das eine Verbesserung der Vitamin D-Versorgung auch, aber nicht nur für die Krebsprävention, haben könnte“, erläutert Brenner. „Das sollten wir künftig besser nutzen.“
Neben der Zufuhr von Vitamin D über die Nahrung kann eine ausreichende Versorgung auch durch Sonnenbestrahlung sichergestellt werden: Der Krebsinformationsdienst des DKFZ empfiehlt, sich bei Sonnenschein im Freien zwei- bis dreimal pro Woche für etwa zwölf Minuten aufzuhalten. Gesicht, Hände und Teile von Armen und Beinen sollten für diese Zeitspanne unbedeckt und ohne Sonnenschutz sein.
Tobias Niedermaier, Thomas Gredner, Sabine Kuznia, Ben Schöttker, Ute Mons, Jeroen Lakerveld, Wolfgang Ahrens, Hermann Brenner. Vitamin D food fortification in European countries: The underused potential to prevent cancer deaths.
European Journal of Epidemiology 2022, DOI: 10.1007/s10654-022-00867-4
Wachgerüttelt – DGSM-Aktionstag am 21. Juni sensibilisiert für die Wichtigkeit von erholsamem Schlaf
Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Das Motto des DGSM-Aktionstages Erholsamer Schlaf am 21. Juni 2022 lautet „Smarter schlafen“. Angesichts der weiten Verbreitung von Schlafstörungen möchte die DGSM Interessierte und Betroffene informieren, um die frühzeitige Erkennung von Schlafstörungen zu fördern.
Bei der Ein- und Durchschlafstörung (Insomnie) handelt es sich um eine der häufigsten Erkrankungen in unserem Gesundheitssystem. Studien zeigen, dass bis zu 10 % der Bevölkerung an einer behandlungsbedürftigen Insomnie leiden. Nach internationalen Studien leiden mehr als 70 % der Betroffenen länger als ein Jahr und fast 50 % länger als drei Jahre an dieser Erkrankung. Das sind mindestens 5 Millionen Bundesbürger. Viele Menschen erhoffen sich Hilfe auf dem breiten Markt für technische Schlafhilfen. Bei der Crowdfunding Plattform Kickstarter sind über 1400 Projekte mit dem Thema „Sleep“ gelistet. Das Marktforschungsinstitut Global Market Insights schätzt die weltweiten Ausgaben dafür auf bis zu 27 Milliarden in fünf Jahren. Schlafmediziner sprechen ihnen maximal eine unterstützende Funktion zu, warnen jedoch zugleich vor mehr Risiken als Nutzen. Was können sie also, die zahlreichen Sleep-Gadgets auf dem Markt? Das ist eines der Schwerpunktthemen des DGSM-Aktionstages Erholsamer Schlaf am 21. Juni 2022 – ein jährliches Datum zum Wachrütteln.
Die Gesellschaft bietet ganzjährig Informationen und Hilfestellung zum Thema Schlafstörungen und Schlaferkrankungen, nutzt aber jedes Jahr gezielt den 21. Juni, um die Botschaft, wie wichtig erholsamer Schlaf für die Gesundheit des Menschen ist, zusätzlich thematisch zu fokussieren. Jeweils am Vortag des Aktionstages lädt die DGSM zu einer Pressekonferenz mit Schlafexperten ein. Bitte merken Sie sich gern bereits dafür den 20.6. 2022 um 10.30 Uhr vor. Die Pressekonferenz findet digital statt. Bitte melden Sie sich dazu einfach bei Romy Held (romy.held@conventus.de) an und Sie erhalten die Zugangsdaten.
Weitere Schwerpunktthemen 2022 sind:
• Schlafstörungen in Krisenzeiten (Pandemie, Krieg in der Ukraine)
• Digitalisierung und Telemedizin
• Schlafmedizin in der hausärztlichen Praxis – ein Thema?!
Erste Informationen zu den Schwerpunktthemen bieten Ihnen die Videostatements unter https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2022.
Spezielle Angebote für Journalist:innen sowie weitere Informationen über den Schlaf finden sich unter https://www.dgsm.de/gesellschaft/aktionstag/informationen-zum-thema-schlaf.
Wir freuen uns über Ihr Interesse!
Kontakt für Rückfragen:
Conventus Congressmanagement
Presse- und Öffentlichkeitsarbeit
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 0173/5733326
E-Mail: romy.held@conventus.de
Weitere Informationen:
https://www.dgsm.de/gesellschaft/aktionstag/aktionstag-2022
https://www.dgsm.de/gesellschaft/aktionstag/informationen-zum-thema-schlaf
Auf Spurensuche im Abwasser: Mikroplastik, Schwermetalle, Arzneimittel
Johanna Helbing Kommunikation/ Pressestelle
Technische Hochschule Lübeck
Das Land Schleswig-Holstein unterstützt den Ausbau der Versuchs- und Ausbildungskläranlage der TH Lübeck in Reinfeld mit 700.000 Euro. Die geplante Investition in Erweiterung der Anlage ist zukunftsweisend für die Abwasserbehandlung in SH
Die TH Lübeck, Labor für Siedlungswasserwirtschaft und Abfalltechnik, betreibt seit 2005 auf dem Gelände der kommunalen Kläranlage der Stadt Reinfeld eine Versuchs- und Ausbildungskläranlage (VAK). Ziel der Anlage ist u.a. die Erprobung neuartiger Technologien, die eine verbesserte und effizientere Reinigung von (kommunalem) Abwasser ermöglicht. Die VAK dient überdies im Rahmen von Praktika, Bachelor-/Masterarbeiten und F&E-Projekten der Ausbildung des akademischen Nachwuchses im Bereich des technischen Gewässerschutzes.
Die derzeit auf der VAK vorhandene Anlagentechnik (Belebtschlammverfahren) entspricht dem Stand der Technik der 1990er Jahre. Sie erlaubt vorrangig die Minimierung des Nährstoffgehaltes zum Schutz der Gewässer gegenüber einer Eutrophierung oder einem akuten Sauerstoffdefizit. In den vergangenen Jahren wurden in der Fachwelt allerdings zunehmend weitergehende Probleme hinsichtlich des Umgangs mit Abwasser und der notwendigen Reinigungsleistung identifiziert. Hierzu zählen insbesondere folgende Themenfelder:
• Der Rückhalt von Spurenstoffen, die bisher nicht vollständig in der kommunalen Abwasserreinigung zurückgehalten werden und die nachweislich zu einer negativen Beeinflussung der Ökosysteme in den Gewässern führen können. Zu den Spurenstoffen gehören bspw. Pflanzenschutzmittel, Schwermetalle, Arzneimittel oder Putzmittel.
• Der Rückhalt von Mikroplastik, das als Quelle von Weichmachern (Phtalate etc.) oder als Träger weiterer Spurenstoffe, die sich an die Oberfläche der Partikel anlagern, problematisch für die aquatische Umwelt sein können.
• Der Rückhalt von (multiresistenten) Keimen, für die keine oder nur noch wenige Antibiotika zur Verfügung stehen und die aktuell zu gewissen Anteilen durch Kläranlagen in die Gewässer eingetragen werden.
„Es ist enorm wichtig, dass wir diese Stoffe zurückhalten, weil unser Abwassersystem ansonsten ein offenes System wäre. Das heißt: alle Stoffe, die aus der Stadt entwässert werden, können dann potenziell in die Gewässer gelangen“, sagt Prof. Matthias Grottker, Leiter des Labors für Siedlungswasserwirtschaft der TH Lübeck.
Zum gezielten Rückhalt von Spurenstoffen wurden bereits bspw. in Baden-Württemberg und Nordrhein-Westfalen kommunale Kläranlagen mit Verfahren der sog. 4. Reinigungsstufe erweitert, die notwendig sind, um Spurenstoffe gezielt aus dem Abwasser zu entfernen. Hierzu zählen die Aktivkohle-Behandlung und die Ozonung. Lösungsansätze wie Membranverfahren oder Verfahrenskombinationen der zuvor genannten Verfahrenstechniken wurden bislang nicht auf kommunalen Kläranlagen implementiert. Je nach gewähltem Verfahren werden ebenfalls Mikroplastik-Partikel und/oder (multiresistente) Keime aus dem Abwasser entfernt.
Das Land Schleswig-Holstein hat vor diesem Hintergrund einen Förderbescheid an die TH Lübeck übergeben, um die bestehende VAK um verschiedene Module der 4. Reinigungsstufe zu erweitern. Die geplante Investition ermöglicht eine zeitgemäße Bearbeitung abwassertechnischer Fragestellungen und ist somit zukunftsweisend für die Abwasserbehandlung in Schleswig-Holstein in den kommenden Jahrzehnten. Die VAK versteht sich dabei als zentrale Anlaufstelle für Fragestellungen bezüglich der 4. Reinigungsstufe auf kommunalen Kläranlagen im Land Schleswig-Holstein. Des Weiteren können die Kläranlagenbetreiber in Schleswig-Holstein die neuen innovativen Verfahren bzw. Verfahrenskombinationen kennenlernen und den Umgang mit der Technik erlernen. Zudem kann die mobile Lösung auf der VAK dazu genutzt werden, die einzelnen Verfahren oder auch Verfahrenskombinationen testweise auf kommunalen Kläranlagen in Schleswig-Holstein einzusetzen und mit deren spezifischen Abwasserzusammensetzung zu erproben. Dies betrifft vor allem Kläranlagen, die die Absicht haben, ihre Kläranlage mit einer 4. Reinigungsstufe nachzurüsten. Die Kläranlagenbetreiber können durch die VAK soweit unterstützt werden, dass eine möglichst effektive und wirtschaftliche Verfahrenslösung gefunden wird.
Die Bewilligung der Fördermittel i.H.v. 700.000 Euro für die Erweiterung der VAK erfolgt aus EU-Mitteln des Wiederaufbaufonds (EURI), die über das Landesprogramm für die Entwicklung des ländlichen Raums Schleswig-Holstein (LPLR) zur Verfügung gestellt wurden. Die Bewilligung erfolgt gemäß der „Richtlinie zur Förderung von Maßnahmen zur Abwasserbehandlung in Schleswig-Holstein“ vom 24. Oktober 2021.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Matthias Grottker
E-Mail: matthias.grottker@th-luebeck.de
Dr.-Ing. Kai Wellbrock
E-Mail: kai.wellbrock@th-luebeck.de
7 Stunden Schlaf pro Nacht sind kein Garant für erholsamen Schlaf!
Romy Held Pressestelle
Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM)
Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) empfiehlt, die Schlafdauer dem individuellen Schlafbedürfnis anzupassen und nicht einer vermeintlichen Zeitvorgabe von 7 Stunden pro Nacht. Stellungnahme der DGSM zu einer aktuellen Studie, die einen Zusammenhang zwischen sieben Stunden Schlaf als Idealwert für die kognitive Leistungsfähigkeit, das allgemeine Wohlbefinden und die psychische Gesundheit von Menschen mittleren und höheren Alters nahe legt.
Die Ergebnisse einer aktuellen britisch/chinesischen Studie mit fast 500000 Erwachsenen zwischen 38 und 73 Jahren haben zur öffentlichen Diskussion über die optimale Schlafdauer bei Erwachsenen geführt. Daraus ist der Eindruck entstanden, dass 7 Stunden Schlaf pro Nacht bei Erwachsenen eine Notwendigkeit sei. Kürzerer oder längerer Schlaf sei mit erhöhten Risiken für psychische Erkrankungen und geistige Einschränkungen verbunden.
Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) nimmt hierzu wie folgt Stellung:
Eine ursächliche Verbindung zwischen kurzem bzw. langem Schlaf und den genannten Erkrankungen bzw. Einschränkungen kann mit dem Studiendesign nicht nachgewiesen werden und die Autorinnen und Autoren der Arbeit behaupten dies auch nicht in dem zitierten Artikel. Dementsprechend ist die Studie kein Hinweis darauf, dass der Versuch, genau 7 h zu schlafen, gesundheitsförderlich ist. Dies kann sich für Menschen mit einem geringeren oder längeren Schlafbedarf sogar eher gesundheitsschädlich auswirken. Der Schlafbedarf ist individuell sehr unterschiedlich und wird genetisch gesteuert von unserer inneren Uhr. Daraus resultiert, dass die meisten Erwachsenen eine durchschnittliche Schlafdauer von etwa 6 bis 8 Stunden haben. Einige Langschläfer brauchen regelmäßig mehr Schlaf, wohingegen Kurzschläfer mit deutlich weniger Schlaf auskommen, ohne dadurch krank zu werden. Hinzu kommt, dass für den Erholungswert des Schlafes nicht nur die Schlafdauer relevant ist, sondern auch die Schlafqualität. Und die kann, körperlich oder psychisch bedingt, beeinträchtigt sein. Insofern sind die Ergebnisse der Studie differenziert zu betrachten und es ist nicht ein statistisch gewonnener Mittelwert über 500000 Probanden auf einzelne Individuen zu verallgemeinern.
Unabhängig davon ist zu betonen, dass sowohl Menschen, die einen chronischen Schlafmangel haben als auch Menschen, die regelmäßig zu lange (über 9 Stunden pro 24h) schlafen, ein erhöhtes Risiko für körperliche Erkrankungen, insbesondere Herz-Kreislauf-Erkrankungen, psychische Störungen, insbesondere Depressionen und Angststörungen und kognitive Einschränkungen bis hin zu einem erhöhten Risiko für dementielle Erkrankungen im höheren Alter haben und dass zu kurze oder zu lange Schlafzeiten auch ein Hinweis zugrunde liegender Erkrankungen sein kann.
Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) wird anlässlich des DGSM-Aktionstages Erholsamer Schlaf am 21.6.2022 die Thematik ausführlich präsentieren.
Presserückfragen bitte an:
Conventus Congressmanagement
Presse- und Öffentlichkeitsarbeit
Romy Held
Carl-Pulfrich-Straße 1, 07745 Jena
Tel.: 03641/3116280
E-Mail: romy.held@conventus.de
Originalpublikation:
Li, Y., Sahakian, B.J., Kang, J. et al. The brain structure and genetic mechanisms underlying the nonlinear association between sleep duration, cognition and mental health. Nat Aging (2022). https://doi.org/10.1038/s43587-022-00210-2
Weitere Informationen:
http://www.dgsm.de
Aktuelle Studie – Rund zehn Prozent der Erwerbstätigen arbeiten „suchthaft“
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Rund ein Zehntel der Erwerbstätigen in Deutschland arbeitet suchthaft, ergibt eine von der Hans-Böckler-Stiftung geförderte Studie auf Basis repräsentativer Daten von 8000 Erwerbstätigen.*
Von suchthaftem Arbeiten Betroffene arbeiten nicht nur sehr lang, schnell und parallel an unterschiedlichen Aufgaben, sie können auch nur mit schlechtem Gewissen freinehmen und fühlen sich oft unfähig, am Feierabend abzuschalten und zu entspannen. Führungskräfte zeigen überdurchschnittlich oft Symptome suchthaften Arbeitens. In mitbestimmten Betrieben kommt suchthaftes Arbeiten seltener vor als in solchen ohne Mitbestimmung, so die Untersuchung von Forschenden des Bundesinstituts für Berufsbildung (BIBB) und der Technischen Universität Braunschweig, die über gut zwei Jahre mit Unterstützung der Hans-Böckler-Stiftung dem Thema nachgegangen sind. Betriebsräte helfen, Grenzen zu ziehen und könnten Beschäftigte so vor Selbstausbeutung schützen.
Frühmorgens ins Büro und spätabends wieder raus, zu Hause noch einmal die Mails checken, einfach nicht loslassen können: Suchthaftes Arbeiten ist kein Randphänomen, das nur eine kleine Gruppe von Führungskräften betrifft. Tatsächlich sind exzessives und zwanghaftes Arbeiten in allen Erwerbstätigengruppen verbreitet. Das Forschungsteam hat zu diesem Thema eine Auswertung auf Basis repräsentativer Daten für Erwerbstätige in Deutschland durchgeführt. Einige der Ergebnisse von Beatrice van Berk (BIBB), Prof. Dr. Christian Ebner (TU Braunschweig) und Dr. Daniela Rohrbach-Schmidt (BIBB) mögen auf den ersten Blick überraschen. Wer bei IT-Berufen etwa an Leute denkt, die bis spät in die Nacht beruflich bedingt vor dem Computer hocken und IT-Probleme lösen, sieht sich getäuscht: Tatsächlich ist der Berufsbereich Informatik, Naturwissenschaft, Geografie am wenigsten betroffen. Am häufigsten neigen Menschen in Land-, Forst-, Tierwirtschaft und Gartenbau zu suchthaftem Arbeiten. In der ersten Gruppe sind es 6 Prozent, in der zweiten 19 Prozent. In weiteren untersuchten Wirtschaftsbereichen, unter anderem Verkehr/Logistik, Produktion/Fertigung, Kaufmännische Dienstleistungen/Handel/Tourismus oder Gesundheit/Soziales/Erziehung liegen die Werte zwischen 8 und 11 Prozent (siehe auch Abbildung 4 in der in der Fachzeitschrift „Arbeit“ publizierten Studie; Link unten).
Wann werden aus engagierten Erwerbstätigen solche, deren Leben von der Arbeit dominiert wird? Dieser Frage haben sich Wissenschaftlerinnen und Wissenschaftler schon vor Jahrzehnten gewidmet. 1971 prägte der Psychologe Wayne Oates den Begriff Workaholic, um zu beschreiben, dass einige Menschen ein Verhältnis zu ihrer Arbeit haben wie Süchtige zum Alkohol. Heute arbeitet die Forschung mit verschiedenen Kriterienkatalogen. International verbreitet ist etwa die Dutch Work Addiction Scale, die auch van Berk, Ebner und Rohrbach-Schmidt als Befragungsinstrument in ihrer Erhebung genutzt haben. Suchthafte Arbeit lässt sich demnach anhand von zwei Dimensionen bestimmen. Erstens muss die jeweilige Person exzessiv arbeiten, das heißt: lange arbeiten, schnell arbeiten und verschiedene Aufgaben parallel erledigen. Der zweite Faktor als Voraussetzung für suchthaftes Arbeiten ist die „Getriebenheit“ der Erwerbstätigen: hart arbeiten, auch wenn es keinen Spaß macht, nur mit schlechtem Gewissen freinehmen, Unfähigkeit zur Entspannung am Feierabend, also „Entzugserscheinungen“ in der erwerbsarbeitsfreien Zeit.
Die Auswertung stützt sich auf eine Befragung von rund 8000 Erwerbstätigen in den Jahren 2017 und 2018. Zu jeder der beiden Dimensionen von Arbeitssucht wurden den Interviewten fünf Aussagen präsentiert, zu denen sie, mit mehreren Abstufungen, Zustimmung oder Ablehnung äußern konnten. Etwa „Ich bin stets beschäftigt und habe mehrere Eisen im Feuer“ oder „Ich spüre, dass mich etwas in mir dazu antreibt, hart zu arbeiten“.
Der Untersuchung zufolge arbeiten 9,8 Prozent der Erwerbstätigen suchthaft. Weitere 33 Prozent arbeiten exzessiv – aber nicht zwanghaft. 54,9 Prozent der Erwerbstätigen arbeiten dagegen „gelassen“. Und eine kleine Gruppe arbeitet zwar nicht viel, aber zwanghaft.
Mit rund 10 Prozent Arbeitssüchtigen erreicht Deutschland einen Wert, der nah an den Ergebnissen ähnlicher Studien aus anderen Ländern liegt. So kamen Forschende in den USA ebenfalls auf 10 Prozent und in Norwegen auf gut 8 Prozent. Aus dem Rahmen fällt Südkorea, wo eine Untersuchung einen Anteil von fast 40 Prozent ergab, allerdings mit einer etwas weiter gesteckten Definition von Arbeitssucht.
In einer weiteren Hinsicht fügen sich die Erkenntnisse von van Berk, Ebner und Rohrbach-Schmidt in den internationalen Forschungsstand: „Insgesamt deutet die Studienlage darauf hin, dass die Verbreitung von suchthaftem Arbeiten unter den Erwerbstätigen – wenn überhaupt – nur schwache Unterschiede bezüglich soziodemografischer Merkmale aufweist.“ So ist es auch in Deutschland. Schulabschluss und Familienstatus zeigen keine Zusammenhänge mit der Neigung zu suchthafter Arbeit. Einen kleinen, aber signifikanten Unterschied gibt es zwischen Frauen und Männern, die zu 10,8 beziehungsweise 9 Prozent betroffen sind. Deutlichere Unterschiede bestehen zwischen Altersgruppen: Bei den 15- bis 24-Jährigen beträgt die Quote 12,6 Prozent, bei den 55- bis 64-Jährigen 7,9 Prozent.
Wer eine lange vertragliche Wochenarbeitszeit hat, neigt leicht überdurchschnittlich zur Arbeitssucht; ob der Vertrag befristet ist oder nicht, spielt dagegen keine Rolle. Auch das Anforderungsniveau erweist sich als neutral. Starke Unterschiede zeigen sich dagegen im Hinblick auf Selbstständigkeit und Führungsverantwortung. Unter Selbstständigen liegt die Workaholic-Quote bei 13,9 Prozent. Dies könnte auch einer der Gründe für den hohen Anteil in landwirtschaftlichen Berufen sein, denn in dieser Branche sind viele Erwerbstätige selbstständig.
Zwischen suchthaftem Arbeiten und Führungsverantwortung besteht „ein statistisch höchst signifikanter Zusammenhang“. Führungskräfte sind zu 12,4 Prozent arbeitssüchtig, andere Erwerbstätige nur zu 8,7 Prozent. „Unter den Führungskräften ist suchthaftes Arbeiten zudem umso stärker ausgeprägt, je höher die Führungsebene ist.“ Die obere Ebene kommt auf einen Anteil von 16,6 Prozent. In vielen Betriebskulturen werden an Führungskräfte wahrscheinlich Anforderungen gestellt, die „Anreize für arbeitssüchtiges Verhalten“ setzen, vermuten die Wissenschaftlerinnen und der Wissenschaftler. Beispielsweise, wenn erwartet wird, dass sie als Erste kommen und als Letzte gehen.
Einen starken Zusammenhang mit suchthafter Arbeit haben schließlich Betriebsgröße und Mitbestimmung. In Großbetrieben ist Arbeitssucht weniger verbreitet als in kleinen Betrieben. Bei weniger als zehn Beschäftigten „fallen 12,3 Prozent in die Kategorie der suchthaft Arbeitenden“, bei mehr als 250 Beschäftigten 8,3 Prozent. Dies könnte an einer stärkeren Regulierung liegen. Beschäftigte in Großunternehmen bekommen Schwierigkeiten mit der Personalabteilung, wenn das Arbeitszeitkonto überquillt. Ähnliche Unterschiede treten beim Vergleich von Betrieben mit und ohne Betriebsrat zutage: Mit Mitbestimmung arbeiten 8,7 Prozent der Beschäftigten suchthaft, ohne Betriebsrat 11,9 Prozent. Eine besondere Rolle dürften in diesem Kontext Betriebsvereinbarungen spielen – „ein wichtiges Instrument der betrieblichen Regulierung, welches exzessivem und zwanghaftem Arbeiten entgegenwirken kann“, so die Forschenden.
Wissenschaftliche Ansprechpartner:
Dr. Eike Windscheid
Abteilung Forschungsförderung
Tel. 0211-7778-644
E-Mail: Eike-Windscheid@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
*Beatrice van Berk, Christian Ebner, Daniela Rohrbach-Schmidt: Wer hat nie richtig Feierabend? Eine Analyse zur Verbreitung von suchthaftem Arbeiten in Deutschland, Zeitschrift Arbeit 3/2022, April 2022. Download: https://www.degruyter.com/document/doi/10.1515/arbeit-2022-0015/html
Kleine Wasserlinse – großes Potential für die Landwirtschaft | Rund 500.000 Euro für Praxis-Forschungsprojekt
Friedrich Schmidt Pressestelle
Universität Vechta
An Teichen und Gräben sieht man sie häufig – die Teich- oder Wasserlinsen, im Volksmund auch „Entengrütze“ genannt. Wasserlinsen können unter optimalen Bedingungen ihre Biomasse innerhalb eines Tages verdoppeln und gedeihen auch auf Schmutz- und Abwässern hervorragend. Wie (wirtschaftlich) praktikabel das funktioniert, ob die Abwässer auf diese Weise gereinigt werden können – sodass sie eventuell einleitfähig werden – und ob darüber hinaus ein natürliches Futtermittel enstehen kann, untersucht das Konsortium um das Forschungsprojekt ReWali.
Am 10. Mai 2022 fand das Kick-off-Meeting des Projektes „ReWali – Reduktion des Nährstoffeintrags in Gewässer sowie Produktion von Futtermittel durch Wasserlinsen“ bei der Firma NOVAgreen statt. Ziel des Projektes ist es, Kreislaufwirtschaft in der Landwirtschaft durch den Einsatz der Wasserlinse neu zu denken. Die Wasserlinse ist innerhalb kurzer Zeit in der Lage, dem Wasser Nährstoffe wie z.B. Nitrat und Phosphor zu entziehen und in erntefähige Biomasse zu binden. Diese Biomasse soll im Projekt als natürliches, proteinreiches Futtermittel eingesetzt werden. Dadurch kann die Linse in einem Kreislaufsystem direkt vor Ort wieder einer Nutzung zugeführt und die Nährstoffe somit „recycelt“ werden.
Im Projekt wird die bisher unterschätzte heimische Pflanze u.a. auf sogenanntem „Schlabberwasser“, d.h. einem mäßig nährstoffhaltigen Brauchwasser aus der Gänsehaltung angebaut und dann wieder direkt als Futter eingesetzt. Solche niedrig und mäßig belasteten Wasser wie das Schlabberwasser einzuleiten erfordert eine Genehmigung der Wasserbehörden und wird nach heutigen Standards immer schwieriger umzusetzen. Alternativ muss belastetes Oberflächen- und Brauchwasser gelagert werden, was Platz benötigt und zusätzliche Kosten aufwirft. Die Produktion von Wasserlinsen könnte die Problematik der Verwertung des Schlabberwassers lösen und gleichzeitig ein lokal produziertes Futter für die Gänsezucht darstellen, das im optimalen Fall z.B. Soja ersetzen könnte. Dieses Konzept der Kreislaufwirtschaft könnte zukünftig auch auf andere Tierarten, wie z.B. die Fischhaltung übertragen werden.
Technisches KnowHow für den Anbau liefert im Projekt die Firma NOVAgreen Projektmanagement GmbH aus Vechta-Langförden. Praktisch erprobt wird das Projekt auf dem Gänsehof der Familie Claßen aus Bakum, wo die Wasserlinse angebaut und verfüttert wird. Die Universität Göttingen untersucht die Fleischqualität, der mit Wasserlinsen gefütterten Gänse. Auch die Frage „ob Wasserlinsen ebenso an Fische verfüttert werden können und ob insbesondere Forellen (als Fleischfresser mit hohem Eiweißbedarf) die proteinreiche Wasserlinse gut vertragen“, versucht die Uni Göttingen in diesem Projekt zu beantworten. Außerdem sollen Wege ermittelt werden, wie die Wasserlinse lagerfähig und in Mischrationen eingesetzt werden kann. Die Projektkoordination und Öffentlichkeitsarbeit übernimmt der Verbund Transformationsforschung agrar Niedersachsen (trafo:agrar) bei der Universität Vechta.
Gefördert wird das Vorhaben über drei Jahre mit rund einer halben Millionen € von den Europäischen Innovations-Partnerschaften für Landwirtschaftliche Produktivität und Nachhaltigkeit.
Wissenschaftliche Ansprechpartner:
Kontakt
Dr. Linda Armbrecht und Dr. Stefanie Retz
Verbund Transformationsforschung agrar Niedersachsen
E-Mail: linda.armbrecht@trafo-agrar.de, stefanie.retz@trafo-agrar.de
Tel.: +49. (0) 4441.15 442
https://www.trafo-agrar.de
Weitere Informationen:
https://www.uni-vechta.de/koordinierungsstelle-transformationsforschung-agrar
Kompetent, kompakt und aktuell: diabetes zeitung feiert sechsjähriges Bestehen
Michaela Richter Pressestelle
Deutsche Diabetes Gesellschaft
Kompetent, kompakt und aktuell: Seit nunmehr sechs Jahren informiert die diabetes zeitung (dz) umfassend über Diabetes mellitus und präsentiert ihren Leser*innen in 10 Ausgaben pro Jahr komprimiert die wichtigsten wissenschaftlichen Erkenntnisse und Informationen rund um die Stoffwechselerkrankung. Sie wird von der Deutschen Diabetes Gesellschaft (DDG) in Kooperation mit der MedTrix Group herausgegeben, erscheint in einer Print-Auflage von 25.000 Exemplaren und kann zudem als e-Paper abgerufen werden.
Die Anzahl an Diabetespatientinnen und -patienten steigt und täglich gibt es neue Erkenntnisse und Informationen aus Wissenschaft, Therapie, Praxis und Gesundheitspolitik. „Es bleiben den Behandelnden im Praxisalltag immer weniger Zeitressourcen, um sich ausgiebig über aktuelle und wichtige Entwicklungen zu informieren“, erklärt DDG Mediensprecher Professor Dr. med. Baptist Gallwitz. „Die dz ist von vielen Schreibtischen in Klinik und Praxis nicht mehr wegzudenken. Sie ist als zuverlässige Quelle, die konzentriert und umfassend rund um Diabetes berichtet, inzwischen unverzichtbar.“
Monatlich fasst ein Redaktionsteam, bestehend aus Expertinnen und Experten der Diabetologie und angrenzender Fächer, alle wichtigen Ereignisse zusammen. Sie berichten über aktuelle Nachrichten, Kongresse, Kasuistiken, Weiterbildungsangebote, neue Therapieansätze, Leitlinien, medizintechnische Innovationen, Ergebnisse aus der Ernährungsforschung, Innovationen auf dem Diabetes-Arzneimittelmarkt und Nützliches für den Praxis- oder Klinikalltag. Aktuelle wissenschaftliche Publikationen werden in kurzen Übersichtsartikeln zusammengefasst. Einen besonderen Stellenwert nehmen auch versorgungsrelevante und gesundheitspolitische Themen in Interviews, Artikeln und Gastbeiträgen renommierter Expertinnen und Experten ein.
„Neben den umfassenden Inhalten möchten wir auch alle an Diabetes beteiligten Fachbereiche in die Berichterstattung einbeziehen, indem wir ihre – oft sehr verschiedenen – Bedürfnisse und Interessen bedienen“, führt Stephan Kröck, Geschäftsführer der MedTriX GmbH Deutschland, aus. „Bei der Gründung vor sechs Jahren war es uns wichtig, einen Titel für eine diabetologisch interessierte, diverse Zielgruppe zu publizieren, der nicht ausschließlich für Spezialistinnen und Spezialisten gedacht ist. Wir wollten nicht nur ein weiteres diabetologisches Fachjournal schaffen.“
So richtet sich die dz gleichwohl an Ärztinnen und Ärzte der Allgemeinmedizin, der inneren Medizin und der Diabetologie – sowohl in Klinik als auch in Praxis –, Expertinnen und Experten aus den Bereichen Diabetesberatung und -schulung, Pflege und Podologie. „Aber wir haben nicht nur die Behandelnden im Blick. Auch Entscheidungsträger aus Politik und Gesundheitswesen gehören zu unserem langjährigen Leserkreis. Denn bevor gesundheitspolitische Beschlüsse gefasst werden, müssen und wollen die Verantwortlichen optimal informiert sein“, erklärt Gallwitz. Dass die dz diese verschiedenen Disziplinen miteinander verbindet, mache sie einzigartig am Markt.
Rund 90 Prozent der Diabetespatientinnen und -patienten werden in Hausarztpraxen diagnostiziert und betreut. Hier ist aufgrund der Fülle und Vielfältigkeit der zu behandelnden Erkrankungen der Informationsbedarf zu aktuellen Neuerungen in der Diabetologie besonders hoch. „Die diabetes zeitung bildet die große Schnittmenge in der täglichen Arbeit von Hausärztinnen und Hausärzten sowie Diabetologinnen und Diabetologen aufgrund ihrer Themenvielfalt rund um den Diabetes gut ab. Dadurch leistet sie eine wichtige Informationsarbeit“, erläutert Dipl.-Med. Ingrid Dänschel, Vorstandsmitglied im Deutschen Hausärzteverband.
Die dz erscheint mit einer Auflage von 25.000 und ist als e-Paper auf der Website der DDG verfügbar https://www.deutsche-diabetes-gesellschaft.de/diabetes-zeitung sowie im Zeitungsformat hier zu abonnieren: https://shop.medical-tribune.de/diabetes-zeitung
Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Landwirtschaft, Habitatverlust oder Abwässer – menschgemachte Stressoren wirken sich negativ auf die biologische Vielfalt in Bächen und Flüssen aus. In welchem Maße dabei auch ihr Vermögen zur Selbstreinigung und andere wichtige Ökosystemleistungen in Mitleidenschaft gezogen werden, darüber weiß man noch sehr wenig. Mit einer kürzlich im Fachjournal Global Change Biology veröffentlichten Metastudie hat ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) den weltweiten Stand der Forschung dazu erfasst – und gibt damit neue Impulse für ein verbessertes Gewässermanagement.
Fließgewässer sind die Lebensadern unserer Erde, Hotspots der Biodiversität und für den Menschen unverzichtbare Lebensgrundlage: Sie stellen Trinkwasser bereit, dienen dem Hochwasserschutz und werden zur Bewässerung landwirtschaftlicher Flächen genutzt. Doch der Mensch nimmt Einfluss auf Gewässersysteme und deren ökologische Funktionen – unter anderem durch Veränderung der natürlichen Gewässerstruktur, Landwirtschaft oder Einleitung von Abwässern. „Das alles geht natürlich nicht spurlos an den Fließgewässern vorüber“, sagt Dr. Mario Brauns, Wissenschaftler am UFZ-Department Fließgewässerökologie. „Die allermeisten Studien dazu befassen sich mit den Auswirkungen auf die Biodiversität – was aus unserer Sicht aber nur einen Teil des Problems erfasst. Denn ein Verlust der biologischen Vielfalt kann zwar anzeigen, dass etwas nicht stimmt in einem Gewässer, doch ob und inwieweit seine ökologischen Funktionen in Mitleidenschaft gezogen sind, bleibt unbeantwortet.“
Eine der wichtigsten Ökosystemleistungen von Fließgewässern ist ihre natürliche Reinigungsleistung. Sie kann über verschiedene ökologische Funktionen wie etwa die Nährstoffaufnahme oder die Zersetzung von Laub bewertet werden. Doch wie genau wirken sich menschliche Stressoren auf diese ökologischen Funktionen aus, die für die natürliche Selbstreinigungskraft eines Fließgewässers essenziell sind? „Für unsere Metastudie haben wir gemeinsam mit internationalen Kolleg:innen den aktuellen Stand der Forschung zu dieser Frage zusammentragen“, sagt Brauns. Das Forschungsteam wertete die Fachliteratur nach Studien aus, in denen die Auswirkungen menschlicher Stressoren auf die ökologischen Funktionen von Fließgewässern untersucht wurden. „Wir haben sämtliche weltweit verfügbaren Forschungsarbeiten recherchiert und fanden insgesamt 125 Studien – was im globalen Maßstab wirklich eine sehr geringe Ausbeute ist“, sagt Brauns. „Das hat noch einmal verdeutlicht, wie wenig hierzu bislang geforscht wurde. Und: Die gefundenen Studien wurden vor allem in Europa, Nordamerika oder Kanada durchgeführt. Über die Regionen Asien oder Afrika ist bislang fast nichts bekannt. Hier besteht aus unserer Sicht höchster Forschungs- und Handlungsbedarf.“
Die Auswertung der Studiendaten ergab, dass die Effizienz, mit der Fließgewässer Nitrat zurückhalten können, in Bächen, die durch landwirtschaftlich genutzte Gebiete fließen, fast fünfmal geringer ist als in Bächen mit natürlicher Umgebung. „Das ist wirklich enorm“, sagt Brauns und erklärt: „Landwirtschaftlich geprägte Fließgewässer sind durch hohe Nährstoffkonzentrationen und eine geschädigte Gewässerstruktur so stark belastet, dass sie ihre natürliche ökologische Rückhaltefunktion nicht mehr ausreichend erfüllen können und dadurch einen Großteil ihrer Reinigungsleistung einbüßen.“ Ein weiteres wichtiges Ergebnis der Studie ist die vergleichende Bewertung der Stressoren: Welcher Stressor hat über alle ökologischen Funktionen hinweg die stärksten Auswirkungen? Deutlich auf Platz eins liegt die Einleitung von Abwässern. Auf dem unrühmlichen zweiten Platz die Landwirtschaft und auf Platz drei die Urbanisierung. „Das sind alles Bereiche, in denen wir dringend tätig werden müssen“, sagt Brauns. „Um die Gewässergefährdung besser abschätzen und passende Managementmaßnahmen einleiten zu können, sind die ökologischen Funktionen von Fließgewässern sehr gute und aussagekräftige Indikatoren. Das konnten wir mit unserer Metastudie zeigen. Wir hoffen, dass es in Zukunft vermehrt Studienansätze geben wird, die die ökologischen Funktionen von Fließgewässern in den Fokus nehmen. Und das am besten auf breiter Ebene weltweit – denn es besteht rund um den Globus dringender Handlungsbedarf.“
Wissenschaftliche Ansprechpartner:
Dr. Mario Brauns
UFZ-Department Fließgewässerökologie
mario.brauns@ufz.de
Originalpublikation:
Mario Brauns, Daniel C. Allen, Iola G. Boëchat, Wyatt F. Cross, Verónica Ferreira, Daniel Graeber, Christopher J. Patrick, Marc Peipoch, Daniel von Schiller, Björn Gücker: A global synthesis of human impacts on the multifunctionality of streams and rivers, Global Change Biology, doi: 10.1111/gcb.16210
https://doi.org/10.1111/gcb.16210
Studie untersucht Mikroplastikbelastung in der Rheinaue bei Langel in Köln
Gabriele Meseg-Rutzen Kommunikation und Marketing
Universität zu Köln
Mikroplastik sammelt sich in der Rheinaue Langel-Merkenich an / Topografie und Überflutung bestimmen die lokale Menge der Plastikpartikel im Boden
Mikroplastik kann sich in Flussauen ablagern und in tiefere Bodenbereiche transportiert werden. Die lokale Topografie, die Überschwemmungsfrequenz und die Bodenbeschaffenheit sind für die Menge der abgelagerten Plastikpartikel und deren mögliche Verlagerung in die Tiefe verantwortlich. Das ist das zentrale Ergebnis einer Studie von Forscher:innen der Universitäten Köln und Bayreuth unter der Leitung von Professorin Dr. Christina Bogner vom Geographischen Institut der Universität zu Köln und Dr. Martin Löder von der Universität Bayreuth. Das Forschungsteam untersuchte die Rheinaue Langel-Merkenich nördlich von Köln auf drei
Probenahmelinien in zunehmenden Abstand vom Fluss jeweils in zwei Bodentiefen auf die Mikroplastikbelastung. Das Forschungsteam ist Teil des DFG-Sonderforschungsbereichs 1357 Mikroplastik. Der aus den Untersuchungen resultierende Artikel „Flooding frequency and floodplain topography determine abundance of microplastics in an alluvial Rhine soil“ ist bei Science of the Total Environment erschienen.
Es ist bekannt, dass über Flüsse Mikroplastik in Richtung der Ozeane transportiert wird. Unklar ist, ob alle Partikel letztlich dort landen. Während des Weges in Richtung Meer interagieren Mikroplastikpartikel nicht nur mit Flusssedimenten, sondern können sich auch in den Uferbereichen ablagern. Forscher:innen der Universität zu Köln und der Universität Bayreuth untersuchten in Überflutungsbereichen des Rheins, ob bei größeren Überschwemmungen ein Teil des Mikroplastiks auf den überschwemmten Flächen verbleibt. Besonders interessierten sich die Wissenschaftler:innen dafür, wie sich das Mikroplastik in den überschwemmten Böden verteilt und ob es in tiefere Bodenhorizonte gelangt.
Um diese Frage anzugehen, sammelte das Team in der Rheinaue Bodenproben in zwei verschiedenen Tiefen (0-5 cm und 5-20 cm) entlang dreier Probenahmelinien mit Messpunkten mit zunehmendem Abstand zum Fluss und bestimmten die Häufigkeit von Mikroplastik mittels Mikro-Fourier-Transformations-Infrarot-Spektroskopie (mikroFTIR Spektroskopie). Dieses Verfahren ermöglicht eine eindeutige Charakterisierung der Plastiksorte jedes untersuchten Partikels bis zu einer minimalen Partikelgröße von 10 µm über die Messung seines chemischen Fingerabdrucks. Die Menge an Mikroplastik pro Kilogramm trockenen Bodens schwankte zwischen 25.502 und 51.119 Partikeln in den obersten 5 cm und zwischen 25.616 und 84.824 Partikeln im tieferen Boden (5-20 cm). Ungefähr 75 Prozent der Partikel waren kleiner als 150 µm.
Bei ihren Untersuchungen stellten die Forscher:innen fest, dass die Verteilung der Mikroplastikpartikel im Wesentlichen von zwei Faktoren abhängt: einerseits von der Beschaffenheit und dem Bewuchs der Bodenoberfläche und andererseits davon wie häufig die untersuchte Stelle überschwemmt wird. So können sich im Laufe der Überschwemmungen vor allem in den Senken Mikroplastikpartikel in den Rheinauen anreichern und werden an Stellen, die durch Grasbewuchs vor Erosion geschützt sind und in denen Regenwurmaktivität festgestellt wurde, auch in tiefere Schichten der Bodenhorizonte verlagert.
„Je kleiner das Mikroplastik ist, umso eher wird es von Bodenlebewesen aufgenommen und kann sie möglicherweise negativ beeinflussen. Wie genau und in welchen Mengen Mikroplastik für Bodenlebewesen schädlich sein kann, erforschen wir neben der Entstehung und dem Transportverhalten von Mikroplastik in der Umwelt im SFB Mikroplastik“, sagt Doktorand Markus Rolf. Professorin Dr. Bogner fügt hinzu: „Unser interdisziplinärer Ansatz kann auch auf andere Überschwemmungsgebiete übertragen werden, um die entsprechenden Prozesse aufzuklären. Informationen aus solchen Untersuchungen sind sowohl für die Lokalisierung potenzieller Mikroplastiksenken für Probenahmepläne als auch für die Identifizierung von Gebieten mit erhöhter Bioverfügbarkeit von Mikroplastik für eine angemessene ökologische Risikobewertung von wesentlicher Bedeutung.“
Inhaltlicher Kontakt:
Professorin Dr. Christina Bogner
Geographisches Institut der Universität zu Köln
+49 221 470 3966
christina.bogner@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 221 470 2396
r.hahn@verw.uni-koeln.de
Veröffentlichung:
https://www.sciencedirect.com/science/article/pii/S0048969722022343
Gesunder Schlaf: Warum so wichtig fürs Herz?
Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Schlafmangel hat Folgen für den Organismus und schädigt dauerhaft Herz und Kreislauf. Was zum herzgesunden Schlaf gehört, erklären Herzspezialisten und Schlafmediziner in HERZ heute
Gesunder Schlaf wirkt wie ein Medikament: Während der Nachtruhe sinken Herzschlag und Blutdruck. Außerdem werden Fett- und Zuckerstoffwechsel optimiert, das Immunsystem gestärkt, die Wundheilung beschleunigt und zelulläre Reparaturprozesse angestoßen. Umgekehrt hat Schlafmangel gravierende Folgen für den Körper – insbesondere für das Herz: „Findet der erholsame Schlaf dauerhaft zur falschen Zeit oder regelmäßig zu kurz statt, können die Folgen für die Gesundheit gravierend und zahlreiche Krankheiten die Folge sein, darunter schwere Erkrankungen des Herz-Kreislauf-Systems”, warnt Herzspezialist Prof. Dr. med. Dr. phil. Anil-Martin Sinha vom Wissenschaftlichen Beirat der Deutschen Herzstiftung und Chefarzt der Abteilung für Kardiologie am Sana Klinikum Hof in der aktuellen Ausgabe von HERZ heute. Besonders ausgeprägt seien die negativen Auswirkungen auf Herz und Kreislauf bei den schlafbezogenen Atemstörungen, etwa der obstruktiven Schlafapnoe. Mehr Informationen zum Zusammenhang zwischen Schlaf und Herzgesundheit sowie neue Erkenntnisse aus der Schlafmedizin bietet die aktuelle Ausgabe von HERZ heute 2/2022 mit dem Titel „Herzgesund schlafen“. Renommierte Kardiologen und Schlafmediziner erklären unter anderem Ursachen und Behandlungsmöglichkeiten der Schlafapnoe und geben Tipps für einen besseren Schlaf. Ein Probeexemplar der Ausgabe kann kostenfrei bei der Herzstiftung angefordert werden unter Tel. 069 955128-400 oder unter www.herzstiftung.de/bestellung
Chronischer Schlafmangel: Warum schädlich für Herz und Gefäße?
Während wir schlafen, ist das Gehirn hochaktiv: „In den verschiedenen Schlafphasen formt und festigt sich das Gedächtnis“, erklärt Prof. Sinha. Erinnerungen würden gefestigt und Überflüssiges gelöscht. „Zwischen der Leistungsfähigkeit des Gehirns und der Qualität des Schlafes besteht ein enger Zusammenhang“, so der Kardiologe. Doch nicht nur für die kognitive, auch für die körperliche Regeneration ist ein erholsamer Schlaf extrem wichtig. Denn während wir schlafen, werden zelluläre Reparaturprozesse angeschaltet und bestimmte Stoffwechselprozesse aktiviert und optimiert – etwa der Fett- und Zuckerstoffwechsel. Zudem wird der Blutdruck langfristig konstant gehalten, was sich auf die Gesundheit von Herz und Kreislauf auswirkt. Umgekehrt kann chronischer Schlafmangel Entzündungsprozesse im Körper anstoßen: Es entstehen aggressive Sauerstoffmoleküle, sogenannte „freie Radikale“, die Zellen und Gewebe angreifen und unter anderem die Arteriosklerose begünstigen, eine der Hauptursachen für viele Herz-Kreislauf-Erkrankungen.
Nächtliche Atemaussetzer: Vorsicht bei Verdacht auf Schlafapnoe
Von einer Schlafstörung spricht man, wenn ein Mensch über einen Zeitraum von einem Monat oder länger mindestens dreimal pro Woche Schwierigkeiten mit dem Ein- oder Durchschlafen hat. Häufig stecken psychische, neurologische oder andere körperliche Erkrankungen hinter einer Schlafstörung. Zu einer der häufigsten Ursachen zählt die Schlafapnoe, bei der es während des Schlafs immer wieder zu Atemaussetzern kommt. Typische Symptome sind Schnarchen und Tagesmüdigkeit. Die Atemaussetzer in der Nacht haben gravierende Folgen: Zellen und Organe werden nicht mehr ausreichend mit Sauerstoff versorgt. „Der Körper gerät dann in einen Alarmzustand, Blutdruck und Herzfrequenz steigen“, erklärt Prof. Sinha. Bestehe der Verdacht auf eine Schlafapnoe, sollten Betroffene unbedingt einen Arzt aufsuchen, rät der Kardiologe und warnt: „Eine unbehandelte Schlafapnoe erhöht das Risiko für Herzinfarkt, Herzschwäche und Schlaganfall und verkürzt die Lebenserwartung.“
Tipps für einen besseren Schlaf
Neben körperlichen Ursachen können auch Stress, schwere Mahlzeiten am Abend oder generell ein ungesunder Lebensstil Schlafstörungen begünstigen. Wer schlecht ein- oder durchschläft, sollte daher abends nur leichte, proteinreiche Mahlzeiten zu sich nehmen und mindestens vier Stunden vor dem Schlafengehen keinen Kaffee mehr trinken. Weitere Tipps für einen gesunden Schlaf sind unter anderem:
– Gehen Sie abends etwa immer zur gleichen Zeit ins Bett. Einschlaf- und Aufstehzeit sollten jeweils nicht um mehr als 30 Minuten variieren.
– Das Schlafzimmer sollte kühl, ruhig und abgedunkelt sein – ideal sind 18 Grad. Frische Luft sorgt ebenfalls für besseren Schlaf.
– Regelmäßige Schlafrituale wie Atemübungen, das Anhören ruhiger Musik oder Meditation helfen dabei, zur Ruhe zu kommen und besser einzuschlafen.
– Meiden Sie am späten Abend elektronische Geräte wie Computer, Smartphone oder Tablet.
– Regelmäßiger Sport verbessert den Schlaf – allerdings nicht, wenn Sie spät abends aktiv sind. Verlegen Sie Ihre körperliche Aktivität daher auf die Zeit vor 18 Uhr.
Mehr Tipps für einen gesunden Schlaf sowie Informationen zu Ursachen und Folgen von Schlafstörungen erhalten Sie in der aktuellen Ausgabe der HERZ heute oder unter www.herzstiftung.de (Suchfunktion-Eingabe „Schlaf“)
(1) Literatur: Fox, H., Sinha A. et al.: Positionspapier „Schlafmedizin der Kardiologie“, Update 2021. DOI 10.1007/s12181-021-00506-4
Aktuelle HERZ heute: Jetzt Probeexemplar anfordern!
Die Zeitschrift HERZ heute erscheint viermal im Jahr. Sie wendet sich an Herz-Kreislauf-Patienten und deren Angehörige. Weitere Infos zum Thema bietet die aktuelle Zeitschrift HERZ heute 2/2022 „Herzgesund schlafen“. Ein kostenfreies Probeexemplar ist unter Tel. 069 955128-400 oder unter www.herzstiftung.de/bestellung erhältlich.
Neuer Video-Clip: Herzinfarkt-Forschung zum Schlafverhalten
Im Rahmen des von der Deutschen Herzstiftung geförderten Herzinfarkt-Forschungsprojekts „ACROSSS-Studie“ untersuchen Ärzte am Uniklinikum Essen den Zusammenhang zwischen Auftreten von Schlaganfällen und Herzinfarkten und den individuellen Schlafgewohnheiten: www.youtube.com/watch?v=9DLzCWOFl7c
Bild- und Fotomaterial erhalten Sie auf Anfrage unter presse@herzstiftung.de oder per Tel. unter 069 955128-114.
Kontakt:
Deutsche Herzstiftung
Pressestelle: Michael Wichert (Ltg.) / Pierre König
Tel. 069 955128-114/-140
E-Mail: presse@herzstiftung.de
www.herzstiftung.de
Weitere Informationen:
– Forschungs-Video-Clip „Gesund schlafen – Herzinfarkt vorbeugen?“
http://www.herzstiftung.de
Anhang
DHS_PM_Herzgesund Schlafen_2022-05-19-Fin
Die Migration nach Deutschland ist während der Covid-19-Pandemie stark eingebrochen
Christine Vigeant Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Mit dem Ausbruch der Covid-19-Pandemie im Jahr 2020 ist der Saldo aus Zu- und Fortzügen von ausländischen Staatsangehörigen in Deutschland um 34 Prozent gegenüber dem Vorkrisenjahr 2019 gesunken. Besonders stark ist dabei die Migration aus Drittstaaten zurückgegangen. Das zeigt eine am Dienstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).
Die Covid-19-Pandemie hat die Rahmenbedingungen für Migration nach Deutschland und in andere Zielländer verändert. Dabei haben sich die mit dem Infektionsgeschehen verbundenen Risiken, Mobilitätsbeschränkungen, sinkende Beschäftigungschancen und geringere Verdienste unterschiedlich auf die Ziel- und Herkunftsländer der Migration ausgewirkt. Der Wanderungssaldo in Deutschland belief sich im Jahr 2020 auf rund 245.000 Personen im Vergleich zu 371.000 Personen im Vorkrisenjahr 2019. In der ersten Jahreshälfte 2021 betrug die Nettozuwanderung rund 134.000 Personen, das entspricht einem Minus von 33 Prozent gegenüber dem ersten Halbjahr 2019. Damit ist die Migration nach Deutschland stärker eingebrochen als beispielsweise in Österreich, der Schweiz und den skandinavischen Ländern, wo sich die Wanderungszahlen im Jahresverlauf stärker erholten.
Die Covid-19-Pandemie wirkte sich zudem unterschiedlich auf die Migration nach Deutschland aus verschiedenen Herkunftsländergruppen aus. Mit einem Rückgang von 55 Prozent im Krisenjahr 2020 brach die Migration zu Erwerbszwecken aus Drittstaaten besonders stark ein. Demgegenüber waren die Wanderungsbewegungen im Jahresverlauf 2021 mit den Mitgliedsstaaten der EU weitgehend stabil. „Staatsangehörige aus dem Europäischen Wirtschaftsraum waren weniger von Mobilitätsbeschränkungen betroffen, auch mussten sie keine Visa und andere Dokumente beantragen“, so IAB-Forschungsbereichsleiter Herbert Brücker.
Die Politikmaßnahmen zur Eindämmung der Pandemie stehen statistisch in einem besonders starken Zusammenhang mit dem Rückgang der Wanderungszahlen. Weiter besteht auch ein enger Zusammenhang des Rückgangs mit der Inzidenz der Covid-19-Infektionen, dem Rückgang des BIP und dem Anstieg der Erwerbslosenquoten. „Weil die Migration auch das Infektionsgeschehen und die Maßnahmen zur Eindämmung der Pandemie beeinflusst haben könnte, sind diese Befunde nicht kausal zu interpretieren, sondern als deskriptiver Zusammenhang zwischen den verschiedenen Variablen“, erklärt IAB-Forscher Christoph Deuster.
Die Studie beruht auf den Daten nationaler Statistikämter in Deutschland, Österreich, der Schweiz, Finnland, Norwegen und Schweden, sowie Daten von Forscherinnen und Forschern der Universität Oxford.
Die IAB-Studie ist abrufbar unter: https://doku.iab.de/kurzber/2022/kb2022-10.pdf.
Originalpublikation:
https://doku.iab.de/kurzber/2022/kb2022-10.pdf
Wasserwiederverwendung in der Landwirtschaft: Forschungsprojekt HypoWave+ auf der IFAT 2022
Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung
Das im Forschungsprojekt HypoWave erfolgreich entwickelte Verfahren einer landwirtschaftlichen Lebensmittelproduktion mit recyceltem Wasser geht erstmals im großen Maßstab in die Anwendung. Im „kleinen Maßstab“ wird das Modell für die hydroponische Gemüseproduktion mit aufbereitetem Bewässerungswasser auf der IFAT in München zu sehen sein. Das Forschungsteam von HypoWave+ stellt das Projekt vom 30. Mai bis 3. Juni 2022 in Halle B2 am Stand des Bundesministeriums für Bildung und Forschung (BMBF) vor.
Die landwirtschaftliche Gemüseproduktion ist wasserintensiv. Doch Wasserknappheit ist inzwischen ein weltweites Problem, das durch den voranschreitenden Klimawandel noch verstärkt wird. Um möglichst ertragreiche Ernten zu sichern, werden neue, wassersparende Anbauverfahren gesucht. Mit dem Forschungsprojekt HypoWave+ unter der Leitung der Technischen Universität Braunschweig fördert das Bundesministerium für Bildung und Forschung (BMBF) die Umsetzung einer alternativen landwirtschaftlichen Anbauform in Kombination mit Wasserwiederverwendung im großtechnischen Maßstab. Das HypoWave-Verfahren ermöglicht einen regionalen, wasserschonenden und ganzjährigen Gemüseanbau im Gewächshaus und bietet damit eine Alternative zur herkömmlichen Gemüseproduktion.
Regionale Lebensmittelerzeugung trotz Wasserknappheit
Das hydroponische Verfahren, bei dem Pflanzen in Gefäßen ohne Erde über eine Nährlösung unter Verwendung von recyceltem Wasser versorgt werden, wurde im Vorgängerprojekt im niedersächsischen Hattorf erfolgreich erprobt. Das Forschungsteam um Projektleiter Thomas Dockhorn von der TU Braunschweig und Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung stellt das Verfahren nun auf der Münchener IFAT vor. Am Messestand des BMBF präsentieren die Wissenschaftler*innen die Innovation im Modellmaßstab: Mit dem HypoWave-Verfahren kann zum einen eine Alternative zur Bewässerung mit Trink- und Grundwasser erschlossen werden. Die Anbauform bietet zudem eine optimierte Nährstoffversorgung, da den Pflanzen lebenswichtige Nährstoffe wie Stickstoff und Phosphor aus dem aufbereiteten Wasser zugeführt werden.
Das HypoWave-Verfahren auf der IFAT 2022
Besuchen Sie das Forschungsteam von HypoWave+ auf der IFAT vom 30. Mai bis 3. Juni 2022 in Halle B2 auf dem Gemeinschaftsstand des Bundesministeriums für Bildung und Forschung (BMBF) mit der Standnummer 115/214. Wissenschaftler*innen der TU Braunschweig, des ISOE – Institut für sozial-ökologische Forschung, des Fraunhofer IGB und Vertreter*innen der Praxispartner Integar und Huber SE informieren Sie gerne über die Wasserwiederverwendung im hydroponischen Anbau und technische und nicht-technische Voraussetzungen für die Implementierung des Verfahrens.
Das Forschungsprojekt HypoWave+
Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „HypoWave+ – Implementierung eines hydroponischen Systems als nachhaltige Innovation zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung“ zur Fördermaßnahme „Wassertechnologien: Wasserwiederverwendung“ im Rahmen des Bundesprogramms „Wasser: N“. Wasser: N ist Teil der BMBF-Strategie Forschung für Nachhaltigkeit (FONA). Die Fördersumme beträgt 2,8 Millionen Euro. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), der Wasserverband Gifhorn (WVGF), IseBauern GmbH & Co. KG, aquatune GmbH (a Xylem brand), Ankermann GmbH & Co. KG, Huber SE und INTEGAR – Institut für Technologien im Gartenbau GmbH.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Martina Winker
– Projektkoordination –
ISOE – Institut für sozial-ökologische Forschung
Forschungsschwerpunkt Wasserinfrastruktur und Risikoanalysen
Hamburger Allee 45
60486 Frankfurt am Main
Telefon: 49 69 707 6919-53
E-Mail: winker@isoe.de
Weitere Informationen:
http://www.hypowave.de
Mehrheit der Deutschen setzt auf erneuerbare Energien
Klaus Jongebloed Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Repräsentative forsa-Umfrage im Auftrag der DBU
Osnabrück. Russlands Angriffskrieg gegen die Ukraine hat nicht nur unermessliches menschliches Leid verursacht, sondern auch eine intensive Debatte um Energiewende, Versorgungssicherheit und künftige Energieträger ausgelöst. Ein Aspekt: Kernenergie schien trotz des in Deutschland beschlossenen Atomausstiegs an Zuspruch zu gewinnen. Eine überraschende Erkenntnis fördert vor diesem Hintergrund eine aktuelle – repräsentative – Umfrage des Meinungsforschungsinstituts „forsa Gesellschaft für Sozialforschung und statistische Analysen“ im Auftrag der Deutschen Bundesstiftung Umwelt (DBU) zutage: Laut forsa-Erhebung für den DBU-Umweltmonitor „Energiewende und Wohnen“ erteilt eine klare Mehrheit der Deutschen (75 Prozent) der Renaissance von Atomkraft eine Absage; breite Unterstützung (65 bis 75 Prozent) finden hingegen erneuerbare Energien (EE).
Unabhängiger von Energieimporten wie russisches Gas oder Öl
Lediglich ein Viertel der Befragten ist laut forsa dafür, künftig Kernenergie stärker zu nutzen, um Deutschland unabhängiger von Energieimporten wie russisches Gas oder Öl zu machen. „Die Zukunft der Energieversorgung gehört den erneuerbaren Energien. Dieses Signal vermittelt auch die jetzige forsa-Umfrage“, sagt DBU-Generalsekretär Alexander Bonde. „Wir müssen den Ausbau der Erneuerbaren beherzt vorantreiben. Das allein reicht aber nicht. Neben einem schnelleren EE-Ausbau brauchen wir zugleich mehr Energieeffizienz – also kluge Maßnahmen vom Dämmen bis zum Heizen, besonders im alten Gebäudebestand.“ Tatsächlich bestätigt die forsa-Erhebung einen starken Rückhalt in der Bevölkerung für ein solches strategisches Vorgehen: Eine überwältigende Mehrheit der Deutschen – insgesamt zwischen 65 und 75 Prozent – fordert, in Zukunft vor allem auf Solar- und Windenergie sowie Wasserstoff aus regenerativer Energie zu setzen, damit Deutschland nicht mehr wie bislang von Energieimporten abhängig ist. Energieträgern wie Gas (6 Prozent Zustimmung) und Kohle (5 Prozent) trauen nur noch wenige Deutsche eine Zukunft im Energiemix zu.
Lediglich 14 Prozent der 18- bis 29-Jährigen für Kernenergie
Bei der repräsentativen forsa-Erhebung zwischen dem 14. bis 30. April dieses Jahres wurden neben 1.000 Bürgerinnen und Bürger ab 18 Jahren auch 1.011 Hauseigentümerinnen und Hauseigentümer in Deutschland befragt. Die ermittelten Ergebnisse können sowohl auf die Gesamtheit der erwachsenen Bevölkerung als auch auf die Hauseigentümer in Deutschland übertragen werden. Auffallend in der aktuellen forsa-Umfrage zur Kernenergie als Option für größere Unabhängigkeit von Energieimporten bei gleichzeitiger Vermeidung von Versorgungsengpässen sind die Unterschiede zwischen den Altersgruppen: Unter den 18- bis 29-Jährigen sehen darin lediglich 14 Prozent eine Lösung für die Zukunft. Bei den 30- bis 44-Jährigen (28 Prozent), den 45- bis 59-Jährigen (27 Prozent) sowie den 60-Jährigen und Älteren (26 Prozent) liegt dieser Wert nahezu doppelt so hoch. In den genannten Altersgruppen ist hingegen die Zustimmung zur Solar- und Windenergie sowie Wasserstoff aus erneuerbaren Energien mit zwei Dritteln bis drei Vierteln der Befragten nahezu gleich groß.
„Enormes Einsparpotenzial für mehr Energieeffizienz“
Welche Herausforderung auf den Energiemarkt allein in Deutschland wartet, macht eine andere Erkenntnis der forsa-Umfrage deutlich: Denn noch heizen ihr Haus oder ihre Wohnung insgesamt 52 Prozent der Befragten mit Gas und 18 Prozent mit Öl. Luft-Wärmepumpe (3 Prozent), Erd-Wärmepumpe (2 Prozent) und Solarenergie (1 Prozent) verharren dagegen derzeit noch im unteren einstelligen Bereich. Etwas mehr genutzt wird im Moment lediglich Fernwärme; das gaben elf Prozent der Befragten an. Hausbesitzer, deren Haus vor 1978 gebaut wurde, nutzen weitaus häufiger (31 Prozent) eine Öl-Heizung als solche mit Häusern, die erst nach 1978 errichtet wurden (15 Prozent). Das Jahr markiert eine Zäsur in der bundesdeutschen Energiepolitik, denn Ende 1977 trat in Deutschland die erste Wärmeschutzverordnung in Kraft – mit der Folge, dass nicht nur das Dämmen von Dächern, Wänden und Decken an Bedeutung gewann, sondern auch effizientere Heizungstechniken. Hinzu trugen seinerzeit die noch spürbaren Auswirkungen der Ölkrise Anfang der 1970er-Jahre zu einem Umdenken bei. Dazu DBU-Generalsekretär Bonde: „Dieses forsa-Ergebnis ist als Appell für dringendes Handeln zu verstehen. Denn fast zwei Drittel der Gebäude in Deutschland sind vor der ersten Wärmeschutzverordnung gebaut worden. Das birgt enormes Einsparpotenzial für mehr Energieeffizienz.“
Weitere Informationen:
https://www.dbu.de/123artikel39392_2442.html Online-Pressemitteilung
DGIM: Einrichtungsbezogene Impfpflicht greift zu kurz – Vorbereitung auf nächste Corona-Welle muss jetzt erfolgen
Dr. Andreas Mehdorn Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Das Bundesverfassungsgericht hat in seiner gestrigen Entscheidung die einrichtungsbezogene Impfpflicht für Beschäftigte in Pflege- und Gesundheitsberufen für rechtens erklärt. Die Richterinnen und Richter argumentieren, der Schutz vulnerabler Gruppen wiege in diesem Fall schwerer als das Grundrecht der körperlichen Unversehrtheit der einzelnen Gesundheits- und Pflegemitarbeitenden. Doch eine einrichtungsbezogene Impfpflicht reicht nicht aus, um besonders gefährdete Bevölkerungsgruppen vor einer Infektion und das Gesundheitssystem vor einer Überlastung zu schützen, betont die Deutsche Gesellschaft für Innere Medizin e. V. (DGIM).
Die DGIM fordert die Politik deshalb nach wie vor auf, mit Maßnahmen wie einer allgemeinen Impfpflicht die Impfquote in der gesamten Bevölkerung zu erhöhen, um für kommende Corona-Wellen gerüstet zu sein.
Seit fast zwei Jahren kümmern sich Ärztinnen und Ärzte, Pflegende und andere Mitarbeitende im Gesundheits- und Pflegesektor in Krankenhäusern, Arztpraxen und Pflegeeinrichtungen unermüdlich um Corona-Infizierte, Seniorinnen und Senioren und andere Menschen. „Die allermeisten Gesundheits- und Pflegebeschäftigten sind geimpft und kommen so ihrer Verantwortung nach, ihre Patientinnen und Patienten bestmöglich zu schützen“, sagt DGIM-Generalsekretär und Internist Professor Dr. med. Georg Ertl aus Würzburg.
Dagegen sei der Blick auf den allgemeinen Stand der Corona-Impfkampagne ernüchternd: Rund 25 Prozent der Bevölkerung sind bislang nicht geimpft. „Dass sich ein so großer Teil der Bevölkerung gegen die Impfung entschieden hat, ist bedenklich. Denn die Impfung hat sich als der wichtigste Schutz vor einem schweren Corona-Verlauf erwiesen, auch wenn sie das Risiko einer Ansteckung und Übertragung des Virus nicht komplett verhindern kann“, ergänzt Professor Dr. med. Ulf Müller-Ladner, Vorsitzender der DGIM, Rheumatologe und klinischer Immunologe. „Man möge bedenken, um wieviel schlimmer die Welt aussehen würde, wenn es durch vergleichbare frühere Impfaktionen nicht gelungen wäre, Infektionskrankheiten wie Pocken, Kinderlähmung und viele andere auszurotten oder zurückzudrängen – und genau das muss das jetzige Ziel auch sein.“
Das Bundesverfassungsgericht hat die einrichtungsbezogene Impfpflicht in seiner gestrigen Entscheidung nun für rechtens erklärt und dies mit dem Schutz vulnerabler Gruppen vor einer Erkrankung begründet. „Die Urteilsbegründung geht am Problem vorbei. Die Impfung schützt vor allem vor schweren Verläufen und damit unser Gesundheitssystem vor Überlastung – aber nur, wenn möglichst alle geimpft sind“, so DGIM-Generalsekretär Ertl. Jedes Bett, das nicht für einen Ungeimpften benötigt wird, kann das Leben eines anderen retten. Umso wichtiger wäre aus Sicht der Experten eine allgemeine Impflicht, die im vergangenen April im Bundestag jedoch nicht einmal zur Abstimmung stand. Für den Schutz vulnerabler Gruppen könnten nicht allein die Mitarbeitenden im Gesundheits- und Pflegesektor verantwortlich sein. Diese Verantwortung trage die gesamte Bevölkerung gleichermaßen, betont Ertl.
Da es höchst wahrscheinlich ist, dass im kommenden Herbst und Winter die Infektionszahlen wieder in die Höhe schnellen und die Krankenhäuser viele Corona-Infizierte versorgen müssen, ist es nach Meinung der Fachgesellschaft jetzt an der Zeit, Maßnahmen zu ergreifen, um die Impfquote zu erhöhen. „Wenn die Politik das Gesundheitssystem ernsthaft unterstützen und die Mitarbeitenden im Gesundheits- und Pflegebereich entlasten will, muss sie weiter an einer allgemeinen Impfpflicht arbeiten“, fordert der DGIM-Generalsekretär.
Ihr Kontakt für Rückfragen:
DGIM Pressestelle
Dr. Andreas Mehdorn
Postfach 30 11 20
70451 Stuttgart
Tel.: +49 711 8931-313
Fax: +49 711 8931-167
E-Mail: mehdorn@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev
Wenn Mikroben übers Essen streiten
Susanne Héjja Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
Man sieht sie mit bloßem Auge nicht, aber unser Waldboden ist übersät mit Mikroorganismen. Sie zersetzen herabfallendes Laub und verbessern damit die Bodenqualität und wirken dem Klimawandel entgegen. Doch wie stimmen diese Einzeller sich über ihre Aufgabenverteilung ab? Diesem bisher wenig verstandenen Prozess ist ein internationales Forschungsteam auf den Grund gegangen. Die Forschenden konnten zeigen, dass Bakterien beim Abbau von Laub chemische Verbindungen herstellen, die die Konkurrenten kontrollieren.
Durch diesen Wettbewerb wird die Aufgabenverteilung in der Gemeinschaft optimiert: nur die Mikroorganismen, die andere Mitstreiter abwehren können und gleichzeitig gut an das Nahrungsangebot angepasst sind, setzen sich durch. Die Ergebnisse der Studie wurden kürzlich in Scientific Reports veröffentlicht.
Kleine Moleküle mit großer Wirkung
In Wiesen und Wäldern wird der Kohlenstoffkreislauf dadurch angetrieben, dass mikrobielle Gemeinschaften das jährlich fallende Laub zersetzen und verwerten. Hierfür müssen viele verschiedene Schritte des Abbaus durchlaufen werden. Verschiedene Mikroorganismen können dabei ähnliche Funktionen übernehmen. Dieses Konzept der funktionellen Überlappungen basiert auf gene-tisch angelegten Eigenschaften, die aktiv werden können, aber auch ungenutzt bleiben können. Die aktiven Wechselwirkungen zwischen Mikroorganismen und ihrer Nahrungsquelle, aber auch untereinander, werden durch eine Vielzahl kleiner Moleküle vermittelt. Wenn es im Wald auf die Laubschicht regnet, vermengen sich diese Moleküle mit Naturstoffen aus der Umwelt. Es entsteht eine komplexe Mischung, die in den Geowissenschaften als gelöste organische Materie bezeichnet wird. Da sie auch Moleküle der Mikroorganismen enthält, gibt die chemische Analyse ihrer Zusammensetzung auch Auskunft über den aktiven mikrobiellen Stoffwechsel. Die Forscher*innen untersuchten über 6000 organische Moleküle, die in gelöster organischer Materie von vier verschiedenen Laubarten und zwei unterschiedlichen geographischen Standorten vorkamen.
„Obwohl uns die genaue Struktur der einzelnen Moleküle noch weitgehend unbekannt war, gelang es, sie mit einer Netzwerkanalyse nach ihrer möglichen Herkunft gruppieren“, erklärt der Erstautor der Studie, Dr. Simon Schroeter vom Max-Planck-Institut für Biogeochemie. Den so gefundenen Molekülgruppen konnten dann mit Hilfe biochemischer Datenbanken Funktionen in verschiedenen Stoffwechselwegen zugeschrieben werden. Obwohl die mikrobiellen Gemeinschaften wie erwartet ähnliche Funktionen aufwiesen, passten sie sich innerhalb weniger Tage an das unterschiedliche Laub an. Es scheint, dass die Aufgabenverteilung weniger davon abhängt, wer welche Funktion erledigen kann, denn das unterscheidet sich kaum, sondern vielmehr davon, wer sich am besten an die Gesamtsituation anpasst und gleichzeitig durchsetzungsstark ist. „Unsere Untersuchungen ergeben eine neue Sichtweise auf die gelöste organische Materie, besonders bezogen auf ihre ho-he Bedeutung für den mikrobiellen Stoffwechsel“, so Schroeter weiter, „ein Konzept das man als Meta-Metabolom bezeichnen kann“.
Interdisziplinäre Forschung als Schlüssel zu einem ganzheitlichen Verständnis von Umweltprozessen
Bei der Frage, wie sich Mikroorganismen bei bestimmten Nahrungsangeboten verhalten, liegt die besondere Herausforderung darin, die aktiven Stoffwechselprozesse der gesamten mikrobiellen Gemeinschaft nachvollziehen zu können. Die genetische Ausstattung einer Art beantwortet diese Frage allein nicht. In der Studie wurden daher neben DNA-Sequenzierungen auch die Zusammensetzung der Proteine und die Zwischen- und Endprodukte des Stoffwechsels analysiert. Hierbei zeigte sich, dass auch molekulare Stoffwechselpfade aktiv sind, die zur Biosynthese von Antibiotika führen. Die Freisetzung von hemmenden oder gar tödlichen Antibiotika verschafft deren Produzenten einen starken Wettbewerbsvorteil in der Konkurrenz um das Nahrungsangebot. Die For-scher*innen sehen darin, dass der Wettbewerb die Anpassung der mikrobiellen Gemeinschaft vorantreibt und sie optimiert. Der mikrobielle Streit ums Essen könnte also durchaus konstruktiv sein und diejenigen Spezies unterstützen, deren Fähigkeiten sehr gut an das Nahrungsangebot angepasst sind.
„Die Funktionsweise mikrobieller Gemeinschaften in der Umwelt ganzheitlich zu verstehen, ist eine Aufgabe, die wir nur interdisziplinär lösen können.“, stellt der Initiator der Studie Prof. Dr. Gerd Gleixner fest. Er verweist dabei auf die nationalen und internationalen Partner des Projekts, mit ihren unterschiedlichen aber sich ergänzenden wissenschaftlichen Kompetenzen. „Auch das Austauschprogramm für Nachwuchswissenschaftler*innen unserer Graduiertenschule (IMPRS-gBGC) hat uns dabei enorm geholfen“, so Gleixner weiter.
Die veröffentlichten Ergebnisse wurden im DFG-geförderten Sonderforschungsbereich (SFB 1076) AquaDiva erarbeitet. Die Probennahmen erfolgten an der AquaDiva-Forschungsstation im Hainich Nationalpark (Thüringen) und an der Forschungsstation Gut Linde der Zwillenberg-Tietz-Stiftung (Brandenburg). An der Studie beteiligt waren neben dem Max-Planck-Institut für Biogeochemie auch Arbeitsgruppen der Friedrich-Schiller-Universität Jena (Prof. Küsel, Prof. Pohnert), des Helmholtz Zentrum für Umweltforschung (Prof. von Bergen) und der Universität Nantes (Prof. Eveillard).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Gerd Gleixner
Forschungsgruppenleiter Molekulare Biogeochemie
Max-Planck-Institut für Biogeochemie
gerd.gleixner@bgc-jena.mpg.de
Dr. Simon A. Schroeter
Max-Planck-Institut für Biogeochemie
simon.schroeter@bgc-jena.mpg.de
Originalpublikation:
Schroeter, S.A., Eveillard, D., Chaffron, S. et al. Microbial community functioning during plant litter decomposition. Sci Rep 12, 7451 (2022). doi: 10.1038/s41598-022-11485-1
Herzinsuffizienz: Verheiratete leben länger
Kirstin Linkamp Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Würzburg
Fabian Kerwagen vom Universitätsklinikum Würzburg hat beim Heart Failure Kongress 2022 seine Forschungsergebnisse vorgestellt: Unverheiratet zu sein ist mit einem höheren Sterberisiko bei PatientInnen mit Herzinsuffizienz verbunden.
Unverheiratete Patientinnen und Patienten mit Herzinsuffizienz haben weniger Vertrauen in den Umgang mit ihrer Erkrankung und sind in ihrer sozialen Teilhabe stärker eingeschränkt als Verheiratete. „Diese Unterschiede könnten zu der beobachteten schlechteren Langzeitüberlebensrate bei unverheirateten Patientinnen und Patienten beitragen“, erklärt Dr. Fabian Kerwagen vom Deutschen Zentrum für Herzinsuffizienz Würzburg (DZHI). Seine Forschungsergebnisse hat der angehende Kardiologe und Nachwuchswissenschaftler heute auf der Heart Failure 2022, einem wissenschaftlichen Kongress der Europäischen Gesellschaft für Kardiologie (ESC), vorgestellt. Soziale Unterstützung helfe Menschen bei der Bewältigung von Langzeiterkrankungen. Fabian Kerwagen nennt Beispiele: „Ehepartner können bei der korrekten und regelmäßigen Einnahme der Medikamente unterstützen, Motivation spenden und eine Vorbildfunktion bei der Entwicklung gesunder Verhaltensweisen einnehmen, was sich alles auf die Lebenserwartung auswirken kann.“
Unverheirateten fehlt es häufiger an Selbstwirksamkeit und sozialer Interaktion
Frühere Studien haben gezeigt, dass unverheiratete Personen sowohl in der Allgemeinbevölkerung als auch beim Vorliegen einer koronaren Herzkrankheit eine schlechtere Überlebensprognose haben. Fabian Kerwagen wollte wissen, wie sich der Familienstand bei einer chronischen Herzinsuffizienz auswirkt und analysierte Daten aus der erweiterten INH-Studie (E-INH = Extended Interdisciplinary Network Heart Failure). An der vom Bundesministerium für Bildung und Forschung (BMBF) geförderten E-INH-Studie nahmen 1.022 Personen teil, die zwischen den Jahren 2004 und 2007 aufgrund einer dekompensierten Herzinsuffizienz ins Krankenhaus eingeliefert wurden. Von den 1.008 Betroffenen, die Angaben zum Familienstand machten, waren 633 (63 %) verheiratet und 375 (37 %) unverheiratet, davon 195 verwitwet, 96 nie verheiratet und 84 getrennt lebend oder geschieden.
Zu Beginn der Studie wurden die Lebensqualität, die sozialen Einschränkungen und die sogenannte Selbstwirksamkeit mit dem Kansas City Cardiomyopathy Questionnaire erhoben. Dieser Fragebogen wurde speziell für Patientinnen und Patienten mit Herzinsuffizienz entwickelt. Soziale Einschränkungen beziehen sich auf das Ausmaß, in dem die Folgen einer Herzinsuffizienz die Teilhabe am gesellschaftlichen Leben beeinträchtigen, wie zum Beispiel die Ausübung von Hobbys und Freizeitaktivitäten oder die Interaktion mit Freunden und Familie. Selbstwirksamkeit beschreibt die Einschätzung der Betroffenen, inwiefern sie sich in der Lage fühlen, eine Verschlechterung der Herzinsuffizienz zu verhindern und Komplikationen zu bewältigen. Es gab keine Unterschiede zwischen verheirateten und unverheirateten Patientinnen und Patienten hinsichtlich der allgemeinen Lebensqualität. Allerdings schnitt die unverheiratete Gruppe bei den sozialen Einschränkungen und der Selbstwirksamkeit schlechter ab als die verheiratete Gruppe.
Während der zehnjährigen Nachbeobachtungszeit starben insgesamt 67% der Patientinnen und Patienten. Unverheiratete hatten dabei im Vergleich zu Verheirateten ein um ca. 60 Prozent höheres Todesrisiko, wobei verwitwete Probandinnen und Probanden das höchste Risiko aufwiesen.
Gesundheits-App soll Betroffene unterstützen
Fabian Kerwagen resümiert: „Der Zusammenhang zwischen Ehe und Langlebigkeit illustriert, wie wichtig soziale Unterstützung für Patientinnen und Patienten mit Herzinsuffizienz ist – ein Thema, das durch die soziale Distanzierung während der COVID-19 Pandemie noch an Bedeutung gewonnen hat.“ Seine Empfehlung: „Das soziale Umfeld sollte bei der Behandlung von Patientinnen und Patienten mit Herzinsuffizienz berücksichtigt und einbezogen werden. Strukturierte Behandlungsprogramme mit spezialisierten Herzinsuffizienz-Pflegekräften oder Selbsthilfegruppen für Herzinsuffizienz können dabei helfen, um mögliche Lücken zu schließen.“ Aufklärung über das Leben mit einer Herzinsuffizienz sei von entscheidender Bedeutung, gleichzeitig aber müsse auch das Vertrauen der Patientinnen und Patienten in ihre Fähigkeiten zur Selbstversorgung gestärkt werden. Sein Blick in die Zukunft: „Wir arbeiten an einer digitalen Gesundheitsanwendung für das Smartphone, die Patientinnen und Patienten mit Herzinsuffizienz weitere Unterstützung beim täglichen Umgang mit ihrer Erkrankung bieten soll.“
Fabian Kerwagen hat die Analysen im Rahmen seines Clinician Scientist Programms „UNION-CVD“ (Understanding InterOrgan Networks in Cardiac and Vascular Diseases) durchgeführt. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Stipendium bietet eine strukturierte wissenschaftliche Ausbildung für Ärztinnen und Ärzte unter dem Dach des Interdisziplinären Zentrums für Klinische Forschung (IZKF) der Universität Würzburg.
Wissenschaftliche Ansprechpartner:
Fabian Kerwagen, kerwagen_f@ukw.de
Entspannen und verdienen: So wählen unternehmenserfahrene Bachelorstudierende der Generation Z ihren Arbeitgeber aus
Therese Bartusch-Ruhl M. A. Pressestelle Fachbereich Wirtschaft
Hochschule Mainz
Eine Kurzstudie von Prof. Dr. Norbert Rohleder an der Hochschule Mainz
Entspannen und verdienen – bei der Wahl ihres Arbeitgebers legen praxiserfahrene Bachelorstudierende der Generation Z den Fokus sowohl auf eine ausgewogene Work-Life-Balance als auch auf die Vergütung. Das geht aus einer Kurzstudie hervor, die von Professor Dr. Norbert Rohleder am Fachbereich Wirtschaft der Hochschule Mainz im Mai 2022 durchgeführt wurde.
Demnach sind für knapp 77 Prozent der Befragten die Möglichkeiten, ihr Arbeits- und Privatleben in Einklang zu bringen, die wichtigste Eigenschaft, die einen attraktiven Arbeitgeber ausmachen; nahezu 70 Prozent der zwischen 1995 und 2010 Geborenen betrachten das Entgelt als präferiertes Attribut. Schließt man bei den Befragten auch Studierende mit ein, deren praktische Erfahrungen sich auf Ferienjobs und Praktika beziehen, steht der Verdienst sogar an erster Stelle. Nur etwas mehr als die Hälfte der berufserfahrenen „Gen Z“ erachten Aufstiegs- und Entwicklungsmöglichkeiten als wichtige Eigenschaft, die ihnen Unternehmen bieten müssen. Internationalität, Attraktivität der Produkte und Freizeitangebote charakterisieren aus Sicht der berufserfahrenen Befragten am wenigsten einen attraktiven Arbeitgeber.
Wissenschaftliche Ansprechpartner:
Die detaillierten Ergebnisse der Kurzstudie können kostenfrei beim Studienautor, Prof. Dr. Norbert Rohleder (norbert.rohleder@hs-mainz.de) angefragt werden.
Dem Insektensterben auf der Spur: Landnutzung und Klima stören Kolonieentwicklung der Steinhummel
Annika Bingman Presse- und Öffentlichkeitsarbeit
Universität Ulm
Bestäubende Insekten sind für die Biodiversität und die landwirtschaftliche Produktion unersetzlich. Doch seit Jahren geht der Bestand an Bienen, Hummeln und weiteren Insekten stark zurück. Mögliche Gründe reichen vom Klimawandel über den Einsatz von Pestiziden bis zum Verlust von Lebensraum. Nun haben Biologinnen und Biologen der Universität Ulm erstmals nachgewiesen, dass die Landnutzungsintensität und klimatische Veränderungen das chemische Duftprofil und die Körpergröße von Steinhummeln beeinflussen. Beide Faktoren könnten mitursächlich für den Insekten-Rückgang sein. Die Forschungsergebnisse sind im Fachjournal PLOS ONE erschienen.
Die große Mehrzahl der Wild- und Kulturpflanzen wird von Insekten bestäubt. Umso beunruhigender sind Ergebnisse der Forschungsplattform Biodiversitäts-Exploratorien: In einem Zeitraum von zehn Jahren ist die Anzahl der Insektenarten um ein Drittel zurückgegangen. Nun haben sich Ulmer Forschende auf Ursachensuche begeben: In den Exploratorien Schwäbische Alb, Hainich-Dün und Schorfheide-Chorin analysierten sie, wie sich Umweltbedingungen auf Arbeiterinnen der Steinhummel (Bombus lapidarius) auswirken. Die untersuchten Gebiete in Nord-, Mittel- und Süddeutschland sind in verschieden stark genutzte landwirtschaftliche Flächen eingebettet. Im Rahmen der Forschungsplattform werden zum Beispiel regelmäßig Klima-Daten aufgezeichnet und die Landnutzungsintensität erhoben – festgemacht an Beweidung, Mahd und Düngung.
Professor Manfred Ayasse, Seniorautor der jetzt veröffentlichten Publikation in PLOS ONE, ist Experte für die chemische Kommunikation von Insekten. Der Ulmer Biologe weiß: Eine Störung der Pheromonproduktion – etwa durch Umwelteinflüsse – kann den Fortbestand ganzer Kolonien gefährden. Daher stehen Oberflächenduftstoffe der Steinhummel im Zentrum der aktuellen Studie.
Alle benötigten Steinhummeln wurden im Sommer 2018 auf 42 Experimentierflächen der Biodiversitäts-Exploratorien eingesammelt und im Labor untersucht. „Mithilfe von chemischen Analysen haben wir die Menge und Zusammensetzung der Oberflächenduftstoffe von 307 Hummeln analysiert. Zudem wurde die Größe jedes Insekts gemessen; und letztlich haben wir unsere Ergebnisse mit der Bewirtschaftungsintensität der Untersuchungsflächen aus den drei Exploratorien korreliert“, erklärt Erstautor Florian Straub, Wissenschaftlicher Mitarbeiter am Ulmer Institut für Evolutionsökologie und Naturschutzgenomik.
Die Untersuchungen zwischen Feld und Labor belegen den Einfluss der Umweltfaktoren und insbesondere der landwirtschaftlichen Nutzung. Tatsächlich verändert sich das Duftprofil der Steinhummel in Abhängigkeit von der Temperatur und Bewirtschaftungsintensität am Standort. Im Exploratorium Schorfheide-Chorin konnten die Forschenden zudem zeigen, dass die Gesamtduftstoffmenge durch eine steigende Landnutzungsintensität zunimmt. Sowohl die Veränderung des Duftprofils als auch der Duftstoffmenge birgt das Risiko, die chemische Insekten-Kommunikation zu stören.
Von einer solchen Modifikation ist auch das Königinnenpheromon betroffen, das eine Schlüsselrolle beim Insektensterben spielen könnte. Dieses Pheromon erfüllt nämlich eine wichtige Funktion bei der Arbeitsteilung und der sozialen Interaktion im Nest. Eine Störung dieser chemischen Kommunikation hat somit Auswirkungen auf die Fortpflanzung und die weitere Entwicklung der Kolonie.
Für die abnehmende Körpergröße der Insekten fanden die Forschenden ebenfalls eine Erklärung: Ursächlich ist wohl die Wechselwirkung zwischen Landnutzungsintensität und Untersuchungsregion, die beispielsweise das Futterangebot beeinflusst. Die Wissenschaftlerinnen und Wissenschaftler vermuten, dass weniger Futter einen nachteiligen Effekt auf die Larven-Entwicklung hat. Eine geringere Körpergröße gefährdet wiederum den Steinhummel-Bestand, indem kleinere Insekten weniger Nahrung transportieren und nicht so lange Strecken bei der Futtersuche zurücklegen können.
„Offenbar wirken sich eine intensive landwirtschaftliche Nutzung und Temperatur-Änderungen nachteilig auf die Fortpflanzung und Kolonieentwicklung der Steinhummel aus. Dies könnte eine Ursache für den dramatischen Insekten-Rückgang sein“, resümiert Professor Manfred Ayasse von der Universität Ulm. Allerdings sei der Effekt der Landnutzung oft erst in Verbindung mit klimatischen Veränderungen relevant gewesen.
Zukünftige Studien sollten die verschiedenen Einflussfaktoren – insbesondere rund um die landwirtschaftliche Nutzung – stärker differenzieren und die Mobilität der Insekten berücksichtigen.
Die Forschenden der Universität Ulm (Institut für Evolutionsökologie und Naturschutzgenomik), der TU München und der drei Exploratorien wurden von der Deutschen Forschungsgemeinschaft (DFG) im Zuge des Langzeit-Projekts „Biodiversitäts-Exploratorien“ unterstützt.
Zu den Biodiversitäts-Exploratorien
Die drei Biodiversitäts-Exploratorien Schwäbische Alb, Hainich-Dün und Schorfheide-Chorin sind Teil einer Forschungsplattform, die seit 2006 von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird. Auf real bewirtschafteten Untersuchungsflächen erforschen Wissenschaftlerinnen und Wissenschaftler, wie sich unterschiedliche land- und forstwirtschaftliche Bewirtschaftungsformen auf die Biodiversität auswirken. Die Leitung des Exploratoriums Schwäbische Alb hat Professor Manfred Ayasse von der Universität Ulm.
http://www.biodiversity-exploratories.de/de/
Wissenschaftliche Ansprechpartner:
Florian Straub: Tel.: 0731-5022696, florian.straub@uni-ulm.de
Prof. Dr. Manfred Ayasse: Tel.: 0731-5022663, manfred.ayasse@uni-ulm.de
Originalpublikation:
Straub F, Kuppler J, Fellendorf M, Teuscher M, Vogt J, Ayasse M (2022) Land-use stress alters cuticular chemical surface profile and morphology in the bumble bee Bombus lapidarius. PLoS ONE 17(5): e0268474. https://doi.org/10.1371/journal.pone.0268474
Ökologische Funktionen von Fließgewässern weltweit stark beeinträchtigt / Metastudie zeigt maßgebliche Stressoren
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Landwirtschaft, Habitatverlust oder Abwässer – menschgemachte Stressoren wirken sich negativ auf die biologische Vielfalt in Bächen und Flüssen aus. In welchem Maße dabei auch ihr Vermögen zur Selbstreinigung und andere wichtige Ökosystemleistungen in Mitleidenschaft gezogen werden, darüber weiß man noch sehr wenig. Mit einer kürzlich im Fachjournal Global Change Biology veröffentlichten Metastudie hat ein internationales Forschungsteam unter Leitung des Helmholtz-Zentrums für Umweltforschung (UFZ) den weltweiten Stand der Forschung dazu erfasst – und gibt damit neue Impulse für ein verbessertes Gewässermanagement.
Fließgewässer sind die Lebensadern unserer Erde, Hotspots der Biodiversität und für den Menschen unverzichtbare Lebensgrundlage: Sie stellen Trinkwasser bereit, dienen dem Hochwasserschutz und werden zur Bewässerung landwirtschaftlicher Flächen genutzt. Doch der Mensch nimmt Einfluss auf Gewässersysteme und deren ökologische Funktionen – unter anderem durch Veränderung der natürlichen Gewässerstruktur, Landwirtschaft oder Einleitung von Abwässern. „Das alles geht natürlich nicht spurlos an den Fließgewässern vorüber“, sagt Dr. Mario Brauns, Wissenschaftler am UFZ-Department Fließgewässerökologie. „Die allermeisten Studien dazu befassen sich mit den Auswirkungen auf die Biodiversität – was aus unserer Sicht aber nur einen Teil des Problems erfasst. Denn ein Verlust der biologischen Vielfalt kann zwar anzeigen, dass etwas nicht stimmt in einem Gewässer, doch ob und inwieweit seine ökologischen Funktionen in Mitleidenschaft gezogen sind, bleibt unbeantwortet.“
Eine der wichtigsten Ökosystemleistungen von Fließgewässern ist ihre natürliche Reinigungsleistung. Sie kann über verschiedene ökologische Funktionen wie etwa die Nährstoffaufnahme oder die Zersetzung von Laub bewertet werden. Doch wie genau wirken sich menschliche Stressoren auf diese ökologischen Funktionen aus, die für die natürliche Selbstreinigungskraft eines Fließgewässers essenziell sind? „Für unsere Metastudie haben wir gemeinsam mit internationalen Kolleg:innen den aktuellen Stand der Forschung zu dieser Frage zusammentragen“, sagt Brauns. Das Forschungsteam wertete die Fachliteratur nach Studien aus, in denen die Auswirkungen menschlicher Stressoren auf die ökologischen Funktionen von Fließgewässern untersucht wurden. „Wir haben sämtliche weltweit verfügbaren Forschungsarbeiten recherchiert und fanden insgesamt 125 Studien – was im globalen Maßstab wirklich eine sehr geringe Ausbeute ist“, sagt Brauns. „Das hat noch einmal verdeutlicht, wie wenig hierzu bislang geforscht wurde. Und: Die gefundenen Studien wurden vor allem in Europa, Nordamerika oder Kanada durchgeführt. Über die Regionen Asien oder Afrika ist bislang fast nichts bekannt. Hier besteht aus unserer Sicht höchster Forschungs- und Handlungsbedarf.“
Die Auswertung der Studiendaten ergab, dass die Effizienz, mit der Fließgewässer Nitrat zurückhalten können, in Bächen, die durch landwirtschaftlich genutzte Gebiete fließen, fast fünfmal geringer ist als in Bächen mit natürlicher Umgebung. „Das ist wirklich enorm“, sagt Brauns und erklärt: „Landwirtschaftlich geprägte Fließgewässer sind durch hohe Nährstoffkonzentrationen und eine geschädigte Gewässerstruktur so stark belastet, dass sie ihre natürliche ökologische Rückhaltefunktion nicht mehr ausreichend erfüllen können und dadurch einen Großteil ihrer Reinigungsleistung einbüßen.“ Ein weiteres wichtiges Ergebnis der Studie ist die vergleichende Bewertung der Stressoren: Welcher Stressor hat über alle ökologischen Funktionen hinweg die stärksten Auswirkungen? Deutlich auf Platz eins liegt die Einleitung von Abwässern. Auf dem unrühmlichen zweiten Platz die Landwirtschaft und auf Platz drei die Urbanisierung. „Das sind alles Bereiche, in denen wir dringend tätig werden müssen“, sagt Brauns. „Um die Gewässergefährdung besser abschätzen und passende Managementmaßnahmen einleiten zu können, sind die ökologischen Funktionen von Fließgewässern sehr gute und aussagekräftige Indikatoren. Das konnten wir mit unserer Metastudie zeigen. Wir hoffen, dass es in Zukunft vermehrt Studienansätze geben wird, die die ökologischen Funktionen von Fließgewässern in den Fokus nehmen. Und das am besten auf breiter Ebene weltweit – denn es besteht rund um den Globus dringender Handlungsbedarf.“
Wissenschaftliche Ansprechpartner:
Dr. Mario Brauns
UFZ-Department Fließgewässerökologie
mario.brauns@ufz.de
Originalpublikation:
Mario Brauns, Daniel C. Allen, Iola G. Boëchat, Wyatt F. Cross, Verónica Ferreira, Daniel Graeber, Christopher J. Patrick, Marc Peipoch, Daniel von Schiller, Björn Gücker: A global synthesis of human impacts on the multifunctionality of streams and rivers, Global Change Biology, doi: 10.1111/gcb.16210
https://doi.org/10.1111/gcb.16210
3D-Metalldruck – Der Schlüssel zu einer effektiven Instandhaltung im Maschinenbau
Kristin Ebert Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg
Kick-off für neues Verbundprojekt von BTU Cottbus-Senftenberg und LEAG im Rahmen der WIR!-Initiative. Effektive Lösungen für die Instandhaltung von großen Baumaschinen sparen Zeit und Material.
Individuelle Verfügbarkeit, Passfähigkeit, flexible Fertigung in kleinen Stückzahlen sowie eine hohe Freiheit in Form und Gestalt – das sind die Komponenten, die eine effektive und auf die Zukunft gerichtete Fertigung von Bauteilen im Maschinenbau ausmachen. Der plötzliche Defekt eines Bauteils oder einer Baugruppe kann ganze Produktionsabläufe ins Stocken bringen. Vertragliche Zusagen, Termin- und Lieferketten sind gefährdet. Was vor nicht allzu langer Zeit zu erheblichen Produktionsunterbrechungen führte, ist Gegenstand eines neuen Projektes, in dem die BTU Cottbus-Senftenberg und die MCR Engineering Lausitz GmbH eng zusammenarbeiten. Unter dem Namen MCR Engineering Lausitz vermarktet die LEAG seit Kurzem die Instandhaltung von Schienenfahrzeugen und großen Maschinenbaugruppen.
Das Verbundprojekt „Additive Fertigung großdimensionaler Maschinenbaugruppen für kurzfristige Ersatzbereitstellungen als Bestandteil eines integrierten Instandhaltungskonzepts (AFiin)“ wird für den Zeitraum von zwei Jahren mit 450.000 Euro im Rahmen der WIR!-Initiative „Lausitz – Life & Technology“ aus Mitteln des Bundesministeriums für Bildung und Forschung gefördert.
Kick-off-Veranstaltung
Datum: Mittwoch, 18. Mai 2022, 9:30-11.30 Uhr
Ort: MCR Engineering Lausitz im Industriepark Schwarze Pumpe, An der Heide 1, 03130 Spremberg (Anfahrtsskizze siehe unten)
Die Projektpartner präsentieren Ziele und Arbeitspakete von AFiin sowie die Vorteile der Additiven Fertigung. Diese reichen von einer Verringerung von Beschaffungszeiten, Lagerhaltung bis hin zur Reduzierung von Stillstandzeiten und Reparaturzeiten.
Ablauf der Veranstaltung
9.30 Uhr bis 9.45 Uhr – Begrüßung
9.45 Uhr bis 10.00 Uhr – Projekteinführung
10.00 Uhr bis 10.30 Uhr – 10-Minuten-Kurzvorträge
• Mit innovativer Forschung & Entwicklung gemeinsam für eine starke und dynamische Lausitz – Leonie Liemich, Projektkoordinatorin Lausitz – Life & Technology
• Wire Arc Additive Manufacturing: Potentiale der Schweißtechnik für die additive Fertigung – Sebastian Fritzsche, BTU Cottbus-Senftenberg, Lehrstuhl Füge- und Schweißtechnik
• Chancen der additiven Fertigung in der Instandhaltung – Ronny Sembol, MCR Engineering Lausitz
10.30 Uhr bis 11.30 Uhr – Diskussion und Interviews
Medienvertreter*innen sind herzlich eingeladen.
Die Zielstellung des Projekts liegt in der Technologieentwicklung der additiven Fertigung für großdimensionale Maschinenbaugruppen, der Integration dieser in digitale Werkstattprozesse und Implementierung zeiteffizienter Instandhaltungsprozesse. Als weiteres Teilziel werden die Entwicklung und Fertigung eines Demonstrators mit ingenieurtypischen Eigenschaften in diesem Bereich gesteckt.
Das Projekt „Additive Fertigung großdimensionaler Maschinenbaugruppen“ setzt die erfolgreiche Kooperation der MCR Engineering Lausitz mit dem Lehrstuhl Füge- und Schweißtechnik der BTU in den neuen Entwicklungsbereich der additiven Fertigung für Großbauteile fort. Die Vorteile der lichtbogenbasierten additiven Fertigung (WAAM – Wire Arc Additive Manufacturing), verglichen mit den bekannten Techniken des Gießens und Verbindungsschweißens, liegen in einer sehr kurzfristigen Bereitstellung von Bauteilen und höchster Passgenauigkeit. Das Verfahren ermöglicht zudem eine ressourcenschonende Bauteiloptimierung. So können durch eine Aufwertung des Materials die Einsatzzeiten von Bauteilen deutlich verlängert werden. Diese Vorteile des WAAM-Verfahrens werden als innovativer Ansatz im Vorhaben genutzt, um 3D-gedruckte Ersatzteile für die Industrie zu fertigen, welche die Eigenschaften des Originalteils sogar übertreffen können und in sehr kurzen Lieferzeiten bereitgestellt werden können.
Kontakte
Ronny Sembol
MCR Engineering Lausitz
E ronny.sembol@leag.de
T 03564 693806
www.mcr-engineering.de
Sebastian Fritzsche
Lehrstuhl Füge- und Schweißtechnik
BTU Cottbus-Senftenberg
T +49 (0) 355 69 4992
E s.fritzsche@b-tu.de
www.b-tu.de
Kristin Ebert
Referentin Forschungs-PR
BTU Cottbus-Senftenberg
T +49 (0)355 69 2115
E kristin.ebert@b-tu.de
www.b-tu.de
Leonie Liemich
L&T Projektkoordinatorin
E Leonie.Liemich@hszg.de
T 03583-612-4801
www.life-and-technology.eu
Weitere Informationen:
http://www.b-tu.de/news/artikel/21145-3d-metalldruck-der-schluessel-zu-einer-eff…
Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.
Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.
Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.
„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“
Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.
Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“
Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.
Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.
Link zur Fördermaßnahme: https://www.bmbf-wax.de/
Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de
Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de
Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla
Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse
COVID-19: Wie Impfung und frühere Infektionen auch gegen Omikron helfen
Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg
Immunzellen gegen frühere Sars-CoV-2-Varianten erkennen auch Omikron gut und können so vor schwerer Krankheit schützen / Impfung kann Immunantwort auch nach einer Infektion verbessern / Studie in Nature Microbiology veröffentlicht
Die Omikron-Variante von SARS-CoV-2 hat weltweit eine weitere große Infektionswelle verursacht. Denn auch geimpfte Personen oder solche, die sich mit einer vorherigen Virusvariante infiziert hatten, können sich mit Omikron anstecken. Trotzdem sind schwere Verläufe relativ selten. Wissenschaftler*innen des Universitätsklinikums Freiburg haben jetzt detailliert aufgeschlüsselt, wie der variantenübergreifende Schutz vor Infektion beziehungsweise schwerem Krankheitsverlauf entsteht. Ihre Ergebnisse haben die Forscher*innen am 28. April 2022 in der Online-Ausgabe der renommierten Fachzeitschrift Nature Microbiology veröffentlicht.
„Wir konnten in unserer Studie zeigen, dass Gedächtnis-T-Zellen, die nach Impfung oder Infektion mit einer früheren Sars-CoV-2-Variante gebildet wurden, auch die Omikron-Variante sehr gut erkennen und vor einem schweren Verlauf einer Infektion schützen können“, erklärt Ko-Studienleiterin Dr. Maike Hofmann, die in der Klinik für Innere Medizin II des Universitätsklinikums Freiburg eine Forschungsgruppe leitet. An Hofmann wird nächste Woche der Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft für ihre Forschung übergeben. „Die Bindungsfähigkeit der Antikörper an die Omikron-Variante ist stark reduziert. Daher schützen sie auch nach einem Impf-Booster nur recht kurz vor einer Infektion mit der Omikron-Variante“, so Hofmann weiter.
Immunantwort unterscheidet sich bei Geimpften und Genesenen
Die Wissenschaftler*innen untersuchten auch mögliche Unterschiede der Immunantworten von Genesenen und Geimpften. „Beide Gruppen haben eine breite T-Zell-Antwort: Bei Genesenen erkennen die T-Zellen mehrere Virus-Eiweiße. Bei Geimpften richtet sich die Immunantwort im Wesentlichen gegen das Spike-Eiweiß, das ja aus dem mRNA-Impfstoff im Körper hergestellt wird und dann die Immunantwort hervorruft. Die T-Zell-Antwort gegen das Spike-Eiweiß ist bei Geimpften breiter und stärker als bei Genesenen“, berichtet Ko-Studienleiter Prof. Dr. Christoph Neumann-Haefelin, Leiter des Gerok-Leberzentrums am Universitätsklinikum Freiburg. „Werden Genesene geimpft, fallen die T-Zell-Antworten ebenfalls vielfältiger aus und somit steigt der Schutz vor schweren Krankheitsverläufen bei zukünftigen Infektionen“, so Neumann-Haefelin.
Zwei der Erstautoren dieser Arbeiten sind die beiden jungen wissenschaftlich tätigen Ärzt*innen Dr. Julia Lang-Meli und Dr. Hendrik Luxenburger. Sie werden unter anderem durch das von der Deutschen Forschungsgemeinschaft geförderte “Clinician Scientist” Programm IMM-PACT am Universitätsklinikum Freiburg unterstützt. Es erlaubt eine Freistellung von jungen Ärzt*innen für die Forschung. „Diese wichtigen Ergebnisse sind nur dank der engen Vernetzung von Klinik und Forschung möglich gewesen“, betont Prof. Dr. Robert Thimme, Ärztlicher Direktor der Klinik für Innere Medizin II am Universitätsklinikum Freiburg.
„In der öffentlichen Wahrnehmung wird die Immunantwort gegen SARS-CoV-2 oft auf die Bildung von Antikörpern reduziert. Die jetzt veröffentlichte Studie trägt wesentlich dazu bei, ein vollständigeres Bild des Immunschutzes im Zusammenhang mit Sars-CoV-2 zu erhalten“, sagt Prof. Dr. Lutz Hein, Dekan der Medizinischen Fakultät der Universität Freiburg.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christoph Neumann-Haefelin
Leiter Gerok-Leberzentrum
Klinik für Innere Medizin II (Schwerpunkt: Gastroenterologie, Hepatologie, Endokrinologie und Infektiologie)
Universitätsklinikum Freiburg
Telefon: 0761 270-32800
christoph.neumann-haefelin@uniklinik-freiburg.de
Originalpublikation:
Original-Titel der Studie: SARS-CoV-2-specific T-cell epitope repertoire in convalescent and mRNA-vaccinated individuals
DOI: 10.1038/s41564-022-01106-y
Link zur Studie: https://www.nature.com/articles/s41564-022-01106-y
Fraunhofer UMSICHT auf IFAT 2022: Kreislaufführung von Wasser und Nutzungskonzepte für Biomasse
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Wasser als Ressource wird durch die Herausforderungen des Klimawandels immer weiter in den Fokus rücken. Gleichzeitig bieten Ansätze zur Verwertung von Biomasse künftig Möglichkeiten, CO2-Emissionen signifikant zu verringern und fossile Rohstoffe einzusparen. Auf der IFAT 2022 in München präsentieren Forschende des Fraunhofer UMSICHT innovative Konzepte und Technologien zur nachhaltigen Bewirtschaftung von Wasser, zur Kreislaufführung von Wertstoffen und zur Bereitstellung klimaneutraler Energie.
Wasserverfügbarkeit sichern
Wasser wird weltweit zu einer immer kritischeren Ressource. Angesichts zunehmender Dürreperioden wird es auch in manchen Regionen Deutschlands immer schwieriger, den Wasserhaushalt zu sichern. Hinzu kommen wasserintensive Industrien. »Eine nachhaltige, sichere und wirtschaftlich tragfähige Wasserversorgung setzt daher zunehmend eine lokale Kreislaufführung voraus«, erklärt Lukas Rüller vom Fraunhofer UMSICHT. »Die Sicherung der Wasserverfügbarkeit zur Versorgung der Industrie und zur kommunalen Trinkwasserversorgung ist weltweit eine notwendige Voraussetzung für eine nachhaltige Zukunft.«
Konzeptansätze des Fraunhofer-Instituts hierzu sind die Kreislaufführung von Prozesswasserströmen in der Industrie, ein zielgerichtetes Regenwassermanagement und die Aufbereitung von Kläranlagenabläufen zur Bewässerung von landwirtschaftlichen Flächen. Das Potenzial der Ansätze ist dabei längst noch nicht ausgeschöpft – innovative Techniken bieten vielversprechende Lösungsansätze.
Zu den Technologien für die Behandlung und Aufbereitung zählen die Vorwärtsosmose, die Hochdruck-Nanofiltration, die Umkehrosmose und Adsorbertechniken. Forschende des Fraunhofer UMSICHT entwickeln hierfür neue Komponenten, Verfahren und Betriebsführungsstrategien mit dem Ziel, die selektive Stofftrennung zu optimieren und gleichzeitig den Energiebedarf gering zu halten. Durch membranbasierte Konzentrationsvorgänge ist es z. B. gelungen, industrielle Abwasserströme auf bis zu 60 Prozent Trockensubstanz an der Grenze ihrer Pumpfähigkeit zu konzentrieren (Vorwärtsosmose).
Großes Potenzial für ungenutzte Biomasse
Im Zuge von CO2-Minderungsstrategien wächst die Bedeutung von Biomasse für die stoffliche und thermische Nutzung stetig. Das Fraunhofer UMSICHT erschließt neue Stoffströme, indem es bisher ungenutzte Biomasse einer effizienten Verwertung zuführt. Zu diesen Rohstoffen können künftig auch feuchte und/oder lignocellulosehaltige Biomasse wie Gras- und Grünschnitt, Ernterückstände wie Spelzen, Verarbeitungsreste aus land- und forstwirtschaftlicher Produktion oder Bioabfälle zählen. Zum einen werden aktuell die Aufbereitung und die Verarbeitung der biogenen Reststoffe optimiert, zum anderen werden die Biogasprozesse und die Verbrennungstechnik angepasst. Besonders interessant sind diese Ansätze für Kommunen, das Handwerk und die Industrie.
Ein Beispiel dazu ist das Projekt LaubCycle, in dem die Beheizung von kommunalen Einrichtungen wie Schwimmbäder oder Schulen durch aufbereitetes Laub geschehen soll. Voraussetzung ist die gezielte technische Aufbereitung des Materials, um gute Verbrennungseigenschaften sicherzustellen.
Auch die klassischen Biogasprozesse werden durch die Fraunhofer-Forschenden weiterentwickelt. Dazu zählen die biologische Methanisierung, die Aufbereitung und Nutzung der Gärreste sowie die Erstellung von Einspeisekonzepten als Beitrag zur Reduktion der Abhängigkeit von fossilen Energieträgern.
IFAT 2022
Besuchen Sie uns im Rahmen der IFAT vom 30. Mai bis 3. Juni 2022 in Halle B2/Stand 215/314 auf dem Gemeinschaftsstand der Fraunhofer-Gesellschaft. Informieren Sie sich über die Kreislaufführung von Wasser und neuartige Nutzungskonzepte von Biomassen. Unsere Fachkontakte beantworten gerne Ihre Fragen zu den Forschungsschwerpunkten, Angeboten und Dienstleistungen des Fraunhofer UMSICHT.
Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2020/care…. Mehr zur Nutzung von Reisschalen als Energielieferant
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2021/laubc… Mehr zur nachhaltigen Verwertung von Laub
https://www.umsicht.fraunhofer.de/de/kompetenzen/verfahrenstechnik.html Kompetenz Verfahrenstechnik
Grauer Star: Beide Augen am selben Tag operieren? Neuer Cochrane Review wertet Evidenz aus.
Georg Rüschemeyer Presse- und Öffentlichkeitsarbeit
Cochrane Deutschland
Sollte man beide Augen-OPs gegen einen Grauen Star am gleichen Tag machen lassen oder dazwischen besser eine längere Pause einlegen? Ein aktueller Cochrane Review geht dieser für Patient*innen und Augenärzt*innen wichtigen Frage nach.
Der Graue Star (Katarakt) ist eine altersbedingte Trübung der Augenlinse. Die einzige Möglichkeit, diese häufige Augenerkrankung zu behandeln, ist eine Operation. Dabei wird die getrübte Linse entfernt und durch eine künstliche Linse ersetzt.
Gegenwärtig unterziehen sich die meisten Menschen einer Kataraktoperation an beiden Augen an zwei verschiedenen Tagen, wobei zwischen den Eingriffen Tage, Wochen oder Monate liegen können. Es ist jedoch auch möglich, beide Augen am selben Tag zu operieren. Zu den möglichen Vorteilen dieser Methode gehören weniger Krankenhausaufenthalte, eine schnellere Erholung der Sehkraft und geringere Kosten. Es gibt jedoch auch potenzielle Risiken, wie das gleichzeitige Auftreten von Komplikationen in beiden Augen.
Die Vor- und Nachteile beider Ansätze sind unter Fachleuten seit langem umstritten. Aus diesem Grund werteten die Autor*innen dieses neuen Cochrane Review die Evidenz aus Studien zu diesem Thema aus.
Kernaussagen des Reviews:
Die derzeitige Evidenz auf Basis von 14 Studien mit 276 260 Teilnehmenden spricht dafür, dass es keinen wesentlichen Unterschied zwischen einer Operation beider Augen am selben Tag gegenüber einer Operation an verschiedenen Tagen in Bezug auf die folgenden klinischen Ergebnisse gibt: Augeninfektion (Endophthalmitis, eine schwere, sichtbedrohende, aber seltene Komplikation), Notwendigkeit einer Brillenkorrektur nach der Operation, Komplikationen, Sehvermögen mit Brille und von den Patienten berichtete Ergebnisse. Zudem bestätigt die Evidenz, dass die Kosten einer OP an einem Tag niedriger ausfallen.
Insgesamt war die Zahl und Qualität der Studien begrenzt, die Vertrauenswürdigkeit der Evidenz nach GRADE lag je nach Endpunkt zwischen sehr gering und moderat.
Originalpublikation:
Dickman MM, Spekreijse LS, Winkens B, Schouten JSAG, Simons RWP, Dirksen CD, Nuijts RMMA. Immediate sequential bilateral surgery versus delayed sequential bilateral surgery for cataracts. Cochrane Database of Systematic Reviews 2022, Issue 4. Art. No.: CD013270. DOI: 10.1002/14651858.CD013270.pub2
Weitere Informationen:
https://www.cochrane.de/news/grauer-star-beide-augen-am-selben-tag-operieren
Hochwasserschutz mit Mehrfachnutzen: Mehr Raum für Flüsse
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Ökologischer Hochwasserschutz – der Auen wiederherstellt – ist sinnvoll, technisch möglich und wirtschaftlich effizient. Und doch wird dieser Ansatz weltweit noch nicht konsequent umgesetzt, weil die administrativen und rechtlichen Hürden hoch sind. Das zeigt eine Studie von Wissenschaftler*innen des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), die gemeinsam mit anderen Forschenden vier Projekte zur Renaturierung von Flussauen in Deutschland und den USA analysiert haben. Die Forschenden empfehlen, dem ökologischen Hochwasserschutz Vorrang zu geben und die nötigen Flächen verfügbar zu machen. So ließen sich auch nationale und europäische Umweltziele besser erreichen.
„Der konventionelle technische Hochwasserschutz greift stark in die Gewässerstruktur ein, ist teuer, in der Regel starr und lässt sich nicht ohne Weiteres an die im Klimawandel zunehmenden Überschwemmungen anpassen. Die technischen Maßnahmen schränken auch die natürlichen Funktionen von Überschwemmungsgebieten ein, zu denen etwa die Wasserspeicherung und die Verbesserung der Wasserqualität gehören. Außerdem gehen Lebensräume für viele Tier- und Pflanzenarten in und am Wasser verloren – und mit ihnen eine Vielzahl von Vorteilen für uns Menschen. Deshalb brauchen wir weltweit deutlich mehr Hochwasserschutzkonzepte mit Mehrfachnutzen für Bevölkerung und Umwelt“, sagt die IGB-Forscherin Sonja Jähnig, Autorin der Studie.
Konventioneller Hochwasserschutz kann falsches Sicherheitsgefühl vermitteln:
Bauliche Maßnahmen wie Deiche, Dämme und künstliche Kanäle fördern die städtische und landwirtschaftliche Entwicklung in Gebieten, die eigentlich natürliche Überschwemmungsgebiete sind – den Flussauen. Die dadurch gewonnene Fläche ist durch diese baulichen Maßnahmen seltener von kleinen und mittleren Hochwassern betroffen. Das erweckt häufig den Eindruck, das Hochwasserrisiko sei gebannt. Infolge dieses falschen Sicherheitsgefühls unterschätzt die Bevölkerung vor Ort die Gefahr von seltenen großflächigen Überschwemmungen und ist umso anfälliger für deren Folgen. Dieser sogenannte „Deich-Effekt“ (Englisch: levee-effect) steht beispielhaft dafür, dass einige kurzfristig wirksame menschliche Eingriffe in die Landschaft in Wirklichkeit die langfristige Anfälligkeit des gesamten Systems erhöhen.
Hochwasserschutz mit Mehrfachnutzen wissenschaftlich untersucht:
Zwar gibt es weltweit mittlerweile Projekte zur Renaturierung von Flüssen und Auen. Doch nur wenige davon werden so geplant, dass sie gleich mehrere Verbesserungen erzielen, also zum Beispiel das Hochwasserrisiko verringern, Lebensräume wiederherstellen und die Anpassungsfähigkeit an den Klimawandel erhöhen. Das Forschungsteam hat deshalb vier „Multi-Benefit-Projekte“ in Deutschland und in Kalifornien (USA) untersucht und ihre Triebkräfte, die Chronologie sowie die durchgeführten Maßnahmen und Hindernisse charakterisiert. Außerdem analysierten die Forschenden die politischen Rahmenbedingungen, die solche Projekte fördern, ermöglichen und manchmal auch behindern.
Beispiele Deutschland: Deichrückverlegung an der Elbe und große Kiesbänke für die Isar:
Als Beispiel für Deutschland untersuchte das Team zum einen die Deichrückverlegung an der Mittelelbe bei Lenzen. Die wissenschaftliche Bestätigung, dass sich der Hochwasserscheitelpunkt lokal um fast 50 Zentimeter verringerte und die nachgewiesene, weitreichende räumliche Schutzwirkung vor Hochwasser trugen sogar dazu bei, die Akzeptanz von Deichrückverlegungen zu steigern: „Das ist so deutlich bis dato nicht gemessen worden und hat die Position widerlegt, dass Deichrückverlegungen nichts für den Hochwasserschutz bringen. Seitdem sind in anderen Flüssen Deutschlands ähnliche Projekte umgesetzt worden“, sagt Dr. Christian Damm vom Karlsruher Institut für Technologie, ebenfalls Autor der Studie. Der ökologische Erfolg des Projekts ließ sich an der raschen Rückkehr zahlreicher Wasser- und anderer Vogelarten sowie einer Vielfalt an wiederhergestellten Lebensraumtypen ablesen.
Als zweites Projekt untersuchten die Forschenden eine acht Kilometer lange Flussrenaturierung der Isar, die von der südlichen Stadtgrenze Münchens bis zur Innenstadt reicht – der sogenannte Isarplan. Das Projekt zeigt, dass Fluss- und Auenrenaturierungen auch in dicht besiedelten, urbanen Gebieten möglich sind. Der Isarplan hatte drei Hauptziele: Minimierung des Hochwasserrisikos, Wiederherstellung von Lebensräumen im Fluss und Verbesserung des Freizeitnutzens. „Der Isarplan veranschaulicht den Mehrfachnutzen-Ansatz und sticht durch einen sehr kooperativen Planungsprozess hervor, in den auch die Bevölkerung aktiv mit eingebunden wurde“, sagt Jürgen Geist, Forscher an der Technischen Universität München und auch Autor der Studie. Das Hochwasserrisiko wurde vor allem dadurch verringert, dass dem Fluss mit mindestens 90 statt vorher 50 Metern mehr Raum gegeben wurde. So erhöhte sich auch die Kapazität im Stadtgebiet, größere Wassermengen abzupuffern. Ufersicherungen aus Beton wurden entfernt und durch Kiesufer ersetzt, wodurch sich Kiesbänke bilden konnten – und damit Laichplätze und Lebensräume für den Huchen (Donaulachs) und andere gefährdete Fischarten.
Beispiele USA: Wiederherstellung von Ökosystemen waren eigentlich Nebeneffekte:
In den USA analysierten die Forschenden die Hochwasser-Bypässe im Sacramento-Flussgebiet. Der Yolo-Bypass ist ein „Auen-Bypass“, eine Art der Hochwasserumleitung mit großer Fläche, langen Verweilzeiten und hohem ökologischem Potenzial. Der größte Teil der 240 Quadratkilometer großen Fläche befindet sich in Privatbesitz und wird in der Trockenzeit, wenn das Überschwemmungsgebiet weitgehend entwässert ist, landwirtschaftlich genutzt, beispielsweise zum Anbau von Mais, Sonnenblumen und Reis, als Weide- oder Brachland. Die verbleibenden 65 Quadratkilometer sind ein Schutzgebiet, vor allem für Vögel und Fische. „Der Yolo-Bypass gilt als Modell für ein gut verwaltetes sozial-ökologisches System. Die öffentlich-private Partnerschaft funktioniert gut. Artenschutz, Hochwasserschutz und Landwirtschaft lassen sich in Einklang bringen – und all das in direkter Nähe zu einer Großstadt“, erläutert Sonja Jähnig. Erfolgreich umgesetzt wurden auch der Deichrückbau und die Auenrenaturierung am Bear und am Feather River, um den lokalen Hochwasserschutz zu erhöhen. Ein zusätzliches niedriges Feuchtgebiet – eine Auenmulde – schaffte zusätzlich überfluteten Lebensraum für heimische Fische und andere wassergebundene Arten.
In beiden amerikanischen Fällen war die Verringerung des Überschwemmungsrisikos jeweils der wichtigste Antrieb für das Projekt – und die Wiederherstellung natürlicher Ökosysteme folgte in einem Fall unbeabsichtigt, im anderen als Voraussetzung für den Erhalt einer öffentlichen Förderung.
Erkenntnisse aus dem Projektvergleich: 7 Faktoren, auf die es ankommt:
Anhand der vier Fallstudien identifizierten die Forschenden sieben Faktoren, die je nach Ausprägung fördernd oder hemmend für Mehrfachnutzen-Projekte sein können. Dazu zählt Offensichtliches, wie die Verfügbarkeit von (unbebauter) Fläche, die Integration von Forschungswissen in Planungen und Entscheidungsprozesse, passende politische und regulatorische Rahmenbedingungen und ausreichend Finanzmittel. Aber auch gesellschaftliche Faktoren sind entscheidend – beispielsweise die Wahrnehmung von Überschwemmungen nicht nur als Bedrohung, sondern als positives Element und wichtige Eigenschaft natürlicher Gewässer. Als unabdingbar für den Projekterfolg stellte sich auch die zielorientierte Projektführung und konstruktive Einbindung und Zusammenarbeit aller Beteiligten heraus. Auch wenn diese Projekte heute als sehr gute Beispiele erscheinen, so waren sie doch erst das Ergebnis eines Zusammenspiels mehrerer begünstigender Faktoren und erforderten allesamt engagierte Beharrlichkeit, um letztendlich realisiert zu werden, urteilen die Forschenden. „Dies hängt auch damit zusammen, dass es noch vergleichsweise wenig praktisches Erfahrungswissen aus solchen Mehrfachnutzen-Projekten gibt und man mit relativ großen administrativen und rechtlichen Hindernissen konfrontiert ist. Deshalb ist es wichtig, gelungene Beispiele genau zu analysieren und die Erfolgs- und Risikofaktoren für andere Akteure aufzubereiten, die solche Projekte ebenfalls realisieren wollen“, erläutert Jürgen Geist.
Empfehlungen für Politik und Behörden:
Insgesamt kommen die Wissenschaftlerinnen und Wissenschaftler zu dem Schluss, dass ökologischer Hochwasserschutz kosteneffizienter als bisherige Ansätze ist, großes Synergiepotenzial hat und solche Mehrfachnutzen-Ansätze von Politik und Verwaltung daher verstärkt in Betracht gezogen werden sollten. „Gerade in Deutschland werden Überschwemmungen schnell negativ oder als Risiko gesehen – ihr Wert für Natur und Bevölkerung aber übersehen. In diesem Kontext sind mangelnde Überflutungsflächen häufig ein Diskussionspunkt. Es wäre wünschenswert, wenn die zuständigen politischen und administrativen Ebenen von Bund, Ländern und Kommunen effiziente Ansätze entwickeln würden, um die dafür notwendigen Flächen bereitzustellen“, unterstreicht Sonja Jähnig.
Diese Bemühungen würden auch auf die europäischen und nationalen Umweltziele einzahlen, wie die europäische Hochwasserrisikomanagementrichtlinie, die Wasserrahmenrichtlinie, die Fauna-Flora-Habitat-Richtlinie sowie die EU-Biodiversitätsstrategie — letztere sieht beispielsweise vor, 25.000 Kilometer Flüsse in Europa zu renaturieren. Das kürzlich vom Bundesumwelt- und Verbraucherschutzministerium vorgestellte Eckpunktepapier zum „Aktionsprogramm Natürlicher Klimaschutz“ weise mit den beiden erstgenannten Handlungsfeldern „Schutz intakter Moore und Wiedervernässungen“ sowie „Naturnaher Wasserhaushalt mit lebendigen Flüssen, Seen und Auen“ in die richtige Richtung. Entscheidend sei es laut Sonja Jähnig nun, das Programm so auszugestalten, dass möglichst viele Synergieeffekte erzielt werden können.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de
https://www.igb-berlin.de/profile/sonja-jaehnig
Originalpublikation:
Serra-Llobet Anna, Jähnig Sonja C., Geist Juergen, Kondolf G. Mathias, Damm Christian, Scholz Mathias, Lund Jay, Opperman Jeff J., Yarnell Sarah M., Pawley Anitra, Shader Eileen, Cain John, Zingraff-Hamed Aude, Grantham Theodore E., Eisenstein William, Schmitt Rafael (2022): Restoring Rivers and Floodplains for Habitat and Flood Risk Reduction: Experiences in Multi-Benefit Floodplain Management From California and Germany. Frontiers in Environmental Science, VOLUME 9, DOI=10.3389/fenvs.2021.778568
Weitere Informationen:
https://www.igb-berlin.de/news/hochwasserschutz-mit-mehrfachnutzen-mehr-raum-fue…
Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.
Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.
„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.
„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“
Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.
„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“
Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“
Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.
Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“
Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]
Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)
Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“
Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.
Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.
Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu
Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8
Abstract unter https://www.nature.com/articles/s41565-022-01074-8
Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…
Neue Studie: Fließgewässer an Ackerflächen senken Schadstoffe im Wasserkreislauf
Christian Wißler Pressestelle
Universität Bayreuth
Wassergräben und kleine Bäche am Rand von landwirtschaftlichen Flächen tragen erheblich dazu bei, die aus der Landwirtschaft stammenden Schadstoffe im Wasser zu verringern. Sie fördern vor allem den Nitrat-Abbau durch Mikroorganismen und haben so einen wichtigen Einfluss auf den Stickstoffgehalt in Flüssen und Seen. Dies hat ein Forschungsteam unter der Leitung von Prof. Dr. Tillmann Lüders an der Universität Bayreuth jetzt erstmals nachgewiesen. Die Wissenschaftler konnten zeigen, dass das Bachwasser in einem intensiven Austausch mit dem umgebenden Grundwasser steht, wodurch die Mikroben stimuliert werden. In der Zeitschrift „Water Research“ stellen sie ihre Forschungsergebnisse vor.
Die Studie bietet wichtige Anknüpfungspunkte für eine nachhaltigere Gestaltung von Agrarlandschaften: Die Randgebiete landwirtschaftlich genutzter Flächen mit ihren charakteristischen Wassergräben können möglicherweise gezielt so gestaltet werden, dass Schadstoffbelastungen aus der Landwirtschaft effizienter eliminiert werden. Fließgewässer und auch das Grund- und Trinkwasser werden dadurch besser geschützt.
Die häufig vom Menschen neu geschaffenen oder umgestalteten Wassergräben und Bäche am Rand von Äckern sammeln bis zu 70 Prozent des Wassers in landwirtschaftlichen Einzugsgebieten ein. „Der Anteil, den diese Bäche an der Reinigung des Wassers haben, ist von der Forschung bisher deutlich unterschätzt worden. Man hat diese kleinen Fließgewässer bislang hauptsächlich als reine Drainagen angesehen, die das aus landwirtschaftlichen Nutzflächen stammende Wasser auffangen und abfließen lassen, ohne die Wasserqualität nennenswert zu beeinflussen. Unsere Studie widerlegt nun diese Sichtweise. Wie wir zeigen konnten, ist das Bachbett dieser Gewässer dicht mit Mikroorganismen besiedelt, die Nitrat abbauen: Sie reduzieren umweltschädliches Nitrat zu gasförmigem Stickstoff. Überraschenderweise haben wir dabei lokal grundlegende Unterschiede in der Besiedlung gefunden: In einigen Abschnitten des Bachbetts fanden sich klassische Denitrifizierer, in anderen Abschnitten dagegen noch weniger bekannte, sogenannte chemolithoautotrophe Nitratreduzierer“, erklärt Prof. Dr. Tillmann Lüders, der an der Universität Bayreuth den Lehrstuhl für Ökologische Mikrobiologie innehat.
Die Besiedlung der Wassergräben mit Organismen, die schädliches Nitrat abbauen, steht in engem Zusammenhang mit einem weiteren Phänomen, das die Forscher jetzt in interdisziplinärer Zusammenarbeit aufzeigen konnten: Die kleinen Fließgewässer nehmen nicht nur Wasser aus der Landschaft auf, sondern geben gleichzeitig auch wieder Wasser an das umgebende Grundwasser ab. Umgekehrt kann dieses Grundwasser stromabwärts auch wieder dem Bach zuströmen. Dadurch können auf einer Fließstrecke von wenigen 100 Metern mehr als 80 Prozent des im Graben fließenden Wassers ausgetauscht werden. Alle diese Prozesse sind abhängig von den lokalen Geländeeigenschaften und beeinflussen ihrerseits die Besiedlung des Bachbetts durch nitratreduzierende Mikroorganismen.
„Wir sind hier auf ein bisher unbekanntes Ineinandergreifen von Hydrologie und Mikrobiologie gestoßen, dem die ökologische Landschaftsgestaltung künftig mehr Aufmerksamkeit schenken sollte. Der sehr viel bessere Erkenntnisstand zu größeren Fließgewässern darf nicht zu einer nachrangigen Betrachtung solch kleiner, landwirtschaftlich geprägter Bäche und Gräben führen. Diese haben einen nicht zu unterschätzenden Anteil an den Selbstreinigungskräften eines gesamten Wassereinzugsgebietes“, sagt Zhe Wang, Erstautor der Studie und wissenschaftlicher Mitarbeiter am Lehrstuhl für Ökologische Mikrobiologie.
Die Forschungsarbeiten, die zu der jetzt in „Water Research“ veröffentlichten Studie geführt haben, wurden exemplarisch in Schwaben, bei Tübingen, durchgeführt. Sie waren eingebettet in den DFG-Sonderforschungsbereich CAMPOS der Universität Tübingen, an dem Prof. Lüders als externer Partner beteiligt war. Sie wurden ebenso begleitet und gefördert durch das Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER) der Universität Bayreuth. Darüber hinaus waren Forscher des Helmholtz-Zentrums für Umweltforschung UFZ in Leipzig, des Helmholtz-Zentrums München – Deutsches Zentrum für Gesundheit und Umwelt in Neuherberg sowie der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (BGR) an der Studie beteiligt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Tillmann Lüders
Lehrstuhl für Ökologische Mikrobiologie
Bayreuther Zentrum für Ökologie und Umweltforschung (BayCEER)
Universität Bayreuth
Tel: +49 (0)921 55-5640
E-Mail: tillmann.lueders@uni-bayreuth.de
Originalpublikation:
Zhe Wang, Oscar Jimenez-Fernandez, Karsten Osenbrück, Marc Schwientek, Michael Schloter, Jan H.Fleckenstein, Tillmann Lueders: Streambed microbial communities in the transition zone between groundwater and a first-order stream as impacted by bidirectional water exchange. Water Research (2022), DOI: https://dx.doi.org/10.1016/j.watres.2022.118334
Der Wald als Schutzraum für Insekten in wärmeren Klimazonen?
Kristian Lozina Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die Insektenvielfalt in Bayern geht zurück. Grund dafür ist unter anderem die Landnutzung, doch die Auswirkungen des Klimawandels sind noch weitgehend unbekannt. Eine Studie der Universität Würzburg hat nun näher untersucht, wie beide Faktoren bei der Entwicklung der Insektenvielfalt zusammenwirken und was gegen den Rückgang getan werden kann.
Etwa 75 Prozent unserer Nutzpflanzen und mehr als 80 Prozent der Wildpflanzen sind auf die Bestäubung durch Insekten angewiesen. Der Wert dieser Bestäubung wird weltweit auf bis zu 577 Milliarden US-Dollar pro Jahr geschätzt. Die bekanntesten Bestäuber sind Bienen, aber diese sind bei weitem nicht die einzigen Insekten, die diesen Dienst für den Menschen und die Natur erbringen – Fliegen, Käfer, Schmetterlinge und Motten spielen ebenfalls eine wichtige Rolle.
Mehrere Studien haben in den vergangenen Jahrzehnten einen deutlichen Rückgang der Insektenpopulationen festgestellt – auch in Deutschland. Im Fokus stand bisher der Verlust geeigneter Lebensräume für die Insekten, zum Beispiel durch die Umwandlung von Naturgebieten in landwirtschaftliche oder städtische Flächen. Doch welche Folgen hat die Landnutzung in Kombination mit einem wärmeren und trockeneren Klima, speziell für bestäubende Insekten? Und was könnte getan werden, um mögliche negative Folgen abzumildern? Das hat eine neue Studie der Julius-Maximilians-Universität (JMU) Würzburg untersucht.
Die zentralen Ergebnisse der Studie
Das Forscherteam der JMU und Kollegen zeigen zum ersten Mal, wie Klima und Landnutzung zusammen die Vielfalt bestäubender Insekten auf lokaler und landschaftlicher Ebene in Bayern beeinflussen. Auf der Grundlage von mehr als 3200 identifizierten Bestäuberarten von 179 Standorten in Wäldern, Grünland, Ackerland und städtischen Lebensräumen stellen sie eine Homogenisierung der Bestäubergemeinschaften in wärmeren Klimazonen fest. Dies deutet auf einen allgemeinen Verlust der Bestäubervielfalt unter zukünftigen Klimabedingungen hin.
Einzelne Taxa wie Bienen, Fliegen, Käfer, Schmetterlinge und Motten reagierten unterschiedlich auf wärmeres und trockeneres Klima, aber das allgemeine Muster zeigt, dass Landschaften mit einem höheren Waldanteil vielfältigere Bestäubergemeinschaften beheimaten. „Unsere wichtigste Erkenntnis ist, dass der Wald in der Landschaft die Auswirkungen der Klimaerwärmung bis zu einem gewissen Grad abfedern kann“, erklärt Cristina Ganuza, Doktorandin in der Arbeitsgruppe von Professor Ingolf Steffan-Dewenter am Lehrstuhl für Tierökologie und Tropenbiologie der JMU und Hauptautorin der Studie.
„Die Studie unterstreicht, dass neben der Bedeutung der Blühressourcen und den negativen Auswirkungen der intensiven Landnutzung auch die klimatischen Bedingungen eine zunehmend wichtige Rolle für den Erhalt der Bestäubervielfalt spielen. So wirkte sich beispielsweise die Kombination aus hohen Temperaturen und geringen Niederschlägen negativ auf die gesamte Bestäubervielfalt aus, während der Bienenreichtum in städtischen Gebieten durch höhere Durchschnittstemperaturen negativ beeinflusst wurde“, erklärt Steffan-Dewenter.
Besondere Relevanz für Natur und Mensch
Für eine hohe Bestäuberleistung brauche es eine hohe Bestäubervielfalt, so Ganuza. „Die Kombination aus fortschreitendem Klimawandel und aktueller Landnutzung wird es aber nur bestimmten Bestäuberarten ermöglichen, in den verschiedenen Lebensraumtypen zu überleben.“
„Wir kommen zu dem Schluss, dass ein großer Anteil an Waldfläche in der Landschaft als Zufluchtsort für Insekten vor der Klimaerwärmung dienen könnte“, so Ganuza. „Dies liegt wahrscheinlich daran, dass Wälder und Waldränder weitgehend natürliche Bedingungen bieten, die extreme Hitze und Trockenheit im Vergleich zu stärker vom Menschen beeinflussten Lebensräumen abpuffern.“
Ein weiterer Vorschlag der Forschenden wäre die Senkung der Lufttemperatur in Städten, zum Beispiel durch Begrünung. „Das könnte dazu führen, dass mehr Bienenarten in städtischen Gebieten leben können“, erklärt die Biologin. Kurzum: Insekten mögen es vielfältig. Und möglichst unterschiedliche Blütenpflanzen sind für die kleinen Tiere auf allen Flächen unerlässlich.
Kooperationspartner und Förderung
Die Würzburger Studie erschien kürzlich in der Fachzeitschrift Science Advances. Sie entstand in Kooperation mit der Universität Bayreuth, der Technischen Universität München und der Hochschule Weihenstephan-Triesdorf. Sie wurde gefördert durch das Bayerische Staatsministerium für Wissenschaft und Kunst im Rahmen des Bayerischen Klimaforschungsnetzwerks im Forschungscluster „LandKlif – Auswirkungen des Klimawandels auf Artenvielfalt und Ökosystemleistungen in naturnahen, agrarischen und urbanen Landschaften und Strategien zum Management des Klimawandels“.
Wissenschaftliche Ansprechpartner:
Cristina Ganuza, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86893, cristina.ganuza_vallejo@uni-wuerzburg.de
Sarah Redlich, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 821290, sarah.redlich@uni-wuerzburg.de
Ingolf Steffan-Dewenter, Lehrstuhl für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T. +49 931 – 31 86947, ingolf.steffan@uni-wuerzburg.de
Originalpublikation:
Ganuza et al: “Interactive effects of climate and land use on pollinator diversity differ among taxa and scales”; in: Science Advances; doi: 10.1126/sciadv.abm9359
Weitere Informationen:
https://www.biozentrum.uni-wuerzburg.de/zoo3/forschung/verbundprojekte/landklif/
Lachgas – alles andere als träge
Sarah-Lena Gombert Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Kohlenforschung
Kohlenforscher Josep Cornellà entwickelt Methode, Treibhausgas unschädlich zu machen, und veröffentlicht seine Ergebnisse in der Zeitschrift „Nature“.
Der Ausstoß diverser Treibhausgase stellt eine globale Umweltbedrohung dar. Wissenschaftler weltweit beschäftigen sich mehr und mehr mit der Lösung dieses Problems. Während sich viele Forschungsgruppen auf den Umgang mit Kohlenstoffdioxid (C02) oder Methan (CH4) konzentrieren, hat sich jetzt ein Team um Chemiker Josep Cornellà vom Max-Planck-Institut für Kohlenforschung um ein anderes Gas gekümmert, das maßgeblich zur Erderwärmung beiträgt: Distickstoffmonoxid (N2O), vielen auch als Lachgas bekannt.
Lachgas hat ein Erderwärmungspotenzial, das etwa 300 Mal so hoch ist wie das von Kohlenstoffdioxid. Menschliche Aktivität auf diesem Planeten hat dafür gesorgt, dass die Emission von Lachgas in den vergangenen Jahrzehnten um etwa zwei Prozent gestiegen ist. Außerdem ist mittlerweile bekannt, dass Lachgas die Ozonschicht schädigt.
Dabei ist das Molekül viel zu schade, um es einfach in die Luft zu pusten, findet Josep Cornellà: Denn N2O, so erklärt er, ist eine exzellente Quelle für das Sauerstoffatom O. Was übrig bleibt, N2, ist molekularer Stickstoff – denkbar ungefährlich.
Lange galt N2O als „inertes“ Gas, also als träge und wenig reaktionsfreudig. Die Wissenschaftlerinnen und Wissenschaftler aus der Kohlenforschung haben in ihrer Arbeit, die jetzt bei „Nature“ publiziert worden ist, jedoch gezeigt, dass das nicht unbedingt stimmt. Sie beschreiben, wie man N2O unter milden Bedingungen so reagieren lässt, dass aus dem unliebsamen Gas für die Industrie wertvolle Phenole sowie harmloser Stickstoff entstehen. Gelungen ist dieser neuartige Schritt durch Katalysatoren, also feine molekulare Werkzeuge, die bei der Reaktion selbst nicht verbraucht werden.
Der 37-jährige Spanier Josep Cornella arbeitet seit 2017 am Max-Planck-Institut für Kohlenforschung. In seiner jungen Karriere hat er bereits zahlreiche Preise erhalten, unter anderem ist er mit einem ERC Starting Grant gefördert und mit dem Bayer Early Excellence in Science Award ausgezeichnet worden. Jüngst hat er den „Organometallics’ 2022 Distinguished Author Award“ erhalten. Mit diesem Preis zeichnet die American Chemical Society solche Wissenschaftlerinnen und Wissenschaftler aus, die in den vergangenen zwei Jahren mit außergewöhnlich guten Artikeln im Bereich der Organometallischen Chemie auf sich aufmerksam gemacht haben.
Seit mehr als 100 Jahren betreibt das Max-Planck-Institut für Kohlenforschung in Mülheim an der Ruhr chemische Grundlagenforschung und hat seit seiner Eröffnung als Kaiser-Wilhelm-Institut 1914 zahlreiche chemische Entdeckungen von historischer Tragweite gemacht. Es war das erste Kaiser-Wilhelm-Institut außerhalb Berlins und die erste wissenschaftliche Einrichtung im Ruhrgebiet überhaupt.
Zu den wichtigsten Errungenschaften gehört die Entdeckung der Fischer-Tropsch-Synthese in den 1920er Jahren, ein Verfahren zur Herstellung synthetischen Benzins, seinerzeit auf der Basis von Kohle, das aber auch andere Kohlenstoffquellen, wie das Kohlendioxid aus Abgasen oder sogar aus der Luft nutzen kann.
Wirtschaftlich und wissenschaftlich sehr bedeutend – und ebenfalls mit dem Chemienobelpreis ausgezeichnet – war das Niederdruckpolyethylenverfahren von Karl Ziegler, das die wirtschaftliche Produktion von hochwertigen Kunststoffen ermöglichte. Aber auch ein Verfahren zur Entkoffeinierung von Kaffeebohnen wurde am MPI für Kohlenforschung entwickelt. Heute besteht das Institut aus fünf wissenschaftlichen Abteilungen, die jeweils von einem Direktor geleitet werden. Rund 400 Beschäftigte aus aller Welt widmen sich der chemischen Grundlagenforschung mit Fokus auf die Katalyse.
Wissenschaftliche Ansprechpartner:
Dr. Josep Cornellà
cornella@kofo.mpg.de
Originalpublikation:
„Catalytic synthesis of phenols with nitrous oxide“
https://www.nature.com/articles/s41586-022-04516-4
Anhang
Pressemitteilung im PDF Format
Sonnenschutzkampagne will Hautkrebsrisiko im Sport senken
Dr. Anna Kraft Presse- und Öffentlichkeitsarbeit
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Sportlerinnen und Sportler – vom Breiten- bis zum Spitzensport – verbringen häufig viel Zeit im Freien. Wenn sie wiederholt und lange der UV-Strahlung der Sonne ausgesetzt sind, erhöht sich ihr Risiko an Hautkrebs zu erkranken. Zu viel UV-Strahlung kann zudem das Immunsystem und die Leistungsfähigkeit der Athletinnen und Athleten schwächen. Die Deutsche Krebshilfe startet daher gemeinsam mit dem Deutschen Olympischen Sportbund und den Partnern des Präventionsprogramms „Clever in Sonne und Schatten“ der Deutschen Krebshilfe eine deutschlandweite Kampagne unter dem Motto „Wir machen UV-Schutz im Sport zum Thema“.
Die Kampagne vermittelt zielgruppengerecht wichtige Tipps für den Sonnenschutz: beispielsweise die Mittagssonne zu meiden, schützende Kleidung zu tragen und Sonnencreme zu benutzen. Bei einer Auftaktveranstaltung an der Sportoberschule Dresden bekräftigten Vertreterinnen und Vertreter aus Sport und Medizin – darunter die SG Dynamo Dresden als mitgliedsstärkster Sportverein Sachsens – das gemeinsame Engagement. Die Kampagne wurde vom Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) entwickelt. Alle Informations- und Arbeitsmaterialien für die Eliteschulen des Sports, sportbetonte Schulen und Vereine sind kostenfrei erhältlich.
Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät Carl Gustav Carus der TU Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).
In Deutschland erkranken derzeit pro Jahr mehr als 300.000 Menschen neu an Hautkrebs, mehr als 40.000 Menschen davon am Malignen Melanom, dem sehr gefährlichen schwarzen Hautkrebs. Der wichtigste äußere Risikofaktor für Hautkrebs ist eine starke Belastung der Haut mit ultravioletten (UV-) Strahlen. Sportlerinnen und Sportler sowie ihre Trainerinnen und Trainer sind oft viel und lange in der Sonne. Deshalb ist ein geeigneter Sonnenschutz zur Hautkrebsprävention – etwa durch möglichst lange Kleidung, Kopfbedeckung, Sonnencreme und Trainingszeiten außerhalb der Mittagszeit – für sie besonders wichtig. Mit einer deutschlandweiten Kampagne wollen die Deutsche Krebshilfe, der Deutsche Olympische Sportbund (DOSB) sowie die Partner des Programms „Clever in Sonne und Schatten“ die Aufmerksamkeit für das Thema erhöhen und richtigen Sonnenschutz nachhaltig in sportbetonten Schulen, Vereinen und Verbänden etablieren.
„Die Deutsche Krebshilfe macht sich angesichts steigender Erkrankungszahlen seit Jahren für die Hautkrebsprävention stark, etwa mit gezielten Programmen für Schulen und Kitas. Wir freuen uns, gemeinsam mit starken Partnern künftig einen weiteren Schwerpunkt im Bereich des Sports legen zu können“, sagt Gerd Nettekoven, Vorstandsvorsitzender der Deutschen Krebshilfe. „Zu viel UV-Strahlung kann auch das Immunsystem schwächen und die Gefahr für Infektionen verstärken. Auch deshalb ist es uns wichtig, unsere Sportlerinnen und Sportler möglichst gut vor einer wiederkehrenden intensiven Sonnenbelastung zu schützen“, ergänzt Dr. Sven Baumgarten vom DOSB.
Um das Bewusstsein für die Bedeutung des UV-Schutzes im Sport zu stärken, hat das Präventionszentrum des Nationalen Centrums für Tumorerkrankungen Dresden (NCT/UCC) spezielle Projektpakete für sportbetonte Schulen entwickelt. Diese enthalten unter anderem Videospots und Präsentationen für den Unterricht sowie für Elternabende, Poster mit Sonnenschutzregeln und ein Handbuch für Lehrkräfte. Seit Jahresbeginn wurden die deutschlandweit 43 DOSB-Eliteschulen des Sports über das Projekt informiert, die rund 11.500 junge Sportlerinnen und Sportler fördern. „Jetzt begleiten wir die Schulen dabei, das Projekt umzusetzen und Sonnenschutz nachhaltig in den Schulalltag zu integrieren. Nach erfolgreicher Umsetzung können sich die Schulen im Herbst für ihr Engagement auszeichnen lassen“, sagt Dr. Friederike Stölzel, Co-Leiterin des NCT/UCC-Präventionszentrums.
Darüber hinaus entwickelt das NCT/UCC Materialien, um einen adäquaten UV-Schutz in Sportvereinen und -verbänden zu verankern. Aktuell werden diese im Dresdner Sportclub 1898 e.V. auf Praxistauglichkeit und Akzeptanz getestet, auch die SG Dynamo Dresden ist eng eingebunden. Ab nächstem Jahr stehen die kostenfreien Informations- und Aktionspakete dann allen Vereinen und Verbänden deutschlandweit zur Verfügung. „Im Sommer trainieren wir oft mehrere Stunden am Tag in der Sonne, mit T-Shirts und kurzen Hosen. Da sollte es selbstverständlich sein, auch an die Sonnencreme zu denken. Es ist wichtig, dass wir uns über die Risiken und die einfachen Schutz-Möglichkeiten besser bewusst werden“, sagt Sebastian Mai, Spieler von Dynamo Dresden. „Vorbeugung und Früherkennung sind beim Kampf gegen Hautkrebs das A und O. Mit eigentlich einfachen Regeln könnten sich die Hautkrebszahlen senken und die Heilungsraten erhöhen lassen“, betont Prof. Friedegund Meier, Leiterin des Hauttumorzentrums am NCT/UCC. „Nach meiner eigenen Hautkrebserkrankung ist es mir ein großes Anliegen, andere für dieses Thema zu sensibilisieren. Wir freuen uns, Eliteschulen des Sports, sportbetonte Schulen und Vereine hierbei künftig gezielt unterstützen zu können“, ergänzt Susanne Klehn, Botschafterin für Hautkrebsprävention der Deutschen Krebshilfe.
Clever in Sonne und Schatten
Das Programm „Clever in Sonne und Schatten“ der Deutschen Krebshilfe richtet sich – neben dem neuen Fokus auf sportbetonten Schulen und Sportvereine – vor allem an Kitas und Grundschulen. „Kinderhaut ist ganz besonders empfindlich. Die in der Kindheit und Jugend erworbenen UV-Schäden der Haut sind maßgeblich für das spätere Entstehen von Hautkrebs verantwortlich. Daher müssen wir schon bei den Kleinsten mit dem richtigen Sonnenschutz beginnen“, sagt Prof. Eckhard Breitbart, Vorsitzender der Arbeitsgemeinschaft Dermatologische Prävention, Hamburg. In den vergangenen Jahren konnten deutschlandweit 5.500 Projektpakete versandt und mehr als 350 Kitas und Grundschulen für ihr Engagement zum Sonnenschutz ausgezeichnet werden. Partner des Programms sind die Arbeitsgemeinschaft Dermatologische Prävention e.V. und das Projekt „Die Sonne und Wir“ an der Universität zu Köln – Uniklinik Köln.
Ansprechpartner für die Presse:
Dr. Anna Kraft
Nationales Centrum für Tumorerkrankungen Dresden (NCT/UCC)
Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)351 458-5548
E-Mail: anna.kraft@nct-dresden.de
www.nct-dresden.de
Dr. Sibylle Kohlstädt
Deutsches Krebsforschungszentrum (DKFZ)
Strategische Kommunikation und Öffentlichkeitsarbeit
Tel.: +49 (0)6221 42-2854
Fax: +49 (0)6221 42-2968
E-Mail: s.kohlstaedt@dkfz.de
www.dkfz.de
Stephan Wiegand
Stabsstelle Öffentlichkeitsarbeit & Marketing
Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Tel.: +49 (0) 351 458-19389
Fax: +49 (0) 351 458-885486
E-Mail: stephan.wiegand@tu-dresden.de
www.tu-dresden.de/med
Holger Ostermeyer
Universitätsklinikum Carl Gustav Carus Dresden Pressestelle
Tel.: +49 (0)351 458-4162
Fax: +49 (0)351 449210505
E-Mail: Pressestelle@uniklinikum-dresden.de www.uniklinikum-dresden.de
Simon Schmitt
Kommunikation und Medien | Leitung und Pressesprecher
Helmholtz-Zentrum Dresden-Rossendorf
E-Mail: s.schmitt@hzdr.de
Tel.: +49 351 260-3400
www.hzdr.de
NCT/UCC Dresden
Das Nationale Centrum für Tumorerkrankungen Dresden (NCT/UCC) ist eine gemeinsame Einrichtung des Deutschen Krebsforschungszentrums (DKFZ), des Universitätsklinikums Carl Gustav Carus Dresden, der Medizinischen Fakultät der Technischen Universität Dresden und des Helmholtz-Zentrums Dresden-Rossendorf (HZDR).
Das NCT hat es sich zur Aufgabe gemacht, Forschung und Krankenversorgung so eng wie möglich zu verknüpfen. Damit können Krebspatienten an den NCT-Standorten auf dem jeweils neuesten Stand der wissenschaftlichen Erkenntnisse behandelt werden. Gleichzeitig erhalten die Wissenschaftler durch die Nähe von Labor und Klinik wichtige Impulse für ihre praxisnahe Forschung. Gemeinsamer Anspruch der NCT-Standorte ist es, das NCT zu einem internationalen Spitzenzentrum der patientennahen Krebsforschung zu entwickeln. Das Dresdner Zentrum baut auf den Strukturen des Universitäts KrebsCentrums Dresden (UCC) auf, das 2003 als eines der ersten Comprehensive Cancer Center (CCC) in Deutschland gegründet wurde. Seit 2007 wurde das UCC von der Deutschen Krebshilfe e.V. (DKH) kontinuierlich als „Onkologisches Spitzenzentrum“ ausgezeichnet.
Deutsches Krebsforschungszentrum (DKFZ)
Das DKFZ ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern.
Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Universitätsklinikum Carl Gustav Carus Dresden
Das Universitätsklinikum Carl Gustav Carus Dresden bietet medizinische Betreuung auf höchstem Versorgungsniveau. Als Krankenhaus der Maximalversorgung deckt es das gesamte Spektrum der modernen Medizin ab. Das Universitätsklinikum vereint 20 Kliniken und Polikliniken, vier Institute und zehn interdisziplinäre Zentren, die eng mit den klinischen und theoretischen Instituten der Medizinischen Fakultät zusammenarbeiten.
Mit 1.295 Betten und 160 Plätzen für die tagesklinische Behandlung von Patienten ist das Dresdner Uniklinikum das größte Krankenhaus der Stadt und zugleich das einzige Krankenhaus der Maximalversorgung in Ostsachsen. Rund 860 Ärzte decken das gesamte Spektrum der modernen Medizin ab. 1.860 Schwestern und Pfleger kümmern sich um das Wohl der Patienten. Wichtige Behandlungsschwerpunkte des Uniklinikums sind die Versorgung von Patienten, die an Krebs, an Stoffwechsel- und an neurodegenerativen Erkrankungen.
Deutschlands größter Krankenhausvergleich des Nachrichtenmagazins „Focus“ bescheinigt dem Universitätsklinikum Carl Gustav Dresden eine hervorragende Behandlungsqualität. Die Dresdner Hochschulmedizin belegt deshalb Platz zwei im deutschlandweiten Ranking.
Medizinische Fakultät Carl Gustav Carus der Technischen Universität Dresden
Die Hochschulmedizin Dresden, bestehend aus der Medizinischen Fakultät Carl Gustav Carus und dem gleichnamigen Universitätsklinikum, hat sich in der Forschung auf die Bereiche Onkologie, metabolische sowie neurologische und psychiatrische Erkrankungen spezialisiert. Bei diesen Schwerpunkten sind übergreifend die Themenkomplexe Degeneration und Regeneration, Imaging und Technologieentwicklung, Immunologie und Inflammation sowie Prävention und Versorgungsforschung von besonderem Interesse. Internationaler Austausch ist Voraussetzung für Spitzenforschung – die Hochschulmedizin Dresden lebt diesen Gedanken mit Mitarbeiterinnen und Mitarbeitern aus 73 Nationen sowie zahlreichen Kooperationen mit Forschern und Teams in aller Welt.
Helmholtz-Zentrum Dresden-Rossendorf (HZDR)
Das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) forscht auf den Gebieten Energie, Gesundheit und Materie. Folgende Fragestellungen stehen hierbei im Fokus:
• Wie nutzt man Energie und Ressourcen effizient, sicher und nachhaltig?
• Wie können Krebserkrankungen besser visualisiert, charakterisiert und wirksam behandelt werden?
• Wie verhalten sich Materie und Materialien unter dem Einfluss hoher Felder und in kleinsten Dimensionen?
Zur Beantwortung dieser wissenschaftlichen Fragen betreibt das HZDR große Infrastrukturen, die auch von externen Messgästen genutzt werden: Ionenstrahlzentrum, Hochfeld-Magnetlabor Dresden und ELBE-Zentrum für Hochleistungs-Strahlenquellen.
Das HZDR ist Mitglied der Helmholtz-Gemeinschaft, hat fünf Standorte (Dresden, Freiberg, Grenoble, Leipzig, Schenefeld bei Hamburg) und beschäftigt knapp 1.200 Mitarbeiter – davon etwa 500 Wissenschaftler inklusive 170 Dok
Fleischalternativen aus Pilzkulturen könnten helfen, die Wälder der Erde zu retten
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Wenn bis 2050 nur ein Fünftel des pro-Kopf Rindfleischkonsums durch Fleischalternativen aus mikrobiellem Protein ersetzt wird, könnte das die weltweite Entwaldung halbieren: Das ist das Ergebnis einer neuen Analyse des Potsdam-Instituts für Klimafolgenforschung (PIK), die in der Fachzeitschrift Nature veröffentlicht wurde und zum ersten Mal mögliche Auswirkungen dieser bereits marktreifen Lebensmittel auf die Umwelt umfassend untersucht.
Der aus Pilzkulturen durch Fermentierung produzierte Fleischersatz ähnelt echtem Fleisch in Geschmack und Konsistenz, ist aber ein biotechnologisches Produkt. Gegenüber Rindfleisch erfordern diese Fleischalternativen deutlich weniger Landressourcen und können somit die Treibhausgasemissionen durch Viehhaltung und die Ausweitung von Acker- und Weideland stark senken. Die Analyse geht von der Annahme aus, dass die wachsende Weltbevölkerung immer mehr Appetit auf Rindfleisch hat.
„Die Produktion und der Konsum von Nahrungsmitteln machen ein Drittel der weltweiten Treibhausgasemissionen aus, wobei die Produktion von Rindfleisch die größte Einzelquelle ist“, sagt Florian Humpenöder, Forscher am PIK und Hauptautor der Studie. Das liegt zum Großteil daran, dass kohlenstoffspeichernde Wälder für Weide- oder Ackerflächen immer weiter gerodet werden sowie an weiteren Treibhausgasemissionen aus der landwirtschaftlichen Tierhaltung. Ein Teil der Lösung könnte in bereits existierender Biotechnologie liegen: Nährstoffreiche, proteinreiche Biomasse mit fleischähnlicher Konsistenz, die von Mikroorganismen durch Fermentierung produziert wird – von Forschenden als mikrobielles Protein, also Eiweiß, bezeichnet.
„Würde man Wiederkäuerfleisch, also vor allem Rind-, aber auch Schaf- und Ziegenfleisch durch mikrobielles Protein ersetzen, könnte man die künftigen Umweltschäden durch das Ernährungssystem erheblich verringern“, sagt Humpenöder. „Die gute Nachricht ist: Die Menschen müssen keine Angst haben, dass sie in Zukunft nur noch Gemüse essen sollen. Sie können weiterhin Burger & Co. essen, nur werden die Burger-Pattys dann anders hergestellt.“
Nachhaltige Burger: Rinderhackfleisch durch mikrobielles Protein ersetzen
Das Forschungsteam aus Deutschland und Schweden hat mikrobielles Protein in einer Computersimulation in den Kontext des gesamten Agrar- und Ernährungssystems gestellt, um die Auswirkungen auf die Umwelt zu ermitteln. Dieser Ansatz unterscheidet sich von früheren Studien, die nur einzelne Produkte betrachteten. Die Zukunftsszenarien der Forschenden reichen bis zum Jahr 2050 und berücksichtigen das künftige Bevölkerungswachstum, die Nahrungsmittelnachfrage, die Ernährungsgewohnheiten und die Dynamiken der Landnutzung und der Landwirtschaft. Da der Fleischkonsum in Zukunft wahrscheinlich weiter ansteigen wird, könnten immer mehr Wälder und nicht bewaldete natürliche Vegetation für Weide- und Ackerflächen verloren gehen.
„Wir haben herausgefunden, dass sich die jährliche Entwaldung und die CO2-Emissionen durch die Ausweitung von Acker- und Weideland im Vergleich zu einem Weiter-So-Szenario halbieren würden, wenn wir bis 2050 20 Prozent des pro-Kopf Konsums von Rindfleisch ersetzen würden. Weniger Rinder bedeuten weniger Bedarf an Futter- und Weideflächen und daher weniger Entwaldung – und reduzieren auch die Methanemissionen aus dem Pansen von Rindern und die Lachgasemissionen aus der Düngung von Futtermitteln oder der Güllewirtschaft“, sagt Humpenöder. “ Hackfleisch durch mikrobielles Protein zu ersetzen wäre also ein guter Anfang, um die Umweltschäden der heutigen Rindfleischproduktion zu verringern.“
Fleischersatz aus mikrobiellem Protein kann von landwirtschaftlicher Produktion entkoppelt werden
„Es gibt im Wesentlichen drei Gruppen von Fleischersatzprodukten“, erklärt Isabelle Weindl, Mitautorin und ebenfalls Forscherin am PIK. „Es gibt pflanzliche Produkte wie Soja-Burger, die man in Supermärkten findet. Es gibt tierische Zellen, die in einem Wachstumsmedium kultiviert werden, auch bekannt als Labor- oder in-vitro-Fleisch, das bisher sehr teuer ist, aber in letzter Zeit viel öffentliche Aufmerksamkeit erregt hat. Und es gibt fermentativ gewonnenes mikrobielles Protein auf Basis von Pilzkulturen, das wir für sehr interessant halten. Schon heute ist eine große Produktpalette davon etwa in Großbritannien und Schweiz im Supermarkt erhältlich und, was wichtig ist, es kann weitgehend von der landwirtschaftlichen Produktion entkoppelt werden. Unsere Ergebnisse zeigen, dass die Herstellung von mikrobiellem Protein viel weniger landwirtschaftliche Fläche erfordert als die gleiche Menge Protein aus Fleisch – sogar, wenn man den Anbau des Zuckers einrechnet, den die Mikroben benötigen.“
Mikrobielles Protein wird in speziellen Kulturen hergestellt, ähnlich wie Bier oder Brot. Die Mikroben brauchen Zucker und eine konstante Temperatur. Daraus entsteht ein sehr proteinreiches Produkt, das so schmeckt, sich so anfühlt und so nahrhaft ist wie Rindfleisch. Die Technik basiert auf der jahrhundertealten Methode der Fermentation und wurde in den 1980er Jahren entwickelt. Die US-amerikanische Lebensmittelbehörde FDA (Food and Drug Administration) gab 2002 grünes Licht für eine von Mikroben hergestellte Fleischalternative („Mycoprotein“) und stufte sie als sicher ein.
Grüne Biotechnologie muss durch grüne Energie angetrieben werden
„Biotechnologie kann eine wichtige Rolle spielen für Herausforderungen einer umweltschonenden Landwirtschaft, von der Erhaltung der Ökosysteme bis zur Verbesserung der Ernährungssicherheit“, sagt Mitautor Alexander Popp, Leiter der Forschungsgruppe Landnutzungs-Management am PIK.
„Alternativen zu tierischen Proteinen, zum Beispiel auch was Milchersatzprodukte betrifft, könnten dem Tierwohl massiv zugutekommen, Wasser sparen und Naturräume und Artenvielfalt schonen. Allerdings bringt die Verlagerung vom Tier zum Fermentations-Tank weitere Fragen mit sich – allen voran die Energieversorgung für den Produktionsprozess.
„Eine groß angelegte Umstellung auf Biotech-Lebensmittel muss einhergehen mit einer klimafreundlichen Stromerzeugung. Nur so kann das Klimaschutzpotenzial voll wirken“, so Popp weiter. „Aber wenn wir es richtig anpacken, kann mikrobielles Protein auch Fleischliebhabern den Wandel erleichtern. Schon kleine Häppchen können viel bewirken.“
Originalpublikation:
Florian Humpenöder, Benjamin Bodirsky, Isabelle Weindl, Hermann Lotze-Campen, Tomas Linder, Alexander Popp (2022): Projected environmental benefits of replacing beef with microbial protein. Nature. [DOI: 10.1038/s41586-022-04629-w]
Coronaviren auf Glas: Handelsübliche Spülmittel und manuelle Gläserspülgeräte entfernen Viren effektiv
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Studie liefert Daten zur Stabilität von Coronaviren auf Glasoberflä-chen und ihrer Inaktivierung durch herkömmliche Spülverfahren
Ob zuhause, in der Kantine oder im Restaurant – immer wieder steht die Frage im Raum, ob das neuartige Coronavirus SARS-CoV-2 auch über Geschirr oder Trinkgläser übertragen werden kann. In der Regel werden Infektionen mit Coronaviren über Tröpfchen und Aerosole direkt von Mensch zu Mensch weitergegeben. Auch wenn Schmierinfektionen nicht ausgeschlossen werden können, gibt es für die indirekte Übertragung des Virus durch kontaminierte Gegenstände und Oberflächen bislang keine belastbaren Belege. Dennoch nehmen Trinkgläser bei diesen Überlegungen eine besondere Stellung ein, da sie in direkten Kontakt mit dem Mund und der Mundhöhle kommen. Ein Forschungsprojekt des Bundesinstituts für Risikobewertung (BfR) liefert nun neue Erkenntnisse. „Coronaviren sind auf Glas relativ stabil – das bestätigen unsere Untersuchungen. Eine ausreichende Reinigung von Trinkgläsern ist daher wichtig,“ so BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Unsere Daten zeigen, dass handelsübliche Spülmittel und manuelle Gläserspülgeräte Coronaviren effektiv von Trinkgläsern entfernen können.“
Die Studie wurde am 6. April 2022 in dem wissenschaftlichen Fachjournal Food Microbiology veröffentlicht:
https://doi.org/10.1016/j.fm.2022.104036
Für die Untersuchungen wurde das dem SARS-CoV-2 verwandte humane Coronavirus 229E, das beim Menschen zu milden Atemwegserkrankungen führen kann und oft als Modellvirus für humane Coronaviren eingesetzt wird, verwendet. Die Ergebnisse zeigen, dass Coronaviren nach dem Trocknen auf Glas für Tage bis Wochen infektiös bleiben können. Dabei hat die Lichteinwirkung einen großen Einfluss. Bei Lagerung bei Tageslicht konnten infektiöse Coronaviren bis zu sieben Tage und bei Dunkelheit bis zu 21 Tage nachgewiesen werden. Als behüllte Viren, deren Erbgut von einer Fettschicht umgeben ist, reagieren Coronaviren empfindlich auf fettlösende Substanzen wie Alkohole und Tenside, die als Fettlöser in Seifen und Geschirrspülmitteln enthalten sind. Die Untersuchungen des BfR zeigten, dass die meisten handelsüblichen Spülmittel Coronaviren in Spülwasser mit einer Temperatur von 23 Grad Celsius innerhalb von 15 Sekunden ausreichend inaktivieren. Lediglich bei einem Spülmittel mit einem geringeren Gesamtgehalt an Tensiden war dafür eine höhere Temperatur von 43 Grad Celsius und eine längere Einwirkzeit von 60 Sekunden nötig. Mit einem manuellen Gläserspülgerät nach DIN 6653-3 konnten Coronaviren auch bei der Verwendung kalten Wassers effektiv von den Gläsern entfernt werden.
Die Ergebnisse der BfR-Studie zeigen, dass sich sowohl beim Handspülen als auch bei der Nutzung manueller Gläserspülgeräte Coronaviren ausreichend von Trinkgläsern entfernen lassen. Voraussetzung hierfür ist die ordnungsgemäße Durchführung des Spülens, die unter anderem einen ausreichend häufigen Wasserwechsel, die Verwendung der vom Hersteller empfohlenen Spülmittelkonzentrationen und eine ausreichende manuelle Schmutzbeseitigung beinhaltet.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Nach der Flut ist vor der Flut – Universität Potsdam am BMBF-Projekt zu Wasser-Extremereignissen beteiligt
Dr. Stefanie Mikulla Referat für Presse- und Öffentlichkeitsarbeit
Universität Potsdam
Extremereignisse wie Dürre, Starkregen und Sturzfluten haben in Deutschland in den vergangenen Jahren stark zugenommen. Um das Risikomanagement bei extremen Niederschlägen, großflächigen Überschwemmungen oder langanhaltenden Dürreperioden zu verbessern, fördert das Bundesministerium für Bildung und Forschung (BMBF) mit der Maßnahme „WaX – Wasser-Extremereignisse“ zwölf neue Forschungsverbünde. Das Institut für Umweltwissenschaften und Geographie der Universität Potsdam ist mit dem Verbundvorhaben „Inno_MAUS“ sowie mit dem Vernetzungsvorhaben „Aqua-X-Net“ dabei. Die WaX-Auftaktveranstaltung findet heute und morgen in Bonn statt.
Ziel der neuen Fördermaßnahme ist es, die gravierenden Folgen von Dürreperioden, Starkregen- und Hochwasserereignissen durch verbesserte Managementstrategien und Anpassungsmaßnahmen abzuwenden. Insgesamt zwölf Forschungsvorhaben mit Partnern aus Wissenschaft, Wirtschaft und Praxis sowie ein Vernetzungs- und Transfervorhaben werden praxisnahe und fachübergreifende Ansätze erarbeiten, die die Auswirkungen von Wasserextremen auf die Gesellschaft und den natürlichen Lebensraum begrenzen und gleichzeitig neue Perspektiven für die Wasserwirtschaft eröffnen. Die Forschungsschwerpunkte liegen dabei auf digitalen Instrumenten für Monitoring, Analyse, Vorhersage und Kommunikation, dem Risikomanagement hydrologischer Extreme und auf urbanen extremen Wasserereignissen.
Im Forschungsverbund „Innovative Instrumente zum MAnagement des Urbanen Starkregenrisikos (Inno_MAUS)“, das in der Arbeitsgruppe Hydrologie und Klimatologie an der Uni Potsdam angesiedelt ist, sollen digitale Instrumente zum Umgang mit Starkregenrisiken in Städten weiterentwickelt und den Kommunen bereitgestellt werden. Um Starkregenereignisse mit geringer Ausdehnung besser vorhersagen zu können, wird dabei das Potenzial von tiefen neuronalen Netzen und hochauflösenden Radarbildern erforscht.
„Die Menge des Oberflächenabflusses ist davon abhängig, wie schnell wie viel Regenwasser versickern kann. Deshalb spielt die Möglichkeit, Wasser in der Stadt auf entsiegelten Flächen zurückzuhalten, eine wichtige Rolle“, sagt der Projektleiter Prof. Dr. Axel Bronstert. Das bei Starkregenereignissen oberflächlich abfließende Wasser wird zum einen mit hydrologischen Modellen simuliert. Zum anderen kommt innovatives Machine Learning zum Einsatz, um die Simulationen um ein Vielfaches zu beschleunigen und damit Gefährdungssituationen schneller einschätzen zu können. „Ein weiterer wichtiger Aspekt ist die Abschätzung der Schäden an Gebäuden und Infrastruktur durch urbane Flutereignisse“, erläutert Axel Bronstert. „Um solche Schäden zu vermeiden, ist eine enge Zusammenarbeit vieler Akteure wichtig, wie beispielsweise der Wasserwirtschaft, der Rettungsdienste und der Stadt- und Raumplaner.“
Die aus hydrologischer Sicht sehr verschiedenen Städte Berlin und Würzburg sind die Forschungspartner des Projekts, in dem die Universität Potsdam mit der Technischen Universität München und den Geoingenieurfirmen Orbica UG (Berlin) und KISTERS-AG (Aachen) zusammenarbeitet.
Begleitet werden die Verbundprojekte vom Vernetzungs- und Transfervorhaben „Aqua-X-Net“, das vom Deutschen Komitee Katastrophenvorsorge e. V. (DKKV) in Bonn zusammen mit der Arbeitsgruppe Geographie und Naturrisikenforschung von Prof. Dr. Annegret Thieken an der Universität Potsdam durchgeführt wird. Das Vorhaben ermöglicht durch Veranstaltungs- und Kommunikationsformate eine intensive Vernetzung und den Austausch der zwölf Forschungsvorhaben, stellt Synergien her und übernimmt eine öffentlichkeitswirksame Kommunikation der Ergebnisse. „Damit die Forschungsergebnisse in Wirtschaft, Fachverwaltung und Politik, aber auch in der breiten Öffentlichkeit ankommen, werden im Vernetzungs- und Transferprojekt Handlungsempfehlungen für Anwenderinnen, Anwender und kommunale Verbände sowie leicht verständliche Informationsmaterialien entwickelt“, betont Annegret Thieken. „Damit soll ein nachhaltiger und zielgruppengerechter Praxistransfer erreicht werden.“
Am 2. und 3. Mai 2022 kommen die Verbundvorhaben der Fördermaßnahme WaX zur Auftaktveranstaltung in Bonn erstmals zusammen. Während dieses zweitägigen Kick-Offs werden sich die Akteure der zwölf Vorhaben und ihre beteiligten Partner vorstellen, kennenlernen und austauschen.
Das BMBF fördert die Maßnahme „Wasser-Extremereignisse (WaX)“ im Rahmen des Bundesprogramms „Wasser: N – Forschung und Innovation für Nachhaltigkeit“. Wasser: N ist Teil der BMBF-Strategie „Forschung für Nachhaltigkeit (FONA)“. Die Forschungsvorhaben laufen bis Anfang 2025.
Link zur Fördermaßnahme: https://www.bmbf-wax.de/
Kontakt:
Prof. Dr. Axel Bronstert, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2548
axel.bronstert@uni-potsdam.de
Prof. Dr. Annegret Thieken, Institut für Umweltwissenschaften und Geographie
Tel.: 0331 977-2984
annegret.thieken@uni-potsdam.de
Medieninformation 02-05-2022 / Nr. 046
Dr. Stefanie Mikulla
Universität Potsdam
Referat Presse- und Öffentlichkeitsarbeit
Am Neuen Palais 10
14469 Potsdam
Tel.: +49 331 977-1474
Fax: +49 331 977-1130
E-Mail: presse@uni-potsdam.de
Internet: www.uni-potsdam.de/presse
Girls’Day und Boys’Day 2022: mehr als 115.000 Schülerinnen und Schüler machten mit
Christina Haaf M.A. Pressestelle
Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V.
Für Mädchen und Jungen war es ein spannender Einblick in für sie bislang ungewohnte Berufe, für die Unternehmen und Institutionen eine sehr gute Möglichkeit, praxisnah den Nachwuchs zu fördern: Endlich war es Jugendlichen in diesem Jahr wieder möglich, live und in Farbe am Girls’Day und Boys’Day Berufe kennen zu lernen, die sie sonst eher selten in Betracht ziehen.
Denn es gibt sie noch immer: Berufe mit geringem Frauen- oder Männeranteil sowie den Einfluss von Geschlechterstereotypen auf die Berufs- und Studienwahl. Dagegen setzten am 28. April bundesweit mehr als 115.000 Schülerinnen und Schüler aus ganz Deutschland einen Impuls. Sie konnten zwischen mehr als 11.000 Angeboten in Unternehmen und Institutionen wählen.
Auch die Bundesministerien, die die beiden Projekte fördern, waren live dabei: Die Parlamentarische Staatssekretärin bei der Bundesjugendministerin, Frau Ekin Deligöz, besuchte in Berlin das Boys’Day-Angebot der Waldkita Fila sowie das Girls’Day Angebot beim ICE Werk der Deutschen Bahn in Rummelsburg Dr. Jens Brandenburg, Parlamentarischer Staatssekretär beim Bundesbildungsministerium, war beim Girls’Day-Angebot der Eurovia GmbH auf einer Baustelle am Berliner Stadtschloss dabei.
In unsicheren Zeiten sind Angebote für Schülerinnen und Schüler zur Berufs- und Studienwahl eine wichtige und zukunftsweisende Komponente. Gerade im Handwerk, Mathematik, Informatik, Naturwissenschaft und Technik, aber auch in den sozialen und pflegerischen Berufen herrscht ein gravierender Fachkräftemangel. Obwohl es mehr als 330 duale Ausbildungsberufe gibt, entscheiden sich noch immer mehr als die Hälfte der Mädchen für einen von zehn Ausbildungsberufen. Darunter ist kein gewerblich-technischer. Bei den Jungen verhält es sich ähnlich, hier entscheiden sich mehr als die Hälfte für einen von zwanzig Ausbildungsberufen.
„Wir sind froh, dass die Schülerinnen und Schüler nach zwei Jahren Pandemie endlich auch wieder vor Ort am Girls’Day und Boys’Day teilnehmen konnten“, sagt Romy Stühmeier Leiterin der Bundeskoordinierungsstellen Girls’Day und Boys’Day. „Es ist gerade in Zeiten des akuten Fachkräftemangels im MINT-Bereich sowie in den Sozialen- und Gesundheitsberufen dringend geboten, die Potenziale aller zu nutzen. Das Schöne an den Aktionstagen ist doch: Es profitieren die Jugendlichen und die Betriebe.“
Weitere Informationen:
http://www.girls-day.de
http://www.boys-day.de
Belastungen in der modernen Arbeitswelt – Herausforderung für den Arbeitsschutz?
Prof. Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Arbeitswelt hat sich in den letzten Jahren tiefgreifend verändert. Digitale Umgebungen und neue Arbeitsformen wie z.B. ortsflexibles Arbeiten sind auf dem Vormarsch und werden die Arbeitswelt in Zukunft prägen. Durch diesen Wandel sind auch „neue“ Belastungsformen wie psychosoziale Arbeitsbelastungen oder Belastungen durch die Digitalisierung in den Vordergrund gerückt. Wie der betriebliche Arbeitsschutz mit diesen Anforderungen umgeht, erforscht das Institut für Sozialforschung und Sozialwirtschaft (iso) Saarbrücken gemeinsam mit dem Universitätsklinikum Düsseldorf in einer europaweiten Studie. Auftraggeber der Studie ist die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA).
In den letzten Jahrzehnten hat sich die Arbeitswelt fundamental verändert. Globalisierung, neue Arbeitsorganisationen – insbesondere die Flexibilisierung der Arbeit wie z.B. ortsflexibles Arbeiten – und Digitalisierungsprozesse führen auch zu neuen Risiken im Arbeitsleben. Durch die Erforschung dieser Veränderungen sollen Unternehmen unterstützt werden, präventiv zu handeln und die Gesundheit der Beschäftigten zu fördern. Im Rahmen der Studie soll insbesondere die Frage untersucht werden, inwiefern „neue und aufkommende Risiken“ wie psychosoziale Arbeitsbelastungen, Belastungen durch mobiles Arbeiten und digitalisierte Arbeitsplätze in der betrieblichen Präventionspraxis angemessen berücksichtigt werden können.
Um die Wissensbasis zur betrieblichen Präventionspraxis zu erweitern, wurden das iso-Institut und die Universitätsklinik Düsseldorf beauftragt, die Daten der „Europäischen Unternehmenserhebung über neue und aufkommende Risiken“ (ESENER) auszuwerten. Die Daten aus den ESENER Erhebungen liegen mittlerweile aus drei Wellen vor. Maßnahmen und betriebliche Umsetzungsbedingungen können daher im Zeitvergleich analysiert und etwaige Trends und Zusammenhänge identifiziert werden. Zudem erlauben die ESENER-Daten auch EU-vergleichende Analysen, so dass Befunde für Deutschland auch im Vergleich mit Befunden aus anderen EU-Ländern bewertet und diskutiert werden können.
Mit den Ergebnissen der Analysen zum Umgang mit psychosozialen Risiken der Arbeit und zu Einflussgrößen auf Arbeitsschutzmaßnahmen bei ortsflexiblen und digitalisierten Arbeitsplätzen können Empfehlungen zur Weiterentwicklung des Arbeitsschutzsystems umfassender und integrierter ausgerichtet werden. Das übergeordnete Ziel dieses Projekts ist es daher, den bisherigen, insbesondere auf empirischer Ebene noch unzureichenden Wissenstand im Bereich des betrieblichen Gesundheitsschutzes zu erweitern.
Wissenschaftliche Ansprechpartner:
Dr. Thorsten Lunau (lunau@iso-institut.de)
Zukunft der Innenstädte und Ortsmitten – Studierende zeigen Arbeiten in Galerie der Schader-Stiftung
Simon Colin Hochschulkommunikation
Hochschule Darmstadt
Innenstädte und Orts(teil)mitten stehen vor einem Strukturwandel. Wie könnten sie sich zukunftsfähig und nachhaltig entwickeln? Mehr als 200 Studierende der Hochschule Darmstadt (h_da) haben hierzu Ideen und Konzepte für Darmstadt und umliegende kleinere Städte und Gemeinden wie Michelstadt und Fischbachtal entworfen. Ausgewählte Arbeiten sind bis zum 21.05. in einer ambitionierten Ausstellung in der Schader-Galerie zu sehen (Goethestraße 2, 64285 Darmstadt).
Für die Ausstellung „Der Donut-Effekt – Zur Zukunft von Innenstädten und Orts(teil)mitten“ haben sich Studierende aus den Studiengängen Architektur, Bau- und Umweltingenieurwesen und Wirtschaft Gedanken zur Gestaltungen neuer Mitten gemacht. In insgesamt mehr als 40 Arbeiten beschäftigen sie sich mit Themen wie Klimaanpassung, Stadt der kurzen Wege, Einkaufen, Wohnen und Freizeit, der Gestaltung des öffentlichen Raums sowie alternativer Mobilität. Ziel der Ausstellung ist es, neue Impulse für eine nachhaltige Stadtentwicklung zu geben und den Austausch mit kommunalen Akteurinnen und Akteuren anzustoßen.
Die h_da-Studierenden zeigen in der Schader-Galerie nicht nur ihre Arbeiten, sie zeichnen auch für das komplette Ausstellungskonzept und für das Design der teils interaktiven Ausstellung verantwortlich. Ein ausgeklügeltes (Farb-)Leitsystem gibt dem Publikum Orientierung und nimmt hierbei Bezug auf das den Arbeiten zugrundeliegende planerische Raumkonzept, das in Oberzentrum (Darmstadt), Mittelzentrum (Michelstadt) und Grundzentrum (Fischbachtal) unterteilt.
Für Darmstadts Mitte steht das Luisencenter. In den Entwürfen der Studierenden wird es räumlich neu strukturiert, so dass hier künftig auch Platz sein kann für Kurz-zeitwohnen oder neue Arbeitsformen. Zugleich begrünen die Studierenden die zum Luisenplatz ausgerichtete Fassade und finden auch für innen Möglichkeiten der Bepflanzung. Auf diese Weise könnte das Luisencenter eine kleine Klima-Oase in der Hitzeinsel Innenstadt sein, die dem Gebäude zudem eine angenehmere Anmutung gibt.
Mehrere Arbeiten beschäftigen sich auch mit Michelstadts Mitte, etwa das „Marktviertel Michelstadt“. Es soll eine Brachfläche am Bienenmarkt zwischen Bahnhof und Innenstadt aufwerten und eine neues und attraktives Altstadt-Entree schaffen. Das neue Wohngebiet wird durchzogen von einer autoarmen, dafür fahrrad- und fußgängerfreundlichen Straße, zahlreiche entsiegelte Flächen könnten die Klimaresilienz Michelstadts stärken. Eine Mehrzeckhalle soll die Menschen in Verbindung bringen.
Im Fischbachtaler Ortsteil Niedernhausen könnte nach den Entwürfen der Studieren-den eine neue multifunktionale Ortsmitte entstehen, direkt an der Hauptstraße gelegen. Eine der studentischen Arbeiten sieht als Kern ein flexibel nutzbares Gemeinschaftshaus in Form einer modernen Hofreite vor, mit Begegnungs- und Wohnangeboten für jung wie alt, ergänzt um Gemeinschaftsgärten und einen kleinen Markt.
„Viele Städte und Gemeinden haben erkannt, dass gesellschaftliche und klimatische Entwicklungen ihre Innenstädte und Ortskerne verändern werden“, sagt Prof. Astrid Schmeing vom Fachbereich Architektur der h_da, die gemeinsam mit Michèle Bernhard von der Schader-Stiftung die Ausstellung kuratiert. „In unserer Schau zeigen wir am Beispiel einer Stadt wie Darmstadt und auch für den ländlich geprägten Raum, wie Mitten sich attraktiv und nachhaltig verändern können. Die Arbeiten stoßen Gedanken an und bieten neue Ideen an, die im Idealfall von der Praxis aufgegriffen werden.“
Die Ausstellung läuft in Kooperation mit dem Projekt „Systeminnovation für Nachhaltige Entwicklung“ (s:ne) der h_da. Die gezeigten Arbeiten sind überwiegend im Kontext des dortigen Handlungsfeldes „Zukunft von Innenstädten“ entstanden. Darin haben sich die h_da, die Schader-Stiftung und die IHK Darmstadt Rhein Main Neckar mit den vier südhessischen Mittelzentren Bensheim, Dieburg, Erbach und Michelstadt auf den Weg gemacht, zusammen Szenarien für zukunftsfähige Innenstädte zu entwickeln.
Geöffnet ist die Ausstellung, die sich an ein breites Publikum richtet, bis Samstag, 21.05., dienstags und freitags von jeweils 17-20 Uhr und samstags von 15-18 Uhr. Ort: Galerie der Schader-Stiftung (Goethestraße 2, 64285 Darmstadt).
Beteiligte aus dem Fachbereich Architektur der h_da führen an vier Tagen durch die Ausstellung:
Freitag, 06.05., 17-18 Uhr
Samstag, 14.05., 15-16 Uhr
Freitag, 20.05., 17-18 Uhr
Der Eintritt ist frei. In der Schader-Stiftung gilt die 2G-plus-Regel und eine FFP2-Maskenpflicht.
Erste weltweite Analyse der Bedrohung aller Reptilienarten
Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Zum ersten Mal überhaupt wurden Schildkröten, Krokodile, Schlangen, Echsen und Brückenechsen in Hinblick auf ihre Bedrohung umfassend bewertet. Die Studie, die in der Fachzeitschrift Nature mit Beteiligung des Museums für Naturkunde Berlin publiziert wurde, hat hierzu Daten von über 900 Wissenschaftler:innen ausgewertet, die in der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengestellt wurden. Sie kommt zu dem Ergebnis, dass 21% der erfassten 10196 Reptilienarten bedroht sind. Davon besonders gefährdet sind vor allem Schildkröten und Krokodile.
Die Gruppe der Schildkröten, Krokodile, Echsen (inklusive der Schlangen) und Brückenechsen, oftmals als Reptilien bezeichnet, ist die artenreichste Gruppe unter den Landwirbeltieren. Erstmals wurden diese jetzt umfassend (10196 von mindestens 11690 Arten) mit Hinblick auf ihre Bedrohung untersucht und die Ergebnisse in der Fachzeitschrift Nature publiziert. Insgesamt sind Daten von über 900 Wissenschaftler:innen in die Studie eingeflossen, die im Rahmen der Bewertungen der globalen Roten Liste der Weltnaturschutzunion (IUCN – International Union for Conservation of Nature) zusammengetragen wurden. Das Ergebnis ist, dass 21% aller erfassten Arten als bedroht gelten. Einer der Hauptgründe ist die immer weiter voranschreitende Zerstörung und Veränderung von Habitaten. „Es ist deshalb besonders wichtig nach Lösungen zu suchen, um intakte Lebensräume, insbesondere Wälder, in ihrem natürlichen Zustand zu erhalten oder, falls möglich, allenfalls nachhaltig zu nutzen,“ betont Dr. Mark-Oliver Rödel vom Museum für Naturkunde Berlin, einer der Ko-Autoren der Studie.
„Zudem muss man die Gefährdungsursachen differenziert sehen,“ ergänzt Dr. Philipp Wagner, Kurator für Forschung & Artenschutz am Allwetterzoo in Münster und ebenfalls Ko-Autor, „denn einzelne Gruppen innerhalb dieser Reptilien sind deutlich stärker bedroht als andere. Die Studie zeigt nämlich auch, dass 58% aller Schildkrötenarten und 50% aller Krokodilarten von der Ausrottung bedroht sind – und zwar nicht etwa an erster Stelle durch Lebensraumverlust, sondern vor allem durch die illegale Jagd und Handel.“ Zusammen mit den Amphibien gehören diese beiden Gruppen so zu den am stärksten bedrohten Landwirbeltieren weltweit.
Ein weiteres wichtiges Ergebnis der Studie ist, dass für 1500 der insgesamt 10196 Arten nicht genügend Daten vorliegen, um sie aus Sicht des Artenschutzes bewerten zu können. Da es sich dabei meist um Arten mit einem kleinen Verbreitungsgebiet handelt, kann man davon ausgehen, dass die meisten von ihnen ebenfalls stark bedroht sind. „So ist leider davon auszugehen, dass die Bewertungen, wie sie in der Studie vorgenommen wurden, in der Regel sehr konservativ sind. Das heißt, man unterschätzt den Bedrohungsgrad für viele Arten. Oftmals erkennt man zu spät, wie schlecht es um viele Arten steht, vor allem bei den Reptilien,“ ergänzt Ko-Autor Dr. Johannes Penner, Kurator für Forschung und Zoologie bei Frogs and Friends. „Es muss daher noch viel getan werden, um dem Verlust der Biodiversität Einhalt zu gebieten“.
Zusatzinformationen
Am Museum für Naturkunde Berlin wird untersucht, inwieweit sich Lebensraumveränderungen auf Arten und Artengemeinschaften auswirken, sowohl im Laufe der Erdgeschichte, als auch derzeit in Folge menschlicher Aktivitäten. Unter andrem wird beispielweise erforscht ob die selektive Nutzung von Tropenholz nachhaltig möglich ist und ob beziehungsweise wie lange es dauert, bis sich Regenwaldgemeinschaften wieder regenerieren.
Der Allwetterzoo in Münster hat sich dem Artenschutz verschrieben und trägt in Kooperation mit der Zoologischen Gesellschaft für Arten- und Populationsschutz (ZGAP) und der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) das Internationale Zentrum für Schildkrötenschutz (IZS). Hier züchtet man zusammen mit Privathaltern kritisch von der Ausrottung bedrohte asiatische Schildkrötenarten. Zudem verantwortet der Allwetterzoo das Angkor Centre for Conservation of Biodiversity (ACCB) in Kambodscha, das ebenfalls einen Schwerpunkt in der Haltung, Zucht und Auswilderung kritisch bedrohter Schildkröten hat. Zusätzlich engagiert sich der Allwetterzoo im Artenschutzprojekt Citizen Conservation.
Citizen Conservation ist ein gemeinschaftliches Produkt von Frogs and Friends, der Deutschen Gesellschaft für Herpetologie und Terrarienkunde (DGHT) und des Verbands der zoologischen Gärten (VdZ). Ziel ist es sich mit koordinierten Erhaltungszuchtprogrammen dem Artensterben und damit dem Rückgang der Biodiversität entgegen zu stemmen. Dabei arbeiten Bürger:innen mit professionellen Institutionen Hand in Hand, um Wissen zu bedrohten Arten zu generieren und zu sammeln, bestehende Kapazitäten zum Artenschutz auszubauen und Reserven zu schaffen, damit Arten langfristig erhalten werden können.
Veröffentlicht in: Cox, N. and Young, B. E., et al. Global reptile assessment shows commonality of tetrapod conservation needs. Nature (2022). https://doi.org/10.1038/s41586-022-04664-7.
Energieträger der Zukunft auf Schiffen – Deutsches Maritimes Zentrum stellt Kraftstoff-Portfolio vor
Dr. Regine Klose-Wolf Kommunikation und Veranstaltungen
Deutsches Maritimes Zentrum e. V.
Von fossilen zu regenerativen Energieträgern. Erste Gesamtübersicht zur Transformation der deutschen maritimen Industrie.
Mit welchem Kraftstoff kann man heute, in zehn und in 25 Jahren ein Schiff möglichst klimaneutral fahren?
Die Beantwortung dieser Frage ist zentral, um zu Investitionsentscheidungen für neue Schiffe oder den Umbau von vorhandener Tonnage zu kommen, egal, ob Binnenschiff, Küstenfrachter oder 22.000 TEU-Containerschiff.
„Wir müssen wissen, welche Kraftstoffe und Energieträger (einschließlich Verträglichkeit, Verfügbarkeit, Emissionspotenziale nach Schiffssegmenten) für die Schifffahrt verfügbar sind. Hierzu hat das Deutsche Maritime Zentrum 2021 eine Studie bei der Ramboll GmbH beauftragt“ erläutert Claus Brandt, Geschäftsführer des Deutschen Maritimen Zentrums.
Die Ergebnisse der Studie wurden am 27. April auf einer Fachveranstaltung vorgestellt.
Mit Fokus auf eine Flottenanalyse mit engem Bezug zur deutschen maritimen Wirtschaft liefert die Studie einen Überblick über die alternativen Kraftstoffe und Energieträger, die perspektivisch regenerativ erzeugbar sind. Typenabhängige Schiffsdesigns, Versorgungspotenziale weltweit, erforderliche und vorhandenen Regelwerke bis hin zu Handlungsempfehlungen für Entscheidungsträger werden in einem Zusammenhang dargestellt.
„In der Studie wird die Erzeugung dieser Kraftstoffe einschließlich der Energieeffizienzen ebenso betrachtet, wie die Kosten für die Energieträger der Zukunft, sowie für den Neu- und Umbau der Schiffe. Lücken in der Regulative wurden identifiziert und Vorschläge für das zukünftige Regelwerk benannt“, so Thomas Rust von Ramboll.
Die Studie zeigt:
– In der untersuchten Flotte werden bisher kaum alternative Kraftstoffe eingesetzt. Zur Minderung der Treibhausgas-Emissionen werden nahezu ausschließlich die entsprechenden Energieeffizienz-Ziele erfüllt. Ein Einsatz von regenerativen Energieträgern ist bisher nur äußerst selten vorgesehen.
– Das weltweite aktuelle Orderbuch für Neubauten zeigt ein analoges Bild. Der überwiegende Anteil der Schiffe ist auf die Erfüllung der gültigen IMO-Regeln zur Minderung der Schadstoffemissionen (Schwefel- und Stickoxide) ausgelegt, unter Verwendung der etablierten (fossilen) Schiffskraftstoffe.
-Es ist bisher nicht eindeutig absehbar, wie die technischen Lösungen in 30 Jahren aussehen werden.
-Ein genereller Trend, zu nur einem bestimmten regenerativ erzeugbaren Kraftstoff, mit dem sich Versorgung und Speicherung an Bord sowie die Umsetzung in Propulsionsleistung realisieren ließe, ist bisher nicht erkennbar.
-Es fehlt ein gültiges internationales Regelwerk um die CO2-Emissionen der regenerativ erzeugten Kraftstoffe, (auch für fuel blends).
In der Studie werden Handlungsempfehlungen vorgestellt, wie sich der Übergang in die CO2-Neutralität in der Schifffahrt gestalten lässt und welche flankierenden Maßnahmen, Gesetze und Regularien dafür notwendig sind bzw. angepasst werden müssen.
„Wesentlich wird in Zukunft sein, eine tragfähige Aussage über die CO2-Emission der alternativen Energieträger von der Herstellung bis zum Tank an Bord machen zu können,“ erläutert der Projektleiter Ralf Plump, Referent Schiffs- und Meerestechnik im DMZ.
Dieses Problem betrifft nicht nur die Schifffahrt, sondern die Umstellung der globalen Energieversorgung insgesamt. Das Deutsche Maritime Zentrum wird sich auch zukünftig mit Fragen der Dekarbonisierung und Emissionsreduktion befassen.
Für Rückfragen stehen wir gerne zur Verfügung.
Dr. Regine Klose-Wolf
Leiterin Kommunikation
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
+49 40 9999 698 -51
+49 1590 189 1929
Klose-Wolf@dmz-maritim.de
Wissenschaftliche Ansprechpartner:
Ralf Plump, Referent Schiffs- und Meerestechnik
Deutsches Maritimes Zentrum e.V.
Hermann-Blohm-Str. 3
20457 Hamburg
Telefon: +49 40 9999 698 – 81
E-Mail: Plump@dmz-maritim.de
Weitere Informationen:
https://t1p.de/bz8jv
http://Hier finden sie demnächst die vollständige Studie
Klimaneutral heizen statt Erdgas verbrennen: So schaffen Städte die Wärmewende
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Alternative Wärmequellen wie Abwasserwärme konsequent erschließen
► Öffentliche Gebäude auf erneuerbare Wärme umrüsten und Quartierswärmenetze bilden
► Auch in Milieuschutzgebieten ambitioniert energetisch sanieren, damit Warmmieten bezahlbar bleiben
► BMBF-Projekt „Urbane Wärmewende“ von Institut für ökologische Wirtschaftsforschung, Kanzlei Becker Büttner Held und Berliner Wasserbetrieben legt Empfehlungen vor
Berlin, 26. April 2022 – Die voranschreitende Klimakrise, der Krieg in der Ukraine, die damit verbundenen Unsicherheiten und Preissteigerungen – es gibt viele Gründe, bei der Wärmeversorgung schnellstmöglich aus Öl und Erdgas auszusteigen. Damit die Wärmewende in Städten schneller und effektiver vorankommt, empfehlen Energieexpert*innen des Projekts „Urbane Wärmewende“ einen Maßnahmenmix: Städte sollten eine räumliche Wärmeplanung entwickeln und alle nachhaltigen Wärmepotenziale wie etwa Abwasserwärme erschließen. Zudem sollten sie die Fernwärme ausbauen, Quartierswärmenetze bilden – vor allem rund um öffentliche Gebäude – und faire energetische Sanierungen in Milieuschutzgebieten unterstützen. Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) entwickelte das Institut für ökologische Wirtschaftsforschung (IÖW) mit der Wirtschaftskanzlei Becker Büttner Held (BBH) und den Berliner Wasserbetrieben sowie mit Vertreter*innen der Berliner Senats- und Bezirksverwaltung Empfehlungen für Länder, Städte, Kommunen und Quartiersmanager*innen.
Am Beispiel Berlins untersuchte das Forschungsvorhaben zentrale Aspekte einer klimaneutralen Wärmeversorgung. Bisher hängt die Hauptstadt im Wärmebereich noch zu zwei Dritteln von Erdgas, zu 17 Prozent von Heizöl und zu fünf Prozent von Kohle ab. „Berlin steht bei der Wärmewende vor Herausforderungen, die auch andere Städte kennen: Steigende Mieten schüren Angst vor teuren Sanierungsprojekten, der Wandel kommt trotz Fördertöpfen noch nicht in den Quartieren an und Technologien wie die Nutzung der Abwasserwärme kommen nur langsam in die Umsetzung“, erklärt Projektleiterin Dr. Elisa Dunkelberg vom IÖW. „In zweieinhalb Jahren praxisnaher Forschung haben wir Lösungsstrategien zusammengestellt, die in keiner städtischen Wärmeplanung fehlen sollten.“
Höhere Wärmedämmstandards auch in Milieuschutzgebieten
Auf der nächsten Heizkostenabrechnung bekommen die Mieter*innen zu spüren, wie teuer die Abhängigkeit von fossilen Rohstoffen derzeit ist. Selbst wenn sich die Märkte beruhigen – der CO2-Preis wird steigen. Darum kann sich eine energetische Sanierung, die über die gesetzlichen Mindeststandards hinausgeht, auch aus Sicht der Mieter*innen lohnen: Wenn die Vermieter*innen Fördermittel nutzen und die Modernisierungskosten fair umlegen, bleibt die Warmmiete stabil oder kann sogar sinken, wie die Forscherinnen berechnet haben.
Gerade in Milieuschutzgebieten sollten Kommunen daher ambitionierte Sanierungen stärker als bislang ermöglichen: „In den gut 70 sozialen Erhaltungsgebieten Berlins werden ambitionierte energetische Sanierungen bisher selten genehmigt. Gleiches gilt für einen Wechsel von Gasetagenheizungen zu erneuerbaren Energien oder Fernwärme“, so Charlotta Maiworm von BBH. „Um die Mieten langfristig günstig zu halten, sollten diese Projekte genehmigt werden – allerdings nur unter bestimmten Auflagen oder Bedingungen, etwa dass die Kosten für Mieter*innen nicht höher sein dürfen als die Maßnahmen nach dem ordnungsrechtlichen Mindeststandard.“ Worauf Kommunen und Quartiersmanager*innen dabei achten sollten, fasst das Forschungsteam in einem Leitfaden zusammen.
Alternative Wärmequellen: Abwasserwärme & Co.
Um Ressourcen effizient einzusetzen und Energieimporte zu minimieren, müssen lokale Wärmequellen umfassend genutzt werden. Während manche Städte in einzelnen Bereichen große Potenziale haben, wie München bei der Geothermie und Hamburg bei der industriellen Abwärme, müssen andere Städte wie Berlin alle Potenziale ausschöpfen und einen breiten Mix aus Umweltwärmepumpen, gewerblicher Abwärme, Direktstromnutzung und Biomasse anstreben.
Eine Wärmequelle, die in allen Städten ganzjährig zur Verfügung steht und nur noch „angezapft“ werden muss, ist die Abwasserwärme: Sie könnte ein wichtiger Baustein im künftigen Energiemix sein und zum Beispiel in Berlin zukünftig bis zu fünf Prozent des Wärmebedarfs decken. „Für ihre kommunale Wärmeplanung brauchen Städte Informationen darüber, wo und in welchem Umfang Abwasserwärme zur Verfügung steht und wie sie genutzt werden könnte“, sagt Michel Gunkel von den Berliner Wasserbetrieben. „Im Projekt ‚Urbane Wärmewende‘ haben wir diese Daten daher in einem geobasierten Tool – dem Abwasserwärmeatlas – aufbereitet, den wir derzeit in einer internen Testphase erproben.“
Wärmeplanung und Quartierswärmenetze
Die Informationen aus dem Abwasserwärmeatlas müssen für die Wärmeplanung mit anderen Daten wie etwa der Wärmenachfrage zusammengeführt werden. Ziel der Wärmeplanung ist es herauszufinden, wo mit welcher zukünftigen Wärmeversorgung Klimaneutralität am besten und kosteneffizientesten erreicht werden kann. Quartierswärme ist dort sinnvoll, wo erneuerbare Wärme und Abwärmepotenziale die Bedarfe einzelner Gebäude überschreiten. „Um lokale Wärmequellen zu erschießen, spielen öffentliche Gebäude eine zentrale Rolle“, betont Elisa Dunkelberg. „Wenn dort zum Beispiel eine große Abwasserwärmepumpe installiert wird, kann diese über ein Quartierswärmenetz auch umliegende Häuser mitversorgen.“ Wann immer bei öffentlichen Gebäuden Heizungswechsel oder Sanierungen anstehen, sollte daher geprüft werden, ob ein Quartierswärmesystem möglich ist. Beispielberechnungen zeigen, dass mit der geplanten Bundesförderung für effiziente Wärmenetze Quartierswärme in der Nachbarschaft zu wettbewerbsfähigen Preisen angeboten werden kann. Die Forschenden schlagen zudem Maßnahmen für eine erleichterte Umsetzung vor – etwa Musterverträge und Kriterienkataloge.
Auf der Tagung „Urbane Wärmewende – Wie Städte sich klimaneutral mit Wärme versorgen können“ informierten sich Ende März über 300 Verwaltungsmitarbeitende und Quartiersmanager*innen aus verschiedenen Städten über den aktuellen Forschungsstand zur urbanen Wärmewende. Leitfäden, Infografiken, Publikationen und Materialien zur Tagung: http://www.urbane-waermewende.de.
Mehr Informationen
► Leitfaden: Energetisch sanieren in Berliner Milieuschutzgebieten: So gehen Mieter*innen- und Klimaschutz zusammen (https://www.urbane-waermewende.de/publikationen-1)
► Forschungsbericht: Dunkelberg et al. (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme (ebd.)
► Infografiken des Projekts: https://www.urbane-waermewende.de/publikationen/infografiken
Über das Projekt
Das Projekt Urbane Wärmewende wurde vom Institut für ökologische Wirtschaftsforschung (IÖW) koordiniert. Verbundpartner waren die Berliner Wasserbetriebe sowie die Wirtschaftskanzlei Becker Büttner Held (BBH). Als Kommunalpartner waren die Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz, der Bezirk Charlottenburg-Wilmersdorf und der Bezirk Neukölln beteiligt. Das Projekt wurde vom Bundesministerium für Bildung und Forschung (BMBF) in der Förderinitiative „Nachhaltige Transformation urbaner Räume“ des Förderschwerpunkts Sozial-ökologische Forschung (SÖF) gefördert.
http://www.urbane-waermewende.de
Pressekontakt
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
http://www.ioew.de
Aktuelles aus dem IÖW: http://twitter.com/ioew_de | http://www.ioew.de/newsletter
Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-36
elisa.dunkelberg@ioew.de
Originalpublikation:
Dunkelberg, Elisa; Kaspers, Juliane; Maiworm, Charlotta; Torliene, Lukas; von Gayling-Westphal, Barbara (2022): Öffentliche Gebäude als Keimzellen für klimaneutrale Quartierswärme: Empfehlungen für die Erschließung öffentlicher Gebäude als Keimzellen für die Umsetzung von Quartierswärmekonzepten am Beispiel von Berlin. https://www.urbane-waermewende.de/publikationen-1
Fleischkonsum muss um mindestens 75 Prozent sinken
Svenja Ronge Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Damit die Erde uns auch in Zukunft ernähren kann, müssen die Industrienationen den Verzehr von Fleisch deutlich reduzieren – im Idealfall um mindestens 75 Prozent. Zu diesem Schluss kommt eine neue Studie der Universität Bonn. Die Übersichtsarbeit wertet den aktuellen Stand der Forschung zu verschiedenen Aspekten des Fleischkonsums aus. Dazu zählen neben den Auswirkungen auf Umwelt und Klima auch Gesundheits- und wirtschaftliche Effekte. Ein Fazit der Forscher: In geringen Mengen Fleisch zu essen, kann durchaus nachhaltig sein. Die Ergebnisse erscheinen in der Zeitschrift Annual Review of Resource Economics.
Rund 80 Kilogramm Fleisch nimmt jede Bürgerin und jeder Bürger der EU im Jahr zu sich. Doch jedes leckere Steak, jede knackige Grillwurst hat einen Preis, den wir nicht an der Ladentheke bezahlen. Denn die Nutztierhaltung schädigt Klima und Umwelt. Beispielsweise erzeugen Wiederkäuer Methan, das die Erderwärmung beschleunigt. Tiere setzen zudem nur einen Teil der verfütterten Kalorien in Fleisch um. Um dieselbe Zahl an Menschen zu ernähren, braucht man bei Fleisch daher entsprechend mehr Fläche. Das geht zu Lasten der Ökosysteme, da weniger Raum für den natürlichen Artenschutz bleibt. Wer zu viel Fleisch isst, lebt zudem gefährlich – Fleisch in Übermengen ist nicht gesund und kann chronische Krankheiten begünstigen.
Es gibt also gute Argumente, den Konsum tierischer Lebensmittel stark einzuschränken. „Würden alle Menschen so viel Fleisch verzehren wie die Europäer oder die Nordamerikaner, würden wir die Klimaziele weit verfehlen, und viele Ökosysteme würden kollabieren“, erklärt Studienautor Prof. Dr. Matin Qaim vom Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn. „Wir müssen unseren Konsum daher deutlich senken, idealerweise auf 20 Kilogramm oder weniger jährlich. Der Krieg in der Ukraine und die dadurch entstehenden Engpässe für Getreide auf dem Weltmarkt zeigen zudem sehr deutlich, dass weniger Getreide an Tiere verfüttert werden sollte, um die globale Ernährung sicherzustellen.“ Derzeit wandere rund die Hälfte der weltweiten Getreideproduktion in den Futtertrog.
Massen-Vegetarismus ist nicht die beste Lösung
Sollte die Menschheit nicht besser komplett auf vegetarische oder noch besser vegane Kost umschwenken? Laut Studie wäre das die falsche Konsequenz. Einerseits gibt es viele Regionen, in denen sich keine pflanzlichen Lebensmittel anbauen lassen. „Wir können uns nicht von Gras ernähren, Wiederkäuer aber sehr wohl“, verdeutlicht Qaims Kollege und Koautor Dr. Martin Parlasca. „Wenn sich Grasland nicht anders nutzen lässt, ist es daher durchaus sinnvoll, darauf Vieh zu halten.“ Gegen eine schonende Weidehaltung mit nicht zu vielen Tieren sei auch aus Umweltsicht wenig einzuwenden.
Gerade in ärmeren Regionen fehlt es zudem an pflanzlichen Quellen für hochwertige Proteine und Mikronährstoffe. So lassen sich Gemüse und Hülsenfrüchte nicht überall anbauen und zudem nur zu bestimmten Zeiten ernten. „In solchen Fällen sind Tiere oft ein zentrales Element für eine gesunde Ernährung“, betont Parlasca. „Für viele Menschen sind sie außerdem eine wichtige Einnahmequelle. Wenn die Einkünfte aus Milch, Eiern oder auch Fleisch wegfallen, kann das für sie existenzbedrohend sein.“ Ohnehin seien nicht die ärmeren Länder das Problem, verdeutlichen die Autoren. Bei ihren Bewohnern steht Fleisch meist viel seltener auf dem Speiseplan als in den Industrienationen. Vor allem die reichen Länder müssen daher den Fleischkonsum reduzieren.
Steuer auf Fleischprodukte sinnvoll
Im Moment ist davon wenig zu spüren. Obwohl es mehr Vegetarier gibt als früher, stagniert der Fleischkonsum europaweit gesehen. Am höchsten ist er jedoch in Nordamerika und Australien. Qaim hält es für wichtig, auch über höhere Steuern auf tierische Lebensmittel nachzudenken. „Das ist sicher unpopulär, zumal es mit einem zehn- oder zwanzigprozentigen Aufschlag wahrscheinlich nicht getan wäre, falls er eine Lenkungswirkung entfalten soll“, sagt er. „Fleisch verursacht jedoch hohe Umweltkosten, die sich in den aktuellen Preisen nicht widerspiegeln. Es wäre durchaus sinnvoll und gerecht, die Konsumentinnen und Konsumenten stärker an diesen Kosten zu beteiligen.“
Die Autoren fordern zudem, das Thema „nachhaltiger Konsum“ verstärkt in die schulischen Curricula zu integrieren. Auch in der Ausbildung zukünftiger Lehrkräfte müssten diese Inhalte besser berücksichtigt werden. „Wir müssen sensibler für die globalen Auswirkungen unserer Entscheidungen werden“, betont Qaim, der auch Mitglied im Exzellenzcluster PhenoRob sowie (wie sein Kollege Martin Parlasca) im Transdisziplinären Forschungsbereich „Sustainable Futures“ der Universität Bonn ist. „Das gilt nicht nur beim Essen, sondern auch für das T-Shirt, das wir beim Discounter kaufen, um es einen einzigen Abend auf einer Party zu tragen.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matin Qaim
Zentrum für Entwicklungsforschung (ZEF) der Universität Bonn
Tel. +49-228-73-1847
E-Mail: mqaim@uni-bonn.de
Originalpublikation:
Martin C. Parlasca & Matin Qaim: Meat consumption and sustainability; Annual Review of Resource Economics, https://doi.org/10.1146/annurev-resource-111820-032340
https://www.annualreviews.org/doi/abs/10.1146/annurev-resource-111820-032340
Mit Herzerkrankungen leben – Tipps von Kardiologie-Experten
Prof. Dr. Michael Böhm Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Mit der ersten Diagnose ändert sich für die meisten Patient*innen mit Herz-Kreislauf-Erkrankungen das Leben schlagartig. Drei Experten der Deutschen Gesellschaft für Kardiologie geben Tipps für den Alltag: Wie viel Sport wann angebracht ist, welchen Einfluss elektromagnetische Felder auf Herzschrittmacher und Defibrillatoren haben und wie Smartphone & Co. den Betroffenen helfen können.
Sport oder besser nicht? Die Frage stellen sich viele Patient*innen, nachdem sie von ihrer Herzerkrankung erfahren haben. Ob und wann Sport gesundheitsfördernd oder -schädlich ist, beantwortete Prof. Dr. Ulrich Laufs aus Leipzig heute während einer Pressekonferenz der Deutschen Gesellschaft für Kardiologie (DGK): „Grundsätzlich hat sich die Sichtweise der modernen Kardiologie im Zeitverlauf der vergangenen 20 Jahre hinsichtlich des Nutzens von körperlicher Aktivität weiterentwickelt. Wurde früher bei (schwerwiegenden) Herzerkrankungen eher auf Schonung denn auf Belastung gesetzt, hat sich der Ansatz nahezu völlig umgekehrt. Inzwischen gilt es, generell die enormen gesundheitlich positiven Effekte von körperlicher Aktivität zu nutzen.“ Die europäischen Behandlungsleitlinien empfehlen sowohl Geschicklichkeits-, Kraft- und Gewichts- als auch Ausdauersport, wobei letzterer gerade für Herzpatient*innen am vor-teilhaftesten zu sein scheint. Doch welche Sportart von den Patient*innen gewählt wird, steht für den Kardiologen Laufs letztlich gar nicht an erster Stelle: „Es ist vor allem wichtig, eine Aktivität zu finden, die der persönlichen Neigung entspricht und die auch über längere Zeit ausgeübt werden kann.“
Nur in seltenen Ausnahmen wird Sport nicht empfohlen
Trotz der grundsätzlich kaum zu unterschätzenden Vorteile von körperlicher Aktivität bei Herzerkrankungen, gibt es einige wenige Ausnahmen, in denen Sport eher schädlich sein kann. Bei Herzmuskelentzündungen – die im Zuge der vielen COVID-Erkrankungen derzeit häufiger auftreten als früher – muss Sport unbedingt vermieden werden, um dauerhafte Schädigungen des Herzmuskels zu vermeiden. Ebenso keinen Sport machen sollten Patient*innen mit schweren Formen von Herzklappenerkrankungen und unbehandeltem Bluthochdruck oder nicht therapierten Herzrhythmusstörungen. „Bei schwerwiegenden kardiovaskulären Krankheiten lautet die Reihenfolge: erst um die Erkrankung kümmern, dann die körperliche Aktivität aufbauen“, so Laufs.
Trotz Herzschrittmacher ins Elektroauto, durch den Metalldetektor und ins MRT?
Patient*innen, die so genannte aktive Implantate tragen, beispielsweise Herzschrittmacher oder im-plantierbare Defibrillatoren, machen sich häufig Sorgen, ob elektromagnetische Felder die Funktion ihrer Implantate stören oder sogar unterbrechen können. Die Frage ist von Relevanz, da im Prinzip jedes elektrische Gerät mit seinem elektromagnetischen Feld auf einen Schrittmacher oder implantierten Defibrillator Einfluss nehmen kann.
PD Dr. Carsten Israel gibt im Rahmen der Pressekonferenz jedoch Entwarnung: Moderne Implantate sind deutlich besser vor elektromagnetischen Einflüssen abgeschirmt als ältere Modelle – wobei dies schon für Geräte gilt, die seit dem Jahr 2002 hergestellt wurden. „Heute sind praktisch nur noch Geräte implantiert, die jünger als 20 Jahre sind“, sagt der DGK-Experte. Magnetische Bauteile in Schrittmachern und implantierbaren Defibrillatoren wurden in den neueren Geräten durch nicht-magnetische ersetzt.
Implantatträger*innen können sich auch gefahrlos einer MRT-Untersuchung unterziehen, selbst wenn ihre Geräte nicht ausdrücklich für eine MRT-Untersuchung zugelassen sind. Bereits 2017 konnte das durch zwei Studien belegt werden. Das Fazit der Studien: Bei keinen Patient*innen war es während der MRT-Untersuchung aus technischen Gründen zu einem Problem mit den Implantaten gekommen.
Smarte Geräte im Alltag
Im Alltag übernehmen digitale Geräte durch immer neue Funktionen vielfältige Aufgaben. Im Be-reich der medizinischen Versorgung ist das nicht anders. Smartwatches verfügen teilweise über di-agnostischen Anwendungen, die im Alltag genutzt werden können. Ein aktuelles Beispiel ist die Aufdeckung von Vorhofflimmern-Episoden. Mit Hilfe geeigneter Smartwatches können zum Beispiel 1-Kanal-EKG abgeleitet werden, die einen Nachweis der Herzrhythmusstörung ermöglichen.
„Mit Hilfe solcher und ähnlicher Messungen kann die Wahrscheinlichkeit für ein Vorhofflimmern berechnet werden“, erklärte Prof. Dr. Peter Radke, Experte der DGK für Mobile Devices, während der Pressekonferenz am Freitag. „Diese Technologie reicht aber alleinig nicht aus, um die Diagnose definitiv stellen zu können. Hier muss eine Verifizierung durch Ärztin oder Arzt erfolgen.“
Medienkontakt:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Michael Böhm (Homburg/Saar)
Pressestelle: Kerstin Kacmaz, Tel.: 0211 600 692 43, Melissa Wilke, Tel.: 0211 600 692 13
presse@dgk.org
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 11.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org. Wichtige Informationen für Nicht-Mediziner*innen stellt die DGK auf den Seiten ihres Magazins „HerzFitmacher“ zusammen: www.herzfitmacher.de
Weitere Informationen:
http://www.dgk.org/presse
Anhang
Mit Herzerkrankung leben – Tipps von Experten
Quantencomputing: Neue Potenziale für automatisiertes maschinelles Lernen
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO und industrielle Partner entwickeln erste quantengestützte Cloudlösung für das automatisierte maschinelle Lernen.
Quantencomputing ermöglicht es, rechenintensive Technologien wie das maschinelle Lernen (ML) weiterzubringen. Im Projekt »AutoQML« entwickeln acht Partner aus Forschung und Industrie Lösungsansätze, die Quantencomputing und ML verknüpfen. Eine Open-Source-Plattform soll Entwickler*innen befähigen, Algorithmen des Quanten-Machine-Learnings ohne tiefgehendes Fachwissen nutzen zu können.
Wie gelingt es Unternehmen, die Potenziale der Digitalisierung zu nutzen und wettbewerbsfähig zu bleiben? Der Einsatz von Technologien wie Künstlicher Intelligenz kann dabei helfen, von der digitalen Transformation bestmöglich zu profitieren. Vor allem maschinelles Lernen (ML) spielt in der Digitalisierungsstrategie vieler Unternehmen bereits eine große Rolle und ermöglicht unter anderem effizientere Prozesse sowie neue Geschäftsmodelle. Allerdings fehlt es oft an Fachkräften. So ist die Implementierung von ML-Lösungen bisher noch häufig mit hohem Arbeitsaufwand verbunden. Von der Datenakquisition über die Wahl der passenden Algorithmen bis hin zur Optimierung des Trainings ist ein detailliertes Fachwissen in ML notwendig.
Der Ansatz des automatisierten maschinellen Lernens (AutoML) wirkt diesen Herausforderungen entgegen und erleichtert Entwickler*innen den Einsatz von Künstlicher Intelligenz. Dabei wird insbesondere die Wahl der konkreten ML-Algorithmen automatisiert. Anwender*innen müssen sich somit weniger mit ML beschäftigen und auskennen und können sich mehr auf ihre eigentlichen Prozesse konzentrieren. In diesem Zusammenhang markiert Quantencomputing den Durchbruch in eine neue technologische Ära, denn damit lässt sich der AutoML-Ansatz signifikant verbessern. Zudem bietet Quantencomputing die für AutoML oftmals nötige Rechenpower.
Neuer Ansatz: Quantencomputing bringt maschinelles Lernen auf neues Niveau
Das Verbundprojekt »AutoQML« setzt an dieser Innovation an und verfolgt zwei wesentliche Ziele: Zum einen wird der neue Ansatz AutoQML entwickelt. Dieser wird um neu entwickelte Quanten-ML-Algorithmen erweitert. Zum anderen hebt Quantencomputing den AutoML-Ansatz auf ein neues Niveau, denn bestimmte Probleme lassen sich mithilfe von Quantencomputing schneller lösen als mit konventionellen Algorithmen.
Unter Leitung des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO ermöglicht das Projekt Entwickler*innen einen vereinfachten Zugang zu konventionellen und Quanten-ML-Algorithmen über eine Open-Source-Plattform. Neben dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA beteiligen sich die Unternehmen GFT Integrated Systems, USU Software AG, IAV GmbH Ingenieursgesellschaft Auto und Verkehr, KEB Automation KG, TRUMPF Werkzeugmaschinen GmbH + Co. KG und die Zeppelin GmbH am Projekt. Die entwickelten Lösungen werden anhand von konkreten Anwendungsfällen aus dem Automotive- und Produktionsbereich erprobt.
Das Beste aus beiden Welten: Softwarebibliothek für hybride Gesamtlösungen
Das Projektkonsortium wird Komponenten des Quantencomputings in heutige Lösungsansätze des maschinellen Lernens integrieren, um die Performance-, Geschwindigkeits- und Komplexitätsvorteile von Quanten-Algorithmen im industriellen Kontext nutzen zu können. In der sogenannten AutoQML-Developer Suite – einer Softwarebibliothek – sollen entwickelte Quanten-ML-Komponenten und Methoden in Form eines Werkzeugkastens zusammengeführt und den Entwickler*innen in einer Open-Source-Plattform zur Verfügung gestellt werden. Dies befähigt Anwender*innen, maschinelles Lernen und Quanten-Machine-Learning einzusetzen und hybride Gesamtlösungen entwickeln zu können.
Die Laufzeit des Projekts beträgt drei Jahre. Die weiterführende Marktverbreitung durch die Unternehmenspartner ermöglicht den Transfer von forschungsnaher Hochtechnologie in ein breites, industrielles Umfeld mit dem Ziel, den Industriestandort Deutschland signifikant zu stärken. Das Projekt wird vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.
Ansprechpartnerin:
Yeama Bangali
Quantencomputing
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-5196
Email yeama.bangali@iao.fraunhofer.de
Wissenschaftliche Ansprechpartner:
Dr. Christian Tutschku
Leiter Team Quantencomputing
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-5115
Email christian.tutschku@iao.fraunhofer.de
Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/quantencomputing-ne…
Nach der Kirschblüte lauert die Essigfliege
Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
„Der Frühling ist da und die blühenden Obstbäume und -sträucher machen schon jetzt Lust auf frische Früchte wie Kirschen, Pfirsiche oder Pflaumen“, so Roger Waldmann vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL). Doch er weist auf den richtigen Schutz der Obstbäume vor der Kirschessigfliege hin: „Denn die Larven der Drosophila suzukii entwickeln sich in manchen Jahren lokal so schnell, dass die komplette Ernte innerhalb von weniger als 14 Tagen ausfallen kann.“
Die Besonderheit der Kirschessigfliege ist ihre Vorliebe für reifende und reife Früchte. Dorthinein legt das rund drei Millimeter große Schadinsekt seine Eier, also auch in Kirschen, die noch am Baum hängen und kurz vor der Ernte stehen. Dies macht die Bekämpfung des Schädlings mit Insektiziden schwierig, da nur ein kleines Zeitfenster bis zur Ernte verbleibt. Pflanzenschutzmittel gegen die Kirschessigfliege stehen für den Hausgarten nicht zur Verfügung. Selbst beruflich Anwendende mit Pflanzenschutz-Sachkundenachweis können nur befristet zugelassene Insektizide anwenden.
Wie man die Obsternte im heimischen Garten schützen kann:
• Das „Einnetzen“ der Pflanzen. Diese Methode dient der Vermeidung des Befalls. Hierbei werden die zu schützenden Bäume und Sträucher in feinmaschige Netze eingehüllt, sodass die Schadinsekten die Früchte gar nicht erst erreichen können. Eine Maschenweite von 0,8 bis maximal 1,0 Millimetern verspricht die besten Ergebnisse. Der richtige Zeitpunkt: Um die Bestäuber nicht zu beeinträchtigen, wird damit erst beim Farbumschlag (Reifung) der Früchte begonnen.
• Ein trockenes, besonntes Bestandsklima sicherstellen, da die Kirschessigfliege feuchte und kühle Bedingungen bevorzugt. Hierbei helfen geeignete Schnittmaßnahmen und das Entfernen der Blätter um die Früchte herum, um ein schnelles Abtrocknen des Baums zu ermöglichen.
• Verzicht auf eine Überkopfbewässerung und das Kurzhalten des Rasens unter den Obstbäumen, um schattige, kühle Rückzugsbereiche für die Kirschessigfliegen zu vermeiden.
• Ein naturnaher Garten. Hierdurch werden die natürlichen Feinde der Kirschessigfliege, wie Schlupfwespen, Vögel, Spinnen oder Ameisen, gefördert.
Seit 2011 hat sich die aus Asien stammende Kirschessigfliege in Deutschland ausgebreitet. Neben Süß- und Sauerkirschen befällt sie zahlreiche Obstarten wie Brombeeren, Himbeeren, Heidelbeeren, Pflaumen, seltener Erdbeeren und lokal einige rote Traubensorten. Die Pflanzenschutzorganisation für Europa und den Mittelmeerraum EPPO stuft die Kirschessigfliege als eine große Gefahr ein, denn:
• die Klimabedingungen in Europa sind optimal für ihre Vermehrung,
• die Vielzahl an nutzbaren, in zeitlicher Abfolge reifenden Obstkulturen stehen während der gesamten Wachstums- und Vermehrungsphase zur Verfügung,
• der kurze Generationswechsel sorgt, in Abhängigkeit von den jährlichen Klimabedingungen, für eine rasche Ausbreitung und sehr schnell ansteigende Zahlen mit entsprechendem Befall der Wirtsfrüchte.
Kommt es zum Befall, so sollte dieser durch eine frühzeitige und komplette (bei Kirschen) beziehungsweise kontinuierliche Ernte (bei Himbeeren) reifer Früchte reduziert werden. Auf die Kompostierung der befallenen Früchte im eigenen Garten sollte verzichtet werden. Um Eier und Maden abzutöten, sollten befallene Früchte zunächst in einem luftdicht geschlossenen Behälter oder einer Plastiktüte mehrere Tage der Sonne ausgesetzt werden, in reichlich Wasser mit etwas Spülmittel mehrere Stunden stehen gelassen oder mit kochendem Wasser überbrüht werden. Danach können die Früchte entsorgt werden. Abgefallene, auf dem Boden liegende Früchte sollten schnell entfernt werden, denn die gesamte Bestandshygiene ist sehr wichtig, um den Befall der Früchte gering zu halten.
Quellen und weitere Informationen finden Sie hier:
Bundesministerium für Ernährung und Landwirtschaft
(https://www.bmel.de/DE/themen/landwirtschaft/pflanzenbau/pflanzenschutz/kirsches…)
Wissensportal des Julius Kühn-Instituts
(https://drosophila.julius-kuehn.de/)
Bundesanstalt für Landwirtschaft und Ernährung
(https://www.ble.de/DE/Projektfoerderung/Foerderungen-Auftraege/Modellvorhaben/Pf…)
Bayerische Landesanstalt für Landwirtschaft
(https://www.lfl.bayern.de/ips/obstbau/096383/index.php)
Hintergrund:
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist die zuständige Behörde für die Zulassung von Pflanzenschutzmitteln. An den nationalen Verfahren sind weitere Behörden beteiligt:
Das Bundesinstitut für Risikobewertung (BfR) bewertet die Auswirkungen auf die Gesundheit von Mensch und Tier und die Analysemethoden zum Nachweis möglicher Rückstände.
Das Julius Kühn-Institut (JKI) bewertet die Wirksamkeit, die Pflanzenverträglichkeit, den Einfluss auf die Nachhaltigkeit und mögliche Auswirkungen auf Honigbienen.
Das Umweltbundesamt (UBA) bewertet mögliche Auswirkungen auf den Naturhaushalt.
Der Himmel benötigt Schutz genau wie die Erde
Dr. Janine Fohlmeister Presse- und Öffentlichkeitsarbeit
Astronomische Gesellschaft
Einer aktuellen Studie zufolge benötigt der Weltraum zum Schutz seiner empfindlichen Umwelt dringend einen ähnlichen rechtlichen Schutz wie die Erde, das Meer und die Atmosphäre.
Die Zunahme von Weltraummüll im erdnahen Orbit – etwa 100 Kilometer über der Erdoberfläche -, der durch das rasche Ansteigen von so genannten Mega-Satelliten-Konstellationen verursacht wird, gefährdet dieses wertvolle Ökosystem, so die Forscherinnen und Forscher.
Die Installation dieser riesigen Hardware-Cluster umfasst bis zu Zehntausende einzelner Satelliten, die Breitbandverbindungen für die Erde liefern. Das führt zu einer Überlastung des Weltraums, und die Raketenstarts verschmutzen darüber hinaus die Atmosphäre.
Bruchstücke von zerbrochenen Satelliten, die mit enormer Geschwindigkeit durch den Weltraum fliegen, bedrohen laut der Studie auch andere Satelliten in ihrer Umlaufbahn.
Ebenso stören die Satelliten, die Lichtstreifen am Himmel und damit eine signifikante Lichtverschmutzung verursachen, in zunehmendem Maße die Forschung im optischen Wellenlängenbereich. Das Vera-C.-Rubin-Observatorium in Chile, das über einen Zeitraum von 10 Jahren den Himmel vermessen soll, ist beispielsweise schon stark beeinträchtigt.
Die Zeitschrift „Nature Astronomy“ veröffentlichte nun eine Studie, in der gezeigt wird, dass der Weltraum ein wichtiges Umfeld für die professionelle Astronomie, Amateurastronomie und indigene Völker darstellt und dass der wissenschaftliche, wirtschaftliche und kulturelle Nutzen des Weltraums sorgfältig gegen diese schädlichen Umweltauswirkungen abgewogen werden sollten.
Die unter Leitung der Universität Edinburgh entstandene Forschungsarbeit steht im Zusammenhang mit einem Rechtsfall, der derzeit vor dem US-Berufungsgericht verhandelt wird und einen wichtigen Präzedenzfall in der wachsenden Kampagne für die Ausdehnung des Umweltschutzes auf den Weltraum darstellen wird.
Die Lösung des Problems erfordert einen ganzheitlichen Ansatz, der den Weltraum als Teil der Umwelt und als schützenswertes Gut auf nationaler und internationaler Ebene betrachtet, so die Experten.
Die Forscherinnen und Forscher fordern die politischen Entscheidungsträger auf, die Umweltauswirkungen aller Aspekte von Satellitenkonstellationen – einschließlich ihres Starts, ihres Betriebs und ihres Wiedereintritts aus dem Orbit – zu berücksichtigen und zusammen an einem gemeinsamen, ethischen und nachhaltigen Ansatz für den Weltraum zu arbeiten.
Andy Lawrence, Professor für Astronomie am Institut für Astronomie der Universität Edinburgh und Hauptautor der Studie, sagt: „Wir stehen an einem Wendepunkt in der Geschichte. Wir können eine große Anzahl von Satelliten kostengünstig starten und sie zum Nutzen des Lebens auf der Erde einsetzen – aber das hat seinen Preis. Die Raumfahrtindustrie schadet nicht nur der Sternbeobachtung, sondern könnte sich so auch selbst ins Bein schießen.“
Professor Lawrence machte die Öffentlichkeit mit seinem Buch „Losing The Sky“ auf diese Probleme aufmerksam. Die Veröffentlichung führte dazu, dass er eine Expertenaussage für einen Rechtsfall verfasste, der derzeit vor dem US-Berufungsgericht verhandelt wird und in dem argumentiert wird, dass die US-Umweltvorschriften auch für die Genehmigung von Weltraumstarts gelten sollten.
Professor Michael Kramer, Präsident der Astronomischen Gesellschaft, weist darauf hin, dass die Vielzahl von Satelliten nicht nur optische sondern auch radioastronomische Beobachtungen stören. Insbesondere aber sagt er, „Wir brauchen Regeln, die sicherstellen, dass unsere Kinder und Enkel immer noch in der Lage sein werden, das Wunder Sternenhimmel zu bestaunen. Schon jetzt ist es in Deutschland schwierig, diese Erfahrung zu machen. Mit den Mega-Konstellationen besteht die Gefahr, dass es überall auf der Welt unmöglich sein wird.”
Professor Moriba Jah, Mitautor der Studie und außerordentlicher Professor für Luft- und Raumfahrttechnik und technische Mechanik an der University of Texas in Austin, sagt: „Wir glauben, dass alle Dinge miteinander verbunden sind und dass wir Verantwortung übernehmen müssen, als ob unser Leben davon abhinge. Traditionelles ökologisches Wissen ist der Schlüssel zur Lösung dieses schwierigen Problems.“
„Die größte Herausforderung besteht darin, Empathie und Mitgefühl für die Lösung dieser Umweltkrisen zu wecken. Wenn es uns gelingt, innovative Wege zu finden, die es der breiten Öffentlichkeit ermöglichen, sich in diese katastrophale Situation hineinzuversetzen und dagegen angehen zu müssen, dann wird die Erde und alles Leben, das sie erhält, dadurch gewinnen“, ergänzt er.
Professor Jah hat kürzlich zusammen mit dem Apple-Mitbegründer Steve Wozniak und dem CEO von Ripcord, Alex Fielding, das Start-up-Unternehmen „Privateer Space“ gegründet. Das Unternehmen verfolgt einen neuartigen Ansatz zur genauen Kartierung von Objekten in der Erdumlaufbahn in nahezu Echtzeit, um die nachhaltige Nutzung des Weltraums durch eine wachsende Zahl von Betreibern zu ermöglichen.
Dr. Meredith Rawls, Mitautorin und Forscherin an der Universität von Washington, sagt: „Das Rubin-Observatorium wird aufgrund seines großen Spiegels und seines weiten Sichtfeldes eine der am stärksten von einer großen Anzahl heller Satelliten betroffenen astronomischen Einrichtungen sein – das sind dieselben Eigenschaften, die es zu einem so bemerkenswerten Motor für Entdeckungen machen. Ich mache mir viele Gedanken darüber, wie sich Satellitenstreifen auf die Wissenschaft auswirken, aber das Anliegen eines dunklen und ruhigen Himmels ist sehr viel umfangreicher.“
„Wir müssen alle an einem Strang ziehen, um die sich rasch verändernde Satellitensituation zu bewältigen, wenn wir hoffen wollen, eine Zukunft mit einem dunklen und ruhigen Himmel für alle zu schaffen“, schließt sie.
Dr. Rawls ist eine Hauptakteurin des neuen Zentrums der Internationalen Astronomischen Union (IAU) für den Schutz des dunklen und ruhigen Himmels vor Störungen durch Satellitenkonstellationen, das die Interessengruppen für Himmelsbeobachtungen zusammenbringen soll, um gemeinsam die Auswirkungen von Satelliten zu quantifizieren und zu deren Abschwächung beizutragen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Kramer
Präsident, Astronomische Gesellschaft
Telefon: +49 228 525 278
praesident@astronomische-gesellschaft.de
Originalpublikation:
Nature Astronomy Artikel: https://www.nature.com/articles/s41550-022-01655-6
Weitere Informationen:
https://www.iau.org/science/scientific_bodies/centres/CPS/
https://mission.privateer.com/
COVID-19-Therapie: Zusammen ist besser als allein
Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie ein altbekannter Wirkstoff zum Gamechanger werden kann
Gemeinsame Pressemitteilung von Charité, MDC und FU Berlin
Zur Behandlung von COVID-19 stehen immer mehr Medikamente zur Verfügung. Forschende der Charité – Universitätsmedizin Berlin, des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC) und der Freien Universität (FU) Berlin haben die Wirkmechanismen von antiviralen und antientzündlichen Substanzen genauer untersucht. Im Fachjournal Molecular Therapy* beschreiben sie, dass eine Kombination aus beiden am besten funktioniert und das Zeitfenster für den Einsatz einer Antikörpertherapie verlängert.
Noch immer führen Infektionen mit SARS-CoV-2 auch zu Aufnahmen in ein Krankenhaus. Derzeit werden laut Robert-Koch-Institut innerhalb einer Woche pro 100.000 Einwohner etwa sechs bis sieben Menschen mit COVID-19 eingewiesen. Bei der stationären Behandlung von COVID-19-Patient:innen gibt es mittlerweile eine Reihe von Medikamenten, die den Krankheitsverlauf abmildern oder bei Schwerkranken das Risiko eines tödlichen Verlaufs verringern. Einige bekämpfen das Virus, andere die Entzündung, die es hervorruft.
Besonders werden monoklonale Antikörper und das stark entzündungshemmende Medikament Dexamethason eingesetzt. Antikörper fangen das Virus ab, heften sich an die Oberfläche des Spikeproteins und verhindern so, dass es in die menschlichen Zellen eintritt. Diese Therapie wird bis zum siebten Tag nach Beginn der Symptome angewandt. Sauerstoffpflichtige COVID-19-Patient:innen im Krankenaus erhalten in der Regel Dexamethason. Das Glukokortikoid hat sich seit etwa 60 Jahren bei einigen, auf einer übermäßigen Aktivierung des Immunsystems beruhenden Entzündungen bewährt. Auch bei COVID-19 dämpft es die Entzündungsreaktion des Körpers zuverlässig. Allerdings geht der Wirkstoff mit verschiedenen Nebenwirkungen einher, so kann er beispielsweise Pilzinfektionen nach sich ziehen. Deshalb sollte das Mittel nur sehr gezielt eingesetzt werden.
Wissenschaftler:innen der Charité, des Berliner Instituts für Medizinische Systembiologie (BIMSB) am MDC und der FU Berlin haben die Wirkmechanismen beider Therapien untersucht. „Dabei haben wir Hinweise dafür gefunden, dass eine Kombination aus Antikörper- und Dexamethason-Therapie besser wirkt als die einzelnen Therapien für sich genommen“, sagt Dr. Emanuel Wyler, Wissenschaftler der Arbeitsgruppe RNA Biologie und Posttranscriptionale Regulation unter Leitung von Prof. Dr. Markus Landthaler am BIMSB, und Erstautor der Studie.
Da nicht alle Lungenareale anhand von Proben von Patient:innen untersucht werden können, suchten die Forschungsteams im vergangenen Jahr zunächst nach einem geeigneten Modell. Co-Letztautor Dr. Jakob Trimpert, Tiermediziner und Arbeitsgruppenleiter am Institut für Virologie der Freien Universität Berlin, entwickelte in diesem Zuge COVID-19-Hamstermodelle. Die Tiere sind derzeit der wichtigste nicht transgene Modellorganismus für COVID-19, da sie sich mit denselben Virusvarianten wie Menschen infizieren und ähnliche Krankheitssymptome entwickeln. Die Erkrankung läuft bei den einzelnen Arten unterschiedlich ab: Goldhamster erkranken nur moderat, während Roborovski-Zwerghamster einen schweren Verlauf zeigen, der dem von COVID-19-Patient:innen auf Intensivstationen ähnelt.
„In der aktuellen Studie haben wir die Auswirkungen von separaten und kombinierten antiviralen und entzündungshemmenden Behandlungen für COVID-19, also mit monoklonalen Antikörpern, Dexamethason oder einer Kombination aus beiden Therapien, in den vorhandenen Modellen geprüft“, erklärt Dr. Trimpert. Um das Ausmaß der Schädigung des Lungengewebes zu analysieren, untersuchten die Veterinärpathologen der FU Berlin infiziertes Lungengewebe unter dem Mikroskop. Außerdem bestimmte das Team um Dr. Trimpert zu verschiedenen Zeitpunkten der Behandlung die Menge an infektiösen Viren und Virus-RNA. So konnten die Wissenschaftler:innen überprüfen, ob und wie sich die Virenaktivität im Lauf der Therapie veränderte. „Mithilfe von detaillierten Analysen verschiedener Parameter einer COVID-19-Erkrankung, die so nur im Tiermodell möglich sind, ist es uns gelungen, nicht nur die Grundlagen der Wirkungsweise von zwei besonders wichtigen COVID-19-Medikamenten besser zu verstehen, wir fanden auch deutliche Hinweise auf mögliche Vorteile einer Kombinationstherapie aus monoklonalen Antikörpern und Dexamethason“, sagt Dr. Trimpert.
Den Einfluss der Medikamente auf das komplexe Zusammenspiel der Signalwege innerhalb der Gewebezellen und auf die Anzahl der Immunzellen haben Einzelzellanalysen gezeigt. Dabei lassen die Forschenden die einzelnen Zellen einer Probe über einen Chip laufen. Dort werden sie zusammen mit einem Barcode in kleine wässrige Tröpfchen verpackt. Auf diese Weise kann die RNA – der Teil des Erbgutes, den die Zelle gerade abgelesen hatte – sequenziert und später der Zelle wieder zugeordnet werden. Aus den gewonnenen Daten lässt sich mit hoher Präzision auf die Funktion der Zelle schließen. „So konnten wir beobachten, dass die Antikörper die Virusmenge effizient reduzieren konnten“, erläutert Dr. Wyler. „Im Modell half das jedoch nicht viel.“ Denn nicht die Viren schädigen das Lungengewebe, sondern die starke Entzündungsreaktion, die sie auslösen. Die Immunzellen, die die Eindringlinge bekämpfen, schütten Botenstoffe aus, um Verstärkung herbeizurufen. Die Massen an Abwehrkämpfern, die herbeiströmen, können die Lunge regelrecht verstopfen. „Verschlossene Blutgefäße und instabile Gefäßwände können dann zu einem akuten Lungenversagen führen“, erklärt der Wissenschaftler.
Für eine Überraschung sorgte das altbekannte Dexamethason. „Der Entzündungshemmer wirkt ganz besonders stark auf eine bestimmte Art von Immunzellen, die Neutrophilen“, sagt Co-Letztautorin Dr. Geraldine Nouailles, wissenschaftliche Arbeitsgruppenleiterin an der Medizinischen Klinik mit Schwerpunkt Infektiologie und Pneumologie der Charité. Die Neutrophilen gehören zu den weißen Blutkörperchen und treten bei Infektionen mit Viren und Bakterien sehr schnell auf den Plan. „Das Kortison-Präparat unterdrückt das Immunsystem und hindert die Neutrophilen daran, Botenstoffe zu produzieren, die andere Immunzellen anlocken“, führt Dr. Nouailles aus. „So verhindert das Medikament sehr effektiv eine Eskalation der Immunabwehr.“
Die besten Behandlungsergebnisse erreichten die Forschenden, als sie die antivirale mit der antientzündlichen Therapie kombinierten. „Eine solche Kombinationstherapie sehen die medizinischen Leitlinien bislang nicht vor“, betont Dr. Nouailles. „Hinzu kommt, dass eine Antikörpertherapie bislang nur bis zum maximal siebten Tag nach Symptombeginn bei Hochrisikopatient:innen verabreicht werden darf. Dexamethason wird in der Praxis erst verabreicht, wenn die Patient:innen sauerstoffpflichtig werden, also ihre Erkrankung bereits weit fortgeschritten ist. In der Kombination hingegen eröffnen sich ganz neue Zeitfenster der Behandlung.“ Ein Ansatz, der nun in klinischen Studien überprüft werden muss, bevor er für die Behandlung von Patient:innen infrage kommt.
*Emanuel Wyler et al (2022): „Key benefits of dexamethasone and antibody treatment in COVID-19 hamster models revealed by single cell transcriptomics “, in: Molecular Therapy, DOI: https://doi.org/10.1016/j.ymthe.2022.03.014
Über die Studie
:
Gefördert wurden die Arbeiten unter anderem durch die Deutsche Forschungsgemeinschaft (DFG) im Sonderforschungsbereich SFB-TR84, das Bundesministerium für Bildung und Forschung (BMBF) mit den Projekten CAPSyS-COVID sowie PROVID und das Berlin Institute of Health (BIH) in der Charité mit CM-COVID. Ebenfalls ermöglicht hat die Studie das BMBF-geförderte Nationale Forschungsnetzwerk der Universitätsmedizin zu Covid-19 (NUM), im Teilvorhaben Organostrat.
Wissenschaftliche Ansprechpartner:
Dr. Geraldine Nouailles
Arbeitsgruppenleiterin
Medizinische Klinik mit Schwerpunkt Infektiologie und Pneumologie
Charité – Universitätsmedizin Berlin
Tel.: +49 (0)30 450 653 474
geraldine.nouailles@charite.de
Dr. Jakob Trimpert
Arbeitsgruppenleiter / Leiter der Diagnostik
Institut für Virologie
Freie Universität Berlin
Tel.: +49 (0) 30 838 65028
Jakob.Trimpert@fu-berlin.de
Dr. Emanuel Wyler
AG RNA Biologie und Posttranscriptionale Regulation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)
Tel.: +49 (0)30 9406-3009
emanuel.wyler@mdc-berlin.de
Originalpublikation:
https://www.cell.com/molecular-therapy-family/molecular-therapy/fulltext/S1525-0…
Weitere Informationen:
https://infektiologie-pneumologie.charite.de/
https://www.vetmed.fu-berlin.de/index.html
https://www.mdc-berlin.de/de/landthaler
https://www.charite.de/service/pressemitteilung/artikel/detail/lungenschaeden_be…
Welchen Fußball wollen wir?
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Im Sommersemester 2022 geht an der Universität Würzburg ein Seminar in die nächste Runde, das den Lieblingssport der Deutschen aus unterschiedlichen Perspektiven beleuchtet – den Fußball.
Unter dem Schirm des Lehrstuhls für Sportwissenschaft der Julius-Maximilians-Universität (JMU) Würzburg lädt Lehrstuhlinhaber Professor Harald Lange „Studierende aller Fächer und Fakultäten und auch aller Hochschulstandorte im deutschsprachigen Raum“ dazu ein, am wissenschaftlichen Austausch rund um den Fußball teilzunehmen.
Bereits 2020 war das Seminar erstmals mit dem Titel „Welchen Fußball wollen wir?“ als experimentelle hochschuldidaktische Reaktion auf die Coronapandemie via Zoom angelaufen und wurde von Studierenden verschiedener Fachbereiche aus ganz Deutschland sehr gut angenommen.
Studien wecken Interesse
Durch die mediale Aufmerksamkeit, die Lange zuletzt mit zwei großangelegten Forschungsprojekten, der DFB-Basis-Studie und der Fanrückkehr-Studie, generiert hatte, sieht er nun die passende Gelegenheit, die Veranstaltung nochmals zu bewerben: „Der Erfolg der Studien hat viel angestoßen und große Resonanz ausgelöst.“
Da die ersten Teilnehmerinnen und Teilnehmer des Seminars nun ihre Masterarbeiten schreiben oder auch Promotionsprojekte auf den Weg bringen, gelte es, den Austausch auch für weitere Interessierte zu öffnen. Auch diesmal soll es möglich sein, Interessierte in Forschungsprojekten einzubinden.
„Studentischer Thinktank zur Zukunft des Fußballs“
Gerade der interdisziplinäre Ansatz macht für Lange den besonderen Wert des Seminars aus: „Juristinnen und Juristen haben ihren eigenen Zugang zum Thema Fußball, Fachleute aus der Wirtschafts-, Medien-, Sport- oder Politikwissenschaft wieder einen anderen, und die aus Soziologie, Geschichte oder Linguistik ebenso.“
Angesprochen werden Studierende und wissenschaftlicher Nachwuchs, die den Fußball nicht nur als Hobby oder persönliches Fanthema sehen, sondern ihn auch in ihrem Studium zum Thema interdisziplinärer Lehre und Forschung machen möchten. Als „studentischer Thinktank zur Zukunft des Fußballs“ diene das Seminar als Drehscheibe für den Austausch und biete viele Möglichkeiten zur Netzwerkbildung.
Ausbau ist möglich
Aufgrund des offenen Charakters findet die Veranstaltung weiterhin online über Zoom statt. Der Umfang könne von den bisherigen zwölf Teilnehmern und Teilnehmerinnen auf bis zu 20 erweitert werden. Bei einzelnen komplett offenen Sitzungen mit Gastvorträgen erreichte die Veranstaltung in der Vergangenheit um die 80 Personen.
Dabei sieht Harald Lange das Potential längst nicht ausgeschöpft: „Das Seminar ist eine zarte aber sehr nachhaltig wirkende Pflanze, die ich perspektivisch an einen innovativen Studiengang anbinden möchte.“ Dabei strebt er auch Kooperationen mit bestehenden Studiengängen beziehungsweise Hochschulen aus ganz Deutschland an. Seit dem Start im Mai 2020 seien die Fragestellungen und Themen, die sich von kulturtheoretischen Grundlagen, über sportpolitische Fragestellungen bis hin zum Spannungsfeld zwischen Kommerz und Ethik im Fußball erstrecken, schließlich noch relevanter geworden, so Lange.
Zwischen Mai und Juli werden insgesamt 14 Sitzungen stattfinden. Termin ist immer mittwochs um 18:30 Uhr.
Interessierte können sich direkt bei Harald Lange melden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Harald Lange, Lehrstuhl für Sportwissenschaft, Universität Würzburg, T. +49 151 – 10388104, harald.lange@uni-wuerzburg.de
Wasseraufbereitung: Licht hilft beim Abbau von Hormonen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Bei Mikroverunreinigungen im Wasser handelt es sich häufig um Hormone, die sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken können. Forschende am Karlsruher Institut für Technologie (KIT) und am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig haben ein Verfahren zum photokatalytischen Abbau dieser Verunreinigungen im Durchfluss durch Polymermembranen entwickelt und in der Zeitschrift Nature Nanotechnology vorgestellt. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den mit Titandioxid beschichteten Membranen zersetzt. (DOI: 10.1038/s41565-022-01074-8)
Überall wo Menschen leben, gelangen Hormone, wie sie in Arzneimitteln zur Empfängnisverhütung und in der Landwirtschaft eingesetzt werden, in das Abwasser. Steroidhormone wie Sexualhormone und Corticosteroide können sich in der Umwelt ansammeln und sich negativ auf Menschen und Tiere auswirken, indem sie die Verhaltensentwicklung und die Fortpflanzungsfähigkeit beeinträchtigen. Sexualhormone können beispielsweise dazu führen, dass männliche Fische weibliche Geschlechtsmerkmale entwickeln. Umso wichtiger ist es, neben anderen Mikroverunreinigungen auch Hormone aus dem Abwasser zu entfernen, bevor diese in den natürlichen Wasserkreislauf zurückgelangen, aus dem wiederum das Trinkwasser kommt. „Die Menschen mit sauberem Trinkwasser zu versorgen, gehört weltweit zu den wichtigsten Herausforderungen der Gegenwart“, sagt Professorin Andrea Iris Schäfer, Leiterin des Institute for Advanced Membrane Technology (IAMT) des KIT. „Spurenschadstoffe sind eine enorme Bedrohung für unsere Zukunft, da sie unsere Fruchtbarkeit und Gehirnfunktion beeinträchtigen.“
Inspiration aus der Solarzellentechnologie
Schäfer befasst sich seit Jahren mit der Wasseraufbereitung über Nanofiltration. Dazu setzt sie Polymermembranen mit nanometerkleinen Poren ein. Allerdings arbeitet die Nanofiltration mit hohem Druck und benötigt daher viel Energie. Außerdem kann es passieren, dass sich Mikroverunreinigungen in den polymeren Membranmaterialien ansammeln und allmählich in das gefilterte Wasser übergehen. Selbst wenn die Entfernung der Verunreinigungen vollständig gelingt, entsteht dabei ein Strom mit konzentrierten Schadstoffen, der weiterbehandelt werden muss.
Inspiriert von der Solarzellentechnologie, mit der sich der ebenfalls am KIT tätige Professor Bryce S. Richards befasst, kam Schäfer auf die Idee, Polymermembranen mit Titandioxid zu beschichten und photokatalytische Membranen zu entwickeln: Photokatalytisch aktive Titandioxid-Nanopartikel werden auf Mikrofiltrationsmembranen aufgebracht, deren Poren etwas größer sind als bei der Nanofiltration. Durch Bestrahlung mit Licht, das eine chemische Reaktion auslöst, werden Steroidhormone auf den Membranen zersetzt. Nun hat Schäfer ihre Idee mit ihrem Team am IAMT des KIT und mit Kolleginnen am Leibniz-Institut für Oberflächenmodifizierung (IOM) in Leipzig verwirklicht und die neue Technologie in der Zeitschrift Nature Nanotechnology vorgestellt.
Katalysator für Wasser
„Wir haben sozusagen einen Katalysator für Wasser entwickelt“, resümiert Schäfer. Mit den photokatalytischen Polymermembranen gelang es, Steroidhormone im kontinuierlichen Durchfluss so weit zu entfernen, dass die analytische Nachweisgrenze von vier Nanogramm pro Liter erreicht wurde – die Werte kamen sogar ziemlich nah an ein Nanogramm pro Liter heran, was der neuen Trinkwasserrichtlinie der WHO entspricht. Die Forschenden arbeiten daran, ihre Technologie weiterzuentwickeln, um den Zeitbedarf und den Energieverbrauch zu senken sowie die Verwendung von natürlichem Licht zu ermöglichen. Vor allem aber zielt die weitere Forschung darauf ab, auch andere Schadstoffe mithilfe der Photokatalyse abzubauen, beispielsweise Industriechemikalien wie per- und polyfluorierte Alkylsubstanzen (PFAS) oder Pestizide wie Glyphosat. Eine weitere Herausforderung besteht darin, die Technologie in größerem Maßstab zu verwirklichen.
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Regina Link, Pressereferentin, Tel.: +49 721 608-41158, E-Mail: regina.link@kit.edu
Originalpublikation:
Shabnam Lotfi, Kristina Fischer, Agnes Schulze and Andrea I. Schäfer: Photocatalytic degradation of steroid hormone micropollutants by TiO2-coated polyethersulfone membranes in a continuous flow-through process. Nature Nanotechnology, 2022. DOI: 10.1038/s41565-022-01074-8
Abstract unter https://www.nature.com/articles/s41565-022-01074-8
Zum Hintergrund der Publikation: https://engineeringcommunity.nature.com/posts/catalyst-for-water-removing-steroi…
Ein Schwarm von 85.000 Erdbeben am antarktischen Unterwasservulkan Orca
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
In der abgelegenen Gegend identifiziert ein Mix geophysikalischer Methoden Magmatransfer unter dem Meeresboden als Ursache
Auch vor der Küste der Antarktis gibt es Vulkane. Am Tiefseevulkan Orca, der seit langem inaktiv ist, wurde 2020 eine Folge von mehr als 85.000 Erdbeben registriert, ein Schwarmbeben, das bis dahin für diese Region nicht beobachtete Ausmaße erreichte. Dass solche Ereignisse auch in derart abgelegenen und daher schlecht instrumentierten Gebieten sehr detailliert untersucht und beschrieben werden können, zeigt nun die Studie eines internationalen Teams, die in der Fachzeitschrift „Communications Earth and Environment“ veröffentlicht wurde. Unter Leitung von Simone Cesca vom Deutschen GeoForschungsZentrum Potsdam (GFZ) waren Forschende aus Deutschland, Italien, Polen und den Vereinigten Staaten beteiligt. Mit der kombinierten Anwendung von seismologischen, geodätischen und Fernerkundungs-Techniken konnten sie ermitteln, wie der schnelle Transfer von Magma vom Erdmantel nahe der Krusten-Mantel-Grenze bis fast zur Oberfläche zu dem Schwarmbeben führte.
Der Orca-Vulkan zwischen Südamerikas Spitze und der Antarktis
Schwarmbeben treten hauptsächlich in vulkanisch aktiven Regionen auf. Als Ursache wird daher die Bewegung von Fluiden in der Erdkruste vermutet. Der Orca-Seamount ist ein großer submariner Schildvulkan mit einer Höhe von etwa 900 Metern über dem Meeresboden und einem Basisdurchmesser von rund 11 Kilometern. Er liegt in der Bransfield-Straße, einem Meereskanal zwischen der Antarktischen Halbinsel und den Süd-Shetland-Inseln, südwestlich der Südspitze von Argentinien.
„In der Vergangenheit war die Seismizität in dieser Region mäßig. Im August 2020 begann dort allerdings ein intensiver seismischer Schwarm mit mehr als 85.000 Erdbeben innerhalb eines halben Jahres. Er stellt die größte seismische Unruhe dar, die dort jemals aufgezeichnet wurde“, berichtet Simone Cesca, Wissenschaftler in der Sektion 2.1 Erdbeben- und Vulkanphysik des GFZ und Leiter der jetzt veröffentlichten Studie. Gleichzeitig mit dem Schwarm wurde auf dem benachbarten King George Island eine seitliche Bodenverschiebung von mehr als zehn Zentimetern und einer geringen Hebung von etwa einem Zentimeter aufgezeichnet.
Cesca hat diese Ereignisse mit Kolleg:innen vom National Institute of Oceanography and Applied Geophysics – OGS und der Universität Bologna (Italien), der Polnischen Akademie der Wissenschaften, der Leibniz-Universität Hannover, des Deutschen Luft- und Raumfahrtzentrums (DLR) und der Universität Potsdam untersucht. Dabei standen sie vor der Herausforderung, dass es in der abgelegenen Gegend nur wenige konventionelle seismologische Instrumente gibt, nämlich nur zwei seismische Stationen und zwei GNSS-Stationen (Bodenstationen des Globalen Navigations-Satelliten-Systems, die Bodenverschiebungen messen). Um die Chronologie und Entwicklung der Unruhen zu rekonstruieren und ihre Ursache zu ermitteln, hat das Team daher zusätzlich Daten von entfernteren seismischen Stationen und Daten von InSAR-Satelliten, die mittels Radarinterferometrie Bodenverschiebungen messen, ausgewertet. Ein wichtiger Schritt war dabei die Modellierung der Ereignisse mit einer Reihe geophysikalischer Methoden, um die Daten richtig zu interpretieren.
Die Rekonstruktion der seismischen Ereignisse
Die Forschenden haben den Beginn der Unruhen auf den 10. August 2020 zurückdatiert und den ursprünglichen globalen seismischen Katalog, der nur 128 Erdbeben enthielt, auf mehr als 85.000 Ereignisse erweitert. Der Schwarm erreichte seinen Höhepunkt mit zwei großen Erdbeben am 2. Oktober (Mw 5,9) und am 6. November (Mw 6,0) 2020, bevor er abflaute. Bis Februar 2021 war die seismische Aktivität deutlich zurückgegangen.
Als Hauptursache für das Scharmbeben identifizieren die Forschenden eine Magma-Intrusion, die Ausbreitung eines größeren Magma-Volumens. Denn seismische Prozesse allein können die beobachtete starke Oberflächendeformation auf King George Island nicht erklären. Die Magma-Intrusion wird unabhängig von geodätischen Daten bestätigt.
Die Seismizität wanderte von ihrem Ursprungsort zunächst nach oben und dann seitlich: Tiefere, gebündelte Erdbeben werden als Reaktion auf die vertikale Ausbreitung von Magma aus einem Reservoir im oberen Erdmantel oder an der Grenze zwischen Kruste und Erdmantel interpretiert. Flachere sogenannte Krustenbeben breiteten sich von Nordost nach Südwest aus. Sie wurden durch den sich seitlich ausbreitenden Magmadamm ausgelöst, der eine Länge von etwa 20 km erreicht.
Die Seismizität nahm Mitte November, nach rund drei Monaten anhaltender Aktivität, abrupt ab. Das fällt mit dem Auftreten des größten Erdbebens der Serie mit einer Magnitude von Mw 6,0 zusammen. Das Ende des Schwarms lässt sich durch den Druckverlust im Magmastollen erklären, der mit dem Abrutschen einer großen Verwerfung einhergeht. Das könnte den Zeitpunkt eines Ausbruchs am Meeresboden markieren, der aber bislang nicht durch andere Messungen bestätigt werden konnte.
Die Forschenden schließen durch Modellierung von GNSS- und InSAR-Daten, dass das Volumen der Magma-Intrusion von Bransfield eine Größenordnung von 0,26-0,56 Kubikkilometer aufweist. Das macht diese Episode auch zur größten magmatischen Unruhe, die jemals in der Antarktis geophysikalisch überwacht wurde.
Résumé
Simone Cesca resümiert: „Unsere Studie stellt die erfolgreiche Untersuchung einer seismo-vulkanischen Unruhe an einem abgelegenen Ort der Erde dar, bei der uns die kombinierte Anwendung von Seismologie, Geodäsie und Fernerkundungstechniken ein Verständnis von Erdbebenprozessen und Magmatransport in schlecht instrumentierten Gebieten ermöglicht hat. Dies ist einer der wenigen Fälle, in denen wir mit geophysikalischen Mitteln ein Eindringen von Magma aus dem oberen Mantel oder der Krusten-Mantel-Grenze in die flache Kruste beobachten können – einen schnellen, nur wenige Tage dauernden Magmatransfer vom Mantel bis fast zur Oberfläche.“
Wissenschaftliche Ansprechpartner:
Dr. Simone Cesca
Sektion 2.1 Erdbeben- und Vulkanphysik
Helmholtz-Zentrum Potsdam
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel.: +49 331 288-28794
E-Mail: simone.cesca@gfz-potsdam.de
Originalpublikation:
Cesca, S., Sugan, M., Rudzinski, Ł., Vajedian, S., Niemz, P., Plank, S., Petersen, G., Deng, Z., Rivalta, E., Vuan, A., Plasencia Linares, M. P., Heimann, S., and Dahm, T., 2022. Massive earthquake swarm driven by magmatic intrusion at the Bransfield Strait, Antarctica, Communications Earth & Environment, doi: 10.1038/s43247-022-00418-5
https://www.nature.com/articles/s43247-022-00418-5
Neues Sinnesorgan entdeckt
Dr. Gesine Steiner Pressestelle
Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung
Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt und in The Royal Society Biology Letters publiziert. Die Entdeckung dieses neuen Organes bietet zahlreiche neue Forschungsansätze, da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen. Zur Biologischen Schädlingsbekämpfung könnte mittels Störsignal die Paarung der Insekten unterbunden und somit deren Ausbreitung eingedämmt werden.
Die großen Singzikaden sind bekannt für ihre ohrenbetäubenden Gesänge. Jede der über 3000 Arten besitzt einen individuellen Gesang, der sogar zur Artbestimmung genutzt werden kann. Im Mittelmeerraum, den Tropen und den Subtropen sind ihre Paarungssignale prägend für die Geräuschkulisse zahlreicher Regionen.
Weniger bekannt, obwohl mit fast 40000 Spezies weitaus artenreicher, sind die nah verwandten Kleinzikaden, die man zuhauf in unseren heimischen Parks und Gärten finden kann. Trotz ihres oft sehr farbenfrohen Aussehens sind diese hübschen Insekten aufgrund der geringen Größe – manche sind nur wenige Millimeter groß – wenig bekannt. Auch ihre Kommunikationsweise zieht kaum Aufmerksamkeit auf sich. Zwar besitzen Singzikaden und Kleinzikaden ein ähnliches Organ zur Signalerzeugung, aber während die Singzikaden dies zur Schallerzeugung nutzen, werden die Signale der Kleinzikaden als Vibrationen über die Pflanzen zu den Artgenossen gesendet.
Zur Wahrnehmung der Signale besitzen Singzikaden ein sogenanntes Tympanalorgan. Dies ist eine Art Ohr, das die eingehenden Schallwellen mit ca. 2000 Sinneszellen registriert. Bei den Kleinzikaden nahm man bisher an, dass diese die Vibrationssignale zur Kommunikation mit recht simplen, aus nur wenigen Sinneszellen aufgebauten Organen in den Beinen wahrnehmen, wie sie fast alle Insekten besitzen.
Wissenschaftlerinnen des Zentrums für Integrative Biodiversitätsentdeckung des Museums für Naturkunde Berlin und Wissenschaftler des ZUSE-Instituts Berlin und der RWTH Aachen haben kürzlich ein neues Sinnesorgan zur Wahrnehmung von Vibrationssignalen bei Kleinzikaden entdeckt. „In unserer neuesten Studie haben wir herausgefunden, dass Kleinzikaden ein Sinnesorgan im vorderen Bereich des Hinterleibs besitzen, welches im Verhältnis zu solch kleinen Insekten außergewöhnlich groß ist und aus bis zu 400 Sinneszellen besteht“, so die Erstautorin Sarah Ehlers vom Zentrum für Integrative Biodiversitätsentdeckung des Museums für Naturkunde in Berlin. Dass dieses Organ bisher unentdeckt geblieben ist, ist mehr als erstaunlich, da das gleich danebenliegende Organ zur Signalerzeugung vielfach untersucht und beschrieben wurde.
Durch die Kombination klassischer histologischer Methoden mit modernsten bildgebenden Verfahren ist es gelungen, ein 3D-Modell des Sinnesorganes zu generieren. Das Sinnesorgan der Kleinzikaden ist ein ausgeklügeltes System aus feinen Membranen und verstärkten Teilen des Exoskeletts. Aufgrund der Lage und Struktur dieses Organes ist anzunehmen, dass sich aus einem ähnlichen Vorläuferorgan das komplizierte Tympanalorgan der Zikaden entwickelt hat.
Da einige Arten von Kleinzikaden wirtschaftlich bedeutsame Pflanzenkrankheiten übertragen, stehen sie im Fokus vieler Studien zur biologischen Schädlingsbekämpfung. Untersucht wurde zum Beispiel das Paarungsverhalten und die Art und Weise der Signalerzeugung. So existieren schon erfolgreiche Versuche, mittels Störsignalen die Paarung der Insekten zu unterbinden und somit deren Ausbreitung einzudämmen.
Die Entdeckung dieses neuen Organes bietet somit Spielraum für zahlreiche neue Forschungsansätze. Nun gilt es Untersuchungen zu seiner genauen Funktionsweise anzustellen. Damit könnten die Methoden der biologischen Schädlingsbekämpfung weiterentwickelt und optimiert werden. Ein weiteres spannendes Feld stellt die Evolution von Kommunikationssystemen innerhalb der Insekten dar. Anhand dem Beispiel der Zikaden ist es möglich zu erforschen, wie der Übergang von der entwicklungsgeschichtlich älteren Kommunikation über Vibrationssignale, hin zur Kommunikation durch Schallwellen erfolgte.
Publikation:
Sarah Ehlers et. al., Large abdominal mechanoreceptive sense organs in small plant-dwelling insects, Royal Society Publishing, DOI: 10.1098/rsbl.2022.0078
Social-Media-Workshop „Digitale Zukunft mit Dir!“ am 21. April 2022
Julia Reichelt Universitätskommunikation
Technische Universität Kaiserslautern
Digitalexperte Dr. Michael Gebert führt am 21.04.22 von 14 bis 18 Uhr durch den kostenfreien Onlineworkshop „Digitale Zukunft mit Dir!“, der Social Media aus der Perspektive der Gesellschaft und der Content-Verantwortlichen betrachtet. Ziel des Workshops ist es, gemeinsam das Handeln in den sozialen Medien zu diskutieren und einen selbstreflektierten Blick auf Herausforderungen und Chancen zu entwickeln. Der Workshop findet im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen.“ der Offenen Digitalisierungsallianz Pfalz statt. Zur Einleitung ins Thema steht die Aufzeichnung eines Impulsvortrags parat.
Welchen Einfluss haben soziale Netzwerke auf unsere Gesellschaft? Dieser zentralen Frage geht steht der Online-Workshop auf den Grund. Dabei wird Digitalexperte Gebert viele Aspekte diskutieren – darunter die Handlungsmöglichkeiten, Werkzeuge und Instrumente im eigenen Alltag, aber auch den sinnstiftenden Umgang im Hinblick auf soziale und gesellschaftliche Zwecke.
Im Rahmen der Veranstaltungsreihe „Heute. Morgen. Übermorgen. – Digitale Zukunft mit Dir!“ möchte die Offene Digitalisierungsallianz Pfalz mit Interessierten in den Diskurs treten.
Dafür konnten die Verantwortlichen an der Technischen Universität Kaiserslautern für das laufende Sommersemester Dr. Michael Gebert, Vorsitzender der European Blockchain Association, Geschäftsführer der CrowdSourcing Association und des German CrowdFunding Network, als Gastdozenten gewinnen. Der international agierende Experte für digitale Transformation und Blockchain kommt für diese Veranstaltungsreihe vor Ort nach Kaiserslautern, um Impulse zu setzen und neue Denkanstöße zu geben.
Weitere Informationen inklusive Link zur Anmeldung sind auf den Webseiten der Offenen Digitalisierungsallianz Pfalz zu finden: https://www.offenedigitalisierungsallianzpfalz.de/workshop-zu-social-media-digit…
„Social Media ist das Instrument, das die Menschen weltweit zusammenbringt und ebenso teilt. Neue Beziehungen werden begonnen oder wieder getrennt, Gesinnungen geteilt. Es ist wichtig zu verstehen, warum wir an diesem Punkt angelangt sind und was wir daraus, auch für uns selbst machen können“, so Gebert. Der Onlineworkshop richtet sich somit an alle, die ihre Rolle in der Gesellschaft diskutieren und Social-Media-Strategien kennenlernen möchten. Teilnehmende erhalten einen Einblick in Handlungsempfehlungen, Instrumente und Werkzeuge, die bei der Gestaltung der eigenen Social-Media-Welt unterstützen.
Ein Zugang zur Aufzeichnung des Impulsvortrages von Gebert, in dem er einen Überblick über die Entwicklung und Wirkung von Social Media gibt, wird den Teilnehmenden nach der Anmeldung zugesandt. Dieser dient als Vorbereitung bzw. Ergänzung für den Workshop.
Über die Offene Digitalisierungsallianz Pfalz
Die Veranstaltungsreihe Heute. Morgen. Übermorgen. findet im Rahmen des Teilprojekts zur gesellschaftlichen Teilhabe am digitalen Wandel im Vorhaben Offenen Digitalisierungsallianz Pfalz statt. Die Offene Digitalisierungsallianz Pfalz ist ein Verbundvorhaben der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik (ITWM). Das Vorhaben stärkt den Ideen-, Wissens- und Technologietransfer mit Wirtschaft und Gesellschaft und basiert auf einer gemeinsamen Kooperationsstrategie der beiden Hochschulen. Die Offene Digitalisierungsallianz Pfalz wird vom Bundesministerium für Bildung und Forschung im Rahmen der Bund-Länder-Initiative „Innovative Hochschule“ gefördert.
Fragen beantwortet:
Nadine Wermke
Koordinatorin der Offenen Digitalisierungsallianz Pfalz
Referat Technologie und Innovation
TU Kaiserslautern
E-Mail: wermke@rti.uni-kl.de
Tel.: 0631 205-5342
Wie viel „Ich“ steckt im eigenen Avatar?
Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz
In der zweiten Folge der neuen Staffel des Podcast-Specials zum Sonderforschungsbereich „Hybrid Societies“ geht es um die Verbindung von „Ich“ und „Avatar“, verschiedene Gangarten und unterschiedliche Typen verkörperten Technologien
Durch die Corona-Pandemie sind Online-Plattformen, auf denen man sich zum Beispiel in Form von Avataren – also digitalen Abbildern seiner selbst – begegnen kann, alltäglich geworden. Mit einem solchen Avatars wird es möglich, sich „körperlich“ in Online-Räumen zu treffen, während man eigentlich woanders auf der Welt an einem Computer sitzt. Und jetzt die Frage: Würde Ihr Avatar Ihnen ähnlich sehen? Haben Sie überhaupt schon mal darüber nachgedacht, ob der Avatar Ihnen ähnlich sehen soll? In der zweiten Folge der aktuellen Staffel von „Mensch – Maschine – Miteinander“ sprechen Sabrina Bräuer, Wissenschaftliche Mitarbeiterin an der Professur Bewegungswissenschaft (Prof. Dr. Thomas Milani) und Sarah Mandl, Wissenschaftliche Mitarbeiterin an der Professur für Persönlichkeitspsychologie und Diagnostik (Prof. Dr. Anja Strobel) unter anderem über diese Fragen. Beide sind Doktorandinnen am Sonderforschungsbereich „Hybrid Societies“ der Technischen Universität Chemnitz. Darüber hinaus sprechen die Forscherinnen mit Podcast-Moderator Johannes Schmidt über die vielfältigen Anwendungsmöglichkeiten von Avataren. Zudem ordnen sie ein, welche Wahrnehmungs- und Zuschreibungsprozesse sich auf das digitale Konterfei auswirken.
Im Rahmen des „TUCscicast“-Special zum SFB „Hybrid Societies“ soll zum einen die Breite des Forschungsfeldes des SFB sichtbar werden; zum anderen geht es um die Diskussion aktueller Untersuchungen der beteiligten Teil-Projekte. So sprechen die beiden Wissenschaftlerinnen in der aktuellen Folge unter anderem auch über die kürzlich erschienene Studie zur sozialen und rechtlichen Wahrnehmung von Robotern sowie von Nutzerinnen und Nutzern bionischer Prothesen.
Etabliertes Format der Wissenschaftskommunikation
Damit die Arbeit des Sonderforschungsbereichs mehr Menschen erreicht – und auch die Menschen hinter der Forschung Gelegenheit zum Erklären und Einordnen erhalten, erscheint seit dem 9. Oktober 2020 das Podcast-Special „Mensch – Maschine – Miteinander“. Special deswegen, weil dieser Podcast kein neues Format innerhalb des Kommunikations-Portfolios der TU Chemnitz ist, sondern als Mini-Serie die Reihe „TUCscicast“ ergänzt – nunmehr bereits in der zweiten Staffel.
„Mensch – Maschine – Miteinander – ein TUCscicast-Special zum SFB Hybrid Societies“ wird gemeinsam produziert vom SFB „Hybrid Societies“, der TU Chemnitz und podcastproduzenten.de, Schwester-Firma des Online-Radios detektor.fm, das seit 2009 hochwertige Podcasts für Wirtschaft, Gesellschaft und Forschung produziert. Redakteur des Podcasts ist Johannes Schmidt.
Der Podcast kann auf verschiedenen Wegen gehört werden:
im Web-Player der TU Chemnitz,
in jeder Podcast-App über unseren RSS-Feed,
auf Spotify, Deezer, Apple Podcast und überall dort, wo es gute Podcasts gibt.
Neues aus dem SFB „Hybrid Societies“ gibt es, außer im Podcast, vierteljährlich auch im Newsletter.
Weitere Informationen:
https://www.tu-chemnitz.de/tu/pressestelle/tucscicast.php
Energiewende: Solarzellen der nächsten Generation werden immer effizienter
Eva Schissler Kommunikation und Marketing
Universität zu Köln
Ein Forschungsteam hat eine Tandem-Solarzelle aus Perowskit und organischen Absorberschichten mit hoher Effizienz entwickelt, die kostengünstiger herzustellen ist als herkömmliche Solarzellen aus Silizium. Die Weiterentwicklung dieser Technologie soll eine noch nachhaltigere Gewinnung von Solarenergie ermöglichen / Veröffentlichung in „Nature“
Ein deutsches Forschungsteam hat eine Tandem-Solarzelle entwickelt, die einen Wirkungsgrad von 24 Prozent erreicht – gemessen anhand des Anteils der in Strom (Elektronen) umgewandelten Photonen. Damit stellt das Team einen neuen Weltrekord auf: Es ist der höchste Wirkungsgrad, der bislang durch die Kombination von organischen und Perowskit-basierten Absorbern erzielt werden konnte. Die Solarzelle wurde in der Arbeitsgruppe von Professor Dr. Thomas Riedl an der Universität Wuppertal zusammen mit Forscher:innen vom Institut für Physikalische Chemie der Universität zu Köln und weiteren Projektpartner:innen von den Universitäten Potsdam und Tübingen sowie dem Helmholtz-Zentrum Berlin und dem Max-Planck-Institut für Eisenforschung in Düsseldorf entwickelt. Die Ergebnisse wurden unter dem Titel „Perovskite/organic tandem solar cells with indium oxide interconnect“ in der Fachzeitschrift Nature veröffentlicht.
Herkömmliche Solarzellentechnologien basieren überwiegend auf dem Halbleiter Silizium und gelten inzwischen als so gut wie „ausoptimiert“. Signifikante Verbesserungen ihres Wirkungsgrades – das heißt, mehr Watt elektrischer Leistung pro Watt eingesammelter Sonnenstrahlung – sind kaum noch zu erwarten. Vor diesem Hintergrund ist die Entwicklung neuer Solartechnologien, die im Kontext der Energiewende einen entscheidenden Beitrag leisten können, dringend erforderlich. Zwei solcher alternativen Absorbermaterialien wurden in der vorliegenden Arbeit kombiniert. Zum einen kamen organische Halbleiter zum Einsatz, also Kohlenstoffverbindungen die unter bestimmten Bedingungen elektrischen Strom leiten können. Diese wurden mit Perowskit-Halbleitern kombiniert, welche auf einer Blei-Halogen-Verbindung basieren und hervorragende halbleitende Eigenschaften besitzen. Zur Herstellung beider Technologien ist der Bedarf an Material und Energie bedeutend geringer als bei konventionellen Siliziumzellen, was die Möglichkeit eröffnet, noch nachhaltigere Solarzellen zu entwickeln.
Da Sonnenlicht aus verschiedenen Spektralanteilen, sprich Farben, besteht, müssen effiziente Solarzellen einen möglichst großen Anteil dieses Sonnenlichtes in Strom umwandeln. Dies kann mit sogenannten Tandem-Zellen erreicht werden, bei denen in der Solarzelle verschiedene Halbleitermaterialien kombiniert werden, welche jeweils unterschiedliche Bereiche des Sonnenspektrums absorbieren. In der aktuellen Studie kamen organische Halbleiter für den ultravioletten und sichtbaren Teil des Lichtes zum Einsatz, während Perowskit den nahen Infrarotbereich effizient absorbieren kann. An ähnlichen Materialkombinationen wurde schon in der Vergangenheit geforscht, doch dem Forschungsteam gelang es nun, deren Leistungsfähigkeit entscheidend zu steigern.
Zu Projektbeginn hatten die weltweit besten Perowskit/Organik-Tandemzellen einen Wirkungsgrad von circa 20 Prozent. Unter Federführung der Universität Wuppertal konnten die Kölner Forscher:innen zusammen mit den weiteren Projektpartnern den neuen Bestwert von 24 Prozent erzielen. „Um solch hohe Effizienz zu erreichen, mussten innerhalb der Solarzelle die Verluste an den Grenzflächen zwischen den Materialien minimiert werden“, erklärt Dr. Selina Olthof vom Institut für Physikalische Chemie der Uni Köln. „Hierzu entwickelten die Wuppertaler Forscher einen sogenannten Interconnect, der die organische Subzelle mit der Perowskitzelle elektrisch und optisch verbindet.“
Um Verluste so gering wie möglich zu halten, wurde als Interconnect eine nur 1,5 Nanometer dünne Schicht aus Indiumoxid in die Solarzelle integriert. Die Forscher:innen aus Köln trugen hier maßgeblich dazu bei, die Grenzflächen sowie den Interconnect elektrisch und energetisch zu untersuchen, um Verlustprozesse zu identifizieren und eine weitere Optimierung der Bauteile zu ermöglichen. Simulationen der Wuppertaler Arbeitsgruppe zeigen, dass mit diesem Ansatz in Zukunft Tandemzellen mit einem Wirkungsgrad jenseits der 30 Prozent erreichbar sind.
Wissenschaftliche Ansprechpartner:
Dr. Selina Olthof
Institut für Physikalische Chemie
selina.olthof@uni-koeln.de
Originalpublikation:
„Perovskite/organic tandem solar cells with indium oxide interconnect“, Nature, https://www.nature.com/articles/s41586-022-04455-0
Mikroplastik – Erforschen und Aufklären
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Zwischen 18 und 21 Millionen Tonnen Plastikmüll gelangen jährlich in die Gewässer dieser Welt. Die Tendenz: steigend. Um der Herausforderung zu begegnen, ist es nötig, ein breites gesellschaftliches Bewusstsein für die Verschmutzung der Umwelt mit Plastikabfall und dem daraus resultierenden Mikroplastik zu schaffen. Deshalb hat das Helmholtz-Zentrum Hereon nun eine digitale englischsprachige Informationsplattform zur Plastikverschmutzung entwickelt.
Unter Federführung des Instituts für Umweltchemie des Küstenraumes wollen Forschende verschiedener Disziplinen am Helmholtz-Zentrum Hereon dazu beitragen, das öffentliche Bewusstsein für die Plastik- und Mikroplastikkrise zu stärken. Zusätzlich konnten anerkannte Spezialistinnen und Spezialisten aus anderen Zentren der Helmholtz-Gemeinschaft und Universitäten für weitere Beiträge zu ausgewählten Themen gewonnen werden.
Daher wurde kürzlich das sogenannte „Microplastic Compendium“ online veröffentlicht. Die digitale Anwendung in englischer Sprache ist eine Informationsplattform rund um das Thema Plastik- und Mikroplastikverschmutzung sowie deren Gefahren, Verbreitung und zugrundeliegende wissenschaftliche Untersuchungen. Das Kompendium, kurz MPC, ist für eine breite Leserschaft angelegt und enthält komprimierte Informationen zu vielen wissenschaftlichen Studien aus dem Bereich Mikroplastik. Etwa auch zu Themen wie Trinkwasser, Lebensmitteln, Transportpfaden, verschiedenen Ökosystemen, politischen Initiativen, Forschungsprojekten, aber auch Lösungsansätze und verwandte Themen wie Reifenabrieb werden diskutiert.
Das MPC ist Teil der Coastal Pollution Toolbox, einer zentralen Anlaufstelle für Forschende und alle, die an der Bewältigung von Verschmutzung in Küstengebieten und der marinen Umwelt beteiligt sind. Ganz egal, ob die Verschmutzung organischer oder anorganischer, traditioneller oder neuartiger Natur ist oder durch die Dynamik von Nährstoffen und Kohlenstoff beeinflusst wird. Ziel ist, eine dynamisch-lebendige Plattform zu erschaffen, die aktuelle Erkenntnisse integriert und auf hieraus abgeleitete Anforderungen reagiert. Das MPC wird künftig ausgebaut und um Beiträge zu anderen Schwerpunktbereichen globaler Umweltveränderungen erweitert: „Wir laden Wissenschaftlerinnen und Wissenschaftler unseres wachsenden Partnernetzwerkes unterschiedlicher Fachbereiche der Schadstoffforschung ein, Beiträge aus ihren Arbeiten zu unserem Kompendium beizutragen“, sagt Dr. Marcus Lange, Koordinator vom Hereon-Institut für Umweltchemie des Küstenraumes. Das MPC ist damit ein Meilenstein für die betreffende Forschung und die Information darüber.
Hintergrund
Einmal in die marine Umwelt eingetragen, kann Plastikmüll viele Jahre in unseren Gewässern verbleiben. Der World Wide Fund For Nature (WWF) vermutet, dass Meereslebewesen in erheblichem Maße durch Plastikmüll beeinträchtigt sein können. Nach Schätzungen kanadischer Wissenschaftlerinnen und Wissenschaftler nehmen Menschen jährlich zwischen 74.000 und 121.000 Mikroplastikpartikel und –fasern im Größenbereich von 0.001 – 5 Millimeter über die Nahrung und die Atemluft auf. Wegen dieser erschreckenden Zahlen sprechen Umweltschützerinnen und Umweltschützer auch von einer „Plastikkrise“. Dabei geht eine erhöhte Gefahr von Mikroplastik aus, da es wegen seiner Größe leicht von Organismen aufgenommen werden kann.
Die weltweiten Ströme von Mikroplastik kennen dabei keine Ländergrenzen. Flüsse funktionieren als Transportwege. Experten gehen davon aus, dass ein großer Teil des Plastikmülls durch unkontrollierte und zum Teil auch illegale Entsorgung oder Wetterereignisse vom Land in die Meere gelangen. Daher kann die Plastikkrise nur durch globales Handeln bekämpft werden. Eine Vielzahl von Initiativen auf nationaler wie internationaler Ebene kümmern sich bereits um diese Problematik. Erst jüngst erteilte die fünfte Umweltversammlung der Vereinten Nationen (UNEA) in Nairobi das Mandat zur Verhandlung für ein globales Plastikabkommen. Es sieht vor, alle Bereiche der Umwelt entlang des gesamten Lebenszyklus von Plastik – von der Produktion über den Konsum bis zur Entsorgung – zu betrachten und verbindlich zu regulieren.
Kleinsten Plastikpartikeln auf der Spur
Am Helmholtz-Zentrum Hereon wird sowohl zur Existenz von Mikroplastik in der Umwelt als auch den Wechselwirkungen zwischen Mikroplastik und Co-Schadstoffen umfangreich geforscht. Prof. Ralf Ebinghaus, Leiter des Instituts für Umweltchemie des Küstenraumes am Helmholtz-Zentrum Hereon, sagt hierzu: „Mikroplastik-Partikel enthalten je nach Art, Größe und Verweildauer in der Umwelt einen vielfältigen Mix an Chemikalien. Darunter sind solche, die bei der Herstellung absichtlich zugesetzt worden sind und andere, die sich am Partikel später anreichern. In beiden Fällen können es auch für den Menschen gesundheitsschädigende Stoffe sein, die wie mit einem trojanischen Pferd in den menschlichen Organismus gelangen. Ich halte es für zentral, dass solchen Risiken in einem globalen Plastikabkommen oder im Rahmen der Einrichtung eines wissenschaftspolitischen Gremiums zu Chemikalien und Mikroplastik Rechnung getragen wird.“
Wissenschaftliche Ansprechpartner:
Prof. Ralf Ebinghaus I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-2354 I ralf.ebinghaus@hereon.de I www.hereon.de
Dr. Lars Hildebrandt I Helmholtz-Zentrum Hereon I Institut für Umweltchemie des Küstenraumes I T: +49 (0) 4152 87-1813 I lars.hildebrandt@hereon.de I www.hereon.de
Weitere Informationen:
https://www.microplastic-compendium.eu
Was machen Vulkane mit unserem Klima?
Jan Meßerschmidt Hochschulkommunikation
Universität Greifswald
Das Forschungsprojekt VolImpact zu den Einflüssen von Vulkanaktivitäten auf Atmosphäre und Klima geht in eine weitere Runde. Der Hauptausschuss der Deutschen Forschungsgemeinschaft (DFG) hat im März 2022 die zweite Förderphase der Forschungsgruppe FOR 2820 „Revisiting the volcanic impact on atmosphere and climate – preparations for the next big volcanic eruption“ (VolImpact) bewilligt. In dem Verbundprojekt arbeiten Wissenschaftler*innen der Universitäten Bremen, Greifswald, Hamburg und Leipzig sowie dem Karlsruher Institut für Technologie (KIT) und dem Max-Planck-Institut für Meteorologie in Hamburg zusammen. Insgesamt stehen für die zweite Phase 3,2 Millionen Euro zur Verfügung.
Vulkanausbrüche sind eine der wichtigsten Ursachen für natürliche Klimavariationen auf Zeitskalen von einigen Jahren bis zu einem Jahrzehnt. Obwohl sich die Forschung bereits seit Jahrzehnten mit vulkanischen Einflüssen auf die Atmosphäre befasst, sind viele grundlegende Prozesse nicht oder nur unzureichend verstanden. Die fünf wissenschaftlichen Teilprojekte der Forschungsgruppe befassen sich beispielsweise mit der Ausbildung der initialen Vulkanwolke in den ersten Stunden und Tagen, dem Einfluss von Vulkanausbrüchen auf die Strahlungsbilanz der Atmosphäre, der Wechselwirkung zwischen vulkanischen Aerosolen und troposphärischen Wolken oder dem Einfluss auf die Winde in der mittleren und oberen Atmosphäre, über den nur wenig bekannt ist.
Ein zentraler Aspekt der Forschungsgruppe ist die Synergie aus globalen Satellitenmessungen relevanter atmosphärischer Parameter und der globalen Modellierung vulkanischer Effekte mithilfe von Atmosphären- und Klimamodellen. Die Verwendung von Satellitenmessungen basiert in weiten Teilen auf numerischen Analyseverfahren, die im Rahmen der Projekte entwickelt werden, beispielsweise um die Größe stratosphärischer vulkanischer Aerosole oder die vertikale Ausdehnung einer Vulkanwolke zu bestimmen. Die Forschungsaktivitäten sind im Wesentlichen auf Vulkaneruptionen der vergangenen vier Jahrzehnte begrenzt, für welche Satellitenmessungen verfügbar sind. Dabei sind nicht nur stärkere Vulkanausbrüche, wie der des Mount Pinatubo 1991 von Interesse. Auch die kleinen und moderaten Ausbrüche der vergangenen 20 Jahre stellen wichtige Beispiele für Fallstudien dar und erlauben es, die Qualität von Modellsimulationen zu überprüfen.
Die DFG-Forschungsgruppe VolImpact trägt dazu bei, wesentliche physikalische und chemische Prozesse von Vulkanausbrüchen auf Atmosphäre und Klima besser zu verstehen und die Modellier- und Beobachtungsmöglichkeiten für zukünftige Vulkaneruptionen zu optimieren.
Weitere Informationen
VolImpact http://volimpact.org/
Ansprechpartner an der Universität Greifswald
Prof. Dr. Christian von Savigny
Institut für Physik | Umweltphysik
Felix-Hausdorff-Straße 6, 17489 Greifswald
Telefon +49 3834 420 4720
csavigny@physik.uni-greifswald.de
Hohe Erwartungen, unklarer Nutzen: Industrie 4.0 und der Wandel zu nachhaltigem Wirtschaften
Bianca Schröder Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.
Unternehmensvertreterinnen und -vertreter erwarten, dass die Digitalisierung zu einer besseren Umweltbilanz ihres Unternehmens beiträgt. Ihre konkreten Erfahrungen zeichnen jedoch ein weniger positives Bild: Bislang helfen die neuen Technologien kaum bei der Verbesserung der Ressourceneffizienz. Um das Potenzial der Industrie 4.0 zu nutzen, braucht es laut Forschenden auch politische Unterstützung.
Die industrielle Produktion muss grundlegend verändert werden, wenn die UN-Nachhaltigkeitsziele erreicht werden sollen. Zwei Hauptziele stehen dabei im Vordergrund: Dekarbonisierung und Dematerialisierung. Ziel der Dekarbonisierung ist die Reduktion von klimaschädlichen Gasen, vor allem CO2. Bei der Dematerialisierung geht es darum, wirtschaftliche Produkte und Dienstleistungen mit einem Minimum an Materialeinsatz zu erzeugen und so weit wie möglich auf umweltverträgliche Materialien oder Prozesse zu setzen. Ein internationales Team um IASS-Forschungsgruppenleiter Grischa Beier untersuchte die Potenziale von Industrie 4.0 für diese beiden Ziele per Online-Umfrage unter Unternehmensvertreterinnen und -vertretern in China, Brasilien und Deutschland, in einer Vielzahl von Industriesektoren und in Unternehmen unterschiedlicher Größe.
Mit größerer Erfahrung sinken die Erwartungen
Die Mehrheit der Industrievertreterinnen und -vertreter – 53 Prozent in Deutschland, 82 Prozent in Brasilien und 67 Prozent in China – erwarten eine Verbesserung der Umweltwirkung ihres Unternehmens durch den Einsatz von Industrie-4.0-Technologien. Besonders hoch ist dieser Anteil bei Unternehmen mit mehr als 5000 Mitarbeitenden in Deutschland und Brasilien.
Große Unterschiede beobachteten die Forschenden in einigen Ländern zwischen den Sektoren: In Brasilien sind die Erwartungen für den Maschinen- und Anlagenbau besonders optimistisch (100 Pro-zent), in Deutschland für den Elektronik-Sektor (75 Prozent) und den Automobilbereich (58 Prozent). In China gibt es hingegen keine großen Unterschiede zwischen den Sektoren.
Die bisherigen Erfahrungen, etwa in Bezug auf Ressourceneffizienz und Energieverbrauch, stützen die hoffnungsvollen Erwartungen jedoch nur zum Teil. „Unsere Ergebnisse deuten darauf hin, dass es eine zu hohe Erwartungshaltung bei den Unternehmen gibt, die noch wenig Erfahrung mit Industrie 4.0 haben. Je weiter das jeweilige Unternehmen mit der Umsetzung war, umso moderater waren beispielsweise die Erwartungen für die tatsächlichen Energieeinsparungen“, sagt Erstautor Grischa Beier. Auch frühere Studien hätten wenig Hinweise darauf ergeben, dass es hier zu erheblichen systematischen Einsparungen kommen würde.
Industrie 4.0 hilft, die Produktion an der Nachfrage auszurichten
Ein erfreuliches Ergebnis der Studie ist, dass Unternehmen mit einem hohen Digitalisierungsniveau durchaus positive Potenziale für ihre Ökobilanz verzeichnen: Je höher das derzeitige Industrie-4.0-Niveau der Unternehmen ist, desto größer ist ihre Fähigkeit, ihre Produktivität an der Nachfrage auszurichten. Zudem steigt ihre Bereitschaft, ihre Produktionszeiten flexibel an die Verfügbarkeit von erneuerbarem Strom anzupassen. Dies ist laut den Forschenden eine wichtige Voraussetzung für die Stabilisierung und effiziente Nutzung künftiger erneuerbarer Energiesysteme.
Ihre Schlussfolgerung ist, dass Industrie 4.0 nur mit politischer Unterstützung zu Umweltverbesserungen führen wird. „Unsere Studie zeigt, dass die Umsetzung des Konzepts Industrie 4.0 vor dem Hintergrund der UN-Nachhaltigkeitsziele kritisch hinterfragt werden sollte: Die reine Digitalisierung von Unternehmensprozessen wird für einen Übergang zu einer nachhaltigen Wirtschaft nicht reichen. Damit das volle Potenzial der Digitalisierung für die Nachhaltigkeit genutzt wird, braucht es ergänzend eine Kombination aus Regulierung und Anreizen, wozu auch die Festlegung verbindlicher Ziele für die Einsparung von Energie und Material gehört“, erklärt Grischa Beier. Auch wenn die Ergebnisse ein gemischtes Bild zeichnen, werde doch deutlich, dass die breite Umsetzung von Industrie 4.0 Chancen für mehr ökologische Nachhaltigkeit von Unternehmen bietet.
Wissenschaftliche Ansprechpartner:
Dr. Grischa Beier
Telefon: +49 331 28822 380
E-Mail: grischa.beier@iass-potsdam.de
Originalpublikation:
Beier, G., Matthess, M., Guan, T., Grudzien, D. I. d. O. P., Xue, B., Lima, E. P. d., Chen, L. (2022): Impact of Industry 4.0 on corporate environmental sustainability: Comparing practitioners’ percep-tions from China, Brazil and Germany. – Sustainable production and consumption, 31, 287-300.
https://doi.org/10.1016/j.spc.2022.02.017
Mit dem Laser gegen Mikroplastik
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Bislang sind Kläranlagen kaum in der Lage, die winzigen Mikroplastikteile im Abwasser ausreichend herauszufiltern. Nun wird der erste lasergebohrte Mikroplastikfilter in einem Klärwerk getestet. Er enthält Bleche mit extrem kleinen Löchern von nur zehn Mikrometern Durchmesser. Die Technologie, um Millionen von Löchern effizient zu bohren, wurde am Fraunhofer-Institut für Lasertechnik ILT entwickelt. Dort arbeitet man jetzt an der Skalierung der Ultrakurzpuls-Lasertechnologie im kW-Bereich. Auf dem Fraunhofer-Stand A6.441 der LASER World of PHOTONICS erfahren Besucher mehr über den Mikroplastikfilter und die Ultrakurzpuls-Laser.
Nachhaltigkeit ist heute keine Option, sondern eine Pflicht für jede Technologieentwicklung. Dementsprechend werden auch in der Laserbranche viele Projekte vorangetrieben, um diese Technologie für nachhaltige Zwecke zu nutzen. Schon heute ermöglichen Laser höhere Wirkungsgrade in der Wasserstofftechnologie ebenso wie absolut dichte Batteriegehäuse in der Elektromobilität.
Im BMBF-geförderten Projekt »SimConDrill« hat sich das Fraunhofer ILT mit Industriepartnern zusammengeschlossen, um erstmals einen Abwasserfilter für Mikroplastik zu bauen. »Im Kern ging es darum, möglichst viele möglichst kleine Löcher in kürzester Zeit in eine Stahlfolie zu bohren« erklärt Andrea Lanfermann, Projektleiterin am Fraunhofer ILT, die Herausforderung.
Mobile Filteranlage im Klärwerk
Das ist gelungen. Im Rahmen des Projekts bohrten nach der Prozessentwicklung am Fraunhofer ILT die Expertinnen und Experten der LaserJob GmbH 59 Millionen Löcher mit zehn Mikrometern Durchmesser in ein Filterblech und schufen so einen Filter-Prototypen. Für das ambitionierte Projekt arbeiten die Fraunhofer-Forschenden noch mit drei weiteren Firmen zusammen. Neben dem Projektkoordinator KLASS Filter GmbH sind außerdem die LUNOVU GmbH und die OptiY GmbH beteiligt. Inzwischen wurden die lasergebohrten Metallfolien in den patentierten Zyklonfilter der KLASS Filter GmbH eingebaut und umfangreichen Tests unterzogen. Im ersten Versuch wurde mit dem feinen Pulver von 3D-Druckern verunreinigtes Wasser filtriert. Der Aufbau wird jetzt unter realen Bedingungen in einem Klärwerk getestet.
Prozesswissen ist der Schlüssel
Millionen Löcher nacheinander zu bohren, dauert seine Zeit. Schneller geht es mit dem Multistrahlverfahren, bei dem aus einem Laserstrahl über eine spezielle Optik eine Matrix von identischen Strahlen erzeugt wird. Am Fraunhofer ILT hat man so mit einem Ultrakurzpulslaser (TruMicro 5280 Femto Edition) mit 144 Strahlen gleichzeitig gebohrt. Die Basis für solche Anwendungen ist ein detailliertes Prozesswissen. Das wurde am Fraunhofer ILT über Jahrzehnte gesammelt und in entsprechende Modelle und Software umgesetzt. Damit lassen sich alle Parameter am Computer variieren, und optimale Prozessparameter werden schnell gefunden. Auch die Robustheit des Prozesses lässt sich so vor dem Applikationsversuch analysieren.
Parallel zu dieser Bohranwendung arbeitet ein Konsortium aus sechs Partnern an der Umsetzung einer industriellen Maschine zur Multistrahlbearbeitung. Im EU-Projekt »MutiFlex« erhöhen Forschende unter Industriebeteiligung die Produktivität der scannerbasierten Lasermaterialbearbeitung mittels Multistrahlverfahren. Das Besondere besteht bei diesem Vorhaben darin, dass alle Teilstrahlen individuell angesteuert und somit für die Herstellung beliebiger Oberflächenstrukturen genutzt werden können. Ziel ist es, die Geschwindigkeit des Prozesses um das Zwanzig- bis Fünfzigfache zu steigern und somit die Wirtschaftlichkeit des gesamten Verfahrens signifikant zu erhöhen.
CAPS: Skalierung in den kW-Bereich
Das Prozesswissen ist auch ein entscheidender Faktor bei der weiteren Skalierung der Materialbearbeitung mit ultrakurzen (UKP) Laserpulsen mit oder ohne Multistrahloptik. Wenn die Leistung in den Kilowattbereich erhöht wird, kann es zu einer thermischen Schädigung des Werkstücks kommen. Solche Effekte werden durch komplexe Simulationen erforscht, die Prozesse können entsprechend angepasst werden.
Die Laser für solche Versuche stehen im Applikationslabor am Fraunhofer ILT in Aachen zur Verfügung. Sie gehören zum Fraunhofer Cluster of Excellence Advanced Photon Sources CAPS, in dem 13 Fraunhofer-Institute gemeinsam Laserstrahlquellen, Prozesstechnik und Anwendungen für UKP-Laserleistungen bis 20 kW entwickeln. Ein zweites CAPS-Labor wird am Fraunhofer IOF in Jena betrieben.
Fraunhofer Know-how auf der LASER World of PHOTONICS
Auf der Photonik-Weltleitmesse LASER World of PHOTONICS in München werden neben dem lasergebohrten Mikroplastikfilter weitere Highlights des Fraunhofer Clusters ausgestellt. Vom 26. bis zum 29. April 2022 stehen Expertinnen und Experten auf den Fraunhofer-Ständen B4.239 und A6.441 für Auskünfte rund um die Ultrakurzpuls-Lasertechnologie, die Erzeugung von Sekundärstrahlung von THz bis Röntgen und die wegweisenden Anwendungen dieser Technologien zur Verfügung.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/mit-dem-…
Ein einziges Gen steuert die Artenvielfalt in einem Ökosystem
Kurt Bodenmüller Kommunikation
Universität Zürich
Ein einzelnes Gen kann ein ganzes Ökosystem beeinflussen. Das zeigt ein Forscherteam der Universität Zürich in einem Laborexperiment mit einer Pflanze und dem dazugehörigen Ökosystem von Insekten. So fördern Pflanzen mit einer Mutation in einem bestimmten Gen Ökosysteme mit mehr Insektenarten. Die Entdeckung eines solchen «Schlüsselgens» könnte die derzeitigen Strategien zur Erhaltung der biologischen Vielfalt verändern.
Vor mehr als fünfzig Jahren entdeckte der amerikanische Ökologe Robert Paine an der Küste eines felsigen Gezeitenbeckens, dass Struktur und Funktion eines Ökosystems dramatisch verändert werden können, wenn eine einzige Art entfernt wird. Paine hatte herausgefunden, dass Seesterne als Schlüsselart fungieren, da ihre Anwesenheit und ihre Rolle als Raubtier zuoberst in der Nahrungskette die Koexistenz verschiedener Arten im felsigen Ökosystem aufrechterhalten.
Pflanzen-Abwehrgene in vereinfachtem Labor-Ökosystem getestet
Nun berichtet ein Team von Ökologen und Genetikern der Universität Zürich (UZH) und der University of California in Science, dass auch eine Mutation in einem einzigen Gen die Struktur und Funktion eines Ökosystems dramatisch verändern kann. Ein Gen enthält somit nicht nur Informationen, die für die Fitness eines Organismus entscheidend sind, sondern kann auch das Fortbestehen von interagierenden Arten in einer ökologischen Gemeinschaft beeinflussen. Die Entdeckung von Jordi Bascompte, UZH-Professor am Departement für Evolutionsbiologie und Umweltwissenschaften, und seinem Team wurde anhand eines experimentellen Ökosystems im Labor mit einem Räuber (einer parasitären Wespe), zwei Pflanzenfressern (Blattläusen) und der Pflanze Arabidopsis thaliana – einem genetischen Modellorganismus – gemacht.
Schlüsselgen bewahrt Ökosystem vor Zusammenbruch
Die Wissenschaftler testeten die Wirkung von drei Pflanzengenen, die das natürliche Arsenal der chemischen Abwehrkräfte der Pflanze gegen Frassinsekten steuern. Sie fanden heraus, dass die Pflanzenfresser und Raubtiere in ihrer Versuchsgemeinschaft eher auf Pflanzen mit einer Mutation an einem einzigen Gen namens AOP2 überlebten. «Diese natürliche Mutation im AOP2-Gen beeinflusste nicht nur die Chemie der Pflanze, sondern liess sie auch schneller wachsen. Das wiederum förderte die Koexistenz von Pflanzenfressern und Raubtieren und verhinderte so den Zusammenbruch des Ökosystems», sagt UZH-Wissenschaftler und Erstautor Matt Barbour. Ähnlich wie bei einer Schlüsselart wie dem Seestern fungiert AOP2 als «Schlüsselgen», das für das Überleben des experimentellen Ökosystems unerlässlich ist.
Auswirkungen auf Schutz der biologischen Vielfalt
Die Entdeckung eines solchen Schlüsselgens dürfte Auswirkungen darauf haben, wie die biologische Vielfalt in einer sich verändernden Welt erhalten werden kann. «Insbesondere sollte das Wissen aus der Genetik und den ökologischen Netzwerken integriert werden, um die Folgen genetischer Veränderungen für den Fortbestand der biologischen Vielfalt auf verschiedenen Ebenen vorherzusagen», sagt Barbour. Einerseits könnten Individuen mit verschiedenen Varianten eines Gens oder sogar genetisch veränderte Organismen zu bestehenden Populationen hinzugefügt werden, um vielfältigere und widerstandsfähigere Ökosysteme zu fördern. Andererseits könnte eine scheinbar kleine genetische Veränderung eine Kaskade unbeabsichtigter Folgen für die Ökosysteme auslösen, wenn diese nicht vorher eingehend untersucht werden.
«Wir fangen gerade erst an zu verstehen, welche Folgen genetische Veränderungen für das Zusammenspiel und die Koexistenz von Arten haben. Unsere Ergebnisse zeigen, dass der derzeitige Verlust der genetischen Vielfalt kaskadenartige Auswirkungen haben kann, die zu abrupten und katastrophalen Veränderungen im Fortbestand und in der Funktionsweise von Land-Ökosystemem führen können», so Barbour.
Wissenschaftliche Ansprechpartner:
Dr. Matt Barbour
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 78 696 34 74
E-Mail: matthew.barbour@ieu.uzh.ch
Prof. Dr. Jordi Bascompte
Institut für Evolutionsbiologie und Umweltwissenschaften
Universität Zürich
Tel. +41 44 635 61 26
E-Mail: jordi.bascompte@ieu.uzh.ch
Originalpublikation:
Matthew A. Barbour, Daniel J. Kliebenstein, Jordi Bascompte. A keystone gene underlies the persistence of an experimental food web. Science. March 31, 2022. DOI: 10.1126/science.abf2232
Weitere Informationen:
https://www.media.uzh.ch/de/medienmitteilungen/2022/Schlüsselgen.html
Studie zeigt: Fische können rechnen
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Buntbarsche und Stachelrochen können im Zahlenraum bis Fünf einfache Additionen und Subtraktionen durchführen. Das zeigt eine aktuelle Studie der Universität Bonn, die nun in der Zeitschrift Scientific Reports erschienen ist. Wozu die Tiere ihre mathematischen Fähigkeiten benötigen, ist nicht bekannt.
Mal angenommen, auf der Tischplatte vor Ihnen liegen einige Münzen. Bei einer kleinen Anzahl können Sie auf Anhieb sagen, wieviele es genau sind. Sie müssen sie dazu nicht einmal zählen – ein einziger Blick reicht Ihnen. Buntbarsche und Stachelrochen sind uns in diesem Punkt erstaunlich ähnlich: Auch sie sind dazu in der Lage, kleine Mengen exakt zu erfassen – und zwar vermutlich ebenfalls ohne zu zählen. Sie lassen sich zum Beispiel so trainieren, dass sie zuverlässig Dreier- von Vierermengen unterscheiden.
Diese Tatsache ist schon seit einiger Zeit bekannt. Die Arbeitsgruppe um Prof. Dr. Vera Schlüssel vom Institut für Zoologie der Universität Bonn hat nun aber gezeigt, dass beide Arten sogar rechnen können. „Wir haben den Tieren beigebracht, einfache Additionen und Subtraktionen durchzuführen“, erklärt Schlüssel. „Dabei mussten sie einen Ausgangswert um eins erhöhen oder vermindern.“
Blau heißt „addiere eins“, gelb „ziehe eins ab“
Doch wie fragt man einen Buntbarsch nach dem Ergebnis von „2+1“ oder „5-1“? Die Forschenden nutzten dazu eine Methode, mit der andere Arbeitsgruppen bereits erfolgreich die mathematischen Fähigkeiten von Bienen getestet hatten: Sie zeigten den Fischen eine Ansammlung geometrischer Formen – zum Beispiel vier Quadrate. Waren diese Objekte blau gefärbt, bedeutete das „addiere eins“. Gelb hieß dagegen „subtrahiere eins“.
Danach wurde die Aufgabe ausgeblendet. Stattdessen bekamen die Tiere zwei neue Abbildungen zu sehen – eine mit fünf und eine mit drei Quadraten. Schwammen sie zu dem richtigen Bild (also bei der „blauen“ Rechenaufgabe zu den fünf Quadraten), wurden sie mit Futter belohnt. Bei der falschen Antwort gingen sie leer aus. Mit der Zeit lernten sie so, die blaue Farbe mit der Erhöhung der anfangs gezeigten Menge um eins zu assoziieren, die gelbe Zahl dagegen mit ihrer Verminderung.
Doch konnten die Fische diese Erkenntnis auch auf neue Aufgaben anwenden? Hatten sie also tatsächlich die mathematische Regel hinter den Farben verinnerlicht? „Um das zu überprüfen, hatten wir beim Training einige Berechnungen absichtlich ausgelassen“, erklärt Schlüssel. „Und zwar 3+1 und 3-1. Nach der Lernphase bekamen die Tiere diese beiden Aufgaben zum ersten Mal zu sehen. Und auch in diesen Fällen schwammen sie meistens zu den korrekten Ergebnissen.“ Das galt sogar dann, wenn sie sich nach der Aufgabe „3+1“ zwischen vier und fünf Objekten entscheiden mussten – also zwei Resultaten, die beide größer waren als der Ausgangswert.
Rechnen ohne Großhirnrinde
Diese Leistung hat die Forschenden selbst überrascht – zumal die gestellten Aufgaben in der Realität sogar noch ein Stück schwieriger waren als eben geschildert. So bekamen die Fische nicht Objekte derselben Form gezeigt (also etwa vier Quadrate), sondern eine Kombination unterschiedlicher Formen. Eine „Vier“ konnte zum Beispiel durch einen kleinen und einen größeren Kreis, ein Quadrat und ein Dreieck repräsentiert werden, in einer anderen Berechnung dagegen durch drei unterschiedlich große Dreiecke und ein Quadrat.
„Die Tiere mussten also die Menge der abgebildeten Objekte erkennen und zugleich aus ihrer Farbe auf die Rechenvorschrift schließen“, sagt Schlüssel. „Sie mussten beides im Arbeitsgedächtnis behalten, als das ursprüngliche Bild gegen die beiden Ergebnisbilder ausgetauscht wurde. Und sie mussten sich danach für das richtige Resultat entscheiden. Insgesamt ist das eine Leistung, die komplexe Denkfähigkeiten erfordert.“
Das ist auch deshalb erstaunlich, weil Fische keinen Neocortex besitzen – den Teil des Gehirns, der auch als „Großhirnrinde“ bekannt ist und bei uns für die meisten komplexen kognitiven Aufgaben zuständig ist. Zudem ist von beiden Fischarten nicht bekannt, dass sie in ihrer ökologischen Nische ein besonders gutes Zahlenverständnis benötigen würden. Andere Arten mögen auf die Streifenzahl ihrer Sexualpartner achten oder die Menge der Eier in ihrem Gelege. „Von Stachelrochen und Buntbarsche kennt man das jedoch nicht“, betont die Zoologie-Professorin der Universität Bonn.
Sie sieht in dem Ergebnis der Experimente auch eine Bestätigung dafür, dass wir Menschen dazu neigen, andere Spezies zu unterschätzen – insbesondere solche, die nicht zu unserer engeren Verwandtschaft zählen. Fische sind zudem nicht besonders niedlich und haben auch kein kuschliges Fell oder Gefieder. „Entsprechend weit unten stehen sie in unserer Gunst – und entsprechend wenig scheren wir uns darum, wenn sie etwa im industriellen Fischfang qualvoll verenden“, sagt Vera Schlüssel.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Vera Schlüssel
Institut für Zoologie der Universität Bonn
Tel. +49 228 735476
E-Mail: vschlu@uni-bonn.de
Originalpublikation:
V. Schluessel, N. Kreuter, I. M. Gosemann & E. Schmidt: Cichlids and stingrays can add and subtract ‘one’ in the number space from one to five; Scientific Reports; https://doi.org/10.1038/s41598-022-07552-2
Einfluss von Handystrahlung auf die Nahrungsaufnahme nachgewiesen
Vivian Upmann Informations- und Pressestelle
Universität zu Lübeck
Wissenschaftlerinnen der Universität zu Lübeck decken Einfluss von Handystrahlung auf Gehirnstoffwechsel und Nahrungsaufnahme auf
Handys sind aus der heutigen Zeit nicht mehr wegzudenken. Insbesondere bei Kindern und Jugendlichen kann die vermehrte Nutzung des beliebten Kommunikations- und Spielgerätes auf mehreren Ebenen problematisch sein. Die von Handys ausgesandte Strahlung wird zu großen Teilen vom Kopf absorbiert und kann dadurch u.a. Auswirkungen auf Stoffwechsel und Verarbeitungsprozesse im Gehirn haben. Ob es einen direkten Zusammenhang zwischen Handystrahlung und Nahrungsaufnahme geben könnte, hat Frau Prof. Dr. Kerstin Oltmanns, Leitern der Sektion für Psychoneurobiologie der Universität zu Lübeck, mit ihrem Forschungsteam in einer Studie untersucht.
Aus früheren Studien war bereits bekannt, dass elektromagnetische Strahlung bei Ratten zu einer erhöhten Nahrungsaufnahme führt. Ob ein solcher Zusammenhang möglicherweise auch für Handystrahlung beim Menschen besteht, untersuchte Prof. Kerstin Oltmanns zusammen mit Diplompsychologin Ewelina Wardzinski, Leiterin der Studie, im Rahmen einer DFG-geförderten Beobachtungsstudie, die in der Fachzeitschrift Nutrients veröffentlicht wurde.
Durchdachtes Versuchsdesign
15 junge Männer wurden mit einem Abstand von zwei Wochen insgesamt dreimal einbestellt. Im Experiment wurden die Probanden dann mit zwei verschiedenen Handys als Strahlungsquelle bestrahlt bzw. einer Scheinbestrahlung als Kontrolle ausgesetzt. Im Anschluss durften sich die Probanden für eine definierte Zeit an einem Buffet bedienen. Gemessen wurde die spontane Nahrungsaufnahme, der Energiestoffwechsel des Gehirns anhand von Phosphor-Magnetresonanz-Spektroskopie (MRS) sowie verschiedene Blutwerte vor und nach Bestrahlung.
Erstaunliches Ergebnis
Das Forschungsteam kam zu überraschend deutlichen Ergebnissen: Die Strahlung führte bei fast allen Probanden zu einer Erhöhung der Gesamtkalorienzufuhr um 22 Prozent bzw. 27 Prozent durch die jeweiligen Versuchshandys. Die Blutanalysen zeigten, dass dies vor allem durch eine vermehrte Kohlenhydrat-Aufnahme verursacht wurde. Die MRS-Messungen ergaben eine Steigerung des Energieumsatzes im Gehirn unter Einfluss der Handystrahlung.
Neues Licht auf den Umgang mit Handys
Das Forschungsteam schließt aus diesen Ergebnissen, dass Handystrahlen nicht nur einen potenziellen Faktor für übermäßiges Essen beim Menschen darstellen, sondern dass sie auch die Energiehomöostase des Gehirns beeinflussen. Diese Erkenntnisse könnten neue Wege für die Adipositas- und andere neurobiologische Forschung eröffnen. Insbesondere in Bezug auf Kinder und Jugendliche wird der hier nachgewiesene Einfluss von Handystrahlung auf das Gehirn und das Essverhalten die Forschung auf diesem Gebiet zukünftig mehr in den Fokus rücken.
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Dipl.-Päd. Kerstin M. Oltmanns
Universität zu Lübeck
Sektion für Psychoneurobiologie
Email: oltmanns@pnb.uni-luebeck.de
Originalpublikation:
Wardzinski EK, Jauch-Chara K, Haars S, Melchert UH, Scholand-Engler HG, Oltmanns KM, (2022): Mobile Phone Radiation Deflects Brain Energy Homeostasis and Prompts Human Food Ingestion. Nutrients 14, 339
https://www.mdpi.com/2072-6643/14/2/339
Weitere Informationen:
https://www.uni-luebeck.de/aktuelles/pressemitteilung/artikel/einfluss-von-handy…
Detektion von Wasserstoff durch Glasfasersensoren
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Wasserstoff spielt in der deutschen Energie- und Klimapolitik eine zentrale Rolle. Kommt er zum Einsatz, sind Sicherheitsmaßnahmen von entscheidender Bedeutung. Denn im Unterschied zu anderen gasförmigen oder flüssigen Energieträgern besteht bei Wasserstoff neben einer erhöhten Brandgefahr durch Leckagen unter bestimmten Bedingungen auch Explosionsgefahr. Um die Sicherheit im Umgang mit Wasserstoff noch weiter zu erhöhen, arbeiten Forschende am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI an Glasfaser-basierten Sensoren zu dessen Detektion, die herkömmlichen Sensoren in vielerlei Hinsicht überlegen sind.
Um die gesetzten Klimaziele zu erreichen und die globale Erwärmung einzudämmen, müssen alle Staaten den Anteil an fossilen Energieträgern schnellstmöglich auf ein Minimum reduzieren. Als nachhaltige Alternative wird verstärkt auf Wasserstofftechnologien gesetzt – vor allem im Produktions- und Mobilitätssektor. Überall wo mit Wasserstoff gearbeitet wird, er gelagert, transportiert und weitergeleitet wird, dürfen entsprechende Sicherheitsvorkehrungen nicht fehlen. Denn obwohl Wasserstoff nicht giftig ist, er weniger wiegt als Luft und somit nach oben steigt, kann es zu gefährlichen Situationen kommen: Überschreitet nämlich die Wasserstoffkonzentration in der Luft einen Schwellenwert von vier Prozent, was bei ausreichend Druck in einem Wasserstofftank oder bei mangelnder Belüftung eines Raumes schnell erreicht werden kann, genügt eine kleine Zündquelle, ein einzelner Funken, um eine Explosion auszulösen.
Klein, gut integrierbar und ohne immanentes Sicherheitsrisiko
Dies gilt es vorausschauend zu verhindern und Dr. Günter Flachenecker, Senior Scientist am Fraunhofer HHI, weiß, wie. An der Außenstelle Abteilung Faseroptische Sensorsysteme des Fraunhofer HHI in Goslar forscht der promovierte Physiker zusammen mit seinem Team an Möglichkeiten zur Wasserstoffdetektion mithilfe von Sensoren aus Glasfasern: »Herkömmliche Sicherheitssensoren, die zur Erfassung von Wasserstoff derzeit kommerziell verfügbar sind – das sind in der Regel katalytische Wärmetönungssensoren oder elektrochemische Zellen –, benötigen eine elektrische Stromversorgung. Beide Varianten könnten so, wenn das Gerät oder die elektrischen Zuleitungen einen Defekt aufweisen, im schlimmsten Fall selbst als Zündquelle die Explosion auslösen, die sie eigentlich verhindern sollten«, erklärt Flachenecker. »Bei unseren Glasfasersensoren besteht diese Gefahr nicht. Gleichzeitig müssen sie nicht aufwändig verkabelt werden, sind klein und lassen sich gut in verschiedenste Strukturen der zu überwachenden Anlage oder des Fahrzeugs integrieren.«
Lichtleitende Glasfasern sind aufgrund ihres geringen Durchmessers von etwa einem Viertel Millimeter und ihrer Robustheit geradezu prädestiniert für sensorische Applikationen in einer sicherheitsrelevanten Umgebung. Damit eine Glasfaser zum Wasserstoffsensor wird, muss sie an verschiedenen Stellen modifiziert werden. Hierfür werden zunächst mit einem Laser bestimmte Strukturen in den Glasfaserkern eingeprägt, sodass ein sogenanntes Faser-Bragg-Gitter entsteht – eine periodische Brechungsindexmodulation, die dafür sorgt, dass Licht bei einer bestimmten Wellenlänge reflektiert wird.
Dass die Glasfaser nun speziell auf Wasserstoff reagiert, wird erreicht, indem rund um den Glasfasermantel eine spezifische funktionelle Beschichtung aufgetragen wird: »Wir arbeiten mit katalytischen Schichten, zum Beispiel Palladium oder Palladiumlegierungen«, so Flachenecker. »Palladium hat die Eigenschaft, dass es Wasserstoff aufsaugt, ähnlich wie ein Schwamm. Sobald die beiden Stoffe aufeinandertreffen, zerfällt der Wasserstoff in seine atomaren Fragmente und die freigesetzten Wasserstoffatome dringen in das Kristallgerüst des Palladiums ein. Dies führt zu einer Dehnung in der Glasfaser, die sich über das eingebaute Faser-Bragg-Gitter augenblicklich als Veränderung in den rückgemeldeten Lichtimpulsen messen lässt. Sobald die Wasserstoffkonzentration in der Luft dann wieder abnimmt, löst sich der Wasserstoff auch wieder aus dem Palladium.« Die Beschichtung trägt dadurch also keinen Schaden davon und der Sensor kann wiederverwendet werden. Gleichzeitig funktioniere der beschriebene Vorgang nur, weil Wasserstoffatome sehr klein sind, betont Flachenecker. Andere Stoffe können auf diesem Wege nicht in die Palladiumschicht eindringen.
Potenzial in vielen verschiedenen Anwendungskontexten
Doch das ist nicht die einzige Methode, die von den Forschenden getestet wurde. So ist eine Wasserstoffdetektion auch mit Glasfasern möglich, deren Mantel weggeätzt wurde, oder mit einer sehr dünnen Schicht aus Nanopartikeln, die auf den Glasfasermantel aufgetragen werden. »Das ist eine große Spielwiese und es gibt einiges, was wir noch ausprobieren wollen«, sagt Flachenecker. »Entscheidend ist es für uns, Möglichkeiten zur Wasserstoffdetektion zu finden, die schnell genug sind, um Unfälle zu verhindern, und die zuverlässig im benötigten Empfindlichkeitsbereich reagieren. Und da sind wir aktuell auf einem sehr guten Weg.«
In der Praxis könnten die neuen Glasfasersensoren zum Beispiel integraler Bestanteil von Fahrzeugen mit Wasserstoffantrieb werden und zur Überwachung von Wasserstofftankstellen, Autowerkstätten oder Elektrolyseuren eingesetzt werden. Auch der Aufbau eines größeren Sensornetzwerks, das eine Wasserstoff-Infrastruktur an vielen Stellen gleichzeitig überwacht, ließe sich leicht umsetzen. Die Elektronik für die Messdatenaufnahme, also zum Beispiel ein Spektrometer für die optische Auswertung der Glasfasersensoren, kann räumlich beliebig weit entfernt an einem sicheren Ort installiert sein. Wird eine bestimmte Wasserstoffkonzentration überschritten und der Sensor schlägt an, so wird das je nach konkretem Anwendungsfall angebundene Alarmmanagement ausgelöst und spezifische Maßnahmen, zum Beispiel ein akustisches Warnsignal, das Schließen von Ventilen oder das Öffnen von Fenstern können in Sekundenschnelle eingeleitet werden.
Das derzeitige Forschungsprojekt unter der Leitung von Günter Flachenecker wird vom Bundesministerium für Wirtschaft und Klimaschutz gefördert und findet in Kooperation mit einem lokalen Brandschutzunternehmen statt. Es startete vor zwei Jahren und endet nach einem derzeit noch nicht abgeschlossenen Praxistest, bei dem die Glasfasersensoren in LKWs eingebaut werden, im Sommer. Anschließend ist ein Folgeprojekt geplant, in dem die neuen Sensoren noch ausführlicher getestet und weitere vorbereitende Schritte in Richtung Zertifizierung und Kommerzialisierung unternommen werden sollen. Das Ziel ist klar: Ein noch sichereres und unfallfreies Arbeiten mit Wasserstoff.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/detektio…
H2Wood – BlackForest: Biowasserstoff aus Holz | BMBF fördert Vorhaben zur Einsparung von CO2 mit 12 Millionen Euro
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Eine klimaneutrale Kreislaufwirtschaft auf der Basis von Holz ist das Ziel des Verbundprojekts »H2Wood – BlackForest«, das vom BMBF mit 12 Millionen Euro gefördert wird. Hierfür entwickelt das Fraunhofer IGB ein biotechnologisches Verfahren, um aus Holzabfällen Wasserstoff und biobasierte Koppelprodukte herzustellen. Beim Projektpartner Campus Schwarzwald in Freudenstadt wird das Verfahren in einer eigens dafür ausgelegten Anlage demonstriert. Um aufzuzeigen, wie der regenerative Energieträger durch lokale Betriebe und Energieversorger genutzt werden kann, erstellen Fraunhofer IPA und die Universität Stuttgart im Projekt eine Wasserstoff-Roadmap für die Schwarzwaldregion.
Holz ist das wichtigste Wirtschaftsgut des Schwarzwalds. Bei der Verarbeitung zu Möbeln und Baustoffen, aber auch beim Abbruch von Gebäuden fallen regional beachtliche Mengen an Holzabfällen an. Diese werden derzeit zum Teil kostenintensiv entsorgt und in Holzverbrennungsanlagen allenfalls energetisch genutzt.
Auf der anderen Seite gilt »grüner« Wasserstoff (H2), der mittels Elektrolyse von Wasser mit erneuerbaren Energien hergestellt wird, als Schlüsselelement der Energiewende. Der Bedarf an regenerativ erzeugtem Wasserstoff für eine klimafreundliche Wirtschaft in Industrie, Verkehr und Wärmeversorgung ist enorm. Deutschland und Europa setzen daher vor allem auf Wasserstoffimporte aus südlichen Ländern mit ganzjährig ausreichender Sonneneinstrahlung.
Seit August 2021 schlägt die Region Schwarzwald einen neuen Weg ein, der die Nutzung regionaler Holzabfälle mit der Herstellung von regenerativem Wasserstoff verbindet. »Nach dem Ansatz der Bioökonomie wollen wir mithilfe biotechnologischer Prozesse klimaneutralen Biowasserstoff sowie zusätzlich verwertbare Stoffe wie Carotinoide oder Proteine aus Altholz und Holzabfällen herstellen«, erläutert Dr. Ursula Schließmann vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die das Verbundvorhaben »H2Wood – BlackForest« koordiniert. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt zur Kreislaufwirtschaft regionaler Ressourcen in der Region Schwarzwald bis Mitte 2024 mit rund 12 Millionen Euro. Partner im Forschungsverbund sind neben dem Fraunhofer IGB auch das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, das Institut für industrielle Fertigung und Fabrikbetrieb IFF der Universität Stuttgart sowie das Centrum für Digitalisierung, Führung und Nachhaltigkeit Schwarzwald gGmbH (Campus Schwarzwald).
Kaskadennutzung von Holz ermöglicht Klimaneutralität
»Ziel der Initiative ist es, mithilfe eines umfassenden Konzepts für eine nachhaltige und innovative Versorgung des Schwarzwalds mit Biowasserstoff CO2-Emissionen einzusparen und die Region bei der Erreichung ihrer Klimaziele zu unterstützen«, führt Stefan Bogenrieder, Geschäftsführer von Campus Schwarzwald, aus. Kohlenstoffdioxid wird dabei auf zweierlei Wegen eingespart: Zum einen ersetzt der regenerative Biowasserstoff bisherige fossile Energieträger, zum anderen werden Rest- und Altholz nicht nur Wasserstoff liefern. Durch den neuen biotechnologischen Ansatz wird die energetische Verwertung der Holzabfälle zu Wasserstoff mit einer stofflichen Nutzung verknüpft. »Das aus dem Holz freigesetzte CO2 wird in Form von kohlenstoffbasierten Koppelprodukten gebunden und damit zurück in den natürlichen Kohlenstoffkreislauf geführt«, erläutert Umweltexpertin Schließmann.
Eine Wasserstoff-Roadmap für die Region Schwarzwald
Welche Mengen an Rest- und Altholz fallen im holzverarbeitenden Gewerbe und den Kommunen überhaupt an, wieviel Wasserstoff ließe sich daraus erzeugen und wie groß wäre das Einsparpotenzial an CO2-Emissionen? Diesen Fragen geht das Projektteam in Potenzialanalysen auf den Grund. Zugleich untersuchen die Partner, wie der erzeugte Wasserstoff am besten gespeichert, transportiert und genutzt werden kann. Denn Wasserstoff ist nicht nur flexibler Energiespeicher, sondern auch als Kraftstoff für Fahrzeuge, Brennstoff für Hochöfen und Brennstoffzellen sowie als Grundstoff für zahlreiche industrielle Prozesse und chemische Folgeprodukte einsetzbar.
»Hierzu analysieren und bewerten wir den Energieverbrauch der Industrie, der Haushalte sowie des Nah- und Fernverkehrs und leiten daraus Potenziale einer dezentralen Wasserstofferzeugung und -nutzung innerhalb der Region Schwarzwald ab«, sagt Dr. Erwin Groß vom Fraunhofer IPA. »Die Ergebnisse aller Erhebungen und Berechnungen fassen wir in einer Wasserstoff-Roadmap für die Region Schwarzwald zusammen«, so Groß.
Verfahren und Demonstrationsanlage zur Produktion von Biowasserstoff
Bislang existiert keine Anlage, die Biowasserstoff in größerem Maßstab herstellt. Am Fraunhofer IGB werden daher die dazu notwendigen Prozesse entwickelt und experimentell untersucht, bevor sie in einer integrierten Anlage am Campus Schwarzwald in Freudenstadt umgesetzt werden können. Der erste Schritt und Voraussetzung für die biotechnologische Umwandlung ist die Vorbehandlung des Alt- und Restholzes.
»Wir stehen hier vor einer ziemlichen Herausforderung, denn Holzabfälle aus Hausabbruch, Möbelbau und Baustoffproduktion, darunter Span- oder MDF-Platten, enthalten Klebstoffe wie Harze und Phenole oder auch Lacke. Diese chemischen Bestandteile müssen wir zunächst entfernen, damit die Bakterien und Mikroalgen, also die Akteure der biotechnologischen Wasserstoffproduktion, ihre Arbeit erledigen können«, erläutert Schließmann. Zudem muss das Holz noch in seine Bausteine zerlegt und die hierbei gewonnene Cellulose in einzelne Zuckermoleküle gespalten werden, welche den wasserstoffproduzierenden Mikroorganismen als Futter dienen.
Für die biotechnologische Umwandlung der Holzzucker werden am Fraunhofer IGB zwei Fermentationsverfahren etabliert und miteinander verknüpft. Das eine setzt auf wasserstoffproduzierende Bakterien, welche die Zuckerarten zu CO2, organischen Säuren und Ethanol verstoffwechseln. Die Stoffwechselprodukte der Bakterien stellen die Nahrung für die Mikroalgen dar. Diese synthetisieren daraus Carotinoide oder Proteine als Koppelprodukte und setzen dabei ebenfalls Wasserstoff frei.
Zum Projekt
Das Projekt H2Wood – BlackForest wird vom 1. August 2021 bis zum 31. Juli 2024 mit einer Gesamtsumme von 12 Millionen Euro durch das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Ideenwettbewerbs »Wasserstoffrepublik Deutschland« gefördert.
Projektpartner
Campus Schwarzwald
Der Campus Schwarzwald ist in der Region Schwarzwald der Ansprechpartner für Lehre, Forschung und Technologietransfer der Maschinenbau- und produzierenden Industrie mit Kompetenzen im Bereich der Digitalisierung, Führung und Nachhaltigkeit. Gemeinsam mit der Universität Stuttgart führt der Campus die Experteninterviews zur Datenerhe-bung der Wasserstoffkreislaufwirtschaft im Schwarzwald durch. Diese Interviews bilden die Basis für weitere Konzepte der technischen Realisierung zur Erzeugung von grünem Wasserstoff sowie deren wirtschaftlichen Verwertung. Das im Projekt H2Wood – BlackFo-rest entstehende Umsetzungskonzept sieht den Aufbau und den Verbundbetrieb der vom Fraunhofer IGB konzipierten Anlage zur Erzeugung von Biowasserstoff zentral am Campus Schwarzwald in Freudenstadt vor.
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, Stuttgart
Das Fraunhofer IGB entwickelt Verfahren, Technologien und Produkte für Gesundheit, nachhaltige Chemie und Umwelt. Mit der Kombination biologischer und verfahrenstech-nischer Kompetenzen und dem Systemansatz der Bioökonomie trägt das Institut zu einer nachhaltigen Kreislaufwirtschaft und intakten Umwelt bei. Im Projekt ist das Institut für die Entwicklung und Realisierung der Demonstratoren zur Fraktionierung und Verzucke-rung von Holz sowie zur biotechnologischen Konversion zu Wasserstoff und CO2-basierten Koppelprodukten zuständig.
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA, Stuttgart
Organisatorische und technologische Aufgaben aus der Produktion sind Forschungs-schwerpunkte des Fraunhofer IPA. Methoden, Komponenten und Geräte bis hin zu kompletten Maschinen und Anlagen werden entwickelt, erprobt und umgesetzt. Ziel der Forschung des Instituts ist die wirtschaftliche Produktion nachhaltiger und personalisierter Produkte. 16 Fachabteilungen arbeiten interdisziplinär, koordiniert durch sechs Ge-schäftsfelder, vor allem mit den Branchen Automotive, Maschinen- und Anlagenbau, Elektronik und Mikrosystemtechnik, Energie, Medizin- und Biotechnik sowie Prozessin-dustrie zusammen.
Universität Stuttgart, Institut für Industrielle Fertigung und Fabrikbetrieb IFF
Das IFF ist eng mit dem Fraunhofer IPA verbunden und arbeitet in gemeinsamen Projek-ten institutsübergreifend zusammen. Zudem lehrt und forscht das IFF u. a. im Bereich der industriellen Produktion und betrachtet hier verschiedene Energiesysteme. Hierbei spielen Produktionsstrategien sowie Wertschöpfungsnetze eine ebenso große Rolle wie neue Methoden der KI zur Flexibilisierung der Produktion und wie KI im Produktionsum-feld flächendeckend zum Einsatz kommen kann. Das Projektportfolio des IFF erstreckt sich dabei von der Erarbeitung konkreter technologischer Lösungen über Simulationen und Konzeptstudien bis zu Stakeholderprozessen und der Politikberatung.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Ursula Schließmann
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Nobelstr. 12; 70569 Stuttgart
Funktion am IGB: Koordinatorin Geschäftsfeld Umwelt
E-Mail: ursula.schliessmann@igb.fraunhofer.de
Telefon: +49 711 970-4222
Originalpublikation:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/h2wood-b…
Weitere Informationen:
http://Link zur Projektseite H2Wood:
https://www.igb.fraunhofer.de/de/referenzprojekte/h2wood.html
Fraunhofer-Projekt ML4P optimiert Effizienz der Industrieproduktion
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Verfahren der Künstlichen Intelligenz werden bisher verstärkt in Bereichen wie der Bildanalyse oder der Spracherkennung eingesetzt. Im Bereich der industriellen Produktion sind sie noch Mangelware. Mehrere Fraunhofer-Institute haben im Leitprojekt »ML4P – Machine Learning for Production« eine Lösung entwickelt, mit der die Industrieproduktion durch maschinelles Lernen deutlich effizienter wird. Die darauf basierende Software-Suite ist sehr flexibel und auch mit älteren Maschinen kompatibel.
Das produzierende Gewerbe ist eine der tragenden Säulen der deutschen Wirtschaft. Nach Angaben des Statistischen Bundesamts gab es 2017 mehr als 700 000 produzierende Unternehmen mit etwa 7,4 Millionen Beschäftigten und einem Umsatz von über 2 Billionen Euro. Zu dieser wirtschaftlichen Stärke tragen Unternehmen aus Branchen wie Automobilbau, Elektrotechnik, Maschinenbau, Nahrungsmittelproduktion, Kunststoff oder Chemie bei. Viele dieser Unternehmen nutzen große Geräteparks und komplexe Produktionsanlagen. Moderne Maschinen, ausgestattet mit umfangreicher Sensorik, liefern immer mehr Daten. Hierdurch ist ein großes Potenzial entstanden, die Produktion durch Analyse der Daten mithilfe von Künstlicher Intelligenz (KI) und Machine Learning (ML) zu optimieren
Ein Konsortium aus mehreren Fraunhofer-Instituten will nun das bisher weitgehend ungenutzte Potenzial für die Industrie nutzbar machen. Unter Federführung des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB haben sie im vierjährigen Leitprojekt »ML4P – Machine Learning for Production« eine leistungsfähige Lösung erstellt, mit der Unternehmen ihre Produktion auf Basis von ML-Technologien optimieren können. Der ML4P-Ansatz ist eine Kombination aus einem wissenschaftlich fundierten Vorgehensmodell und darauf aufbauenden Software-Tools. Ziel ist es, die Produktion schneller, energieeffizienter und ressourcenschonender zu gestalten. Die ML-basierten Software-Tools können beispielsweise durch die Analyse der Maschinendaten versteckte Zusammenhänge entdecken und damit eine Optimierung des Fertigungsprozesses initiieren. Durch ihre Lernfähigkeit sind sie zudem in der Lage, die Produktion kontinuierlich zu verbessern. Das kommt auch der Produktqualität zugute.
Vorgehensmodell in mehreren Phasen
Die Software ist dabei nur ein Teil des ML4P-Ansatzes. Eine entscheidende Grundlage ist das so genannte Vorgehensmodell. Christian Frey, Abteilungsleiter Mess-, Regelungs- und Diagnosesysteme am Fraunhofer IOSB und ML4P-Projektleiter, erklärt: »Wir überfallen die Unternehmen nicht mit einer fertigen Software-Lösung, sondern gehen mit unserem Vorgehensmodell gemeinsam mit dem Unternehmen methodisch und schrittweise vor.« Erster Schritt ist die Analyse des Ist-Zustands des Produktionsprozesses. Auf dieser Basis identifizieren die Experten mögliche Optimierungspotenziale, legen Ziele fest und erarbeiten ein Konzept für den Einsatz von ML4P. In einem nächsten Schritt überprüfen sie, ob das Konzept auf Grundlage der vorhandenen Maschinen und Daten wirklich funktioniert und wie das zu den Unternehmenszielen passt.
»Das Vorgehensmodell ist in mehrere, aufeinander aufbauende Phasen gegliedert. Die Entscheidung, ob ein Unternehmen sich wirklich für den Einsatz von ML4P entscheidet, fällt erst dann, wenn sicher ist, dass das Konzept funktioniert, gut umsetzbar und betriebswirtschaftlich sinnvoll ist«, sagt Lars Wessels, stellvertretender ML4P-Projektleiter.
Im nächsten Schritt werden die Prozessdaten der Anlagen und Maschinen in ein umfassendes, digitales Informationsmodell überführt. Ebenso wichtig wie die Daten ist dabei das Expertenwissen. Hier bringen Ingenieurinnen und Ingenieure ihre Kenntnisse über alle Prozessschritte, die Funktion und das Zusammenspiel aller Maschinen ein. Das Expertenwissen fließt in digitaler Form in eine ML4P-Verarbeitungspipeline zum Erlernen eines Prozessmodells ein. Erst danach folgen die Implementierung und der Probebetrieb. Am Schluss stehen die Übergabe und der Start in den Produktionsalltag.
Flexible Tools und Industriestandards
Für die Implementierung einer ML-optimierten Produktion stellt die Software-Suite eine Reihe Tools zur Verfügung, darunter auch generische Tools für typische Aufgaben wie die Überwachung des Betriebsstatus einer Maschine. Diese sind kompatibel zu einer Vielzahl industrieller Kommunikationsschnittstellen wie beispielsweise OPC UA (Open Platform Communications Unified Architecture). Wo immer möglich verzichten die Fraunhofer-Forschenden auf proprietäre Softwareprotokolle und setzen auf etablierte Standards und Programmierschnittstellen.
Skalierbarkeit und Flexibilität sind weitere Stärken des Konzepts. Nach der Inbetriebnahme sind die einzelnen Module jederzeit anpassbar, lernen mithilfe der eingehenden Maschinendaten laufend dazu und können so Optimierungspotenziale aufzeigen. Neue Anlagen lassen sich problemlos integrieren, ebenso wie die meisten älteren Maschinen, auch solche, die vielleicht schon 30 oder gar 40 Jahre alt sind. »Es kommt weniger auf die Maschine an als darauf, ob sie geeignete Daten liefern kann, etwa wenn sie mit Sensorik ausgestattet ist«, sagt Wessels. Auch kleinere Betriebe können ML4P einsetzen, selbst wenn sie nur bestimmte Abschnitte einer Fertigung optimieren wollen.
»Viele Unternehmen stehen dem Einsatz von Künstlicher Intelligenz oder ML noch skeptisch gegenüber, weil sie das enorme Potenzial von maschinellem Lernen für die Produktion noch nicht erkannt haben. Aber die modular aufgebaute Fraunhofer-Plattform bietet Eigenschaften wie Transparenz, Flexibilität und Skalierbarkeit. Dadurch sinken die Einstiegshürden«, sagt Frey.
Das ML4P-Team hat das Konzept bereits in verschiedenen Anwendungsdomänen erprobt. Am Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU wurden Lösungen für die Blechumformung entwickelt. Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF hat die Fertigung von Membranfiltern optimiert, und das Fraunhofer-Institut für Werkstoffmechanik IWM testete das Konzept bei einer Anlage zum Biegen von Glas. Viele Software-Tools wurden auf Basis dieser Praxistests bereits entwickelt.
»Wir sind sehr froh, dass das ambitionierte Projekt ML4P nach vier Jahren Arbeit erfolgreich abgeschlossen ist. Damit steht Unternehmen des produzierenden Gewerbes erstmals die Möglichkeit offen, das Optimierungspotenzial des maschinellen Lernens für die Produktion voll auszuschöpfen«, sagt Frey.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2022/april-2022/fraunhof…
Entstehung von Smog
Maren Mielck Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Ruß als überraschende Quelle für smogbildende Hydroxylradikale
Industriedunst oder Smog bildet sich, wenn ein Cocktail von Industrieabgasen zu aggressiven, Feinstäuben oxidiert wird, die das Sonnenlicht verdunkeln. Treibende Kraft sind Hydroxylradikale – und für deren Bildung hat nun ein Forschungsteam eine neue Quelle gefunden. Der neu entdeckte Entstehungsmechanismus zeigt auch neue Perspektiven zur Luftreinigung und Energiegewinnung auf, zeigt eine in der Zeitschrift Angewandte Chemie veröffentlichte Studie.
Die Dunstglocke über Städten besteht aus rußhaltigem Feinstaub und entsteht, wenn Abgase aus Industrie, Verkehr und Landwirtschaft zu Schwebteilchen kondensieren. „Hydroxylradikale beschleunigen diese Kondensation erheblich,“ sagt Joseph S. Francisco von der University of Pennsylvania in Philadelphia (USA), einer der Hauptautoren der Studie. Als deren Quellen gelten vor allem Stickoxide und Ozon. Allerdings erklärt diese Entstehung nicht vollständig, wie sich immer wieder ein derartig massiver Feinstaubdunst formieren kann, wie er vor allem in smoggeplagten Regionen in Südostasien regelmäßig auftritt.
Die Forschungsgruppen um Joseph S. Francisco von der University of Pennsylvania (USA) und Hong He von der Chinesischen Akademie der Wissenschaften in Beijing, haben nun in einer Zusammenarbeit die chemische Aktivität von Rußteilchen genauer unter die Lupe genommen. Ruß besteht aus unverbranntem Kohlenstoff und stammt aus den Abgasen von Dieselmotoren oder wird durch Brandrodung und Waldbrände verbreitet. Bislang galten Rußteilchen eher als Senke für Hydroxylradikale.
In ihren Experimenten beobachteten Francisco und sein Team jedoch, dass Rußteilchen Hydroxylradikale abgeben, wenn unter Lichteinstrahlung wasserdampfhaltige Luft darüber geleitet wird.
Allerdings hätten die Forschenden erwartet, dass die entstandenen Hydroxylradikale die Rußoberfläche gar nicht verlassen, sondern gleich weiterreagieren. Energetische Berechnungen zeigten jedoch, dass ein Hydroxylmolekül, sobald es entstanden ist, zwar an die Kohlenstoffatome auf der Oberfläche bindet, sich aber auch schnell fortbewegt. „Das geschieht ähnlich wie beim Roaming“, erklären die Autor:innen. Demnach huschten die Teilchen über die Oberfläche und entfernen sich schließlich ganz.
Aus ihren Ergebnissen schließt das Team, dass Rußteilchen aktiv zur Dunst- und Smogbildung beitragen. Ihre Ergebnisse denken die Forschenden aber noch weiter. Da nämlich offenbar Licht ausreicht, um auf Ruß stabile Wassermoleküle zu zersetzen, könnte dieses Material vielleicht zu metallfreien Kohlenstoffkatalysatoren weiterentwickelt werden. Solche Ruß-basierten Katalysatoren könnten Stickoxide und flüchtige organischen Verbindungen (VOCs) aus der Luft entfernen helfen, oder in einer umweltfreundlichen künstlichen Photosynthese aus Lichtenergie chemische Energie erzeugen.
Angewandte Chemie: Presseinfo 06/2022
Autor/-in: Joseph S. Francisco, University of Pennsylvania (USA), https://www.chem.upenn.edu/profile/joseph-s-francisco
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Die „Angewandte Chemie“ ist eine Publikation der GDCh.
Originalpublikation:
https://doi.org/10.1002/ange.202201638
Weitere Informationen:
http://presse.angewandte.de
Corona macht Frauen unglücklicher als Männer
Rimma Gerenstein Hochschul- und Wissenschaftskommunikation
Albert-Ludwigs-Universität Freiburg im Breisgau
Eine Studie der Universität Freiburg im Rahmen des „SKL Glücksatlas“ unter Leitung von Pro-fessor Bernd Raffelhüschen zeigt ein »Happiness Gap der Frauen«. Die Pandemie kehrt den früheren Glücksvorsprung der Frauen ins Gegenteil: Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste.
In Sachen Glück hatten Frauen bis 65 bislang immer einen Vorsprung vor den Männern. Gemes-sen auf einer Skala von null bis zehn lagen sie in den Zeiten vor Corona um 0,04 Punkte vorn. In der Coronakrise verlieren alle Deutschen an Lebenszufriedenheit – aber Frauen deutlich mehr als Männer. Der »Happiness Gap« beträgt 0,19 Punkte. Je einschneidender die Corona-Maßnahmen, desto größer die Glücksverluste. In Lockdown-Phasen betrug der Glücksabstand zu den Männern bis zu 0,4 Punkte (Mai 2021). Die Pandemie wendet den früheren kleinen Glücksvorsprung der Frauen ins Gegenteil. Zu diesem Ergebnis kommt eine Studie des For-schungszentrums Generationenverträge an der Universität Freiburg mit Unterstützung der Süd-deutschen Klassenlotterie. Im Rahmen des „SKL Glücksatlas“ hat der wissenschaftliche Leiter Prof. Bernd Raffelhüschen vom Institut für Finanzwissenschaft und Sozialpolitik an der Albert-Ludwigs-Universität das Ausmaß der Einbußen an Lebenszufriedenheit der Geschlechter unter-sucht. Insgesamt wurden seit Januar 2020 15.200 Deutsche repräsentativ befragt, zuletzt im De-zember 2021 und Januar 2022 insgesamt 2.075 Personen vom Institut für Demoskopie Allens-bach.
Vor der Pandemie waren junge Frauen zufriedener als junge Männer, jetzt sind sie unglücklicher
„Überraschend sind die großen Glückseinbußen von jungen Frauen bis 25 Jahre“, sagt Raffelhü-schen. Diese jungen Frauen waren vor Corona nicht nur die glücklichsten Menschen der Repub-lik, sie waren auch zufriedener als gleichaltrige junge Männer, ihr Glücksvorsprung betrug 0,2 Punkte. Während der Coronakrise verloren sie 0,6 Punkte, die jungen Männer aber nur 0,3 Punkte. Corona bewirkt bei jungen Frauen einen Kipp-Effekt: Vor der Pandemie waren sie zu-friedener als die Männer, in der Pandemie sind sie eindeutig unglücklicher geworden.
Ähnlich sieht es bei Studentinnen und alleinlebenden jungen Frauen (bis 35) aus. Studentinnen verlieren in der Pandemie 0,8 Punkte, Studenten „nur“ 0,2 Punkte. Alleinlebende junge Frauen verlieren 0,9 Punkte, alleinlebende Männer im gleichen Alter „nur“ 0,6 Punkte. Als Hauptgründe ihrer Unzufriedenheit geben beide Frauengruppen Einsamkeit und Kontaktbeschränkungen an. 55 Prozent geben an, ihre wöchentlichen Treffen auf mindestens monatlich reduziert zu haben. Im Unterschied zu ihren männlichen Pendants leiden diese beiden Frauengruppen deshalb be-sonders stark unter den fehlenden sozialen Kontakten.
Vollzeitarbeitende Mütter mit Kindern verlieren am meisten an Lebensglück
Dass Mütter mit Kindern durch die Corona-Maßnahmen besonders belastet sind und sich das negativ auf ihre Glücksbilanz auswirkt, war zu erwarten. In Vollzeit erwerbstätige Mütter verlie-ren 1,0 Punkte in der Pandemie, ihre Männer »nur« 0,4. Mütter sitzen in der »Multitasking Fal-le«, denn bei ihnen schlagen sowohl das Homeschooling als auch die vermehrte Hausarbeit und hier auch das Homeoffice negativ auf die Lebenszufriedenheit zu Buche. Ihren familiären Zeit-aufwand weiten zwar Mütter und Väter aus, Frauen hatten aber schon vor Corona mehr zu tun. Kontaktreduktionen betreffen sie hingegen kaum. Bei erwerbstätigen Müttern in Teilzeit sind die Glückseinbußen schwächer. Sie verlieren 0,7 Punkte, ihre (in Vollzeit arbeitenden) Männer 0,3.
Weibliche Selbständige büßen während der Pandemie deutlich mehr an Lebenszufriedenheit ein als männliche Selbständige. Sie verlieren 0,8 Punkte, selbstständige Männer dagegen nur 0,4 Punkte. Eine wichtige Rolle für die hohe Unzufriedenheit der weiblichen Selbständigen spielen wirtschaftliche Sorgen: Die Corona-Maßnahmen trafen besonders weiblich dominierte Branchen wie körpernahe Dienstleistungen, Floristen, Kitabetreiber, Innenausstatter, Einzelhandel oder das Reinigungsgewerbe. Männlich dominierte Branchen wie das produzierende Gewerbe waren da-gegen kaum von Einschränkungen und finanziellen Einbußen betroffen.
Ein Sonderfall sind die Rentnerinnen (über 65). Sie waren schon vor Corona etwas unzufriedener (0,1 Punkte) mit ihrem Leben als gleichaltrige Rentner. In der Coronakrise hat sich dieser Abstand vergrößert. Sie sind nunmehr 0,2 Punkte unzufriedener als Rentner.
Der SKL Glücksatlas
Die Studie „Happiness Gap der Frauen in der Coronakrise“ erscheint im Rahmen des SKL Glücksatlas, der aktuellsten regelmäßigen Studie zur Lebenszufriedenheit der Deutschen. Die wissenschaftliche Leitung hat Prof. Bernd Raffelhüschen von der Universität Freiburg. Der Glücksatlas wurde bis Ende 2021 von der Deutschen Post herausgegeben. Als neuer Partner ist seit 2022 die Süddeutsche Klassenlotterie (SKL) an Bord. „Mit unserem Engagement für den Glücksatlas wollen wir die Forschung über Zufriedenheit und Wohlbefinden in Deutschland erweitern und die Ergebnisse der Glücksforschung einer breiteren Öffentlichkeit zugänglich ma-chen“, sagt Dr. Bettina Rothärmel – Vorständin der GKL Gemeinsame Klassenlotterie der Län-der AöR, Veranstalterin der SKL-Lotterien.
Mit Beginn der Partnerschaft initiiert die SKL zudem erstmals eine wissenschaftliche Glücksda-tenbank für Journalistinnen, Journalisten und Interessierte: Unter skl-gluecksatlas.de werden kontinuierlich aktuelle Daten, Analysen und Sonderstudien über die Entwicklung der Lebenszu-friedenheit in Deutschland bereitgestellt und damit einer breiten Öffentlichkeit zugänglich gemacht.
Näheres zur Vorgehensweise und Methodik findet sich in der Langfassung der Sonderstudie: https://www.skl-gluecksatlas.de/info/presse.html
Wissenschaftliche Ansprechpartner:
Max Höfer
T + 49 (0) 172 9243939
E info@skl-gluecksatlas.de
Cornelia Friedrich
T + 49 (0) 89 67903-8086
E info@skl-gluecksatlas.de
Freiwillige untersuchen die Stickstoffbelastung von Gewässern
Dr. Corinna Dahm-Brey Presse & Kommunikation
Carl von Ossietzky-Universität Oldenburg
Citizen-Science-Projekts der Universitäten Oldenburg und Osnabrück zeigt, dass Fließgewässer im Weser-Ems-Gebiet stark mit Nitrat belastet sind
Genau 8754 Gewässerproben sammelten die 800 Teilnehmerinnen und Teilnehmer eines von den Universitäten Oldenburg und Osnabrück koordinierten Bürgerwissenschaftsprojekts von September 2019 bis März 2021. An mehr als 540 Standorten in den Landkreisen Osnabrück, Vechta, Emsland und Cloppenburg sowie der Stadt Osnabrück untersuchten die Freiwilligen mit speziellen Teststäbchen Brunnenwasser, Quellenwasser, Fließgewässer, Standgewässer und Regenwasser, um anhand von Farbschattierungen einen Überblick über den Nitratgehalt zu bekommen. Ein großer Teil der beprobten Fließgewässer weist den Ergebnissen zufolge zu hohe Nitratbelastungen auf, berichtete das Projektteam heute auf einer Veranstaltung in der Katholischen Akademie Stapelfeld in Cloppenburg. Die Wissenschaftlerinnen und Wissenschaftler der Universität Osnabrück stuften drei Viertel der beprobten Fließgewässer als hoch oder sehr hoch belastet ein und bestätigten damit Ergebnisse früherer Untersuchungen. Eine interaktive Online-Karte mit Messstandorten und Messwerten findet sich auf der Webseite www.nitrat.uos.de.
„Eine hohe Nitratbelastung ist sowohl für die Gewässerökologie als auch für die menschliche Gesundheit bedenklich“, sagt Melanie Vogelpohl, Referentin für Umweltinformationsvermittlung bei der Deutschen Bundesstiftung Umwelt (DBU). „Die Problematik ist durch das hohe Engagement von Bürgerinnen und Bürger stärker ins Bewusstsein gerückt.“
Im Mittelpunkt des von der Stiftung geförderten Projekts stand der Citizen Science-Ansatz: Die Forschenden haben Bürgerinnen und Bürger an naturwissenschaftlicher Forschung beteiligt. „Die Ergebnisse zeigen, dass Freiwillige einen wichtigen Beitrag zur Forschung zum Thema Gewässerschutz leisten können“, betonte Prof. Dr. Marco Beeken von der Universität Osnabrück. Der Chemiedidaktiker hatte das Projekt gemeinsam geleitet mit Prof. Dr. Verena Pietzner – bis Ende letzten Jahres Chemiedidaktikerin an der Universität Oldenburg, heute Präsidentin der Universität Vechta. Der Ansatz, Freiwillige zu beteiligen, habe sich bewährt, betonte Pietzner: „Die hohe Zahl von 800 Teilnehmerinnen und Teilnehmern zeigt, dass in der Region ein großes Interesse an Umweltthemen besteht.“
Interessierte konnten innerhalb des Projekts nicht nur Messwerte beisteuern, sondern auch weitere Angebote wie beispielsweise Schülerlabore, eine Online-Ausstellung oder eine von der Universität Oldenburg konzipierte Stickstoffbox mit Experimenten nutzen, um Einblicke in das Thema Stickstoffbelastung zu erlangen. In einer Begleitstudie untersucht die Universität Osnabrück aktuell, inwieweit die Teilnahme an dem Citizen Science-Projekt Einstellungen und Kenntnisse zum Thema Gewässerschutz verändert.
Unter den Freiwilligen, die sich im Projekt engagierten, waren auch 200 Schülerinnen und Schüler gemeinsam mit ihren Lehrkräften. „Ohne das großartige Engagement und so viele Teilnehmerinnen und Teilnehmer hätten wir weder diese Datenmenge erheben noch das Projekt so erfolgreich durchführen können“, sagt Mientje Lüsse, von der Universität Oldenburg, Wissenschaftliche Mitarbeiterin im Projekt. Der Citizen-Science-Ansatz könne eine innovative Rolle in der wissenschaftlichen Forschung spielen und gleichzeitig Bildung vermitteln.
Die Messergebnisse zeigten eine hohe Übereinstimmung mit den Resultaten anderer Messinitiativen wie beispielsweise den Brunnenwassermessungen des Umweltvereins VSR-Gewässerschutz. Beeken zeigte sich mit der Qualität der Ergebnisse zufrieden: „Die verwendeten Teststäbchen sind zuverlässig genug, um einen Überblick über die Nitratbelastung zu gewinnen und räumliche und zeitliche Entwicklungen zu verfolgen. Um in weiteren Projekten genauere Messungen durchzuführen, entwickeln wir gerade eine Messmethode mit einem Farbsensor und Elementen aus dem 3D-Drucker.“
Anhand der Daten untersuchte das Team, welche Faktoren die Nitratbelastung beeinflussen. „Die Messungen der Bürgerinnen und Bürger zeigen, dass schmale Bäche wie der Bornbach in der Nähe von Damme besonders gefährdet sind, da bereits ein geringer Nitrateintrag zu hohen Konzentrationen führt“, erläutert Projektmitarbeiterin und Doktorandin Frauke Brockhage von der Universität Osnabrück. Stehende Gewässer wie Seen weisen der Auswertung zufolge eine geringere Belastung auf als Fließgewässer, doch auch hier zeigten sich bei einem knappen Viertel der Messstellen hohe oder sehr hohe Nitratbelastungen. Unter den beprobten Brunnen überschritt etwa ein Sechstel den gesetzlichen Grenzwert von 50 Milligramm pro Liter. Insbesondere die Zusammensetzung des Bodens spielt der Analyse zufolge bei der Belastung des Grundwassers eine große Rolle: So traten in Geestgebieten mit sandigen Böden besonders hohe Nitratkonzentrationen auf.
Die Nitratbelastung der beprobten Fließgewässer ist, so Brockhage, in städtischen und landwirtschaftlich genutzten Flächen höher als in Wäldern und naturnahen Flächen. Über die konkreten Ursachen dafür können die Forschenden anhand der Daten jedoch keine Aussagen machen. Bekannt ist, dass Düngemittel aus der Landwirtschaft eine große Quelle von Nitrat in Gewässern sind. Aber auch Industrie, Verkehr und Abwässer tragen zur Belastung bei. Hohe Nitratwerte führen zu einer Überdüngung von Gewässern mit Algenblüten und Sauerstoffmangel und erhöhen die Kosten für die Trinkwassergewinnung und -aufbereitung. In Folgeprojekten will das Team die Frage nach den Ursachen genauer untersuchen.
Das Projekt wurde durch einen Beirat begleitet, in dem unter anderem der Niedersächsische Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) sowie der Kreislandvolkverband Cloppenburg vertreten waren.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Marco Beeken, Universität Osnabrück, Tel.: 0541/969-3378, E-Mail: marco.beeken@uos.de
Weitere Informationen:
http://uol.de/chemie/chemiedidaktik
http://www.nitrat.uos.de
Anhang
Freiwillige bestimmten die Nitratkonzentration mit Hilfe von Teststäbchen.
Zurück in den Kreislauf: Menschlicher Urin wird zu Recyclingdünger für Berliner Gemeinschaftsgärten
Ine Haesaert Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ)
„Urban Cycles“, ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasiertem Recyclingdünger in Berliner Gemeinschaftsgärten, ist als eine von 15 partizipativen Projektideen im Hochschulwettbewerb ausgezeichnet worden.
In teilnehmenden Berliner Gemeinschaftsgärten wird ein Recyclingdünger aus künstlichem Urin getestet – das Besondere daran ist, dass die Experimente von den Gärtnernden selbst durchgeführt und die Ergebnisse gemeinsam mit Forschenden ausgewertet werden. Ziel des Projekts ist es, Gärtnernden interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden.
Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) im Rahmen des Wissenschaftsjahres ausgerufen. In diesem Jahr lautet das Thema „Nachgefragt“ und passend dazu wurden 15 partizipative Projektideen ausgezeichnet. Zu den diesjährigen Gewinner*innen gehört auch das Projekt „Urban Cycles: ein Citizen Science Projekt zu nachhaltiger Düngung mit urinbasierten Recyclingdüngern in Berliner Gemeinschaftsgärten“, koordiniert vom Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) in Großbeeren.
Für die sozial-ökologische Transformation ist eine zirkuläre Betrachtung der Dünger- und Nahrungsproduktion zentral. Eine wichtige Nährstoffressource ist menschlicher Urin, der sich in einen sicheren, schadstofffreien und wirksamen Recyclingdünger umwandeln lässt. Im Projekt „Urban Cycles“ soll in Berliner Gemeinschaftsgärten ein Recyclingdünger aus künstlichem Urin getestet werden. Den teilnehmenden Gemeinschaftsgärten wird dafür kostenlos der vom Deutschen Luft- und Raumfahrtzentrum (DLR) entwickelte C.R.O.P®-Dünger (Combined Regenerative Organic Food Production) zur Verfügung gestellt. Der neue Recyclingdünger stammt aus Forschungsanlage des DLR, die aktuell noch mit künstlichem Urin betrieben werden. Die Gärtner*innen führen dann mit dem C.R.O.P®-Dünger selbst Experimente durch und dokumentieren ihre Ergebnisse. In Dialogrunden werten sie ihre Beobachtungen gemeinsam mit Forschenden aus. Ziel des Projekts ist es, Gärtner*innen interaktiv Wissen zu nachhaltiger Düngung zu vermitteln und sie partizipativ in den wissenschaftlichen Prozess und gesellschaftspolitischen Dialog zu Recyclingdüngern einzubinden. Durch offene Formate und das Prinzip “von Gärtnernden für Gärtnernde” soll das gemeinsam erarbeitete Wissen möglichst vielen weiteren Interessierten zugänglich gemacht werden.
Das „Urban Cycles“-Projektteam am IGZ ist eine Kooperation zwischen der Forschungsgruppe „Gartenbausysteme der Zukunft“ und dem Wissenschaftsmanagement. Unterstützt wird das Projekt außerdem vom DLR in Köln.
Der Hochschulwettbewerb wird jährlich von Wissenschaft im Dialog (WiD) in Kooperation mit dem Bundesverband Hochschulkommunikation und der Hochschulrektorenkonferenz ausgerufen und vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres gefördert. Im Hochschulwettbewerb 2022 – Wissenschaftsjahr „Nachgefragt!“ laden junge Forschende Bürger*innen dazu ein, sich aktiv am Forschungsprozess zu beteiligen und gemeinsam den Herausforderungen der Zukunft zu begegnen. Aus 270 Einreichungen hat die Jury nun die besten 15 Projektideen gekürt. Die Gewinnerteams erhalten jeweils 10.000 Euro, um damit bis Ende des Jahres ihre Ideen in die Praxis umzusetzen.
Für das Urban Cycles-Projektteam und die 14 andere Gewinner*innenteams geht es nun direkt weiter: Im März nehmen sie an einem Auftakt-Workshop von Wissenschaft im Dialog zum Thema Wissenschaftskommunikation teil, im Laufe des Jahres folgen weitere Schulungen und Veranstaltungen, bei denen sich die Teams auch untereinander vernetzen können.
Die Fortschritte, Erfahrungen und Ergebnisse des Projekts können über die Projektwebsite, die sozialen Medien und den Blog des Hochschulwettbewerbs verfolgt werden. Genaue Einzelheiten dazu werden in einer separaten Pressemitteilung bekannt gegeben, sobald das Projektteam die ersten Schritte unternommen hat.
Weitere Informationen:
https://www.igzev.de/aktuelles/aktuelles/neuigkeiten/ Leibniz-Institut für Gemüse- und Zierpflanzenbau (IGZ) e.V.
http://www.dlr.de Deutsches Zentrum für Luft- und Raumfahrt (DLR) e.V.
http://www.wissenschaft-im-dialog.de/projekte/hochschulwettbewerb-mitforschen-er… Wissenschaft im Dialog: Hochschulwettbewerb 2022 – Die Gewinner*innen
http://www.hochschulwettbewerb.net/2022 Hochschulwettbewerb: Blog
KIT: Bundesweites Pilotprojekt zum Corona-Nachweis im Abwasser
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Mehrere Tage bevor die ersten Krankheitssymptome auftreten, sind Coronaviren bereits im Abwasser nachweisbar. Dies bietet die Möglichkeit, die Fallzahlen schneller erheben, das Infektionsgeschehen präziser abbilden sowie neue COVID-19-Varianten und deren Verbreitung früher erkennen zu können. Der am Karlsruher Institut für Technologie (KIT) koordinierte Projektverbund „Systematische Überwachung von SARS-CoV-2 im Abwasser“ will diese Potenziale heben und prüfen, ob und gegebenenfalls wie in Deutschland ein abwasserbasiertes COVID-19-Frühwarnsystem umgesetzt werden kann. Die Europäische Union fördert das Vorhaben mit rund 3,7 Millionen Euro.
Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…
„Dieses ressortübergreifende Forschungsvorhaben bietet die Chance, das wissenschaftliche Know-how und bisherige Erfahrungen im Abwassermonitoring deutschlandweit zu bündeln und bei der Eindämmung der COVID-19-Pandemie systematisch zu nutzen“, sagt Dr. Verena Höckele, Projektkoordinatorin beim Projektträger Karlsruhe (PTKA) am KIT.
In das im Februar gestartete und ein Jahr laufende Pilotprojekt steigen sukzessive bundesweit 20 Standorte ein. An diesen werden zweimal pro Woche und über einen Zeitraum von jeweils 24 Stunden Mischwasserproben aus dem Zulauf der Kläranlagen entnommen, aufbereitet und mittels eines PCR-Tests analysiert. Anschließend sollen die Ergebnisse mit den Pandemiedaten der örtlichen Gesundheitsämter verknüpft werden und nach Möglichkeit in die pandemische Lagebeurteilung einfließen.
Virusvarianten mit Abwassermonitoring schneller erkennen
„Das Verfahren, die Häufigkeit und Dynamik von SARS-CoV-2 Viren über das kommunale Abwasser zu bestimmen, wurde in Deutschland bereits im Zuge einzelner Forschungsprojekte erfolgreich erprobt“, so Professor Harald Horn, Leiter des Bereichs Wasserchemie und Wassertechnologie am Engler-Bunte-Institut des KIT. Es könne nicht nur dazu beitragen, die Dunkelziffer von Infizierten besser abzuschätzen, sondern auch die Verbreitung von Varianten und Mutationen schneller zu erkennen als es durch die Testung einzelner Personen möglich sei, ist Horn überzeugt.
Im Projekt wollen die Forschenden nun auf der Basis vergleichbarer Ergebnisse analysieren, welche Methoden sich für ein flächendeckendes Monitoring eignen könnten und welche Daten hierfür erhoben werden müssen, um Coronaviren im komplex zusammengesetzten Abwasser nachweisen zu können. Dies zeigt sich aktuell bei der Erfassung der Omikron-Variante, deren Virenfragmente vorwiegend über die oberen Atemwege ausgeschieden werden und im Vergleich zur Delta-Variante nur zu einem Drittel ins Abwasser gelangen. Eine besondere Herausforderung für die Wissenschaftlerinnen und Wissenschaftler ist es deswegen, die Qualität der Probenentnahme, der Laboranalyse und der Datenauswertung weiter zu verbessern.
Am Ende der Pilotphase steht die Entscheidung, ob für Deutschland ein flächendeckendes Abwassermonitoring oder eher ein repräsentatives Monitoring empfohlen werden soll. Ein solches flächendeckendes Frühwarnsystem gegen COVID-19, das sich perspektivisch auch für andere Krankheitserreger wie zum Beispiel Polio oder Grippeviren eignen würde, ist bereits in den Niederlanden, Kanada und Australien im Einsatz.
ESI-CorA: Förderung und Projektpartner
Das Projekt „Systematische Überwachung von SARS-CoV-2 im Abwasser“ (ESI-CorA) fördert die Europäische Union im Rahmen des Soforthilfeinstruments ESI (Emergency Support Instrument) mit rund 3,7 Millionen Euro. Initiiert wurde es vom Bundesministerium für Gesundheit, dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz sowie dem Bundesministerium für Bildung und Forschung. Der Projektträger Karlsruhe (PTKA) am KIT koordiniert das Projekt, Partner sind neben dem KIT die Technische Universität Darmstadt, das Umweltbundesamt und das Robert Koch-Institut. Ein Steuerungsgremium aus Vertreterinnen und Vertretern von Bund, Ländern und Verbänden soll nach Ende des Pilotierungsvorhabens im Februar 2023 über die Verstetigung der Ergebnisse entscheiden. (sur)
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Margarete Lehné, stellv. Pressesprecherin, Tel.: +49 721 608-41157, E-Mail: margarete.lehne@kit.edu
Weitere Informationen:
https://www.kit.edu/kit/pi_2022_015_bundesweites-pilotprojekt-zum-corona-nachwei…
Pressemitteilung – Windparks verändern die Nordsee
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Ein Team um Nils Christiansen vom Helmholtz-Zentrum Hereon hat eine Studie zu den Einflüssen von Offshore Windparks auf die Ozeandynamik veröffentlicht. Im Fokus stand eine Abschwächung des Windes und einhergehende Veränderungen der physikalischen Bedingungen der betroffenen Nordseegebiete. Denn die Windkraftanlagen stellen Hindernisse für Wasser und Luft dar. Die Effekte sind im Hinblick auf die Planung zukünftiger Offshore Windparks von großer Bedeutung. Die Studie erschien im Fachmedium Frontiers in Marine Science.
Die imposanten Aufnahmen der Offshore Windparks in der Nordsee mit Blick auf das glitzernde Wasser haben sich fest in den Köpfen eingebrannt. Sie gehören bereits wie der Wattwurm zum Bild der Nordsee. Doch welche nicht sichtbaren Zusammenspiele und Auswirkungen gehen mit dem wichtigen Baustein deutscher Energiewende einher?
Die Studie des Hereon-Instituts für Küstensysteme – Analyse und Modellierung simuliert eine Abschwächung der Windgeschwindigkeit auf der windabgewandten Seite (Lee-Seite) der Parks. Belegt wurde das Phänomen kürzlich von einem Hereon-Team, dessen Studie im Journal Nature erschien (Akthar et al., 2021). Auslöser für die Abschwächung des Windes sind die Turbinen. Für die Stromerzeugung entziehen sie dem Windfeld kinetische Energie. In Lee der Windräder entstehenden sogenannte atmosphärische Wirbelschleppen. Diese sind charakterisiert durch verringerte Windgeschwindigkeit sowie durch spezielle Druckverhältnisse und erhöhte Luftturbulenz. Unter stabilen atmosphärischen Bedingungen breiten sich die Defizite der Windgeschwindigkeit bis zu 70 km hinter den Windparks aus.
Wenn der Wind abflaut
Mithilfe hochauflösender, hydrodynamischen Computersimulationen hat das Team die Effekte auf die südliche Nordsee für den Sommer 2013 (Mai bis September) analysiert.
Die Analyse zeigt einen Zusammenhang von Wirbelschleppen und Änderung des impulsgetriebenen Austauschs zwischen Atmosphäre und Wasser. Hierdurch könnten wiederum die horizontalen Strömungen und die Schichtung des Wassers beeinflusst werden.
Die Effekte der Wirbelschleppen sind stark genug, um die vorhandenen Strömungen umzulenken. Was eine Verschiebung der mittleren Temperatur- und Salzgehaltsverteilung in den Gebieten der Windparks zur Folge hat. „Die auftretenden Änderungen bleiben im Rahmen der interannuellen Variabilität. Dennoch, zeigen sie ähnliche Größenordnungen auf, wie die vermuteten mittleren Änderungen aufgrund des Klimawandels oder der Variabilität von Jahr zu Jahr“, so Nils Christiansen, vom Hereon Institut für Küstensysteme, der federführender Autor bei der Studie war.
Es wird neu geschichtet
Eine weitere Konsequenz der Wirbelschleppen ist die Minderung von scherungsbedingten Prozessen an der Meeresoberfläche. In anderen Worten: Die vom Winden hervorgerufene turbulente Durchmischung der Wasseroberfläche wird dutzende Kilometer um den Windpark reduziert. Wasser ist meist geschichtet, so liegt z.B. eine Schicht mit wärmerem Wasser auf einer Schicht mit kaltem. Durch die Windparks wird die natürliche Schichtung gestört. Aufgrund der reduzierten Durchmischung wird eine stabilere Schichtung des Wassers begünstigt. Besonders auffällig war das während des Rückgangs der Sommerschichtung.
Die natürliche Sichtung des Wassers ist im Sommer besonders markant und nimmt zum Herbst hin ab. Im Gebiet der Windparks wurde jedoch eine stabilere Schichtung außerhalb der jahreszeitlichen Schwankung berechnet.
Was bedeuten die Ergebnisse für die Nordsee?
„Die Größenordnung der induzierten mittleren Veränderungen deutet nicht auf schwerwiegende lokale Auswirkungen hin, allerdings treten weitreichende strukturelle Veränderungen im System auf“, sagt Christiansen. „Die Veränderungen in der Strömung und Durchmischung beeinflussen voraussichtlich die Planktonproduktion und die Struktur des Nahrungsnetzes und können die Wirkungsweise von Schutzgebieten beeinflussen. Es ist also wichtig diese Folgen bei der Entwicklung von Meeresschutzkonzepten zu berücksichtigen“, sagt die Hereon-Institutsleiterin Prof. Corinna Schrum und gibt einen Ausblick für die Implementierung der Ergebnisse. Es seien aber weitere Untersuchungen erforderlich, um mögliche Rückkopplungen auf den Luft-Meer-Austausch zu analysieren. Eine Änderung dieses Austausches wirke sich potenziell auf regionale atmosphärische Bedingungen und die Ökosystemdynamik aus und wird Gegenstand weiterführender Studien sein.
Wissenschaftliche Ansprechpartner:
Nils Christiansen I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-2132 I nils.christiansen@hereon.de
www.hereon.de
Originalpublikation:
https://www.frontiersin.org/articles/10.3389/fmars.2022.818501/full
Weitere Informationen:
https://www.hereon.de/institutes/coastal_systems_analysis_modeling/index.php.de
SARS-CoV-2 geht ins Auge
Dr. Jeanine Müller-Keuker Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für molekulare Biomedizin
SARS-CoV-2 verursacht nicht nur Infektionen der Atemwege. Es kann auch in die Netzhaut gelangen und Schäden anrichten. Unklar ist, welche Netzhautstrukturen infiziert werden und ob die Schäden direkt oder indirekt Folge einer Infektion sind. Ein Team um Thomas Rauen und Hans Schöler vom Max-Planck-Institut für molekulare Biomedizin und dem Virologen Stephan Ludwig der Westfälischen Wilhelms-Universität hat nun menschliche Netzhaut-Organoide verwendet, um die SARS-CoV-2 Infektion der Netzhaut zu untersuchen. Demnach werden vor allem retinale Ganglienzellen, aber auch Lichtsinneszellen infiziert. Zudem zeigen die Forscher, dass sich Coronaviren in diesen Zelltypen sogar vermehren können.
Dass das von Yotam Menuchin-Lasowski am münsterschen Max-Planck-Institut etablierte menschliche Organoidmodell der Netzhaut in der Erforschung von SARS-CoV-2 Anwendung finden würde, hätte der Wissenschaftler vor gut drei Jahren nicht gedacht. Damals begann der Wissenschaftler mit der Arbeit an dem Modellsystem, das auf menschlichen reprogrammierten Stammzellen basiert, als Teil des von der Max-Planck-Gesellschaft geförderten White Paper Projektes “Brain Organoids: Alternatives to Animal Testing”.
Als immer mehr Fälle von neurologischen Beeinträchtigungen und auch Sehstörungen während oder nach einer Corona-Infektion durch die Medien gingen, schien es den Max-Planck-Forschern nur logisch, Netzhautorganoide für Untersuchungen zu SARS-CoV-2 in der Netzhaut einzusetzen. Denn verschiedene Studien an Retina-Biopsien von mehreren Patienten, die an COVID-19 gestorben waren, konnten das Virus in der Netzhaut nachweisen.
Tatsächlich erweist sich nun das Retina-Organoid-Modell als relevante Alternative zu Tierversuchen, da sich SARS-CoV-2-Infektionen beim Menschen nicht oder nur unzulänglich im Tiermodell nachbilden lassen. „Unser Retina-Organoidsystem bildet die anatomisch komplexe Struktur der menschlichen Netzhaut erstaunlich gut nach“, sagt Yotam Menuchin-Lasowski.
Als Ausgangszelltyp für die Netzhautorganoide wurden menschliche iPS-Zellen verwendet. Das sind Zellen, die aus Biopsien gewonnen und zu künstlich induzierten Stammzellen umprogrammiert wurden. „In vier bis fünf Monaten entstehen aus den iPS-Zellen unter geeigneten Kulturbedingungen ausgereifte Retina-Organoide, in denen sich die verschiedenen Zelltypen in Netzhaut-typischer Weise anordnen“, sagt Menuchin-Lasowski.
Die ausgereiften Netzhautorganoide wurden von André Schreiber und Stephan Ludwig vom Institut für Molekulare Virologie der Westfälischen Wilhelms-Universität Münster in einem Sicherheitslabor der Schutzstufe 3 mit SARS-CoV-2 Viren inkubiert und anschließend nach festgelegten Inkubationszeiten analysiert. So gelang den Forschern mittels quantitativer PCR-Analyse der Nachweis von SARS-CoV-2 mRNA in den Organoiden, was darauf hindeutet, dass Zellen in den Organoiden tatsächlich vom Virus infiziert wurden.
Um darüber hinaus die aktiven Viruskonzentrationen zu messen, die von den infizierten Organoiden nach verschiedenen Inkubationszeiten produziert wurden, verwendeten die Wissenschaftler einen sogenannten viralen Plaque-Assay. Und tatsächlich: dieser Test zeigte, dass sich in den Retina-Organoiden neue Virusnachkommen gebildet hatten.
„Dies ist der erste Nachweis, dass sich SARS-CoV-2 in menschlichen Netzhautzellen repliziert“, sagt Thomas Rauen, der mit Hans Schöler die White Paper Projektgruppe “Brain Organoids: Alternatives to Animal Testing” leitet. „Unser von der MPG gefördertes Projekt hat jetzt Früchte getragen“, freut sich Thomas Rauen.
Um zu erfahren, welche Zellen in den Retina-Organoiden betroffen sind, analysierten die Forscher die Organoide im Fluoreszenzmikroskop. Mithilfe verschiedener Immunmarker für die unterschiedlichen Zelltypen der Netzhaut und mit einem fluoreszierenden Antikörper gegen das Nucleoprotein (N-Protein) von SARS-CoV-2 zeigte sich, dass hauptsächlich zwei Zellschichten der Retina-Organoide infiziert wurden.
„Zum einen befanden sich viele der N-Protein-angefärbten Zellen in der äußeren Körnerschicht der Organoide,“ sagt Yotam Menuchin-Lasowski. Das ist die Zellschicht, in der sich die Photorezeptoren befinden – also die Zapfen und Stäbchen, die das eintreffende Licht in Nervenimpulse umwandeln. „Einige dieser Zellen mit dem N-Protein wiesen tatsächlich das typische Aussehen der Lichtsinneszellen auf“, ergänzt er.
„Der Zelltyp, in dem wir jedoch am häufigsten das N-Protein von SARS-CoV-2 nachweisen konnten, sind retinale Ganglienzellen“, sagt Menuchin-Lasowski. Diese Zellen befinden sich in der innersten Schicht der Retina und geben alle Signale von der Netzhaut über den Sehnerv ins Gehirn weiter.
Interessanterweise hängen viele der mit COVID-19 assoziierten Netzhautsymptome mit retinalen Ganglienzellen zusammen, die bisher allerdings vorwiegend mit sekundären Auswirkungen anderer SARS-CoV-2-verursachter Krankheitssymptome in Verbindung gebracht wurden, wie z. B. Schäden an den Blutgefäßen oder einer Erhöhung des Augendrucks.
„Unsere aktuelle Retina-Organoid Studie zeigt jedoch, dass eine Infektion mit SARS-CoV-2 direkte pathologische Folgen für die retinalen Ganglienzellen haben kann, auch wenn Sehbehinderungen bei Patienten mit COVID-19 nicht häufig vorkommen“, sagt Thomas Rauen. „Doch unsere Daten geben uns Grund zur Annahme, dass sogenannte Long-COVID-Symptome degenerative Erkrankungen der Netzhaut einschließen können.“
Hans Schöler, der als Emeritus die MPG White Paper Forschungsgruppe zusammen mit Thomas Rauen leitet, sagt: „Hier zeigt sich das volle Potential der Organoidforschung: Retina-Organoide eignen sich besonders gut für die Untersuchung von Netzhautpathologien. Durch die fruchtbare interdisziplinäre Zusammenarbeit mit der Abteilung von Stephan Ludwig konnten wir Einblicke in die Netzhautbeteiligung bei COVID-19 und möglicherweise auch bei Long-COVID gewinnen.“
Wissenschaftliche Ansprechpartner:
Dr. Thomas Rauen
thomas.rauen@mpi-muenster.mpg.de
Originalpublikation:
Yotam Menuchin-Lasowski*, André Schreiber*, Aarón Lecanda, Angeles Mecate-Zambrano, Linda Brunotte, Olympia E. Psathaki, Stephan Ludwig, Thomas Rauen#, Hans R. Schöler#.
SARS-CoV-2 infects and replicates in photoreceptor and retinal ganglion cells of human retinal organoids.
Stem Cell Reports, April 12, 2022, online advance publication March 24, 2022.
* joint first authors and # corresponding authors.
Weitere Informationen:
https://www.mpi-muenster.mpg.de/690849/20220324-sars-cov-2-retina-organoid
Mikrobiologen zeigen, wie wichtig Ammonium-oxidierende Mikroorganismen für Deutschlands größten See sind
PhDr. Sven-David Müller Stabsstelle Presse und Kommunikation
Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Eine neue weltweit verbreitete Art von Archaea setzt Tonnen von Ammonium in einem der größten Seen Europas um. Damit tragen die Mikroorganismen zur Sicherheit der Trinkwasserversorgung von über fünf Millionen Menschen bei. Das konnten Wissenschaftler*innen aus Braunschweig, Bremen und Konstanz nachweisen. Ihre Ergebnisse haben sie jetzt in der Fachzeitschrift „The ISME Journal“ der Nature Publishing Group veröffentlicht.
Pressemitteilung der Technischen Universität Braunschweig und des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Seen sind wichtig für die Trinkwasserversorgung, Binnenfischerei und als Naherholungsgebiete. Eine Anreicherung von Ammonium würde diese Ökosystemdienstleistungen gefährden. Gleichzeitig ist Ammonium ein wichtiger Bestandteil landwirtschaftlicher Düngemittel, weshalb seine Konzentrationen in der Umwelt dramatisch zugenommen hat und der globale Stickstoffkreislauf als Ganzes aus dem Gleichgewicht geraten ist. Die Überversorgung mit Nährstoffen (zum Beispiel Stickstoff) in Gewässern führt beispielsweise zu einer Steigerung des Algenwachstums, somit auch zu Sauerstoffmangel und in der Folge zu lebensfeindlichen Bedingungen für die Pflanzen- und Tierwelt.
Nährstoffarme Seen mit großen Wasserkörpern – wie der Bodensee und viele andere voralpine Seen – beherbergen in ihrer Tiefe große Populationen von Archaea, einer speziellen Gruppe von Mikroorganismen. Man nahm bisher nur an, dass diese Archaea an der Umwandlung von Ammonium zu Nitrat beteiligt sind, das in Sedimenten und anderen sauerstoffarmen Habitaten weiter in harmlosen Stickstoff (N2) – ein Hauptbestandteil der Luft – umgewandelt wird.
Ein Team von Umweltmikrobiologen der Technischen Universität Braunschweig, des Leibniz-Instituts DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, des Max-Planck-Instituts für marine Mikrobiologie und der Universität Konstanz konnte erstmalig nachweisen, dass diese Archaea tatsächlich an der Ammoniumoxidation beteiligt sind. Sie konnten diese Aktivität in einem der größten Seen Europas, dem Bodensee, quantifizieren.
Wie Mikroben den Stickstoffgehalt in Süßwasserökosystemen regulieren
Unser Planet ist zu einem Großteil mit Wasser bedeckt, jedoch sind davon nur 2,5 Prozent Süßwasser. Rund 80 Prozent dieses Süßwassers stehen dem Menschen nicht zur Verfügung, da es in Gletschern und den Polkappen gespeichert ist. In der Europäischen Union stammen etwa 36 Prozent des Trinkwassers aus Oberflächengewässern. Daher ist es wichtig zu verstehen, wie diese Ökosystemleistung durch Umweltprozesse wie die sogenannte mikrobielle Nitrifikation aufrechterhalten wird. Die Nitrifikation verhindert eine Anreicherung von Ammonium und wandelt es über Nitrit zu Nitrat um. Obwohl die Nitrifikation die Menge an anorganischem Stickstoff (N) in Süßwasserökosystemen nicht direkt verändert, stellt sie eine entscheidende Verbindung zwischen der Mineralisierung von organischem Stickstoff oder der Ammoniumverschmutzung und seiner letztendlichen Umwandlung zu harmlosem Stickstoff (N2) durch anaerobe Prozesse dar.
Die nun publizierten Ergebnisse zeigen, dass im Bodensee eine einzelne Art von Archaea bis zu 1760 Tonnen N-Ammonium pro Jahr umsetzt. Das entspricht elf Prozent der jährlichen von Algen produzierten Stickstoff-Biomasse. Dabei bauen die neu entdeckten Archaea eine enorme Biomasse in der Tiefe auf, die zwölf Prozent des jährlich vom pflanzlichen Plankton produzierten organischen Kohlenstoffs entspricht.
Neuartige Archaea-Art für Ammoniumumwandlung verantwortlich
Mit Hilfe modernster Methoden aus der Umweltmikrobiologie und Biogeochemie identifizierten die Wissenschaftler*innen eine neuartige Archaea-Art, Candidatus Nitrosopumilus limneticus, die für die Ökosystemdienstleistung der Ammoniumoxidation im Bodensee verantwortlich ist. Diese Art bildet mit bis zu 39 Prozent aller Mikroorganismen riesige Populationen im Tiefenwasser dieses großen Sees mit einer Fläche von 536 Quadratkilometern aus.
Mittels Metagenomik und Metatranskriptomik konnte das Genom dieses neuartigen Mikroorganismus aus der Umwelt gewonnen und seine Aktivität über die Jahreszeiten verfolgt werden. Auf stabilen Isotopen basierende Aktivitätsmessungen ergaben, dass diese einzelne Art für die Umwandlung von Ammonium im Bereich von über 1000 Tonnen verantwortlich ist. Derzeit bleibt noch ungeklärt, wie dieser neu entdeckte und in großen Binnengewässern weitverbreitete Mikroorganismus auf Veränderungen durch die Klimaerwärmung reagieren wird.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Michael Pester
Technische Universität Braunschweig/Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH
Inhoffenstraße 7B
38124 Braunschweig
E-Mail: Michael.Pester@dsmz.de
Originalpublikation:
Klotz F, Kitzinger K, Ngugi DK, Büsing P, Littmann S, Kuypers MMM, Schink B, Pester M. 2022. Quantification of archaea-driven freshwater nitrification from single cell to ecosystem levels. The ISME Journal doi:10.1038/s41396-022-01216-9.
https://www.nature.com/articles/s41396-022-01216-9
Umdenken bei der Bekämpfung von Infektionskrankheiten durch gezielte Strategien für den Arbeitsplatz
Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Maßnahmen zur räumlichen Distanzierung und insbesondere Homeoffice-Regelungen können erwiesenermaßen helfen, die Ausbreitung des Coronavirus einzudämmen. Diese Maßnahmen hatten jedoch auch zahlreiche unerwünschte Folgen, darunter einen dramatischen Rückgang der wirtschaftlichen Produktivität. Gibt es alternative Maßnahmen, mit denen die Pandemie eingedämmt und gleichzeitig die negativen wirtschaftlichen Auswirkungen minimiert werden können? Forschende des Max-Planck-Instituts für Bildungsforschung untersuchten diese Frage anhand von Daten und Methoden, die üblicherweise nicht zur Pandemiebekämpfung herangezogen werden. Ihre Ergebnisse wurden im Fachjournal Scientific Reports veröffentlicht.
Während der gesamten COVID-19-Pandemie zählte die räumliche Distanzierung, einschließlich der Kontaktreduzierung am Arbeitsplatz und soweit möglich die Verlagerung auf das mobile Arbeiten zu den wirksamsten nicht-pharmazeutischen Maßnahmen zur Pandemiebekämpfung. Diese Maßnahmen belasten nicht nur Arbeitnehmende, gefährden Arbeitsplätze und die Wirtschaft, sondern werden wahrscheinlich auch langfristige Verschiebungen in den Arbeitsmodellen bewirken. Die wirtschaftlichen Folgen sind beträchtlich, einschließlich des Verlusts an Arbeitsstunden und eines Rückgangs des weltweiten Bruttoinlandsprodukts (BIP), dessen ganzes Ausmaß erst nach Ende der Pandemie ermessen werden kann.
Forschende des Max-Planck-Instituts für Bildungsforschung haben die Wirksamkeit verschiedener Maßnahmen zur Pandemieeindämmung anhand datenbasierter Simulationen untersucht. Indem sie sich auf berufsbezogene Maßnahmen fokussierten und detaillierte Daten über die Verteilung der Arbeitskräfte über Berufe, Löhne und ihrer physischen Nähe zum Arbeitsplatz verwendeten, konnten sie die wirtschaftlichen und epidemiologischen Auswirkungen bestimmter Eindämmungsstrategien modellieren.
„Wir haben simuliert, wie sich Krankheiten wie COVID-19 über die Gruppe von Erwerbstätigen ausbreiten und nicht nur über die gesamte Bevölkerung hinweg. Das ist eine Vereinfachung, die sonst oft gemacht wird, erklärt Co-Autor der Studie Alex Rutherford. Er ist Senior Research Scientist und Principal Investigator am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. „Wir konnten feststellen, dass sich die Art der Arbeit stark auf den Ausgang der Pandemie auswirkt.“
Die Forschungsgruppe nutzte öffentlich zugängliche Daten über Arbeitsplätze, um jedem Beruf einen „Proximitätswert“ zuzuordnen. Diese Zahl gibt an, mit wie vielen Personen ein Arbeitnehmender wahrscheinlich in Kontakt kommen wird. Daraus erstellten sie ein „Kontaktnetzwerk“, anhand dessen ersichtlich wird, wie sich eine Infektionskrankheit wie COVID-19 von Mensch zu Mensch ausbreitet.
Die Daten stammen aus der Stadt New York, die als modellhaftes, urbanes Umfeld betrachtet wird, und umfassen sowohl berufliche Angaben als auch Daten aus öffentlichen Datenbanken, wie dem „Occupational Information Network“ (O*NET), das Berufsdaten sowie statistische und wirtschaftliche Informationen aus den USA erfasst. Solche Datenkategorien spielen bei der Konzeption von Maßnahmen zur Pandemiebekämpfung nur selten eine Rolle. Anhand von Daten zu Gehältern, der Anzahl der Personen einer bestimmten Berufsgruppe in New York und deren Möglichkeit von zu Hause aus zu arbeiten, ermittelte das Team die sozialen und wirtschaftlichen Auswirkungen einzelner Maßnahmen zur Pandemiebekämpfung. Die sozialen Auswirkungen messen sich an der Anzahl der Menschen, die infiziert wurden. Die wirtschaftlichen Kosten ergeben sich daraus, wie viele Menschen beurlaubt werden und ihr Gehalt nicht beziehen können, weil sie nicht von zu Hause arbeiten können.
Die Forschenden verglichen, wie effektiv verschiedene Maßnahmen zur Kontaktreduzierung waren, um die Auswirkungen der Epidemie zu verringern – sozial wie wirtschaftlich. Diese reichten von keiner Intervention bis hin zu sehr komplexen Maßnahmen auf Basis der Struktur des Kontaktnetzwerks der jeweiligen Berufsgruppe.
„Unsere Ergebnisse zeigen, dass die Struktur des Kontaktnetzwerks die Krankheitsdynamik auf nicht unerhebliche Weise stark beeinflusst“, sagt Demetris Avraam, Hauptautor der Studie und Postdoktorand am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Beispielsweise kann die Beurlaubung eines kleinen Teils der Arbeitnehmenden dazu führen, dass das Kontaktnetzwerk so beschnitten wird, dass die Infektionszahlen auf niedrigem Niveau über einen längeren Zeitraum stagnieren. Dies kann perspektivisch kostspieliger sein, da die Pandemie länger andauert. Intuitive Strategien wie Beurlaubung von Arbeitnehmenden auf der Grundlage ihrer Notwendigkeit, nach Lohn oder nach dem Zufallsprinzip schnitten auf dieser Grundlage schlecht ab. Im Gegensatz dazu sind netzwerkbasierte Metriken wie Grad und Zentralität in der Lage, den Höhepunkt der Infektion zu reduzieren (Abflachung der Kurve) und auch die Epidemie zu verkürzen.
Die Forschenden fanden heraus, dass die grundlegende Strategie der Entfernung von Arbeitnehmenden entsprechend der Anzahl ihrer engen persönlichen Kontakte ungefähr die gleiche Leistung erbringt wie komplexere Metriken, die auf der vollständigen Netzwerkstruktur oder anderen beruflichen Merkmalen basieren.
„In der Praxis ließe sich die Anzahl der Kontakte einfach mit einer Smartphone-App abschätzen, die die Bluetooth-Nähe zu anderen Endgeräten schätzt, ohne die IDs zurückzuverfolgen,“ sagt Manuel Cebrian, Mitautor der Studie und Leiter der Gruppe Digitale Mobilisierung am Forschungsbereich Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung. Er hat unter anderem erforscht, wie Smartphone-Daten und Tracing-Apps zur Pandemiebekämpfung eingesetzt werden können.
Die COVID-19-Pandemie hat viele tiefgreifende gesellschaftliche Veränderungen verursacht, die auch nach deren Abklingen wahrscheinlich nicht rückgängig gemacht werden können. Dazu gehören enorme Veränderungen in der Nachfrage in allen Sektoren, die großflächige Einführung von Fernarbeit und das Infragestellen tief verwurzelter Verständnisse von Arbeitsplätzen. Dies hat auch Auswirkungen auf die zukünftige Automatisierung von Arbeitsplätzen. Automatisierungsprozesse werden zunehmend in Berufen eingesetzt, die mit einer großen Anzahl an Kontakten einhergehen. Zum Beispiel sind Online-Konsultationen mit Ärzt*innen oder Online-Trainings in Sport und Bildung auf dem Vormarsch.
Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Originalpublikation:
Avraam, D., Obradovich, N., Pescetelli, N., Cebrian, M., & Rutherford, A. (2021). The network limits of infectious disease control via occupation-based targeting. Scientific Reports, 11, Article 22855. https://doi.org/10.1038/s41598-021-02226-x
Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/umdenken-bei-der-bekaempfung-von-…
Entscheidende Phase für erfolgreichen Wasserstoff-Markthochlauf
Simone Angster Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Wie stellen sich Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung die künftige Wasserstoffwirtschaft in Deutschland vor? Eine neue Umfrage von acatech – Deutsche Akademie der Technikwissenschaften und der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. gibt nun Antworten. Die beiden Projektpartner präsentierten heute erste Ergebnisse der Öffentlichkeit – und gaben eine Prognose ab: Laut einer wissenschaftlichen Metaanalyse wird der Wasserstoffbedarf im Jahr 2030 um ein Vielfaches höher sein als die inländischen Erzeugungskapazitäten.
Herkunftsnachweise für klimaverträglichen Wasserstoff sind laut Aussage einer Mehrheit von Expertinnen und Experten ein zentraler fördernder Faktor für den Hochlauf der Wasserstoffwirtschaft in Deutschland. Das geht aus der Umfrage „Wasserstoffwirtschaft 2030/2050: Ziele und Wege“ von acatech und DECHEMA unter knapp 600 Vertreterinnen und Vertretern aus Wissenschaft, Wirtschaft, NGOs und öffentlicher Verwaltung hervor. Die Studie ist Teil des Kooperationsprojekts „Wasserstoff-Kompass“. Erste Ergebnisse stellten die Projektpartner schon heute in einer Online-Konferenz vor, bevor im März die Publikation aller Umfrageergebnisse erfolgt.
Als Keynote zu Beginn der Konferenz sprachen Judith Pirscher, Staatssekretärin im Bundesministerium für Bildung und Forschung, und Patrick Graichen, Staatsekretär im Bundesministerium für Wirtschaft und Klimaschutz. Sie machten deutlich: Die aktuelle Legislaturperiode ist entscheidend, um die Rahmenbedingungen für eine wettbewerbsfähige Wasserstoffwirtschaft in Deutschland zu schaffen. Staatssekretärin Pirscher betonte: „Wir setzen beim Klimaschutz auf Technologien, nicht auf Verzicht. Grüner Wasserstoff ist deshalb ein Schlüsselelement für das Erreichen unserer ambitionierten Klimaziele. Gleichzeitig bieten Wasserstofftechnologien enorme Chancen für neues Wachstum und Exportmärkte und für gute Jobs. Um diese Chancen zu nutzen, brauchen wir einen massiven Innovationsschub. Das Bundesministerium für Bildung und Forschung steht mit seiner technologieoffenen Forschungsförderung für diesen Innovationsschub.“ Staatssekretär Graichen unterstrich: „Forschung und Innovation für die Energiewende und den Klimaschutz sind ein strategisches Element unserer Klima- und Energiepolitik. Wir brauchen einen Hochlauf von Wasserstoff in den No-regret-Anwendungen. Dafür müssen wir wissen, wie eine klug ausgerichtete und anwendungsorientierte Energieforschung aussieht, die dazu beiträgt, Technologiekosten zu senken.“
Wasserstoff-Markthochlauf: Unzureichende Flächen für erneuerbare Energien als Hemmnis
Um den Markthochlauf anzustoßen, sind aus Sicht der Befragten neben Herkunftsnachweisen für klimaverträglichen Wasserstoff weitere Maßnahmen notwendig. Unter anderem solle der für die Wasserstofferzeugung eingesetzte Strom von staatlichen Preisbestandteilen weitestgehend befreit werden. Überdies sind nach Meinung der Befragten staatliche Zuschüsse für Wasserstoffprojekte vonnöten. Die Umfrageergebnisse weisen außerdem auf zentrale Hemmnisse für eine großskalige Erzeugung von klimaneutralem Wasserstoff in Deutschland hin: 59 Prozent der Befragten sehen die hohen Investitions- und Unterhaltskosten als hinderlich für die Wirtschaftlichkeit von Produktionsanlagen. Ebenfalls 59 Prozent der Befragten betrachten die unzureichenden Flächen für Erneuerbare-Energien-Anlagen als zentralen Hemmschuh. Um Wasserstoff als Energieträger zu etablieren, braucht es aus Sicht der Befragten auch akzeptanzfördernde Maßnahmen, insbesondere für den Ausbau erneuerbarer Energien, in Bezug auf das Thema Sicherheit bei der Wasserstofferzeugung und -nutzung sowie für neue Wasserstoff-Transport-Infrastrukturen.
„Unsere Umfrageergebnisse verdeutlichen, dass Wissenschaft, Wirtschaft, NGOs und öffentliche Verwaltung einen sehr ähnlichen Blick auf Treiber und Hemmnisse für den Wasserstoff-Markthochlauf haben“, resümierte Prof. Dr.-Ing. Jan Wörner, acatech-Präsident. „Diese Ergebnisse sind ein wichtiger Anhaltspunkt bei der Erstellung einer Wasserstoff-Roadmap auf Basis der demnächst überarbeiteten Nationalen Wasserstoff-Strategie. Diese Wasserstoff-Roadmap kann nur erfolgreich sein, wenn sie auf einen ebenso koordinierten wie flexiblen Instrumenten-Mix abzielt. So können zeitgleich und schnell Erzeugung, Transport- und Speicherinfrastrukturen wie auch Anwendungsbereiche entstehen.“
Wasserstoffmarkt 2030: große Differenz zwischen inländischer Erzeugung und Nachfrage
acatech und DECHEMA erarbeiten derzeit eine Metaanalyse, in der sie fortlaufend Studien und Strategiepapiere zum Thema Wasserstoff auswerten. Heute präsentierten sie einen ersten Zwischenstand zu den Bereichen Mobilität, Stahlindustrie, chemische Industrie sowie zur Wasserstoff-Erzeugungskapazität in Deutschland. Die Auswertung weist bislang Elektrolyseprojekte aus, die 2030 eine Gesamtkapazität von ca. fünf Gigawatt haben werden. Im Koalitionsvertrag hat sich die neue Bundesregierung auf ein Elektrolysekapazitätsziel von 10 Gigawatt bis 2030 verständigt. Allerdings zeigt die Metaanalyse des Wasserstoff-Kompasses: Selbst bei optimistischen Annahmen der Laststunden und bei Erreichen der politischen Zielsetzung, werden die bis 2030 aufgebauten heimischen Kapazitäten nicht ausreichen, um den Minimalbedarf von etwa 50 Terawattstunden zu decken. „Nachhaltiger Wasserstoff wird in den nächsten Jahren eine knappe Ressource bleiben, die einem wachsenden Bedarf gegenübersteht“, folgerte Klaus Schäfer, Vorstandsvorsitzender der DECHEMA. „Um zukünftig Nachfrage und Angebot in Einklang zu bringen, ist es unverzüglich notwendig, die richtigen politischen Weichen zu stellen. Dabei stehen der Politik verschiedene Handlungsoptionen zur Verfügung. Mit dem Projekt Wasserstoff-Kompass tragen wir dazu bei, die ökologischen, ökonomischen und gesellschaftlichen Aspekte der verschiedenen politischen Handlungsoptionen aufzuzeigen.“
Über das Projekt Wasserstoff-Kompass
acatech und DECHEMA führen seit Juni 2021 das zweijährige Projekt Wasserstoff-Kompass durch. Gemeinsam erarbeiten sie mithilfe einer Metaanalyse einen Überblick über verschiedene Entwicklungspfade für den Markthochlauf sowie entsprechende Handlungsoptionen mit ihren jeweiligen Vor- und Nachteilen. Weiterhin organisiert der Wasserstoff-Kompass einen Dialog mit Stakeholdern aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft, um deren Sichtweisen einzuholen und auf ein gemeinsames Zielbild einer deutschen Wasserstoffwirtschaft hinzuwirken. Die Projektergebnisse kann die Politik für die Erarbeitung ihrer Wasserstoff-Roadmap nutzen. Das Projekt Wasserstoff-Kompass wird vom Bundesministerium für Bildung und Forschung sowie vom Bundesministerium für Wirtschaft und Klimaschutz gefördert.
Im März 2022 veröffentlichen acatech und DECHEMA ihren vollständigen Bericht zu den Umfrageergebnissen. Ausgewählte Ergebnisse der Umfrage stellen acatech und DECHEMA Ende Februar 2022 als Kurz-Dossier auf wasserstoff-kompass.de zum Download bereit.
Kontakt für weitere Informationen:
Alena Müller, Referentin Presse- und Öffentlichkeitsarbeit
acatech – Deutsche Akademie der Technikwissenschaften
Tel.: 030/2 06 30 96-33
mueller@acatech.de
Simone Angster, Leitung Kommunikation
DECHEMA e.V.
Tel. +49 69 7564-540
simone.angster@dechema.de
Weitere Informationen:
https://www.wasserstoff-kompass.de/
Blutfette geben neue Einblicke in den Zusammenhang von Ernährung mit Diabetes und Herz-Kreislauf-Erkrankungen
Birgit Niesing Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung
Typ-2-Diabetes und Erkrankungen des Herzkreislaufsystems gehen Veränderungen im Stoffwechsel voraus. Eine aktuelle Studie des DZD und DIfE deutet darauf hin, dass bestimmte Fettmoleküle (Ceramide), die im Stoffwechsel gebildet werden, an der Entstehung von Typ-2-Diabetes und CVD beteiligt sind. Die Studie stellt ausserdem einen Zusammenhang zwischen ungesunder Ernährung und nachteiligen Ceramidwerten im Blut her. Das könnte zum Beispiel erklären, warum das Diabetesrisiko durch häufigen Verzehr von rotem und verarbeitetem Fleisch erhöht. Als potenzielle Biomarker könnten Ceramide präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.
Ungesundes Essen kann zur Entstehung von Herzinfarkten, Schlaganfällen und Typ-2-Diabetes (kardiometabolische Erkrankungen) beitragen. Doch welche biochemischen Prozesse hier zugrunde liegen, ist bisher nicht genau bekannt. Moderne Messverfahren ermöglichen es, gleichzeitig eine große Anzahl von Stoffwechselprodukten im Blut zu messen und liefern dadurch umfassende Stoffwechselprofile in großen Studiengruppen. Dabei zeigt sich, dass bestimmte Fettmoleküle, die Ceramide und Dihydroceramiden, kritische Faktoren für die langfristige kardiometabolische Gesundheit sein könnten. Ausserdem beeinflusst die Ernährung die Zusammensetzung der Ceramide und Dihydroceramide.
Umfassende Untersuchungen zum Einfluss der Ernährung auf die Ceramidwerte im Blut und moögliche Auswirkung auf die Entstehung von kardiometabolischen Erkrankungen im Menschen fehlten bislang. Die Forschenden haben daher mehrere Tausend Teilnehmer:innen der EPIC-Potsdam-Studie** über mehrere Jahre beobachtet, um zu prüfen, ob man anhand von bestimmten, durch die Ernährung beeinflusste Ceramiden das Auftreten von kardiometabolischen Erkrankungen vorhersagen kann. Die Studie wurde unter Leitung des Deutschen Instituts für Ernährungsforschung (DIfE) durchgeführt und vom Deutschen Zentrum für Diabetesforschung (DZD) und dem BMBF-geförderten Projekt „FAME“*** unterstützt. Die Studienergebnisse zeigen, dass Ceramidprofile Einblicke in die Entwicklung von kardiometabolischen Erkrankungen bieten und das Verständnis vom Einfluss der Ernährung auf das Krankheitsrisiko verbessern können.
Erstellen von Ceramid-Profilen
Zu Beginn der Studie gaben alle Teilnehmer:innen Auskunft über ihre Ernährung und stellten Blutproben zur Verfügung. Die Probanden hatten weder Typ-2-Diabetes noch Herz-Kreislauf-Erkrankungen. In den folgenden Jahren entwickelten etwa 550 Proband:innen Herzkreislauferkrankungen und knapp 800 erkranketen an Typ-2-Diabetes. Mithilfe einer neuartigen analytischen Plattform – s.g. Lipidomics – erstellten die Forschenden Profile der Ceramide und Dihydroceramide im Blut der EPIC-Potsdam-Teilnehmer:innen.
Bestimmte Ceramide vermitteln nachteilige Auswirkung von ungesundem Essen
Die Forschenden untersuchten darüber hinaus, ob krankheitsrelevante Ceramide und Dihydroceramide auch mit dem Verzehr von Lebensmitteln in Verbindung stehen. „Menschen, die viel Fleisch essen, haben ein höheres Diabetesrisiko. Wir konnten jetzt erstmals zeigen, dass ein hoher Verzehr von rotem und verarbeitetem Fleisch mit ungünstigen Spiegeln diabetesbezogener Ceramide verbunden war. Unsere Ergebnisse legen nahe, dass der Zusammenhang von Fleischverzehr und Diabetesrisiko durch den Einfluss auf Ceramidspiegel im Blut vermittelt werden könnte“, berichtet Erstautor Clemens Wittenbecher, Mitarbeiter der Abteilung Molekulare Epidemiologie am DIfE und der Harvard T.H. Chan School of Public Health. Matthias Schulze, Leiter der Abteilung Molekulare Epidemiologie am DIfE und Letztautor der Studie ergänzt: „Detaillierte Stoffwechselprofile in grossen Kohortenstudien helfen uns, den Zusammenhang zwischen Ernährung und Krankheitsrisiko besser zu verstehen. Das trägt letzendlich zu evidenzbasierten und genaueren Ernährungsempfehlungen bei.“
Studie eröffnet neue Präventionsansätze
Kardiometabolische Erkrankungen wie Herzinfarkt, Schlaganfall und Typ-2-Diabetes sind weltweit für mehr als ein Drittel der Todesfälle verantwortlich. Die Ergebnisse der aktuellen Studie identifizierten bestimmte Ceramide als potenzielle Biomarker für den Zusammenhang zwischen Ernährung und Krankheitsrisiko und könnten so präzisere Ernährungsansätze für die Prävention kardiometabolischer Erkrankungen ermöglichen.
Original-Publikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1
*Ceramide sind eine Untergruppe der Sphingolipide, die wichtige Bestandteile von Zellmembranen sind und als Signalmolekuele wirken. Sie beeinflussen verschiedene Stoffwechselprozesse, darunter auch die Insulinempfindlichkeit und Entzuendungsreaktionen. Ceramide könnten an der Pathogenese von Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen beteiligt sein.
Die EPIC-Potsdam-Studie ist eine bevölkerungsbasierte prospektive Kohortenstudie und Teil der internationalen EPIC-Studie. Sie umfasst ca. 27.500 Teilnehmende. Zu Beginn der Studie im Jahr 1994 waren die Frauen im Alter von 35 bis 64 Jahren und die Männer im Alter von 40 bis 64 Jahren. Die EPIC-Potsdam-Studie dient mit ihrer umfangreichen Datenbasis als Grundlage für bevölkerungsbasierte epidemiologische Forschung am DIfE. Die Forschungsergebnisse tragen dazu bei, die wissenschaftliche Grundlage für mögliche Präventionsmaßnahmen zu schaffen und die Gesundheit der Bevölkerung zu verbessern. https://www.dife.de/forschung/kooperationen/epic-studie/
Das Verbundprojekt FAME („Fettsäuremetabolismus als Marker für Ernährung und kardiometabolische Gesundheit“) wurde im Rahmen der europäischen Programminitiative „Eine gesunde Ernährung für ein gesundes Leben“ (JPI HDHL) durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert. In dieser Initiative arbeiten EU-Mitgliedsstaaten, assoziierte Staaten sowie Kanada und Neuseeland zusammen, um die Ernährungsforschung über Ländergrenzen hinweg zu bündeln und zu stärken. Ziel der transnationalen Fördermaßnahme „Biomarker für Ernährung und Gesundheit“ der JPI HDHL ist es, neue Biomarker zu identifizieren, die den Ernährungszustand erfassen und damit zur Aufklärung der Zusammenhänge zwischen Ernährung und Gesundheit beitragen können. Neben dem DIfE sind die Universitäten Navarra und Cordoba (Spanien) sowie Reading und East Anglia (Großbritannien) am FAME-Verbund beteiligt.
https://fame.dife.de/
Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner.
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD).
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Schulze
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Leiter der Abteilung Molekulare Epidemiologie
Tel.: + 49 33 200 88 – 2434
E-Mail: mschulze@dife.de
Originalpublikation:
Wittenbecher, C. … Schulze, M. et al: Dihydroceramide- and ceramide-profiling provides insights into human cardiometabolic disease etiology. Nature Communications (2022) DOI: https://doi.org/10.1038/s41467-022-28496-1
Weltwassertag am 22. März – Genug trinken: Reicht der Durst als Signalgeber?
Dr. Andreas Mehdorn Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Ausreichend Wasser zu trinken, regt den Stoffwechsel an, sorgt für eine funktionierende Verdauung und kann hohen Blutdruck senken. Der tägliche Flüssigkeitsbedarf ist individuell unterschiedlich und hängt von Faktoren wie dem Körpergewicht, Alter, Gesundheitszustand und der physischen Belastung ab. Gerade wer an Erkrankungen wie Diabetes, Gicht oder Herzschwäche leidet, sollte gut auf eine angemessene Trinkmenge achten, rät die Deutsche Gesellschaft für Innere Medizin e.V. (DGIM) anlässlich des Weltwassertags am 22. März.
Eine zu geringe wie auch eine zu hohe Flüssigkeitszufuhr können – je nach Gesundheitszustand – gleichermaßen schädlich sein, warnen die Experten der Fachgesellschaft, die Ende April 2022 in Wiesbaden ihren Kongress abhalten, bei dem sie das dort derzeit gefeierte „Jahr des Wassers“ aufgreifen.
Der menschliche Körper besteht zu rund 70 Prozent aus Wasser, das Blut sogar zu über 90 Prozent. Aufwändige Regelmechanismen sorgen dafür, dass diese Werte auch bei wechselnden Temperaturen und unterschiedlichen körperlichen Belastungen weitgehend konstant bleiben. Die augenscheinlichsten: Die produzierte Harnmenge – erkennbar am Harndrang – und das Durstgefühl. „Bei gesunden Menschen spricht nichts dagegen, sich im Großen und Ganzen auf das Durstgefühl zu verlassen“, sagt der Gastroenterologe und DGIM-Vorsitzende Professor Dr. med. Markus M. Lerch. So ergeben sich meist von selbst Trinkmengen von eineinhalb bis zwei Litern täglich – wobei feuchte Nahrungsmittel wie Suppen, Obst und Gemüse durchaus mitgerechnet werden dürfen, erläutert Lerch, der zugleich Ärztlicher Direktor am LMU Klinikum München ist.
Einige Faktoren können jedoch dafür sorgen, dass auf den Durst als Ratgeber nicht mehr uneingeschränkt Verlass ist. Einer davon ist das Alter. „Bei älteren Menschen lässt das Durstempfinden deutlich nach“, so Lerch. Ältere blieben daher oft unter der Zielmarke von eineinhalb Litern und sollten sich ab und zu bewusst ein Glas Wasser einschenken. Auch Menschen mit Diabetes wird eher zu einer leicht erhöhten Trinkmenge geraten, um die Zuckerausscheidung über die Niere zu unterstützen. Und nicht zuletzt sollten Menschen, die Medikamente zur Entwässerung einnehmen und daher besonders viel Harn bilden, auf eine ausreichende Trinkmenge achten.
Warnzeichen für einen Flüssigkeitsmangel ist zunächst eine Dunkelfärbung des Urins, der konzentriert und in geringerer Menge ausgeschieden wird. Auch der Stuhl kann fester werden und Verstopfungsbeschwerden auslösen. „Gerade an heißen Tagen kann sich der Flüssigkeitsmangel verschärfen und kritisch werden, was sich durch Herzrasen, Verwirrtheit und Kreislaufschwäche bis hin zur Ohnmacht äußert“, erklärt Professor Dr. med. Georg Ertl, Internist, Kardiologe und Generalsekretär der DGIM. Unter Dehydrierung leiden auch die Nieren, im schlimmsten Fall kommt es zum akuten Nierenversagen.
Lebt man also umso gesünder, je mehr man trinkt? „Diesen Umkehrschluss darf man nicht ziehen“, mahnt DGIM-Experte Ertl. Bei gewissen Krankheiten können große Trinkmengen sogar schädlich sein. „Das ist etwa bei Patienten mit fortgeschrittener Herzschwäche der Fall, bei denen zu viel Flüssigkeit das Herz über Gebühr belastet“, so Kardiologe Ertl. Auch Nierenerkrankungen wie die chronische Niereninsuffizienz können es erforderlich machen, die Trinkmenge zu verringern. Der Flüssigkeitshaushalt ist zudem untrennbar verwoben mit dem Mineralhaushalt des Körpers. Und auch hier gilt: Wer zu viel trinkt, riskiert unter Umständen einen Mangel an Elektrolyten. Diese Gefahr besteht besonders dann, wenn gleichzeitig wenig oder gar nichts gegessen wird – wie es bei manchen Fastenkuren oder bei einer Essstörung der Fall sein kann. „Auch Sportler oder Menschen, die körperlich arbeiten und mit dem Schweiß viele Elektrolyte verlieren, können ihren Mineralhaushalt durch große Trinkmengen in Schieflage bringen“, sagt Ertl. Statt Leitungswasser sollte der Durst dann lieber mit einer Saftschorle oder einem alkoholfreien Bier gestillt werden.
Ihr Kontakt für Rückfragen:
DGIM Pressestelle
Dr. Andreas Mehdorn
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-313
Fax: 0711 8931-167
E-Mail: mehdorn@medizinkommunikation.org
http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev
Tippen mit beiden Händen beugt dem Handydaumen vor
Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.
Tag der Hand am 1. März: Macht uns das Handy krank?
Häufiges Tippen auf dem Smartphone kann zu einem schmerzhaften Handydaumen führen. Um das zu vermeiden, empfehlen Orthopäden und Unfallchirurgen beide Daumen beim Tippen zu verwenden. „Für die meisten ist das Handy nicht mehr aus dem Alltag wegzudenken. Immer wieder führt das viele Schreiben von Nachrichten zu schmerzhaften Entzündungen der Sehnen am Daumen.
Die Beachtung einiger Regeln beugt chronischem Schmerz vor“, sagt Prof. Dr. Andreas Halder, stellvertretender Präsident der Deutschen Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) sowie Ärztlicher Direktor und Chefarzt der Klinik für Operative Orthopädie der Sana Kliniken Sommerfeld anlässlich des Tags der Hand am 1. März.
Knapp vier Stunden beträgt die durchschnittliche tägliche Handyzeit aller Nutzer in Deutschland. Der Daumen fliegt dabei pausenlos auf dem Display hin und her. Dass die Hand das mitmacht, erscheint uns selbstverständlich. Der Daumen ist jedoch von der Natur dafür gemacht, das Zugreifen der Hand zu unterstützen und das Umschließen zu ermöglichen. „Eine kräftige Beugung des Daumens ist dabei natürlich, eine Streck- oder Abspreizbewegung wie bei der Handy-Nutzung auf Dauer jedoch nicht“, sagt Halder. Der Zusammenhang zwischen dem Vieltexten auf dem Mobiltelefon und Entzündungen der Sehnenscheiden des langen Daumenstreckers und -spreizers ist wissenschaftlich belegt. So ist das Entzündungsrisiko bei intensiver Nutzung fast siebenfach erhöht. Wird der Daumen dann nicht geschont, wird der Schmerz chronisch und dehnt sich auf Greifbewegungen mit der ganzen Hand aus. Selbst das Auf- und Zuknöpfen von Kleidung kann dann Probleme bereiten.
Orthopäden und Unfallchirurgen geben 5 Tipps zur Vermeidung eines Handydaumens:
1) besser beide Daumen als nur einen verwenden, um die Belastung zu mindern
2) bei langer Smartphone-Nutzung Pausen und Dehnübungen einbauen
3) ab und an im Stehen zu tippen, denn das ist für den Daumen weniger anstrengend als im Sitzen
4) zur Abwechslung Sprachnachrichten schicken, statt zu schreiben
5) beim Schreiben im Sitzen möglichst den Unterarm auflegen
Was passiert aus orthopädischer Sicht genau, wenn es zu einem Handydaumen kommt? Generell gilt: Je schneller wir tippen, desto eher überlasten wir die Gelenke und Sehnen. Benutzen wir nur eine Hand, muss sich der Daumen oft quer über das ganze Display strecken, um Buchstaben und Zahlen zu erreichen. Je größer das Display, desto anstrengender wird es für den Daumen. Deshalb haben es Menschen mit kleinen Händen schwerer. Sie müssen das Handy häufiger kippen und zeigen beim Tippen mehr Muskelaktivität im Daumenstrecker. Sind die Tasten auf dem Display zudem klein, muss der Daumen steiler gehalten werden. Das heißt, er muss mehr gebeugt werden, um genau zu treffen, was wiederum die Daumenbeuger stärker beansprucht. Interessanterweise ist das Tippen im Stehen für den Daumen weniger anstrengend als im Sitzen, wahrscheinlich weil das Handgelenk mehr Bewegungsfreiheit hat. Im Sitzen wird das Tippen für den Daumen erst leichter, wenn der Unterarm aufliegen kann. Jugendliche halten das Handy lockerer in der Hand als Ältere und erlauben so mehr Bewegungsspiel in den Daumengelenken.
Doch wie macht sich ein Handydaumen bemerkbar? „Eine Überbelastung durch zu häufiges Strecken und Abspreizen des Daumens verursacht Schmerzen auf der Daumenseite des Handgelenks. Diese entstehen durch eine Sehnenscheidenentzündung und sind vor allem bei der Tippbewegung des Daumens spürbar“, sagt Dr. Thomas Brockamp aus der Sektion Prävention der DGOU, er ist Handchirurg in Münster. Ein einfacher Selbsttest, der sogenannte Finkelstein-Test, gibt einen Hinweis: Typischerweise wird der Schmerz verstärkt, wenn man den Daumen in die Handfläche legt und die Hand in Richtung Kleinfinger beugt. Der Arzt kann in schweren Fällen zusätzlich eine Ultraschall- oder MRT-Untersuchung veranlassen.
Doch was tun, wenn es zu Schmerzen im Daumen kommt? „Die gute Nachricht ist, dass in den allermeisten Fällen keine Operation nötig ist. Der Arzt kann Physiotherapie verordnen, ein Schmerzmittel oder eine Kortisoninjektion geben“, sagt Brockamp. Oftmals reicht es aber schon aus, das eigene Verhalten am Handy zu ändern, was aber gerade für intensive Handynutzer nicht leicht ist. Die wichtigste Maßnahme ist die Schonung des Daumens und der Hand, indem die Handynutzung reduziert wird. Pausen zwischendurch sind daher ebenso wichtig wie bewusst die Tippgeschwindigkeit zu verringern. Dabei sollten besser beide Daumen als nur einer verwendet werden, um die Belastung des einzelnen zu mindern. Schließlich kann es helfen, den Daumen und das Handgelenk zu dehnen, um die Sehnen zu lockern.
Hintergrund
Mehr als 62 Millionen Handys gibt es in Deutschland und fast 98 Prozente der Haushalte besitzen eins. Und die Nutzung fängt früh an: 94,2 Prozent der 14- bis 19-jährigen Jugendlichen haben bereits ein Smartphone, bei Erwachsenen sind es sogar mehr. Schon vor der Corona-Pandemie nutzten deutsche Jugendliche zwischen 16 und 18 Jahren das Handy im Schnitt knapp 36 Stunden pro Woche. Die durchschnittliche tägliche Handyzeit aller Nutzer liegt bei 229 Minuten, also knapp vier Stunden.
Referenzen:
• Ali, M., Asim, M., Danish, S. H., Ahmad, F., Iqbal, A., & Hasan, S. D. (2014). Frequency of De Quervain’s tenosynovitis and its association with SMS texting. Muscles Ligaments Tendons J, 4, 74-78.
• Gustafsson, E., Johnson, P. W., & Hagberg, M. (2010). Thumb postures and physical loads during mobile phone use – a comparison of young adults with and without musculoskeletal symptoms. Journal of Electromyography and Kinesiology, 20, 127-135.
• Gustafsson, E., Johnson, P. W., Lindegård, A., & Hagberg, M. (2011). Technique, muscle activity and kinematic differences in young adults texting on mobile phones. Ergonomics, 54, 477-487. Otten, E. W., Karn, K. S., & Parsons, K. S. (2013). Defining thumb reach envelopes for handheld devices. Hum Factors, 55, 48-60.
• Park, Y. S., & Han, S. H. (2010b). Touch key design for one-handed thumb interaction with a mobile phone: Effects of touch key size and touch key location. International Journal of Industrial Ergonomics, 40, 68-76.
• Xiong, J., & Muraki, S. (2014). An ergonomics study of thumb movements on smartphone touch screen. Ergonomics, 57, 943-955.
• Xiong, J., & Muraki, S. (2016). Effects of age, thumb length and screen size on thumb movement coverage on smartphone touchscreens. International Journal of Industrial Ergonomics, 53, 140-148.
• Postbank Jugend-Digitalstudie 2019
Kontakt für Rückfragen:
Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -16 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de
Weitere Informationen:
http://www.dgou.de
Praxiseinstieg in digitale Ökosysteme am Beispiel Gaia-X
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Fraunhofer IAO bietet Orientierungshilfe für Anbieter von Produkten und Dienstleistungen
Anbietern von Produkten und Dienstleistungen fehlt es an Wissen, praktischen Werkzeugen und etablierten Standards zu einem sicheren, vertrauensvollen und interoperablen Datenaustausch und der Bereitstellung digitaler Services. Das Fraunhofer IAO gibt in einer Publikation mit einem Anwendungsfall einen methodischen Einstieg sowie Handlungsoptionen für eine strategische Positionierung in digitalen Ökosystemen.
Im Zeitalter der Digitalisierung und Plattformökonomie haben sich in den letzten Jahren neue digitale, datenbasierte Wertschöpfungsnetzwerke gebildet. Daten und ihre ökonomischen Auswirkungen durchdringen alle Bereiche der Wirtschaft und bis 2025 rechnet die Europäische Kommission mit einer weltweiten Zunahme des Datenvolumens um mehr als das Fünffache. Dadurch steigt auch für Anbieter von Produkten und Dienstleistungen die Bedeutung einer Teilhabe an digitalen Daten- und Serviceplattformökosystemen. Vielen Anbieterunternehmen fehlen jedoch noch die notwendigen Ressourcen und das entsprechende Know-how zu Digitalisierung und Daten.
Lösungskonzepte, Normen und Standards führender Initiativen können eine gute Grundlage zur wettbewerbsfähigen Teilhabe sein
Das Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg will diese Wissenslücken nun schließen. Es fördert deshalb die nun erschienene Publikation »Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke Gaia-X«, die gemeinsam von Wissenschaftler*innen des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO, des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA, des Fraunhofer-Instituts für Software- und Systemtechnik ISST, dem Institut für Enterprise Systems (InES) an der Universität Mannheim, der bwcon research gGmbH, der Virtual Fort Knox AG sowie der incontext.technology GmbH erstellt wurde. Die Publikation entstand im Ergänzungsprojekt des Förderprojekts Cloud Mall BW mit dem Fokus auf digitale Daten- und Serviceökosysteme.
»Gerade für Service-Anbieter gibt es aktuell enorme Herausforderungen mit dem Umgang und der strategischen Positionierung hinsichtlich digitaler Wertschöpfungsnetzwerke. Viele Fragen bezüglich Datensouveränität, Interoperabilität, Vertrauen und Sicherheit sind derzeit noch ungeklärt«, sagt Sandra Frings, Projektleiterin Cloud Mall BW am Fraunhofer IAO und Mitautorin der Publikation. Führende Initiativen und Leuchtturmprojekte wie beispielsweise Gaia-X oder die International Data Space Association haben sich in den vergangenen Jahren gebildet mit dem Ziel, Lösungskonzepte, Normen und Standards zu erarbeiten, auf denen Unternehmen zukunftsfähige Produkte aufbauen können. In der Publikation hat das Expert*innenteam am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion (KIEP)« im Rahmen von Workshops einen kooperativen Geschäftsmodellansatz, ein Wertschöpfungsnetzwerk und eine IT-Architektur unter Berücksichtigung der Gaia-X-Spezifikationen konzipiert. Die gewonnenen Erkenntnisse und daraus abgeleitete Handlungsoptionen sowie eine Übersicht über wesentliche Initiativen sollen Anbieterunternehmen als Orientierungshilfe im Aufbau von digitalen Ökosystemen als Werkzeuge an die Hand gegeben werden.
Handlungsempfehlungen für den Praxistransfer: Entwicklung eines Nutzenszenarios und fundierte Einarbeitung
Um einen erfolgreichen Transfer in die Praxis zu ermöglichen, ist laut den Expert*innen die gemeinsame Entwicklung eines Nutzenszenarios mit einem schlagkräftigen Kern an Partnerunternehmern ein Erfolgsfaktor und wesentliche Grundlage für die Konzeptentwicklung. Die klare Herausarbeitung von Zielgruppen vereinfache die Identifizierung konkreter und entscheidender Nutzenvorteile für alle Stakeholder im Ökosystem. Ökosysteme auf föderativer Basis stellten in diesem Zusammenhang eine große Herausforderung dar, aber ermöglichten eine aktive und gleichberechtigte Partizipation insbesondere von kleinen und mittleren Anbietern von Produkten und Dienstleistungen an digitalen Wertschöpfungsnetzen. »Neulinge« in Daten- und Serviceökosystemen sollten Zeit zur Einarbeitung in die Thematik mitbringen. Denn eine gründliche Einarbeitung in die Dokumentationen und Terminologien wird dringend empfohlen, auf deren Basis eine gemeinsame Vision und Verständnis für technische Grundlagen entwickelt werden könne. So könnten auch die Möglichkeiten für eine Umsetzung der Strategien und Visionen von Ökosystemen realistisch eingeschätzt werden. Die nationalen und domänenspezifischen Gaia-X Hubs bieten eine Anlaufstelle, um die Einarbeitung und den Austausch mit anderen Interessierten zu erleichtern.
Im Rahmen der Arbeiten am Praxispilot stellten die Beteiligten fest, dass die Rollenverteilung und rollenspezifische Mechanismen in der Gaia-X-Spezifikation weiter detailliert und ausgebaut werden sollten. Insbesondere sollte mehr Transparenz für kleine und mittlere Unternehmen (KMU) bei der Umsetzung von Gaia-X-Netzwerken geschaffen werden. Ebenso sei es wichtig, dass die Inhalte der Gaia-X-Dokumente und Aktivitäten vor allem noch KMU-orientierter gestaltet werden. Gaia-X solle auch KMU-freundlichere Technologien und Methoden berücksichtigen. In diesem Zusammenhang sollte insbesondere die Partizipation und Zusammenarbeit der beteiligten Stakeholder überdacht und optimiert werden. Begleitend sei es mit diesem Hintergrund hilfreich, vielleicht sogar notwendig, dass Transferinitiativen des Mittelstands die Inhalte niederschwellig für KMU aufbereiten und vermitteln, um sie so besser auf eine Beteiligung vorzubereiten und die möglichen Vorteile zu verdeutlichen. Auf diese Weise könne Gaia-X auch bei KMU als strategische Option weiterentwickelt werden.
Ansprechpartnerin Presse:
Juliane Segedi
Presse und Öffentlichkeitsarbeit
Fraunhofer IAO
Nobelstr. 12
70569 Stuttgart
Telefon +49 711 970-2343
juliane.segedi@iao.fraunhofer.de
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Holger Kett
Leiter Team Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2415
holger.kett@iao.fraunhofer.de
Sandra Frings
Digital Business Services
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2460
sandra.frings@iao.fraunhofer.de
Originalpublikation:
http://publica.fraunhofer.de/dokumente/N-645791.html
Praxisorientierter Einstieg für Service-Anbieter in digitale Wertschöpfungsnetzwerke
Gaia-X am Beispiel des Praxispiloten »KI-gestützte Energieoptimierung in der Produktion«
Autor(en): Frings, Sandra; Kett, Holger; Härle, Julia; Meyer, Olga; Schel, Daniel; Himmelsbach, Timo; Halckenhäußer, André; Schleimer, Anna Maria; Spiekermann, Markus; Tordy, Robert; Junge, Jörg; Mordvinova, Olga; Waguet, Cyrille; Mietzner, Rudolf
Weitere Informationen:
https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/praxiseinstieg-in-d…
https://cloud-mall-bw.de/
Kohlenstoffspeicherung in Küstenökosystemen verbessern
Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Forschungsverbund sea4soCiety unter Beteiligung der LUH untersucht innovative Ansätze zur klimaregulierenden Wirkung in Deutschland und in den Tropen
Küstenökosysteme wie Mangrovenwälder, Seegraswiesen oder Algenwälder speichern riesige Mengen an Treibhausgasen aus der Atmosphäre. Das natürliche Potenzial der Kohlenstoffspeicherung in diesen vegetationsreichen Küstenökosystemen kann aber noch stark verbessert werden: Das ist das Ziel des Forschungsverbundes sea4soCiety, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Durch die Aufnahme von Kohlenstoff leisten diese Küstenbereiche einen entscheidenden Beitrag dafür, den Klimawandel zu bremsen. Maritime Ökosysteme können deutlich mehr Kohlenstoff speichern als Wälder an Land. Der gesamte Kohlenstoff, der in küstennahen Ökosystemen gespeichert ist, wird als blauer Kohlenstoff bezeichnet.
sea4soCiety will untersuchen, wie das Potenzial der Kohlenstoffspeicherung in diesen Küstenbereichen vergrößert werden kann, etwa durch Flächenerweiterungen. Dafür sollen in der dreijährigen Förderphase bis 2024 innovative und gesellschaftlich akzeptierte Ansätze entwickelt werden. Zusammengetan haben sich neun Forschungsinstitute (Koordination: Prof. Dr. Martin Zimmer, Leibniz-Zentrum für Marine Tropenforschung – ZMT). Die Leibniz Universität Hannover (LUH) ist mit dem Ludwig-Franzius-Institut für Wasserbau und Ästuar- und Küsteningenieurwesen beteiligt. Der Forschungsverbund wird die Speicherkapazität für blauen Kohlenstoff in vier verschiedenen Arten von Küstenökosystemen – Seegraswiesen, Mangroven, Algenwälder und Salzmarschen – an den deutschen Nord- und Ostseeküsten, in der Karibik und an indonesischen Küsten untersuchen und bewerten.
Die Wissenschaftlerinnen und Wissenschaftler des Ludwig-Franzius-Instituts untersuchen im Projekt schwerpunktmäßig, wie stabil diese Ökosysteme sind, wenn klimawandelbedingt häufigere und stärkere Stürme und Wellen auftreten werden. Wie beständig bleibt diese Ressource in der Zukunft? Zudem forschen sie an Co-Nutzungen, also ob etwa Algenwälder oder Seegraswiesen zuverlässig als Wellenbrecher fungieren können. „Wir planen Feldkampagnen in Deutschland und in den Tropen, holen aber auch Pflanzen ins Labor“, erläutert PhD Maike Paul vom Ludwig-Franzius-Institut.
Der Schwerpunkt der hannoverschen Forschenden liegt auf den Braunalgen und dem tropischen Seegras, das im Gegensatz zum europäischen Seegras noch recht unerforscht ist. „Wir schauen uns unter anderem die Strömungsverhältnisse an“, sagt Paul. Diese Messungen können Aufschluss darüber geben, welche Strömungen diese Pflanzen überstehen. Wichtig für Neuansiedlungen sei zum Beispiel, zu verstehen, unter welchen Bedingungen kleine Pflanzen überleben. „Diese Belastungsgrenzen wollen wir im Labor untersuchen.“ Die Pflanzen werden hier experimentell an zukünftig eintretende klimatische Bedingungen akklimatisiert. Für Sommer 2022 ist aber auch die erste Feldkampagne in Braunalgenwäldern bei Helgoland unter Beteiligung der Universität Bremen und der Universität Kiel mit ihrem Forschungsschiff geplant.
Andere Partner im Projekt sea4soCiety untersuchen weitere Teilaspekte der Verbesserung des natürlichen Potenzials der blauen Kohlenstoffspeicherung. So forscht die Universität Hamburg etwa partizipativ an der gesellschaftlichen Akzeptanz von Maßnahmen in den Küstenökosystemen.
sea4soCiety ist Teil der Forschungsmission „Marine Kohlenstoffsenken in Dekabonisierungspfaden (CDRmare)“ der Deutschen Allianz Meeresforschung (DAM). Ziel ist es, die Meere als Kohlenstoffspeicher weiter zu erforschen. Insgesamt untersuchen rund 200 Forschende in sechs Verbundprojekten, wie die klimaregulierende Bremswirkung des Ozeans in Zukunft verstärkt werden kann. sea4soCiety ist eines der sechs seit August 2021 geförderten Projekte. Mehr Informationen zur Forschungsmission unter http://www.allianz-meeresforschung.de/news/klimawandel-mit-ozean-effektiver-begrenzen/ und unter https://cdrmare.de/
Für weitere Informationen steht Ihnen PhD Maike Paul, Ludwig-Franzius-Institut, unter Telefon +49 511 762 2584 oder per E-Mail unter paul@lufi.uni-hannover.de gern zur Verfügung.
Übergewicht vorbeugen
SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Dorothea Portius von der SRH Hochschule für Gesundheit klärt über Ursachen von Übergewicht und Adipositas auf.
Fettleibigkeit, auch als Adipositas bezeichnet, stellt heutzutage eine große gesundheitliche Herausforderung dar – eine, die in den letzten Jahrzehnten stetig gewachsen ist. Allein in Deutschland sind rund zwei Drittel der Männer und die Hälfte der Frauen übergewichtig (BMI über 25) bzw. adipös (BMI über 30), wie eine Studie des Robert-Koch-Instituts ergab. Die Weltgesundheitsorganisation spricht sogar von einer Adipositas-Epidemie in Europa. Prof. Dr. Dorothea Portius, Studiengangsleiterin im Bachelor-Studiengang Ernährungstherapie und -beratung am Campus Gera der SRH Hochschule für Gesundheit, erklärt: „Man nahm an bzw. so denken immer noch einige Wissenschaftler:innen und Ärzt:innen, dass die Ursache der Epidemie sehr einfach sei: Konsum zu vieler Kalorien + bewegungsarmer Lebensstil = Übergewicht. Doch die Forschung der letzten Jahre hat gezeigt, dass die Gründe für Übergewicht viel komplizierter sind. Natürlich spielen die Nahrungsaufnahme und Bewegung eine entscheidende Rolle, aber der Vorgang ist viel komplexer als nur ‚Energie rein‘ versus ‚Energie raus‘.“
Demnach tragen Umweltfaktoren, der Lebensstil und die Nahrungsmittelindustrie wesentlich zu dem Problem bei. Konkret verweist Prof. Portius auf fünf hauptsächliche Ursachen: Diäten, chronischen Stress, Schlafmangel, das Darmmikrobiom sowie Umweltgifte. So kann etwa der Kampf gegen die Gewichtszunahme für viele Übergewichtige zu einem Teufelskreis werden, wenn sie die Kalorienzufuhr für eine Weile einschränken und dann den Jo-Jo-Effekt erleben: Gewichtsabnahme gefolgt von Gewichtszunahme, und das immer wieder. Dieser stetige Gewichtswechsel kann zu einer Verringerung der Stoffwechselrate führen, einer erheblichen Hürde, wenn man versucht, Pfunde loszuwerden. Extreme Crash-Diäten mit einer enormen Drosselung der Kalorienzufuhr führen letztendlich dazu, dass der Körper den Stoffwechsel lahmlegt. Dies wiederum begünstigt, dass man nach einer Diät wieder leichter an Gewicht zulegt.
Der Zusammenhang zwischen Stress und Übergewicht liegt vor allem in Hormonen, insbesondere dem Stresshormon Cortisol. Stetig hohe Cortisolwerte steigern den Appetit. Emotionales Essen – sich bei Anspannung, Stress, Angstzuständen und Depressionen an Komfortnahrung zu bedienen – kann ebenfalls Teil dieses Musters werden. Prof. Portius empfiehlt daher, durch tägliche Bewegung und andere Anti-Stress-Methoden wie Meditation zur Ruhe zu kommen und dem Körper eine Auszeit zu geben. Untersuchungen haben auch gezeigt, dass es einen klaren Zusammenhang zwischen Schlafmangel und Fettleibigkeit gibt. Personen, die sechs oder weniger Stunden schlafen, haben demnach ein größeres Risiko für Fettleibigkeit. Doch nicht nur die Schlafdauer, auch die Schlafqualität spielt hier eine wichtige Rolle. Alkohol, schwere späte Mahlzeiten, langes Fernsehen, Arbeiten bis kurz vor das Schlafengehen oder zu wenig Bewegung können Ursachen für eine verminderte Schlafqualität sein.
Darüber hinaus zeigen neuere Studien, dass Veränderungen des Mikrobioms, d. h. der Population von Bakterien und anderen Mikroorganismen in und auf unserem Körper, eine Rolle bei der Entwicklung von Übergewicht spielen. Eine Ernährung bestehend aus wenig Ballaststoffen, vielen Einfachzuckern, ungesunden Fetten und Zusatzstoffen, schädigt unsere Darmflora und Darmbarriere. Daher sollte häufiger zu präbiotischen Lebensmitteln wie Hülsenfrüchten, Rohkost und Vollkorngetreide sowie probiotischen Lebensmitteln wie Sauerkraut und Naturjoghurt gegriffen werden. Weiterhin kommen wir täglich mit Hunderten von Chemikalien in Kontakt, darunter etwa Shampoo, Baumaterialien und Haushaltsreiniger. Die Chemikalien Bisphenol A und Phthalate zählen zur Gruppe der endokrinen Disruptoren, welche häufig mit Fettleibigkeit in Verbindung gebracht werden. Es gibt jedoch einige Möglichkeiten, wie der Kontakt mit diesen Chemikalien minimiert werden kann, z. B. die Verwendung von Glas- und Edelstahlbehältern anstelle von Kunststoff sowie natürliche Schönheitsprodukte.
Mehr zum Thema Ernährung erfahren Interessierte im März im Rahmen des Themenmonats „Food and Mood – Wie Ernährung unser Wohlbefinden beeinflusst“ an der SRH Hochschule für Gesundheit.
Alle Veranstaltungen unter https://www.srh-gesundheitshochschule.de/srh/events/
Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/dorothe…
Starke Kooperation von Universität in Koblenz, Hochschule Koblenz und Bundesanstalt für Gewässerkunde vereinbart
Dominik Rösch Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Die Universität Koblenz-Landau, die Hochschule Koblenz und die Bundesanstalt für Gewässerkunde wollen noch enger im Bereich Wasser zusammenarbeiten. Dazu schlossen die drei Einrichtungen nun ein Kooperationsabkommen.
In diesem Kooperationsabkommen vereinbaren die drei Institutionen eine engere Zusammenarbeit auf verschiedenen wissenschaftlichen Gebieten. Mit dem Abkommen sollen unter anderem der freie Austausch von Erkenntnissen sowie Daten gefördert und gemeinsame wissenschaftliche Projekte unterstützt werden. Studierende und Mitarbeitende der drei Einrichtungen profitieren unmittelbar: So wollen die drei Einrichtungen zukünftig vermehrt gemeinsame Bachelor-, Master- und Doktorarbeiten ermöglichen und den Zugang zu den jeweiligen Bibliotheken vereinfachen. Die Kooperationsvereinbarung beinhaltet zudem die gegenseitige Nutzung von Groß- und Laborgeräten.
Neuer Studiengang „Gewässerkunde und Wasserwirtschaft“
Herzstück der Kooperation sind Vereinbarungen, die Lehrangebote für gemeinsame Studiengänge ermöglichen. Die Planungen für einen von der Universität in Koblenz, Hochschule Koblenz und der Bundesanstalt für Gewässerkunde getragenen Bachelor- sowie Master-Studiengang sind bereits weit fortgeschritten. Der Studiengang „Gewässerkunde und Wasserwirtschaft“ soll voraussichtlich im Wintersemester 2023/2024 starten.
Der Studiengang beinhaltet aktuelle Themen: Der Klimawandel, der Eintrag von Spurenstoffen in Gewässer, eine alternde Wasserverkehrs-Infrastruktur und veränderte gesellschaftliche Ansprüche stellen die Gewässer-Ökosysteme überall und die Wasserstraßen vor große Herausforderungen. Zur Bewältigung und Lösung der drängenden Aufgaben wird eine neue Generation interdisziplinär ausgebildeter Wasser-Expert/-innen benötigt. Der Koblenzer Wasserstudiengang ist durch die Beteiligung der Bundesanstalt für Gewässerkunde, einer Ressortforschungseinrichtung des Bundes, etwas Besonderes und kombiniert die Wasser-Expertise der drei beteiligten Einrichtungen.
„Der neue Studiengang erweitert das attraktive Studien-Angebot der Universität in Koblenz um ein innovatives, zukunftsweisendes Fach mit exzellenten beruflichen Perspektiven. Unsere Kooperation stellt eine Bereicherung für die im Bereich Wasser Forschenden, die Studierenden sowie Absolventen der Gewässerkunde und Wasserwirtschaft dar. Darüber hinaus bilden wir Fachkräfte aus, die dem Klimawandel entgegenwirken können“, betont Prof. Dr. Stefan Wehner, Vizepräsident für Koblenz der Universität Koblenz-Landau.
„Die Kooperation ist eine großartige Möglichkeit, den Wissenschaftsstandort Koblenz im Bereich der Hydrologie, der Gewässerkunde und Wasserwirtschaft zu positionieren und die fachliche Expertise der drei Einrichtungen zu bündeln“, erklärt der scheidende Präsident der Hochschule Koblenz, Prof. Dr. Kristian Bosselmann-Cyran.
„Wir engagieren uns seit Jahren mit zwei Professuren in der Lehre der Universität Koblenz-Landau und haben ausgezeichnete Erfahrungen mit in unserem Haus betreuten Absolventen gesammelt. Durch die Kooperation bauen wir zudem unsere Beratungskompetenz rund um die Bundeswasserstraßen weiter aus. Der geplante Studiengang ist eine große Chance für uns, hervorragend ausgebildete Fachkräfte zu gewinnen“, sagt die Leiterin der BfG, Direktorin und Professorin Dr. Birgit Esser.
Weitere Informationen:
http://Dr. Sebastian Kofalk, Pressesprecher, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5000, E-Mail: presse@bafg.de
Zwei Extreme zur gleichen Zeit: Niederschläge entscheiden, wie oft Dürren u. Hitzewellen gemeinsam auftreten werden
Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Langanhaltende Dürren und Hitzewellen haben negative Folgen für Mensch und Umwelt. Treten beide Extreme zur gleichen Zeit auf, können die Auswirkungen zum Beispiel in Form von Waldbränden, Baumschäden und Ernteverlusten noch gravierender ausfallen. Klimaforscher des UFZ haben nun herausgefunden, dass unter Annahme eines globalen Temperaturanstiegs von zwei Grad im Zuge der Erderwärmung die Häufigkeit dieser gleichzeitig auftretenden Extremereignisse vor allem durch lokale Niederschlagstrends bestimmt wird. Das zu wissen ist wichtig, weil man so die Risikoanpassung an den Klimawandel und die Abschätzung seiner Folgen verbessern kann, schreiben sie in der Fachzeitschrift Nature Climate Change.
Dass sich infolge der globalen Erwärmung über den Landmassen die Temperaturen erhöhen werden und dies die Häufigkeit von Dürreperioden und Hitzewellen zunehmen lässt, gilt als gesichert – genauso wie die Tatsache, dass sich durch den Klimawandel die durchschnittliche Niederschlagsmenge an Land verändert. Unklar war aber bislang, unter welchen Konstellationen beide Extremereignisse gemeinsam auftreten, als sogenannte „compound hot-dry-events“. Als solche Ereignisse definierten die UFZ-Forscher Sommer, in denen die Durchschnittstemperatur höher war als in 90 Prozent der Sommer zwischen den Jahren 1950 und 1980 und der Niederschlag gleichzeitig geringer ausfiel als in 90 Prozent der Fälle im selben Vergleichszeitraum. „In der Vergangenheit wurden Dürreperioden und Hitzewellen oft separat betrachtet, doch tatsächlich sind beide Ereignisse stark korreliert, was man zum Beispiel an den beiden Extremjahren 2003 und 2018 sehen kann. Die negativen Folgen dieser kombinierten Extreme sind dann oft größer als nur bei einem Extrem“, sagt der UFZ-Klimaforscher Dr. Jakob Zscheischler, Letztautor der Studie. Doch wovon das gleichzeitige Auftreten dieser Extreme in der Zukunft genau abhängt, war bislang nicht bekannt – zu groß waren die Unsicherheiten, die die Forschung bei der Simulation bisheriger Klimamodelle in Kauf nehmen musste, um zu robusten Aussagen zu kommen.
Die Forscher nutzten nun ein neues, aus sieben Klimamodellen bestehendes Modellensemble, um diese Unsicherheiten zu reduzieren. Darin wurde jede Modellsimulation bis zu 100 Mal durchgeführt, um die natürliche Klimavariabilität abzudecken. Sie betrachteten den historischen Zeitraum der Jahre 1950 bis 1980 und verglichen die Ergebnisse mit denen eines potenziellen um zwei Grad wärmeren Klimas (im Vergleich zum vorindustriellen Niveau). „Der Vorteil dieser Mehrfachsimulationen besteht darin, dass wir einen viel größeren Datenumfang als bei herkömmlichen Modellensemblen haben und daher kombinierte Extreme besser abschätzen können“, erklärt Dr. Emanuele Bevacqua, Erstautor und ebenfalls Klimaforscher am UFZ. Bestätigen konnten die Forscher mit der Modellierung die bisherige Annahme, dass die durchschnittliche Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse künftig zunimmt: Lag diese zwischen 1950 und 1980 noch bei 3 Prozent, was statistisch gesehen alle 33 Jahre auftritt, wird sie in einem zwei Grad wärmeren Klima rund 12 Prozent betragen. Das wäre eine Vervierfachung im Vergleich zum historischen Zeitraum.
Neu ist nun, dass die Klimaforscher durch die Simulationen feststellen konnten, dass es nicht Temperatur-, sondern Niederschlagstrends sind, die über die Häufigkeit gleichzeitiger Dürre- und Hitzeereignisse in Zukunft entscheiden. Der Grund: Selbst bei einer moderaten Erwärmung von zwei Grad wird der lokale Temperaturanstieg so groß sein, dass künftig alle Dürren überall auf der Welt mit Hitzewellen einhergehen, unabhängig, um wie viel Grad genau sich lokal die Temperatur verändert. Die Unsicherheit in der Häufigkeitsvorhersage lag nur bei 1,5 Prozent. Damit scheidet die Temperatur als entscheidende Dimension für die Unsicherheit aus. Anders der Niederschlag, für den die Forscher eine Unsicherheit von bis zu 48 Prozent berechneten: „Damit entscheidet die lokale Niederschlagsmenge, ob gleichzeitig Dürreperioden und Hitzewellen auftreten werden“, bilanziert Emanuele Bevacqua. Für Zentraleuropa bedeutet das zum Beispiel in der Prognose, dass im Fall eines „feucht“- Szenarios mit Zunahme des Niederschlags im Schnitt alle zehn Jahre gleichzeitige Dürreperioden und Hitzewellen auftreten, im Falle eines „trocken“-Szenarios bei abnehmenden Niederschlägen dagegen mindestens alle vier Jahre. Für Zentral-Nordamerika würden solche Ereignisse alle neun Jahre („feucht“-Szenario) und sechs Jahre („trocken“-Szenario) erwartet. Diese regionalen Szenarien der Niederschlagstrends können als Grundlage für Anpassungsentscheidungen genutzt werden, um zum Beispiel Best- und Worst-Case-Szenarien zu evaluieren.
Doch auch wenn man weiß, dass Niederschlagstrends maßgebend sind für das Auftreten von gleichzeitigen Dürren und Hitzewellen, ist es immer noch schwierig, sie sicherer vorherzusagen: „Durch den Klimawandel kann sich die Verteilung von Niederschlägen in bestimmten Regionen verschieben. Das Niederschlagsregime hängt von der atmosphärischen Zirkulation ab, die durch Wechselwirkungen über große Teile des Erdballs die regionale Wetterdynamik bestimmt “, sagt Emanuele Bevacqua. Weil die Dynamik vieler dieser Prozesse noch nicht vollständig verstanden ist, ist es schwer, diese Unsicherheiten weiter zu reduzieren.
Die Erkenntnis, dass ein Trend einer Variablen das künftige Auftreten von zwei gleichzeitigen Extremereignissen bei einem globalen Temperaturanstieg von zwei Grad bestimmt, lässt sich auch bei anderen kombinierten Extremen nutzen. Das gilt zum Beispiel für das Zusammenwirken von tropischen Stürmen und Hitzewellen oder in den Ozeanen von marinen Hitzewellen und der Versauerung. „Dort ist jeweils der Trend in der Sturmfrequenz oder der Ozeanversauerung der entscheidende Faktor, der über das gleichzeitige Auftreten der beiden Extremereignisse in Zukunft entscheidet“, sagt Jakob Zscheischler.
Wissenschaftliche Ansprechpartner:
Dr. Jakob Zscheischler
UFZ-Department Hydrosystemmodellierung
jakob.zscheischler@ufz.de
Originalpublikation:
Emanuele Bevacqua, Giuseppe Zappa, Flavio Lehner, and Jakob Zscheischler: Precipitation trends determine future occurrences of compound hot-dry events; Nature Climate Change,
https://doi.org/10.1038/s41558-022-01309-5
Zwischen Datenschutz und Vertrauen – wenn das Auto zu viel weiß
Sandra Sieraad Medien und News
Universität Bielefeld
Chatbots, intelligente Staubsauger, autonome Fahrzeuge: Smarte Produkte können das Leben in vielen Bereichen leichter machen und sind dabei, sich zu einem Milliarden-Markt zu entwickeln. Doch wo diese Technik im Einsatz ist, sammelt sie Daten – über Lebensgewohnheiten, Wohnungsgröße, Fahrstil und vieles mehr. Wer bekommt diese Daten? Und was wird mit ihnen gemacht? Können Nutzer*innen solchen Produkten vertrauen? Diese Fragen stehen im Mittelpunkt der Tagung „Smart Products, Privacy and Trust“ (Smarte Produkte, Privatsphäre und Vertrauen) vom 14. bis zum 16. März am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.
Veranstalter ist die interdisziplinäre Forschungsgruppe „Ökonomische und rechtliche Herausforderungen im Kontext intelligenter Produkte“. Die Tagung wird in hybrider Form abgehalten.
Die Forschenden bearbeiten das Thema aus verschiedenen Perspektiven. „Die Frage nach dem Vertrauen in diese relativ neue Technik muss aus dem Blickwinkel der technischen Möglichkeiten, des Marktes, aber auch der rechtlichen Bedingungen und der Psychologie angegangen werden“, sagt der Ökonom Professor Dr. Herbert Dawid (Universität Bielefeld). Er leitet die ZiF-Forschungsgruppe zusammen mit der Juristin Professorin Dr. Sabine Gless (Universität Basel) und dem Ökonom Professor Dr. Gerd Muehlheusser (Universität Hamburg).
Wie Systeme technisch sicher und datensparsam eingerichtet werden können, wird in den Vorträgen der Tagung ebenso diskutiert wie Zertifizierungsmöglichkeiten. „Schon die Frage, wieviel Transparenz nötig ist, um bei Nutzer*innen Vertrauen zu erzeugen, ist nicht leicht zu beantworten“, erklärt Sabine Gless. „Manche nehmen die Datenspeicherung für mehr Bedienungsfreundlichkeit in Kauf und bei ihnen müsste erst einmal das Bewusstsein dafür geweckt werden, dass es hier Probleme gibt. Andere sind sehr misstrauisch und verlangen strikte Regelungen.“
Zudem gibt es große Unterschiede zwischen den Geräten und Verfahren, die als „smart“ bezeichnet werden. „Ein Auto, das selbst die Spur halten kann und Daten über den individuellen Fahrstil sammelt, ist etwas ganz anderes als ein Algorithmus, der bei Gerichtsverhandlungen zum Einsatz kommen könnte“, so Gerd Muehlheusser. „Noch einmal eine ganz andere Herausforderung ist es, Firmen zu ermöglichen, untereinander Daten zu teilen, um ihre Produkte zu verbessern, ohne Datenschutz und Firmengeheimnisse zu vernachlässigen.“
Sicher ist nach Ansicht der Forschenden: Auf die Dauer werden sich smarte Produkte nur etablieren können, wenn diese Fragen geklärt werden und Nutzer*innen darauf vertrauen können, sich mit der intelligenten Technik keine digitalen Spione ins Haus zu holen oder am Arbeitsplatz mit heimlichen digitalen Aufpassern konfrontiert zu sein. „Mit dieser Tagung möchten wir Wege aufzuzeigen, wie ein vertrauenswürdiger Umgang mit den Daten, die smarte Produkte generieren und sammeln, aussehen könnte“, sagt Herbert Dawid.
Die Tagung findet im hybriden Format in englischer Sprache statt. Journalist*innen sind herzlich eingeladen, über die Veranstaltung zu berichten. Eine Anmeldung ist erforderlich bei: smart-products@uni-bielefeld.de. Die Tagungsleiter*innen stehen für Medienanfragen zur Verfügung.
Wissenschaftliche Ansprechpartner:
Nadine Sutmöller, Universität Bielefeld
Zentrum für interdisziplinäre Forschung (ZiF)
Telefon 0521 106-12836
E-Mail: smart-products@uni-bielefeld.de
Weitere Informationen:
https://www.uni-bielefeld.de/(de)/ZiF/FG/2021SmartProducts/Events/03-14-Dawid.ht… Website der Forschungsgruppe
https://ekvv.uni-bielefeld.de/blog/pressemitteilungen/entry/wenn_die_kaffeemasch… Pressemitteilung zum Start der Arbeitsgruppe
Pandemiegefahren sicher simulieren
Elena Hungerland Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Studie testet Verhaltensinterventionen in einem Spiel-Experiment
Kann risikoreiches Verhalten in der Pandemie untersucht werden, ohne Proband*innen zu gefährden? Um gefahrlos die Wirksamkeit von Gesundheitsmaßnahmen untersuchen zu können und die Übertragunsdynamik von Viren zu simulieren, entwickelten Wissenschaftler*innen der University of Plymouth, UK, der IESE Business School in Spanien und des Max-Planck-Instituts für Bildunsgforschung ein spielerisches Online-Experiment. Ihre Befunde sind im Fachjournal Science Advances erschienen.
Seit Ausbruch der Corona-Pandemie muss man sich weltweit auf die Akzeptanz nicht-pharmazeutischer Interventionen verlassen, wie das Tragen von Masken oder Abstand Halten, die während der gesamten Pandemie unsere Sicherheit erhöhen konnten. Diese Maßnahmen spielen selbst nach dem Einsatz von Impfstoffen weiterhin eine wichtige Rolle. Wissenschaftlich ist belegt, dass Masken und körperliche Distanz die Verbreitung des Virus eindämmen können. Bei diesen Maßnahmen stehen jedoch individuelle Eigeninteressen – der Wunsch nach einem sozialen Leben, die Unannehmlichkeit des Tragens einer Maske – dem Gemeinwohl entgegen.
Eine internationale Studie aus Deutschland, Großbritannien und Spanien konnte zeigen, dass es möglich ist, die Effektivität von Maßnahmen zur Pandemiebekämpfung zu testen. Insgesamt 700 US-Amerikaner*innen spielten Varianten eines Online-Spiels für jeweils 100 Mitspieler*innen, in denen die Übertragung eines Virus simuliert wurde. Die Forschenden entwickelten einen neutralen Forschungsrahmen, ohne die Erwähnung von Masken, Maßnahmen oder medizinischen Begriffen. Sie entwickelten ein Spiel, das drei zentrale Elemente einer Pandemie umsetzt: das schwierig vorherzusehende Potenzial für exponentielles Wachstum in Fallzahlen, das soziale Dilemma zwischen Eigennutz und kollektivem Risiko und die Akkumulation von kleinen Übertragungsrisiken.
100 Spielende starten dieses Spiel im blauen Zustand (gesund), bevor acht Spieler*innen zufällig ausgewählt werden und sich in einem ersten Ausbruch violett (infiziert) verfärben. Im gesamten Spielverlauf kennen die Spielenden ihre eigene Farbe nicht. In 25 Runden wählen sie jeweils zwischen zwei möglichen Handlungen: G (die sicherere Alternative mit einer möglichen Belohnung von acht Punkten, stellvertretend für das Tragen von Masken oder Abstand Halten) und H (die riskantere Alternative mit einer möglichen Belohnung von 40 Punkten). Die mögliche Belohnung steht stellvertretend für das persönliche Wohlbefinden, beziehungsweise das eigennützige Interesse.
Spielende, die zufällig mit einem violetten Spielenden gepaart werden, laufen Gefahr, selbst violett zu werden, mit einer Übertragungswahrscheinlichkeit zwischen 0,05 und 0,25. Das bedeutet, dass bei 20 Begegnungen im Schnitt zwischen einer und fünf Übertragungen passieren, je nach gewählter sicherheitsvorkehrender Aktion. Dieser Wahrscheinlichkeitswert wird von der Wahl der Handlungsalternativen (G oder H) von beiden Spielenden bestimmt. Nach 25 Runden erhalten nur jene Spielenden eine finanzielle Belohnung, die bis zum Ende blau, also „gesund“ geblieben sind. Wenn mehr Spielende also „infiziert“ werden, erhalten weniger Spielende eine Bezahlung. Die Höhe der Bezahlung steigt mit den gesammelten Punkten.
In der Studie wurde die Wirksamkeit von fünf Interventionen zur Verringerung von Risikoverhalten im Vergleich zu einer Situation ohne Intervention getestet. Die Interventionen, die mit einer moralischen Botschaft verbreitet wurden, erwiesen sich als am effektivsten. Die Durchführung von zahlreichen Spieldurchläufen mittels Computersimulation oder die Darstellung der möglichen Konsequenzen einer anfänglichen Infektion zeigten ebenfalls Erfolg. Hingegen erwies sich die Präsentation von erwarteten Fallzahlen für die aktuelle Runde als ineffektiv: Teilnehmende schienen nicht in der Lage, das exponentielle Wachstum der Übertragungen vorauszuahnen. Es mag überraschen, dass Informationen über die Handlungen anderer (beispielsweise die Beschreibung, wie oft andere Masken trugen) im Experiment sogar zu einer höheren Risikobereitschaft und zu damit verbundenen negativen Konsequenzen führte. An dieser Stelle ist es wichtig zu betonen, dass der neutrale Kontext hier verhindern konnte, dass dieses Ergebnis realweltliche Gesundheitskonsequenzen haben konnte.
Die Ergebnisse zeigen, dass nichts so effektiv ist, wie die Kommunikation einer klaren Regel in Kombination mit einer überzeugenden moralischen Begründung. Sie deuten auch darauf hin, dass manche Personen sich selbst und andere trotz allem immer aus eigennützigem Interesse einem Risiko aussetzen. Gleichzeitig gibt es aber eine deutliche Anzahl von Menschen, die mit der richtigen Intervention davon überzeugt werden können, weniger Risiken einzugehen. Das erlangte Wissen aus dem beobachteten Verhalten während des Simulations-Experiments kann Konsequenzen für reale Bedingungen haben: die Verlangsamung der Übertragung des Virus sowie die Entlastung von Gesundheitssystemen.
„Nichtpharmazeutische Interventionen – so wie das Tragen von Masken, das Einhalten von Abstand oder die Reduzierung von Kontakten – benötigen weitreichende Verhaltensänderungen. Die Verhaltenswissenschaften bieten Hilfsmittel an, um die inviduelle Akzeptanz der Maßnahmen zu verbessern. Die relative Effektivität dieser Methoden wurde hingegen selten in kontrollierten, experimentellen Szenarios getestet, die die Dynamik von Virusausbrüchen reflektieren. Was an diesem Forschungsrahmen besonders hervorzuheben ist, ist die Tatsache, dass er es ermöglicht, Interventionen auf sichere Weise zu testen, bevor sie mit möglichen gesundheitlichen Folgen für die Teilnehmenden tatsächlich umgesetzt werden“, erklärt Jan Woike, Associate Research Scientist am Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung und Erstautor der Studie.
„Die nächste Corona-Variante oder die nächste Pandemie warten möglicherweise in der Zukunft. Politische Entscheider*innen müssen wissen, welche Interventionen am effektivsten sind, um sozial vorteilhaftes Verhalten zu verstärken. Dieses Forschungsprojekt ist ein Schritt in die Richtung, diese Frage ohne Gefährdung der Teilnehmenden zu beantworten“, so Jan Woike weiter.
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Originalpublikation:
Woike, J.K., Hafenbrädl, S., Kanngiesser, P., & Hertwig, R. (2022). The Transmission Game: Testing behavioral interventions in a pandemic-like simulation. Science Advances. doi: 10.1126/sciadv.abk0428 https://www.science.org/doi/10.1126/sciadv.abk0428
Weitere Informationen:
https://www.mpib-berlin.mpg.de/pressemeldungen/pandemiegefahren-sicher-simuliere…
Energiekrise: „Japan kann ein Vorbild sein“
Klaus Becker Corporate Communications Center
Technische Universität München
Der Krieg in der Ukraine hat enorme Auswirkungen auf die deutsche Energiepolitik und -wirtschaft. Im Interview erklären die Ökonomin Prof. Svetlana Ikonnikova und die Politologin Prof. Miranda Schreurs, an wem sich Deutschland in der Krise orientieren kann, wie der Einsatz von Flüssigerdgas und Wasserstoff zusammenhängen und welche Rolle eine geplante Pipeline zwischen Russland und China spielt.
Der politische Druck steigt, den Import von Gas, Öl und Kohle aus Russland zu stoppen. Es scheint nahezu unmöglich, dass Deutschland dies kurzfristig verkraften könnte. Gibt es Vorbilder, die einen plötzlichen Ausfall großer Teile der Energieversorgung bewältigt haben?
Miranda Schreurs: Nach dem Reaktorunfall von Fukushima hat Japan 2011 aus Sicherheitsgründen zunächst sämtliche Atomkraftwerke heruntergefahren, die rund 30 Prozent der Stromversorgung des Landes ausmachten. Japan kann ein Vorbild sein, weil es in dieser Situation unglaublich gut geschafft hat, Energie zu sparen. Es gab nicht nur einen Appell an die Privathaushalte, sondern auch Anordnungen und kreative Lösungen für Unternehmen und die öffentliche Infrastruktur: Firmen haben ihre Produktion in Tageszeiten mit geringem Stromverbrauch verlegt, Angestellte bekamen Anreize, Vorschläge für Effizienzsteigerungen zu machen, die Geschwindigkeit des Zugverkehrs wurde leicht gedrosselt. Alle haben angenommen, dass die 15 bis 20 Prozent des Stromverbrauchs, die so eingespart wurden, nur ein kurzfristiger Effekt sein würden, bis sich die Lage beruhigt hat. Aber Japan hat auch in den Folgejahren weiterhin rund 10 Prozent weniger verbraucht. Manche Maßnahmen wäre in Deutschland schwer umsetzbar, aber wir haben ja eigene Möglichkeiten, wie etwa ein Tempolimit auf Autobahnen. Genauso wichtig ist natürlich der schnelle Ausbau der erneuerbaren Energien.
Um zumindest einen Teil russischen Erdgases ersetzen zu können, will Deutschland LNG, also verflüssigtes Erdgas, importieren. Andere Länder setzen allerdings schon länger auf LNG. Kann Deutschland überhaupt größere Mengen beschaffen?
Svetlana Ikonnikova: Produktionskapazitäten sind weltweit in ausreichender Menge vorhanden, in den USA, in Australien, in mehreren afrikanischen Ländern, in Katar. Der größere Flaschenhals sind die Logistik und die Frage, ob es genügend Anlagen für die Verflüssigung und die Rückumwandlung gibt. Sprich, in welchem Zeitrahmen können wir dieses Gas in unsere Netze einspeisen, wenn wir es gekauft haben? Für die EU zeigt ein Modell, das wir am Center for Energy Markets der TUM errechnet haben, dass das russische Erdgas binnen sieben bis zehn Jahren ersetzt werden könnte, abhängig von der Dynamik des globalen Marktes – wobei Länder wie Frankreich und Spanien bereits deutlich weniger abhängig sind als Deutschland.
Die Bundesregierung hat angekündigt, Milliarden für LNG auszugeben. Investiert Deutschland damit in einen Energieträger, der eigentlich nur als Brückentechnologie für relativ wenige Jahre gedacht war?
Ikonnikova: Diese Frage wird sich am sogenannten blauen Wasserstoff, der mit der Spaltung von Erdgas gewonnen wird, entscheiden. Unser Modell prognostiziert, dass blauer Wasserstoff bis 2050 eine wichtige Rolle in der Industrieproduktion und als Energiespeicher spielen wird. Zum einen, weil er längere Zeit günstiger sein wird als grüner Wasserstoff, der mit Elektrolyse aus Wasser erzeugt wird, betrieben von erneuerbaren Energien. Zum anderen, weil für den grünen Wasserstoff die Infrastruktur und Logistik größtenteils erst noch aufgebaut werden muss. Auch hier wird Deutschland nicht um Importe herumkommen, wenn es Wasserstoff in großem Maßstab einsetzen will. Aber die Voraussetzungen sind gegeben, unter anderem weil Wasserstoff beispielsweise in Form von Ammoniak gespeichert werden kann, bei dem wir Erfahrung beim Transport haben.
Der Einsatz von Wasserstoff galt bislang als wenig rentabel.
Ikonnikova: Die Wirtschaftlichkeit einer Wasserstoffproduktion hängt davon ab, wo und wie der Wasserstoff genutzt wird und wie hoch der Preis für erneuerbare Energien ist, wenn wir von grünem Wasserstoff sprechen. Zum Beispiel wird ein Unternehmen, das eine Stahlproduktion mit Windkraft plant, den Wert von Wasserstoff als Energiespeicher berechnen wie auch dessen ökonomische Vorteile als Carbon-arme Quelle für die Erzeugung von Elektrizität oder Wärme. Bislang wurden diese Vorteile zumeist nicht als groß genug gesehen, um umzusteigen. Aber nach den jetzigen Erfahrungen ist es wahrscheinlich, dass Unternehmen eher bereit sind, in teurere, aber saubere Lösungen mit geringen geopolitischen Risiken zu investieren.
Schreurs: Nicht nur auf den Preis zu schauen, ist eine Lehre, die die Energiepolitik ziehen muss. Wasserstoff könnten wir theoretisch auch ausschließlich aus demokratischen Staaten beziehen, wenn wir bereit sind, höhere Kosten zu tragen. Aber es ist schon viel gewonnen, wenn wir uns nicht mehr dermaßen abhängig von einem einzelnen Staat machen, sondern jederzeit den Spielraum haben, auf einen Anbieter zu verzichten. Das ist möglich, wenn wir nicht mehr als 15 Prozent unserer Energie aus einem Land importieren.
Höhere Kosten kommen auch auf die Verbraucherinnen und Verbraucher zu, die Akzeptanz für die Energiewende könnte sinken. Wie kann die Politik zwischen Zwängen und Druck agieren?
Schreurs: Für viele Menschen war die Energiewende eine Frage des Klimawandels. Jetzt sehen wir, dass sie auch eine Frage von Freiheit und Demokratie ist. Wollen wir tatsächlich unser Geld in die Hände von Autokraten legen, die bereit sind, ein Atomkraftwerk zu bombardieren? Diesen Preis für Energie muss die Politik jetzt benennen, die Kommunikation über die Zusammenhänge stärker prägen. Darüber hinaus muss sie Armut aufgrund höherer Energiekosten verhindern. Schwieriger als bei den Strompreisen wird dies bei den Heizkosten. Möglich wäre, dass die Gebäudesanierung in Vierteln mit einkommensschwächerer Bevölkerung gezielter vorangetrieben wird.
Könnten diese Schritte das kurzfristige Ziel gegenüber Russland erreichen? Sprich, würde Russland ein Importstopp überhaupt treffen oder würden andere Handelspartner einspringen?
Ikonnikova: Vor rund zwei Jahren hat Russland den Bau einer weiteren Gaspipeline nach China beschlossen, die „Power of Siberia 2“. Die Besonderheit der Verbindung ist, dass sie das Yamal-Gasfeld mit China verbindet, aus dem Europa versorgt wird. Nach 2030 laufen viele Verträge europäischer Staaten mit Russland aus, weshalb Russland plante, seine Märkte breiter aufzustellen, um eine bessere Verhandlungsposition zu haben. Wenn jetzt der europäische Markt wegfällt, kann Russland mehr in asiatische Länder liefern, sobald die Pipeline einsatzbereit ist, was ab 2025 geplant ist. Betrachtet man die derzeitige ökonomische Entwicklung, gäbe es in Asien auch genug Bedarf, um das gesamte russische Gasangebot abzunehmen. Aber die große Frage ist, wie viel China und andere Länder überhaupt kaufen werden. Besonders China hat nämlich im Gegensatz zu vielen europäischen Staaten sehr genau darauf geachtet, sein Energie-Portfolio zu diversifizieren und kauft auch in den USA, Australien und Afrika, um eine Abhängigkeit von einem Exporteur zu vermeiden.
Wie kann die EU strategisch auf diese Entwicklungen reagieren?
Schreurs: In der Europäischen Union haben wir zwar gemeinsame Klimaziele, aber nur eine begrenzte Zusammenarbeit in der Energiepolitik. Die Staaten sollten sich dringend koordinieren, um eine EU-weite Infrastruktur zu entwickeln. Das umfasst Stromnetze und LNG-Terminals – aber beginnt an ganz praktischen Stellen: Wenn ich im Nachbarland mein Elektroauto nicht laden kann, wird die Verkehrswende nicht gelingen.
Zu den Personen:
Prof. Svetlana Ikonnikova, PhD, ist seit 2019 Professorin für Ressourcenökonomie an der TUM School of Management. Ein Schwerpunkt ihrer Forschung sind Modelle für die Energiewende und den Einsatz von Wasserstoff-Technologien, Gas- und Öl-Ressourcen und erneuerbaren Energien. Ikonnikova hat am Moskauer Institut für Physik und Technologie Angewandte Physik und Mathematik studiert und an der Berliner Humboldt-Universität in Wirtschaftswissenschaften promoviert. Neben ihrer Professur an der TUM ist sie Senior Energy Economist an der University of Texas, wo sie seit 2008 forscht.
Prof. Dr. Miranda Schreurs ist Professorin für Umwelt- und Klimapolitik an der TUM School of Social Sciences and Technology sowie an der Hochschule für Politik München (HfP). Sie forscht unter anderem zur Energiewende in Europa, den USA und Asien. Schreurs studierte an der University of Washington, promovierte an der University of Michigan und arbeitete an der Keio Universität in Japan, der Harvard University und der Freien Universität Berlin. Schreurs hat in mehreren Gremien die Bundesregierung beraten. Derzeit ist sie Co-Vorsitzende des Nationalen Begleitgremiums für das Standortauswahlverfahren eines Endlagers für hoch radioaktive Abfälle.
Wissenschaftliche Ansprechpartner:
Prof. Svetlana Ikonnikova, PhD
Technische Universität München
Professur für Ressourcenökonomie
Tel.: +49 89 289 28820
svetlana.ikonnikova@tum.de
https://www.ep.mgt.tum.de/cem/team/staff/ikonnikova/
Prof. Dr. Miranda Schreurs
Technische Universität München
Lehrstuhl für Umwelt- und Klimapolitik
Tel.: +49 89 907793 220
miranda.schreurs@hfp.tum.de
https://www.hfp.tum.de/environmentalpolicy
Wie kann die Digitalisierung des Gesundheitssystems beschleunigt werden?
Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)
Das Fraunhofer ISI hat im Auftrag der Expertenkommission Forschung und Innovation (EFI) das Voranschreiten der Digitalisierung im deutschen Gesundheitssystem untersucht und daraus Handlungsempfehlungen für die weitere Gestaltung abgeleitet. Im Fokus standen etwa der Umsetzungsstand von Gesetzesinitiativen, Datenschutz- und Cybersicherheitsaspekte sowie die Identifizierung von Innovationspotenzialen – unter anderem durch Vergleiche mit Dänemark, Estland, Spanien und Österreich, die bei der Digitalisierung ihrer Gesundheitssysteme allesamt besser abschneiden als Deutschland.
Nach vielversprechenden Anfängen fiel Deutschland seit der Jahrtausendwende bei der Digitalisierung seines Gesundheitssystems immer weiter zurück und zählte laut internationaler Studien zuletzt eher zu den Schlusslichtern im europäischen Vergleich. Als Ursachen für die verzögerte Digitalisierung gelten neben Interessenskonflikten der vielen beteiligten Akteursgruppen insbesondere Bürokratie, hohe Technologiekosten, Sicherheitsbedenken und regulatorische Unsicherheiten sowie fehlende Zuverlässigkeit der technischen Lösungen. Auf die nur mäßig fortschrittlichen Strukturen traf im Frühjahr 2020 die Corona-Pandemie, die eklatante Schwachstellen der digitalen Kommunikation zwischen den Akteursgruppen des Gesundheitswesens offenlegte und besondere finanzielle, zeitliche und personelle Ressourcen abverlangte – andererseits aber auch einen gewissen Handlungsdruck auslöste, um bei der Digitalisierung schneller als bisher voranzukommen.
Die aktuelle Studie setzt sich vor diesem Hintergrund mit den Ursachen der verzögerten Digitalisierung auseinander und erarbeitet Handlungsempfehlungen für die weitere Gestaltung. Methodisch basiert sie auf intensiven Literatur- und Internetrecherchen sowie auf Interviews mit 15 Vertreter:innen der zentralen Akteursgruppen des Gesundheitssystems. Um den Untersuchungsgegenstand besser zu erfassen, werden in der Studie fünf zentrale digitale Anwendungen betrachtet: die Telematikinfrastruktur und Telemedizin, die elektronische Patientenakte, digitale Gesundheitsanwendungen (sogenannte »Apps auf Rezept«) sowie das elektronische Rezept.
Gesetzesinitiativen zur Digitalisierung des Gesundheitswesens
Wie die Analyse zur Umsetzung von Gesetzesinitiativen zeigt, befassen sich allein sechs Gesetze des Bundesministeriums für Gesundheit (BMG) in der 19. Legislaturperiode mit der Digitalisierung des Gesundheitswesens und schafften Rahmenbedingungen für die Nutzung von Telemedizin, E-Patientenakte, E-Rezept oder Apps. So wurden mit dem Terminservice- und Versorgungsgesetz (TSVG) neben dem Ausbau von Terminservicestellen auch die Inhalte der elektronischen Patientenakte definiert und das BMG erhielt 51 Prozent der Gesellschafteranteile der gematik, der 2005 gegründeten Gesellschaft für Telematikanwendungen der Gesundheitskarte mbH, um schnellere und effektivere Entscheidungen herbeizuführen. Das Digitale-Versorgung-Gesetz (DVG) regelt unter anderem die Rechtsgrundlage für den Anspruch der Bürger:innen auf Versorgung mit digitalen Gesundheitsanwendungen. Mit den umfangreichen Investitionsprogrammen des Krankenhauszukunftsgesetzes (KHZG) soll die Digitalisierung der Krankenhäuser gefördert werden.
Eine weitere Untersuchung der Positionen zentraler Akteursgruppen des deutschen Gesundheitswesens zeigte, dass diese die Digitalisierung begrüßen, wenn dadurch nicht eigene Interessen gefährdet sind. In den Vergleichsländern Estland, Dänemark, Spanien und Österreich werden relevante Stakeholder:innen von Beginn an stärker bei der Implementierung von E-Health-Prozessen eingebunden – wodurch ihre Ansichten frühzeitig besser verstanden und ihre Mitarbeit, Unterstützung und Zustimmung zu den Ergebnissen des E-Health-Planungsprozesses besser gewährleistet wird.
Mehr Datenverarbeitung erfordert mehr Datenschutz und Datensicherheit
Die Studienautor:innen weisen zudem daraufhin, dass mit dem Ausbau der Telematikinfrastruktur und weiteren Anwendungen – etwa Videosprechstunden, digitalen zahnärztlichen Bonusheften oder digitalen Impfpässen – auch die Datenverarbeitung und damit der Datenschutz und die Datensicherheit an Bedeutung gewinnen. Allerdings wurden bisher kaum Möglichkeiten zur Vereinheitlichung und Konkretisierungen des Datenschutzes wahrgenommen. Zudem sind bei IT-Sicherheits- und Datenschutzfragen Verantwortlichkeiten teilweise unklar und wenig nachvollziehbar geregelt – etwa definiert die gematik als zentrale Instanz die Anforderungen an die Telematikinfrastruktur und kontrolliert auch deren Einhaltung, sie ist aber nicht für den Datenschutz verantwortlich. Umgekehrt sind die Regelungen für Apps tendenziell zu ambitioniert geregelt, denn diese müssen anhand eines umfangreichen Kriterienkatalogs auf Datenschutz und Sicherheit überprüft werden, was dazu führen kann, dass viele Apps die Anforderungen nicht erfüllen oder die Entwickler:innen den entsprechenden Aufwand scheuen.
Dr. Tanja Bratan, die am Fraunhofer ISI die Forschung im Rahmen des EFI-Berichts »E-Health in Deutschland: Entwicklungsperspektiven und internationaler Vergleich« koordinierte, äußert sich wie folgt zur weiteren Gestaltung der digitalen Transformation des deutschen Gesundheitssystems: »Nach langem Stillstand wurde mit den Gesetzesinitiativen der vergangenen Legislaturperiode eine wichtige Grundlage für die Beschleunigung der Digitalisierung des deutschen Gesundheitssystems gelegt. Um sie nun voranzutreiben, braucht es weitere politische Initiativen und Maßnahmen auf Ebene der Bundesländer, des Bundes und der EU, die zum Beispiel digitale Anwendungen in der Breite verfügbar machen und spürbare Mehrwerte der Digitalisierung in der Versorgung schaffen. Auf Basis unserer Studienergebnisse sehen wir unter anderem besonderen Handlungsbedarf beim Ausbau einer leistungsfähigen Breitbandinfrastruktur als Grundlage für die Digitalisierung, der Entwicklung einer E-Health-Strategie für Deutschland, einer besseren Vernetzung im gesamten Gesundheitssystem sowie einer deutlichen Verbesserung der IT-Sicherheit in Gesundheitseinrichtungen. Darüber hinaus sollte ein stetiges Monitoring die Umsetzung der Digitalisierung begleiten und in Reallaboren E-Health-Anwendungen erprobt werden. Aber auch die Aufklärung der Bevölkerung und die Verbesserung der digitalen Kompetenzen der Gesundheitsberufe sollte eine absolute Priorität zukommen.«
Wissenschaftliche Ansprechpartner:
Dr. Tanja Bratan
Leiterin des Geschäftsfelds Innovationen im Gesundheitssystem am Fraunhofer ISI
Telefon +49 721 6809-182
Mail: tanja.bratan@isi.fraunhofer.de
Originalpublikation:
„E-Health in Deutschland – Entwicklungsperspektiven und internationaler Vergleich“: https://www.e-fi.de/fileadmin/Assets/Studien/2022/StuDIS_12_2022.pdf
Millionenförderung für Cybersicherheit
Hannah Fischer Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg
Universität Bamberg beteiligt sich an neuem Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“.
„Der Cybersicherheit kommt für unsere freiheitliche Gesellschaft eine Schlüsselrolle zu. Die Digitalisierung durchdringt alle Lebensbereiche. Zugleich wächst die Bedrohung krimineller Angriffe auf die digitale Infrastruktur dramatisch“, erklärte Wissenschaftsminister Markus Blume anlässlich der Förderzugsage für den neuen Forschungsverbund „ForDaySec – Sicherheit in der Alltagsdigitalisierung“. Das Bayerische Wissenschaftsministerium fördert den Verbund von April 2022 bis März 2026 mit etwa 3,3 Millionen Euro.
Zielgerichtete Erforschung technischer Verfahren für die Cybersicherheit
Der neue Forschungsverbund will bestehende Aktivitäten im Bereich der Cybersicherheit stärker zusammenführen und vernetzen. Durch eine enge Zusammenarbeit beispielsweise mit Unternehmen oder Industrie- und Handelskammern wird außerdem der Transfer der Forschungsergebnisse in die Praxis gestärkt. Das Alleinstellungsmerkmal von „ForDaySec“ ist die zielgerichtete, interdisziplinäre Erforschung neuartiger technischer Verfahren für die Cybersicherheit privater Haushalte, kleiner und mittlerer Unternehmen (KMU) sowie der öffentlichen Verwaltung. Forscherinnen und Forscher aus Informatik, Soziologie und Rechtswissenschaft erarbeiten gemeinsam Technologien für die Absicherung des digitalen Alltags. Mit diesem Ziel erforscht „ForDaySec“ neben Lösungen zur Erhöhung der Sicherheit für Hard- und Software spezielle Sicherheitskonzepte, die ohne Spezialwissen leicht einsetzbar sein sollen und zugleich die Aspekte des technischen Datenschutzes beachten. Bestandteil der Forschung sind dabei auch rechtswissenschaftliche Arbeiten zu Update-Pflichten sowie soziologische Untersuchungen zur Nutzung von Technik in der alltagspraktischen Anwendung.
Dominik Herrmann von der Universität Bamberg ist am Projekt beteiligt.
Prof. Dr. Stefan Katzenbeisser, Inhaber des Lehrstuhls für Technische Informatik an der Universität Passau, koordiniert das Verbundprojekt. Von der Universität Bamberg ist Prof. Dr. Dominik Herrmann, Inhaber des Lehrstuhls für Privatsphäre und Sicherheit in Informationssystemen, beteiligt. Herrmann beschreibt die Ziele des Projekts: „Es gibt wirklich viel Forschung zur Verbesserung der IT-Sicherheit und zum Datenschutz – im Alltag kommt davon aber bisher nur wenig an. Mit ‚ForDaySec‘ wollen wir dabei helfen, diese Lücke ein Stück weit zu schließen.“ Herrmanns Lehrstuhl befasst sich im Projekt mit Erklärungen von Datenschutztechniken: „Es gibt etliche Schutzmechanismen, mit denen sich unnötige Datensammlungen vermeiden lassen. Wir beobachten, dass sich viele Unternehmen aber schwertun, solche Mechanismen einzusetzen. Ein Grund dafür ist, dass sie die Mechanismen nicht gut verstehen. Wir wollen uns daher genau anschauen, wie wir Datenschutz und Schutzmechanismen besser erklären können, nicht nur in Textform, sondern auch mit Code-Beispielen und interaktiven Trainingsumgebungen am Rechner. Wir werden dazu verschiedene Erklärformen ausprobieren und sie Entwicklerinnen und Entwicklern, aber auch unseren Studierenden vorlegen, um herauszufinden, welche Varianten gut funktionieren. Dadurch wollen wir die Hürden senken, solche Techniken einzusetzen, was letzten Endes zur Verbesserung der Alltagsdigitalisierung beiträgt.“
Neben den Universitäten Passau und Bamberg sind darüber hinaus die Friedrich-Alexander-Universität Erlangen-Nürnberg, die Technische Universität München sowie die Universität der Bundeswehr München beteiligt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dominik Herrmann
Lehrstuhl für Privatsphäre und Sicherheit in Informationssystemen
Tel.: 0951/863-2661
dominik.herrmann@uni-bamberg.de
https://www.uni-bamberg.de/psi
Weitere Informationen:
https://www.stmwk.bayern.de/pressemitteilung/12481/nr-043-vom-09-03-2022.html (Pressemitteilung des Bayerischen Wissenschaftsministeriums)
Alle Lebewesen bilden Methan
Virginia Geisel Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für terrestrische Mikrobiologie
Bekannt ist, dass das Treibhausgas Methan von speziellen Mikroorganismen produziert wird, zum Beispiel im Magen von Kühen oder in Reisfeldern. Seit einigen Jahren beobachtete man auch seine Entstehung in Pflanzen und Pilzen, ohne eine Erklärung dafür zu finden. Nun haben Forscher aus Heidelberg und dem Max-Planck-Institut für terrestrische Mikrobiologie in Marburg den zu Grunde liegenden Mechanismus aufgeklärt. Ihre Ergebnisse legen nahe, dass alle Organismen Methan freisetzen.
Methan ist ein starkes Treibhausgas, und die Erforschung seiner natürlichen und anthropogenen biogeochemischen Quellen und Senken ist von enormem Interesse. Lange dachte man, dass Methan nur durch bestimmte Mikroorganismen bei der Zersetzung organischer Substanz unter Ausschluss von Sauerstoff (anaerob) entsteht.
Wie nun eine gemeinsame Studie von Geo- und Lebenswissenschaften unter Leitung von Frank Keppler und Ilka Bischofs zeigen konnte, ist ein Enzym für die Methanbildung nicht unbedingt notwendig, denn der Prozess kann auch über einen rein chemischen Mechanismus ablaufen.
„Diese durch reaktive Sauerstoffverbindungen (ROS) ausgelöste Methanbildung findet höchstwahrscheinlich in allen Organismen statt“, erklärt Leonard Ernst, ein interdisziplinär ausgebildeter Nachwuchsforscher, der die Studie anführte, die aktuell im Fachblatt „Nature“ erschienen ist. Die Forscherinnen und Forscher wiesen die ROS-getriebene Bildung von Methan in über 30 Modellorganismen nach, von Bakterien und Archaeen über Hefen, Pflanzenzellen bis hin zu menschlichen Zelllinien.
Es war eine Sensation, als Max-Planck-Forscher vor 16 Jahren erstmals entdeckten, dass Pflanzen in Gegenwart von Sauerstoff (aerob) Methan freisetzten. Die Ergebnisse wurden zunächst angezweifelt, da die Methanbildung mit dem damaligen Wissen über Pflanzen nicht zu erklären war. Als man feststellte, dass auch Pilze, Algen und Cyanobakterien (früher „Blaualgen“) unter aeroben Bedingungen Methan bildeten, vermutete man enzymatische Aktivitäten als Ursache. Jedoch wurde in keinem der Organismen ein entsprechendes Enzym entdeckt.
„Diese Studie ist daher ein Meilenstein in unserem Verständnis der aeroben Methanbildung in der Umwelt“, sagt Prof. Frank Keppler, Geowissenschaftler an der Universität Heidelberg. „Der universelle Mechanismus erklärt auch die früheren Beobachtungen zur Freisetzung von Methan aus Pflanzen.“
Je aktiver die Zelle, desto mehr Methan
Wie nun anhand des Bakteriums Bacillus subtilis gezeigt werden konnte, besteht ein enger Zusammenhang zwischen der Stoffwechselaktivität und dem Ausmaß der Methanbildung. Stoffwechselaktivität, insbesondere unter Sauerstoffeinfluss, führt in allen Zellen zur Bildung sogenannter reaktiver Sauerstoffverbindungen (ROS), zu denen auch Wasserstoffperoxid und Hydroxyl-Radikale gehören. In Zusammenspiel mit Eisen, einem essentiellen Element, findet deshalb in sämtlichen Organismen die sogenannte Fenton-Reaktion statt – eine Reaktion von reduziertem Eisen mit Wasserstoffperoxid. Sie führt zur Bildung von hochreaktiven vierwertigen Eisen-Verbindungen und Hydroxyl-Radikalen. Diese Moleküle treiben die Abspaltung eines Methylradikals von methylierten Schwefel- und Stickstoffverbindungen voran, z. B. aus der Aminosäure Methionin. Durch die anschließende Reaktion des Methylradikals mit einem Wasserstoffatom entsteht schließlich Methan. Die Reaktion kann unter normalen physiologischen Bedingungen im Reagenzglas ablaufen und wird durch Biomoleküle wie ATP und NADH, die mit Stoffwechselaktivität einhergehen, erheblich verstärkt.
Auch oxidativer Stress kurbelt die Bildung von Methan an
Auch zusätzlicher oxidativer Stress, ausgelöst durch physikalische und chemische Faktoren, z.B. höhere Umgebungstemperaturen oder die Zugabe von ROS-bildenden Substanzen, steigerte die Methanproduktion in den untersuchten Organismen. Andererseits konnte sie durch die Zugabe von Antioxidantien und das Abfangen freier Radikale reduziert werden – ein Zusammenspiel, das vermutlich die Methanbildung in Organismen steuert. Die Studie erklärt daher auch, warum die Methanfreisetzungen innerhalb eines Organismus um mehrere Größenordnungen variieren können und besonders von Stressfaktoren abhängen.
Die sich im Rahmen des Klimawandels ändernden Umwelt- und Temperaturbedingungen könnten möglicherweise das Stressniveau vieler Lebewesen und damit deren atmosphärischen Methanemissionen beeinflussen. Umgekehrt könnten Schwankungen im Methangehalt der Atemluft auf alters- oder stressbedingte Veränderungen des zellulären Stoffwechsels hinweisen.
Wissenschaftliche Ansprechpartner:
Leonard Ernst
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
leonard.ernst@mpi-marburg.mpg.de
+49 6421 178 532
Dr. Ilka Bischofs
Max-Planck-Institute für Terrestrische Mikrobiologie & Universität Heidelberg
ilka.bischofs@mpi-marburg.mpg.de
+49 6221 54-51365
Prof. Dr. Frank Keppler
Institute of Earth Sciences, Heidelberg University
+49 6221 54-6009
frank.keppler@geow.uni-heidelberg.de
Originalpublikation:
L. Ernst, B. Steinfeld, U. Barayeu, T. Klintzsch, M. Kurth, D. Grimm, T. P. Dick, J. G. Rebelein, I. B. Bischofs, F. Keppler: Methane formation driven by reactive oxygen species across all living organisms. Nature (9 March 2022), DOI: 10.1038/s41586-022-04511-9
Neues Tool ermittelt betrieblichen Klimafußabdruck
Axel Grehl Pressestelle
Hochschule Pforzheim
Kostenlose Berechnung des Beitrags durch die Lieferketten
Das Institut für Industrial Ecology (INEC) der Hochschule Pforzheim hat in Kooperation mit dem Thinktank für industrielle Ressourcenstrategien in Karlsruhe ein Tool konzipiert, mit dem die Treibhausgas-Emissionen von Unternehmen einfach ermittelt werden können. Der sogenannte scope3analyzer wurde nun auf der Webseite des Thinktanks freigeschaltet und ist öffentlich und kostenlos zugänglich. Zuvor wurde das Tool, das zusammen mit der Hamburger Firma Systain Consulting GmbH weiterentwickelt wurde, ausgiebig mit Praxispartnern aus der Industrie getestet. Unmittelbar in das Projekt eingebunden waren die ZEISS Gruppe und die Robert Bosch GmbH. Gefördert wurde die Entwicklung vom Umweltministerium Baden-Württemberg.
Die Ermittlung eines betrieblichen Carbon Footprint ist der erste wichtige Schritt auf dem Weg zum Klimaschutz in Unternehmen. Wo sind die größten Beiträge zu den Emissionen und wo sollten die Maßnahmen zuerst ansetzen? „Wir wissen heute, dass die vorgelagerten Emissionen in der Lieferkette der Unternehmen einen wesentlichen Beitrag liefern, oft sogar den größten,“ sagt der Projektleiter Professor Mario Schmidt. Doch die Erhebung dieser Emissionen, in der Fachsprache wird immer von Scope-3-Emissionen gesprochen, stellen eine große Herausforderung dar. Große Unternehmen haben oft Tausende von Lieferanten und Vorprodukte, aus dem In- und Ausland, und fragen sich, woher sie die Zahlen bekommen können und wie belastbar sie sind.
Der scope3analyzer stellt für Unternehmen einen sehr einfachen Einstieg in die Klimabilanzierung dar: Das Tool ist kostenfrei, webbasiert, arbeitet völlig anonymisiert und kann die Emissionen unmittelbar auf Basis bereits vorliegender Einkaufs- und Verbrauchsdaten des Unternehmens berechnen. Das Tool ist außerdem berichtskonform – gängige internationale Standards wie das Greenhouse Gas Protocol, das Carbon Disclosure Project sowie die Science Based Targets Initiative akzeptieren die angewandte Methodik.
Der Emissionsbeitrag der Lieferkette wird mit volkswirtschaftlichen Daten abgeschätzt. Dabei können dann sogar die Emissionen der Vor-Vorprodukte, die aus Asien oder anderen Weltregionen kommen, einbezogen werden. Dies führt zu einem umfassenden Bild des unternehmerischen Handelns und ermöglicht die Identifikation der Hot-Spots von Treibhausgasemissionen. Zusätzlich werden auch die direkten Emissionen vor Ort und die indirekten Emissionen aus eingekaufter Energie mit errechnet.
Professor Schmidt: „Der scope3analyzer entfaltet sein Potential, je mehr Lieferanten ein Unternehmen hat und je schwieriger es wird, einzelne Zahlen zu recherchieren. Vor allem aber sollen die Daten nach der gleichen Methode erhoben und somit vergleichbar sein. Das wird durch die von uns eingesetzte Methode sichergestellt.“
Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/
Wissenschaftliche Ansprechpartner:
Prof. Dr. Mario Schmidt
mario.schmidt@hs-pforzheim.de
Weitere Informationen:
http://Hier können Unternehmen ihren betrieblichen CO2-Fußabdruck ermitteln:
https://scope3analyzer.pulse.cloud/
Vernetzungskonferenz: Klimaanpassungsmaßnahmen – erfolgreich durch Dialog
Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Die Anpassung an die Folgen des Klimawandels stellt Kommunen vor große Herausforderungen. Das Zentrum KlimaAnpassung lädt am 24. und 25.3. zur ersten digitalen Vernetzungskonferenz. Information und Austausch über verschiedene Maßnahmen der Klimaanpassung und Vorsorge stehen dabei im Fokus.
Am 24. und 25. März 2022 veranstaltet das vom Deutschen Institut für Urbanistik und adelphi im Auftrag des Bundesministeriums für Umwelt Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) betriebene Zentrum KlimaAnpassung erstmalig die Vernetzungskonferenz „Kommunale Klimaanpassung im Dialog“. Die Veranstaltung findet online statt und eine Teilnahme ist kostenlos.
Bundesumweltministerin Steffi Lemke wird die Veranstaltung eröffnen. Im Rahmen einer Podiumsdiskussion äußern sich Vertreter*innen aus den Ministerien der Bundes- und Landesebene und der kommunalen Spitzenverbände zu aktuellen Fragen der Anpassung an die Folgen des Klimawandels sowie zu den Herausforderungen und Bedarfen der Kommunen. Nach einem Expert*innen-Vortrag zu „Natur als Partner: Klimaschutz und Klimaanpassung durch naturbasierte Lösungen“ werden in acht parallel stattfindenden Workshops Einzelthemen der kommunalen Klimaanpassung vertieft und Erfahrungen der Teilnehmenden ausgetauscht.
Der zweite Konferenztag richtet sich direkt an Kommunen und ist nicht öffentlich.
Die Vernetzungskonferenz bietet viele Angebote zur Information und Vernetzung: So werden Institutionen und Verbände ihre Beratungsangebote und Projekte auf virtuellen Informationsständen vorstellen und für Gespräche zur Verfügung stehen. Weitere Details sind online zu finden.
Anmeldung für den 24. März: https://www.zentrum-klimaanpassung.de/anmeldeformular-24032022
Anmeldung für den 25. März: https://zentrum-klimaanpassung.de/anmeldeformular-25032022
(Die Teilnahme an diesem Tag ist Vertreterinnen und Vertretern der Kommunalverwaltungen vorbehalten.)
Zum Hintergrund: Das Zentrum KlimaAnpassung richtet sich mit seinen Angeboten und Dienstleistungen speziell an Kommunen und Träger sozialer Einrichtungen, um sie bei der Planung, Umsetzung und Finanzierung von Maßnahmen zur Klimaanpassung zu unterstützen. Das Beratungszentrum wurde als Bestandteil der Deutschen Anpassungsstrategie (DAS) durch das Bundesumweltministerium und den kommunalen Spitzenverbänden im gemeinsamen 3-Punkte-Plan für Klimaanpassung in Kommunen vereinbart. Die Einrichtung des Zentrums Klimaanpassung erfolgt im Auftrag des Bundesministeriums für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) durch das Deutsche Institut für Urbanistik (Difu) und adelphi. Die Leitung des Zentrums verantwortet das Difu.
Organisation:
Philipp Reiß
+49 30 39001-186
reiss@difu.de
Service-Hotline: 030-39001 201
E-Mail: beratung@zentrum-klimaanpassung.de
Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.
Weitere Informationen:
http://difu.de/17208 (weitere Informationen & kostenlose Anmeldung)
http://www.zentrum-klimaanpassung.de/sites/zentrum-klimaanpassung.de/files/docum… (gesamtes Programm als PDF)
Kollateralschaden: das Ende von SWIFT?
Markus Kurz IESE Business School München
IESE Business School München
SWIFT, ausgeschrieben „Society for Worldwide Interbank Financial Telecommunication“ ist ein globales Nachrichtensystem, das Tausende Finanzinstitute auf der ganzen Welt miteinander verbindet. Eine Reihe amerikanischer und europäischer Banken erschuf 1973 gemeinsam SWIFT, um einen Standard zu setzen – und zu verhindern, dass eine einzelne Bank ihr eigenes System errichtet.
Ein Beitrag von Sandra Sieber, Professorin im Information Systems Department der weltweit renommierten IESE Business School. Sieber ist Expertin für Digital Transformation.
Das System SWIFT arbeitet seit 1977, angeschlossen sind derzeit über 11.000 Finanzinstitute in über 200 Ländern und Gebieten. Mehr als 40 Millionen Nachrichten am Tag ermöglichen den Transfer von Billionen Euro zwischen Unternehmen und Staaten weltweit. SWIFT informiert die Banken über ausgeführte Transaktionen. Das System bewegt kein Geld, sondern Informationen über Geld. Und das mit minimalen Provisionen und Gebühren, wodurch mehr Transaktionen ermöglicht werden, als sie jedes private System erreichen könnte.
Ließe man die Banken ohne SWIFT zurück, wäre das so, als würde man uns das Internet nehmen – oder der Generation Z ihre sozialen Netzwerke. Die Abkopplung einer Bank von SWIFT bedeutet, dass sie nicht mehr kommunizieren kann und auch nichts mehr mitbekommt. Theoretisch wären Geldströme möglich. Aber ohne ergänzende Informationen, woher sie kommen, wohin sie gehen, wofür sie bestimmt sind, wäre eine Bank nicht in der Lage zu arbeiten. Deshalb ist es für die Banken in aller Welt so bedeutend, auf ein unabhängiges und sicheres System setzen zu können, dem sie angehören, egal was kommt.
SWIFT hat sein Headquarter in Belgien und befindet sich im gemeinsamen Besitz von mehr als 2.000 Banken und Finanzinstituten. Verwaltet wird SWIFT von der belgischen Nationalbank in Zusammenarbeit mit den Zentralbanken von Kanada, Frankreich, Deutschland, Italien, Japan, den Niederlanden, Schweden, der Schweiz, des Vereinigten Königreichs und der Vereinigten Staaten. SWIFT ermöglicht seit seinem Bestehen jeder Bank sichere internationale Transaktionen. SWIFT war stets um Neutralität bemüht, zu zeigen, dass es in keinem Streitfall Partei ergreift. Diese Regel wurde in ihrer Geschichte nur ein einziges Mal gebrochen, als sie 2012 iranische Banken wegen des Atomprogramms ihres Landes ausschloss.
Wegen des Krieges wurden nun die meisten russischen Banken aus SWIFT ausgeschlossen. Mit dieser Maßnahme hofft man, der russischen Wirtschaft schweren Schaden zuzufügen – erinnern wir uns daran, dass der Iran durch die gleiche Maßnahme fast die Hälfte seiner Einnahmen aus dem Ölexport sowie 30 % seines Außenhandels verloren hat.
Wir sollten uns jedoch der mittel-und langfristigen Kollateralschäden bewusst sein. Im Jahr 2012, zeitgleich mit den Maßnahmen gegen den Iran, schuf China ein System namens CIPS (Cross-border Interbank Payment System). An den Start gegangen 2015, wird es von der People’s Bank of China verwaltet und wird hauptsächlich für Transaktionen zwischen Banken in China, innerhalb des chinesischen Festlandes und zwischen Hongkong und China genutzt.
Im Jahr 2014 begann die russische Zentralbank zeitgleich mit der Drohung, Russland aufgrund der Krim-Krise aus SWIFT auszuschließen, mit der Entwicklung ihres eigenen Systems, SPFS (Financial Message Transfer System). Es wurde 2017 eingeführt und genießt lokal eine hohe Akzeptanz. Erst kürzlich traten einige internationale Finanzinstitute im russischen Einflussbereich bei, Tochtergesellschaften der großen russischen Banken in Deutschland und der Schweiz erhielten Zugang.
In absoluten Zahlen betrachtet hält sich die internationale Ausdehnung beider Systeme noch sehr in Grenzen. Wir können nur darüber spekulieren, wie schnell diese Systeme mit anderen Systemen oder wie leicht beide untereinander verbunden werden könnten. In jedem Fall wird der aktuelle Bann die Entwicklung dieser und wahrscheinlich auch anderer Systeme beschleunigen – neben den Auswirkungen auf Blockchain und die Welt der Kryptowährungen.
Die universelle Nutzung von SWIFT, wie wir sie seit 45 Jahren kennen, ist vorbei – ein Kollateralschaden des Krieges in der Welt der Finanzdienstleistungen. Bedauerlicherweise ist ein globales System, mit offener Technologie, unter privater glaubwürdiger Verwaltung, extrem schwierig zu etablieren – und noch schwieriger zu erhalten. Neutralität – die Einbeziehung aller – ist der Schlüssel zu Glaubwürdigkeit und Dauerhaftigkeit. Jede Ausnahme gibt Anstoß zur Entwicklung alternativer Systeme. Während wir also der EU noch applaudieren und die Verhängung eine der härtesten Wirtschaftssanktionen unterstützen, sollten wir uns Gedanken darüber machen, was als Nächstes kommen soll. Wie soll die Welt der internationalen Geldströme aussehen, welche wirtschaftlichen Folgen sehen sich Industrie, Unternehmen und die Nutzer im Allgemeinen gegenüber.
Wissenschaftliche Ansprechpartner:
Sandra Sieber, Professorin im Information Systems Department der IESE Business School, siehe https://www.iese.edu/faculty-research/faculty/sandra-sieber/
Energiesparen mit Magnonen: Magnetische Anregungen übertragen Informationen ohne Wärmeverlust
Dr. Andreas Battenberg Corporate Communications Center
Technische Universität München
So wie Elektronen durch einen elektrischen Leiter fließen, können auch magnetische Anregungen durch bestimmte Materialien wandern. Solche, in der Physik analog zum Elektron auch „Magnonen“ genannten Anregungen könnten Informationen sehr viel leichter transportieren als elektrische Leiter. Auf dem Weg zu solchen Bauteilen, die deutlich energiesparender und erheblich kompakter wären, hat ein internationales Forschungsteam nun eine wichtige Entdeckung gemacht.
Aktuell beruht die Funktion der Mehrheit elektronischer Bauteile auf dem Transport und der Kontrolle elektrischer Ladungen. Ein großer Nachteil dieser Technik ist, dass der Stromfluss aufgrund des elektrischen Widerstands immer auch Wärme erzeugt – angesichts der immensen Zahl elektronischer Bauteile weltweit, ein gigantischer Energieverlust.
Eine energieeffiziente Alternative besteht darin, magnetische Wellen für Transport und Verarbeitung von Informationen zu verwenden. Denn sie produzieren nicht annährend so viel unnütze Wärme. Solche Bauteile könnten auch wesentlich kompakter sein. Weltweit suchen daher Wissenschaftlerinnen und Wissenschaftler nach Materialien, in denen magnetische Spin-Wellen für den Informationstransport genutzt werden können.
Ein internationales Forschungskonsortium unter maßgeblicher Beteiligung der Technischen Universität München (TUM) ist nun auf dieser Suche einen wichtigen Schritt vorwärts gekommen. Ihre Beobachtungen von Spinwellen auf Kreisbahnen in bestimmten magnetischen Materialien könnten auch für diejenigen Quanten-Technologien einen Durchbruch bedeuten, die Wellen dazu benutzen, um Informationen zu transportieren.
Ausbreitung magnetischer Wellen in Materialien
Wirft man einen Stein ins Wasser, so bringt man die Wassermoleküle aus ihrer Ruhelage. Sie fangen an zu schwingen; eine kreisförmige Welle breitet sich aus. Ganz ähnlich kann man die magnetischen Momente in manchen Materialien zu einer Schwingung anregen. Dabei führt das magnetische Moment eine Kreiselbewegung um seine ursprüngliche Ruhelage aus. Die Schwingung eines Atoms stößt eine Schwingung des nächsten an, und so pflanzt sich die Welle fort.
Für Anwendungen ist es hierbei wichtig, die Eigenschaften dieser magnetischen Wellen, wie beispielsweise ihre Wellenlänge oder Richtung, kontrollieren zu können. In konventionellen Ferromagneten, in welchen die magnetischen Momente alle in dieselbe Richtung zeigen, breiten sich magnetische Wellen grundsätzlich geradlinig aus.
Ganz anders verhält sich die Ausbreitung solcher Wellen in einer neuen Klasse magnetischer Materialien, die einem Paket ungekochter Spagetti vergleichbar, aus einer engen Anordnung magnetischer Wirbelschläuche bestehen. Entdeckt wurde sie vor knapp fünfzehn Jahren von einem Team um Christian Pfleiderer und Peter Böni an der TU München mit Hilfe von Neutronenexperimenten.
Aufgrund ihrer nicht-trivialen topologischen Eigenschaften und in Anerkennung der theoretisch-mathematischen Entwicklungen des britischen Kernphysikers Tony Skyrme werden die Wirbelschläuche als Skyrmionen bezeichnet.
Ausbreitung der magnetischen Welle auf einer Kreisbahn
Da Neutronen selbst ein magnetisches Moment tragen, eignen sie sich besonders gut zur Erforschung magnetischer Materialien, da sie wie eine Kompassnadel hochempfindlich auf magnetische Felder reagieren. Für den Nachweis der Spinwellen auf Kreisbahnen erwies sich die Neutronenstreuung sogar als alternativlos, da nur sie die erforderliche Auflösung über sehr große Längen- und Zeitskalen ermöglichte.
Wie das Team um Tobias Weber vom Institut Laue Langevin im französischen Grenoble nun mittels polarisierter Neutronenstreuung nachweisen konnte, erfolgt die Ausbreitung einer magnetischen Welle senkrecht zu solchen Skyrmionen nicht geradlinig sondern auf einer Kreisbahn.
Grund hierfür ist, dass die Richtung benachbarter magnetischer Momente und damit die Richtung der Achse, um die die Kreiselbewegung erfolgt, sich kontinuierlich ändert. Analog dazu ändert sich bei der Fortpflanzung der Kreiselbewegung von einem magnetischen Moment zum nächsten senkrecht zu einem magnetischen Wirbelschlauch auch die Ausbreitungsrichtung kontinuierlich. Der Radius und die Richtung der Kreisbahn der Ausbreitungsrichtung hängt dabei von der Stärke und der Richtung der Verkippung der magnetischen Momente ab.
Quantisierung der Kreisbahnen
„Damit jedoch nicht genug“, sagt Markus Garst vom Karlsruher Institut für Technologie, der die theoretische Beschreibung der magnetischen Wellenbewegung und ihre Kopplung an Neutronen schon vor länger Zeit ausgearbeitet hatte. „Es gibt eine enge Analogie zwischen der kreisförmigen Ausbreitung von Spinwellen in einem Skyrmionengitter und der Bewegung eines Elektrons aufgrund der Lorentzkraft senkrecht zu einem Magnetfeld.“
Bei sehr tiefen Temperaturen, wenn die Kreisbahnen geschlossen sind, ist ihre Energie quantisiert. Vor fast hundert Jahren vom russischen Physiker Lev Landau vorhergesagt, ist dieses Phänomen für Elektronen seit langem als Landau-Quantisierung gut bekannt. Dabei lässt sich der Einfluss der Wirbelstruktur auf die Spinwellen elegant durch ein fiktives Magnetfeld interpretieren. Das heißt, das sehr komplizierte Wechselspiel der Spinwellen mit der Skyrmionenstruktur ist letztlich genauso einfach wie die Bewegung von Elektronen in einem echten Magnetfeld zu verstehen.
Auch die Ausbreitung der Spinwellen senkrecht zu den Skyrmionen zeigt eine solche Quantisierung der Kreisbahnen. Die charakteristische Energie der Spinwelle ist damit ebenfalls quantisiert, was völlig neue Anwendungen verspricht. Zusätzlich ist die Kreisbahn aber auch noch in sich verdrillt, ähnlich wie bei einem sogenannten Möbiusband. Sie ist topologisch nicht-trivial: Nur durch Zerschneiden und neu Zusammenfügen ließe sich die Verdrillung entfernen. All dies führt zu einer besonders stabilen Bewegung der Welle.
Internationale Kooperation
„Die experimentelle Bestimmung der Spinwellen in Skyrmionengittern erforderte sowohl eine Kombination weltweit führender Neutronenspektrometer als auch eine massive Weiterentwicklung der Software zur Deutung der Daten“, erläutert TUM-Physiker Peter Böni.
Das Forschungsteam nutzte Instrumente des Institut Laue-Langevin (ILL) in Frankreich, der Spallationsquelle SINQ am Schweizer Paul-Scherrer-Institut, der britischen Neutronen- und Myonenquelle ISIS und der Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II) der TU München. Weitere Arbeiten zur Theorie und Datenanalyse wurden am US-amerikanischen Los Alamos National Laboratory und am Karlsruher Institut für Technologie (KIT) durchgeführt.
Marc Janoschek, der inzwischen am Paul Scherrer Institut arbeitet, schwärmt: „Es ist einfach genial, dass sich mit dem mikroskopischen Nachweis der Landau-Quantisierung an der weltweit einzigartigen Beamline RESEDA am FRM II der TUM in Garching nach zahllosen Experimenten an weltweit führenden Spektrometern und der Klärung großer experimenteller und theoretischer Herausforderungen während meiner Zeit in Los Alamos ein Kreis schließt, der vor fast fünfzehn Jahren mit meinen ersten Messungen am Heinz Maier-Leibnitz Zentrum begann.“
Die Bewegung von Spinwellen auf Kreisbahnen, die noch dazu quantisiert sind, ist jedoch nicht nur aus Sicht der Grundlagenforschung ein Durchbruch. So betont Christian Pfleiderer, geschäftsführender Direktor des neu geschaffenen Zentrums für QuantenEngineering der TUM: „Die spontane Bewegung von Spinwellen auf Kreisbahnen, deren Radius und Richtung durch Skyrmionen-Wirbelstrukturen entsteht, eröffnet eine neue Perspektive, um funktionelle Bauteile für die Informationsverarbeitung in den Quantentechnologien zu realisieren, wie beispielsweise einfache Koppler zwischen Qubits in Quantencomputern.“
An den Messungen waren Forschende des Instituts Laue-Langevin in Frankreich, des Paul Scherrer Instituts, der Universität Zürich und der Ecole Polytechnique Fédérale de Lausanne in der Schweiz, der Spallationsquelle ISIS und der Universität London in Großbritannien, der Oak Ridge und Los Alamos National Laboratories in USA, der Technischen Universität Dresden, der Universität zu Köln, des Karlsruher Instituts für Technologie und der Technischen Universität München und dem Heinz Maier-Leibnitz Zentrum in Garching beteiligt.
Die Forschung wurde gefördert vom Europäischen Forschungsrat durch die ERC Advanced Grants „TOPFIT“ und „ExQuiSid“, von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs TRR80, des Sonderforschungsbereichs SFB 1143, des Schwerpunktprogramms SPP 2137 „Skyrmionics“ und des Exzellenzclusters „Munich Center for Quantum Science and Technology“ (MCQST) im Rahmen der Exzellenzinitiative des Bundes und der Länder sowie durch das Directed Research and Development Programm des Los Alamos National Laboratory und des Institute for Materials Science in Los Alamos, USA.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Pfleiderer
Technische Universität München
Lehrstuhl für Topologie korrelierter Systeme (E51)
James-Franck-Str. 1, 85748 Garching
Tel.: +49 89 289 14720 – E-Mail: christian.pfleiderer@ph.tum.de
Prof. Dr. Markus Garst
Institut für Theoretische Festkörperphysik
Karlsruher Institut für Technologie (KIT)
Wolfgang-Gaede-Str. 1, 76131 Karlsruhe
Tel.: +49 721 608 43361
E-Mail: markus.garst@kit.edu
Originalpublikation:
Publikation:
T. Weber, D. M. Fobes, J. Waizner, P. Steffens, G. S. Tucker, M. Böhm, L. Beddrich, C. Franz, H. Gabold, R. Bewley, D. Voneshen, M. Skoulatos, R. Georgii, G. Ehlers, A. Bauer, C. Pfleiderer, P. Böni, M. Janoschek, M. Garst
Topological magnon band structure of emergent Landau levels in a skyrmion lattice
Science, 04.03.2022 – DOI: 10.1126/science.abe4441
Weitere Informationen:
https://www.science.org/doi/10.1126/science.abe4441 Originalpublikation
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/details/37241 Presseinformation auf der TUM-Website
https://www.groups.ph.tum.de/sces/ Website der Arbeitsgruppe Pfleiderer
https://www.tfp.kit.edu/1091.php Website der Arbeitsgruppe Garst
https://www.frm2.tum.de/ Link zur Forschungs-Neutronenquelle Heinz Maier-Leibnitz (FRM II)
https://mlz-garching.de/ Link zum Heinz Maier-Leibnitz Zentrum (MLZ)
Gesundheitsdaten handlungsfähig machen und patientenorientierte Gesundheitsversorgung sicherstellen
Dr. Cornelius Wittal Presse- und Öffentlichkeitsarbeit
Roche Pharma AG
Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Welches Potential hier durch internationale Zusammenarbeit entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird am 24.03.2022 ab 16:00 bis 19:00 Uhr in einer Webkonferenz diskutiert.
Datengestützte Medizin und Wissensaustausch sind unerlässlich, um medizinischen Fortschritt und Innovation zu beschleunigen und ein personalisiertes Gesundheitssystem zu ermöglichen. Die digitale Vernetzung von Gesundheitsdaten soll eine patientenorientierte und gleichzeitig wissensgenerierende Gesundheitsversorgung sicherstellen. Digitale Infrastrukturen sind für die Verfügbarkeit von Daten aus Versorgung und Forschung zwingend erforderlich. Welches Potential durch internationale Zusammenarbeit und durch gemeinsame Nutzung von Gesundheitsdaten entstehen kann und welche Handlungsempfehlungen sich daraus ableiten, wird gemeinsam mit Ärzten, Forschern, Kostenträgern, politische Entscheidungsträgern und Patientenvertretern diskutiert.
Dieses Fachsymposium erfolgt in einer Kooperation von Springer Medizin und Roche Pharma AG, unter Schirmherrschaft der Fraunhofer Gesellschaft mit Unterstützung der Deutschen Krebsgesellschaft (DKG) und Data Saves Lives. Simultanübersetzung in englisch.
Veranstalter:
Das Fraunhofer Institut für Angewandte Informationstechnik FIT ist exzellenter Partner für die menschzentrierte Gestaltung unserer digitalen Zukunft. Als Innovationstreiber bietet es nicht nur Orientierung, sondern gestaltet auch den digitalen Wandel in Wirtschaft, Umwelt und Gesellschaft. (fit.fraunhofer.de)
Die Deutsche Krebsgesellschaft ist die größte wissenschaftlich-onkologische Fachgesellschaft in Deutschland und engagiert sich für eine Krebsversorgung auf Basis evidenzbasierter Medizin und Interdisziplinarität für eine hohe Qualität der onkologischen Versorgung. (krebsgesellschaft.de)
Data Saves Lives ist eine Multi-Stakeholder-Initiative mit dem Ziel, Patienten und die Öffentlichkeit für die Bedeutung von Gesundheitsdaten zu sensibilisieren, das Verständnis für deren Nutzung zu verbessern und ein vertrauenswürdiges Umfeld für den Multi-Stakeholder-Dialog über verantwortungsvolle Nutzung und gute Praktiken in ganz Europa zu schaffen. Die Vision von Data Saves Lives ist ein Europa, in dem ein vertrauenswürdiger Datenaustausch die Gesundheit und die wissenschaftliche Forschung unterstützt, um den Bedürfnissen der Patienten gerecht zu werden und die Herausforderungen unserer Gesundheitssysteme zu bewältigen. (datasaveslives.eu)
Roche (weltweit) ist ein globales Unternehmen mit Vorreiterrolle in der Erforschung und Entwicklung von Medikamenten und Diagnostika und ist darauf fokussiert, Menschen durch wissenschaftlichen Fortschritt ein besseres, längeres Leben zu ermöglichen. Dank der Kombination von Pharma und Diagnostika unter einem Dach ist Roche führend in der personalisierten Medizin – einer Strategie mit dem Ziel, jeder Patientin und jedem Patienten die bestmögliche Behandlung zukommen zu lassen.
Roche ist das größte Biotech-Unternehmen weltweit mit differenzierten Medikamenten für die Onkologie, Immunologie, Infektionskrankheiten, Augenheilkunde und Erkrankungen des Zentralnervensystems. Roche ist auch der bedeutendste Anbieter von In-vitro-Diagnostika und gewebebasierten Krebstests und ein Pionier im Diabetesmanagement.
Seit der Gründung im Jahr 1896 erforscht Roche bessere Wege, um Krankheiten zu verhindern, zu erkennen und zu behandeln und leistet einen nachhaltigen Beitrag zur gesellschaftlichen Entwicklung. Zum Ziel des Unternehmens gehört es durch Kooperationen mit allen relevanten Partnern den Zugang von Patienten zu medizinischen Innovationen zu verbessern. Auf der Liste der unentbehrlichen Arzneimittel der Weltgesundheitsorganisation stehen heute 30 von Roche entwickelte Medikamente, darunter lebensrettende Antibiotika, Malariamittel und Krebsmedikamente. Ausgezeichnet wurde Roche zudem bereits das elfte Jahr in Folge als eines der nachhaltigsten Unternehmen innerhalb der Pharmabranche im Dow Jones Sustainability Index (DJSI).
Die Roche-Gruppe mit Hauptsitz in Basel, Schweiz ist in über 100 Ländern tätig und beschäftigt weltweit mehr als 100.000 Mitarbeitende. Im Jahr 2021 investierte Roche CHF 13,7 Milliarden in Forschung und Entwicklung und erzielte einen Umsatz von CHF 62,8 Milliarden. Genentech in den USA gehört vollständig zur Roche-Gruppe. Roche ist Mehrheitsaktionär von Chugai Pharmaceutical, Japan. Weitere Informationen finden Sie unter www.roche.com.
Roche in Deutschland
Roche beschäftigt in Deutschland rund 17.500 Mitarbeiterinnen und Mitarbeiter in den Bereichen Pharma und Diagnostik. Das Unternehmen ist an den drei Standorten in Grenzach-Wyhlen (Roche Pharma AG), Mannheim (Roche Diagnostics GmbH, Roche Diagnostics Deutschland GmbH, Roche Diabetes Care GmbH sowie Roche Diabetes Care Deutschland GmbH) und Penzberg (Biotechnologie-Kompetenzzentrum, Roche Diagnostics GmbH) sowie in der Metropolregion Stuttgart (Roche Diagnostics Automation Solutions GmbH) vertreten. Die Schwerpunkte erstrecken sich über die gesamte Wertschöpfungskette der beiden Geschäftsbereiche Pharma und Diagnostics: von Forschung und Entwicklung über Produktion, Logistik bis hin zu Marketing und Vertrieb, wobei jeder Standort neben dem Deutschland-Geschäft auch globale Aufgaben wahrnimmt. Roche bekennt sich klar zu den deutschen Standorten und hat in den letzten fünf Jahren in diese rund 2,6 Milliarden Euro investiert.
Roche Pharma AG
Die Roche Pharma AG im südbadischen Grenzach-Wyhlen verantwortet mit über 1.300 Mitarbeiterinnen und Mitarbeitern das deutsche Pharmageschäft. Dazu gehören die Zulassung und Überwachung, das Marketing und der Vertrieb von Roche Medikamenten in Deutschland sowie der Austausch mit Wissenschaftlern, Forschern und Ärzten in Praxen und Krankenhäusern. Von hier aus werden alle zulassungsrelevanten Studien für Deutschland koordiniert sowie Studien für bereits zugelassene Arzneimittel durchgeführt. Der Standort ist außerdem dafür zuständig, permanent zu überprüfen, ob die Produkte im gesamten europäischen Raum internen und externen Qualitätsrichtlinien entsprechen.
Wissenschaftliche Ansprechpartner:
erika.schirghuber@roche.com
Weitere Informationen:
http://go.roche.de/publichealth Informationen und Anmeldung
http://go.roche.de/flyer-public-health Programm (deutsch)
http://go.roche.de/datasharing_flyer_e Program (english)
Anhang
Programm (Flyer)
Wegweisendes Pilotprojekt RoKKa erzeugt Dünger und Rohstoffe aus Abwasser
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg finanziert das neue Forschungs- und Demonstrationsprojekt RoKKa (Rohstoffquelle Klärschlamm und Klimaschutz auf Kläranlagen), das das Leistungsspektrum von Kläranlagen um eine entscheidende Funktion erweitert: die Möglichkeit der Rohstoffrückgewinnung aus dem Abwasser. Zusammen mit den Betreibern der Kläranlagen in Erbach und Neu-Ulm demonstriert das Konsortium unter der Leitung des Fraunhofer IGB den positiven Beitrag zu Rohstoffsicherheit und zum Klimaschutz, da die erhaltenen Produkte fossile Rohstoffe und energieintensive Verfahren ersetzen können.
»Bisher lag die Aufgabe einer Kläranlage vor allem darin, Abwasser zu reinigen«, so Dr.-Ing. Marius Mohr, Projektleiter am Fraunhofer IGB zum Projektstart. »Wir richten unseren Blick nun auch auf die im Abwasser enthaltenen Rohstoffe.« An der nachhaltigen Bioraffinerie arbeiten Wissenschaftler:innen aus den Forschungseinrichtungen des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB, der Universität Stuttgart, der Universität Kassel und der Technischen Universität Kaiserslautern gemeinsam mit den Unternehmen SolarSpring GmbH, Deukum GmbH, Nanoscience for life GmbH, Umwelttechnik-BW GmbH, der Stadt Erbach sowie dem Zweckverband Klärwerk Steinhäule.
Mit Mikroalgen und Elektrosynthese Rohstoffe sichern
Die Wissenschaftler:innen erproben Verfahren, um aus dem Abwasser Phosphor- und Stickstoffverbindungen für Düngemittel zu gewinnen. Daneben werden mit Mikroalgen Pflanzenstärkungsmittel und Bodenverbesserer für die Landwirtschaft erzeugt. Selbst das CO2, das bei der Herstellung von Biogas anfällt, wird abgetrennt und wieder zu einem Rohstoff für die chemische Industrie verarbeitet. »So können Prinzipien der Bioökonomie umgesetzt werden und Kläranlagen zu einer nachhaltigen Rohstoffquelle werden. Die Rückgewinnung von Phosphor und Stickstoff als Dünger schließt den Nährstoffkreislauf und ist für das Klima sehr positiv,« so Dr.-Ing. Anette Zimmermann, Leitung Umwelttechnik und Bioökonomie bei Umwelttechnik BW.
Das ePhos-Verfahren ermöglicht die Rückgewinnung von Phosphor. Mit Hilfe einer Opferanode aus Magnesium wird das Phosphor elektrochemisch als Struvit gefällt. Zwei Pilotanlagen trennen den Ammonium-Stickstoff aus dem Schlammwasser ab. Eine Anlage verfolgt das Prinzip der Membran-Gasabsorption mit Membrankontaktoren (AmmoRe), die andere arbeitet nach dem Prinzip der Membrandestillation.
Im Pilotprojekt RoKKa wird gemessen, wie stark sich eine Stickstoffrückgewinnung auf die Klimabilanz der Kläranlagen auswirkt. Beim konventionellen Abbau von Stickstoffverbindungen auf Kläranlagen entsteht eine erhebliche Menge des Treibhausgases N2O, auch Lachgas genannt. Weiter wird erprobt, inwieweit die im Abwasser enthaltenen Nährstoffe Mikroalgen als Nahrung dienen. Algen benötigen zur Photosynthese neben Licht auch CO2. Dieses stammt aus der Biogasfaulung und wird mit Hilfe einer Aminosäurelösung abgetrennt. Parallel wird ein weiterer Verwertungsweg für das CO2 erprobt. Einen Teil des CO2 wandelt eine Elektrosynthese-Anlage in Formiat um. Formiat ist eine Grundchemikalie, die in der chemischen Industrie verwendet wird. Damit zeigt das Projekt die Möglichkeit einer Kreislaufführung von CO2 auf.
Bioraffinerie in den Kläranlagen Erbach und Neu-Ulm
Die Pilotanlagen werden auf bestehenden Kläranlagen in Erbach und Neu-Ulm integriert und mit realem Abwasser getestet. »Wir freuen uns, als Partner dieses Projekt zu ermöglichen«, so Thomas Schniertshauer vom Stadtbauamt Erbach. »Wir sind 2016 mit dem Bau einer Hochlastfaulung auf unserer Kläranlage bereits den ersten Schritt Richtung Bioökonomie gegangen. Nun sind wir stolz darauf, unsere Kläranlage zu einer nachhaltigen Bioraffinerie auszubauen.«
Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2022/wegweise… Presseinfo auf der Website des Fraunhofer IGB
Methan: Leckagen an Biogasanlagen verhindern – Strategien zur Verhinderung des Methanschlupfs vorgelegt
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Forscher des Deutschen Biomasseforschungszentrums GmbH (DBFZ) und der Universität Stuttgart, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) haben in einem internationalen Verbundvorhaben Emissionsmessungen an Biogasanlagen durchgeführt. Ziel war die Bewertung verschiedener Biogasanlagenkonzepte in Europa hinsichtlich ihrer Methanemissionen. Die Kooperationspartneraus Deutschland, Österreich, Schweden, Dänemark und der Schweiz haben Daten zur Identifizierung der wichtigsten Methanleckagen an Biogasanlagen und deren Quantifizierung erhoben und Strategien zur Verhinderung dieser Methanemissionen erarbeitet.
Das Verbundvorhaben „Bewertung und Minderung von Methanemissionen aus verschiedenen europäischen Biogasanlagenkonzepten (EvEmBi)“ wurde durch das Bundesministerium für Ernährung und Landwirtschaft sowie durch ERA-NET Bioenergy gefördert.
Die Ergebnisse des Vorhabens zeigen, dass sich der sogenannte Methan-Schlupf vor allem durch gasdichte Abdeckung von Gärproduktlagern, geeignete Füllstandsregelungen der Gasspeicher sowie regelmäßige Überprüfung von Leckagen verhindern lässt.
Die meisten Leckagen traten an der Folienanbindung zur Behälterwand, an der Seildurchführung der Tauchmotorrührwerke sowie an Festdachbehältern auf. Zudem entweicht Methan betriebsbedingt über die Überdrucksicherungen der Gasspeicher, aber auch durch offene Kugelhähne oder fehlende Wasservorlagen. Durch geeignete Betriebsweise der Anlage, ausgerichtet auf den Füllstand des Gasspeichers, kann das Auslösen der Überdrucksicherung im Normalbetrieb verringert werden.
Für die Analyse der Methan-Minderungspotenziale wurden durch den Kooperationsverbund Emissionsmessungen an 37 unterschiedlichen Biogasanlagen in Deutschland, Österreich, Schweden und der Schweiz durchgeführt. Auf dieser Grundlage wurden Optimierungsvorschläge erarbeitet. Dabei handelt es sich in erster Linie um Maßnahmen wie die Reparatur von Leckagen, die Behebung von Fehlfunktionen, z. B. das Schließen von Kugelhähnen, das Auffüllen der Wasservorlage oder das Schließen der Ventile bei Über-/Unterdrucksicherungen, aber auch um konstruktive Maßnahmen, wie z. B. die gasdichte Abdeckung des Gärproduktlagers.
Mit Blick auf den Wissenstransfer und zur Sensibilisierung der Anlagenbetreiber wurde in Zusammenarbeit mit dem Fachverband Biogas e. V. das Hintergrundpapier H-011 „Methanemissionen an Biogasanlagen“ mit Informationen zu den wichtigsten Methanemissionsminderungsmaßnahmen veröffentlicht.
Hintergrund:
Methan – das Produkt der Biogaserzeugung – wird auf vielfältige Weise z. B. zur Strom- und Wärmeerzeugung verwertet und ist ausschlaggebend für die Wirtschaftlichkeit einer Biogasanlage. Durch Leckagen entweichende Methanemissionen wirken sich nicht nur negativ auf die Wirtschaftlichkeit der Biogasanlage aus, sondern auch auf das Klima, denn Methan ist rund 25-mal klimaschädlicher als Kohlenstoffdioxid. Zudem können sich durch größere Methanleckagen lokale Ansammlungen explosiver Gasgemische bilden und die Sicherheit des Anlagenbetriebes gefährden. Methanleckagen an Biogasanlagen sollten deshalb aufgespürt und vermieden werden.
Förderhinweis:
In der landwirtschaftlichen Tierhaltung fallen enorme Mengen an Wirtschaftsdüngern an, deren Lagerung und Ausbringung Methanemissionen verursachen. Um sie zu mindern, unterstützt das Bundesministerium für Ernährung und Landwirtschaft Investitionen in Maßnahmen zur verstärkten Vergärung von Wirtschaftsdüngern. Nähere Informationen zur Fördermaßnahme finden Sie unter: https://wirtschaftsduenger.fnr.de/
Pressekontakt:
Fachagentur Nachwachsende Rohstoffe e.V.
Anja Engel
Tel.: +49 3843 6930-374
Mail: a.engel@fnr.de
Weitere Informationen:
https://www.biogas.org/edcom/webfvb.nsf/id/DE-H-011/$file/20-10-06_H-011_Hinterg…
„klimafit“ – Wissen für den Klimawandel vor der Haustür
Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Bundesweites Kursangebot für soziale Handlungskompetenz im Klimaschutz startet unter dem Schirm der Nationalen Klimaschutzinitiative
Steigende Temperaturen, extreme Wetterereignisse wie Starkregen und Stürme – der Klimawandel zeigt sich auch in Deutschland immer deutlicher. Dabei steht jede Region vor ihren ganz eigenen Herausforderungen. Mit dem Kurs „klimafit“ wollen der Helmholtz-Forschungsverbund REKLIM, der WWF Deutschland und die Universität Hamburg Bürgerinnen und Bürger auf die Auswirkung des Klimawandels direkt vor ihrer Haustür vorbereiten. Das Bildungsangebot wird mit 2,2 Millionen Euro für drei Jahre in der Nationalen Klimaschutzinitiative gefördert. Im März 2022 startet der nächste Kursdurchlauf an 128 Volkshochschulen in ganz Deutschland.
Wie wirkt sich der Klimawandel auf den privaten oder beruflichen Alltag aus? Auf welche Folgen müssen sich Bürgerinnen und Bürger in einzelnen Regionen einstellen? Wie können Kommunen gemeinsam ins Handeln kommen? Der Kurs „klimafit“ spricht Fragen wie diese direkt an. Der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM), der WWF Deutschland und die Universität Hamburg wollen so Wissen zum Klimawandel vermitteln, Menschen in den Regionen miteinander vernetzen und konkrete Handlungsmöglichkeiten aufzeigen. Die Kurse tragen so aktiv und nachhaltig zum notwendigen Wandel der Gesellschaft bei, um das Klimaproblem als gemeinschaftliche Aufgabe zu verankern.
Die Kurse
Mit ihrem Leuchtturmprojekt „klimafit“ wollen REKLIM, der WWF Deutschland und die Universität Hamburg die Bildung für nachhaltige Entwicklung durch direkte Bürger:innenbeteiligung fördern und den Wissenstransfer zwischen Forschung und Gesellschaft aktiv umsetzen.
Das Kurskonzept besteht aus sechs Abenden mit Präsens- und Onlineterminen. In Expertenvorträgen, Gruppendiskussionen und digitalen Lernangeboten erfahren die Teilnehmenden, was die Ursachen und Folgen der Klimakrise sind und welche Faktoren diese verstärken. Dabei haben sie die Möglichkeit, mit führenden Forschenden sowie lokalen Fachleuten und Initiativen zu sprechen. Die Kurse stellen die regionalen Veränderungen der Veranstaltungsorte in den Mittelpunkt. Deshalb informieren die Klimaschutzbeauftragten der entsprechenden Kommunen, wie ihre Schutz- und Anpassungskonzepte aussehen.
Nach dem Kurs kennen die Teilnehmenden die wichtigsten wissenschaftlichen Grundlagen zum Thema Klima und Klimawandel. Sie haben einen Überblick über Veränderungen direkt vor ihrer Haustür und darüber, was sie tun können, um diesen Folgen zu begegnen.
Das sagen die Initiator:innen
„Mit den Teilnehmenden des klimafit Kurses haben Städte und Gemeinden neue Multiplikatorinnen und Multiplikatoren für den kommunalen Klimaschutz gewonnen, die wissen, wie sich der Klimawandel in der Region auswirkt, welche Maßnahmen die Kommune zur Klimaanpassung plant und was sie selbst zum Klimaschutz beitragen können“, sagt Bettina Münch-Epple, Leitung Bildung, WWF Deutschland.
„Es wird immer wichtiger, über die Folgen und die Möglichkeiten der Klimaanpassung Bescheid zu wissen. Extremwetterereignisse wie Starkregen und lange Hitzeperioden sind hier schon lange keine Seltenheit mehr. Deshalb brauchen wir Menschen, die Klimaschutz in ihre Region bringen. Und genau hier setzt klimafit an“, berichtet Dr. Klaus Grosfeld, Geschäftsführer REKLIM, Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung, Bremerhaven.
„Klimawandel geht uns alle an und wir sollten uns nicht nur betroffen fühlen, sondern auch ins Handeln kommen. Gemeinsam fällt das leichter, als jeder für sich alleine. Gemeinsam lassen sich neue Routinen entwickeln und ein notwendiger Gestaltungswille kooperativ und solidarisch umsetzen“, erläutert Prof. Dr. Beate Ratter, Professorin für Integrative Geographie, Universität Hamburg.
Mehr zu „klimafit“
Der WWF Deutschland und der Helmholtz-Forschungsverbund „Regionale Klimaänderungen und Mensch“ (REKLIM) haben den Kurs „klimafit“ 2016 gemeinsam entwickelt. Die Universität Hamburg führt Begleitforschung durch. Seitdem haben bereits etwa 2000 Menschen an den Kursen teilgenommen. Sie bewerten besonders positiv das neue Wissen über den Klimawandel und die regionalen Veränderungen, die Teil des Kurses sind.
Der Transfer wissenschaftlicher Erkenntnisse und innovativer Technologien in die Gesellschaft ist ein wichtiges Element im Forschungsprogramm „Erde und Umwelt“ der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Das Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz fördert das „klimafit“-Projekt seit Januar 2022 als Teil der Nationalen Klimaschutzinitiative. Bis 2024 soll das Kursangebot an 170 Standorten bundesweit angeboten und langfristig etabliert werden und somit einen konkreten Beitrag zum Klimaschutzprogramm 2030 der Bundesregierung leisten.
Weitere Informationen zum Projekt, zu den bundesweiten Standorten und zur Anmeldung auf https://www.klimafit-kurs.de/ und https://www.reklim.de/ .
Ihre Ansprechpartner:innen sind
Wissenschaft:
Dr. Klaus Grosfeld, Klaus.Grosfeld@awi.de, +49(471)4831-1765
Dr. Renate Treffeisen, Renate.Treffeisen@awi.de, +49(471)4831-2145
AWI-Pressestelle:
Sarah Werner, sarah.werner@awi.de, +49(471)4831-2008
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Chatbot oder Mensch – Wer entscheidet besser bei der Rekrutierung? FAU-Team legt Studie zur KI im Personalwesen vor
Blandina Mangelkramer Presse und Kommunikation
Friedrich-Alexander-Universität Erlangen-Nürnberg
Eine offene Stelle, 1000 Bewerbungen: Immer häufiger setzen vor allem große Unternehmen Künstliche Intelligenz (KI) ein, um im Bereich Human Resources (HR) effizienter arbeiten, insbesondere geeignetes Personal finden zu können. Beispielsweise kann für Bewerberinnen und Bewerber bei der Jobsuche ein Chatbot nützlich sein, etwa um sich vorab ein Bild vom Tätigkeitsprofil zu machen und die eigenen Chancen einzuschätzen. An der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wurde finanziert durch die Adecco Stiftung für Arbeit und soziales Leben ein dreijähriges Projekt zum Thema „Künstliche Intelligenz, Chatbots und Rekrutierung“ abgeschlossen.
Untersucht wurde das Verhältnis von Mensch und Maschine im Personalwesen, unter anderem wurden so wertvolle Erkenntnisse über die Akzeptanz sowie ethische Aspekte dieser digitalen Systeme gewonnen. Dazu führten die Forscherinnen und Forscher am Lehrstuhl für Wirtschaftsinformatik, insbesondere Digitalisierung in Wirtschaft und Gesellschaft (Stiftungslehrstuhl) Interviews mit potenziellen Nutzer/-innen und Akteur/-innen im Personalbereich, aber auch mit KI-Expertinnen und -Experten. Das Nürnberger Forschungsteam um Prof. Dr. Sven Laumer hat die Ergebnisse jetzt in einem Bericht zusammengefasst, der sowohl für die Praxis als auch für die Wissenschaft von Relevanz ist. Die Wissenschaftlerinnen und Wissenschaftler halten Chatbots für geeignete Dialogsysteme, um Prozesse im Bereich HR effizienter zu gestalten, geben jedoch zu bedenken, dass Chatbots intelligenter werden und individueller auf die Nutzerinnen und Nutzer eingehen müssen. Auch wenn Algorithmen in Personalabteilungen bei der Entscheidungsfindung unterstützen können, so sind Recruiter mitunter skeptisch, sich auf die reine Datenlage zu verlassen. Laut der Studie bevorzugen Nutzerinnen und Nutzer bei sensiblen Themen mit personenbezogenen Daten sowie bei zukunftsrelevanten Empfehlungen den Mensch gegenüber der Maschine. Eine weitere Erkenntnis: KI wird vor allem dann akzeptiert, wenn Entscheidungen als fair empfunden werden. In diesem Zusammenhang wurde ein mehrdimensionales Fairnessmodell entwickelt und getestet. Überdies können Unternehmen, die eine digitale Rekrutierung anbieten, von Bewerberinnen und Bewerbern als innovativ und somit als attraktiv wahrgenommen werden.
Weiterhin zeigt sich, dass die aktive Vermeidung von Diskriminierung adressiert werden muss. Häufig finden diskriminierende Merkmale (z. B. die Beurteilung nach demographischen Merkmalen) in Modellen Anwendung, auf deren Grundlage Empfehlungen generiert werden. Deshalb ist ein hoher Grad an Transparenz wichtig, der die KI-gestützte Personalgewinnung erklärbar macht.
Gefördert wurde das Projekt von der in Düsseldorf ansässigen Adecco Stiftung, die sich dem Themenfeld „Neue Wege für Arbeit und soziales Leben“ verschrieben hat. „Die Zukunft der Arbeit ist seit jeher eines unserer Kernthemen“, sagt die Geschäftsführerin der Adecco Stiftung Janine Bischoff. „Deshalb war es für uns direkt ein spannendes Themenfeld, das wir gerne fördern wollten.“ Um die Forschung zur Digitalisierung an der FAU weiterzuführen und an das Adecco-geförderte Projekt anzuknüpfen, fördert die Dr. Theo und Friedl Schöller-Stiftung ab Februar 2022 unter anderem den Aufbau eines Forschungslabors zur Zukunft der Arbeit.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sven Laumer | Jessica Ochmann, M.Sc.
Schöller-Stiftungslehrstuhl für Wirtschaftsinformatik,
insb. Digitalisierung in Wirtschaft und Gesellschaft
Institut für Wirtschaftsinformatik des Fachbereichs
wiso-wi-dwg@fau.de
Originalpublikation:
https://www.adecco.de/adecco-stiftung/publikationen/
PFH sucht Teilnehmende für wissenschaftliche Studie zur Belastung durch Covid-19-Pandemie
Susanne Boll Presse- und Öffentlichkeitsarbeit
PFH Private Hochschule Göttingen
Bisherige Studien zu den Auswirkungen der COVID-19-Pandemie zeigen, dass die globale Krisensituation viele Menschen belastet. Ergebnisse einer internationalen Studie unter Leitung der PFH Private Hochschule Göttingen lassen vermuten, dass die psychische Belastung mit zunehmender Dauer der COVID-19-Pandemie steigt. Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, startet die Abteilung Klinische Psychologie des Fachbereiches Psychologie der PFH jetzt eine vierte Befragung, für die noch Teilnehmende gesucht werden.
Die ca. zwanzigminütige, wissenschaftlich fundierte Umfrage ist unter dem Link: https://umfragen.pfh.de/umfragen/index.php/814951?lang=de verfügbar. „Wir erhoffen uns durch die nun vierte Befragung weitere Erkenntnisse darüber, inwiefern die Pandemie und die bundesweiten Maßnahmen die Entwicklung psychischer Krankheiten über die Jahre hinweg beeinflussen“, so Prof. Dr. Youssef Shiban, Leiter des internationalen Forschungsprojekts und Professor für Klinische Psychologie an der PFH. „Bereits vor der Pandemie gab es mehr Menschen mit hoher psychischer Belastung als das Gesundheitssystem aufnehmen konnte. Diesen Missstand wird die Pandemie nach vielen bisherigen Erkenntnissen weiter anfachen“, so Shiban.
Die Auswertungen der im Rahmen des internationalen Forschungsprojektes durchgeführten ersten drei Befragungen, die vom ersten Lockdown Anfang 2020 bis zum dritten Lockdown Anfang 2021 stattfanden, ergaben eine alarmierend hohe Belastung in Bezug auf Depressionssymptomatik. „Der Anteil an Personen, die schwere Belastungen durch depressive Symptome berichten, war zum zweiten Lockdown mehr als doppelt so hoch als im ersten Lockdown“, berichtet Shiban. Auch in den Kategorien Angst-, Zwangs- und Somatisierungssymptomatik zeigten sich Verschlechterungen. „Diese Befunde lassen vermuten, dass die anhaltenden Beschränkungsmaßnahmen die Wahrscheinlichkeit einer verstärkten Belastung insbesondere bei schweren Symptomen erhöhen“, sagt Shiban. Zwar könne die Studie keine Aussagen über Diagnosen liefern, sondern lediglich über Symptombelastungen, laut Prof. Shiban belegt vergangene Forschung jedoch, dass nicht-klinische Symptome einen erheblichen Risikofaktor für die Entstehung psychischer Krankheiten darstellen.
Teilnehmer:innen für Online-Studie gesucht
Um zu untersuchen, inwieweit sich der Belastungsgrad im Laufe der anhaltenden Beschränkungen verändert, führt die Forschergruppe jetzt eine weitere Umfrage durch. „Es erscheint wichtig zu untersuchen, wie der Belastungsgrad sich während und nach Lockdowns verändert, um Belastungsfaktoren isolieren zu können und zukünftigen Versorgungsbedarf abzuschätzen“, so Shiban. Freiwillige, die das 18 Lebensjahr vollendet haben, können unter https://umfragen.pfh.de/umfragen/index.php/814951?lang=de an der Umfrage teilnehmen. Die Bearbeitungszeit beträgt ca. 20 Minuten. „Diese Umfrage ähnelt den vorigen Umfragen sehr, sodass sie dem ein oder anderen bekannt vorkommen wird. Dies sollte jedoch niemanden zurückschrecken, da es unser Ziel ist, die gleichen Informationen zu verschiedenen Zeitpunkten zu erheben“, so Shiban. ”Es wäre deshalb schön, wenn möglichst viele Menschen teilnehmen können, um möglichst verlässliche Ergebnisse zu erhalten.”
Die publizierten Ergebnisse der bisherigen Studien sind zu finden unter:
https://www.researchgate.net/publication/342912733_Depression_symptoms_during_th…
und
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8453152/
Wissenschaftliche Ansprechpartner:
Prof. Dr. Youssef Shiban, shiban@pfh.de
Anhang
Presseinformation Studie PFH Göttingen
Skepsis gegenüber Zuwanderung nimmt in Deutschland weiter ab
Hendrik Baumann Pressestelle
Bertelsmann Stiftung
Optimistische Einstellungen zur Migration haben in der Bundesrepublik weiter zugenommen. Die Skepsis geht langsam, aber kontinuierlich zurück. Zugleich wachsen die Erwartungen an die deutsche Gesellschaft, Hindernisse für die Integration abzubauen sowie Staats-, Verwaltungs- und Bildungswesen stärker für Zugewanderte zu öffnen.
Gütersloh, 16. Februar 2022. Die Beurteilung von Migration und Integration in Deutschland hat sich erneut leicht verbessert. Dabei spielen insbesondere die Chancen, welche die Zuwanderung der Wirtschaft bietet, eine Rolle. Das geht aus einer neuen Studie der Bertelsmann Stiftung zur Willkommenskultur hervor. Demnach sind 68 Prozent der Befragten der Ansicht, Zuwanderung bringe Vorteile für die Ansiedlung internationaler Firmen. 65 Prozent erwarten eine geringere Überalterung der Gesellschaft, 55 Prozent einen Ausgleich für den Fachkräftemangel und 48 Prozent Mehreinnahmen für die Rentenversicherung.
Die Werte fallen höher aus als bei den vorhergehenden Befragungen in den Jahren 2017 und 2019. Analog dazu sind die Sorgen vor möglichen negativen Effekten von Zuwanderung weiter zurückgegangen, auch wenn diese nach wie vor von einer Mehrheit geteilt werden. Befürchtungen im Hinblick auf Belastungen für den Sozialstaat äußern 67 Prozent der Befragten, 2019 waren es noch 71 Prozent. Konflikte zwischen Eingewanderten und Einheimischen erwarten noch 66 Prozent (2019: 69 Prozent). Mit Problemen in Schulen rechnen nur noch 56 Prozent (2019: 64 Prozent). Ungebrochen ist die Sorge vor Wohnungsnot in Ballungsräumen, die mit 59 Prozent auf demselben Niveau liegt wie vor drei Jahren.
„Die Chancen von Zuwanderung rücken mehr in den Fokus“
„Das Verhältnis der deutschen Bevölkerung zur Migration hat sich seit dem Höhepunkt der ‚Fluchtkrise‘ 2015 kontinuierlich verbessert und die Chancen von Zuwanderung rücken immer mehr in den Fokus. Das dürfte auch an den Erfahrungen aus der Corona-Krise liegen. Viele Menschen haben konkreter erfahren, wie wichtig es ist, dass die kritische Infrastruktur funktioniert und dass wir hierfür auch auf Zuwanderung angewiesen sind, von der Pflege, über den Dienstleistungssektor bis hin zur Landwirtschaft. Allerdings ist auch klar zu erkennen, dass der Umgang mit Vielfalt Zeit braucht. Sorgen und Zweifel sind noch immer verbreitet und erfordern gesamtgesellschaftliche Antworten“, sagt Orkan Kösemen, Projektleiter bei der Bertelsmann Stiftung.
Wie die Studie zeigt, ist die Sicht auf die Willkommenskultur in Deutschland nach wie vor differenziert: Menschen, die zum Arbeiten oder Studieren einwandern, werden nach Einschätzung einer großen Mehrheit der Befragten von den staatlichen Stellen ihrer Kommune (78 Prozent) wie auch von der Bevölkerung vor Ort (71 Prozent) eher oder sehr willkommen geheißen. Zwar sehen die Befragten das für die Gruppe der Geflüchteten mehrheitlich ebenso, allerdings fallen die Werte hier mit 68 und 59 Prozent deutlich geringer aus. Andererseits ist die Aufnahmebereitschaft gegenüber geflüchteten Menschen gestiegen und steht erstmals wieder an einem ähnlichen Punkt wie vor 2015. Nur noch 36 Prozent vertreten aktuell die Meinung, Deutschland könne nicht mehr Geflüchtete aufnehmen, weil es an seiner Belastungsgrenze sei. 2017 äußerten sich noch 54 Prozent so. Auch die Ansicht, dass die Bundesrepublik aus humanitären Gründen mehr Geflüchtete aufnehmen sollte, wird inzwischen von fast jedem zweiten Befragten (48 Prozent) geteilt.
Mangelnde Chancengleichheit und Diskriminierung behindern die Integration
Schon die zurückliegenden Studien zur Willkommenskultur haben ergeben, dass Integration nicht als Einbahnstraße wahrgenommen wird, sondern als ein Prozess, der sowohl den Zu-gewanderten als auch dem Aufnahmeland Anstrengungen abverlangt. In der aktuellen Befragung fällt auf, dass die Erwartungen an die Aufnahmegesellschaft stärker ins Blickfeld rücken. So sehen mehr Menschen als noch 2019 mangelnde Chancengleichheit für Zugewanderte auf dem Arbeitsmarkt und Diskriminierung aufgrund der Herkunft als größte Hindernisse für Integration. Dazu passt, dass sich auch mehr Befragte für neue Antidiskriminierungsgesetze aussprechen, vor allem in Bezug auf den Umgang mit Behörden. Zudem herrscht die Auffassung vor, dass Menschen mit Migrationshintergrund in wichtigen gesellschaftlichen Bereichen nur ungenügend vertreten sind. Das gilt vor allem für Politik, Verwaltung und Polizei sowie Kitas, Schulen und Universitäten. Weiterhin finden viele Befragte, dass die Leistungen von Zugewanderten nicht ausreichend gewürdigt werden. Die Migrant:innen selbst bewerten die Situation noch kritischer. Im Vergleich zum Durchschnitt der Befragten sehen mehr von ihnen mangelnde Chancengleichheit und Diskriminierung als größte Integrationshindernisse. Auch ihre Zustimmungswerte zur Frage nach angemessener Vertretung in gesellschaftlichen Schlüsselbereichen fallen teilweise niedriger aus.
Voraussetzungen für gesellschaftliche Teilhabe verbessern
Die Bertelsmann Stiftung empfiehlt daher, strukturelle Benachteiligungen für Zugewanderte weiter abzubauen und so die Voraussetzungen für ihre gesellschaftliche Teilhabe zu verbessern. Neue gesetzliche Regelungen zur Antidiskriminierung sollten dafür ebenso geprüft wer-den wie rechtliche Maßnahmen zur Förderung von Migrant:innen bei der Besetzung von Stellen in Verwaltung und öffentlichem Dienst. Doch auch symbolische Anlässe und Orte, wie Einbürgerungsfeiern oder das geplante „Haus der Einwanderungsgesellschaft“ in Köln, spielen eine wichtige Rolle: „Projekte, die Wertschätzung und Anerkennung gegenüber zugewanderten Mitbürger:innen zum Ausdruck bringen, fördern das Zusammenwachsen sowie das Selbstverständnis als Einwanderungsgesellschaft. Darüber hinaus können sie dazu beitragen, Deutschland als weltoffenes Land für ausländische Fachkräfte attraktiver zu machen, was angesichts des demografischen Wandels dringend nötig ist“, sagt Ulrike Wieland, Integrationsexpertin der Bertelsmann Stiftung. Um mehr qualifizierte Arbeitskräfte aus dem Ausland zu gewinnen, sollten zudem die Bestimmungen des Fachkräfteeinwanderungsgesetzes konsequent angewendet werden, insbesondere im Bereich der beruflichen Ausbildung.
Zusatzinformationen
Für die Studie „Willkommenskultur zwischen Stabilität und Aufbruch. Aktuelle Perspektiven der Bevölkerung auf Migration und Integration in Deutschland“ hat das Meinungsforschungsinstitut Kantar EMNID 2.013 Menschen in Deutschland ab 14 Jahren repräsentativ befragt. Die Befragung fand zwischen dem 3. und 10. November 2021 statt. Die Daten erlauben Vergleiche zu den vorhergehenden Studien zur Willkommenskultur, welche die Bertelsmann Stiftung im Oktober 2012, Januar 2015, Januar 2017 und April 2019 durchgeführt hat.
Unsere Expert:innen:
Dr. Orkan Kösemen, Telefon: 0 52 41 / 81 81 429
E-Mail: orkan.koesemen@bertelsmann-stiftung.de
Dr. Ulrike Wieland, Telefon: 0 52 41 / 81 81 398
E-Mail: ulrike.wieland@bertelsmann-stiftung.de
Weitere Informationen:
http://www.bertelsmann-stiftung.de
Studie: Umweltfachleute unterstützen Umweltpolitik jenseits des Wirtschaftswachstums
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
► Befragung unter Mitarbeitenden des Umweltbundesamtes zeigt Skepsis, dass „grünes“ Wachstum Umweltprobleme lösen kann
► Expert*innen halten wachstumskritische Konzepte für zielführender
► Artikel in Fachzeitschrift „Journal of Cleaner Production“ erschienen
Damit die Wirtschaft klimaschonender und nachhaltiger wird, setzen die meisten Politikansätze auf die Strategie eines „grünen Wachstums“. Doch Umweltfachleute stehen diesem Konzept, das auf weiteres Wirtschaftswachstum abzielt, kritisch gegenüber, wie eine neue Studie zeigt. Eine Befragung von Mitarbeitenden des Umweltbundesamtes – Deutschlands zentraler Umweltbehörde – ergab, dass die Expert*innen wachstumskritische Konzepte für zielführender halten. Die Studienautor*innen vom Institut für ökologische Wirtschaftsforschung (IÖW) und der ESCP Business School haben ihre Ergebnisse im Journal of Cleaner Production vorgestellt. Sie sehen die Befunde als Unterstützung für eine Umweltpolitik jenseits des Wachstums.
Mehrheit der Befragten zeigt sich wachstumskritisch
„Bei einer Auswahlfrage, welche Strategie sie am geeignetsten finden, um Umweltprobleme zu lösen, wählten drei Viertel der Befragten solche Wirtschaftskonzepte, die nicht auf Wachstum setzen. Nur ein Viertel entschied sich für grünes Wachstum“, so Cathérine Lehmann, IÖW-Hauptautorin der Studie. Bei weiteren Fragen, die die Zustimmung implizit über Aussagen zu ökonomischem Wachstum und Umweltbelangen erhoben, ist das Bild sogar noch deutlicher: Fast 99 Prozent der befragten Umweltfachleute stimmten in der Summe eher wachstumskritischen Standpunkten zu.
„Grünes Wachstum setzt darauf, dass die Emissionen und Ressourcenverbräuche vom Wirtschaftswachstum entkoppelt werden, damit die Umwelt entlastet wird“, erklärt IÖW-Ökonom Steffen Lange. „Ob dies allerdings eintreffen und ausreichend sein wird, ist überaus umstritten.“ Längst werden daher alternative Konzepte diskutiert. Der Ansatz „Degrowth“ etwa argumentiert, dass eine Nachhaltigkeitstransformation, die den ökologischen Herausforderungen gerecht wird, in den wohlhabenden Ländern mit einer deutlichen Reduktion des Bruttoinlandsprodukts pro Kopf einhergehen würde. Eine Mittelposition zwischen grünem Wachstum und Degrowth ist „A-Growth“. Dieser Ansatz geht davon aus, dass es nicht vorab abzusehen ist, ob das Bruttoinlandsprodukt steigen oder fallen wird.
Die Befragten bewerteten auch die „vorsorgeorientierte Postwachstumsposition“ als sehr gut, die 2018 vom IÖW, dem RWI – Leibniz-Institut für Wirtschaftsforschung und dem Wuppertal-Institut entwickelt wurde. Sie zielt vor dem Hintergrund der großen Unsicherheit der Möglichkeit einer weitreichenden Entkopplung von Wirtschaftswachstum und Umweltbelastungen darauf ab, dass gesellschaftliche Systeme wachstumsunabhängig(er) gestaltet werden sollten.
Je mehr Fachwissen zu Wachstumskonzepten, umso wachstumskritischer
„Um Umweltprobleme zu lösen, halten unserer Erhebung zufolge die Mitarbeiter*innen im Umweltbundesamt Ansätze wie Degrowth, A-Growth oder die vorsorgeorientierte Postwachstumsposition für geeigneter, als auf weiteres Wachstum zu setzen“, so Lehmann. „Unsere Befragung zeigt, dass diese Sichtweise bei Fachleuten mit größerer Expertise zu den genannten Wachstumskonzepten sogar besonders stark ausgeprägt ist. Viele Befragte scheinen also eher skeptisch zu sein, dass politische Strategien für grünes Wachstum wie der European Green Deal zur erforderlichen Entkopplung von Ressourcenverbrauch und Wachstum führen werden.“
Über 250 Teilnehmende an Befragung
Die Wissenschaftler*innen hatten alle Beschäftigten des Umweltbundesamts eingeladen, an der 20-minütigen Onlinebefragung teilzunehmen. 259 Mitarbeitende der Bundesoberbehörde haben sich im Jahr 2020 an der Befragung beteiligt.
Download Journal-Artikel:
Cathérine Lehmann, Olivier Delbard, Steffen Lange (2022): Green growth, a-growth or degrowth? Investigating the attitudes of environmental protection specialists at the German Environment Agency. Journal of Cleaner Production, https://doi.org/10.1016/j.jclepro.2021.130306
Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-16
kommunikation@ioew.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
Das IÖW forscht seit vielen Jahren zum Thema Wachstum in der Nachhaltigkeitsdebatte. Um eine verantwortliche Wirtschafts- und Umweltpolitik gestalten zu können, kommt es weniger auf Wachsen versus Schrumpfen an, so die Umweltökonom*innen um IÖW-Volkswirt Ulrich Petschow. Vielmehr müsse auf Vorsorge gesetzt werden: Die Gesellschaft sollte unabhängiger vom Wachstum werden, damit ambitionierte umweltpolitische Vorschläge nicht länger wegen eines Wachstumsvorbehalts ausgebremst werden können, so die „Vorsorgeorientierte Postwachstumsposition“ (https://www.ioew.de/publikation/gesellschaftliches_wohlergehen_innerhalb_planeta…).
http://www.ioew.de | http://twitter.com/ioew_de | http://www.ioew.de/newsletter
Wissenschaftliche Ansprechpartner:
Fachliche Ansprechpersonen:
Cathérine Lehmann, Dr. Steffen Lange
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49 30/884594-0
catherine.lehmann@ioew.de
steffen.lange@ioew.de
Hilfe für Meer und Küste
Dr. Torsten Fischer Kommunikation und Medien
Helmholtz-Zentrum Hereon
Mit dem Kick-off-Meeting am 17. und 18. Februar erfolgt jetzt der offizielle Start für die zweite Forschungsmission sustainMare „Schutz und nachhaltige Nutzung mariner Räume“ der Deutschen Allianz Meeresforschung (DAM). Sie analysiert unsere Nutzung von Meer und Küste. Meeresspiegelanstieg, Erwärmung und Versauerung der Meere sorgen zusammen mit der Verschmutzung und Übernutzung der Ökosysteme für tiefgreifende Probleme. Zwei Pilotvorhaben und fünf Verbundprojekte untersuchen die ökologischen, ökonomischen und sozialen Auswirkungen der Nutzung und Belastung von Nord- und Ostsee. Das Ziel: Handlungsempfehlungen für Nutzerinnen und Nutzer, Entscheiderinnen und Entscheider liefern.
Nahrungsgeber, Energielieferant, Rohstoffträger, Urlaubsziel und Transportweg. Meer und Küste werden vielgestaltig gebraucht und genutzt. Gleichzeitig beherbergen sie eine einzigartige biologische Vielfalt, die für das Ökosystem Küste essentiell ist. SustainMare, die zweite DAM-Forschungsmission, ist Anfang Dezember 2021 gestartet, um diesen Themenkomplex zu untersuchen. Über 200 Wissenschaftlerinnen und Wissenschaftler werden dazu ihren Beitrag leisten. Der Fokus liegt auf Konzepten und Implementierungen für eine am Gemeinwohl orientierte, den Wohlstand sichernde und umweltschonende Nutzung von Meeres- und Küstengebieten. Außerdem will die DAM-Mission Artenvielfalt und natürliche Lebensräume schützen helfen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Mission mit rund 25 Millionen Euro über einen ersten Zeitraum von drei Jahren.
Küste und Meere im Blick
Die Effekte von Nutzung und Übernutzung können sich gegenseitig verstärken und zu ökologischen, aber auch zu gesellschaftlichen Krisen führen. „Die Mission will die Nutzung und Belastung mariner Räume analysieren und einordnen. Unsere fundierte wissenschaftliche Beratung soll eine Grundlage für Entscheider aus Politik, Behörden und Wirtschaft sein“, sagt Professor Corinna Schrum, Leiterin des Hereon-Instituts für Küstensysteme – Analyse und Modellierung und Sprecherin der Mission. Die Mission will ferner gesellschaftliche Optionen entwickeln für eine ausgewogene Nutzung und einen nachhaltigen Schutz, die nur unter Einbeziehung der verschiedenen Stakeholder, Nutzergruppen und der Öffentlichkeit entwickelt werden können.
SustainMare fokussiert drei Themenbereiche. Erstens: Konzepte zur Verminderung der Auswirkungen der Nutzung und menschengemachter Belastungen auf marine Ökosysteme und Biodiversität. Zweitens: Konzepte zur Vermeidung und Verminderung von Meeresverschmutzung. Und drittens: Modellgestützte Untersuchungen zukünftiger Nutzungsszenarien und Analysen möglicher Management Optionen. Inbegriffen sind aktuelle Probleme wie die Nutzung alternativer Energiequellen, die Belastung durch Munitionsaltlasten oder die Krise in der Fischerei. Die fünf Projekte CREATE, iSEAL, SpaCeParti, CONMAR und CoastalFutures bilden zusammen mit den beiden Pilotprojekten MGF Nordsee und MGF Ostsee die Forschungsmission in Gänze. Neben der Koordination der Mission verantwortet das Helmholtz-Zentrum Hereon auch das Projekt CoastalFutures.
Die weiteren Projekte werden durch das Alfred-Wegener-Institut – Helmholtz Zentrum für Polar- und Meeresforschung (MGF-Nordsee), das Leibniz-Institut für Ostseeforschung Warnemünde (MGF-Ostsee), den Landesbetrieb für Küstenschutz, Nationalpark und Meeresschutz Schleswig-Holstein (iSeal), die Christian-Albrechts-Universität Kiel (SpaCeParti), die Carl von Ossietzky Universität Oldenburg (CREATE) und das GEOMAR Helmholtz Zentrum für Ozeanforschung Kiel (CONMAR) koordiniert. In der sustainMare Forschungsmission arbeiten verschiedene wissenschaftliche Fachdisziplinen und Fachleute aus insgesamt mehr als 40 Instituten, Behörden, NGOs etc. eng zusammen.
Wissenschaftliche Ansprechpartner:
Kai Hoppe I Helmholtz-Zentrum Hereon I Institut für Küstensysteme – Analyse und Modellierung I T: +49 (0) 4152 87-1830 I kai.hoppe@hereon.de I www.hereon.de
Weitere Informationen:
https://www.allianz-meeresforschung.de/kernbereiche/forschung/meere-schuetzen-un…
Die Millionen-Frage: Wie lösen wir komplexe Probleme?
Kathrin Haimerl Abteilung Kommunikation
Universität Passau
Prof. Dr. Carolin Häussler, Innovationsforscherin an der Universität Passau, hat gemeinsam mit ihrer ehemaligen Promovendin Dr. Sabrina Vieth untersucht, wann Menschen im digitalen Zeitalter zu welchen Problemlösungsstrategien greifen – und zwar anhand von Daten der Quiz-Sendung „Wer wird Millionär?“.
Ein Joker bei der 300-Euro-Frage? So ärgerlich das für manche Kandidatinnen und Kandidaten des beliebten RTL-Formats „Wer wird Millionär?“ ist, doch der eine oder die andere braucht bereits zu Beginn des Spiels Hilfe von außen. Nehmen sie diese dann auch in Anspruch? Oder hält sie die Sorge vor der öffentlichen Schmach zurück?
Es sind solche Konstellationen, die in die Studie der Innovationsforscherinnen Prof. Dr. Carolin Häussler (Universität Passau) und Dr. Sabrina Vieth (Coventry University London) eingeflossen sind. Insgesamt untersuchten die Wissenschaftlerinnen anhand der Daten der Quiz-Sendung, wie 4.556 Probleme von 398 Personen gelöst wurden. Dazu kodierten sie 243 Episoden der Show im Zeitraum von Oktober 2009 bis Juni 2013. „Wir wollten wissen: Wann lösen Menschen Probleme selbst, wann greifen sie auf das Spezialwissen individueller Expertinnen und Experten zurück, und wann auf das aggregierte Wissen des Publikums?“, erklärt Prof. Dr. Häussler.
Lösungsstrategien im digitalen Zeitalter
Was klingt, als wäre es lediglich eine unterhaltsame Studie, hat einen ernsthaften Hintergrund. Zwar konzentrierten sich die Forscherinnen in ihrer Analyse auf die Quiz-Sendung, denn: „Um die Effekte auch statistisch sauber zu analysieren, mussten wir ein Setting finden, in dem Menschen mit Problemen konfrontiert wurden, die sie sich nicht selbst ausgesucht haben.“ Doch die Erkenntnisse lassen nicht nur wichtige Schlüsse auf Lösungsstrategien im digitalen Zeitalter zu, in dem Möglichkeiten wie Suchmaschinen oder die Befragung der Crowd frei verfügbar sind. Die Studie liefert auch für die Innovationsfähigkeit von Unternehmen und der Gesellschaft wichtige Erkenntnisse.
Die Ergebnisse im Überblick:
• Soziale Normen, die einen offenen Austausch befürworten, erhöhen die Wahrscheinlichkeit, dass sich die Kandidatinnen und Kandidaten Hilfe von außen holen.
• Eine hohe Komplexität der Probleme motiviert die Spielerinnen und Spieler, Probleme extern zu lösen. In einer Kultur des offenen Austauschs nehmen sie auch bei weniger komplexen Problemen externe Hilfe in Anspruch.
• Bei sehr komplexen Problemen bevorzugen die Teilnehmenden das Spezialwissen einzelner Expertinnen und Experten; bei weniger komplexen Problemen befragen sie das Publikum.
• Ältere Teilnehmende nehmen seltener Hilfe in Anspruch als jüngere. Teilnehmende aus Großstädten waren offener für Hilfe von außen. Letzteres gilt auch für Teilnehmerinnen im Vergleich zu männlichen Spielern.
„Mit unserer Studie zeigen wir, dass dem Faktor der sozialen Normen bislang zu wenig Aufmerksamkeit geschenkt wurde“, sagt Prof. Dr. Häussler. In der Quiz-Sendung verkörpere Moderator Günther Jauch diese soziale Komponente. „Wenn er erinnert und signalisiert, dass es völlig legitim ist, sich Hilfe von außen zu holen, dann tun das die Kandidatinnen und Kandidaten auch.“
Soziale Normen als Schlüssel zur Problemlösung
Starke Normen des offenen Austauschs könnten den Forscherinnen zufolge eine andere Herangehensweise an Probleme fördern – „hin zu einer chancenorientierten Wahl der Problemlösung, die den Wert interner und externer Lösungen unabhängig von der Problemkomplexität anerkennt“. Gerade in einer Zeit mit immer größer werdenden Herausforderungen werde die Kompetenz, externe Lösungen einzuholen und zu koordinieren, immer wichtiger. Wenn also Unternehmen offene Innovationsstrategien auf institutioneller Ebene umsetzen wollen, dann liege es an den Führungskräften, Umgebungen zu schaffen, „in denen positive Einstellungen zu Offenheit und offenem Wissensaustausch verstärkt werden können“, schreiben die Forscherinnen.
Die Studie „A question worth a million: The expert, the crowd, or myself? An investigation of problem solving“ erscheint im April 2022 in dem renommierten Journal „Research Policy“. Es handelt sich dabei um eine der prominentesten Fachzeitschriften im Bereich der Innovationsforschung. Online ist die Studie bereits abrufbar unter: https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…
Über die Autorinnen
Prof. Dr. Carolin Häussler ist seit 2011 Inhaberin des Lehrstuhls für Organisation, Technologiemanagement und Entrepreneurship und DFG-Vertrauensdozentin an der Universität Passau. Sie ist außerdem Projektleiterin im DFG-Graduiertenkolleg 2720: „Digital Platform Ecosystems (DPE)“ an der Universität Passau. Als Mitglied der Expertenkommission Forschung und Innovation (EFI) berät sie die Bundesregierung. Am 23. Februar 2022 übergibt sie Bundeskanzler Olaf Scholz das diesjährige EFI-Jahresgutachten. Mit dem International Center for Economics and Business Studies lockt Prof. Dr. Häussler Forscherinnen und Forscher aus aller Welt nach Passau.
Dr. Sabrina Vieth lehrt und forscht zu Entrepreneurship und Innovation an der Coventry University London. Sie promovierte an der Universität Passau mit dem Schwerpunkt Open Innovation und Crowdsourcing. Ihre Forschungsinteressen drehen sich um die Analyse von Problemlösungen und Wissensaustausch, sowohl im beruflichen als auch im Bildungskontext.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Carolin Häussler
Lehrstuhl für BWL mit Schwerpunkt Organisation, Technologiemanagement und Entrepreneurship
Innstraße 27
94032 Passau
Carolin.Haeussler@Uni-Passau.De
Originalpublikation:
https://www.sciencedirect.com/science/article/abs/pii/S0048733321002456?dgcid=au…
Darmkrebs-Screening: Welche Strategie ist am wirksamsten?
Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wissenschaftlerinnen und Wissenschaftler vom Deutschen Krebsforschungszentrum (DKFZ) verglichen die Langzeiteffekte der derzeit in Deutschland angebotenen Strategien zur Darmkrebsvorsorge mit möglichen Alternativen. Mithilfe eines Simulationsmodells fanden sie heraus, dass sich das Darmkrebsrisiko zwar mit dem aktuellen Vorsorge-Angebot deutlich senken lässt, es aber ein erhebliches Potenzial gibt, die Vorsorge zu optimieren.
So könnten neben Männern auch Frauen stark davon profitieren, wenn das Anspruchsalter für die Vorsorge-Darmspiegelung von 55 auf 50 Jahre herabgesetzt würde. Außerdem könnten ergänzende Vorsorge-Angebote in höherem Alter erheblich dazu beitragen, die Zahl der Neuerkrankungen und der Sterbefälle zu senken.
Vorsorgeuntersuchungen reduzieren nachweislich das Risiko, an Darmkrebs zu erkranken oder daran zu versterben. In Deutschland werden derzeit verschiedene Möglichkeiten zur Darmkrebsvorsorge angeboten: die alleinige Verwendung fäkaler immunologischer Stuhltests (FITs), eine Kombination aus FITs und nachfolgender Darmspiegelung (Koloskopie), sowie die alleinige Koloskopie. FITs sind für beide Geschlechter ab dem 50. Lebensjahr verfügbar. Männer haben ab dem Alter von 50 Jahren auch Anspruch auf eine Darmspiegelung, Frauen ab 55 Jahren.
Bisher war jedoch nicht klar, welche der möglichen Vorsorgestrategien – auch mit Blick auf Geschlecht und Alter der betreffenden Personen – langfristig das Risiko für Darmkrebs am stärksten senkt. „Sowohl für Frauen und Männer, die an der Vorsorge interessiert sind, als auch für involvierte Ärzte ist es von großem Interesse zu wissen, welche der Strategien zur Darmkrebsvorsorge über einen längeren Zeitraum die effektivste ist“, erklärt der Epidemiologe Hermann Brenner vom Deutschen Krebsforschungszentrum (DKFZ).
Ein Wissenschaftler-Team um Brenner ging dieser Fragestellung nach und analysierte die Langzeiteffekte verschiedener Vorsorgestrategien anhand eines speziellen Simulationsmodells, das auf Grundlage umfangreicher Daten zur Darmkrebsvorsorge in der deutschen Bevölkerung entwickelt worden war.
Dabei fanden die Epidemiologen heraus, dass das Darmkrebsrisiko besonders stark mit Strategien reduziert werden könnte, die derzeit in Deutschland nicht angeboten werden. Beispielsweise würde eine dritte Vorsorgekoloskopie ab dem Alter von 70 Jahren bei Männern das Risiko, an Darmkrebs zu sterben, um weitere neun Prozent verringern. Ähnlich starke Effekte zeigen sich bei einer Erweiterung des Angebots um zusätzliche Stuhltests in höherem Alter. Für Frauen wäre ein alternatives Vorsorgeangebot mit drei Koloskopien alle zehn Jahre ab dem Alter von 50 Jahren wirksamer als alle aktuell verfügbaren Angebote.
„Das aktuelle Angebot leistet bereits einen enormen Beitrag zur Krebsprävention und Senkung der Darmkrebsmortalität“, so Thomas Heisser, Forscher am DKFZ und Erstautor der aktuellen Studie. „Doch unsere Ergebnisse zeigen, dass noch viel Optimierungspotenzial besteht. Beispielsweise sollten auch Frauen die Vorsorgekoloskopie schon ab 50 Jahren nutzen können. Vor dem Hintergrund des demographischen Wandels wäre es außerdem besonders wichtig, zusätzliche Angebote für ältere Menschen zu schaffen, zum Beispiel auf Grundlage immunologischer Stuhltests.“
In Deutschland sterben jedes Jahr etwa 25.000 Menschen an Darmkrebs. „Die meisten dieser Todesfälle wären durch die Darmkrebsvorsorge vermeidbar“, sagt Brenner. „Deshalb arbeiten wir daran, die Möglichkeiten der potenziell lebensrettenden Früherkennungsuntersuchungen weiter zu optimieren.“
Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.300 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können.
Beim Krebsinformationsdienst (KID) des DKFZ erhalten Betroffene, interessierte Bürger und Fachkreise individuelle Antworten auf alle Fragen zum Thema Krebs.
Gemeinsam mit Partnern aus den Universitätskliniken betreibt das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) an den Standorten Heidelberg und Dresden, in Heidelberg außerdem das Hopp-Kindertumorzentrum KiTZ. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums an den NCT- und den DKTK-Standorten ist ein wichtiger Beitrag, um vielversprechende Ansätze aus der Krebsforschung in die Klinik zu übertragen und so die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.
Ansprechpartner für die Presse:
Dr. Sibylle Kohlstädt
Pressesprecherin
Strategische Kommunikation und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Im Neuenheimer Feld 280
69120 Heidelberg
T: +49 6221 42 2843
F: +49 6221 42 2968
E-Mail: S.Kohlstaedt@dkfz.de
E-Mail: presse@dkfz.de
www.dkfz.de
Originalpublikation:
Thomas Heisser, Michael Hoffmeister, Hermann Brenner: Model based evaluation of long-term efficacy of existing and alternative colorectal cancer screening offers: A case study for Germany. Int J Cancer 2021. DOI 10.1002/ijc.33894
Mikrobielle Saubermänner räumen Kläranlagen auf
Anette Hartkopf Presse und Kommunikation
Universität zu Köln
Forscher:innen entschlüsseln, wie die mikrobiellen Bewohner von Kläranlagen dabei helfen, Darmparasiten zu beseitigen / Artikel in „Microbiome“ erschienen
Wimperntierchen und Rädertierchen sind die „Saubermänner“ in Kläranlagen. Das ergab eine Studie von Jule Freudenthal und Dr. Kenneth Dumack in der Arbeitsgruppe von Professor Dr. Michael Bonkowski am Institut für Zoologie der Universität zu Köln gemeinsam mit ihren Schweizer Kollegen Dr. Feng Ju und Dr. Helmut Bürgmann vom Eawag – das Wasserforschungsinstitut des ETH-Bereichs. Die Wimperntierchen und Rädertierchen jagen Krankheitserreger wie Giardia oder Entamoeba, Parasiten, die den Darm von Mensch und Tier befallen können. Die Forschenden analysierten in ihren Untersuchungen die Zusammensetzung von DNA und RNA der Abwässer während der Aufreinigung in Klärwerken und erstellten dabei Netzwerkanalysen der mikrobiellen Lebensgemeinschaften. Die Ergebnisse wurden im Artikel „Microeukaryotic gut parasites in wastewater treatment plants: diversity, activity, and removal“ in der Fachzeitschrift Microbiome veröffentlicht.
Die Forschenden erlangten neue Erkenntnisse zu einer der wichtigsten, jedoch wenig erforschten Funktion von Kläranlagen: die Entfernung von Parasiten. Klärwerke verfügen über komplexe Gemeinschaften von Mikroorganismen, bestehend aus nützlichen Wasseraufreinigern, aber auch schädlichen Parasiten, die durch unsere Abwässer eingeschwemmt werden. Obwohl allgemein bekannt ist, dass Kläranlagen gut funktionieren, wissen wir noch erstaunlich wenig darüber, wie sie funktionieren. Insbesondere das Schicksal von Darmparasiten während der Abwasserbehandlung ist kaum erforscht. Die Studie kann somit helfen, in Zukunft Risiken für die öffentliche Gesundheit zu vermeiden.
Anhand der untersuchten DNA- und RNA-Daten aus Kläranlagen entdeckte das Team eine überraschende Vielfalt an vorhanden (DNA) und auch aktiven (RNA) Parasiten im Zulauf der Kläranlagen. Dabei fanden sie auch einen großen Anteil an Parasiten der sogenannten „komplexen Einzeller“, den Protisten, wie zum Beispiel Giardia, der Giardiasis, eine Infektion des Dünndarms, verursacht, oder Entamoeba, den Verursacher der Amöbenruhr. Außerdem fanden sie Blastocystis, einen weltweit verbreiteten Darmparasiten. „Wir konnten bestätigen, dass die Parasiten im Laufe der Abwasserbehandlung reduziert werden und führen dies auf Räuber-Beute Interaktionen in den Klärbecken zurück“, sagt die Doktorandin Jule Freudenthal, die führende Forscherin dieser Studie.
Die Forschung zeigt eine beeindruckende Aktivität von Rosculus, einer kleinen Amöbe, die man hauptsächlich daher kennt, dass sie sich explosionsartig in Kuhdung vermehrt. „Wie wir hier zeigen, trifft das auch auf den Einlauf von Kläranlagen zu“, sagt Studienleiter Dr. Kenneth Dumack. Sogenannte Netzwerkanalysen, die das gemeinsame Vorkommen von Mikroorganismen in Bezug zueinander setzen, haben weiterhin gezeigt, dass Ciliaten und Rädertiere wichtige „Saubermänner“ sind, die Klärwasser von Parasiten befreien und so eine sichere Nutzung von aufgereinigtem Wasser ermöglichen.
Ein vollständiges Monitoring sowie die Forschung an den Mechanismen zur Reduzierung von Parasiten in Kläranlagen helfen, den Klärprozess zu optimieren. Zukünftige Forschungen, die sowohl DNA- als auch RNA-Daten einbeziehen, können helfen, die Risiken für die öffentliche Gesundheit zu verringern, die mit unzureichend behandelten Abwässern verbunden sind.
Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de
Wissenschaftliche Ansprechpartner:
Dr. Kenneth Dumack
Institut für Zoologie der Universität zu Köln
+49-221-470-8242
kenneth.dumack@uni-koeln.de
Originalpublikation:
https://rdcu.be/cGIwb
Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?
Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
In großen Teilen der Welt wird Wasser aus Grund- oder Oberflächengewässern gewonnen, um den Wasserbedarf der Bevölkerung zu decken. Diese Wasserressourcen stehen jedoch nicht unbegrenzt zur Verfügung. Der steigende Bedarf an Wasser ist mit der zunehmenden Bevölkerungszahl und der damit einhergehenden steigenden Nachfrage nach landwirtschaftlichen Erzeugnissen, Energie und Industrieprodukten zu erklären. Außerdem nehmen zusätzlich Dürrephasen klimawandelbedingt immer weiter zu. Es ist deshalb dringend notwendig, die bisherigen Wassermanagementansätze zu überdenken. Ein Projekt zur Abwasserwiederverwendung an der Hochschule Hof nimmt sich dieser Problematik an.
Besonders für die Landwirtschaft haben die Zeiträume mit Wasserknappheit negative Auswirkungen. Da durch den Mangel an Wasser das Pflanzenwachstum eingeschränkt ist, ist die Ertragssicherheit gefährdet. Um ein nachhaltiges Wassermanagement in allen Lebensbereichen zu gewährleisten, rückt deshalb die Abwasserwiederverwendung immer weiter in den Fokus. „Abwasserwiederverwendung bedeutet, dass Abwasser so aufbereitet wird, dass es an den späteren Nutzen und dem daraus resultierenden Qualitätsanspruch angepasst sein muss“, sagt Prof. Günter Müller-Czygan, Stiftungsprofessor an der Hochschule Hof und Leiter der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.
Kommunales Abwasser für Abwasserwiederverwendung interessant
Da kommunales Abwasser mengenmäßig die größte zur Verfügung stehende Wasserquelle ist, sie gleichzeitig aber stets stark verschmutzt ist, muss moderne Technik zum Einsatz kommen. Diese macht es heutzutage möglich, dass wiederaufbereitetes Abwasser eine deutlich höhere Qualität aufweist als manch eine „natürliche“ Wasserquelle. „Die Aufbereitung des Wassers von kommunalen Quellen ist mittlerweile meist unkompliziert, aber je nach Verschmutzungsgrad technisch aufwendig und kostenintensiv“, so Prof. Günter Müller-Czygan. Technologien und notwendige Systeme sind aber verfügbar und bereits etabliert. Die Nutzung dieser Wasserquelle bietet somit erhebliche Vorteile: Neben der Schonung und damit nachhaltigeren Nutzung natürlicher Wasserressourcen sind durch die Aufbereitungsschritte auch der Eintrag von Schadstoffen in die Umwelt geringer und Temperaturveränderungen und Versalzung, die ebenfalls für einen gestörten Stoffhaushalt von Gewässern verantwortlich sein können, können minimiert werden. „Die Nutzung von wiederaufbereitetem Abwasser könnte also ein wirksamer Lösungsbaustein für die zunehmende Wasserknappheit darstellen“, so der Forschungsgruppenleiter.
Abwasserwiederverwendung scheitert nicht an Technik, sondern an Akzeptanz
Ziel des Vorhabens FlexTreat (Flexible and reliable concepts for sustainable water reuse in agriculture) an der Hochschule Hof ist es daher, durch die Entwicklung und Demonstration flexibler und an die landwirtschaftlichen Bedürfnisse angepasster technischer und naturnaher Aufbereitungssysteme die sichere Abwasserwiederverwendung in der Landwirtschaft zu fördern. „Viele Projekte zur Abwasserwiederverwendung scheitern aber nicht an Fragen zur Aufbereitungstechnik, sondern am Mangel eines rechtlichen Rahmens sowie an der Akzeptanz auf Nutzerseite“, erklärt Prof. Müller-Czygan.
International etabliert – in Deutschland noch in den Kinderschuhen
International ist die Abwasserwiederverwendung bereits etabliert und wird vielfach eingesetzt. In Deutschland hemmen unterschiedliche Rahmenbedingungen, fehlendes Wissen oder nicht bekannte Erwartungshaltungen auf Nutzerseite deren möglichen Einsatz. Ein konstruktiver Austausch zwischen Wasseranbietern, Behörden und Nutzern wie zum Beispiel Landwirten und Anwohnern ist für die Akzeptanz einer Wiederverwendung von gereinigtem Abwasser zwingend notwendig. „Die Darstellung der Nutzervorteile wie auch die Sicherstellung eines geeigneten Risikomanagements inkl. Monitoring spielen hier eine wichtige Rolle. Vor dem Hintergrund des sich vollziehenden Klimawandels und einer zu erwartenden Verringerung der Wasserverfügbarkeit ist für die Abwasserwiederverwendung zukünftig eine erhöhte Akzeptanz notwendig. Diese stellt sich allerdings nicht von selbst ein, sondern ist neben der Bereitstellung ausgereifter Technik auch das Ergebnis einer zielgerichteten Kommunikation und Informationspolitik“, so Stiftungsprofessor Müller-Czygan. Um Maßnahmen zur Akzeptanzerhöhung definieren zu können, übernimmt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ als Unterauftragnehmer der Pegasys Gesellschaft für Automation und Datensysteme mbH die Akzeptanzuntersuchung im Projekt FlexTreat.
Die Akzeptanz für wiederaufbereitetes Wasser von Emotionen abhängig
Allgemein ist die Akzeptanz in der Bevölkerung von verschiedenen Faktoren abhängig, die regional und kulturell sehr unterschiedlich sind. Somit lassen sich keine generellen Schlüsse ziehen. Jeder Einzelfall müsste zu Beginn auf die verschiedenen Faktoren überprüft werden. Je häufiger die Wiederverwendung in Zukunft erfolgt, desto eher werden sich allgemein übertragbare Akzeptanzmuster finden und übertragen lassen. In der internationalen Literatur gibt es bereits identifizierte und wissenschaftlich abgesicherte Faktoren, die häufig als Grund für eine ablehnende Haltung gegenüber wiederaufbereitetem Wasser genannt wurden. Deren Übertragbarkeit auf Deutschland werden wir prüfen“, erklärt Dr. Julia Frank, wissenschaftliche Mitarbeiterin in der Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“.Sie ist für die Durchführung des Projektes verantwortlich.
Der „yuck factor“
Hier sind soziotechnische, demographische, psychologische, ökologische, ökonomische und kulturelle Faktoren zu nennen, die die Akzeptanz für die Abwasserwiederverwendung beeinflussen. Der bestuntersuchte Faktor ist psychologischer Natur, und wird in der Literatur als „yuck factor“ bezeichnet. Er drückt den Grad der Ablehnung, bzw. des Ekels aus, und geht mit einer geringen Akzeptanz einher. „Der Grad der Ablehnung wird mit einem vermeintlichen persönlichen Gesundheitsrisiko in Verbindung gebracht“, so Frank.
Die kulturelle Prägung erschwert die Übertragbarkeit von regionalen Studien
Aber auch Faktoren wie Alter, Erziehung, Religionszugehörigkeit, Einstellung zum Umweltschutz oder auch das Vertrauen in die Politik spielen beim Thema Abwasserwiederverwendung eine große Rolle. Sie sind so individuell, kulturell und regional unterschiedlich, so dass Studien nur beim „yuck factor“ einen klaren Zusammenhang mit der Akzeptanz erkennen lassen. Bei den Strategien, die Akzeptanz in der Bevölkerung hinsichtlich des Themas Abwasserwiederverwendung zu erhöhen, werden meist Aufklärungskampagnen durchgeführt. In der Bevölkerung fehlt häufig das Wissen generell um die Abwasserreinigung und das Thema ist ohne ausreichend Hintergrundwissen umso emotionaler behaftet. Wichtig in diesem Zusammenhang ist hier, die Bevölkerung über den Prozess der Abwasserreinigung zu informieren. Die Terminologie, die in Informationsveranstaltungen oder Aufklärungskampagnen verwendet wird, ist dabei wichtig zu beachten. Um die Voraussetzungen für eine hohe Nutzerakzeptanz zu schaffen, bedarf es eigener Untersuchungen und eines gezielten Stakeholder-Dialogs auf regionaler Ebene. Genau dafür legt die Forschungsgruppe „Wasserinfrastruktur und Digitalisierung“ mit ihrer Forschung in FlexTreat den Grundstein.
Wissenschaftliche Ansprechpartner:
Prof. Günter Müller-Czygan
Ingenieurwissenschaften
Umweltingenieurwesen
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4683
E-Mail: guenter.mueller-czygan@hof-university.de
Anhang
Abwasserwiederverwendung – der Weg aus der weltweiten Wasserknappheit?
Salmonellengefahr für Hundebesitzer
Harald Händel Presse und Öffentlichkeitsarbeit
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Bundesamt erinnert am Welt-Haustiertag an notwendige Hygiene
Anlässlich des Welt-Haustiertags weist das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) auf das Risiko einer Übertragung von Salmonellen und ggf. anderen potenziell gefährlichen Mikroorganismen beim Füttern von Hunden hin. „Das Bewusstsein für den richtigen Umgang mit Futtermitteln ist nicht nur für die Gesundheit der Tiere, sondern auch ihrer Halter wichtig“, betont BVL-Präsident Friedel Cramer. Die richtige Hygiene gilt für die Hände genauso wie für die eingesetzten Haushaltsgeräte.
Krankmachende Bakterien können nicht nur bei Kontakt mit dem Hund oder über Hundekot, sondern auch bei der Futterzubereitung und über Hundekauartikel übertragen werden. Die Folge können schwere Magen-Darm-Infektionen sein. Besonders für Kinder und ältere Menschen ist es gefährlich, sich beispielsweise mit Salmonellen zu infizieren und zu erkranken, warnt das BVL.
Beim Zubereiten von rohen Futtermitteln, insbesondere Fleischerzeugnissen, gilt erhöhte Sorgfalt. Denn dort ist eine bakterielle Kontamination möglich. Durch das Übertragen der Keime von solchen Futtermitteln auf die Hände, auf Haushaltsgeräte und Küchenoberflächen können auch Speisen mit Krankheitserregern kontaminiert werden. Deshalb sollte alles nach der Benutzung unbedingt sorgfältig gereinigt sowie die Hände gründlich gewaschen werden.
Auch Hundekauartikel können Krankheitserreger verbreiten: Im Europäischen Schnellwarnsystem (RASFF) warnten die deutschen Überwachungsbehörden im Jahr 2020 in etwa 10 % der Meldungen zu Salmonellen im Futtermittelsektor vor Salmonellen in Hundekauartikeln. Für Hundebesitzer kann auch der Kontakt mit den Kauartikeln und die Verbreitung der Krankheitserreger auf diesem Wege ein Infektionsrisiko darstellen.
Hintergrund:
Über das RASFF informieren sich die EU-Mitgliedstaaten und assoziierte Staaten gegenseitig über mögliche gesundheitsgefährdende Lebensmittel, Futtermittel und Lebensmittelkontaktmaterialien wie Verpackungen, Geschirr oder Besteck. Die entsprechenden Produkte können so schnellstmöglich vom Markt genommen und die Verbraucher geschützt werden.
Anhang
2022_02_18_ PM Salmonellengefahr für Hundebesitzer_ fin
Neuer Omikron-Subtyp auf dem Vormarsch
Jana Ehrhardt-Joswig Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Ähnlich wie zuvor in Dänemark breitet sich in Berlin ein weiterer Subtyp der Omikron-Variante aus: BA.2. Das ergab die Auswertung von Abwasserproben am MDC in Kooperation mit den Berliner Wasserbetrieben und dem Berliner Labor der amedes-Gruppe. Durch BA.2 könnte sich die derzeitige Corona-Welle verlängern.
Das Coronavirus mutiert ständig. Nach Alpha und Beta kam Delta, auch Gamma, Lambda, Epsilon und Iota kursieren in Teilen der Welt. Seit Omikron auf den Plan getreten ist, ist Delta in Deutschland fast vollständig verschwunden. Von Omikron sind zwei Subtypen bekannt, BA.1 und BA.2. In Berlin dominiert bislang BA.1. Doch Wissenschaftler*innen des Max-Delbrück-Centrums für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC), der Berliner Wasserbetriebe (BWB) und des Laborunternehmens amedes konnten nun im Berliner Abwasser die Omikron-Untervariante BA.2 nachweisen: Anfang Januar war der Anteil kaum sichtbar, doch bereits am 13. Januar ungefähr machte BA.2 sechs und am 20. Januar ungefähr zwölf Prozent aus. Er wächst also schnell an.
Die beiden Subtypen unterscheiden sich in etwa 20 Mutationen voneinander. In Dänemark und in Südafrika hat BA.2 den Subtyp BA.1 nahezu verdrängt, in Großbritannien nimmt der Anteil von BA.2 seit Anfang Januar ebenfalls schnell zu. Eine Untersuchung dänischer Forscher*innen zeigt, dass BA.2 sich offenbar noch schneller verbreitet als BA.1. „Es ist möglich, dass BA.2 die derzeitige Omikron-Welle etwas verlängert“, sagt der MDC-Molekularbiologe Dr. Emanuel Wyler aus der Arbeitsgruppe „RNA-Biologie und Posttranscriptionale Regulation“ von Professor Markus Landthaler. „Die bisherigen Daten aus Großbritannien und Dänemark deuten aber eher darauf hin, dass bezüglich Krankheitsschwere und Wirkung der Impfung BA.1 und BA.2 vergleichbar sind.“
Computer-Tool sagt voraus, ob Inzidenz zu- oder abnimmt
Bei ihrer Vorhersage stützen sich die MDC-Wissenschaftler*innen auf ein computergestütztes Tool, das Vic-Fabienne Schumann und Dr. Rafael Cuadrat von der Technologie-Plattform „Bioinformatics and Omics Data Science“ von Dr. Altuna Akalin am Berliner Institut für Medizinische Systembiologie (BIMSB) des MDC zusammen mit Kolleg*innen entwickelt haben. Mit „PiGx SARS-CoV-2“ können sie die Ausbreitung von SARS-CoV-2 sowie die Häufigkeit von Mutationen oder Virusvarianten aufdecken. Es funktioniert unabhängig von der Anzahl der Coronatests und den Krankheitsverläufen.
Ihre Ergebnisse decken sich mit denen der Berliner Wasserbetriebe, die in Kooperation mit dem Berliner Labor der amedes-Gruppe unter der Leitung von Dr. Martin Meixner ein eigenes Nachweis-Modell inklusive der Sequenzierung der Virusvarianten sowie eine App für die Visualisierung der Daten entwickelt haben. MDC und die Berliner Wasserbetriebe teilen sich die Arbeit auf: Während der Fokus der Wasserbetriebe auf der schnellen Bestimmung und Übermittlung der Viruslast liegt, analysiert das MDC vorrangig Untertypen und Mutationen.
Seit mehr als einem Jahr suchen die Forschenden im Berliner Abwasser nach dem Erbgut des Coronavirus. Einmal wöchentlich bereiten die Berliner Wasserbetriebe, die aktuell eine eigene Virus-Sequenzierung in ihrem Labor einrichten, Abwasserproben auf und senden diese ans BIMSB sowie an amedes. Die Wissenschaftler*innen reichern die Viruspartikel an und vervielfältigten das Virus-Erbgut mithilfe der PCR. In einem nächsten Schritt können sie mit Hochdurchsatz-Sequenzierungen sehen, welchen Anteil die einzelnen Virusvarianten unter den gefundenen Coronaviren ausmachen. Für die Abwasser-Sequenzierung am BIMSB ist insbesondere die Arbeitsgruppe von Markus Landthaler sowie die Genomik-Plattform unter der Leitung von Dr. Janine Altmüller verantwortlich.
Werden Proben aus dem Hals-Rachenraum sequenziert, wird bislang nicht zwischen Virusvarianten unterschieden. Abwasseranalysen machen das leichter: „Für ein aussagekräftiges Ergebnis über die Verbreitung neuer Virusvarianten müssen deutlich weniger Proben untersucht werden als bei der Analyse von Nasen-Rachenabstrichen“, sagt Markus Landthaler. „Außerdem können sie zur Frühwarnung dienen, da sie mit einigen Tagen Vorsprung zeigen, welche Variante im Umlauf ist. Die Daten zu BA.2 zeigen, wie empfindlich und effizient das Abwasser-Monitoring ist beim Bestimmen von Krankheitserregern. Das ist auch über SARS-CoV-2 hinaus von Bedeutung.“
Untersuchungen des Abwassers sind in Deutschland noch nicht als Teil eines Corona-Frühwarnsystems etabliert – weder für bekannte noch für ganz neue Virusvarianten. Das könnte sich jetzt ändern: Berlin ist einer von 20 Pilotstandorten im Abwasser-Monitoring-Programm, das die Bundesministerien für Umwelt, Naturschutz und nukleare Sicherheit (BMU), für Gesundheit (BMG) sowie für Bildung und Forschung (BMBF) mithilfe von EU-Mitteln fördern. Projektpartner sind die Berliner Wasserbetriebe und das Landesamt für Gesundheit und Soziales. Ziel ist ein nationales Abwasserüberwachungssystem. Es soll Daten über SARS-CoV-2 und insbesondere seine Varianten im Abwasser erheben und an die zuständigen Gesundheitsbehörden sowie an eine europäische Austauschplattform übermitteln.
Max-Delbrück-Centrum für Molekulare Medizin (MDC)
Das Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft gehört zu den international führenden biomedizinischen Forschungszentren. Nobelpreisträger Max Delbrück, geboren in Berlin, war ein Begründer der Molekularbiologie. An den MDC-Standorten in Berlin-Buch und Mitte analysieren Forscher*innen aus rund 60 Ländern das System Mensch – die Grundlagen des Lebens von seinen kleinsten Bausteinen bis zu organübergreifenden Mechanismen. Wenn man versteht, was das dynamische Gleichgewicht in der Zelle, einem Organ oder im ganzen Körper steuert oder stört, kann man Krankheiten vorbeugen, sie früh diagnostizieren und mit passgenauen Therapien stoppen. Die Erkenntnisse der Grundlagenforschung sollen rasch Patient*innen zugutekommen. Das MDC fördert daher Ausgründungen und kooperiert in Netzwerken. Besonders eng sind die Partnerschaften mit der Charité – Universitätsmedizin Berlin im gemeinsamen Experimental and Clinical Research Center (ECRC) und dem Berlin Institute of Health (BIH) in der Charité sowie dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK). Am MDC arbeiten 1600 Menschen. Finanziert wird das 1992 gegründete MDC zu 90 Prozent vom Bund und zu 10 Prozent vom Land Berlin.
Wissenschaftliche Ansprechpartner:
Dr. Emanuel Wyler
AG Landthaler, RNA-Biologie und Posttranscriptionale Regulation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft (MDC)
Telefon: +49 30 9406-3009
E-Mail: emanuel.wyler@mdc-berlin.de
Originalpublikation:
Vic-Fabienne Schumann, Rafael Ricardo de Castro Cuadrat, Emanuel Wyler et al. (2021): „COVID-19 infection dynamics revealed by SARS-CoV-2 wastewater sequencing analysis and deconvolution“. MedRxiv, DOI: 10.1101/2021.11.30.21266952
Hinweis: Es handelt sich um Zwischenergebnisse und ein Manuskript, das auf einem Preprint-Server der Wissenschaft zur Verfügung steht. Bislang gab es noch keine wissenschaftliche Begutachtung der Methode (Peer Review). Bis zur offiziellen Veröffentlichung kann noch einige Zeit vergehen, möglicherweise müssen die Autor*innen das Manuskript anpassen und / oder erweitern.
SUSKULT: Regionaler Gemüseanbau auf der Kläranlage
Theresa von Bischopink Presse- und Öffentlichkeitsarbeit/ Wissenstransfer
Institut für Landes- und Stadtentwicklungsforschung gGmbH
Gemüseanbau direkt auf der Kläranlage – im Verbundprojekt „SUSKULT“ werden die Grundlagen für eine urbane und zirkuläre Agrarproduktion für das Jahr 2050 entwickelt. Das aktuelle ILS-TRENDS „Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt“ von Ann-Kristin Steines und Marcel Haberland stellt das Projekt näher vor.
Bis Mitte des Jahrhunderts werden rund zwei Drittel der Weltbevölkerung in Städten leben. „Die Anbauflächen und die Ressourcen sind jedoch begrenzt“, erläutert ILS-Wissenschaftlerin Ann-Kristin Steines. „Bei SUSKULT erforschen wir ein neuartiges Agrarsystem, das zur Nahrungsmittelversorgung in urbanen Räumen beitragen soll.“ Entwickelt wird ein Bausteinsystem, mit dem die agrarwirtschaftliche Produktion auf dem Kläranlagengelände realisiert werden kann. In sogenannten NEWtrient®-Centern werden für den Anbau benötigte Ressourcen aus dem kommunalen Abwasser zurückgewonnen und aufbereitet, die dann direkt vor Ort für die Produktion eingesetzt werden können. Die Aufzucht der Pflanzen soll in sogenannten hydroponischen Systemen erfolgen. Die Pflanzen wachsen dort erdlos unter Einsatz der zuvor gewonnenen Nährstofflösung.
Das ILS – Institut für Landes- und Stadtentwicklungsforschung ist im Projekt für die Analyse und Abschätzung gesellschaftlicher und räumlicher Entwicklungstrends zuständig. „Gemeinsam mit anderen Stakeholdern ent-wickeln wir Szenarien und untersuchen die Wirkungsmechanismen, die sich von Produktionsstandorten auf die Stadtentwicklung und umgekehrt ergeben. Wir arbeiten daran, die Vorteile des Anbaus, etwa die Nähe zum Absatzmarkt oder die ressourcensparende Anbauweise, für die Bevölkerung transparent zu machen“, erläutert Steines.
Das Verbundprojekt steht nun vor einem nächsten großen Schritt: Noch in diesem Frühjahr soll die Fertigstellung einer Pilotanlage auf der Kläranlage Emschermündung erfolgen.
Unter der Koordination des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT arbeiten 15 Partnerinnen und Partner im Verbundprojekt „SUSKULT – Entwicklung eines nachhaltigen Kultivierungssystems für Nahrungsmittel resilienter Metropolregionen“ zusammen. Das Vorhaben wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Wissenschaftliche Ansprechpartner:
Ann-Kristin Steines, E-Mail: ann-Kristin.steines@ils-forschung.de
Originalpublikation:
ILS-TRENDS. Ausgabe 1/2022: Wie aus häuslichem Abwasser frische Tomaten werden – die künftige Rolle von Kläranlagen für eine Landwirtschaft in der Stadt von Ann-Kristin Steines und Marcel Haberland. https://www.ils-forschung.de/files_publikationen/pdfs/TRENDS-1.22_SUSKULT_ONLINE…
FH-Forscher entwickelt Sensor zur Überwachung von Biogasanlagen
Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen
Dr. Shahriar Dantism forscht am Institut für Nano- und Biotechnologien (INB) der FH Aachen an neuester Sensortechnologie zur Untersuchung von Biogasprozessen. Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.
„Ich wollte den Dingen schon immer auf den Grund gehen“, sagt Dr. Shahriar Dantism, „als Kind wollte ich Archäologe werden.“ Der Weg von dem Jungen, der mit einer kleinen Schaufel im Iran nach Relikten vergangener Zeiten suchte, hin zum erfolgreichen Wissenschaftler, der am Institut für Nano- und Biotechnologien (INB) in Jülich an neuester Sensortechnologie zur Untersuchung von Biogasprozessen forscht, war steinig. Aber die Arbeit hat sich gelohnt: Mit seiner Arbeit „Development of a differential LAPS-based monitoring system to evaluate the metabolic response of bacteria in biogas process analyses“ hat der 39-Jährige jetzt an der KU Leuven promoviert, betreut wurde er seitens der FH von Prof. Dr. Michael J. Schöning und Prof. Dr. Torsten Wagner sowie durch Prof. Dr. Patrick Wagner von der KU Leuven.
Nach seiner Schulausbildung im Iran fasste Shahriar Dantism den Entschluss, für ein Studium nach Deutschland zu kommen. „Ich wollte die Welt sehen“, erinnert er sich. Ein Teil seiner Familie lebte in den USA, aber ihn zog es ins Land der Dichter und Denker: „Die deutsche Sprache ist die Sprache der Philosophie.“ Er lernte Deutsch am Goethe-Institut in Teheran, 2003 schaffte er die Prüfungen und bekam die Zulassung für den Besuch eines Studienkollegs in Gießen. Auch dieses absolvierte er mit Bestnoten und nahm schließlich ein Elektrotechnikstudium an der RWTH Aachen auf. „Am Anfang war es schwer für mich“, erinnert er sich. Er musste sich nicht nur in einem fremden Land zurechtfinden und seinen Lebensunterhalt bestreiten, auch seine Familie im Iran benötigte Unterstützung: „Meine Eltern sind krank geworden, ich musste immer wieder nach Hause fliegen, um mich um sie zu kümmern.“ Er wechselte schließlich den Studiengang und schrieb sich für Biomedizintechnik am Campus Jülich der FH Aachen ein. „Die Bachelorarbeit habe ich in Teheran am Krankenbett meiner Mutter geschrieben“, erinnert er sich.
Shahriar Dantism bewältigte diese Herausforderungen, und sein Forschergeist war geweckt: In nur einem Jahr absolvierte er das Masterstudium – Abschlussnote 1,3 – und entschied sich anschließend zu promovieren. In Prof. Schöning, dem Direktor des INB, fand er einen Betreuer, mit dem er gemeinsam ein interessantes und zukunftsträchtiges Forschungsfeld identifizierte: die Überwachung von biochemischen Abläufen in der Biogasproduktion.
„Der Biogasprozess ist sehr komplex“, erläutert Prof. Schöning. Dieser Prozess könne effizienter und sicherer gesteuert werden, wenn präzise Informationen zu den Abläufen innerhalb der Anlagen vorlägen. Konkret geht es um Mikroorganismen, die den Metabolismus – also den Stoffwechsel – des Substrats beeinflussen. Deshalb hat sich Shahriar Dantism mit der Realisierung einer Multi-Sensoranordnung beschäftigt, mit der er unterschiedliche Bakterien gleichzeitig studieren kann. „Ich habe drei verschiedene Bakterientypen als Modellsysteme untersucht“, sagt Dr. Dantism, „die mittels des Sensorarrays eine Simultanmessung ermöglichen.“ Hierbei handelt es sich um die Bakterien Escherichia coli, Corynebacterium glutamicum und Lactobacillus brevis.
Konkret sieht der experimentelle Ansatz so aus, dass auf der Oberseite der Sensoranordnung ein Aufsatz mit vier Kammern angebracht ist. In drei der Kammern wird dem Substrat je eins der drei Bakterien zugegeben, in die vierte kommt nur das Substrat als Referenz. Auf der Unterseite des Chips wird durch Licht ein elektrisches Feld erzeugt – je nach Stoffwechselaktivität in den Kammern ändert sich dessen Stärke. „Dadurch können wir genau analysieren, welche Auswirkung die Zugabe von Mikroorganismen auf das Substrat hat“, erklärt Prof. Schöning. Bei der Entwicklung der Versuchsanordnung konnte der Nachwuchswissenschaftler auf die 3-D-Drucktechnik am Campus Jülich zurückgreifen. Und auch die interdisziplinäre Zusammenarbeit war wichtig: Die Kolleginnen und Kollegen vom Institut NOWUM-Energy ermöglichten den Zugang zu Proben aus ihrem Laborreaktor, mit dem unter anderem die Biogasgewinnung aus Altpapierresten erforscht wird. „Die Modellbakterien können dabei helfen, den sensorischen Ansatz zu justieren“, so Dr. Dantism, „der nächste Schritt sieht dann den Einsatz im Biogasreaktor mit prozessrelevanten Mikroorganismen vor.“
Die Biogasproduktion gilt als ein wichtiger Baustein zur Energiewende. Nach Angaben des Statistischen Bundesamts werden in Deutschland knapp 10.000 Biogasanlagen betrieben. Rund 18 Prozent der erzeugten Strommenge aus Erneuerbaren Energien entstand in Deutschland durch Biomasse. „Wenn wir die Prozesse innerhalb der Anlagen besser verstehen, können wir bei Störungen auch schneller reagieren“, sagt Prof. Schöning. Wenn etwa eine große Biogasanlage „umkippe“, müsse sie für bis zu drei Monate vom Netz genommen werden, und die Aufreinigung sei mit hohen Kosten verbunden.
Dr. Shariar Dantism ist dankbar für die Unterstützung, die er in seiner Zeit am INB erfahren hat. „Das Institut ist sehr gut vernetzt“, berichtet er, er habe die Gelegenheit bekommen, seine Forschungsergebnisse in sechs Publikationen zu veröffentlichen und bei 14 Konferenzen mit Fachleuten aus dem In- und Ausland zu diskutieren. Die Promotionsprüfung wurde hybrid durchgeführt: Drei belgische Kolleginnen und Kollegen waren in Leuven zugegen, ein belgischer Kollege und drei deutsche Kollegen sowie der Kandidat waren live vor Ort in Jülich unter 2G+-Bedingungen dabei. „Ich bin glücklich und dankbar, dass ich an einer so renommierten Hochschule promovieren konnte“, sagt der 39-Jährige. Es sei ein anstrengender Weg gewesen, „aber am Ende erntet man die Früchte.“
Unterstützt wurde das Forschungsvorhaben von Dr. Dantism vom Bundesministerium für Ernährung und Landwirtschaft (Projekt-Nr. 2200613).
Corona-Impfung: Zweitimpfung mit Biontech steigert Immunantwort effektiver als mit Astra
Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität
Forscher*innen der Universitätsmedizin Göttingen haben die Reaktionen des Immunsystems auf unterschiedliche Kombinationen von Erst- und Zweitimpfungen gegen Sars-Cov-2 genauer untersucht. Veröffentlicht wurden die Daten in der renommierten Fachzeitschrift „Allergy“.
(umg) Weltweit wurden in verhältnismäßig kurzer Zeit verschiedene Impfstoffe mit zum Teil neuartigen Technologien gegen das Corona-Virus Sars-Cov-2 entwickelt. Dennoch gibt es noch offene Fragen zu der optimalen Kombination von Impfstoffen und der durch die Impfung hervorgerufenen Immunantwort. Ein Team von Forscher*innen der Universitätsmedizin Göttingen (UMG) hat nun die komplexe Immunantwort nach unterschiedlichen Impf-Regimen untersucht. Die Ergebnisse der COV-ADAPT-Studie („Humorale und zelluläre Immunantwort des adaptiven Immunsystems nach Impfung oder natürlicher COVID-Infektion“) sind am 6. Februar 2022 in der renommierten europäischen Fachzeitschrift „Allergy“ (Europan Journal of Allergy and Clinical Immunlogy) erschienen.
Die Göttinger Wissenschaftler*innen fanden in Untersuchungen an einem Kollektiv von mehr als 400 Proband*innen, alle Mitarbeiter*innen der UMG, heraus: Die Zweitimpfung mit dem mRNA-Impfstoff von Biontech (BNT162b2) steigert sehr wirksam die Immunantwort. „Dabei war es unwichtig, ob die Probanden zuvor bei der Erstimpfung den Impfstoff von AstraZeneca (ChAdOx1 nCoV-19) oder von Biontech erhalten hatten. Hingegen konnte eine Zweitimpfung mit AstraZeneca die Immunantwort kaum verbessern“, sagt Prof. Dr. Luise Erpenbeck, eine der Senior-Autor*innen der Publikation, ehemals Klinik für Dermatologie, Venerologie und Allergologie der UMG und inzwischen Professorin an der Klinik für Hautkrankheiten des Universitätsklinikums Münster (UKM). Die Studie COV-ADAPT wurde durch die Deutsche Forschungsgemeinschaft (DFG) gefördert.
In dem untersuchten Personen-Kollektiv haben die Göttinger Forscher*innen drei unterschiedliche Kombinationen von Erst- und Zweitimpfungen im Zeitraum von Mai bis Juli 2021 genauer auf ihre Wirkung hin betrachtet. Darunter waren Impfregime mit nur einem Impfstoff (Erst- und Zweitimpfung mit Astra bzw. Biontech) und die Kombination aus Astra als Erstimpfung und Biontech als Zweitimpfung.
Das Team untersuchte nicht nur die Antikörper-Bildung nach der Impfung, sondern auch die Aktivität bestimmter Abwehrzellen (T-Zellen), die besonders wichtig für die Abwehr von Virusinfektionen sind. Dabei zeigte sich, dass die Antikörper-Entwicklung (die so genannte „humorale Immunantwort“) und die T-Zell-Aktivität (die „zelluläre Immunantwort“) voneinander abhängig waren. „Man kann daher nicht davon ausgehen, dass ein niedriger Antikörper-Spiegel nach Impfung durch eine hohe T-Zell-Antwort ausgeglichen wird“, sagt Priv.-Doz. Dr. Dr. Moritz Schnelle, ebenfalls Senior-Autor der Publikation aus dem Institut für Klinische Chemie der UMG.
Für die Studie arbeiteten Wissenschaftler*innen der Klinik für Dermatologie, Allergologie und Venerologie, des Instituts für Klinische Chemie und des Instituts für Medizinische Mikrobiologie und Virologie der UMG zusammen. „Es war für uns alle eine großartige Erfahrung, gemeinsam mit so vielen enthusiastischen Forscher*innen an diesem wichtigen Thema zu arbeiten“, sagt Dr. Moritz Hollstein, Erst-Autor der Publikation aus der Klinik für Dermatologie, Venerologie und Allergologie der UMG. Das Forscherteam plant, die Immunantworten der Proband*innen über die Zeit hinweg weiter zu verfolgen, um auch Langzeit-Erkenntnisse über die Immunantwort zu erlangen. „Wir bedanken uns herzlich bei den über 400 freiwilligen Probanden aus der UMG. Sie haben die Studie überhaupt erst möglich gemacht und nehmen auch weiterhin zuverlässig an ihr teil“, so Hollstein für das gesamte Forscherteam.
Wissenschaftliche Ansprechpartner:
Universitätsmedizin Göttingen, Georg-August-Universität
Institut für Klinische Chemie
Priv.-Doz. Dr. Dr. Moritz Schnelle
Telefon 0551 / 39- 65510
moritz.schnelle@med.uni-goettingen.de
www.umg.eu
Universitätsklinikum Münster (UKM)
Klinik für Hautkrankheiten
Prof. Dr. Luise Erpenbeck
Von-Esmarch-Str. 58, 48149 Münster
Telefon 0251 / 83-59526
luise.erpenbeck@ukmuenster.de
www.ukm.de
Originalpublikation:
Originalveröffentlichung: Interdependencies of cellular and humoral immune responses in heterologous and homologous SARS-CoV-2 vaccination. Moritz M. Hollstein, Lennart Münsterkötter, Michael P. Schön, Armin Bergmann, Thea M. Husar, Anna Abratis, Abass Eidizadeh, Meike Schaffrinski, Karolin Zachmann, Anne Schmitz, Jason S. Holsapple, Hedwig Stanisz-Bogeski, Julie Schanz, Andreas Fischer, Uwe Groß, Andreas Leha, Andreas E. Zautner, Moritz Schnelle, Luise Erpenbeck. Allergy. First Published: 06 February 2022. https://doi.org/10.1111/all.15247
Vergleich mit Verbrenner: Elektrofahrzeuge haben beste CO2-Bilanz
Michael Brauns Pressestelle
Universität der Bundeswehr München
Forschende der Universität der Bundeswehr München zeigen in Untersuchungen, dass die gesamten Pkw-Lebenszyklusemissionen durch die Elektrifizierung von Fahrzeugen um bis zu 89% gesenkt werden können. Benzin- und Dieselfahrzeuge weisen im Vergleich die höchste Menge an Treibhausgas-Emissionen aus.
Der weltweite Fahrzeugmarkt befindet sich in der größten Transformation seit der Erfindung des Automobils. Um die Auswirkungen des Transport-sektors auf die Umwelt und das Klima zu reduzieren, treiben Politik und Wirtschaft den Übergang von konventionellen Fahrzeugen mit Verbrennungsmotoren hin zu Hybrid- und Elektrofahrzeugen voran. Ein vielfach diskutiertes Thema dabei ist die Treibhausgas-Bilanz von Fahrzeugen über ihren gesamten Lebenszyklus hinweg, also die Menge an Schadstoffen, die von der Produktion eines Fahrzeuges, über die Nutzung und die Verschrottung insgesamt ausgestoßen werden. Diese Bilanz macht Fahrzeugemissionen über den reinen Verbrauch im Straßenverkehr hinaus ganzheitlich vergleichbar.
In einer neuen, hochrangig veröffentlichten Publikation haben Forschende der Universität der Bundeswehr München (UniBw M), im Rahmen ihrer Projekte am Zentrum für Digitalisierungs- und Technologieforschung der Bundeswehr (dtec.bw) über 790 aktuelle Pkw-Fahrzeugvarianten miteinander verglichen und zeigen: mit Plug-in-Hybrid- und vollelektrischen Fahr-zeugen können Gesamtemissionen erheblich reduziert werden.
Die Gesamtemissionen sind entscheidend
Die Ergebnisse machen deutlich, dass das Nebeneinanderstellen einzelner Emissionsabschnitte innerhalb der gesamten Produktlebensdauer wenig aussagekräftig ist, wenn man über die Klimaverträglichkeit unterschiedlicher Fahrzeuge argumentieren möchte. So weisen beispielsweise batterie-elektrische Fahrzeuge im Vergleich die höchsten Emissionen bei der Produktion aus, in der Gesamtbetrachtung mit Nutzung und Recycling hingegen schneiden sie besser ab als klassische Verbrenner. Die Emissionen durch die Batterieproduktion eines aktuellen Tesla Model 3 (Standard Range Plus-Modell) sind vergleichbar mit den Nutzungsemissionen eines Volkswagen Passat (2.0 TSI-Modell) über eine Strecke von 18.000 km – nur einem Bruchteil der Nutzungsdauer. Konventionelle Benzin- und Dieselfahrzeuge sorgen insgesamt für die höchste Menge an Treibhausgasemissionen über ihren gesamten Lebenszyklus.
Bei der Verwendung von Ökostrom können Plug-in-Hybrid- und vollelektrische Fahrzeuge die Gesamtemissionen im Vergleich zu Verbrennern um 73% bzw. 89% reduzieren. Alternativ können Brennstoffzellenfahrzeuge die Treibhausgasemissionen in ähnlichem Maße wie Elektrofahrzeuge (die mit herkömmlichem Strom betrieben werden) reduzieren, wenn sie derzeitig handelsüblichen grauen Wasserstoff verwenden (60%). Ganz generell führen erneuerbare Kraftstoffe und Energie zu den niedrigsten Emissionen über die Lebensdauer von Fahrzeugen hinweg.
790 aktuelle Fahrzeuge als Datenbasis
Die Publikation basiert auf einer umfassenden Datenbank, die 790 aktuelle Pkw-Modelle und -Varianten listet und durch Analysemodelle vergleichbar macht. „Herstellerangaben und Einzelanalysen greifen oft zu kurz und verfälschen bei Verbrauchern die wirklichen Klimaauswirkungen ihrer Kaufentscheidungen bei Pkw. Darum haben wir seit Anfang 2020 um-fassend Daten gesammelt, um unabhängig zu zeigen, wie sich die CO2-Bilanz unterschiedlicher Antriebsarten wirklich darstellt“, so Johannes Buberger von der Fakultät für Elektrotechnik und Informationstechnik der Universität der Bundeswehr München, der die Analyse maßgeblich voran-getrieben hat. Bislang gibt es wenig vergleichbare Analysen, die Treibhausgas-Emissionen im Transportsektor im selben Umfang analysieren und vergleichbar machen.
Das Paper wird im „Renewable and Sustainable Energy Reviews“ veröffentlicht, einer der international renommiertesten Fachzeitschriften für nachhaltige Energieversorgung und erneuerbare Energien. Der Impact-Faktor des Journals beträgt 15, was bedeutet, dass es auf Platz 1 von insgesamt 44 Journals in der Kategorie Green & Sustainable Science & Technology liegt. „Die Veröffentlichungen in einer so hoch bewerteten Fachzeitschrift zeigt die Qualität der Forschung und der Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München und unsere Expertise bei Mobilitätsthemen“, so Prof. Thomas Weyh, der die Professur für Elektrische Energieversorgung an der Universität der Bundeswehr München innehat und Johannes Buberger als Doktorand betreut.
Die Universität der Bundeswehr München forscht umfangreich zu Themen der Mobilität. Ganz aktuell wird im dtec.bw-Projekt „MORE – Munich Mobility Research Campus“ die Zukunft der digitalisierten und vernetzten Mobilität erforscht und am Campus der Universität der Bundeswehr München als Modellstadt aufgebaut. Die Erkenntnisse der Publikation fließen auch in die Forschung von MORE ein.
Wissenschaftliche Ansprechpartner:
Prof. Thomas Weyh
Der schwierige Weg zur Diagnose: COVID-19 als Berufskrankheit
Robin Jopp M.A. Presse- und Öffentlichkeitsarbeit
Klinikum der Ruhr-Universität Bochum – Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Bergmannsheil startet Online-Fortbildungsreihe für Beschäftigte der Unfallversicherungsträger
„COVID-19 ist eine Multiorgankrankheit – bei der Bewertung von Folgeschäden ist deshalb die interdisziplinäre Sichtweise so immens wichtig“, so das Credo von Prof. Dr. Martin Tegenthoff. Der Direktor der Neurologischen Klinik am BG Universitätsklinikum Bergmannsheil war einer von sechs Referentinnen und Referenten bei einer bundesweit beachteten Fachveranstaltung zum Thema COVID-19 als Berufskrankheit. Sie richtete sich an Expertinnen und Experten der gesetzlichen Unfallversicherung und spannte einen weiten thematischen Bogen: Von der Anerkennung von Post-COVID als Versicherungsfall der gesetzlichen Unfallversicherung über neurologische, pneumologische, kardiologische und psychologische Aspekte bis zur Versorgung und Behandlung betroffener Menschen im Rahmen des BG Rehabilitationsverfahrens.
Rund 200 Teilnehmerinnen und Teilnehmer aus ganz Deutschland hatten sich bei der Tagung am 1. Februar 2022 online zugeschaltet. Eingeladen hatten die Deutsche Gesetzliche Unfallversicherung (DGUV) und das Bergmannsheil. Wegen der großen Nachfrage haben die Veranstalter bereits mehrere Folgetermine geplant, bei denen es bereits rund 1.600 weitere Anmeldungen aus ganz Deutschland gibt.
Tausende von Betroffenen
Corona überstanden und trotzdem nicht gesund: So geht es derzeit vielen tausenden Menschen, die noch Wochen nach einer COVID-19 Erkrankung mehr oder minder schwere Beschwerden und Einschränkungen verspüren. Die vielfältigen Symptome, die sich hiermit verbinden, werden als Long- oder Post-COVID-Syndrom bezeichnet.
Über die Anerkennung von COVID-19 als Versicherungsfall, die Fallsteuerung und das Reha-Management referierte Markus Taddicken: Der Geschäftsführer der Bezirksverwaltung Bochum der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege (BGW) erläuterte die enormen Herausforderungen, die die große Zahl von betroffenen Beschäftigten beispielsweise in Krankenhäusern, Pflegeheimen oder Gesundheitseinrichtungen mit sich brächten. Eigens für die profunde und sachgerechte Begutachtung der Betroffenen habe man daher in Kooperation mit den BG Kliniken spezielle Sprechstunden sowie ambulante und stationäre Diagnostikprogramme etabliert.
Beschwerdebild oft unspezifisch
Prof. Tegenthoff ging auf die komplexen diagnostischen Herausforderungen ein, die sich den Medizinerinnen und Medizinern im klinischen Alltag stellen. Denn die Beschwerden bei mutmaßlich von Post-COVID betroffenen Menschen seien oft sehr unspezifisch und vielfältig. Sie reichten von Müdigkeit und Erschöpfung, eingeschränkter Belastbarkeit, Geruchs- und Geschmacksverlust, Kopfschmerzen und kognitiven Problemen über Atembeschwerden, Luftnot und Störungen des Herz-Kreislauf-Systems bis hin zu psychischen Problemen wie Angst- oder depressiven Störungen. Bei manchen reiche eine ambulante Vorstellung, bei anderen sei ein stationärer Post-COVID-Check unabdingbar: „Die Betroffenen werden hier in einem intensiven Programm interdisziplinär untersucht: Lunge, Herz, Hirn, Nerven, Psyche – all das bieten wir im Bergmannsheil im Rahmen unseres umfassenden Post-COVID-Checks unter einem Dach.“
Von Lunge über Herz und Nerven bis zur Psyche: viele Organe und Systeme betroffen
Die breite Interdisziplinarität spiegelte sich wider in der Programmgestaltung der Tagung: Neben Prof. Tegenthoff, der speziell auf die neurologischen Symptome von Post-COVID einging, sprachen Expertinnen der Pneumologischen Klinik (Dr. Juliane Kronsbein, Leitende Oberärztin), der Kardiologischen Klinik (Dr. Aydan Ewers, Leitende Oberärztin) und der Neurologischen Klinik am Bergmannsheil (Dr. Jule Frettlöh, Leitende Psychologin) und berichteten aus ihren konkreten klinischen Erfahrungen, die sie in der Begutachtung und Behandlung vieler betroffener Menschen gesammelt haben.
Dr. Sven Jung, Chefarzt der Abteilung für BG Rehabilitation, berichtete, wie eine gezielte therapeutische Begleitung von Patientinnen und Patienten eingeleitet und organisiert werden sollte: „Sinnvoll ist, die Rehabilitation sehr zielgenau am organischen Krankheitsbild auszurichten.“ Oder, wie Markus Taddicken (BGW) hervorhob: „Long-COVID oder Post-COVID sind Sammelbezeichnungen für eine Vielzahl möglicher Problemstellungen. Für eine erfolgreiche Heilbehandlung und Teilhabe am Arbeitsleben im Rahmen unseres Reha-Verfahrens brauchen wir ein Vorgehen, dass sich möglichst spezifisch auf die individuellen jeweiligen Symptome und deren Auswirkungen auf die Teilhabe fokussiert.“
Über das Bergmannsheil
Das BG Universitätsklinikum Bergmannsheil zählt zu den größten Akutkliniken der Maximalversorgung im Ruhrgebiet. 1890 als erste Unfallklinik der Welt zur Versorgung verunglückter Bergleute begründet, vereint das Bergmannsheil heute 23 hochspezialisierte Kliniken und Fachabteilungen unter einem Dach. Rund 2.200 Mitarbeiter stellen die qualifizierte Versorgung von rund 84.000 Patienten pro Jahr sicher.
Das BG Universitätsklinikum Bergmannsheil gehört zur Unternehmensgruppe der BG Kliniken. Die BG Kliniken sind spezialisiert auf die Akutversorgung und Rehabilitation schwerverletzter und berufserkrankter Menschen. An 13 Standorten versorgen über 14.000 Beschäftigte mehr als 560.000 Fälle pro Jahr. Damit sind die BG Kliniken der größte öffentlich-rechtliche Krankenhauskonzern in Deutschland. Träger der BG Kliniken sind die gewerblichen Berufsgenossenschaften und Unfallkassen.
Weitere Informationen: www.bergmannsheil.de, www.bg-kliniken.de
Fachlicher Ansprechpartner:
Dr. med. Sven Jung
Chefarzt
Abteilung BG Rehabilitation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
E-Mail: sven.jung@bergmannsheil.de
Medienkontakt:
Robin Jopp
Leitung Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-6125
E-Mail: robin.jopp@bergmannsheil.de
Melina Jasmine Kalwey
Stabsstelle Unternehmenskommunikation
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil gGmbH
Bürkle de la Camp-Platz 1
44789 Bochum
Tel.: +49 (0)234 302-3597
E-Mail: melina.kalwey@bergmannsheil.de
Große politische Veränderungen beeinflussen das Wohlbefinden von Beschäftigten
Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Arbeit in Zeiten des Brexits: Neue Studie zeigt Zusammenhänge zwischen makropolitischen Ereignissen und dem Wohlergehen von Beschäftigten auf
Große gesellschaftliche und politische Umwälzungen wie beispielsweise der Brexit wirken sich auch auf das Wohlbefinden von Beschäftigten aus – allerdings nicht unbedingt so, wie man vielleicht erwarten würde. Forschende der Johannes Gutenberg-Universität Mainz (JGU), des Leibniz-Instituts für Resilienzforschung, der Loughborough University sowie der Medical School Hamburg haben britische Wissenschaftlerinnen und Wissenschaftler dazu befragt, wie sie den Ausstieg Großbritanniens aus der EU bewerten. Die Studie ergab, dass sie den Brexit eher als bedrohlich und weniger als eine positive Herausforderung empfinden. „Dies wirkte sich wiederum auf die wahrgenommene Arbeitsplatzsicherheit sowie die Beziehungsqualität mit Kollegen und Kolleginnen aus“, teilt Miriam Schilbach, Doktorandin bei Prof. Dr. Thomas Rigotti am Psychologischen Institut der JGU sowie wissenschaftliche Mitarbeiterin am Leibniz-Institut für Resilienzforschung mit. Sie ist Erstautorin der Studie, die nun im European Journal of Work and Organizational Psychology veröffentlicht wurde.
Arbeitsplatzsicherheit und Beziehungsqualität zu Kolleginnen und Kollegen ist für Wohlergehen entscheidend
Bisher liegen nur wenige Untersuchungen vor, die sich mit den Auswirkungen von wichtigen politischen Ereignissen auf das persönliche Wohlergehen im Arbeitskontext beschäftigen. Das Forschungsteam hat den Brexit daher als eine Chance betrachtet, um eine stressige Situation untersuchen zu können, die alle Menschen in Großbritannien gleichermaßen betrifft. Das Team wandte sich an Beschäftigte britischer Universitäten und bat sie zu drei Zeitpunkten, einen Fragebogen zu beantworten: im September und Dezember 2019 sowie im Februar 2020 – also rund drei Jahre nach dem Brexit-Referendum, aber noch vor dem endgültigen Ausscheiden aus der EU. 115 Probanden waren bis zum Schluss dabei und nahmen an allen drei Umfragen teil. Das Durchschnittsalter betrug knapp 44 Jahre, rund 37 Prozent waren Frauen. Sie sollten beispielsweise Aussagen bewerten wie „Während der letzten drei Monate fühlte ich mich emotional ausgelaugt“ oder „Ich muss auch zu Hause an Schwierigkeiten bei der Arbeit denken“.
„Wir sind bei unserer Untersuchung davon ausgegangen, dass sowohl die Arbeitsplatzsicherheit als auch die Zugehörigkeit beziehungsweise die Qualität der Beziehung zu den Arbeitskolleginnen und -kollegen fundamentale menschliche Bedürfnisse sind und eng mit dem persönlichen Wohlergehen zusammenhängen“, erklärt Miriam Schilbach die Ausgangslage der Untersuchung. Angesichts der wachsenden Unsicherheit etwa aufgrund von wirtschaftlicher Instabilität oder zunehmender Globalisierung sei es besonders wichtig, die Mechanismen besser zu verstehen, die von Großereignissen auf das individuelle Befinden ausgehen. Arbeitnehmerinnen und Arbeitnehmer werden, so die Erwartungen, auch in Zukunft davon betroffen sein.
Hinzu kommt für die Autorengruppe noch die Frage, ob die individuelle Einschätzung eines solchen Ereignisses der sozialen Norm entspricht oder davon abweicht – das heißt, ob jemand im Einklang mit der Mehrheitsgesellschaft das Geschehen als bedrohlich oder als Herausforderung erlebt. „Wir stellen mit dieser Frage eine vorherrschende und weithin akzeptierte Ansicht auf den Prüfstand, nämlich dass die Beurteilung einer Situation als eine Herausforderung generell zu positiven und die Beurteilung als eine Bedrohung generell zu negativen Ergebnissen führt“, so Schilbach. Die Überlegungen sind nicht nur im Hinblick auf den Brexit relevant. Auch wenn sich die jetzige Studie darauf bezieht, gehen die Verantwortlichen davon aus, dass andere kontroverse Ereignisse ähnliche Effekte haben, zum Beispiel eine umstrittene Fusion von Unternehmen.
Gemeinsam erlebte Stresssituationen können zusammenschweißen
Die Ergebnisse der Studie zeigen, dass die Akademikerinnen und Akademiker in dieser Stichprobe den Brexit überwiegend als Bedrohung und weniger als eine Herausforderung bewerten. „Die Einschätzung als Bedrohung geht erwartungsgemäß mit einer größeren Unsicherheit über den eigenen Arbeitsplatz einher, aber auch mit einer besseren Beziehung zu den Arbeitskollegen“, sagt Schilbach. Sie vermutet, dass die Beschäftigten eine solche Stresssituation als „unser Problem“ betrachten und der gemeinschaftliche Austausch unter den Kolleginnen und Kollegen zusammenschweißt. Wird der Ausstieg Großbritanniens aus der EU als eine Herausforderung betrachtet, ergibt sich für diese kleinere Gruppe der Stichprobe das umgekehrte Szenario, somit eine schlechtere Beziehung zu den Kollegen – was wiederum das Wohlbefinden schmälert.
Nur wenige Studien haben bisher versucht, die Mechanismen zu identifizieren, die von einem politischen Ereignis auf das persönliche Wohlbefinden von Erwerbstätigen ausstrahlen. „Hier zeigen wir, wie wichtig es für die Befindlichkeit ist, ob die Betroffenen das Ereignis ähnlich bewerten oder nicht“, fasst Schilbach zusammen.
Weitere Links:
https://www.aow.psychologie.uni-mainz.de/ – Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie an der JGU
https://lir-mainz.de/home – Leibniz-Institut für Resilienzforschung
Lesen Sie mehr:
https://www.uni-mainz.de/presse/aktuell/12344_DEU_HTML.php – Pressemitteilung „Effekte eines Arbeitsplatzwechsels auf die Gesundheit: Worauf Arbeitgeber und Jobwechsler achten sollten“ (21.10.2020)
Wissenschaftliche Ansprechpartner:
Miriam Schilbach
Leibniz-Institut für Resilienzforschung und
Abteilung für Arbeits-, Organisations- und Wirtschaftspsychologie
Psychologisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 (6131) 8944829
E-Mail: miriam.schilbach@lir-mainz.de
https://www.aow.psychologie.uni-mainz.de/miriam-schilbach/
Originalpublikation:
Miriam Schilbach et al.
Work in times of Brexit: explanatory mechanisms linking macropolitical events with employee well-being
European Journal of Work and Organizational Psychology, 5. Januar 2022
DOI: 10.1080/1359432X.2021.2019709
https://www.tandfonline.com/doi/full/10.1080/1359432X.2021.2019709
Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“
Marion Hartmann Presse- und Öffentlichkeitsarbeit
Daimler und Benz Stiftung
Wer wird wie viel Wasser bekommen?
Ein von der Daimler und Benz Stiftung geförderter Forschungsverbund soll Zielkonflikte der künftigen Wasserverteilung bearbeiten
Die Daimler und Benz Stiftung nimmt in ihrem neu ausgerichteten Förderformat „Ladenburger Kolleg“ aktuell gesellschaftliche Zielkonflikte in den Fokus – zum Thema „Zukünftige Wasserkonflikte in Deutschland“. Nach erfolgtem Auswahlverfahren stehen dem Forschungsverbund rund 1,3 Millionen Euro für einen Zeitraum von drei Jahren zur Verfügung. Die interdisziplinäre Wissenschaftlergruppe soll Interessenskonflikte bei der künftigen Wasserverteilung in Deutschland aufspüren und mögliche Lösungsansätze aufzeigen. Dies geschieht mithilfe von Modellierungen und Planspielen, die für eine breite Nutzbarkeit der Ergebnisse heute und in Zukunft sorgen sollen.
Von den Vereinten Nationen wurde im Jahr 2010 das Menschenrecht auf Wasser und Sanitärversorgung anerkannt. Wasser zählt zu den wichtigsten Rohstoffen der Erde und soll allen Menschen flächendeckend in ausreichender Menge zur Verfügung stehen. Was aber, wenn es angesichts des Klimawandels und künftiger Wetterextreme – Hitze, Starkregen, Überschwemmungen oder anhaltende Trockenheit – immer knapper wird? Lokaler Wasserstress könnte künftig auch im eigentlich wasserreichen Deutschland zu verstärkten Verteilungskonflikten führen, etwa zwischen Landwirt-schaft, Industrie, Energie- und Wasserwirtschaft sowie dem Schutz von Grundwasser und Ökosystemen.
Wasserkonflikte, die sich künftig in Deutschland abzeichnen könnten, sind das erste große Themenfeld, das Wissenschaftler im Rahmen des neu ausgerichteten Förderformats erforschen. „Das Format ‚Ladenburger Kolleg‘ haben wir so modifiziert, dass relevante gesellschaftliche Entwicklungen an der Schnittstelle von Mensch, Technik und Umwelt aufgegriffen werden und die Stiftung in unregelmäßigen Abständen thematisch fokussierte Ausschreibungen veröffentlicht“, erklärt Prof. Dr. Julia Arlinghaus, die gemeinsam mit Prof. Dr. Lutz H. Gade den Vorstand der Daimler und Benz Stiftung bildet. Dies soll jeweils in einem interdisziplinären bzw. auch länderübergreifenden Forschungsnetzwerk erfolgen.
„Wir wollen zu einem tiefgreifenden Verständnis möglicher künftiger Wasserkonflikte in Deutschland beitragen“, so Dr. Wolfgang Weimer-Jehle vom fakultätsübergreifenden Zentrum für interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) der Universität Stuttgart. Er ist zugleich wissenschaftlicher Koordinator und Sprecher des neuen Ladenburger Kollegs der Daimler und Benz Stiftung. „Gemeinsam mit Kollegen der Technischen Universität Bergakademie Freiberg und dem Forschungszentrum Jülich setzen wir auf die interdisziplinäre System- und Szenarioanalyse.“
Die Forscher wollen Wechselwirkungen zwischen den einzelnen Sektoren und Interessengruppen transparent machen und eventuelle Zielkonflikte bei der Wassernutzung aufdecken. Dabei analysieren sie die jeweiligen Handlungsoptionen verschiedener Akteure und berücksichtigen den Einfluss möglicher – durch den Klimawandel bedingten – Wetterextreme. Beteiligte aus der Praxis, unter anderem aus der Wasserwirtschaft, werden beim Design und bei der Erstellung und Auswertung der Modellierungen aktiv eingebunden. Mit der Werkstattversion einer Webanwendung wol-len die Forscher schließlich das Konfliktfeld Wasser für alle Protagonisten erlebbar machen.
Dabei sollen drei Konfliktfelder mit besonderer Relevanz für Deutschland exemplarisch untersucht werden: Zielkonflikte in einem Flusseinzugsgebiet, Konflikte der Bewässerung, Wasserkonflikte bei Großprojekten. Klares Ziel des Ladenburger Kollegs: Für die genannten Konfliktfälle sollen Modelle entwickelt werden, durch die die Beteiligten in Planspielen die Folgen eigener und fremder Entscheidungen erfahren können. Sie sollen befähigt werden, zielkonforme und zugleich konfliktmindernde Strategien zu finden – und nicht zuletzt wertvolle Materialien für den Bildungssektor zu erstellen.
Das Förderformat legt einen besonderen Schwerpunkt auf den Aspekt der Planspiele. Sie sollen auch nach Abschluss des Projekts für eine breite und vor allem praktische Nutzung der erarbeiteten Ergebnisse sorgen. Gade von der Daimler und Benz Stiftung fasst zusammen: „Gerade mit Blick auf die Herausforderungen, die der Klimawandel und sich verändernde demografische Verhältnisse mit sich bringen, bedarf es eines verantwortungsbewussten Umgangs mit dem kostbaren Gut Wasser. Mit unserem Ladenburger Kolleg wollen wir einen gesellschaftlichen Beitrag dazu leisten.“
Weitere Informationen:
http://www.daimler-benz-stiftung.de
Anhang
Ladenburger Kolleg „Zukünftige Wasserkonflikte in Deutschland“
Wie das Leben auf die Erde kam
Dr. Marco Körner Abteilung Hochschulkommunikation/Bereich Presse und Information
Friedrich-Schiller-Universität Jena
Forschungsteam der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie belegt möglichen außerirdischen Ursprung von Peptiden
Forscher der Friedrich-Schiller-Universität Jena und des Max-Planck-Instituts für Astronomie haben auf der Suche nach dem Ursprung des Lebens eine neue Spur entdeckt: Sie konnten zeigen, dass unter Bedingungen, wie sie im Weltall herrschen, Peptide auf Staub entstehen können. Diese Moleküle, die einer der Grundbausteine allen Lebens sind, sind also vielleicht gar nicht auf unserem Planeten entstanden, sondern womöglich in kosmischen molekularen Wolken.
Ketten aus Aminosäuren
Alles Leben, wie wir es kennen, besteht aus den gleichen chemischen Bausteinen. Dazu gehören Peptide, die im Körper völlig unterschiedliche Funktionen übernehmen: Sei es, um Stoffe zu transportieren, Reaktionen zu beschleunigen oder um in Zellen stabilisierende Gerüste zu bilden. Peptide bestehen aus einzelnen Aminosäuren, die in einer bestimmten Reihenfolge angeordnet sind. Die genaue Reihenfolge entscheidet darüber, welche Eigenschaften das Peptid am Ende besitzt.
Wie diese vielseitigen Biomoleküle entstanden sind, ist eine der Fragen nach dem Ursprung des Lebens. Dass dieser Ursprung außerirdischer Natur sein kann, zeigen Aminosäuren, Nukleobasen und verschiedene Zucker, die etwa in Meteoriten gefunden wurden. Damit aber aus einzelnen Aminosäure-Molekülen ein Peptid entsteht, braucht es ganz spezielle Bedingungen, die bislang eher auf der Erde vermutet wurden.
Für den ersten Schritt muss Wasser da sein, für den zweiten Schritt darf kein Wasser da sein.
„Bei dem herkömmlichen Weg, auf dem Peptide entstehen, spielt Wasser eine wichtige Rolle,“ erklärt Dr. Serge Krasnokutski vom Astrophysikalischen Labor des Max-Planck-Instituts für Astronomie an der Universität Jena. Hierbei verbinden sich einzelne Aminosäuren zu einer Kette. Damit das geschieht, muss jeweils ein Wassermolekül entfernt werden. „Unsere quantenchemischen Berechnungen zeigten nun, dass die Aminosäure Glycin entstehen kann, indem sich eine chemische Vorstufe – ein sogenanntes Aminoketen – mit einem Wassermolekül verbindet. Vereinfacht zusammengefasst: In diesem Fall muss für den ersten Reaktionsschritt Wasser dazugegeben werden, für den zweiten muss Wasser entfernt werden.“
Mit dieser Erkenntnis konnte das Team um den Jenaer Wissenschaftler nun einen Reaktionsweg nachweisen, der unter kosmischen Bedingungen ablaufen kann und dabei ohne Wasser auskommt. „Anstatt den chemischen Umweg zu gehen, in dem die Aminosäuren gebildet werden, wollten wir herausfinden, ob nicht stattdessen die Aminoketen-Moleküle entstehen und diese sich direkt zu Peptiden verbinden können“, beschreibt der Physiker die Grundidee der Arbeit, die nun im Fachjournal Nature Astronomy veröffentlicht wurde. Er ergänzt: „Und zwar unter den Bedingungen, wie sie in kosmischen molekularen Wolken herrschen: Also auf Staubpartikeln im Vakuum, bei denen die entsprechenden Chemikalien anwesend sind und dort reichlich vorkommen: Kohlenstoff, Ammoniak und Kohlenstoffmonoxid.“
In einer Ultrahochvakuum-Kammer wurden Substrate, die als Modell für die Oberfläche von Staubpartikeln dienen zusammen mit Kohlenstoff, Ammoniak und Kohlenmonoxid bei etwa einem Billiardstel des normalen Luftdrucks und Minus 263 Grad Celsius zusammengebracht. „Untersuchungen zeigten, dass unter diesen Bedingungen aus den einfachen Chemikalien das Peptid Polyglycin entstanden ist“, fasst Krasnokutski das Ergebnis zusammen. „Hierbei handelt es sich also um Ketten aus der sehr einfachen Aminosäure Glycin, wobei wir verschiedene Längen beobachtet haben. Die längsten Exemplare bestanden aus elf Einheiten der Aminosäure.“
Auch das vermutete Aminoketen konnte das Team in diesem Experiment nachweisen. „Dass die Reaktion bei derart niedrigen Temperaturen überhaupt ablaufen kann, liegt daran, dass die Aminoketen-Moleküle extrem reaktiv sind. Sie verbinden sich miteinander in einer effektiven Polymerisation. Das Produkt ist dann Polyglycin.“
Quantenmechanischer Tunneleffekt könnte eine Rolle spielen
„Dass die Polymerisation von Aminoketen unter solchen Bedingungen so einfach passieren kann, war dennoch überraschend für uns“, sagt Krasnokutski. „Denn dazu muss eigentlich eine Energiebarriere überwunden werden. Allerdings kann es sein, dass uns ein besonderer Effekt der Quantenmechanik dabei zugutekommt. Denn in diesem speziellen Reaktionsschritt wechselt ein Wasserstoffatom seinen Platz. Dieses ist jedoch so klein, dass es als Quantenteilchen die Barriere nicht überwinden, sondern durch den Tunneleffekt gewissermaßen einfach durchqueren könnte.“
Jetzt wo klar ist, dass nicht nur Aminosäuren, sondern auch Peptidketten unter kosmischen Bedingungen entstehen können, müssen wir also bei der Erforschung des Ursprungs des Lebens möglicherweise nicht nur auf die Erde, sondern auch mehr ins Weltall blicken.
Wissenschaftliche Ansprechpartner:
Dr. Serge Krasnokutski
Laboratory Astrophysics and Cluster Physics Group of the Max Planck Institute for Astronomy at the Friedrich Schiller University Jena
Institut für Festkörperphysik
Helmholtzweg 3
07743 Jena
Tel.: 03641 / 947306
E-Mail: sergiy.krasnokutskiy@uni-jena.de
Originalpublikation:
S. A. Krasnokutski, K.-J. Chuang, C. Jäger, N. Ueberschaar, Th. Henning, „A pathway to peptides in space through the condensation of atomic carbon“, Nature Astronomy (2022), DOI: 10.1038/s41550-021-01577-9
Untersuchung von Feinstaub unterschiedlicher Emissionen
Michael Brauns Pressestelle
Universität der Bundeswehr München
Wissenschaftlerinnen und Wissenschaftler an der Universität der Bundeswehr München untersuchen die gesundheitsschädliche Wirkung des sogenannten Ultrafeinstaubs der im Flugbetrieb entsteht und vergleichen dies mit Emissionen im Straßen- und Schiffs- und Bahnverkehr.
Luftverschmutzung stellt ein großes Gesundheitsrisiko mit weltweit mind. 5 Millionen Todesfällen pro Jahr dar. Besonders der Ultafeinstaub, das sind Partikel mit einem Durchmesser von kleiner als 100 Nanometern und damit tausendmal kleiner als ein menschliches Haar, wird für schwerwiegende Atemwegserkrankungen verantwortlich gemacht. Der Straßenverkehr hat am Entstehen von Ultrafeinstaub einen hohen Anteil, da er vorwiegend bei Verbrennungsprozessen entsteht.
Ziel des von der EU finanzierten Forschungsvorhabens Ultrhas („ULtrafine particles from TRansportation – Health Assessment of Sources“) ist es, die gesundheitlichen Risiken des Ultrafeinstaubs von verschiedenen verkehrs-bedingten Verursachern gegenüber zu stellen und eine Risikobewertung vorzunehmen. Darüber hinaus finden Untersuchungen zu Alterungsprozessen der Partikel in der Atmosphäre statt um deren Einfluss auf das Klima besser zu verstehen. Neben Abgasen von Diesel- und Benzinmotoren aus Pkw und Lkw werden Emissionen von Schiffsmotoren und Flugzeugantrieben sowie metallische Abriebe aus Bremsen und Bahn-Oberleitungen betrachtet.
Realitätsnahe Untersuchungen im Labor
Die Forschungsarbeiten an den Flugantrieben werden dabei von Prof. Andreas Hupfer vom Institut für Aeronautical Engineering und Prof. Thomas Adam vom Institut für Chemie und Umwelttechnik durchgeführt. In aufwendigen Voruntersuchungen an realen Triebwerken und im Labor wird versucht das chemisch-physikalische Emissionsmuster von echten Flugantrieben möglichst realitätsnah auf einem selbst entwickelten Modellprüfstand abzubilden.
Im Anschluss werden in einer mehrwöchigen Messkampagne die umfangreichen toxikologischen Studien in Kooperation mit den Projektpartnern aus Deutschland, Norwegen, Finnland und der Schweiz durchgeführt. Unterstützt wird das Vorhaben zusätzlich durch die Forschungsgruppe „Small Aero Engines“, einem Gemeinschaftsprojekt der Universität der Bundeswehr München und der Technischen Universität München. Gefördert durch das Forschungsnetzwerk Munich Aerospace untersucht „Small Aero Engines“ die Eigenschaften alternativer Kraftstoffe für die Luftfahrt.
Das Projekt Ultrhas startete am 1. September 2021 und hat eine Laufzeit von vier Jahren. Gefördert wird es innerhalb des EU Förderprogramms Horizon 2020.
Kooperationspartner sind das Helmholtz Zentrum München, die Universität Rostock, das Norwegian Institute of Public Health, die University of Eastern Finland, das Finnish Institute for Health and Welfare und die Universität Fribourg.
Wissenschaftliche Ansprechpartner:
Prof. Thomas Adam, Prof. Andreas Hupfer
Weitere Informationen:
http://www.ultrhas.eu
Vom Tagebau zum Pumpspeicherkraftwerk
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Bergbauregionen im Wandel: Sechs internationale Partner im EU-Projekt ATLANTIS untersuchen, koordiniert vom Deutschen GeoForschungsZentrum GFZ, die Folgenutzungspotenziale ehemaliger Bergbauregionen zur Energiespeicherung.
Die geplante Stilllegung des Braunkohlebergbaus in Europa erfordert innovative, wirtschaftliche und klimafreundliche Strategien, um den Strukturwandel für Bergbauregionen nachhaltig zu gestalten. Darüber hinaus spielt die effiziente Speicherung regenerativer Energien eine zentrale Rolle bei der zukünftigen Energiesystem- und Versorgungssicherheit in Europa. Das EU-Projekt ATLANTIS verknüpft diese beiden Aspekte und untersucht die Machbarkeit einer Folgenutzung von stillgelegten Braunkohletagebauen in Form von hybriden Energiespeichern. Koordiniert vom Deutschen GeoForschungsZentrum GFZ vereint es sechs Forschungseinrichtungen und Energieversorgungsunternehmen aus Griechenland, Polen und Deutschland. Die Europäische Union fördert das Vorhaben für die kommenden drei Jahre mit einem Gesamtbudget von rund 2,7 Millionen Euro über den Forschungsfonds für Kohle und Stahl (RFCS).
Oberirdisch angelegte Pumpspeicherwerke erlauben eine flexible und effiziente Speicherung von Überschussenergie aus der Solar- und Windenergieerzeugung sowie dem Stromnetz. Pumpspeicherwerke arbeiten in der Regel mit mindestens zwei Wasserreservoiren, welche sich auf unterschiedlichen Höhenniveaus befinden. Mit der Überschussenergie betriebene Pumpen befördern das Wasser in das Oberbecken. Dort wird es in Form von potenzieller Energie gespeichert, welche durch das Ablassen des Wassers in das Unterbecken mittels Turbinen wieder in elektrische Energie umgewandelt werden kann.
„Das Hauptziel von ATLANTIS ist die Ausarbeitung einer integrierten technischen und wirtschaftlichen Machbarkeitsstudie zur hybriden Energiespeicherung von Überschussenergie in ehemaligen Braunkohletagebauen im Einklang mit den Vorgaben des europäischen Green Deal zum Klima- und Naturschutz“, sagt Thomas Kempka, Leiter des Projektes und Leiter der Arbeitsgruppe Prozesssimulation in der Sektion Fluidsystemmodellierung am GFZ. Hybrid heißt es deshalb, weil Überschussenergie aus dem Stromnetz ebenso wie Energie aus regionalen erneuerbaren Quellen gespeichert werden kann. Im Fokus stehen zwei repräsentative europäische Bergbauregionen in Griechenland und Polen, die sich im Wandel befinden.
Kempka weiter: „Das im ATLANTIS-Projekt anvisierte Folgenutzungskonzept leistet durch die Integration von Energiespeichertechnologien mit der Energieerzeugung und dem Energietransport einen wesentlichen Beitrag zum European Green Deal und unterstützt gleichzeitig die Wirtschaftsförderung und Arbeitsmarktstabilisierung der jeweiligen Region.“
Weitere Informationen auf der Projektwebsite (www.atlantis-project.eu) und dem Twitteraccount des Projekts (https://twitter.com/ATLANTIS_EU).
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Thomas Kempka
Leiter Arbeitsgruppe Prozesssimulation
Sektion 3.4 Fluidsystemmodellierung
Email: kempka@gfz-potsdam.de
Weitere Informationen:
http://www.atlantis-project.eu (Projektwebseite)
Fehlverhalten von Führungskräften kann Unternehmen Milliarden kosten
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Die 2017 entstandene #MeToo-Bewegung beschäftigt seit einigen Jahren auch Unternehmen, die sich vermehrt mit dem Thema sexuelle Belästigung am Arbeitsplatz auseinandersetzen. Das kann auch wirtschaftlich von Bedeutung sein, denn das Fehlverhalten einzelner Personen kann die Aktienrenditen von Unternehmen erheblich beeinträchtigen. Zu diesem Ergebnis kommen Professor Dr. Rainer Lueg und Yassin Denis Bouzzine vom Institut für Management, Accounting & Finance der Leuphana Universität Lüneburg in einer jetzt im Scandinavian Journal of Management veröffentlichten Studie.
Die Wissenschaftler haben untersucht, wie sich das Thema sexuelle Belästigung durch Führungskräfte auf die Aktienrenditen von Unternehmen auswirkt. Dafür betrachteten sie knapp 100 solcher Fälle aus den Jahren 2016 – 2019 und ermittelten die wirtschaftlichen Folgen der entstandenen Reputationsschäden. In 25 der untersuchten Fälle richteten sich die Anschuldigungen direkt gegen Führungskräfte.
Die Forscher identifizierten mit der sogenannten Ereignisstudien-Methode abnormale Aktienreaktionen auf entsprechende Vorkommnisse. Ihre Ergebnisse zeigen, dass solches Fehlverhalten die Aktienrenditen einer Organisation erheblich beeinträchtigen kann, auch dann, wenn die Belästigung nur von einer einzigen Person ausging. Marktwertverluste von bis zu 5 Mrd. Dollar waren demnach für mit dem Thema sexuelle Belästigung durch Führungskräfte konfrontierte Unternehmen zu verzeichnen.
Signifikante Ergebnisse gab es immer dann, wenn die beschuldigten Führungskräfte in einer leitenden Position bei der Mutterorganisation eines Unternehmens beschäftigt waren. Insofern kann die Studie belegen, dass das Fehlverhalten von Einzelpersonen für den kostenträchtigen Reputationsverlust von Bedeutung ist.
Die Studie steht im Scandinavian Journal of Management online zur Verfügung:
https://www.sciencedirect.com/science/article/abs/pii/S0956522122000033
Warum altern wir? Die Rolle der natürlichen Selektion
Maren Lehmann Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Evolutionsbiologie
Die Evolution des Alterns ist in der theoretischen Evolutionsforschung ein besonders spannendes Feld. Wissenschaftler versuchen herauszufinden, warum und wann sich das Phänomen des Alterns im Laufe der Evolution entwickelt hat. Dabei können mathematische Modelle helfen, Theorien zum besseren Verständnis des Alterns zu entwickeln. Auch am Max-Planck-Institut für Evolutionsbiologie in Plön wurde in der Abteilung Evolutionstheorie hieran in den letzten Jahren intensiv geforscht.
Jahre vergehen für alle: Menschen, Tiere und Pflanzen. Und doch tritt der Laufe der Zeit nicht bei allen Lebewesen gleichermaßen in Erscheinung. Manche altern sehr früh, anderen scheint eine lange Lebenszeit kaum etwas anzuhaben. Der Nacktmull beispielweise ist bekannt dafür, dass ausgewachsene Tiere so gut wie keine Alterungserscheinungen zeigen. Ihr Tod ist gewöhnlich die Folge von Gewalteinwirkung durch ihre Artgenossen.
Mathematische Modellierer sind der Theorie hinter der Evolution des Alterns auf der Spur
Bis vor nicht allzu langer Zeit wurde allgemein angenommen, dass alle Organismen irgendwann altern würden. Der Biologe William D. Hamilton hat diese Zwangsläufigkeit des Alterns vor über 50 Jahren in eine mathematische Formel gegossen. Nach seinen Modellrechnungen entwickelt sich das Altern, weil die Selektion auf bestimmte Merkmale im Laufe der Fortpflanzungszeit abnimmt. Altern wäre dann eine Konsequenz der sinkenden Selektionskraft unter älteren Organismen.
Vor 17 Jahren hat allerdings die Demografin Annette Baudisch (damals Max-Planck-Institut für demographische Forschung, jetzt Professorin in Odense, Dänemark) gezeigt, dass diese scheinbare Zwangsläufigkeit von bestimmten Grundannahmen abhängt, die keineswegs immer gegeben sein müssen. Wenn man diese Parameter in mathematischen Modellen leicht ändert, zeigt sich, dass Fortpflanzungsrate und Selektionskraft nicht mehr kontinuierlich sinken. Ist das Altern also doch nicht so zwangsläufig, wie es schien?
Mit dieser Frage haben sich die Evolutionstheoretiker Stefano Giaimo und Arne Traulsen vom Max-Planck-Institut für Evolutionsbiologie beschäftigt. Sie entwickelten dafür ein dynamisches mathematisches Modell, das nicht mehr auf der Voraussetzung bestimmter Vorannahmen beruht. Die Forscher ließen ihr Modell immer und immer wieder den Entwicklungsprozess von Lebewesen nachvollziehen. Dabei fanden sie mit theoretischen Methoden heraus, dass sich auch unter diesen dynamischen Bedingungen die Evolution des Alterns immer wieder stabil entwickelt. Sie fanden außerdem, dass als eine Folge des Alterns die Selektionskraft mit dem reproduktiven Alter sinkt.
Sie konnten damit also die klassische mathematische Theorie des Alterns, die von Hamilton aufgestellt wurde, einerseits bestätigen: Die Selektionskraft nimmt mit dem Alter ab. Andererseits aber zeigten sie, dass deren Logik umgekehrt werden muss: Die Selektionskraft schwächt sich mit dem Alter ab, weil sich das Altern entwickelt, und nicht, wie von Hamilton vertreten, umgekehrt.
Die Forschungen werden in dieser Woche im wissenschaftlichen Journal Nature Communications veröffentlicht.
Wissenschaftliche Ansprechpartner:
Stefano Giamo, Postdoc Abteilung Evolutionstheorie, Max-Planck-Institut für Evolutionsbiologie, giaimo@evolbio.mpg.de
Originalpublikation:
Stefano Giaimo, Arne Traulsen
The selection force weakens with age because ageing evolves and not vice versa
Nature Communications volume 13, Article number: 686 (2022)
doi: 10.1038/s41467-022-28254-3
Neuer Geist in alter Hardware – Vermeidung von Elektroschrott durch Freie Software
Dorothea Hoppe-Dörwald Presse- und Öffentlichkeitsarbeit
Hochschule Worms
Das schicke Design und die gute Technik von Geräten der Firma Apple hat sich längst rumgesprochen.
Umso mehr schmerzt es, wenn das Gerät in die Jahre gekommen ist und nicht sicher weiter betrieben werden kann, weil aufgrund des Alters keine Sicherheits-Updates für die Software geliefert werden. Die alten Geräte sind nicht mehr kompatibel mit neuen Betriebssystem-Versionen des Herstellers. Und – ja, zugegeben: Abgesehen von weiter gewachsenen Anforderungen der aktuellen Software kommen auch über 10 Jahre alte Rechner aus der Mode, auch wenn es sich um optisch immer noch formschöne iMacs älterer Bauart handelt.
Alt bedeutet nicht gleich Schrottplatz
So ließen sich also etliche alte iMacs, die jahrelang am Fachbereich Informatik der Hochschule Worms im Labor von Studierenden genutzt wurden, nicht mehr zu Lehrzwecken einsetzen: Keine sichere Software, zu langsam, inkompatibel mit den aktuellen Betriebssystemversionen. Wird wirklich nur noch Alu- und Elektroschrott daraus?
Um das zu vermeiden, veranstaltete Prof. Dr. Herbert Thielen mit interessierten Erstsemester-Studierenden des Bachelor-Studiengangs Angewandte Informatik einen „iMac Upcycling Workshop“: Mit einer flotten SSD („Solid State Disk“) als Ersatz für die langsame Festplatte lässt sich auch alten Rechnern mit wenig Investition neuer Schwung verleihen. Als Ersatz für ein nicht mehr aktualisierbares kommerzielles Betriebssystem kann häufig Freie Software der alten Hardware einen neuen Geist einhauchen.
„Ein Projekt, das wir so bei neuen Geräten wohl eher nicht gewagt hätten,“ sagt Thielen. „Schließlich dauert es seine Zeit, bis so ein iMac zerlegt ist, um die Festplatte auszutauschen. Die Studierenden fanden das aber spannend und investierten gerne ihre Zeit, um durch den Umbau neues Tempo zu gewinnen“, ergänzt der engagierte Professor.
Mit etwas Know-how und Zeit mehr Upcycling
Jeder wieder „quicklebendige“ iMac wurde mit Freier Software in Form von Debian GNU/Linux Version 11 auch sicherheitstechnisch auf den Stand der Zeit gebracht. So erfüllt die alte Hardware zumindest wieder die Voraussetzungen für Standard-Aufgaben wie Textverarbeitung und Video-Konferenzen. Und für die eine oder andere Programmierübung reicht die begrenzte Rechenleistung auch noch aus.
Die Umwelt freut sich, dass Elektromüll vorerst vermieden werden konnte – und die Studierenden freuen sich, dass sie sich selbst ein Übungsgerät umrüsten konnten, das ihnen weiterhin gute Dienste im Studium leisten wird.
Das Projekt zeigt, dass alte PCs nicht weggeworfen werden müssen, nur weil die neuen Betriebssysteme nicht mehr darauf installierbar sind. Mit etwas zeitlichem Aufwand lassen sie sich oft noch soweit beschleunigen, dass sie beim Einsatz Freier Software noch für viele Zwecke brauchbar sind.
KIT: Landnutzung: Plädoyer für einen gerechten Artenschutz
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Große Landflächen radikal für Tiere und Pflanzen reservieren – das könnte die Menschheit in den nächsten Jahrzehnten vor einem Kollaps der Artenvielfalt bewahren. Doch in einigen Ländern, insbesondere des globalen Südens, könnte das die Versorgung mit Nahrungsmitteln gefährden. Auf diesen Zielkonflikt machen jetzt Forschende des Karlsruher Instituts für Technologie (KIT) gemeinsam mit Partnern aus Großbritannien und Österreich in einer Studie in der Fachzeitschrift Nature Sustainability aufmerksam und plädieren für ein umsichtiges Vorgehen. (DOI: 10.1038/s41893-021-00844-x)
Diese Presseinformation finden Sie mit Foto zum Download unter: https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…
Dass ein weiterer ungebremster Verlust der Biodiversität durch menschliche Einwirkung langfristig die Bewohnbarkeit des Planeten einschränkt, wurde in vielen wissenschaftlichen Studien belegt. Gegensteuern könnte die Menschheit, indem sie große Flächen unter Schutz stellt, sagt Professorin Almut Arneth vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), dem Campus Alpin des KIT in Garmisch-Partenkirchen: „Damit ließen sich die Auswirkungen zumindest abschwächen. Allerdings ist der Flächenbedarf enorm. Einige Forscherinnen und Forscher argumentieren, dass die Hälfte der Landoberfläche von einer menschlichen Nutzung ausgeschlossen werden müsste.“ Zwei Teams des Campus Alpin sowie Partnern an der Universität Aberdeen, der Universität Edinburgh und dem Internationalen Institut für Angewandte Systemanalyse (IIASA) in Österreich haben nun genauer untersucht, was die Folgen wären.
Die Studie zeigt mit Hilfe von gekoppelten sozio-ökologische Modellen, wie sich ein potenziell strikter Schutz von 30 Prozent und 50 Prozent der terrestrischen Landfläche auf Landnutzung und Ernährungssicherheit auswirken könnte. Festgestellt haben die Forschenden dabei, dass diese Maßnahme vermutlich zu einer Intensivierung landwirtschaftlicher Produktion auf den verbleibenden Flächen führen würde, um die Weltbevölkerung mit Nahrungsmitteln zu versorgen, was steigende Lebensmittelpreise zur Folge hätte. Der Verzehr von Obst und Gemüse würde sich verringern und insgesamt würde die Zahl der untergewichtigen Menschen in verschiedenen Regionen der Welt ansteigen. Damit verbunden wäre wiederum ein erhöhtes Risiko für ernährungsbedingte Krankheiten und Mortalität.
Ungleich verteilte Auswirkungen von extremen Maßnahmen
Die Untersuchungen ergaben außerdem, dass Länder des globalen Südens am stärksten von der Nahrungsmittelknappheit als Folge eines strikten Naturschutzes auf großen Flächen betroffen wären, da sie schon zuvor weniger Nahrung zur Verfügung hatten. Umgekehrt würden wohlhabendere Länder weitgehend von den negativen Auswirkungen verschont bleiben. Hier würde eine Verringerung des Kalorienverbrauchs durch höhere Nahrungsmittelpreise im Gegenteil sogar zu einer Reduktion der negativen Auswirkungen von Übergewicht und Fettleibigkeit führen.
Die Erstautorin Dr. Roslyn Henry von der Universität Aberdeen betont, dass sich aus der Studie keinesfalls ableiten lasse, dass von großen Naturschutzflächen Abstand genommen werden sollte: „Die Ausweisung von Schutzgebieten gehört zu den wichtigsten Instrumenten zum Erreichen der Biodiversitätsziele. Sie muss aber mit Bedacht umgesetzt werden, um sicherzustellen, dass sie die Ernährungssicherheit und Gesundheit der Bevölkerung nicht gefährdet, insbesondere in den ärmeren Regionen der Welt.“ Professor Mark Rounsevell, Forscher am IMK-IFU und ebenfalls Autor der Studie, fügt hinzu: „Die Untersuchung zeigt, wie wichtig es ist, die mit der Vergrößerung von Schutzgebieten für den Naturschutz verbundenen Kompromisse zu berücksichtigen. Der Schutz der Natur ist für das Wohlergehen der Menschheit natürlich von entscheidender Bedeutung. Aber Naturschutz muss so umgesetzt werden, dass er sich nicht negativ auf die Nahrungsmittelversorgung auswirkt. Beispielsweise indem die Effizienz der bestehenden Schutzgebiete verbessert wird.“
Studie soll für ungewollte Effekte sensibilisieren
Es sei insgesamt wenig wahrscheinlich, dass viele Länder sich dafür entscheiden, 30Prozent oder gar die Hälfte ihres Territoriums radikal schützen zu wollen, betonen Arneth und Rounsevell: „In Anbetracht der aktuellen Debatte und der Ungewissheit über die Form, die Schutzgebiete annehmen sollten, spürt die Modellstudie dem extremen Ende der Erhaltungsmaßnahmen nach und gibt Aufschluss über mögliche Kompromisse, die gefunden werden müssen – und die auch existieren.“ Die Quantifizierung solcher Zielkonflikte soll die Planung, Verhandlung und Umsetzung von Schutzmaßnahmen unterstützen, und so dabei helfen, unerwünschte, negative Nebeneffekte zu vermeiden. (mhe)
Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 600 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 23 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.
Diese Presseinformation ist im Internet abrufbar unter: https://www.kit.edu/kit/presseinformationen.php
Wissenschaftliche Ansprechpartner:
Kontakt für diese Presseinformation:
Dr. Martin Heidelberger, Pressereferent, Tel.: +49 721 608-41169, E-Mail: martin.heidelberger@kit.edu
Originalpublikation:
https://www.kit.edu/kit/pi_2022_009_landnutzung-pladoyer-fur-einen-gerechten-art…
Weitere Informationen:
Originalpublikation
Roslyn C. Henry, Almut Arneth, Martin Jung, Sam S. Rabin, Mark D. Rounsevell, Frances Warren, Peter Alexander: Global and regional health and food security under strict conservation scenarios; Nature Sustainability, 2022. DOI: 10.1038/s41893-021-00844-x
https://www.nature.com/articles/s41893-021-00844-x
Details zum KIT-Zentrum Klima und Umwelt: https://www.klima-umwelt.kit.edu
Gesünderes Licht für Schichtarbeit
Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Künstliches Licht in der Nacht und Mangel an Tageslicht verschlechtern die Gesundheit und das Wohlbefinden von Schichtarbeitern. Ein HM-Forschungsteam entwickelte ein Beleuchtungs- und Automatisierungssystem für gesündere Lichtverhältnisse in der industriellen Produktion.
Natürliches Tageslicht synchronisiert als Zeitgeber täglich die innere Uhr und beeinflusst unter anderem über das Hormon Melatonin die Schlafqualität. Durch den Einsatz künstlichen Lichts nimmt die Notwendigkeit ab, den natürlichen Schlaf-Wach-Rhythmus einzuhalten. Eine mögliche Folge: Die innere Uhr kommt „aus dem Takt“, was man auch als Chronodisruption bezeichnet. Insbesondere Langzeit-Nachtschichtarbeiter sind vermehrt künstlichen Lichtquellen zu ungünstigen Tageszeiten ausgesetzt und tragen dadurch ein erhöhtes Risiko für Chronodisruption. Die Folgen können unter anderem Störungen der Leistungsfähigkeit, des Stoffwechsels, und des Herz-Kreislauf-Systems sein. Für gesündere Lichtverhältnisse entwarfen die HM-Wissenschaftler Johannes Zauner und Prof. Dr. Herbert Plischke von der Fakultät für angewandte Naturwissenschaften und Mechatronik mit dem Lichtplanungsbüro 3lpi ein Lichtsystem für Schichtarbeiter in der industriellen Produktion.
Berücksichtigung der Effekte nicht-visuellen Lichts am Schichtarbeitsplatz
Neben den Wirkungen des visuell wahrnehmbaren Lichts, hat auch nicht-visuelle Strahlung gesundheitliche Effekte, wie etwa die Steuerung des zirkadianen, das heißt des tageszeitabhängigen Rhythmus und des Schlaf-Wach-Rhythmus. Jene beeinflusst auch die kognitive Leistungsfähigkeit. Verantwortlich für die Aufnahme nicht-visueller Strahlung sind lichtsensible Ganglienzellen in der Retina des Auges, die für blaues Licht empfindliches Melanopsin enthalten. Bei der Entwicklung eines neuen Beleuchtungssystems für Schichtarbeitende integrierte das HM-Team den aktuellen Wissensstand über diese nicht-visuellen Strahlungseffekte: Zunächst erfassten die Forscher die Beleuchtung einer Produktionsstätte in einer etwa 130 Quadratmeter großen Industriehalle auf nicht-visuelle sowie grundlegende, visuelle Aspekte. Dazu gehören die nicht-visuellen Reizstärke in Augenhöhe der Arbeitnehmer (MEDI) sowie die horizontale Beleuchtungsstärke in ihrem Arbeitsbereich, ein Maß für die Arbeitsplatzhelligkeit.
3lpi- und HM-Team entwickeln Leuchte „Drosa“ mit dosierbarem Licht
Auf Basis ihrer Untersuchungen entwickelten die Projektpartner die Zwei-Komponenten-Leuchte „Drosa“, eine Kombination von zwei blendfreien LED-Leuchten mit, in ihrem Winkel verstellbaren, Flügeln. Ein individuell programmiertes Automatisierungssystem steuert bei Drosa die Lichtdosierung und den zeitlichen Ablauf des Strahlungsspektrums während des Tages und der Nacht. Durch die Automation wird das Lichtspektrum, die Bestrahlungsstärke und der Raum- und Einfallswinkel durch die Relation der Komponenten zueinander aufeinander abgestimmt – diese sind alle Einflussfaktoren für die nichtvisuelle Reizstärke. Die Leuchtenflügel können frei in jedem Winkel zwischen Null und 90 Grad verstellt werden.
Weniger Anstrengung beim Arbeiten
Drosa verringert die kognitive Anstrengung beim Arbeiten. Ist der nichtvisuelle Reiz am Morgen hoch, wird die innere Uhr auf den normalen Tagesablauf synchronisiert und Mitarbeiter werden schneller wach und aufmerksam. Das erfolgt durch einen hohen Blauanteil im kalt-weißen Licht der LED-Strahler. Am Abend wird der nichtvisuelle Reiz auf den Mitarbeiter hingegen minimiert, während das Werkstück dagegen heller beleuchtet wird als es bei der Bestandsbeleuchtung der Fall war. Im Ergebnis wird die innere Uhr des Menschen und damit auch seine hormonellen Rhythmen durch Langzeitnachtschicht nur noch minimal verschoben. Das trägt zu einem guten Schlaf nach der Arbeit und einer erhöhten Langzeitgesundheit bei.
Lichtsystem Drosa in vielfältigen Branchen mit Schichtarbeit anwendbar
„Das wichtige Ziel ist es, den zirkadianen Rhythmus von Arbeitnehmern in den Schichten zu stärken und zu stabilisieren und somit der Chronodisruption entgegenzuwirken“, so Zauner und Plischke. Das Prinzip der Leuchte Drosa und des nicht-visuellen Simulationsverfahren könnten aber nicht nur für die Schichtarbeit in der Industrie zur Anwendung kommen, sondern auch bei nächtlicher Büroarbeit, in Pflegeheimen und anderen Arbeitsbereichen, in denen die negativen Folgen von Schichtarbeit für die Nutzer gemildert werden sollen.
Realisiert wurde das Forschungsprojekt der HM im Zeitraum 2018-2021, initiiert von der Verwaltungs-Berufsgenossenschaft (VBG), in Kooperation mit dem Unternehmen RHI Magnesita und dem Lichtplanungs- und Ingenieurbüro 3lpi lichtplaner + beratende Ingenieure.
Johannes Zauner
Johannes Zauner ist seit 2015 wissenschaftlicher Mitarbeiter der Hochschule München und promoviert seit 2018 in Kooperation mit der LMU in Humanbiologie mit dem Fokus „Licht und Gesundheit“. Darüber hinaus ist er freier Partner des Münchner Lichtplanungs- und Ingenieurbüros 3lpi, Mitglied und Sprecher des technisch-wissenschaftlichen Ausschuss (TWA) der Deutschen Lichttechnischen Gesellschaft (LiTG) für melanopische Lichtwirkungen, sowie Mitglied des Expertenforum Innenbeleuchtung (EFI).
Prof. Dr. Herbert Plischke
Herbert Plischke ist seit 2013 Professor an der Fakultät für Angewandte Naturwissenschaften und Mechatronik der Hochschule München mit dem Fachgebiet „Licht und Gesundheit“ und Medizintechnik, seit 2021 ist er Lehrbeauftragter der HM. Plischke ist außerdem Mitglied im Normungsausschuss DIN FNL 27 „Licht und Gesundheit“, im Ethikbeirat eines Demenzzentrums, Fellow im Netzwerk „Ageing Research“ der Universität Heidelberg sowie im Beirat des Instituts für Qualität in der Pflege (IQP).
Wissenschaftliche Ansprechpartner:
Johannes Zauner
E-Mail: johannes.zauner@hm.edu
Prof. Dr. Herbert Plischke
E-Mail: herbert.plischke@hm.edu
Originalpublikation:
Zauner, J.; Plischke, H. Designing Light for Night Shift Workers: Application of Nonvisual Lighting Design Principles in an Industrial Production Line. Appl. Sci. 2021, 11, 10896. https://doi.org/10.3390/app112210896
Weitere Informationen:
https://zenodo.org/record/5789009#.YfwRAt8xlaR Preprint der Studie
Wasser in Berlin: Gewässer- und Flächenmanagement gemeinsam betrachten
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Viele Städte müssen sich auf zwei Herausforderungen einstellen: Der Wasserbedarf steigt, die Verfügbarkeit sinkt. Konflikte bei der Wasserverteilung betreffen nicht nur die menschliche Nutzung, sondern auch die blaue und grüne Infrastruktur – denn die Gewässer und Grünflächen in der Stadt benötigen Wasser. Die Forschungsgruppe von Professorin Dörthe Tetzlaff vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) untersucht die Wasserflüsse einer Stadt am Beispiel Berlin. Das Team nahm die große Trockenheit der Sommer 2018, 2019 und 2020 in den Fokus.
„Brl“ kommt aus dem Altpolabischen – eine slawische Sprache, die bis etwa zum 12. Jahrhundert in Nordostdeutschland weit verbreitet, aber nie eine Schriftsprache war. Trotzdem sind einige Worte bis heute erhalten geblieben, in Städtenamen wie Berlin beispielsweise. Brl steht für Sumpf oder Morast. Und richtig, Berlin ist auf sandigem Boden gebaut und der Grundwasserspiegel ist in vielen Bezirken hoch. Insbesondere in den Bereichen des Urstromtals wie im südlichen Mahlsdorf und Kaulsdorf, in Johannisthal, in Rudow, in der Rummelsburger Bucht, im Regierungsviertel, am Schloss Charlottenburg, in Siemensstadt und in Wittenau. Aufgrund der eiszeitliche Landschaftsformung ist Berlin sehr gewässerreich.
Eine „Sumpfstadt“ mit wenig Regen:
Andererseits gehört die Region Berlin-Brandenburg zu den niederschlagsärmsten Gegenden Deutschlands. Dies wird sich im Klimawandel noch verschärfen. „Es erscheint als eine etwas paradoxe Situation. Teils sumpfiger Boden durch hohes Grundwasser, viele Gewässer – und trotzdem haben Berlin und Brandenburg mit Wassermangel zu kämpfen“, sagt Dörthe Tetzlaff. Ein Städtevergleich: München hat im langjährigen Jahresmittel 944 mm Niederschlag, Köln 839 mm, Hamburg 793 mm und Berlin 591 mm. Im Jahr 2018 waren es in Berlin sogar nur 312 mm Niederschlag, ein Allzeit-Negativrekord.
Dörthe Tetzlaffs Team hat verschiedene Komponenten des Wasserhaushalts in Berlin in den Trockenjahren 2018 bis 2020 untersucht. Dabei betrachteten die Forschenden die Wasserflüsse von der Atmosphäre, der Vegetation, des Grundwassers, des Bodenwassers und der Oberflächengewässer in hoher räumlicher und zeitlicher Auflösung mittels stabiler Wasserisotope. Mit dieser Herangehensweise kann man den „Fingerabdruck“ von Wasser, und damit dessen Herkunft, das Alter und den Verbleib in der Landschaft detailliert bestimmen.
Grünflächen-Mosaik: Sträucher stabilisieren das Grundwasser, Bäume bringen Verdunstungskühle:
Pflanzen spielen eine wichtige Rolle im Wasserkreislauf. In Berlin machen Grünflächen mit etwa 30 Prozent einen bedeutenden Anteil der Stadtfläche aus. Das Team untersuchte, welche Art der Vegetation den Rückhalt von Wasser im Boden fördert und somit den Grundwasserspiegel stabilisiert. „Bäume spielen natürlich eine wichtige Rolle für das Stadtklima – sie spenden Schatten, produzieren Sauerstoff und bringen im Sommer einen Kühlungseffekt, weil Wasser über die Blattflächen verdunstet. Wichtig ist, dass Verdunstung und Grundwasserneubildung in enger Wechselwirkung stehen. Große Bäume verdunsten oft mehr Wasser, daher der große Kühlungseffekt. Es steht aber weniger Wasser zur Grundwasserneubildung zur Verfügung. Wir konnten zeigen, dass ein ,Grünflächen-Mosaik‘ aus Sträuchern – die in Trockenzeiten das Wasser besser im Boden halten – und Bäumen am besten gegen extreme Trockenheit gewappnet ist“, erläutert Dörthe Tetzlaff.
In den Untersuchungen gaben große Bäume nämlich mehr Feuchtigkeit über die Blätter ab und zogen auch mehr Wasser aus den tiefen Bodenschichten, sodass Niederschlag dort kaum zur Neubildung von Grundwasser führte. Grünflächen mit Sträuchern gaben etwa 17 Prozent weniger Feuchtigkeit durch Verdunstung über ihre Blätter an die Atmosphäre ab. Sie bezogen auch kein Wasser aus den tieferen Bodenschichten, da sie flacher wurzeln. Über Rasen verdunstete etwa die gleiche Menge Wasser wie bei Bäumen, trotz geringerer Wurzeltiefe und Blättermasse.
Außerdem zeigte sich, dass Berlins Grünflächen während Trockenzeiten einen geringen Austausch mit Oberflächengewässern und dem Grundwasser haben. „Grüne Wasserflüsse“, wie Verdunstung, sind also die dominanten Komponenten der Wasserbilanz. Das muss bei einem nachhaltigen Management beachtet werden, um zukünftig urbane Grünflächen zu erhalten und gleichzeitig Wasserressourcen zu schonen.
Die Erpe führt in Trockenperioden vor allem gereinigte Abwässer – die Panke ebenfalls:
Aber wie wichtig ist das Grundwasser für diese Stadt? Die Berliner Senatsverwaltung für Umwelt, Mobilität, Verbraucher- und Klimaschutz (SenUVK) hat den Grundwasserstand immer im Blick – schließlich gilt es sowohl wichtige Feuchtbiotope zu erhalten und gleichzeitig zu verhindern, dass es zu nassen Kellern und Grundbruch kommt. Außerdem wird das gesamte Wasser für die öffentliche Wasserversorgung und der größte Teil des Brauchwassers aus dem Grundwasser des Stadtgebietes gewonnen.
Auch die Flüsse Berlins speisen sich aus dem Grundwasser – aber vorwiegend im Winterhalbjahr, wie die IGB-Nachwuchsforscherin Lena-Marie Kuhlemann herausgefunden hat. Die Doktorandin aus der Forschungsgruppe von Dörthe Tetzlaff untersuchte im 220 Quadratkilometer großen Einzugsgebiet der Erpe die Rolle von Grundwasser, Niederschlag, geklärten Abwässern und städtischem Abfluss für die trockenen Jahre 2018 und 2019.
Im Winter vor allem durch Grundwasser gespeist, führt die Erpe in Trockenperioden im Sommer hauptsächlich geklärte Abwässer durch die Einleitungen der zwei kommunalen Kläranlagen. Wasser aus Niederschlägen und städtischen Wassereinträgen machten weniger als 10 Prozent des Abflusses der Erpe aus, obwohl das Einzugsgebiet zu etwa 20 Prozent städtisch ist. Der hohe Anteil an geklärtem Abwasser kann Auswirkungen auf die Umweltqualität und die Ökosystemleistungen haben und ist damit auch ein wichtiger Aspekt für die Behandlung von kommunalem Abwasser. „Wenn gereinigte Abwässer in ein Oberflächengewässer eingeleitet werden, können Spurenstoffe und Nährstoffe eingetragen werden. Dies beeinflusst die Gewässerqualität insbesondere, wenn gleichzeitig wenig ‚natürliches Wasser´ ins Gewässer gelangt“, erläutert Lena-Marie Kuhlemann.
Überarbeitung der EU-Richtlinie über die Behandlung von kommunalen Abwässern:
Christian Marx, ebenfalls ein Nachwuchswissenschaftler im Forschungsteam, ist für die Panke zu ähnlichen Ergebnissen gekommen. Die Panke ist nach Spree und Havel der drittlängste Fluss im Berliner Stadtgebiet. Der obere Teil des Einzugsgebiets wird zu rund 75 Prozent von Grundwasser aus Kiesgrundwasserleitern gespeist. Bei starkem Regen ist dieser die Hauptquelle für das Wasser der Panke. Insgesamt macht das Wasser aus Niederschlägen allerdings nur 10 bis 15 Prozent des jährlichen Wasserflusses aus. Flussabwärts wird der Fluss von verschiedenen Nebenflüssen beeinflusst. Die Abwässer einer Kläranlage prägen jedoch mit 90 Prozent den Wasserfluss im unteren Einzugsgebiet, wo die Auswirkungen der Verstädterung am stärksten sind. Die damit verbundene Zunahme der versiegelten Flächen flussabwärts verringert auch den relativen Beitrag des Grundwassers.
Die Europäische Kommission führte im letzten Jahr eine Konsultation zur Überarbeitung der EU-Richtlinie über die Behandlung von kommunalem Abwasser (UWWTD) durch. „Der zunehmende Anteil von geklärten Abwässern in Oberflächengewässern durch Trockenheit und Versiegelung ist ein wichtiger Aspekt für die Anpassung dieser EU-Richtlinie“, resümiert Dörthe Tetzlaff.
Spree, Dahme, Havel: Verdunstungsverluste in flussaufwärts gelegenen Einzugsgebieten:
Bei den drei großen Flüssen in Berlin – Spree, Dahme, Havel – ist weniger der Anteil an geklärtem Abwasser problematisch; sie haben mit anderen Herausforderungen zu kämpfen: Bevor die Flüsse im Stadtgebiet von Berlin ankommen, ist bereits viel Wasser verdunstet, wie Isotopenanalysen ergaben. Insbesondere mit Blick auf das Ende des Tagebaus in der Lausitz im oberen Einzugsgebiet der Spree und den Klimaänderungen wird es wichtig sein, den Wasserhaushalt der stromaufwärts gelegenen Einzugsgebiete mit einzubeziehen, um durch nachhaltige Nutzungsstrategien Wasserverluste zu minimieren und den Zufluss in der Spree nach Berlin aufrechtzuerhalten. „Einfache Messprogramme mittels Isotopen können in Zukunft helfen, die Verdunstungsverluste auch über größere Gebiete hinweg besser zu quantifizieren“, sagt Dörthe Tetzlaff.
Ein Blick nach Brandenburg zeigt „Dürre-Gedächtniseffekte“:
Das Team betreibt auch ein Freiland-Observatorium im Demnitzer Mühlenfließ im Osten Brandenburgs. Im Dürrejahr 2018 fielen dort im Vergleich zum langjährigen Mittel 30 Prozent weniger Niederschlag. In den beiden darauffolgenden, ebenfalls trockenen Jahren 2019 und 2020 waren es jeweils noch 10 bis 15 Prozent weniger als die langjährigen Mittel. Auch in der ersten Jahreshälfte in 2021 regnete es noch zu wenig. Doch wie wirken sich solche Trockenphasen auf die Wasserressourcen aus? Und wie viel Niederschlag wäre nötig, um den Mangel auszugleichen? Die Messdaten zeigen, dass die Grundwasserneubildung zeitversetzt geschieht. So erreichte der Grundwasserspiegel erst 2020 seinen tiefsten Wert nach dem Dürresommer 2018. Er lag mehr als 20 Prozent – das heißt 40 Zentimeter – unter dem normalen Grundwasserstand. Auch heute, Anfang 2022, ist trotz der erhöhten Niederschläge der letzten Wochen, immer noch zu wenig Grundwasser vorhanden. Ähnlich ist es bei der Feuchte des Oberbodens: Die jüngsten Regenfälle haben nicht dazu geführt, dass die Böden genug Wasser aufnehmen konnten. Im Vergleich zum Mittel der letzten 13 Jahre fehlen noch etwa 15 Prozent.
„Unsere integrierten Messungen und Modellierungen zeigen, dass wir mindestens vier Jahre an durchschnittlichen Regenmengen bräuchten, also in dieser Region etwa 600 mm pro Jahr, damit sich die Grundwasserspiegel auf Vor-Dürre-Niveau erholen könnten, und ein Jahr, um die Bodenwasserspeicher wieder aufzufüllen“, prognostiziert Dörthe Tetzlaff. Zunehmende Extremereignisse wie Dürren erfordern daher sowohl in der Stadt, als auch im Umland Strategien, die an die Wasserverfügbarkeit angepasst sind und die Widerstandsfähigkeit gegenüber dem Klimawandel erhöhen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Dörthe Tetzlaff
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
doerthe.tetzlaff@igb-berlin.de
Originalpublikation:
Lena-Marie Kuhlemann, Doerthe Tetzlaff, Chris Soulsby (2021). Spatio-temporal variations in stable isotopes in peri-urban catchments: A preliminary assessment of potential and challenges in assessing streamflow sources, Journal of Hydrology, Volume 600, 2021, 126685, ISSN 0022-1694. https://doi.org/10.1016/j.jhydrol.2021.126685.
Weitere Informationen:
https://www.igb-berlin.de/news/wasser-berlin
Blutdruck im Alter: Je höher – desto besser? Höhere Zielwerte bei gebrechlichen Personen können vorteilhaft sein
Daniela Stang Presse- und Öffentlichkeitsarbeit
Universität Ulm
Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm kommen in einer neuen Studie zu dem Schluss, dass das Sterberisiko von älteren Personen mit Bluthochdruck stark von dem Faktor „Gebrechlichkeit“ abhängt. Bei stark gebrechlichen Personen könnte ein höherer Blutdruck sogar von Vorteil sein.
In einer neuen Studienarbeit haben Forschende der Universität Ulm und der Agaplesion Bethesda Klinik Ulm die Sterblichkeit von älteren Personen im Zusammenhang mit dem systolischen Blutdruck und dem Faktor „Gebrechlichkeit“ untersucht. Das Ergebnis: Das durch einen höheren systolischen Blutdruck bedingte Sterberisiko im Alter unterscheidet sich stark je nach der individuellen Fitness der Personen. Erschienen ist die Untersuchung in „Hypertension“, einem kardiovaskulären Fachjournal, das von der American Heart Association herausgegeben wird.
Mit zunehmendem Lebensalter nimmt das Risiko für Bluthochdruck (Hypertonie) zu, da unter anderem die Gefäße an Elastizität verlieren. Mit dem Blutdruck steigt das Risiko für Herz-Kreislauf-Erkrankungen wie Schlaganfall oder Herzinfarkt. Deshalb zählt Hypertonie zu den großen vier Risikofaktoren. Rund dreiviertel aller 75-Jährigen leiden an Bluthochdruck. Deshalb gilt die Empfehlung, den systolischen Blutdruck meist medikamentös auf unter 140 mmHg zu senken. Jedoch kann eine starke Absenkung des Blutdrucks im Alter mit negativen Ereignissen wie Stürzen zusammenhängen. Dies ist auf die zunehmende autonome Dysregulation zurückzuführen. Das heißt, dass das körpereigene Kontrollsystem aus dem Gleichgewicht geraten ist. Dies kann im Zusammenspiel mit Störungen der venösen Durchblutung zu einem langanhaltenden Blutdruckabfall nach dem Aufstehen führen. Gleichzeitig gibt es Hinweise auf eine Verschlechterung der kognitiven Fähigkeiten, wenn der systolische Blutdruck bei Älteren deutlich unter 130 mmHg gesenkt wird. Auch andere Nebenwirkungen von blutdrucksenkenden Medikamenten wie Reizhusten, Allergien und Verdauungsprobleme sind bekannt.
„Heutzutage wird der Nutzen der intensiven Behandlung der arteriellen Hypertonie, also des Bluthochdrucks im höheren Alter, kontrovers diskutiert. Noch existieren keine einheitlichen Empfehlungen in den vorhandenen Leitlinien. Mit unserer Untersuchung wollen wir einen Beitrag leisten und die Datenlage verbessern“, erklärt PD Dr. Dhayana Dallmeier, Leiterin der Forschungsabteilung an der Agaplesion Bethesda Klinik Ulm. Aus diesem Grund haben Dallmeier und das Team rund um Erstautor Kaj-Marko Kremer die Sterblichkeit von Älteren in Bezug mit dem Blutdruck und der Gebrechlichkeit gesetzt. In der Untersuchung griffen die Forschenden auf die Daten von über 1100 Teilnehmenden (mittleres Alter 73,9 Jahre, 41,6 Prozent Frauen) der ActiFE-Studie Ulm zurück, die vor allem die körperliche Aktivität bei Personen über 65 Jahren erfasst. Die Wissenschaftlerinnen und Wissenschaftler konnten feststellen, dass die Gebrechlichkeit das Sterberisiko stark beeinflusst. So lag bei „fitteren“ Personen das geringste Sterberisiko bei einem systolischen Blutdruck von 130 mmHg, wie auch in den aktuellen Leitlinien angegeben. Weiterhin zeigte die Untersuchung, dass bei stark gebrechlichen Älteren das Sterberisiko mit einem höheren Blutdruck tendenziell sogar sank. Das geringste Risiko verzeichneten gebrechlichen Personen mit einem Blutdruck von 160 mmHg oder höher. „Wie wir beobachten können, verläuft das Altern von Mensch zu Mensch sehr unterschiedlich. Neben den fitten und sportlich aktiven Über-80-Jährigen gibt es gebrechliche und wenig belastbare 70-Jährige. Unsere Untersuchung bestätigt, wie wichtig dieser Umstand im Alter, beispielsweise in Bezug auf die Anwendung differenzierter Behandlungsansätzen, sein kann“, so Erstautor Kaj-Marko Kremer. Die Autorinnen und Autoren der Studienarbeit raten dazu, die körperliche und kognitive Fitness im Alter bei der patientenspezifischen Behandlung der arteriellen Hypertonie zu beachten und bei der Erarbeitung von neuen Richtlinien einfließen zu lassen.
Für ihre Untersuchung griffen die Forschenden auf Daten der ActiFE-Studie (Activity and Function in the Elderly in Ulm) zurück, die an der Agaplesion Bethesda Klinik Ulm in Zusammenarbeit mit dem Institut für Epidemiologie und Medizinische Biometrie an der Universität Ulm seit 2009 durchgeführt wird. Diese Studie wurde teilweise mit Mitteln der Deutschen Forschungsgemeinschaft (DFG) finanziert.
Wissenschaftliche Ansprechpartner:
PD Dr. Dhayana Dallmeier Ph.D., Leiterin der Forschungsabteilung, Agaplesion Bethesda Klinik Ulm, Tel.: 0731/1897190, dhayana.dallmeier@agaplesion.de
Originalpublikation:
Systolic Blood Pressure and Mortality in Community-Dwelling Older Adults: Frailty as an Effect Modifier; Kaj-Marko Kremer, Ulrike Braisch, Dietrich Rothenbacher, Michael Denkinger, Dhayana Dallmeier and for the ActiFE Study Group; Hypertension. 2022;79:24–32
https://doi.org/10.1161/HYPERTENSIONAHA.121.17530
Wie Menschen lernen, sich beim Denken gerne anzustrengen
Anne-Stephanie Vetter Pressestelle
Technische Universität Dresden
Menschen gehen gerne den Weg des geringsten Widerstands, wenn es um kognitive Anstrengung geht – eine gängige Lehrmeinung in der Kognitionspsychologie. Forschende der Universität Wien und der Technischen Universität Dresden kommen nun zu einem diametral anderen Fazit: Bekommen Personen einmal eine Belohnung für ihre Denkleistung, wählen sie später auch dann herausfordernde Aufgaben, wenn sie keine Belohnung für ihre kognitiven Anstrengung mehr erhalten. Die Studie ist aktuell in der Fachzeitschrift Proceedings of the National Academy of Science (PNAS) erschienen.
Viele außergewöhnliche menschliche Fähigkeiten wie das Lesen, das Beherrschen eines Musikinstruments oder das Programmieren komplexer Software erfordern tausende Stunden des Übens und ständige kognitive Anstrengung. In den vorherrschenden wissenschaftlichen Theorien wird die Meinung vertreten, dass kognitive Anstrengung als unangenehm erlebt wird und Menschen versuchen, wann immer möglich diese zu vermeiden.
Allerdings gibt es im Alltag viele Situationen, in denen sich Menschen scheinbar freiwillig anstrengen, selbst wenn es keine offensichtliche äußere Belohnung dafür gibt. So macht es vielen Menschen Spaß, Sudokus zu lösen, Studierende werden oft durch anspruchsvolle intellektuelle Aufgaben motiviert und Amateurpianist:innen können sich stundenlang um Perfektion bemühen, ohne dass sie, von außen betrachtet, dafür belohnt werden. In jüngster Zeit haben einige Wissenschafter:innen kritisch hinterfragt, ob kognitive Anstrengung wirklich immer etwas Negatives ist und argumentieren stattdessen, dass herausfordernde kognitive Tätigkeiten unter bestimmten Umständen als lohnend und wertvoll erlebt werden. Studien dazu fehlten bislang.
In einem aktuellen Projekt des Sonderforschungsbereichs (SFB) 940 „Volition und kognitive Kontrolle“ widmeten sich nun Forschende der Universität Wien und der Technischen Universität Dresden dieser Frage. Unter der Leitung von Veronika Job, Thomas Goschke und Franziska Korb haben die Teams erstmals unter kontrollierten Bedingungen untersucht, ob Menschen, die die Erfahrung machen, dass sich Anstrengung lohnt (d.h. die in einer kognitiven Aufgabe für ihre Anstrengungsbereitschaft belohnt wurden), auch bei anderen neuen Aufgaben bereit sind, sich stärker anzustrengen und von sich aus schwierigere Aufgaben wählen als Personen einer Vergleichsgruppe – selbst wenn sie wussten, dass sie dabei keinerlei weitere Belohnung erhalten werden.
Schon nach einmaliger Belohnung steigt die Bereitschaft zur Anstrengung
Im einem ersten Experiment mit 121 Testpersonen erhoben Georgia Clay und Christopher Mlynski mit Hilfe von kardiovaskulären Messungen (Aktivität des Herzens), wie sehr sich jemand bei verschiedenen kognitiven Aufgaben in einer Trainingsphase anstrengt. Die Belohnung wurde dabei direkt durch die Anstrengung bestimmt: Wenn sich eine Person bei schwierigen Aufgaben mehr angestrengt hatte, erhielt sie eine höhere Belohnung als bei einfachen Aufgaben, in denen sie sich nur wenig angestrengt hatte. In der Vergleichsgruppe wurde die Belohnung zufällig zugeteilt und war unabhängig davon, wie sehr sich jemand angestrengt hatte. Beide Gruppen erhielten gleich viel Belohnung, aber nur die eine wurde gezielt für die Anstrengung belohnt, die anderen nicht. Im Anschluss bearbeiteten alle Testpersonen Mathematikaufgaben, bei denen sie selbst die Schwierigkeitsstufe der Aufgaben auswählen konnten, die sie bearbeiten wollten. Fazit: „Personen, die zuvor für Anstrengung belohnt worden waren, wählten im Anschuss schwierigere Aufgaben als Personen der Vergleichsgruppe, obwohl ihnen bewusst war, dass sie keine externe Belohnung mehr erhalten würden“, erklärt Prof. Veronika Job von der Fakultät für Psychologie der Universität Wien.
Weitere Experimente bestätigen Ergebnisse
Um zu untersuchen, ob sich die Effekte einer anstrengungsabhängigen Belohnung erneut zeigen und verallgemeinern lassen, wurden fünf weitere Experimente mit insgesamt 1.457 Testpersonen online durchgeführt. Dabei erhielten die Personen in der Experimentalgruppe für schwierige Aufgaben eine höhere Belohnung als für leichte Aufgaben, unabhängig davon, wie gut sie die Aufgaben gelöst hatten. Die Belohnung hing also wieder von der notwendigen kognitiven Anstrengung und nicht von der Leistung der Teilnehmenden ab. Es zeigte sich erneut, dass eine anstrengungsabhängige Belohnung dazu führte, dass die Personen in einer nachfolgenden Testphase, in der sie Aufgaben wieder frei wählen konnte, die schwierigeren Aufgaben bevorzugten, die mehr kognitive Anstrengung erforderten.
Diese Ergebnisse stellen die weit verbreitete Auffassung in aktuellen Theorien der Kognitiven Psychologie und der Neurowissenschaften in Frage, dass Anstrengung stets als unangenehm und kostspielig erlebt wird. „Dass Menschen den Weg des geringsten Widerstands gehen möchten, ist also möglicherweise keine universelle Eigenschaft menschlicher Motivation. Die Neigung, anspruchsvolle Aufgaben zu vermeiden, könnte vielmehr das Ergebnis individueller Lerngeschichten sein, die sich je nach Belohnungsmuster unterscheiden: wurde vor allem die Leistung oder aber die Anstrengung belohnt“, schließt Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden und Sprecher des SFB 940.
Der Sonderforschungsbereich 940 „Volition und kognitive Kontrolle“
Der Sonderforschungsbereich (SFB) 940 „Volition und kognitive Kontrolle“ wurde im Jahr 2012 eingerichtet und befindet sich aktuell in seiner 3. Förderperiode. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Zentrum bündelt Kompetenzen aus den Feldern Experimentelle Psychologie, Kognitiv-Affektive Neurowissenschaften und Neuroimaging, Klinische Psychologie, Psychiatrie und Neurologie, um Mechanismen, Modulatoren und Dysfunktionen der Willenskontrolle auf psychologischer und neuronaler Analyse-Ebene zu untersuchen. Basierend auf einem interdisziplinären Netzwerk ist der SFB 940 bestrebt, nicht nur das Verständnis der grundlegenden Mechanismen der willentlichen Handlungssteuerung zu erweitern, sondern langfristig die Grundlagen für eine verbesserte Prävention und Therapie von Beeinträchtigungen willentlicher Handlungssteuerung bei psychischen Störungen zu schaffen. Sprecher ist Prof. Dr. Thomas Goschke, Professor für Allgemeine Psychologie an der TU Dresden. https://tu-dresden.de/bereichsuebergreifendes/sfb940
Wissenschaftliche Ansprechpartner:
Prof. Thomas Goschke
Sprecher des SFB 940
Professor für Allgemeine Psychologie
TU Dresden
Email: thomas.goschke@tu-dresden.de
Prof. Veronika Job
Fakultät für Psychologie
Universität Wien
Email: veronika.job@univie.ac.at
Originalpublikation:
Georgia Clay, Christopher Mlynski, Franziska Korb, Thomas Goschke und Veronika Job: Rewarding cognitive effort increases the intrinsic value of mental labor,
In: Proceedings of the National Academy of Science (2022). Veröffentlichungsdatum: 28. Januar 2022.
Morgensport vs. Abendsport: Forschende entschlüsseln die unterschiedlichen Auswirkungen auf unsere Gesundheit
Verena Schulz Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Bewegen wir unseren Körper, sendet dieser Hunderte verschiedener Signale aus, die unsere Gesundheit in vielerlei Hinsicht fördern. Forschende haben nun am Mausmodell untersucht, welchen Einfluss die Tageszeit auf die Freisetzung organspezifischer Signale nach körperlicher Betätigung hat. Die Ergebnisse haben sie in einem „Atlas des Bewegungsstoffwechsels“ zusammengefasst – ein wichtiger Schritt für wirksamere Sporttherapien, die auf unsere innere Uhr abgestimmt sind.
Dass Bewegung die Gesundheit fördert, ist allgemein bekannt. Jüngste Forschungsergebnisse haben gezeigt, dass die Auswirkungen von Bewegung auf den Körper je nach Tageszeit unterschiedlich sind. Warum dies so ist, wurde noch nicht vollständig erforscht. Ein internationales Forschungsteam unter Leitung von Helmholtz Munich und dem Karolsinka-Institut in Schweden veröffentliche nun eine umfassende Studie zu diesem Thema in der Fachzeitschrift Cell Metabolism. Ihre Forschungen zeigen, wie der Körper nach dem Sport je nach Tageszeit und organabhängig unterschiedliche gesundheitsfördernde Signale produziert. Diese Signale haben weitreichende Auswirkungen auf die Gesundheit und beeinflussen den Schlaf, das Gedächtnis, die körperliche Leistungsfähigkeit und das Gleichgewicht unseres Stoffwechsels.
„Wenn wir besser verstehen, wie sich Bewegung zu verschiedenen Tageszeiten auf den Körper auswirkt, könnte dies Menschen mit einem erhöhten Risiko für Krankheiten wie Adipositas und Typ-2-Diabetes zugutekommen“, so Juleen R. Zierath vom Karolinska-Institut und dem Novo Nordisk Foundation Center for Basic Metabolic Research an der Universität Kopenhagen.
Atlas des Bewegungsstoffwechsels
Fast alle Zellen regulieren ihre biologischen Prozesse über einen Zeitraum von 24 Stunden, in der Wissenschaft bekannt als zirkadianer Rhythmus. Das bedeutet, dass sich die Empfindlichkeit der verschiedenen Gewebe gegenüber den Auswirkungen von Bewegung je nach Tageszeit ändert. Frühere Forschungsarbeiten haben bestätigt, dass die gesundheitsfördernde Wirkung von Bewegung optimiert werden kann, wenn sie zeitlich auf unseren zirkadianen Rhythmus abgestimmt ist.
Das internationale Forschungsteam wollte diesen Effekt genauer verstehen und führte daher eine Reihe von Untersuchungen an Mäusen durch, die entweder am frühen Morgen oder am späten Abend trainierten. Die Forschenden sammelten und analysierten Blutproben und verschiedene Gewebeproben von Hirn, Herz, Muskel, Leber und Fett. Auf diese Weise konnten sie Hunderte verschiedener Stoffwechselprodukte und Hormonsignalmoleküle in jedem Gewebe nachweisen und verfolgen, wie sie sich durch das Training zu unterschiedlichen Tageszeiten veränderten.
Das Ergebnis ist ein „Atlas des Bewegungsstoffwechsels“ – eine umfassende Karte von Signalmolekülen, die in unterschiedlichen Geweben nach körperlicher Belastung zu verschiedenen Tageszeiten vorhanden sind.
„Dies ist die erste Studie, die den Stoffwechsel in Abhängigkeit von Bewegung und Tageszeit über mehrere Gewebe hinweg beschreibt. Wir verstehen jetzt besser, wie Bewegung gestörte zirkadiane Rhythmen, die mit Adipositas und Typ-2-Diabetes in Verbindung stehen, neu ausrichten kann. Unsere Ergebnisse werden neue Studien ermöglichen, die den richtigen Zeitpunkt körperlicher Belastung für Therapien und die Prävention von Krankheiten erforschen“, sagt Dominik Lutter, der die Studie seitens Helmholtz Munich leitete und sowohl am Helmholtz Diabetes Center als auch beim Deutschen Zentrum für Diabetesforschung (DZD) forscht.
Die Studie ist das Ergebnis einer Zusammenarbeit zwischen der Universität Kopenhagen, dem Karolinska-Institut, der Texas A&M University, der University of California-Irvine und Helmholtz Munich.
Einschränkungen der Studie
Da die Studie an Mäusen durchgeführt wurde, unterliegt sie gewissen Einschränkungen. Mäuse und Menschen teilen zwar viele genetische, physiologische und verhaltensbezogene Merkmale, dennoch gibt es Unterschiede. Mäuse sind beispielsweise von Natur aus nachtaktiv. Außerdem bewegten sich die Mäuse für die Studie nur auf einem Laufband, was zu anderen Ergebnissen führen kann als ein hochintensives Training. Weitere Studien müssen zudem den Einfluss von Geschlecht, Alter und Krankheit auf die Signalproduktion klären.
Originalpublikation
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.
Über Helmholtz Munich
Helmholtz Munich ist ein biomedizinisches Spitzenforschungszentrum. Seine Mission ist, bahnbrechende Lösungen für eine gesündere Gesellschaft in einer sich schnell verändernden Welt zu entwickeln. Interdisziplinäre Forschungsteams fokussieren umweltbedingte Krankheiten, insbesondere die Therapie und die Prävention von Diabetes, Adipositas, Allergien und chronischen Lungenerkrankungen. Mittels künstlicher Intelligenz und Bioengineering transferieren die Forschenden ihre Erkenntnisse schneller zu den Patient:innen. Helmholtz Munich zählt mehr als 2.500 Mitarbeitende und hat seinen Sitz in München/Neuherberg. Es ist Mitglied der Helmholtz-Gemeinschaft, mit mehr als 43.000 Mitarbeitenden und 18 Forschungszentren die größte Wissenschaftsorganisation in Deutschland. Mehr über Helmholtz Munich (Helmholtz Zentrum München Deutsches Forschungszentrum für Gesundheit und Umwelt GmbH): www.helmholtz-muenchen.de
Wissenschaftliche Ansprechpartner:
Helmholtz Munich
Dominik Lutter
Email: dominik.lutter@helmholtz-munich.de
Originalpublikation:
Sato, Dyar, Treebak et al., 2022: Atlas of Exercise Metabolism Reveals Time-Dependent Signatures of Metabolic Homeostasis. Cell Metabolism, DOI: 10.1016/j.cmet.2021.12.016.
https://www.cell.com/cell-metabolism/fulltext/S1550-4131(21)00635-5
Mikroplastik in der Umwelt: Daten reichen nicht aus
Johannes Scholten Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Misst man nur zu einem einzigen Zeitpunkt, wieviel Mikroplastik sich in der Umwelt befindet, so lassen sich daraus keine Rückschlüsse auf den Zerfall und die künftige Verbreitung des Kunststoffs ziehen. Dazu sind vielmehr Zeitreihen der Partikelverteilung erforderlich, wie Physiker der Philipps-Universität Marburg mit Modellrechnungen herausgefunden haben. Die Forscher berichten im Wissenschaftsmagazin „Scientific Reports“ über ihre Ergebnisse.
Messen, messen und wieder messen: Marburger Physiker zeigen, wie sich der Abbau von Kunststoffpartikeln erforschen lässt.
Die weltweite Kunststoffproduktion erreichte im Jahr 2019 einen Umfang von 368 Millionen Tonnen, rechnet der Weltverband der Plastikhersteller vor. Ein großer Teil des Materials gelangt in die Umwelt. Wie der Kunststoff sich dort im Lauf der Zeit verteilt, hängt unter anderem vom Zerfall der Partikel ab. „Bisher weiß man wenig über den Abbau von Mikroplastik“, sagt der Marburger Physiker Professor Dr. Peter Lenz, der die aktuelle Studie leitete.
Messen Kunststoffpartikel weniger als fünf Millimeter im Umfang, nennt man sie Mikroplastik. „Sie werden durch Kosmetika oder andere Gebrauchsprodukte in die Umwelt eingetragen oder entstehen durch die Zersetzung von Plastikmüll“, führt Lenz aus. Die Wissenschaftler nutzten ausgeklügelte Berechnungsverfahren, um herauszufinden, ob aus den derzeit verfügbaren Daten nützliche Informationen über den Zerfall von Mikroplastikpartikeln gewonnen werden können. Lässt sich der Zerfallsprozess erklären, wenn man die Ergebnisse nutzt, die im Gelände gewonnen werden?
„Derzeit liegen meist Daten von Größenverteilungen vor, die zu einzelnen Zeitpunkten gemessen wurden“, berichtet Mitverfasser Timo Metz, der seine Bachelorarbeit in der Arbeitsgruppe von Lenz anfertigte. „Wir haben zunächst mit einem sehr einfachen Modell für den Zerfall von Mikroplastik gearbeitet.“ Mit diesem Modell zeigen die Wissenschaftler, dass es unmöglich ist, alle wichtigen Faktoren für den Zerfall des Kunststoffs aus einer einzigen Größenverteilung zu gewinnen. Denn zerkleinerte Partikel unterscheiden sich in der Größe nicht unbedingt von Plastikteilchen, die neu in die Umwelt gelangen.
Wie müssen die Daten beschaffen sein, um aussagekräftiger zu sein? Das Team ging dieser Frage nach, indem es künstliche, komplexere Daten erzeugte, auf die es das Berechnungsmodell anwendete. „Unsere Analyse ergab einige Mindestanforderungen, die experimentell gewonnene Daten erfüllen müssen“, legt der dritte Koautor dar, der Marburger Physiker Professor Dr. Martin Koch: Die Daten sollten zu mehreren Zeitpunkten an identischen Stellen gesammelt werden, um eine Zeitreihe zu bilden. Außerdem reichen Größenmessungen alleine nicht aus, sie sollten mit der Bestimmung der Massen kombiniert werden.
Das Team gibt außerdem noch weitere Anregungen, wie sich das Vorkommen von Kunststoffteilchen besser als bisher erheben lässt. Unter anderem empfehlen die Forscher, zusätzliche Größenkategorien einzuführen, Messungen an verschiedenen Orten vorzunehmen und Eigenschaften wie Material und Form einzubeziehen, die den Abbauprozess beeinflussen. Alle Daten sollten in Zeitreihen erhoben werden.
Peter Lenz leitet eine Arbeitsgruppe im Fachgebiet „Komplexe Systeme“ des Fachbereichs Physik der Philipps-Universität. Professor Dr. Martin Koch lehrt Physik an der Philipps-Universität Marburg und leitet die Arbeitsgruppe Halbleiterphotonik. Das Land Hessen unterstützte die zugrunde liegende wissenschaftliche Arbeit durch eine LOEWE-Exploration-Förderung.
Originalveröffentlichung:
Timo Metz, Martin Koch & Peter Lenz: Extracting microplastic decay rates from field data, Scientific Reports 2022, DOI: https://doi.org/10.1038/s41598-022-04912-w
Weitere Informationen:
Ansprechpartner: Professor Dr. Peter Lenz,
Fachgebiet Komplexe Systeme
Tel.: 06421 28-24326
E-Mail: peter.lenz@Physik.Uni-Marburg.de
Internet: http://www.uni-marburg.de/de/fb13/komplexe-systeme
Wasserstofftechnologie: Elektrolyseure sollen Massenware werden
Hannes Weik Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Wer Wasserstoff als Energiequelle nutzen will, braucht Elektrolyseure. Doch die sind rar und teuer, weil sie bisher noch weitgehend von Hand gefertigt werden. Damit sie künftig im industriellen Maßstab produziert werden können, entwickelt ein Forschungsteam vom Fraunhofer IPA derzeit eine durchgängig automatisierte Elektrolyseurfabrik.
Wasserstoff ist auf der Erde reichlich vorhanden. Allerdings ist er sehr reaktionsfreudig und daher in Molekülen gebunden, in Wasser (H2O) zum Beispiel. Wer das gasförmige Element als emissionsfreie Energiequelle nutzen möchte, muss den Wasserstoff also zunächst aus dem Wassermolekül herauslösen. Dafür gibt es sogenannte Elektrolyseure. Sie spalten Wasser in seine Bestandteile Wasserstoff (H2) und Sauerstoff (O) auf. Brennstoffzellen können den Wasserstoff wieder in elektrischen Strom umwandeln, der dann Motoren antreibt. Oder der Wasserstoff wird in Hochöfen direkt verbrannt.
Da Wasserstoff bei der Energie- und Verkehrswende eine wichtige Rolle spielt, braucht die Welt in absehbarer Zeit massenhaft neue Elektrolyseure. Doch die werden bisher noch weitgehend in Handarbeit gefertigt, was sehr viel Zeit braucht, teuer und fehleranfällig ist. Wissenschaftlerinnen und Wissenschaftler vom Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA wollen deshalb zusammen mit Partnern aus Forschung und Industrie die Fertigung von Elektrolyseuren durchgängig automatisieren. »Ziel ist eine automatisierte Elektrolyseurfabrik im Gigawatt-Maßstab«, sagt Friedrich-Wilhelm Speckmann vom Zentrum für digitalisierte Batteriezellenproduktion (ZDB) am Fraunhofer IPA. »Die hier innerhalb eines Jahres produzierten Elektrolyseure sollen also eine aufaddierte Nominalleistung von mindestens einem Gigawatt haben.«
Roboter sollen künftig das Stacking übernehmen
Ein Elektrolyseur besteht aus zwei Elektroden – der positiv geladenen Anode und der negativ geladenen Kathode – und einem Separator, in diesem Fall einer Protonen-Austausch-Membran (PEM). Um die Leistung zu erhöhen, werden viele Elektrolysezellen zu einem sogenannten Stack gestapelt. Dieses Stacking geschieht bisher noch größtenteils in Handarbeit, könnte in Zukunft aber von Robotern erledigt werden.
Weil aber nicht nur das Stacking, sondern die gesamte Produktionslinie automatisiert werden soll, müssen die Forscherinnen und Forscher auch sämtliche vor- und nachgelagerte Prozesse, bis zum Einfahren der Gesamtsysteme, berücksichtigen. Dabei reichen die Aufgaben von der Fabrik- und Produktionsplanung, über die Bauteiltests bis hin zu den End-of-Line-Prüfständen. Zusätzlich werden im Konsortium auch neuartige Stackdesigns entwickelt, die zukünftige Produktionsverfahren vereinfachen und somit beschleunigen.
Fertigungssystemplanung, Roboter und Sensoren für die Elektrolyseurfabrik
Um die automatisierte Elektrolyseurfabrik verwirklichen zu können, bauen die Projektpartner zunächst eine Fertigungslinie nach dem aktuellen Stand der Technik auf. Diese wird dann Stück für Stück modular angepasst und erweitert, damit die einzelnen Prozesse besser als bisher ineinandergreifen und automatisiert ablaufen. Dabei klären die Wissenschaftlerinnen und Wissenschaftler eine ganze Reihe offener Fragestellungen, zum Beispiel: Welche Robotertopologie eignet sich für das Stacking am besten? Wie muss ein Roboter die Bauteile greifen und wie schnell darf er sich dabei maximal bewegen, um die sensiblen Komponenten nicht zu beschädigen? Welche optischen Sensoren sollen zur Qualitätssicherung in die Anlage integriert werden? Welche Fertigungstechnologien ermöglichen eine Skalierung der Elektrolyseurproduktion? Wie muss eine vollkommen automatisierte Elektrolyseurfabrik aussehen und aufgebaut sein?
Antworten auf diese und viele weitere Fragen will das Forschungsteam bis 31. März 2025 gefunden haben. Dann nämlich läuft das Forschungsprojekt »Industrialisierung der PEM-Elektrolyse-Produktion« (PEP.IN) aus, welches das Bundesministerium für Bildung und Forschung (BMBF) mit über 20 Millionen Euro fördert. Beteiligt sind an dem Verbundprojekt neben dem Fraunhofer IPA auch das Fraunhofer-Institut für Solare Energiesysteme ISE, das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, die MAN Energy Solutions SE, die H-TEC Systems GmbH, die Audi AG, die VAF GmbH, das Zentrum für Brennstoffzellen-Technik GmbH und das Forschungszentrum Jülich GmbH. PEP.IN ist Teil des Leitprojekts »H2Giga«, einem von drei Wasserstoff-Leitprojekten, die einen zentralen Beitrag des BMBF zur Umsetzung der Nationalen Wasserstoffstrategie bilden.
Weitere H2Giga-Projekte mit Beteiligung des Fraunhofer IPA
Degrad-EL3-Q: Im Forschungsprojekt »Degrad-EL3-Q« untersucht ein Forschungsteam vom Zentrum für Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA, inwiefern Degradationsanalysen, die mit einem Quantencomputer durchgeführt werden, klare Vorteile gegenüber klassischen Computertechnologien bieten. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/Degrad-EL3-Q.html
FRHY: Im H2Giga-Projekt »Referenzfabrik für hochratenfähige Elektrolyseur-Produktion« (FRHY) bildet ein Forschungsteam vom Kompetenzzentrum DigITools am Fraunhofer IPA die einzelnen Produktionsmodule der Referenzfabrik als Digitale Zwillinge ab und vernetzt sie virtuell zu einer kompletten Produktionslinie. Dazu baut es eine standortübergreifende, serviceorientierte Produktions-IT-Plattform auf. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/FRHY.html
IREKA: Im Forschungsprojekt »Iridium-reduzierte Anodenkatalysatoren für die PEM-Wasserelektrolyse« (IREKA) verfolgt ein Forschungsteam von der Abteilung Galvanotechnik am Fraunhofer IPA und vom Leibniz-Institut für Katalyse das Ziel, den Bedarf des seltenen Elements Iridium für PEM-Elektrolyseure zu reduzieren. Dazu untersucht es drei mögliche Ansätze. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/IREKA.html
ReNaRe: Im H2Giga-Projekt »Recycling – Nachhaltige Ressourcennutzung« (ReNaRe) arbeitet ein Forschungsteam von der Abteilung Roboter- und Assistenzsysteme am Fraunhofer IPA an der automatisierten Demontage von Elektrolyseuren. Dazu werden erhältliche Systeme erfasst und die Anforderungen hinsichtlich modularer Roboterwerkzeuge und notwendiger KI-Algorithmen für die Roboterprogrammierung definiert. Ein Digitaler Zwilling flankiert die Demontage, um die einzelnen Schritte virtuell zu optimieren. Mehr dazu unter: https://www.ipa.fraunhofer.de/de/referenzprojekte/ReNaRe.html
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Friedrich-Wilhelm Speckmann | Telefon +49 711 970-3690 | friedrich-wilhelm.speckmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA | www.ipa.fraunhofer.de
Bergische Uni untersucht Ausdauer und Leistungsfähigkeit beim Tragen von FFP2-Masken
Marylen Reschop Pressestelle
Bergische Universität Wuppertal
Welcher Maskentyp bietet einen optimalen Schutz, aber auch guten Tragekomfort? Da OP- oder anderweitige Gesichtsmasken Gesicht und Atemstrom nicht ausreichend abdichten, wurden in den letzten Wochen immer häufiger FFP-Atemschutzmasken vorgeschrieben. Im Labor für Bewegungs- und Trainingswissenschaft haben Experten der Bergischen Universität in einem studentischen Projekt den Einfluss dieser Atemschutzmasken auf Herz-Kreislauf, Atmung und Stoffwechsel sowie auf psychologische Parameter untersucht. 12 Männer im Alter von 24 ± 2 Jahren absolvierten im Abstand von sieben Tagen auf einem Fahrradergometer zwei Ausbelastungstest mit Atem-Gasanalyse sowohl mit als auch ohne FFP-Atemschutzmaske.
Obwohl während dem Testverfahren hohe Atemleistungen erforderlich waren, hatte das Tragen der Atemschutzmaske keinen Einfluss auf die Ausdauerleistungsfähigkeit. Auch Herzfrequenz und weitere medizinische Parameter zeigten keine bedeutsamen Unterschiede, obwohl der Atemwiderstand mit Maske signifikant zugenommen und die forcierte Ausatmung signifikant abgenommen hat.
Es zeigten sich keine Einschränkung der körperlichen Ausdauerleistungsfähigkeit – trotz des durch den höheren Atemwiderstand subjektiv unangenehmen Empfindens beim Tragen der Maske.
Die Ergebnisse deuten darauf hin, dass durch das Tragen von FFP-Atemschutzmasken im Arbeitsalltag und der Schule keine körperlichen Leistungsminderungen zu erwarten sind. Das oft postulierte Argument, beim Tragen von Atemmasken erfolge eine Rückatmung von Kohlenstoffdioxid, konnte durch die Studie an der Bergischen Universität nicht bestätigt werden. Ob diese Ergebnisse auch für die geistige Fähigkeiten – etwa kognitive Leistungs- oder Konzentrationsfähigkeit gelten – ist weiteren Untersuchungen vorbehalten.
Gesunde Menschen können den durch die Atemmaske erhöhten Atemwiderstand problemlos kompensieren, die Atemmuskulatur erfährt einen zusätzlichen Trainingsreiz, was bei Herz-Kreislaufpatienten und bei eingeschränkter Lungenfunktionsfähigkeit berücksichtigt werden muss.
Bislang wenig beachtet ist die Arbeitsschutz-Empfehlung der Deutschen Gesetzlichen Unfallversicherung von 75 Minuten als maximale Tragedauer, was knapp einer Doppelstunde im Schulunterricht entspricht. Bei Umsetzung dieser Empfehlung müssten Schulkinder und Arbeitnehmer mit mehreren Masken pro Tag ausgerüstet sein.
Den Gesamttext und die Studienergebnisse finden Interessierte in dieser Pressemeldung: https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au…
Wissenschaftliche Ansprechpartner:
Dipl.-Sporting. Dr. Christian Baumgart
E-Mail: baumgart@uni-wuppertal.de
Prof. Dr. Jürgen Freiwald
E-Mail: freiwald@uni-wuppertal.de
Weitere Informationen:
https://www.uni-wuppertal.de/de/news/detail/bergische-universitaet-untersucht-au… – Link zur Pressemeldung inkl. der Langfassung
Covid-19-bedingte Fehlzeiten erreichten im November 2021 vorläufigen Höchststand
Peter Willenborg Presse & Kommunikation
Wissenschaftliches Institut der AOK
Berlin. Eine aktuelle Auswertung des Wissenschaftlichen Instituts der AOK (WIdO) zeigt, dass im Pandemie-Zeitraum von März 2020 bis November 2021 von den 13,4 Millionen bei der AOK versicherten Erwerbstätigen knapp 700.000 Beschäftigte mindestens eine Krankschreibung aufgrund einer Covid-19-Diagnose erhielten. Damit sind in den ersten 21 Monaten seit Beginn der Pandemie 5,1 Prozent der AOK-Mitglieder im Zusammenhang mit Covid-19 krankheitsbedingt an ihrem Arbeitsplatz ausgefallen.
Die besondere Dynamik des Covid-19-Geschehens in der vierten Welle wird im November 2021 deutlich: Mehr als 20 Prozent aller bisher von Covid-19 betroffenen AOK-Mitglieder (142.786 Beschäftigte) haben eine Arbeitsunfähigkeit allein in diesem Monat erhalten. „Es ist zu erwarten, dass die Fehlzeiten im November 2021 nur einen vorläufigen Höchststand erreicht haben. Mit der zunehmenden Verbreitung der Omikron-Variante in Deutschland wird es eine Herausforderung sein zu gewährleisten, dass die Beschäftigten gerade in der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder, stellvertretender Geschäftsführer des WIdO.
Vor allem Beschäftigte in den Branchen Erziehung und Altenpflege waren von Krankschreibungen im Zusammenhang mit Covid-19 betroffen: So gab es im bisherigen Verlauf der Pandemie 8.141 Krankschreibungen je 100.000 AOK-Mitglieder in den Berufen der Erziehung, Sozialarbeit und Heilerziehungspflege und 7.515 Krankschreibungen je 100.000 AOK-Mitglieder in der Altenpflege. Aber auch Berufe in der „nicht-ärztlichen Therapie und Heilkunde“, zu denen beispielsweise Physio- oder Ergotherapeuten gehören (7.438 je 100.000 AOK-Mitglieder), in Arzt- und Praxishilfe (7.323 je 100.000 AOK-Mitglieder) sowie in Gesundheits- und Kranken-pflege, Rettungsdienst und Geburtshilfe (7.248 je 100.000 AOK-Mitglieder) hatten auffallend hohe Fehlzeiten im Zusammenhang mit Covid-19. Die niedrigsten Covid-19-bedingten Fehlzeiten wiesen dagegen die Berufe in der Landwirtschaft (1.270 je 100.000 AOK-Mitglieder), der Gastronomie (2.184 je 100.000 AOK-Mitglieder) und der Hotellerie (2.641 je 100.000 AOK-Mitglieder) auf.
Bei 65 Prozent der betroffenen Beschäftigten wurde der gesicherte Nachweis der Infektion auf der Arbeitsunfähigkeitsbescheinigung dokumentiert (ICD-10 GM: U07.1!). Bei den übrigen Fällen ist SARS-CoV-2 nicht durch einen Labortest nachgewiesen worden, sondern aufgrund eines klinischen Kriteriums (zum Beispiel typische Symptome für Covid-19) und eines epidemiologischen Kriteriums (zum Beispiel enger Kontakt zu einer Person mit bestätigter Infektion) als Verdachtsfall dokumentiert (ICD-10 GM: U07.2!).
Im Durchschnitt waren 5.144 je 100.000 AOK-Mitglieder im Zusammenhang mit Covid-19 mindestens einmal im gesamten Pandemiezeitraum krankgeschrieben.
Die isolierte Betrachtung des Monats November 2021 macht eine Verschiebung bei den betroffenen Berufsgruppen deutlich: In den „Top 20“ finden sich nun nicht nur die Berufe der Erziehung und der Altenpflege, sondern auch Beschäftigte aus den Berufen der Fahrzeug-, Luft-, Raumfahrt- und Schiffbautechnik (1.561 Erkrankte je 100.000 AOK-Mitglieder), der Metallverarbeitung (1.546 Erkrankte je 100.000 AOK-Mitglieder) sowie aus Maschinenbau und Betriebstechnik (1.522 Erkrankte je 100.000 AOK-Mitglieder). Auch Berufe der Ver- und Entsorgung sind mit 1.303 Erkrankten je 100.000 AOK-Mitglieder relativ stark betroffen. „Die Daten aus dem November 2021 zeigen, dass infolge der aktuellen Omikron-Welle eine flächendeckende Betroffenheit in einer Vielzahl von verschiedenen Berufsgruppen zu erwarten ist. Auch in den technischen Berufen sind die Fehlzeiten stark angestiegen. Es sind gemeinsame Anstrengungen notwendig, damit die Beschäftigten gerade auch in diesen Teilen der kritischen Infrastruktur weiterhin gesund und arbeitsfähig bleiben“, so Helmut Schröder.
Vorläufiger Höhepunkt der Covid19-bedingten Krankmeldungen im November 2021
Der wellenartige Verlauf der Prävalenz von Covid-19-Infektionen in der Bevölkerung spiegelt sich auch in den krankheitsbedingten Fehlzeiten der AOK-versicherten Beschäftigten wider. Im April 2020 gab es mit 281 Erkrankten je 100.000 AOK-Mitglieder einen ersten Höhepunkt der Krankschreibungen aufgrund einer im Labor bestätigten Covid-19-Diagnose (ICD U07.1). Im Dezember 2020 erreichte die Anzahl der Erkrankten – nach einem deutlichen Rückgang im Sommer 2020 – den Spitzenwert in der zweiten Welle mit 486 je 100.000 AOK-Mitglieder. In der dritten Pandemiewelle lag der Spitzenwert im April 2021 mit 467 Erkrankten je 100.000 Beschäftigten. Ihren vorläufigen Höhepunkt erreichte die Covid-19-Pandemie im November 2021 (918 Erkrankte je 100.000 Beschäftigte). „Die Befürchtung, dass die Omikron-Variante auch Auswirkungen auf die Covid-19-bedingten Fehlzeiten bei Beschäftigten in der kritischen Infrastruktur haben wird, ist angesichts des zuletzt sehr deutlichen Anstiegs der Fehlzeiten in den relevanten Berufsgruppen durchaus berechtigt,“ so die Einschätzung von WIdO-Geschäftsführer Helmut Schröder.
Weitere Informationen:
https://wido.de
Bestätigt: Wird Klärschlamm auf Äcker gegeben, kann Mikroplastik tief in den Boden und auf angrenzende Felder geraten
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Dass Klärschlamm aus städtischen Anlagen einen hohen Anteil an Mikroplastik enthält, konnte schon in früheren Studien gezeigt werden. Der Verdacht lag nahe, dass die Nutzung solcher Schlämme zur Düngung von Feldern auch den unkontrollierten Eintrag von Mikroplastik in die weitere Umwelt fördern könnte. Nun bestätigen Studien im Rahmen des BMBF-Projektes MicroCatch_Balt diese Annahme.
Als Mikroplastik werden Kunststoff-Partikel bezeichnet, die kleiner als 5 mm sind. Mittlerweile findet die Wissenschaft sie überall auf der Welt, auch an solch abgeschiedenen Orten wie Arktis und Antarktis. Im Vergleich zu dieser Omnipräsenz ist der Kenntnisstand zu den Quellen dieser Belastung gering. Aber nur, wenn die Quellen bekannt sind, kann effizient gegen den Eintrag von MP in der Umwelt vorgegangen werden. In den letzten Jahren wurden daher überall auf der Welt Forschungsanstrengungen unternommen, um die Wissenslücken zu schließen.
Als eine mögliche Quelle stehen seit geraumer Zeit Klärschlämme im Visier. Sie enthalten häufig große Mengen an Mikroplastik und werden in einigen Ländern als Dünger in der Landwirtschaft genutzt. Umweltforscher:innen vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW), dem Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei in Braunschweig sowie dem Leibniz-Institut für Polymerforschung Dresden untersuchten an einem Testfeld der Landwirtschaftlichen Untersuchungs- und Forschungsanstalt Speyer, das seit den 1980er Jahren regelmäßig mit Klärschlamm gedüngt wurde, wie die MP-Belastung im Pflug-Bereich, in dem darunterliegenden Boden und im benachbarten, unbehandelten Feld aussah. Ihre Ergebnisse stellte das Autorenteam um Alexander Tagg (IOW) nun in der internationalen Fachzeitschrift Science of the total environment vor.
„Auf dem Testfeld fanden wir erwartungsgemäß relativ viele Mikroplastik-Partikel. Aber auf dem unbehandelten Acker in der Nachbarschaft wurden wir ebenfalls fündig. Die Menge entsprach 44 % dessen, was wir im Oberflächenbereich des Testfeldes gefunden haben“, berichtet Alexander Tagg. Dieser Befund alleine hätte für den Nachweis einer Verbindung noch nicht gereicht. „Das Polymer-Spektrum des Mikroplastiks zeigt aber an beiden Orten ein fast identisches Profil. Unserer Meinung nach lässt sich das nur mit dem Transport aus dem Testfeld erklären.“
Darüber hinaus wurde in dem mit Klärschlamm behandelten Boden des Testfeldes Mikroplastik bis in einer Tiefe von 60-90 cm nachgewiesen, was darauf hindeutet, dass MP auch tief genug eindringen kann, um landwirtschaftliche Entwässerungssysteme zu erreichen. Allerdings waren die MP-Mengen in der Tiefe nur sehr gering (1,6 % der Oberflächenbelastung) und die kontrollierte langjährige und intensive Behandlung des untersuchten Testfeldes mit Klärschlamm lag weit über dem, was im Rahmen der Klärschlammverordnung in der Landwirtschaft zulässig ist.
„Es sind nicht die aktuellen Mengen an Mikroplastik, die uns Sorgen machen, sondern der Umstand, dass diese Kunststoffe immer wieder in die Umwelt gelangen und dort persistent sind. Sie werden nicht mehr verschwinden und sich immer weiter anreichern, wenn wir die Quellen nicht schließen“, kommentiert Matthias Labrenz, Leiter des BMBF geförderten Projektes MicroCatch_Balt (Untersuchung der Mikroplastik-Senken und -Quellen von einem typischen Einzugsgebiet bis in die offene Ostsee) die Werte. Und er kommt zu dem Schluss: „Die Ausbringung von kommunalem Klärschlamm auf landwirtschaftlichen Flächen kann zu weiteren unkontrollierten Verunreinigungen führen.“ Klärschlamm ist jedoch nur eine von vielen Quellen von Mikroplastik. Um seine Bedeutung im Vergleich mit anderen bekannten Einträgen, z.B. durch Reifenabrieb oder Ablagerung von Staub aus der Luft einordnen zu können, ist weitere Forschung dringend notwendig.
Wissenschaftliche Ansprechpartner:
Dr. Alexander Tagg | Tel.: 0381 5197 315 | alexander.tagg@io-warnemuende.de
Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde
Prof. Dr. Matthias Labrenz | Tel.: 0381 5197 378 | matthias.labrenz@io-warnemuende.de, Sektion Biologische Meereskunde, Leibniz-Institut für Ostseeforschung Warnemünde
Originalpublikation:
Tagg, A. S., E. Brandes, F. Fischer, D. Fischer, J. Brandt and M. Labrenz (2022). Agricultural application of microplastic-rich sewage sludge leads to further uncontrolled contamination. Sci. Total Environ.: 150611, doi: https://doi.org/10.1016/j.scitotenv.2021.150611
Online-Studie: Was bedeutende Lebensereignisse bewirken
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Keine anderen Lebensphase ist so sehr von Umbrüchen geprägt wie das junge Erwachsenenalter. Wie stellen sich junge Menschen bedeutende Lebensereignisse vor? Wie erleben sie diese Ereignisse wirklich, und welchen Einfluss haben sie auf das Wohlbefinden? Das will ein Team der Psychologie der Ruhr-Universität Bochum (RUB) wissen. Die Forschenden um Peter Hähner und Prof. Dr. Maike Luhmann laden Menschen dieser Altersgruppe daher zu einer Online-Umfrage ein. Alle Infos gibt es online: http://www.hype-studie.de/.
Auswirkungen auf Wohlbefinden und Persönlichkeit
Die Studie namens HYPE, kurz für hypothetische und erlebte Ereignisse, umfasst drei einzelne Befragungen über insgesamt neun Monate. „Mit der Studie wollen wir einen genaueren Einblick in die Wahrnehmung von bedeutenden Lebensereignissen erhalten“, erklärt Peter Hähner. „Außerdem wollen wir untersuchen, wie sich junge Erwachsene bedeutende Lebensereignisse vorstellen und unter welchen Umständen es möglicherweise zu Abweichungen zwischen unserer Erwartung an Lebensereignisse und dem tatsächlichen Erleben dieser Ereignisse kommt.“ Die Erkenntnisse sollen dazu beitragen, die Auswirkungen von Lebensereignissen auf das Wohlbefinden und die Persönlichkeit im jungen Erwachsenenalter besser zu verstehen.
Teilnehmen können alle bis etwa 35 Jahre. Die erste Befragung startet gleich nach der Anmeldung und dauert etwa 30 Minuten. Teilnehmende werden dann per Mail zur zweiten und dritten Befragung eingeladen, die nach sechs und neun Monaten stattfinden. Diese Befragungen dauern etwa 15 bis 25 Minuten. Wer mitmacht, kann Informationen über sein Persönlichkeitsprofil erhalten und an Verlosungen für Gutscheine im Gesamtwert von 700 Euro teilnehmen.
Wissenschaftliche Ansprechpartner:
Peter Hähner
Psychologische Methodenlehre
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: +49 234 32 27986
E-Mail: peter.haehner@rub.de
Weitere Informationen:
http://www.hype-studie.de/
Klimawandel und Waldbrände könnten Ozonloch vergrößern
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Leipzig. Rauch aus Waldbränden könnte den Ozonabbau in den oberen Schichten der Atmosphäre verstärken und so das Ozonloch über der Arktis zusätzlich vergrößern. Das geht aus Daten der internationalen MOSAiC-Expedition hervor, die 2019/20 die Region um dem Nordpol untersucht hatte. Ein Zusammenhang zwischen ungewöhnlich hohen Temperaturen, starken Dürren und zunehmenden Waldbränden mit viel Rauch in der unteren Stratosphäre und starkem Ozonabbau über den Polarregionen sei wahrscheinlich.
Sollte sich diese Annahme bestätigen, dann werde die Debatte zu den Folgen des Klimawandels um einen neuen Aspekt erweitert, schreibt ein internationales Forschungsteam unter Leitung des Leibniz-Instituts für Troposphärenforschung (TROPOS) im Fachjournal Atmospheric Chemistry and Physics (ACP).
Als Ursache für die jüngsten Rekordtiefstwerte an Ozon über der Arktis galten bisher Veränderungen in den vorherrschenden Windsystemen, die zu niedrigeren Temperaturen im Polarwirbel führen, einem Tiefdruckgebiet in der arktischen Stratosphäre in 15 bis 50 Kilometern Höhe. Mit dem Rauch aus Waldbränden in den borealen Nadelwäldern kommt durch die neue Hypothese jetzt noch ein weiterer Faktor des Klimawandels hinzu, der über komplexe Rückkopplungsmechanismen auch Gesundheitsauswirkungen in den angrenzenden Regionen Europas, Nordamerikas und Asiens haben könnte.
Basis für die neue Hypothese sind umfangreiche Auswertungen von Messungen zu Aerosolen an verschiedenen Orten: Eine zentrale Rolle spielten die Messungen während der internationalen MOSAiC-Expedition, als der deutsche Eisbrecher Polarstern von Herbst 2019 an ein Jahr lang durch das Eis des Arktischen Ozeans am Nordpol driftete. Teil der größten Polarexpedition der Geschichte mit über 80 Forschungsinstituten aus über 20 Nationen unter Leitung des Alfred-Wegener-Instituts, dem Helmholtz-Zentrum für Polar- und Meeresforschung, (AWI) waren auch umfangreiche Untersuchungen der Atmosphäre. Dabei entstand erstmals ein zusammenhängender, vertikal aufgelöster Blick auf die Aerosole und Wolken in der zentralen Arktis während des Winterhalbjahres bis in 30 km Höhe. Dafür hatte ein Mehrwellenlängen-Lidar des TROPOS die Luftschichten von Bord des Forschungseisbrechers aus ausgemessen. In 369 Tagen gingen dabei 640 Millionen Laserpulse in den Himmel und es kamen 112 Gigabyte Daten zusammen. Die Daten aus der zentralen Arktis um den Nordpol wurden ergänzt durch Lidar-Daten vom Koldewey Aerosol Raman Lidar (KARL) des AWI in Ny-Ålesund auf Spitzbergen sowie des Erdbeobachtungssatelliten CALIPSO von NASA und CNES.
Wo kommt der Rauch über dem Nordpol her?
Die Atmosphäre über dem Nordpol galt lange als sehr sauber, weil die Region nördlich des Polarkreises nur dünn besiedelt ist. Die Überwinterung des Forschungseisbrechers Polarstern 2019/20 ermöglichte erstmals Einblick in eine Welt, die der Forschung bisher unzugänglich war und auch die Atmosphärenforschung überraschte: „Vom ersten Tag der MOSAiC-Messungen Ende September 2019 an beobachteten wir eine auffällige Aerosolschicht mit einem breiten Maximum in etwa 10 km Höhe, direkt über der lokalen Tropopause. Nach unseren Raman-Lidar-Beobachtungen wies die Schicht klare Signaturen von Waldbrandrauch bis in etwa 12-13 km Höhe auf. Ein Vergleich mit kontinuierlichen Lidar-Messungen in Leipzig und Ny-Ålesund zeigte, dass bereits seit August 2019 viele Partikel in dieser Höhe schwebten, die nicht allein durch den Ausbruch des Vulkans Raikoke im Pazifik im Sommer 2019 zu erklären waren“, berichtet Dr. Ronny Engelmann, der als erster von fünf TROPOS-Forschenden die Lidarmessungen auf der Polarstern betreut hat. Rauchpartikel reflektieren das Laserlicht des Lidars anders als Partikel aus Vulkanausbrüchen. Analysen der Luftströmung mittels sogenannter Rückwärtstrajektorien deuteten auf die außergewöhnlich starken und lang anhaltenden Waldbrände in Mittel- und Ostsibirien im Juli und August 2019. Zu dieser Zeit brannten große Wälder am Baikalsee in einem Gebiet von etwa 1000 km × 2000 km. Auswertungen von Satellitenaufnahmen zeigten später, dass die Feuersaison 2019 in Sibirien zu den stärksten der letzten zwei Jahrzehnte gehörte.
Die Waldbrände im Sommer in Sibirien sorgten also dafür, dass die Aerosolkonzentration in der unteren Stratosphäre der zentralen Arktis im Winterhalbjahr um das Zehnfache erhöht war. Die genauen Auswirkungen der Rauchpartikel in der Stratosphäre auf das Klimasystem sind noch weitgehend unerforscht. Einerseits könnten sich Strahlungsflüsse verändern, andererseits könnten die Aerosole als Eisnukleationskeime dienen und dadurch Zirruswolken bilden.
Wie gelangen die Rauchpartikel bis in Höhen von 10 km, der typischen Reisehöhe von Interkontinentalflügen?
Aus wärmeren Regionen sind sogenannte Feuerwolken (Pyrocumulus, kurz: PyroCb) bekannt, bei denen die Hitze durch das Feuer am Boden so stark ist, dass die Luft wie in einem Fahrstuhl nach oben transportiert wird und dabei den Rauch bis in die Stratosphäre trägt. Bei den katastrophalen Bränden in Australien 2019 oder an der Westküste Nordamerikas 2020 wurden diese „Fahrstuhlwolken“ ebenfalls beobachtet. Im Sommer 2019 entwickelten sich jedoch keine kräftigen Gewitter über den Brandgebieten in Sibirien. „Wir vermuten daher, dass sich die dunklen, kohlenstoffhaltigen Rauchpartikel durch das Sonnenlicht so stark erwärmten, dass ihre Umgebungsluft langsam aufstieg. Dies ist die einzige plausible Erklärung für einen effizienten vertikalen Transport über mehrere Kilometer“, erklärt Kevin Ohneiser vom TROPOS, der in seiner Doktorarbeit den Einfluss von Waldbränden auf die Atmosphäre untersucht. „Über sogenannte Selbstauftriebsprozesse wurde mehrfach nach großen Waldbränden berichtet – allerdings nur für Rauchschichten in der Stratosphäre, also oberhalb von ca. 10 km Höhe. Nach unserem besten Wissen gibt es in der Literatur keinen Bericht über Selbstauftriebsprozesse in der Troposphäre, also unterhalb von 10 km Höhe. Ruhige Wetterbedingungen ohne starke Winde könnten eine der wichtigsten Voraussetzungen für dieses Phänomen in der Troposphäre sein, welches wir wahrscheinlich zum allerersten Mal registriert haben, wenn sich unsere Beobachtungen bestätigen sollten.“
Was hat der Rauch mit dem Ozonloch zu tun?
Bereits bekannt ist, dass ein kräftiger, lang anhaltender Polarwirbel für starken Ozonabbau sorgt: Der Polarwirbel ist ein großes Tiefdruckgebiet in der Stratosphäre in Höhen von 15 bis 50 km, das für sehr tiefe Temperaturen sorgt. Bei Temperaturen unter -78°C bilden sich polare Stratosphärenwolken (PSC) mit Eiskristallen, an deren Oberfläche chemische Reaktionen ablaufen, bei denen Chlorverbindungen entstehen, die zusammen mit Brom bei Sonneneinstrahlung Ozon abbauen. Auch an der Oberfläche von Sulfatpartikeln können solche Reaktionen ablaufen. Sie können bei Vulkanausbrüchen entstehen, die Schwefeldioxid bis in die Stratosphäre transportieren: Bereits Anfang der 1990er Jahre konnte ein Ozonverlust von bis zu 30 Prozent über Mitteleuropa während des ersten Winters nach dem großen Vulkanausbruch des Pinatubo nachgewiesen werden.
Der starke, kalte und anhaltende Polarwirbel prägte während der MOSAiC-Expedition die Atmosphäre der Arktis ab 15 km Höhe über der Polarstern von Januar bis April 2020. Der arktische Frühling 2020 zeichnete sich durch sehr kalte Temperaturen und den stärksten arktischen Polarwirbel der letzten 40 Jahre aus, der in der unteren Stratosphäre zu Rekordwerten bei den polaren Stratosphärenwolken und einem extremen Ozonabbau führte: Eine Auswertung von Ozonsonden vom März/April 2020 aus verschiedenen Teilen der Arktis hatte einen extremen Rückgang in 18 km Höhe ergeben. Ohne das Montrealer Protokoll hätten die bereits extremen Ozonverluste in der Arktis 2020 wahrscheinlich ein noch deutlich größeres Ozonloch wie in der Antarktis hervorgerufen, so Simulationen anderer Forscher, die zeitgleich im Fachjournal ACP erschienen sind.
Die regelmäßig durchgeführten Ozonprofilmessungen zeigten nicht nur eine Schicht mit extrem niedriger Ozonkonzentration in 15 bis 20 km Höhe an, sondern auch deutlich unterdurchschnittliche Ozonwerte in Höhen von 10 bis 15 km. „Wir stellen einen klaren Zusammenhang zwischen dem Auftreten von Waldbrandrauch im untersten Bereich der Stratosphäre und dem anomal starken Ozonabbau fest“, betont Dr. Albert Ansmann vom TROPOS..
Die jetzt veröffentlichen Daten der MOSAiC-Expedition zeigen, dass sich Rauch in der Atmosphäre der Polargebiete lange halten kann und bereits kleine Mengen das empfindliche System stören können. Menschliche Aktivitäten können auch in großer Entfernung einen massiven Einfluss auf die oberen Schichten der Atmosphäre und damit das Klima in der Arktis haben. Die Ergebnisse sind von besonderer Bedeutung, weil Waldbrände zunehmend als Klimarisiko begriffen werden: Der neueste Bericht des Weltklimarates IPCC hat im August 2021 festgestellt, dass Wetterbedingungen, die Waldbrände begünstigen, im letzten Jahrhundert wahrscheinlicher geworden sind und rechnet damit, dass die Häufigkeit von Bränden mit der globalen Erwärmung weiter zunehmen wird. Tilo Arnhold
Publikationen:
Ohneiser, K., Ansmann, A., Chudnovsky, A., Engelmann, R., Ritter, C., Veselovskii, I., Baars, H., Gebauer, H., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., and Maturilli, M.: The unexpected smoke layer in the High Arctic winter stratosphere during MOSAiC 2019–2020 , Atmos. Chem. Phys., 21, 15783–15808, https://doi.org/10.5194/acp-21-15783-2021, 2021. <Published: 22 Oct 2021>
Engelmann, R., Ansmann, A., Ohneiser, K., Griesche, H., Radenz, M., Hofer, J., Althausen, D., Dahlke, S., Maturilli, M., Veselovskii, I., Jimenez, C., Wiesen, R., Baars, H., Bühl, J., Gebauer, H., Haarig, M., Seifert, P., Wandinger, U., and Macke, A.: Wildfire smoke, Arctic haze, and aerosol effects on mixed-phase and cirrus clouds over the North Pole region during MOSAiC: an introduction, Atmos. Chem. Phys., 21, 13397–13423, https://doi.org/10.5194/acp-21-13397-2021, 2021. <Published: 09 Sep 2021>
Die Daten wurden im Rahmen des internationalen Expedition MOSAiC (Multidisciplinary drifting Observatory for the Study of the Arctic Climate erstellt (#MOSAiC20192020 & #AWI_PS122_00). Die Studien wurde gefördert durch die Europäischen Union (Horizon 2020 (#H2020-INFRAIA-2014-2015) & ACTRIS-2 Integrating Activities (#654109) und die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Transregio-Sonderforschungsbereichs „ArctiC Amplification: Climate Relevant Atmospheric and SurfaCe Processes, and Feedback Mechanisms (AC)3“ (#268020496 – TRR 172). Die Entwicklung des Lidar-Inversionsalgorithmus zur Analyse der Polly-Daten wurde von der Russischen Wissenschaftsstiftung unterstützt (#16-17-10241).
Kontakte für die Medien:
Dr. Albert Ansmann
Leiter der Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7064
https://www.tropos.de/institut/ueber-uns/mitarbeitende/albert-ansmann
und
Kevin Ohneiser
Doktorand, Arbeitsgruppe Bodengebundene Fernerkundung, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7413
https://www.tropos.de/institut/ueber-uns/mitarbeitende/kevin-ohneiser
und
Dr. Ronny Engelmann/ Hannes Griesche/ Martin Radenz/ Dr. Julian Hofer/ Dr. Dietrich Althausen
TROPOS-Lidar-Team der MOSAiC-Expedition, Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49 341 2717-7315, -7401, -7369, -7336, -7063
https://www.tropos.de/institut/ueber-uns/mitarbeitende/ronny-engelmann
https://mosaic-expedition.org/profile/hannes-griesche/
https://dacapo.tropos.de/index.php/team/9-tropos/3-martin-radenz
https://www.tropos.de/institut/ueber-uns/mitarbeitende/julian-hofer
https://www.tropos.de/institut/ueber-uns/mitarbeitende/dietrich-althausen
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49 341 2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/
Weitere Informationen und Links:
Einmaliger Blick in die „neue Arktis“: Internationale MOSAiC-Expedition erfolgreich beendet (Pressemitteilung, 12.10.2020):
https://www.tropos.de/aktuelles/pressemitteilungen/details/einmaliger-blick-in-d…
Leipziger Beteiligung an MOSAiC
https://www.tropos.de/mosaic/
MOSAiC-Expedition (auf Englisch)
https://www.mosaic-expedition.org/
MOSAiC-Expedition (auf Deutsch)
https://www.awi.de/im-fokus/mosaic-expedition.html
DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Englisch)
http://www.ac3-tr.de/
DFG-Transregio 172 „Arktische Klimaveränderungen“ (auf Deutsch)
http://www.ac3-tr.de/wp-content/uploads/2016/06/flyer_de_web.pdf
Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 97 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 20.500 Personen, darunter 11.500 Wissenschaftlerinnen und Wissenschaftler.
Der Gesamtetat der Institute liegt bei 2 Milliarden Euro. Finanziert werden sie von Bund und Ländern gemeinsam. Die Grundfinanzierung des Leibniz-Instituts für Troposphärenforschung (TROPOS) wird vom Bundesministerium für Bildung und Forschung (BMBF) und dem Sächsischen Staatsministerium für Wissenschaft und Kunst (SMWK) getragen. Das Institut wird mitfinanziert aus Steuermitteln auf Grundlage des vom Sächsischen Landtag beschlossenen Haushaltes.
http://www.leibniz-gemeinschaft.de
https://www.bmbf.de/
https://www.smwk.sachsen.de/
Weitere Informationen:
https://www.tropos.de/aktuelles/pressemitteilungen/details/klimawandel-und-waldb…
Antikörper nach SARS-CoV-2-Infektion – neue Erkenntnisse über die Sensitivität und Nachweisdauer von Antikörpertests
Dr. Susanne Stöcker Presse, Informationen
Paul-Ehrlich-Institut – Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel
Das Paul-Ehrlich-Institut hat in Zusammenarbeit mit der Universität Frankfurt am Main die Langzeit-Antikörperreaktion nach SARS-CoV-2-Infektion bei 828 Personen mit verschiedenen COVID-19-Schweregraden untersucht. Gemessen wurden bindende Antikörper gegen unterschiedliche SARS-CoV-2-Zielantigene, neutralisierende Antikörper und die Stärke der Antikörperbindung (Antikörperavidität). Sensitivität, Kinetik und Dauer des Antikörpernachweises waren abhängig von detektierter Antikörperklasse, Testdesign, Zielantigen des Anti-SARS-CoV-2-Antikörpertests sowie von Antikörperavidität und COVID-19-Schweregrad. Über die Ergebnisse berichtet das Journal of Clinical Virology, Onlineausgabe vom 4.12.2021.
Durch Nachweis virusspezifischer Antikörper mittels Antikörpertests kann eine akute oder frühere SARS-CoV-2-Infektion diagnostiziert werden, wobei akute Infektionen bekanntlich symptomfrei oder mit Krankheitszeichen (COVID-19) verlaufen können. Antikörpertests auf SARS-CoV-2 können Personen identifizieren, die einige Zeit zuvor mit SARS-CoV-2 infiziert waren und so dazu beitragen, das Ausmaß der SARS-CoV-2-Infektionen in der Bevölkerung zu erkennen und die Dunkelziffer nicht erkannter Infektionen abzuschätzen.
Die Interpretation von SARS-CoV-2-Antikörpertestergebnissen ist jedoch schwierig, da zum einen die Testergebnisse von Person zu Person sehr unterschiedlich ausfallen können. Zudem variieren die SARS-CoV-2-Antikörpertestergebnisse auch methodisch stark. Unklar ist bisher außerdem, wie lange nach einer Infektion spezifische Antikörper noch nachweisbar sind. Daher erfordert der Einsatz von Antikörpertests gegen SARS-CoV-2 ein eingehendes Verständnis der Variabilitäten der Testsensitivität sowie der Zeitabhängigkeit und Dauer des Antikörpernachweises. Dies war der Gegenstand der vorliegenden Untersuchung.
Das In-vitro-Diagnostika(IVD)-Prüflabor des Paul-Ehrlich-Instituts unter Leitung von Dr. Heinrich Scheiblauer hat in Kooperation mit dem Universitätsklinikum Frankfurt am Main die Antikörperreaktionen über einen Zeitraum von mehr als 430 Tagen nach SARS-CoV-2-Infektion bestimmt. Dabei wurden 828 Proben von 390 Patientinnen und Patienten mit unterschiedlichen COVID-19-Schweregraden in zwölf verschiedenen Tests untersucht. Erfasst und gemessen wurden verschiedene Antikörperklassen (Gesamtantikörper, IgG, IgA, IgM), unterschiedliche SARS-CoV-2-Zielantigene (Rezeptorbindungs-domäne (RBD), Spike- (S) und Nukleoprotein (N)), neutralisierende Antikörper und die Bindungsstärke von Antikörpern an Antigen (Antikörperavidität). Die Testspezifität wurde an 676 präpandemischen Proben bestimmt.
Die Ergebnisse zeigen, dass die Sensitivität und Nachweisdauer von Anti-SARS-CoV-2-Antikörpertests ein bestimmtes Muster zeigen. Dieses war abhängig vom Testdesign, dem Zielantigen der Tests, der Antikörperbindungsstärke und dem Schweregrad von COVID-19 im betrachteten Zeitraum. Ein charakteristisches Merkmal bei den meisten Patientinnen und Patienten war eine mit der Zeit zunehmende Antikörperbindungsstärke (Antikörperavidität) für die immunogenen SARS-CoV-2-Antigene RBD und Spikeprotein. Die Avidität ist ein Korrelat (Maß) für die Antikörperreifung und die Bildung eines Immungedächtnisses. Gesamtantikörpertests, die aufgrund ihres Testdesigns eine höhere Antikörperbindungsstärke messen können, und die auf RBD oder Spikeprotein basieren, zeigten daher mit zunehmender Antikörperavidität eine hohe Sensitivität und lange Nachweiszeit. Antikörper konnten dabei über mehr als 430 Tage nach der Infektion nachgewiesen werden, ohne dass ein Endpunkt absehbar war. Surrogat-Virusneutralisierungstests zur Bestimmung neutralisierender Antikörper, die die Bindung von RBD (das auch in den bisher zugelassenen Impfstoffen verwendet wird) an die ACE2-Rezeptoren inhibieren, zeigten ebenfalls eine lange Nachweisdauer neutralisierender Antikörpern über 430 Tage.
Im Vergleich dazu zeigten RBD- oder Spike-basierte Antikörpertests, die jeweils nur die Antikörperklassen IgG, IgA und IgM nachweisen, eine geringere Ausgangssensitivität und im Laufe der Zeit abnehmende Antikörpertiter, obwohl IgG- und IgA-Tests bis 430 Tage eine relativ hohe Sensitivität (Testpositivität) beibehielten.
Nukleoprotein-basierte Tests zeigten demgegenüber bereits nach 120 Tagen einen Abfall der Antikörperspiegel, was bei den N-basierten IgG- und IgM-Tests auch zu einem Verlust der Sensitivität führte. Es zeigte sich, dass dies mit einer entsprechenden Abnahme der Avidität für das nicht immunogene Nukleoprotein zusammenhing.
Die Spezifität der Antikörpertests war dabei mit Ausnahme von IgA-Antikörpertests (96 %) für alle Tests mit >99 % hoch und es gab keine Kreuzreaktivität mit endemischen humanen Coronaviren.
Diese Daten können einen Beitrag dazu leisten, die Antikörpertests gezielter einzusetzen und SARS-CoV-2-Antikörperbefunde in der täglichen diagnostischen Arbeit richtig zu interpretieren. Darüber hinaus können sie helfen, die Dauer eines möglichen Immunschutzes gegen SARS-CoV-2 zu bestimmen.
Originalpublikation:
Scheiblauer S, Nübling CM, Wolf T, Khodamoradi Y, Bellinghausen C, Sonntagbauer M, Esser-Nobis K, Filomena A, Mahler V, Maier TJ, Stephan C (2022): Antibody response to SARS-CoV-2 for more than one year − kinetics and persistence of detection are predominantly determined by avidity progression and test design.
J Clin Virol 146: 105052.
DOI: https://doi.org/10.1016/j.jcv.2021.105052
Weitere Informationen:
https://www.sciencedirect.com/science/article/pii/S138665322100319X?via%3Dihub – Open Access Zugang zu der Publikation
https://www.pei.de/DE/newsroom/pm/jahr/2022/03-antikoerper-sars-cov-2-infektion-… – Diese Pressemitteilung auf den Seiten des Paul-Ehrlich-Instituts
GBP-Monitor: Fast zwei Drittel der Unternehmen plant Preiserhöhungen – und 3G am Arbeitsplatz ist sehr umstritten
Linda Schädler Abteilung Kommunikation
Universität Mannheim
Mit der sich nähernden Omikron-Welle wachsen die Sorgen der Unternehmen wieder: Ihre Gewinne brechen ein, in den Krisenbranchen befürchtet jedes vierte Unternehmen, aufgeben zu müssen. 65 Prozent der befragten Unternehmen versuchen, ihre Verluste durch höhere Preise auszugleichen, und sorgen damit für noch höhere Inflation. Das belegt der Januar-Bericht des German Business Panel (GBP). Dieser zeigt auch, dass die Meinungen der Unternehmen über die 3G-Regel am Arbeitsplatz deutschlandweit beträchtlich auseinandergehen.
Noch im Oktober 2021 schien der langanhaltende Rückgang der Unternehmensgewinne während der Pandemie zunächst beendet. Nur zwei Monate später schwächte sich die Wachstumdynamik deutlich ab: Angesichts der vierten Coronawelle, anhaltender Lieferengpässe und der politischen Forderungen nach weiteren Lockdowns rutschten die Unternehmensgewinne deutlich ab und erreichten im Dezember 2021 sogar einen niedrigeren Stand als im ersten Jahr der Pandemie (-3,42 Prozent im Vergleich zum Vorjahresmonat).
Die erhobenen Daten belegen, dass für viele Unternehmen die Lage existenzbedrohend ist. Die erwartete Ausfallwahrscheinlichkeit – also das Risiko einer möglichen Geschäftsaufgabe – wuchs zum dritten Mal in Folge. „Besonders kritisch ist die Lage in den schon 2020 stark gebeutelten Krisenbranchen wie Gastronomie, Tourismus oder Unterhaltung. Diese leiden unter dem sanften Lockdown mit Maßnahmen wie 2G-Plus noch mehr als im Vorjahr“, berichtet Prof. Dr. Jannis Bischof, Inhaber des Lehrstuhls für ABWL und Unternehmensrechnung an der Universität Mannheim und wissenschaftlicher Projektleiter des GBP. In diesen Branchen stieg die Ausfallwahrscheinlichkeit auf 22,5 Prozent (plus 2,0 Punkte). Die Entwicklung ist jedoch nicht einheitlich und in anderen Branchen bleibt die Stimmung optimistisch. Das Baugewerbe oder das verarbeitende Gewerbe blieben zum Beispiel von solchen Bedrohungen weitgehend unberührt.
Die Unternehmenslenker gaben an, die rückläufige Entwicklung teilweise durch Preiserhöhungen wettmachen zu wollen: Fast zwei Drittel von ihnen (64,9 Prozent) plant, im neuen Jahr von Kunden und Lieferanten höhere Preise zu verlangen. „Insbesondere im Einzelhandel und in der Industrie wollen Unternehmen ihre Preise heben und damit gestiegene Kosten in der Beschaffung ausgleichen. Energieträger wie Öl, aber auch beispielsweise Holz verteuerten sich in den letzten Monaten massiv. Diese Inflation reichen die Unternehmen nun weiter“, berichtet Dr. Davud Rostam-Afschar, der akademische Leiter des GBP.
Zufriedenheit mit der 3G-Regel am Arbeitsplatz
Thema der aktuellen Umfrage war auch die neue 3G-Regel am Arbeitsplatz und die daraus resultierenden finanziellen Belastungen. Hier sind die Meinungen sehr gespalten: Während mehr als 40 Prozent der befragten Unternehmen die neue Vorschrift für sehr positiv halten, lehnt ein beträchtlicher Anteil (15 Prozent) die 3G-Regel vollständig ab. Dazu gehören vor allem kleine und durch die notwendigen Kontrollen auch finanziell belastete Unternehmen.
Auffällig ist der überdurchschnittlich hohe Anteil an Unternehmen des Baugewerbes und des Handels, welche die 3G-Regel als sehr negativ betrachten. Hotels, Restaurants und Eventfirmen zeigen sich dagegen überdurchschnittlich zufrieden damit. Diese Regel scheint für sie eine akzeptable Lösung zur Vermeidung eines erneuten Lockdowns zu sein.
Bemerkenswert scheint zudem, dass die Vorschrift vor allem in den Bundesländern schlecht ankommt, die im Dezember die höchsten Inzidenzen aufwiesen – also im Osten Deutschlands, wo die Ablehnung bei bis zu 51 Prozent liegt, wie in Thüringen. „Gerade dort, wo die 3G-Regel Mitarbeitende und Betriebe im besonderen Maße schützen soll, kommt sie auffallend schlecht an. Es entsteht die Wahrnehmung, als wälze die Politik die Verantwortung für die Impfung auf die Unternehmen ab. Dadurch kommt es zu einem Akzeptanzproblem“, konstatiert Bischof.
Weitere Informationen zum GBP-Monitor
Das German Business Panel befragt monatlich mehr als 800 Unternehmen zur Unternehmenslage in Deutschland und erhebt dabei Daten zu 1) erwarteten Umsatz-, Gewinn- und Investitionsänderungen, 2) unternehmerischen Entscheidungen, 3) der erwarteten Ausfallwahrscheinlichkeit in der Branche und 4) der Zufriedenheit mit der Wirtschafspolitik. Zudem wird jeden Monat zu besonders aktuellen Fragen berichtet. In diesem Monat haben wir gefragt wie Unternehmen die 3G-Regel bewerten und inwiefern sie durch die Verpflichtung finanziell belastet werden.
Hintergrundinformationen zum German Business Panel
Das German Business Panel ist ein langfristiges Befragungspanel des DFG-geförderten überregionalen Projektes „Accounting for Transparency“ (www.accounting-for-transparency.de).
Der Sonderforschungsbereich (SFB) „TRR 266 Accounting for Transparency“ startete im Juli 2019 und wird von der Deutschen Forschungsgemeinschaft (DFG) für zunächst vier Jahre gefördert. Er ist der erste SFB mit betriebswirtschaftlichem Schwerpunkt. Am SFB sind rund 80 Wissenschaftlerinnen und Wissenschaftler von neun Universitäten beteiligt: Universität Paderborn (Sprecherhochschule), Humboldt-Universität zu Berlin und Universität Mannheim, zudem Forscherinnen und Forscher von der Ludwig-Maximilians-Universität München sowie der ESMT Berlin, Frankfurt School of Finance & Management, Goethe-Universität Frankfurt am Main, WHU – Otto Beisheim School of Management, und Carl von Ossietzky Universität Oldenburg. Die Forscherinnen und Forscher untersuchen, wie Rechnungswesen und Besteuerung die Transparenz von Unternehmen beeinflussen und wie sich Regulierungen und Unternehmenstransparenz auf Wirtschaft und Gesellschaft auswirken. Das Fördervolumen des SFBs beträgt rund 12 Millionen Euro.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Jannis Bischof
Lehrstuhl für ABWL und Unternehmensrechnung
Universität Mannheim
Tel: +49 621 181-1630
E-Mail: jbischof@uni-mannheim.de
Yvonne Kaul
Forschungskommunikation
Universität Mannheim
Tel: +49 621 181-1266
E-Mail: kaul@uni-mannheim.de
Weitere Informationen:
http://Den „GBP-Monitor: Unternehmenstrends im Januar 2022“ finden Sie hier: https://www.accounting-for-transparency.de/wp-content/uploads/2022/01/gbp_monito…
Mit Remote Attestation gegen Hacker: Schutz für sicherheitskritische Systeme
Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Vertrauen ist die Basis jeder guten Zusammenarbeit. Das gilt auch für vernetzte Maschinen wie Airbags oder medizinische Apparate. Professor Lucas Davi und sein Team vom Softwaretechnik-Institut paluno an der Universität Duisburg-Essen (UDE) haben eine Lösung entwickelt, um die Integrität von eingebetteten Geräten zu prüfen, ohne ihr Laufzeitverhalten zu beeinträchtigen.
Eingebettete Systeme sind in einen größeren technischen Kontext integriert und übernehmen dort – meist unbemerkt vom Nutzer – Steuerungs-, Regelungs- und Datenverarbeitungsaufgaben. Sie arbeiten oft in Netzwerken mit zahlreichen anderen Systemen, z.B. in Autos, Flugzeugen, Haushaltsgeräten und medizinischen Geräten.
„Obwohl eingebettete Systeme in vielen kritischen Bereichen eingesetzt werden, sind sie bezüglich ihrer IT-Sicherheit selten auf dem aktuellsten Stand der Technik“, sagt Professor Davi. „Das liegt unter anderem an den Echtzeitanforderungen, die sie erfüllen müssen.“ Echtzeit bedeutet, dass ein System seine Aufgabe innerhalb einer festgelegten Zeit abarbeiten muss. Sie garantiert, dass z.B. eine Airbag-Steuerung bei einem Crash exakt zum richtigen Zeitpunkt auslöst. „Diese strengen Zeitvorgaben machen es schwierig, Sicherheitsmechanismen in die Software zu integrieren, weil sie das Laufzeitverhalten der Systeme beeinflussen könnten.“
Mit dem Framework RealSWATT hat das paluno-Team von Professor Davi eine Lösung entwickelt. Sie basiert auf der Technik der Remote Attestation. Bei dieser Methode kann die Vertrauenswürdigkeit eines Geräts aus der Ferne, d.h. vor einer Vernetzung, geprüft werden: Ein Prüfer sendet dem Gerät eine Anfrage, die eine Messung des Softwarezustands veranlasst. Liefert die Messung einen unerwarteten Wert zurück, kann das ein Hinweis für einen Schadcode sein, und eine Vernetzung wird vermieden. Im Gegensatz zu anderen Remote-Attestation-Ansätzen benötigt die Lösung der UDE-Sicherheitsforscher dafür keine Hardware-Erweiterungen oder spezielle Sicherheitschips. Sie kann deshalb auf handelsüblichen eingebetteten Geräten eingesetzt werden. Die Attestierung läuft kontinuierlich im Hintergrund auf einem sonst ungenutzten Prozessorkern.
Anhand einer Infusionspumpe wurde RealSWATT eingehend evaluiert. Manipulationen durch einen simulierten Hackerangriff wurden zuverlässig erkannt, und der Echtzeitbetrieb wurde in keiner Weise gestört. Das zeigten auch Tests mit kommerziellen Smart-Home-Geräten. „Eingebettete Systeme sind oft viele Jahre im Betrieb, und Hackerangriffe können fatale Konsequenzen haben.“ Professor Davi ist sich sicher: „RealSWATT ist ein praktikabler Ansatz, um mit einfachen Mitteln die Sicherheit zu verbessern.“
Das paluno-Team hat über RealSWATT publiziert. Der Aufsatz „Remote Software-based Attestation for Embedded Devices under Realtime Constraints“ und eine kurze Präsentation stehen hier zur Verfügung: https://dl.acm.org/doi/10.1145/3460120.3484788
Weitere Informationen und Redaktion:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de
Wissenschaftliche Ansprechpartner:
Birgit Kremer, paluno, Tel. 0201/18 3-4655, birgit.kremer@paluno.uni-due.de
Originalpublikation:
https://dl.acm.org/doi/10.1145/3460120.3484788
Psychische Gesundheit in der Arbeitswelt stärken
SRH Hochschule für Gesundheit Marketing / PR
SRH Hochschule für Gesundheit
Prof. Dr. Sabine Rehmer startet mit Unterstützung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) zum 01.01.2022 ein Forschungsprojekt zur psychosozialen Notfallversorgung in Unternehmen.
„Es gibt viele Faktoren, die die psychische Gesundheit am Arbeitsplatz beeinflussen. Gerade in Folge von plötzlich auftretenden Notfallsituationen wie Unfällen oder anderen unerwarteten Extremsituationen kann die psychische Stabilität der Betroffenen gefährdet sein. In diesem Fall ist es ratsam, seitens der Unternehmen eine psychosoziale Notfallversorgung anzubieten“, erläutert Prof. Dr. Sabine Rehmer, Studiengangsleiterin und Professorin im Master-Studiengang Arbeits- und Organisationspsychologie. Sie leitet das 39-monatige Forschungsprojekt „Psychosoziale Notfallversorgung in Unternehmen – eine Ist-Analyse zur betrieblichen Umsetzung in Deutschland“ an der SRH Hochschule für Gesundheit.
Aktuell ist es auf Grundlage der wissenschaftlichen Literatur und des bisherigen Erkenntnisstands nicht möglich, eine fundierte Aussage über die von den Unternehmen gewählten Modelle und Vorgehensweisen bei der psychosozialen Notfallversorgung (PSNV) ihrer Beschäftigten zu treffen. Genau hier setzt das Forschungsprojekt an. Mit einem Team von 5 wissenschaftlichen Mitarbeiter:innen führt Prof. Dr. Sabine Rehmer eine Bestandsaufnahme zur Psychosozialen Notfallversorgung in Unternehmen als Querschnittsuntersuchung mit verschiedenen qualitativen und quantitativen Befragungen durch. Fokussiert werden unterschiedliche Zielgruppen wie Unternehmen/Betriebe, Unfallversicherungsträger, ehrenamtliche PSNV-Teams sowie externe Dienstleister:innen. Mit den Befragungen sollen zum einen betriebliche Umsetzungen der psychosozialen Betreuung nach plötzlich auftretenden Notfallsituationen erfasst und beschrieben werden, zum anderen auch betriebliche Faktoren und Maßnahmen, die diese positiv oder negativ beeinflussen.
Das Forschungsprojekt wird von der Forschungsförderung der Deutschen Gesetzlichen Unfallversicherung e.V. (DGUV) unterstützt. Assoziierter Partner für das Forschungsprojekt ist das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK), Abteilung I – Krisenmanagement, Referat I.3 – Psychosoziales Krisenmanagement (PsychKM). Wissenschaftlicher Kooperationspartner ist die Ludwig-Maximilians-Universität (LMU) München in Vertretung durch Prof. Dr. Thomas Ehring, Geschäftsführender Direktor, Department Psychologie & Lehrstuhl für Klinische Psychologie und Psychotherapie. Weiterführend wird das Projekt von Vertreter:innen der DGUV, Praxivertreter:innen für den Bereich PSNV und der Fachgruppe Notfallpsychologie des BDP im Forschungsbegleitkreis unterstützt.
Prof. Dr. habil. Claudia Luck-Sikorski, Präsidentin der SRH Hochschule für Gesundheit, freut sich über das neue Projekt: „Was unsere Hochschule auszeichnet, ist eine vielseitige Forschungslandschaft. Praktische Probleme werden in der Lehre auf Grundlage der aktuellen Erkenntnisse analysiert und gelöst. Gleichzeitig treten wir mit unserer Forschung auch unmittelbar für eine gesündere Gesellschaft ein. Im Zuge einer stärkeren Fokussierung auf die psychische Gesundheit in der Arbeitswelt wollen wir mit unserem neuen Projekt einen Beitrag dazu leisten, dass Unternehmen ihre Beschäftigten in Notfallsituationen optimal unterstützen.“
Mehr zur Forschung an der SRH Hochschule für Gesundheit erfahren Interessierte unter www.srh-gesundheitshochschule.de/forschung/
Wissenschaftliche Ansprechpartner:
https://www.srh-gesundheitshochschule.de/unsere-hochschule/hochschulteam/sabine-…
Bodenversalzung gefährdet unsere Umwelt: Klimawandel verschärft das Problem der Bodendegradation
Franziska Trede Presse- und Öffentlichkeitsarbeit, Pressestelle
Technische Universität Hamburg
Etwa 16 Prozent aller landwirtschaftlichen Flächen weltweit werden künstlich bewässert und stark gedüngt. Wenn dieses Wasser verdunstet, reichern sich in den oberen Bodenschichten Salze an. In der Folge droht der Boden zu versalzen und unfruchtbar zu werden. Mit der Zunahme von extremen Wetterereignissen wie Sommerhitze und Starkregen wird dieser Prozess noch verstärkt.
Durch die Kombination einer umfassenden Reihe von Klima-, Boden- und Fernerkundungsdaten sowie Algorithmen des maschinellen Lernens ist es Professor Nima Shokri vom Institut für Geoinformatik der Technischen Universität Hamburg gelungen, erstmals eine Vorhersage über die Zukunft der Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimaszenarien zu erstellen. Seine Ergebnisse wurden jetzt in der renommierten Fachzeitschrift Nature Communications veröffentlicht.
Analysen der Bodenversalzung auf globaler Ebene
Um Aussagen darüber treffen zu können, wie die Bodenversalzung künftig fortschreitet, verwendete Shokri mehr als 40.000 Messwerte des Bodensalzgehalts auf der ganzen Welt. Darüber hinaus ermittelten der Wissenschaftler und sein Team mehrere klimatische und bodenbezogene Parameter wie Niederschlag, Verdunstung und Bodenart, die den Salzgehalt des Bodens beeinflussen. Auf dieser Grundlage trainierten die TU-Forschenden Modelle mit Algorithmen des maschinellen Lernens, um eine Beziehung zwischen dem Salzgehalt und diesen Parametern herzustellen. Diese trainierten Modelle wurden verwendet, um die Bodenversalzung auf globaler Ebene bis zum Jahr 2100 unter verschiedenen Klimawandelszenarien vorherzusagen. „Mithilfe von Big-Data-Analysen und Algorithmen des maschinellen Lernens konnten wir den Salzgehalt des Bodens weltweit mit einer hohen räumlichen und zeitlichen Auflösung bestimmen“, so der Wissenschaftler. Laut Shokris Forschung könnten die Veränderungen bis zum Jahr 2100 unausweichlich sein, wenn wir nicht die notwendigen Maßnahmen ergreifen: „Ohne nachhaltiges Ressourcenmanagement und mit der Business-as-usual-Haltung gegenüber dem Klimawandel wären eine weitere Versalzung und Verschlechterung der Böden und ein möglicher ‚Kipppunkt‘, an dem das System zusammenbricht, unvermeidlich“.
Auch Apfelplantagen im Alten Land sind gefährdet
Die Versalzung der Böden könnte auch in Deutschland zu einem Problem werden, wenn auch aus ganz anderen Gründen als in den trockenen Gebieten. Der steigende Meeresspiegel wirkt sich auf die Küstenregionen aus. Wenn salzhaltiges Meerwasser eindringt und in Zukunft das Grundwasser erreicht, könnte es dieses verseuchen. Für Hamburg und Umgebung wären vielleicht die Apfelplantagen im Alten Land in Gefahr, wenn Landwirte ihre Bäume dann mit salzhaltigem Wasser bewässern.
Mehr Informationen:
https://www.tuhh.de/spektrum/2110/
https://www.nature.com/articles/s41467-021-26907-3
Originalpublikation:
https://www.nature.com/articles/s41467-021-26907-3
Weitere Informationen:
https://www.tuhh.de/spektrum/2110/
Weltweit größtes Fischbrutgebiet in der Antarktis entdeckt
Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Forschende weisen etwa 60 Millionen Nester antarktischer Eisfische auf 240 Quadratkilometern im Weddellmeer nach
Nahe dem Filchner-Schelfeis im Süden des antarktischen Weddellmeers hat ein Forschungsteam das weltweit größte bislang bekannte Fischbrutgebiet gefunden. Ein Kamerasystem fotografierte und filmte tausende Nester von Eisfischen der Art Neopagetopsis ionah am Meeresboden. Die Dichte der Nester und die Größe des gesamten Brutgebiets lassen auf eine Gesamtzahl von etwa 60 Millionen Eisfischen schließen, die während der Untersuchungen dort nisteten. Dies unterstützt den Vorschlag, ein Meeresschutzgebiet im atlantischen Sektor des Südlichen Ozeans einzurichten. Ihre Ergebnisse veröffentlichen Autun Purser vom Alfred-Wegener-Institut und sein Team in der aktuellen Ausgabe der Fachzeitschrift Current Biology.
Die Freude war groß, als Forschende im Februar 2021 auf den Monitoren an Bord des Forschungsschiffs Polarstern unzählige Fischnester sahen, die ihr geschlepptes Kamerasystem vom Meeresboden in 535 bis 420 Metern Wassertiefe des antarktischen Weddellmeeres live an Bord übermittelte. Je länger der Einsatz dauerte, desto mehr wuchs die Begeisterung und endete schließlich in Ungläubigkeit: Nest reihte sich an Nest, und die spätere genaue Auswertung zeigte, dass es durchschnittlich eine Brutstätte pro drei Quadratmeter gab, maximal fand das Team sogar ein bis zwei aktive Nester pro Quadratmeter.
Die Kartierung des Gebietes lässt auf eine Gesamtausdehnung von 240 Quadratkilometern schließen, das entspricht ungefähr der Größe der Insel Malta. Hochgerechnet auf diese Gebietsgröße ergibt sich eine geschätzte Gesamtzahl von etwa 60 Millionen Fischnestern. „Die Vorstellung, dass ein solch riesiges Brutgebiet von Eisfischen im Weddellmeer bisher unentdeckt war, ist total faszinierend“, sagt Dr. Autun Purser, Tiefseebiologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und Hauptautor der aktuellen Veröffentlichung. Schließlich erforscht das Alfred-Wegener-Institut mit seinem Eisbrecher Polarstern das Gebiet bereits seit Anfang der 1980er Jahre. Bislang konnten hier nur einzelne Neopagetopsis ionah oder kleinere Ansammlungen von deren Nestern nachgewiesen werden.
Die einzigartigen Beobachtungen gelangen mit einem sogenannten OFOBS. Die Abkürzung steht für Ocean Floor Observation and Bathymetry System, also Ozeanboden Beobachtungs- und Bathymetriesystem. Dieser Kameraschlitten wurde entwickelt, um den Meeresboden in Extremumgebungen wie eisbedeckten Regionen zu untersuchen. Dazu wird das System an einem speziellen Glasfaser- und Stromkabel normalerweise mit einer Geschwindigkeit von einem halben bis einem Knoten (0,9 bis 1,8 Stundenkilometer) etwa eineinhalb Meter über dem Meeresboden geschleppt. „Nach der spektakulären Entdeckung der vielen Fischnester haben wir uns an Bord eine Strategie überlegt, wie wir am besten herausfinden können, wie groß die Ausmaße des Brutgebiets sind – es war ja im wahrsten Wortsinn kein Ende abzusehen. Die Nester hatten einen Durchmesser von einem dreiviertel Meter – sind also viel größer als die teils nur zentimetergroßen Strukturen und Lebewesen, die wir normalerweise mit dem OFOBS aufspüren“, berichtet Autun Purser. „Deshalb konnten wir die Höhe über Grund auf etwa drei Meter und die Schleppgeschwindigkeit auf maximal drei Knoten heraufsetzen und so die untersuchte Fläche vervielfachen. Wir haben eine Fläche von 45.600 Quadratmetern abgefahren und dabei unfassbare 16.160 Fischnester auf dem Foto- und Videomaterial gezählt“, berichtet Autun Purser.
Anhand der Aufnahmen konnte das Team die runden, etwa 15 Zentimeter tiefen und 75 Zentimeter im Durchmesser großen Fischnester eindeutig identifizieren, die sich durch eine runde zentrale Fläche aus kleinen Steinen vom ansonsten schlammigen Meeresboden abhoben. Es wurde zwischen mehreren Arten von Fischnestern unterschieden: aktive Nester, in denen zwischen 1500 und 2500 Eier lagen und die in dreiviertel der Fälle ein erwachsenerer Eisfisch der Art Neopagetopsis ionah bewachte oder die unbewachte Eier enthielten; außerdem gab es ungenutzte Nester, in deren Nähe entweder nur ein Fisch ohne Eier zu sehen war oder ein toter Fisch. Die Verteilung und Dichte der Nester erfassten die Forschenden mithilfe der weiter reichenden aber weniger hochauflösenden Seiten-Sonare des OFOBS, die über 100.000 Nester aufzeichneten.
Kombiniert haben die Wissenschaftlerinnen und Wissenschaftler ihre Ergebnisse mit ozeanographischen und biologischen Daten. Ergebnis: Das Brutgebiet stimmt räumlich mit dem Einstrom von warmem Tiefenwasser aus dem Weddellmeer auf den höher gelegenen Schelf überein. Mithilfe besenderter Robben gelang es dem multidisziplinären Team außerdem nachzuweisen, dass die Region auch ein beliebtes Ziel von Weddellrobben ist. 90 Prozent der Robben-Tauchaktivitäten fanden in der Region aktiver Fischnester statt, wo sie vermutlich auf Nahrungssuche gingen. Kein Wunder, kalkulieren die Forschenden die Biomasse der Eisfischkolonie dort auf 60 Tausend Tonnen.
Dieses riesige Brutgebiet ist mit seiner Biomasse ein äußerst wichtiges Ökosystem für das Weddellmeer und nach aktuellem Stand der Forschung wahrscheinlich die räumlich umfangreichste zusammenhängende Fischbrutkolonie, die bisher weltweit entdeckt wurde, berichten die Experten in der Veröffentlichung in Current Biology.
Hierzu erklärt Bundesforschungsministerin Bettina Stark-Watzinger: „Ich gratuliere den beteiligten Forscherinnen und Forschern zu ihrem faszinierenden Fund. Die deutsche Meeres- und Polarforschung hat damit nach der MOSAIC-Expedition einmal mehr ihre herausragende Bedeutung unter Beweis gestellt. Die deutschen Forschungsschiffe sind schwimmende Labore der Umweltforschung. Sie sind in den Polargebieten und auf den Ozeanen fast pausenlos als Plattformen für die Wissenschaft unterwegs, um wichtige Erkenntnisse für den Umwelt- und Klimaschutz zu gewinnen. Durch die Förderung des Bundesforschungsministeriums verfügt die deutsche Meeres- und Polarforschung über eine der modernsten Forschungsflotten weltweit. Der Fund kann einen wichtigen Beitrag für die Umweltschutzaufgaben in der Antarktis leisten. Hierfür wird sich das BMBF auch im Rahmen der UN-Dekade der Ozeanforschung für nachhaltige Entwicklung, die noch bis 2030 läuft, weiter einsetzen.“
Für AWI-Direktorin und Tiefseebiologin Prof. Antje Boetius ist die aktuelle Studie ein Zeichen dafür, wie dringend die Einrichtung von Meeresschutzgebieten in der Antarktis ist. „Diese erstaunliche Entdeckung wurde durch eine spezielle Untersuchungstechnologie unter dem Eis ermöglicht, die wir im Rahmen meines ERC Forschungsprojektes entwickelt haben. Sie zeigt, wie wichtig es ist, unbekannte Ökosysteme untersuchen zu können, bevor wir sie stören. Wenn man bedenkt, wie wenig wir über das Leben im antarktischen Weddellmeer wissen, unterstreicht dies um so mehr die Notwendigkeit internationaler Bemühungen, ein Meeresschutzgebiet (MPA) einzurichten“, ordnet Antje Boetius die Ergebnisse der Studie ein, an der sie nicht direkt beteiligt war. Ein Vorschlag für ein MPA wurde unter der Leitung des Alfred-Wegener-Instituts erarbeitet und seit 2016 von der Europäischen Union und ihren Mitgliedsstaaten sowie weiteren unterstützenden Ländern in der internationalen Kommission zur Erhaltung der lebenden Meeresschätze der Antarktis (CCAMLR) vertreten.
Antje Boetius ergänzt: „Leider ist das MPA im Weddellmeer immer noch nicht einstimmig von der CCAMLR verabschiedet worden. Aber jetzt, da der Standort dieser außergewöhnlichen Brutkolonie bekannt ist, sollten Deutschland und andere CCAMLR-Mitglieder dafür sorgen, dass dort auch in Zukunft keine Fischerei und ausschließlich nicht-invasive Forschung stattfindet. Bisher haben die Abgeschiedenheit und die schwierigen Meereisbedingungen in diesem südlichsten Bereich des Weddellmeeres das Gebiet geschützt, aber angesichts des zunehmenden Drucks auf die Ozeane und die Polarregionen sollten wir beim Meeresschutz viel ehrgeiziger sein.“
Originalpublikation:
Autun Purser, Laura Hehemann, Lilian Boehringer, Sandra Tippenhauer, Mia Wege, Horst Bornemann, Santiago E. A. Pineda-Metz, Clara M. Flintrop, Florian Koch, Hartmut H. Hellmer, Patricia Burkhardt-Holm, Markus Janout, Ellen Werner, Barbara Glemser, Jenna Balaguer, Andreas Rogge, Moritz Holtappels, Frank Wenzhoefer: Icefish Metropole: Vast breeding colony discovered in the southern Weddell Sea, Current Biology (2022). DOI: 10.1016/j.cub.2021.12.022 (https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5)
Weitere Infos:
Expeditionsbericht PS124 (2021): https://epic.awi.de/id/eprint/54545/1/BzPM_0755_2021.pdf
PS124 Wochenbericht: https://www.awi.de/expedition/schiffe/polarstern/wochenberichte-polarstern/woche…
Informationsmaterial zum Meeresschutzgebiet im Weddellmeer: https://www.awi.de/ueber-uns/service/presse/presse-detailansicht/default-11d138e…
Hinweise für Redaktionen:
Videomaterial vom Meeresboden sowie druckbare Bilder finden Sie hier: https://we.tl/t-77acNZ88J3
Ihr wissenschaftlicher Ansprechpartner ist Dr. Autun Purser, E-Mail: autun.purser@awi.de.
Ihre Ansprechpartnerin in der AWI-Pressestelle ist Dr. Folke Mehrtens, Tel. 0471 4831-2007 (E-Mail: medien@awi.de).
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Originalpublikation:
https://www.cell.com/current-biology/fulltext/S0960-9822(21)01698-5
Coronapandemie dämpft Anstieg – Entwicklung der tariflichen Ausbildungsvergütungen 2021
Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)
Die tariflichen Ausbildungsvergütungen in Deutschland sind 2021 im Vergleich zum Vorjahr im bundesweiten Durchschnitt um 2,5 % gestiegen. Der Vergütungsanstieg lag damit in etwa auf dem Vorjahresniveau (2,6 %), fiel aber deutlich schwächer aus als in den Jahren vor Beginn der Coronapandemie.
Die Auszubildenden erhielten 2021 im Durchschnitt über alle Ausbildungsjahre tarifliche Vergütungen in Höhe von 987 € brutto im Monat. Für Auszubildende in Westdeutschland ergab sich mit 989 € ein leicht höherer Durchschnittswert als für ostdeutsche Auszubildende mit 965 €. In Ostdeutschland wurden somit 98 Prozent der westdeutschen Vergütungshöhe erreicht. Dies sind die zentralen Ergebnisse der Auswertung der tariflichen Ausbildungsvergütungen für das Jahr 2021 durch das Bundesinstitut für Berufsbildung (BIBB).
Seit 1976 wertet das BIBB die tariflichen Ausbildungsvergütungen jährlich zum Stichtag 1. Oktober aus. In die Berechnung der Durchschnittswerte für Gesamtdeutschland sowie für Ost- und Westdeutschland fließen alle Ausbildungsberufe ein, für die Daten zu tariflichen Ausbildungsvergütungen vorliegen. In der BIBB-Datenbank „Tarifliche Ausbildungsvergütungen“ (http://www.bibb.de/ausbildungsverguetung) werden Durchschnittswerte für 173 Berufe in West- und 115 Berufe in Ostdeutschland ausgewiesen.
Zwischen 2012 und 2019 waren mit Ausnahme des Jahres 2017 stets Anstiege von deutlich über drei Prozent zu verzeichnen. Während der Coronapandemie wurden Tarifverhandlungen teilweise verschoben. Häufig standen auch die Beschäftigungssicherung und die Abmilderung der Folgen der wirtschaftlichen Einschränkungen stärker im Blickpunkt als Lohnsteigerungen. Dies hatte eine dämpfende Wirkung auf die Höhe der Tarifabschlüsse. Zugleich kam es durch den Rückgang bei der Zahl der Neuabschlüsse von Ausbildungsverträgen 2020 zu Verschiebungen in der Zahl der Auszubildenden in den einzelnen Ausbildungsjahren sowie zwischen weniger und stärker von der Pandemie betroffenen Branchen. Bei der Durchschnittsberechnung über alle Ausbildungsjahre haben daher zum Beispiel Auszubildende im zweiten bis vierten Ausbildungsjahr ein höheres Gewicht als in den Vorjahren.
Je nach Ausbildungsberuf zeigen sich erhebliche Unterschiede in der Vergütungshöhe. Die im gesamtdeutschen Durchschnitt höchsten tariflichen Ausbildungsvergütungen wurden im Beruf Zimmerer/Zimmerin mit monatlich 1.251 € gezahlt. In insgesamt 17 Berufen lagen die tariflichen Vergütungen im Durchschnitt über alle Ausbildungsjahre über 1.100 €. Hier finden sich vor allem Berufe aus dem Baugewerbe wie Maurer/-in (1.196 €) oder Straßenbauer/ in (1.177 €), aber auch kaufmännische Berufe wie Bankkaufmann/-frau (1.138 €) oder Kaufmann/ frau für Versicherungen und Finanzen (1.135 €). Insgesamt erhielt rund die Hälfte der Auszubildenden, die in einem tarifgebundenen Betrieb lernten, 2021 eine Ausbildungsvergütung von mehr als 1.000 Euro, sieben Prozent sogar mehr als 1.200 €.
Bei 16 Prozent der Auszubildenden lagen die tariflichen Ausbildungsvergütungen 2021 unterhalb von 800 €. Für 22 Berufe wurde ein bundesweiter Durchschnittswert von weniger als 800 € ermittelt. Die meisten dieser Berufe gehörten zum Handwerk wie Tischler/-in (786 €), Glaser/-in (777 €), Bäcker/-in (744 €) und Friseur/-in (650 €). Die insgesamt niedrigsten tariflichen Ausbildungsvergütungen gab es mit 637 € im Beruf Orthopädieschuhmacher/-in.
Zwischen den Ausbildungsbereichen unterschieden sich die Ausbildungsvergütungen ebenfalls deutlich. Über dem gesamtdeutschen Durchschnitt von 987 € lagen die tariflichen Ausbildungsvergütungen im öffentlichen Dienst (1.095 €) sowie in Industrie und Handel (1.039 €), darunter in der Landwirtschaft (936 €), im Bereich der freien Berufe (911 €) und im Handwerk (882 €). Im Vergleich zum Jahr 2020 stiegen im Handwerk (+3,8 %) und in der Landwirtschaft (+4,2 %) die Ausbildungsvergütungen stärker an als im Gesamtdurchschnitt (+2,5 %).
Eine ausführliche Darstellung der Ergebnisse sowie die Möglichkeit zum Download von elf Abbildungen finden Sie im Beitrag „Tarifliche Ausbildungsvergütungen 2021 – Anstieg von 2,5 %“ im Internetangebot des BIBB unter http://www.bibb.de/ausbildungsverguetung-2021.
Eine tabellarische Gesamtübersicht über die für 2021 ermittelten Vergütungsdurchschnitte in den erfassten Berufen ist abrufbar unter http://www.bibb.de/ausbildungsverguetung.
Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!
Rainer Krauß Hochschulkommunikation
Hochschule Hof – University of Applied Sciences
Forschende des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof wollen den Arbeits- und Materialeinsatz unter anderem bei der Bewirtschaftung von Teichanlagen senken. Gelingen soll dies mit Hilfe biologisch abbaubarer, sogenannter „Aufwuchskörper“ zur Wasserreinigung. Diese könnten konventionelle Reinigungselemente aus Plastik schon bald ersetzen und somit auch Mikroplastik in Wasser und Fischen reduzieren. Das Forschungsprojekt dazu läuft seit April 2021.
Die Aquakultur gehört zu dem am schnellst wachsendem Lebensmittelsektor mit einer jährlichen Produktion im Wert von 250 Milliarden US-Dollar. Aufwuchskörper sind dabei nicht wegzudenken: Durch ihre große Oberfläche auf welcher Bakterien siedeln, helfen sie giftiges Ammonium und Nitrit in weniger schädliches Nitrat umzuwandeln. Gleichzeitig wird so Wasser gespart und die Umwelt geschützt. Doch bestehen Aufwuchskörper in der Regel aus Plastik oder anderen erdölbasierten Kunststoffen. „Ihr Recycling ist aufwändig und Plastik in den Weltmeeren und Gewässern stellt die Menschheit vor eine große Herausforderung – aus Plastik kann schließlich Mikroplastik entstehen, das wir über unser Essen selbst wieder zu uns nehmen und das in jedem Fall schädlich auf die Umwelt und ihre Organismen einwirkt“, erklärt Dr. Harvey Harbach, Verantwortlicher für den Forschungsbereich Aquaponik an der Hochschule Hof.
Biokunststoff statt Plastik
Generell gilt es deshalb Stoffe zu finden, welche konventionelles Plastik ersetzen können. Im Fall der Aufwuchskörper bietet sich als Werkstoff der Einsatz von Biokunststoff an. Ein Forscherteam des Instituts für Wasser- und Energiemanagement (iwe) der Hochschule Hof um Projektleiter und Ideengeber Dr. Harvey Harbach beschäftigt sich genau damit: In Zusammenarbeit mit dem ebenfalls an der Hochschule Hof ansässigen Institut für Biopolymerforschung (ibp) und einem Wirtschaftsunternehmen aus Franken werden seit Anfang April 2021 unter dem Projektnamen „BioBioCarrier“ vollständig biologisch abbaubare Aufwuchskörper für die biologische Wasseraufbereitung entwickelt. Gefördert wird das bis 2023 laufende Projekt durch das Bundesministerium für Wirtschaft und Energie im Rahmen des zentralen Innovationsprogrammes Mittelstand (ZIM).
Test verschiedener Materialien
„Die Schwierigkeiten im Projekt liegen bei der richtigen Auswahl der Biopolymere und der damit verbundenen Abbaubarkeit im Wasser. Der neue Aufwuchskörper darf sich nicht zu schnell im Süßwasser abbauen“, erklärt Projektmitarbeiterin Frau Christin Baumgart. Durch die Kombination von verschiedenen Polymeren miteinander sollen neue Eigenschaften generiert werden: „Das bedeutet, dass die biologische Abbaubarkeit in Wasser angepasst werden kann.“ Die bisherigen Ergebnisse sehen jedoch vielversprechend aus. Entsprechend konnten bereits Fortschritte erzielt und Lösungswege identifiziert werden. Bis zur Marktreife müssen jedoch noch einige Hürden genommen werden: “Bei der Auswahl der Stoffe wird darauf geachtet, dass diese nicht gesundheitsschädlich sind. Da die Anwendung in der Aquaponik stattfindet, müssen die Stoffe auch für die Fische und Pflanzen geeignet sein. Das bedeutet, dass hier ein großes Augenmerk auf die Unbedenklichkeit der Stoffe gelegt wird, alle biologisch abbaubar und sogar biobasiert sein sollten“. Ferner müsste „aber auch die biologische Abbaubarkeit noch ausführlich betrachtet werden, damit diese sich in dem vorgegebenen Zeitrahmen zersetzen.“
Neuentwicklung winkt
Eine entscheidende Herausforderung im Projekt, die aber einen Durchbruch innerhalb der betroffenen Industrie bedeuten könnte, könnte letztlich eine Neuentwicklung liefern, an der man derzeit in Hof arbeitet: „In aquaponischen Systemen müssen in regelmäßigen Abständen Nährstoffe zugegeben werden, ohne die Pflanzen nicht oder nur schlecht wachsen können. Unsere Idee ist es, den biologischen Abbau von des Produktes mit dem Freisetzen der für die Pflanzen benötigten Stoffe zu kombinieren. Dies würde folglich die Arbeitszeit reduzieren und die Wirtschaftlichkeit verbessern“, so Dr. Harbach. Und weiter: „Zurzeit sind keine vergleichbaren Produkte auf dem Markt. Hier würde es sich um eine echte Innovation handeln. Wir arbeiten auf Hochtouren und rechnen schon bald weiteren Ergebnissen“.
Wissenschaftliche Ansprechpartner:
Dr. Harvey Harbach
Institut für Wasser- und Energiemanagement (iwe)
Wissenschaftlicher Mitarbeiter
Hochschule Hof
Alfons-Goppel-Platz 1
95028 Hof
Fon: +49 (0) 9281 / 409 4591
E-Mail: harvey.harbach@hof-university.de
Anhang
Ökologische Wasserreinigung in Aquakulturen – mit weniger Aufwand!
Mehr Regentage schaden der Wirtschaft
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Das Wirtschaftswachstum geht zurück, wenn die Zahl der Regentage und der Tage mit extremen Regenfällen zunimmt. Das hat jetzt ein Team Potsdamer Wissenschaftler herausgefunden. Am stärksten betroffen sind reiche Länder und hier die Sektoren Industrie und Dienstleistung, so die als Titelthema der renommierten wissenschaftlichen Zeitschrift ‚Nature‘ veröffentlichte Studie. Die Analyse von Daten aus den letzten 40 Jahren und von mehr 1.500 Regionen zeigt einen klaren Zusammenhang und legt nahe, dass infolge des Klimawandels verstärkte tägliche Regenfälle der Weltwirtschaft schaden werden.
„Hier geht es um unseren Wohlstand, und letztlich um Arbeitsplätze. Die Wirtschaft wird weltweit durch mehr Regentage und extreme tägliche Niederschläge gebremst – eine wichtige Erkenntnis, die zu unserem wachsenden Verständnis der wahren Kosten des Klimawandels beiträgt“, sagt Leonie Wenz vom Potsdam-Institut für Klimafolgenforschung (PIK) und dem Mercator Research Institute on Global Commons and Climate Change (MCC), die die Studie geleitet hat.
„Makroökonomische Abschätzungen der Klimafolgen haben sich bisher hauptsächlich auf die Temperatur konzentriert und – wenn überhaupt – Veränderungen der Niederschlagsmenge nur über längere Zeiträume wie Jahre oder Monate betrachtet, was leider ein unvollständiges Bild bot“, so Wenz. „Während mehr Jahresniederschlag im Allgemeinen gut für eine Volkswirtschaft sind, insbesondere wenn diese stark von der Landwirtschaft abhängt, ist eine entscheidende Frage auch, wie sich der Regen über die Tage des Jahres verteilt. Verstärkte extreme Regenfälle erweisen sich als schlecht, besonders für reiche Industrieländer wie die USA, Japan oder Deutschland.“
In ihrer Art erstmalige globale Analyse
„Wir haben eine Reihe verschiedener Effekte auf die wirtschaftliche Produktion ermittelt, aber der wichtigste ist der von extremen täglichen Regenfällen“, sagt Maximilian Kotz, Erstautor der Studie und ebenfalls Forscher am Potsdam-Institut. „Bei den Niederschlagsextremen können wir den Einfluss des Klimawandels schon jetzt am deutlichsten sehen. Sie nehmen fast überall auf der Welt zu.“
Die Forschenden haben ihre Ergebnisse gewonnen durch eine statistische Auswertung von Daten zur subnationalen Wirtschaftsleistung für 1.554 Regionen weltweit im Zeitraum 1979-2019, die von MCC und PIK gesammelt und öffentlich zugänglich gemacht wurden. Das Team hat diese dann verknüpft mit detaillierten Daten zu Niederschlägen. Die Kombination von immer genaueren Klima- und Wirtschaftsdaten ist mit Blick auf den Faktor Regen, der meist ein sehr lokales Phänomen ist, von besonderer Bedeutung.
„Es ist der tägliche Niederschlag, der die Bedrohung ausmacht“
Die Menschheit heizt das Erdsystem auf, indem sie immer mehr Treibhausgase etwa aus fossilen Kraftwerken und Autos in der Atmosphäre ablagert. Wärmere Luft kann mehr Wasserdampf aufnehmen, der irgendwann zu Regen wird. Interessanterweise ist die Veränderung des mittleren Niederschlags von Region zu Region unterschiedlich, die täglichen Regenextreme hingegen nehmen aufgrund des Wasserdampfeffekts auf der ganzen Welt zu.
„Unsere Studie zeigt, dass der Fingerabdruck der globalen Erwärmung in den täglichen Niederschlägen erhebliche wirtschaftliche Auswirkungen hat. Diese sind bisher nicht berücksichtigt worden, aber extrem wichtig“, sagt Ko-Autor Anders Levermann, Leiter des Bereichs Komplexitätsforschung des Potsdam-Instituts, Professor an der Universität Potsdam und Forscher am Lamont Doherty Earth Observatory der Columbia University, New York. „Ein genauerer Blick auf kurze Zeitskalen anstelle von Jahresdurchschnitten zeigt: Es ist der tägliche Regen, der die Bedrohung darstellt. Es sind die Klimaschocks durch Wetterextreme, die unsere Lebensweise bedrohen, nicht die allmählichen Veränderungen. Indem wir unser Klima destabilisieren, schaden wir unserer Wirtschaft. Wir müssen dringend dafür sorgen, dass das Verfeuern fossiler Brennstoffe nicht auch unsere Gesellschaft destabilisiert.“
Originalpublikation:
Maximilian Kotz, Anders Levermann, Leonie Wenz (2022): The effect of rainfall changes on economic production. Nature [DOI:10.1038/s41586-021-04283-8]
Corona in wastewater at record high
Press contact: Margareta G. Kubista, press@sahlgrenska.gu.se Kommunikationsavdelningen / Communications Department
Schwedischer Forschungsrat – The Swedish Research Council
In a week, the levels of the coronavirus in Gothenburg’s wastewater have skyrocketed and increased by about 250% compared to the concentration from the previous weekly survey and the highest measured value so far during the pandemic. University of Gothenburg researchers also say the delta variant has been almost eliminated by omicron.
Two weeks ago, a sharp rise in SARS-CoV-2 was reported in the wastewater of Gothenburg. It was the biggest increase a single week since the second wave of the pandemic about a year ago.
By last week the rise, though still under way, had slowed slightly. The level was then approaching the second wave’s peak in December 2020.
The level now measured means that a far larger number of people than ever before during the pandemic have now, simultaneously, become infected. SARS-CoV-2 concentrations in the Gothenburg wastewater are now between three and four times higher than the previous week’s level and the earlier peak in December 2020.
Impact on health care in a week’s time
Heléne Norder is an adjunct professor of microbiology at the Sahlgrenska Academy Department of Infectious Diseases, University of Gothenburg, and microbiologist at Sahlgrenska University Hospital. The results she and her colleagues have now announced are based on samples taken in the week from January 3rd to 9th.
“There must be a large number of infected now. Hopefully most of them are vaccinated and their illness is mild. But still, a certain percentage of them will be causing a burden on health care. Based on what we’ve seen before, that’s going to happen in about a week,” she says.
The share of the omicron virus variant has successively risen during December and January, while the relative level of the delta variant has decreased. The current results show a massive predominance of omicron, as expected.
Five delta to 10,000 omicron
Measured in virus levels in the samples — rather than the number of infected people — the ratio of delta to omicron is 5:10,000.
“Delta isn’t completely gone. It’s still there, but it’s a tiny proportion,” Norder says.
The SARS-CoV-2 surveys in the local wastewater have been underway since February 2020. They are carried out in collaboration with the municipally owned company Gryaab, which treats wastewater in Gothenburg and the surrounding municipalities. Gryaab sends one sample a week, composed of samples collected daily, to Norder’s research group.
The researchers regularly report their findings to care providers and the Infection Control Unit in Region Västra Götaland. The same applies to the levels of influenza viruses, norovirus (the “winter vomiting bug”), and respiratory syncytial (RS) viruses. Figures for these other viruses are reported later in the week.
Wissenschaftliche Ansprechpartner:
Contact: Heléne Norder, tel. 46 702 791 999, email helene.norder@gu.se
Weitere Informationen:
https://www.expertsvar.se/wp-content/uploads/2021/08/Helene-Norder-Portrait.png
http://Images: Heléne Norder (photo: Elin Lindström)
Neue Abteilungen der Gewässerforschung am IGB
Nadja Neumann Kommunikation und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Der Jahresbeginn 2022 markiert für das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) eine besondere Zäsur, denn es ist einiges in Bewegung geraten: Die Abteilungen wurden neu strukturiert und zwei exzellente Köpfe für die Leitung hinzugewonnen. Die Professorin Sonja Jähnig leitet von nun an die neue Abteilung Ökologie der Lebensgemeinschaften und Ökosysteme. Professor Jonathan Jeschke leitet die neue Abteilung Evolutionäre und Integrative Ökologie.
Zum Neuen Jahr präsentieren sich die Forschungsabteilungen des IGB in einer veränderten Zusammensetzung und mit neuen Namen. „Mit vielen neuen Köpfen sind in den letzten Jahren erfreulicherweise auch neue Ideen, Expertisen und thematische Schwerpunkte ans IGB gekommen. Denen wollen wir nun einen angemessenen Platz einräumen, wobei die fünf Abteilungen die wichtigsten übergreifenden Disziplinen repräsentieren, für die das IGB steht“, begründet Luc De Meester, der das IGB seit zwei Jahren leitet. Zwei Abteilungen sind neu entstanden, die Abteilung für Ökologie der Lebensgemeinschaften und Ökosysteme unter Führung von Sonja Jähnig sowie die Abteilung für Evolutionäre und Integrative Ökologie, die Jonathan Jeschke leitet.
Darüber hinaus wurden die ehemaligen Abteilungen für Ökohydrologie und Chemische Analytik und Biogeochemie unter dem Namen Ökohydrologie und Biogeochemie und unter Leitung von Dörthe Tetzlaff zusammengeführt. Aus den beiden bisherigen Abteilungen für Biologie und Ökologie der Fische sowie Ökophysiologie und Aquakultur ist die neue Abteilung Biologie der Fische, Fischerei und Aquakultur entstanden, geleitet von Jens Krause und Werner Kloas. Das integriert die IGB-Forschung zur Binnenfischerei und Aquakultur mit der Grundlagenforschung zur Biologie der Fische. Die Abteilung Experimentelle Limnologie, die in Neuglobsow angesiedelt ist und von Mark Gessner geleitet wird, heißt jetzt Plankton- und mikrobielle Ökologie, um ihren einzigartigen Beitrag zum Forschungsportfolio des IGB besser widerzuspiegeln.
„Die Umstrukturierung ist ein wichtiger interner Prozess, der gleichzeitig die Empfehlungen unseres Wissenschaftlichen Beirats aufgreift sowie unsere neue inhaltliche Aufstellung zum Ausdruck bringt“, erläutert De Meester. „Wir bringen verschiedene Disziplinen zusammen, um ein tieferes Verständnis von Binnengewässern und ihrer Biota in all ihren Aspekten zu erlangen – von ihren abiotischen Merkmalen bis zu ihrem einzigartigen Leben, von der Physiologie und dem Verhalten von Individuen bis zu ganzen Ökosystemen und ihrer Bedeutung für die Gesellschaft. Denn Teiche, Seen, Bäche, Flüsse, ihre Auen und Feuchtgebiete sind nicht nur lebenswichtige Ressourcen und einzigartige Lebensräume. Sie sind auch stark von menschlichen Aktivitäten, von Klima- und Umweltwandel betroffen. Um globalen Herausforderungen wie der Erderwärmung, Fragen der Wasserverfügbarkeit, der fortschreitenden Urbanisierung oder dem Verlust von Lebensräumen, Arten und Genen zu begegnen, möchten wir Politik und Gesellschaft auf Basis exzellenter wissenschaftlicher Erkenntnisse beraten und eine praxisnahe Anwendung unterstützen“, fasst er die Zielstellung des IGB zusammen.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von sieben natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de
Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
Wissenschaftliche Ansprechpartner:
Prof. Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
sonja.jaehnig@igb-berlin.de
Prof. Dr. Jonathan Jeschke
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
jonathan.jeschke@igb-berlin.de
Weitere Informationen:
https://www.igb-berlin.de/news/wir-haben-das-grosse-bild-der-biologischen-vielfa…
https://www.igb-berlin.de/news/gute-wissenschaft-ist-meist-teamarbeit-bei-der-si…
Arktische Küsten im Wandel
Sebastian Grote Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Permafrost-Forschende analysieren die Triebkräfte für die schnellen Veränderungen arktischer Küsten und die Auswirkungen für Mensch und Umwelt
Arktische Küsten zeichnen sich durch Meereis, Permafrost und Bodeneis aus. Das macht sie besonders empfindlich für die Auswirkungen des Klimawandels, der die ohnehin schon sehr schnelle Küstenerosion noch weiter beschleunigt. Die steigende Erwärmung beeinflusst Uferstabilität, Sedimente, Kohlenstoffspeicher und Nährstoffmobilisierung. Um Prognosen und Anpassungsstrategien für die arktischen Küsten zu verbessern, ist es unabdingbar, die Wechselwirkungen zwischen diesen Veränderungen zu verstehen. In einer Sonderausgabe des Fachmagazins Nature Reviews Earth & Environment beschreiben Forschende des Alfred-Wegener-Instituts die Empfindlichkeit der arktischen Küsten gegenüber dem Klimawandel und vor welchen Herausforderungen Mensch und Natur stehen.
„Das Tempo der Veränderungen in der Arktis nimmt zu und führt zu einem beschleunigten Rückzug der Küsten“, sagt Dr. Anna Irrgang vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). „Das wirkt sich sowohl auf die natürliche als auch auf die menschliche Umwelt aus, zum Beispiel indem Kohlenstoff aus dem Boden in das Meer und in die Atmosphäre gelangt oder das Land abbricht, das Gemeinden und Infrastrukturen trägt.“ Wie genau und wie stark sich die Veränderungen zeigen, hängt vom Zusammenspiel der lokalen Beschaffenheit der Küste ab, wie dem Vorhandensein von Permafrost und Umweltfaktoren wie Luft- und Wassertemperatur. „Prognosen hierüber sind häufig mit großen Unsicherheiten behaftet, denn zuverlässige ozeanographische und Umweltdaten für die entlegenen Küstenzonen sind nur begrenzt verfügbar“, so Irrgang. Um das Verständnis zu verbessern und damit auch die Vorhersagen über künftige Entwicklungen, hat die AWI-Permafrostforscherin in einem Übersichtsartikel die wichtigsten Faktoren zusammengetragen, die auf die arktischen Küsten einwirken und die für die Entwicklung von Anpassungsstrategien an den Klimawandel entlang arktischer Küsten wichtig sind.
Umweltfaktoren und lokale Bedingungen treiben den Küstenwandel an
Je nach Region besitzen arktische Küsten unterschiedliche Strukturen. In Alaska, Kanada oder Sibirien sind sie beispielsweise besonders reich an Bodeneis mit bis zu 40 Meter hohen Permafrost-Steilküsten. In Grönland, auf Spitzbergen und dem kanadischen Archipel enthalten die Küsten dagegen in der Regel nur sporadisch Bodeneis, bestehen ansonsten größtenteils aus grobem Sediment, das aus dem Schmelzwasser von Gletschern stammt, oder sogar aus Festgestein. Diese regionalen geomorphologischen Unterschiede beeinflussen, wie sich andere Umweltvariablen auf die Küsten auswirken. Verändern sich zum Beispiel die Luft- und Wassertemperatur, beeinflusst das das gesamte Küstensystem. Eisreiche Permafrost-Steilküsten, die teils bis zu 80 Prozent aus Eis bestehen, sind beispielsweise recht widerstandsfähig gegenüber mechanischen Wellenaktivitäten. Wenn sie jedoch wegen erhöhter Luft- und Wassertemperaturen auftauen, werden sie besonders anfällig für die Zerstörung durch Wellen, was sich durch schnellen Küstenabtrag äußert.
Arktische Küsten sind somit besonders klimaempfindlich: Die globale Erwärmung führt dazu, dass Permafrostböden immer großflächiger auftauen, Bodeneis schmilzt und dadurch Landoberflächen einbrechen. Das beeinflusst wiederum die Verfügbarkeit und Qualität von Wasser, das Wachstum von Pflanzen und verstärkt das Abtragen von Böden (Erosion) und Überschwemmungen an der Küste. Zusätzlich steigt in weiten Teilen der Arktis die Temperatur der Meeresoberfläche an, was die meereisfreie Zeit verlängern kann. Küsten sind dann vor allem in der stürmischen Herbstzeit deutlich länger starken Wellen ausgesetzt.
Veränderungen an der arktischen Küste
Vergleicht man die Veränderungsraten arktischer Küstenlinien miteinander, zeigt sich, dass die überwältigende Mehrheit der Permafrostküsten durch Erosion zurückgehen. Die nordkanadische Herschel-Insel etwa verliert pro Jahr bis zu 22 Meter seiner Steilküste. Taut Permafrost ab, können dadurch organischer Kohlenstoff, Nährstoffe und Schadstoffe in die küstennahe Umwelt und in die Atmosphäre entweichen. Die Fachleute schätzen, dass durch Küstenerosion jährlich etwa 14 Megatonnen organischen Kohlenstoff in den Arktischen Ozean gelangen, und damit mehr als von den riesigen arktischen Flüssen eingespült wird. Das Auftauen bisher fester Böden wirkt sich auch auf die Menschen vor Ort aus. Rund 4,3 Millionen von ihnen werden mit den Folgen konfrontiert sein: Sie verlieren Gebäude und Straßen, traditionelle Jagdgebiete und auch Kulturstätten. In Alaska müssen ganze Siedlungen bereits jetzt aufgegeben werden und Menschen umziehen. Denn die Erosion gefrorener Flächen erhöht die Risiken für Permafrosttauen und gegenwärtig unkalkulierbare Umweltverschmutzungen durch industrielle Infrastrukturen. Erst langfristig könnten sich neue Chancen durch die Veränderungen auftun, weil der Zugang zu Ressourcen in bisher nicht erreichbare Regionen, neue landwirtschaftliche Flächen und auch Schifffahrtsrouten für Handel und Tourismus erschlossen werden könnten.
Genaue Daten für gute Lebensbedingungen an arktischen Küsten
„Unser derzeitiges Verständnis der arktischen Küstendynamik ist fragmentiert, da es zu wenige Daten über Umweltfaktoren und die Veränderung der Küstenlinien mit hoher räumlicher und zeitlicher Auflösung gibt“, sagt Anna Irrgang. „Zwar gibt es solche Datensätze bereits für einige Regionen wie Nordalaska, der größte Teil der arktischen Küste ist aber nur unzureichend erfasst.“ Dabei werden arktisweite Beobachtungen von Umweltfaktoren und Küstenveränderungen dringend benötigt, um Unsicherheiten bei Prognosen zu verringern. Diese würden lokale Gemeinden dabei unterstützen, sich mit neuen sozio-ökologischen Entwicklungen zu arrangieren. „Hierfür müssen wir Anpassungsmethoden entwickeln, die gute und nachhaltige Lebensbedingungen in arktischen Küstensiedlungen ermöglichen. Eine enge Zusammenarbeit mit den Menschen vor Ort ist dabei zentral“, sagt Anna Irrgang.
Die Analyse des arktischen Küstenwandels ist Teil der Sonderausgabe „Permafrost“ des Fachmagazins Nature Reviews Earth & Environment.
Die Sektion Permafrost des AWI ist zusätzlich noch mit zwei weiteren Beiträgen beteiligt: In einer Übersicht zeigen Forschende, wie in arktischen und borealen Tiefland-Gebieten Millionen von Tau-Seen und drainierten Seebecken durch das Schmelzen von eisreichem Permafrost entstanden und gewachsen sind. Diese Vorgänge beeinflussen Landschafts- und Ökosystemprozesse sowie die Lebensgrundlagen der Menschen in den riesigen arktischen Tiefland-Regionen. Ein dritter Beitrag stellt das Projekt „Permafrost-Comics“ vor, das Cartoons nutzt, um Wissen zum Thema Permafrost leichter für ein breites und vor allem auch junges Publikum zugänglich zu machen.
Originalpublikation:
Anna M. Irrgang, Mette Bendixen, Louise M. Farquharson, Alisa V. Baranskaya, Li H. Erikson, Ann E. Gibbs, Stanislav A. Ogorodov, Pier Paul Overduin, Hugues Lantuit, Mikhail N. Grigoriev, Benjamin M. Jones (2022): Drivers, dynamics and impacts of changing Arctic coasts. Nature Reviews Earth & Environment, DOI: 10.1038/s43017-021-00232-1
Druckbare Bilder finden Sie nach Ablauf der Sperrfrist in der Online-Version dieser Pressemitteilung: https://www.awi.de/ueber-uns/service/presse.html
Ihre wissenschaftliche Ansprechpartnerin ist Dr. Anna Irrgang, Tel. +49 331 288-2142
(E-Mail: anna.irrgang@awi.de).
Ihre Ansprechpartnerin in der Pressestelle ist Sarah Werner, Tel. +49 471 4831-2008
(E-Mail: sarah.werner@awi.de).
Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Originalpublikation:
https://doi.org/10.1038/s43017-021-00232-1
Wie das Amazonasbecken die Atacama-Wüste bewässert
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Wasser aus dem Amazonasbecken ist die wichtigste Niederschlagsquelle in der Atacama-Wüste / Forschungsergebnisse helfen, die geologische Vergangenheit der Wüste zu rekonstruieren und Wetterbedingungen für astronomische Beobachtungen vorherzusagen
Neue Forschung hat gezeigt, dass das Amazonasbecken die wichtigste Ursprungsregion für Niederschlag in der Atacama-Wüste im Norden Chiles ist. Vom Regenwald aus wandert aufsteigender Wasserdampf mehr als 2.000 km nach Westen, überquert die Anden und wendet sich über dem Pazifik nach Südosten, um über der Atacama-Wüste Niederschlag zu bilden. Dr. Christoph Böhm vom Institut für Geophysik und Meteorologie der Universität zu Köln hat sogenannte Feuchtigkeitsförderbänder (moisture conveyor belts – MCBs) als Hauptmechanismus für Niederschläge identifiziert. Sie sind für 40 bis 80 Prozent des Gesamtniederschlags in der Atacama verantwortlich. Die Ergebnisse zeigen einen neuen Weg der Wasserversorgung für eine der trockensten Regionen der Erde, neben Sommerregen durch feuchte Ostwinde (Bolivianisches Hoch) und Winterregen im Zusammenhang mit westlichen Sturmzügen. Die Studie wurde in der Fachzeitschrift „Geophysical Research Letters“ veröffentlicht.
Abgesehen von den Polen ist die Atacama-Wüste mit einer jährlichen Niederschlagsmenge von weniger als 2 l/m² die trockenste Region der Erde. Zum Vergleich: in Köln fallen in einem durchschnittlichen Jahr etwa 800 l/m². Bisher wurden zwei unterschiedliche Niederschlagsmechanismen für die Atacama-Wüste beschrieben: Im Sommer verlagern episodische feuchte Ostwinde Sturmsysteme über die Andenkette, die in der Regel einen Transfer feuchter Luft aus dem Inneren des Kontinents behindert. Die damit verbundenen Niederschläge fallen vor allem im nordöstlichen Teil der Atacama-Wüste und nehmen zum tiefer gelegenen trockenen Kern der Wüste hin ab. Im Winter können Tiefdruckgebiete, die wir aus den gemäßigteren Regionen der mittleren Breiten gewohnt sind, auch subtropische Regionen erreichen und dort Wolken und Regen verursachen. Diese Systeme betreffen vor allem die südwestliche Atacama und haben ihren Ursprung über dem Pazifischen Ozean.
Böhm hat nun einen dritten Mechanismus entdeckt, der zu extremen Niederschlagsereignissen führt: „Mit einem Anteil von mehr als der Hälfte am Gesamtniederschlag in der Atacama-Wüste hat unsere Forschung Feuchtigkeitsförderbänder als Hauptniederschlagsquelle nachgewiesen. Das sind besondere Wetterphänomene, die sich durch einen starken Wasserdampftransport auszeichnen.“ Entlang der fadenförmigen Strukturen, die sich meist in Höhen zwischen 3.000 und 6.000 m über dem Meeresspiegel befinden, wird Wasser über weite Strecken transportiert, ohne dass es dabei zu einem großen Austausch mit der darunterliegenden feuchtereichen Pazifikluft kommt. Wenn das Band aus Wasserdampf aus dem Amazonasbecken von Nordwesten her die Atacama-Wüste erreicht, muss die Luftströmung das bis zu 2.500 m hohe Küstengebirge überqueren. Die Luft wird gezwungen, aufzusteigen, was zu einer Abkühlung und damit zur Niederschlagsbildung führt.
„Je heftiger das Niederschlagsereignis, desto eher ist es mit einem solchen Feuchteförderband verbunden“, sagt Böhm. „In einem konkreten Fall fielen in einer Region im trockensten Teil der Wüste mehr als 50 l/m² Regen, was das Zehnfache des Jahresdurchschnitts übersteigt. Für hoch angepasste Arten kann die plötzliche Wasserverfügbarkeit den Tod bedeuten.“ Gleichzeitig lösen solche Ereignisse biologische Explosionen wie die spektakuläre blühende Wüste aus. Darüber hinaus kann der durch starke Regenfälle verursachte Abfluss Schutt bewegen und die Landschaft umgestalten. Spuren solcher Aktivitäten, wie die Ablagerung von Pollen und organischem Kohlenstoff oder bewegtes Material unterschiedlicher Korngrößen, werden im Wüstenboden sichtbar und durch die anhaltende Trockenheit konserviert.
„Die Forschung nutzt geologische Archive wie solche Bodenproben, um die Klimageschichte zu rekonstruieren. Jetzt wissen wir, dass wir Hinweise auf Phasen häufigerer Starkregenereignisse in Anbetracht der Feuchtigkeitsförderbänder interpretierten müssen, die das Niederschlagssignal in diesen Archiven dominieren dürften“, erklärt Böhm. Zusätzlich können Wissenschaftler:innen aus verschiedenen Isotopen von Wasseratomen im Wüstenboden Informationen über die Feuchtigkeit in vergangenen geologischen Epochen gewinnen. Das Verhältnis von schwereren, neutronenhaltigen zu leichteren Wasserisotopen spiegelt die atmosphärische Wasserversorgung wider. Insbesondere in der Atacama-Wüste bewahrt der Gipsboden die Wasserisotopenzusammensetzung aus der Zeit, als er vor Millionen von Jahren gebildet wurde. „Um ein konsistentes Bild zu zeichnen, müssen die Quelle und der Weg des Wassers berücksichtigt werden, da sie die Fraktionierungsprozesse der Wasserisotope bestimmen. Die neuen Ergebnisse tragen dazu bei, die für eine solche Untersuchung erforderlichen Annahmen einzuschränken, und werden aussagekräftigere Ergebnisse ermöglichen.“
Situationen mit erhöhtem Wasserdampf oder sogar Niederschlägen wirken sich auch auf astronomische Forschungen aus, da die Atacama viele weltweit führende Observatorien beherbergt. Atmosphärischer Wasserdampf stört die klare Sicht in den Weltraum. „Das verbesserte Verständnis der Mechanismen des Wasserdampftransports wird es ermöglichen, bessere Vorhersagen über die geeigneten Bedingungen für diese anspruchsvollen Beobachtungen im Kontext eines sich wandelnden Klimas zu treffen“, resümiert Böhm.
Inhaltlicher Kontakt:
Dr. Christoph Böhm
Institut für Geophysik und Meteorologie
Universität zu Köln
+49 221 470 6112
c.boehm@uni-koeln.de
Presse und Kommunikation:
Robert Hahn
+49 221 470 2396
r.hahn@verw.uni-koeln.de
Link:
https://doi.org/10.1029/2021GL094372
Bundesgesundheitsministerium fand niemanden für Studie zu Corona-Ausbrüchen in Pflegeeinrichtungen
Regina Rosenberg Geschäftsstelle
Deutsche Gesellschaft für Pflegewissenschaft e.V.
Warum konnte das BMG keine Pflegewissenschaftler:innen zur Beantwortung wichtiger Fragen zur SARS-CoV-2 Pandemie finden?
Stellungnahme der Deutschen Gesellschaft für Pflegewissenschaft.
Kurz vor Weihnachten berichtete die Tagesschau (https://www.tagesschau.de/investigativ/wdr/corona-studie-pflegeheime-101.html), dass wichtige Fragen zur pflegerischen Versorgung im Zusammenhang mit der SARS-CoV-2 Pandemie nicht beantwortet werden könnten, da sich keine geeigneten Wissenschaftler:innen finden ließen, die bereit wären im Auftrag des Bundesministerium für Gesundheit (BMG) zu forschen.
Für eine Ausschreibung zur „Analyse der Gründe für SARS-CoV-2-Ausbrüche in stationären Pflege-einrichtungen“ wurde, so der Pressetext, „dem Bundesministerium für Gesundheit kein geeignetes Angebot vorgelegt“ und somit „konnte diese Studie nicht vergeben werden“. Immerhin habe man den Auftrag für eine Literaturanalyse „direkt an einen externen Forschungsnehmer vergeben“ können.
Angesichts einer wachsenden Zahl pflegewissenschaftlicher Professuren und Institute in Deutschland sowie – mit der Deutschen Gesellschaft für Pflegewissenschaft – einer pflegewissenschaftlichen Fachgesellschaft, stellt sich natürlich die Frage, warum niemand für einen solchen Auftrag gefunden wurde.
Die Gründe hierfür liegen jedoch nicht am mangelndem Interesse von Pflegewissenschaftler:innen, sondern sind offensichtlich systemimmanent. Eine Nachfrage bei dem Journalisten ergab, dass es sich offenbar um eine begrenzte Ausschreibung im Sinne einer Auftragsvergabe handelte, die über https://verwaltung.bund.de zugänglich war. Auch wenn es sich um eine prinzipiell offene Ausschreibung handelt, wurde offenbar auf eine breite Streuung verzichtet und auch die DGP nicht einbezogen. Auch universitäre Standorte wurden unseres Wissens nach nicht angefragt. Auch hätte das Beratungsgremium des Pflegebeauftragten des BMG einbezogen werden können, um geeignete Forscher:innen zu benennen. Die Autor:innen der von der DGP initiierten Leitlinie „Soziale Teilhabe und Lebensqualität in der stationären Altenhilfe unter den Bedingungen der Covid-19 Pandemie“ hätten ohne Frage Hinweise geben können.
Diese erfolglose Ausschreibung zeigt daher nicht die Untätigkeit oder gar Unwilligkeit von Pflegewissenschaftler:innen in Deutschland, sondern wirft ein Schlaglicht auf die offensichtlich mangelnde Kenntnisnahme pflegewissenschaftlicher Kompetenzen, Strukturen und Kapazitäten in Deutschland (auch) in Zeiten der COVID-19-Krise.
Exemplarisch genannt seien hier nur im Vergleich die Förderung des Netzwerks Universitätsmedizin (https://www.netzwerk-universitaetsmedizin.de/finanzierung) im Umfang von 390 Millionen € bis 2024, die v.a. für medizinische Grundlagenforschung und nur in sehr geringem Umfang zur Erforschung der pflegerischen Versorgung verausgabt wurden sowie die Nichtbeachtung pflegewissenschaftlicher Expertise in entscheidenden Beratungsgremien wie der interdisziplinären Kommission für Pandemieforschung der DFG oder dem Expertenbeirat des BMG. Der hierzu von der Deutschen Gesellschaft für Pflegewissenschaft an Bundeskanzler Scholz gesendete Brief (https://dg-pflegewissenschaft.de/aktuelles/pressemitteilung-wissenschaftliches-e…) blieb bislang unbeantwortet.
Angesichts der überragenden Bedeutung einer angemessenen pflegerischen Versorgung und der besonderen Rolle professionell Pflegender im Rahmen von Infektionsschutz und -kontrolle muss dringend pflegewissenschaftliche Expertise einbezogen werden. Dies gelingt sicher nicht über begrenzte Ausschreibungen im Rahmen von Auftragsforschung, deren zeitlicher und finanzieller Um-fang darüber hinaus keine nennenswerte Forschung zulässt.
Wenn es zukünftig gelingen soll im Rahmen von Krisen, wie z.B. einer Pandemie, kurzfristig nötige Daten zur Verbesserung der Versorgung zu erhalten, braucht es etablierte Forschungsstrukturen. Krisenbezogene Ad-hoc-Programme reichen hier sicher nicht aus, wie an der sehr begrenzten Förderung pflegewissenschaftlicher Forschung seit Beginn der Pandemie deutlich zu erkennen ist. Die vorhandenen Ergebnisse stammen fast ausnahmslos aus Eigeninitiativen von Pflegeforscher:innen ohne spezifische Förderung.
Wir fordern daher das BMG und andere Fördergremien des Bundes auf, ein angemessen ausgestattetes Programm unter entsprechend qualifizierter pflegewissenschaftlicher Begutachtung zur Erforschung der pflegerischen Versorgung während der Pandemie aufzusetzen. Außerdem braucht es die Einbindung pflegewissenschaftlicher Expertise in Beratungsgremien zum Umgang mit der Pandemie.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Inge Eberl, Vorstandsvorsitzende
Prof. Dr. Sascha Köpke, stellv. Vorstandsvorsitzender
Prof. Dr. Christa Büker, Vorstandsmitglied
Prof. Dr. Annegret Horbach, Vorstandsmitglied
Dr. Bernhard Holle, Vorstandsmitglied
Weitere Informationen:
https://dg-pflegewissenschaft.de/wp-content/uploads/2022/01/2022_01_07-Stellungn…
Ungleicher Fahrradboom: Fahrrad wird immer mehr zum Statussymbol
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Radverkehr hat in Deutschland zwischen 1996 und 2018 um mehr als 40 Prozent zugenommen / Trend gilt in erster Linie für Menschen mit höherem Bildungsabschluss
Stadtbewohner:innen in Deutschland mit Abitur fuhren 2018 mit 70 Minuten pro Woche durchschnittlich doppelt so viel Fahrrad wie noch 1996. Bei Bewohner:innen weniger urbaner Gegenden ohne Abitur hat sich in diesem Zeitraum aber kaum etwas verändert. Stadtbewohner:innen mit Abitur fahren heute dreimal so lange Fahrrad wie Bewohner:innen ländlicher Gegenden ohne Abitur.
Der Soziologe Dr. Ansgar Hudde vom Institut für Soziologie und Sozialpsychologie (ISS) der Universität zu Köln hat zwei Studien zum Zusammenhang von Fahrradmobilität und Bildungsniveau erstellt, und dafür mehr als 800.000 Wege ausgewertet, die mehr als 55.000 Befragte zurückgelegt haben. Die Daten stammen aus dem deutschen Mobilitätspanel (MOP) und dem Sozioökonomischen Panel (SOEP) für die Jahre 1996 bis 2018 sowie der BMVI-Studie „Mobilität in Deutschland 2017“. Seine Ergebnisse sind in zwei Artikeln zusammengefasst, die in den Fachzeitschriften Journal of Transport Geography sowie Sociology veröffentlicht wurden.
Einen großen Teil des Fahrradbooms führt der Soziologe auf die Bildungsexpansion zurück. „Die Daten zeigen einen starken Zusammenhang zwischen Radmobilität und Bildungsniveau“, sagt Hudde. „Es gibt immer mehr Menschen mit höherer Bildung, und die fahren immer mehr Fahrrad. Beide Trends setzen sich aktuell ungebremst fort.“
Dr. Ansgar Hudde hat für Bewohner:innen von Städten auch untersucht, warum Menschen mit höherer Bildung das Fahrrad häufiger nutzen als Menschen mit niedrigerer Bildung. Eine Teilerklärung dafür ist, dass Personen mit Hochschulabschluss etwas häufiger in fahrradfreundlichen Städten und Stadtvierteln wohnen. Die Auswertung der statistischen Daten macht aber deutlich, dass sich die Bildungsunterschiede auch innerhalb von Städten und Stadtvierteln zeigen. „Personen mit Hochschulabschluss nutzen in der Stadt das Fahrrad fast 50 Prozent häufiger als Personen ohne Hochschulabschluss, wobei Faktoren wie Alter, Geschlecht und Wohnort bei der Untersuchung konstant gehalten wurden. Die Ergebnisse deuten insgesamt klar darauf hin, dass es der Bildungsstand selbst ist, der zu mehr Radfahren führt“, so Ansgar Hudde.
Daher ist Hudde der Frage nachgegangen, warum der Bildungsstand beeinflusst, ob und wie viel Menschen Fahrrad fahren. Die bisherige Forschung hat gezeigt, dass Menschen ihr Verkehrsmittel nicht nur nach den Kosten oder der Reisezeit auswählen. Vielmehr wählen sie das Verkehrsmittel auch danach, was es symbolisiert und welche Botschaft man damit an Dritte sendet. Tendenziell kann ein teures Auto viel Reichtum und beruflichen Erfolg, aber wenig Gesundheits- oder Umweltbewusstsein ausdrücken. „Beim Fahrrad ist es genau umgekehrt. Personen mit höheren Bildungsabschlüssen laufen meist nicht Gefahr, dass sie als arm oder beruflich erfolglos wahrgenommen werden – selbst dann, wenn sie mit einem günstigen Rad unterwegs sind. Sie können mit dem Fahrrad vielmehr an Status gewinnen, wenn sie sich als modern, gesundheits- und umweltbewusst zeigen“, erläutert Hudde. „Dagegen könnten Personen mit weniger hohen Bildungsabschlüssen ein teures Auto eher als Statussymbol nutzen, um zu zeigen, dass sie es zu Wohlstand gebracht haben.“
Die Befunde haben weitreichende gesellschaftliche Bedeutung. Menschen mit niedrigeren Bildungsabschlüssen verfügen häufiger über geringe finanzielle Ressourcen und haben im Durchschnitt einen schlechteren Gesundheitszustand. Das Fahrrad als kostengünstiges und gesundes Fortbewegungsmittel könnte solche Ungleichheiten mildern – aber das Gegenteil ist der Fall. Viele Städte fördern den Radverkehr und verteilen Straßenraum vom Auto- zum Radverkehr hin um. Im Moment kommen diese Maßnahmen aber in erster Linie den Höhergebildeten zugute. Dr. Ansgar Hudde resümiert: „Wenn es der Politik gelingt, das Radfahren für alle attraktiv zu machen, bedeutet das: lebenswertere Orte, bessere Gesundheit, mehr Umweltschutz und weniger soziale Ungleichheit.“
Inhaltlicher Kontakt:
Dr. Ansgar Hudde
Institut für Soziologie und Sozialpsychologie (ISS)
hudde@wiso.uni-koeln.de
Presse und Kommunikation:
Mathias Martin
+49 221 470-1705
m.martin@verw.uni-koeln.de
Publikationen:
„The unequal cycling boom in Germany“, Journal of Transport Geography, https://www.sciencedirect.com/science/article/pii/S0966692321002970
„Educational Differences in Cycling: Evidence from German Cities“, Sociology,
https://journals.sagepub.com/doi/10.1177/00380385211063366
Verantwortlich: Jürgen Rees – j.rees@verw.uni-koeln.de
Leuphana informiert live über berufsbegleitende Studiengänge
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Online-Infotage der Professional School am 14. und 15. Januar 2022
Wer im Berufsleben steht und sich weiterbilden möchte, muss heute selbst für ein Studium nicht mehr aus dem Job ausscheiden. Immer mehr Studiengänge sind gezielt auf Berufstätige zugeschnitten und lassen sich neben dem Job absolvieren. Die Professional School der Leuphana Universität Lüneburg bietet bereits seit 2009 eine breit gefächerte Auswahl solcher Bachelor-, Master- und Zertifikatsprogramme. Interessierten stellt die Professional School diese Studienangebote am 14. und 15. Januar 2022 mit einem digitalen Infotag vor.
Die Veranstaltung startet am Freitagabend um 18.30 Uhr mit einer Warm-up-Session, die auf die Möglichkeiten des berufsbegleitenden Studiums einstimmen soll. Neben einem Vortrag zum Thema Stressbewältigung und Abschalten vom Arbeits- und Studienalltag gibt es auch einen interaktiven Workshop rund um das berufsbegleitende Studium. Das Warm-up endet mit einer Quizrunde für alle Teilnehmenden. Am Samstag stehen ab 10 Uhr weitere Vorträge und Online-Sprechstunden zu den Studienangeboten aus den Clustern Management & Entrepreneurship, Governance & Recht, Nachhaltigkeit sowie Bildung, Gesundheit & Soziales auf dem Programm.
Beratungsangebote gibt es auch zu Themen wie Studienorganisation und -finanzierung oder zu aktuellen und geplanten Studien- und Weiterbildungsformaten. Ergänzend finden die Interessierten auf der Infotagswebseite Video- und Informationsmaterial.
Die Nachfrage nach den Weiterbildungsangeboten der Leuphana ist in den vergangenen Jahren kontinuierlich gestiegen. Aktuell verzeichnet die Professional School bereits über 1.500 Studierende. Sie hat sich inzwischen zu einem der wichtigsten akademischen Weiterbildungsanbieter im norddeutschen Raum und einer der größten Weiterbildungseinrichtungen an deutschen Universitäten entwickelt.
Unter http://www.leuphana.de/ps-infotag stehen das Veranstaltungsprogramm, weitere Informationen sowie ein Online-Anmeldeformular zum Infotag zur Verfügung.
Digitaler Vortrag: Wie gelingt die Energiewende? Soziale Innovationen als Motor der Transformation.
Stefanie Reiffert Corporate Communications Center
Technische Universität München
Die digitale Vortragsreihe „KlimaDiskurse“ startet am 11. Januar ins neue Jahr. Zu Gast ist dieses Mal die Politik-Analystin Dr. Arwen Colell. Sie spricht über die Gestaltungsmacht von Bürgern und Bürgerinnen bei der Umsetzung der Energiewende.
Colells Forschung zu europäischen Bürgerenergieprojekten zeigt: Gemeinsame Werte und gesellschaftliche Trägerschaft sind entscheidend für die erfolgreiche Umsetzung der Projekte vor Ort. Soziale Innovationen sind dabei mindestens genauso wichtig wie die technologischen und können bestehende Machtstrukturen in der Energiewirtschaft verändern. Dr. Claudia Hemmerle, bayklif-Juniorforschungsgruppenleiterin an der Technischen Universität München (TUM) diskutiert mit ihr und weiteren Experten und Expertinnen, wie die Politik Hemmnisse der Energiewende „von unten“ beseitigen und auch im großen Maßstab die Energiewende „von oben“ gestalten kann und muss.
Diskussionsrunde mit:
Dr. Arwen Colell, Prof. Dr. Miranda Schreurs (Lehrstuhl für Umwelt- und Klimapolitik, Hochschule für Politik München an der Technischen Universität München), Dr. Peter Moser (Zentrum für Umweltkommunikation, Deutsche Bundesstiftung Umwelt Osnabrück), Viola Theesfeld (Referentin Energiepolitik und -wirtschaft, BBEn Bündnis Bürgerenergie e.V. Berlin), Dr.-Ing. Claudia Hemmerle (bayklif CLEANVELOPE, Lehrstuhl für Gebäudetechnologie und klimagerechtes Bauen, Technische Universität München)
Über die Vortragsreihe „KlimaDiskurse“:
Der Klimawandel stellt die Menschheit vor komplexe Herausforderungen und erfordert Anstrengungen und Lösungen aus allen Lebensbereichen. Hierbei helfen neben wissenschaftlichen Erkenntnissen auch Menschen mit Kreativität, Mut und einer Prise Humor, die aufrütteln und inspirieren. In der Vortragsreihe „KlimaDiskurse“ wollen die fünf Juniorforschungsgruppen des Bayerischen Klimaforschungsnetzwerks bayklif mit solchen Menschen reden und ganz verschiedene Facetten des Klimawandels diskutieren.
Hinweise zur Teilnahme:
Die Vorträge finden jeweils ab 18 Uhr als ZOOM Veranstaltung statt. Den Link zur Anmeldung und weitere Informationen finden Interessierte unter www.bayklif.de/klimadiskurse. Eingeladen sind alle interessierten Bürgerinnen und Bürger.
Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Analyse beleuchtet auch Entwicklung im Zeitverlauf
Niedrige Monatsentgelte: Je nach Region zwischen 6 und 43 Prozent betroffen – neue Studie liefert Daten für alle Städte und Landkreise
Der Anteil der Arbeitnehmerinnen und Arbeitnehmer, die trotz Vollzeitarbeit ein niedriges Monatsentgelt von weniger als zwei Dritteln des mittleren monatlichen Bruttoarbeitsentgeltes aller sozialversicherungspflichtig Vollzeitbeschäftigten bekommen, ist in den vergangenen Jahren zurückgegangen, vor allem in Ostdeutschland.
Trotzdem haben auch 2020 bundesweit noch knapp 19 Prozent der sozialversicherungspflichtig in Vollzeit Beschäftigten in diesem nach Definition der Bundesagentur für Arbeit (BA) „unteren Entgeltbereich“ gearbeitet. Dessen Obergrenze lag 2020 bei maximal 2284 Euro brutto monatlich. Das ergibt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung, die auch die neusten verfügbaren Daten für alle deutschen Landkreise und kreisfreien Städte liefert.* Die Auswertung zeigt große Unterschiede nach Regionen, Geschlechtern, Branchen und Qualifikation: Während 2020 in Wolfsburg oder Erlangen 6,4 bzw. 8,3 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiteten, galt das etwa in Görlitz oder dem Saale-Orla Kreis jeweils für spürbar mehr als 40 Prozent. Die höchste Quote weist der Erzgebirgskreis mit 43,2 Prozent auf (siehe auch die Tabelle in der pdf-Version dieser PM; Link unten). Unter den Frauen müssen bundesweit 25,4 Prozent mit einem niedrigen Monatseinkommen trotz Vollzeitarbeit auskommen, unter den Männern 15,4 Prozent. Überdurchschnittlich häufig betroffen sind auch junge Vollzeitbeschäftigte, solche mit ausländischer Staatsangehörigkeit und Personen ohne Berufsabschluss. Besonders ausgeprägt ist der untere Entgeltbereich in Branchen wie dem Gastgewerbe, der Leiharbeit oder der Land- und Forstwirtschaft.
Für die Studie werteten die WSI-Forscher Dr. Eric Seils und Dr. Helge Emmler die aktuellsten verfügbaren Entgelt-Daten der BA zur „Kerngruppe“ der Vollzeitbeschäftigten aus, in der die große Mehrheit der sozialversicherungspflichtig Beschäftigen erfasst ist, aber beispielsweise keine Auszubildenden. Die Daten stammen aus Meldungen von Arbeitgebern zur Sozialversicherung und kommen häufig direkt aus der betrieblichen Lohnbuchhaltungssoftware, daher dürften sie nach Einschätzung der Wissenschaftler auch für die Ebene von Stadt- und Landkreisen verlässlich sein. Seils und Emmler konzentrieren sich in ihrer Untersuchung auf Personen, die laut BA-Statistik Vollzeit arbeiten und trotzdem 2020 höchstens 2284 Euro monatliches Bruttoeinkommen erzielten. Bei diesem Wert setzt die Bundesagentur aktuell die bundesweite Obergrenze des unteren Entgeltbereichs an. Genaue Arbeitszeiten enthält die BA-Statistik nicht, so dass es nicht möglich ist, Stundenlöhne zu berechnen.
Deutschlandweit zählten 2020 nach der Abgrenzung der BA 18,7 Prozent der Vollzeitbeschäftigten zu den Geringverdienenden. Seit 2011 ist dieser Anteil in kleinen jährlichen Schritten von damals 21,1 Prozent kontinuierlich gesunken, gleichzeitig stieg die statistische Zwei-Drittel-Verdienstgrenze um rund 10 Prozent. Der Rückgang fiel in Ostdeutschland deutlich stärker aus als im Westen, allerdings auf einem viel höheren Ausgangs- und Endniveau (Rückgang von 39,3 auf 29,1 Prozent im Osten gegenüber 16,9 auf 16,4 Prozent im Westen; siehe auch Tabelle 2 in der Studie; Link unten). Da gleichzeitig bundesweit die sozialversicherungspflichtige Beschäftigung deutlich wuchs, haben sich die absoluten Zahlen der Betroffenen unterschiedlich entwickelt: Während im Osten die Zahl der Vollzeitbeschäftigten im unteren Entgeltbereich um gut 320.000 sank, stieg sie im Westen um mehr als 200.000 Personen an.
Obwohl sich der Abstand zwischen West und Ost somit verringerte, bleiben die regionalen Differenzen nach der WSI-Analyse weiterhin groß: Unter den ostdeutschen Stadt- und vor allem den Landkreisen sind Quoten von mehr als 30 Prozent weiterhin relativ häufig. Dagegen bleiben im Westen auch jene vorwiegend ländlich geprägten Regionen mit vergleichsweise hohen Anteilen unter dieser Marke, wenn auch in einigen Kreisen von Niedersachsen, Schleswig-Holstein, Rheinland-Pfalz und vereinzelt in Bayern nur relativ knapp. Generell ist Vollzeitarbeit im unteren Entgeltbereich in ländlichen Regionen, in denen es vor allem Kleinbetriebe und eher wenig Industrie gibt, stärker verbreitet.
Im bundesweiten Vergleich niedrige Quoten sind dementsprechend meist in Städten bzw. Ballungsräumen zu finden, in denen große Arbeitgeber im industriellen, im Finanz-, im Wissensbereich und der Verwaltung eine wichtige Rolle spielen. Das gilt neben Wolfsburg und Erlangen beispielsweise auch für Stuttgart, Ingolstadt, Darmstadt, Stadt und Landkreis München, den Kreis Böblingen und Städte wie Salzgitter, Ludwigshafen, Frankfurt am Main, Karlsruhe oder Bonn, wo zwischen rund neun und rund 11 Prozent der Vollzeitbeschäftigten im unteren Entgeltbereich arbeiten (siehe auch die detaillierten Daten im verlinkten Anhang der Studie). Ländlichere Regionen mit relativ niedrigen Quoten finden sich am ehesten in Baden-Württemberg. Unter den größten deutschen Städten weisen auch Köln, Düsseldorf und Hamburg Geringverdiener-Anteile deutlich unter dem bundesweiten Durchschnitt von 18,7 Prozent auf, während Berlin mit 19,2 Prozent knapp darüber liegt.
Diese regionale Verteilung korrespondiert mit weiteren Mustern, die Seils und Emmler bei der Datenanalyse beobachten: Der Anteil der Geringverdienste liegt bei Vollzeitbeschäftigten ohne Berufsabschluss bei 40,8 Prozent, bei Beschäftigten mit beruflichem Abschluss bei 17,8 und bei Personen mit Hochschulzertifikat bei lediglich 4,9 Prozent.
Auch die Branchenverteilung spielt eine wichtige Rolle: Im Gastgewerbe (68,9 Prozent), in Leiharbeit (67,9 %) und Land- und Forstwirtschaft (52,7 %) arbeiten mehr als die Hälfte der Vollzeitkräfte im unteren Entgeltbereich. Deutlich überdurchschnittliche Anteile weisen unter anderem auch der Bereich „Kunst und Unterhaltung“ sowie private Haushalte (33,2 %), die Logistik (28,3 %) oder der Handel (24,9 %) auf. Das Sozial- (19,5 %) und das Gesundheitswesen (17,8 %) liegen knapp über bzw. knapp unter dem allgemeinen Mittel. Im Verarbeitenden Gewerbe insgesamt sind 11,5 Prozent der Vollzeitkräfte im unteren Entgeltbereich beschäftigt, in der Metall- und Elektroindustrie 7,6 Prozent. In der Finanz- und Versicherungsbranche liegt der Anteil bei 4,2 Prozent und im öffentlichen Dienst bei 2,5 Prozent (siehe auch Tabelle 1 in der Studie).
Ein anderer statistischer Zusammenhang mag auf den ersten Blick irritieren: Stadt- und Landkreise mit hohen Wohnkosten weisen niedrigere Anteile von Vollzeitbeschäftigten im unteren Entgeltbereich auf. „In Regionen mit hohen Mieten sind zumeist auch die Löhne höher. Das bedeutet aber nicht unbedingt mehr Kaufkraft für die Beschäftigten, weil die Mieten und Preise den höheren Lohn gleichsam auffressen“, sagt WSI-Forscher Eric Seils.
„Unsere Analyse zeigt einerseits einige positive Tendenzen: In den letzten Jahren ist es gelungen, den unteren Entgeltbereich zurückzudrängen“, fasst sein Forscherkollege Helge Emmler die Befunde zusammen. Dies gelte insbesondere für Ostdeutschland. Allerdings sei vor allem dort der untere Entgeltbereich weiterhin stark verbreitet und zugleich die Tarifbindung weit niedriger als im Westen. „Die geplante Anhebung des Mindestlohnes auf 12 Euro ist sicherlich ein Schritt in die richtige Richtung. Um hier weiter zu kommen, ist darüber hinaus eine Stärkung der Tarifbindung erforderlich“, so Emmler.
Wissenschaftliche Ansprechpartner:
Dr. Eric Seils WSI-Sozialexperte
Tel.: 0211-7778-591
E-Mail: Eric-Seils@boeckler.de
Dr. Helge Emmler WSI-Datenexperte
Tel.: 0211-7778-603
E-Mail: Helge-Emmler@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
*Eric Seils, Helge Emmler: Der untere Entgeltbereich. WSI Policy Brief Nr. 65, Januar 2022. Download: https://www.wsi.de/de/faust-detail.htm?sync_id=HBS-008216
Die PM mit Tabelle (pdf): https://www.boeckler.de/pdf/pm_wsi_2022_01_06.pdf
Frauen in der Digitalbranche: Der lange Weg der Drishti Maharjan
Melisa Berktas Corporate Communications & Public Relations
Jacobs University Bremen gGmbH
Natürlich war das ein sehr emotionaler Moment für sie. Schließich war es für Drishti Maharjan nicht nur geographisch ein langer Weg von Nepal auf diese Bühne in Dresden. In ihrer Schule war sie oft das einzige Mädchen gewesen, das Neigungskurse in Naturwissenschaften besuchte. Und jetzt nahm sie den Preis für den 3. Platz beim Zeiss Women Award 2021 entgegen. Einem Wettbewerb, der herausragende weibliche Studierende in Fächern wie Informatik oder Computerwissenschaften auszeichnet.
Sogar eine Dankesrede hielt sie. „Es war mir wichtig, von meinem Hintergrund zu erzählen. Ich wollte deutlich machen, dass an meiner Stelle auch andere junge Frauen stehen könnten, wenn sie dieselben Chancen und Möglichkeiten bekommen hätten, wie ich sie bekommen habe“, erzählt die 22-Jährige.
Drishti wuchs in Lalitpur auf, einer 225.000 Einwohner-Stadt in der Nähe von Kathmandu, der Hauptstadt von Nepal. Ihr Vater starb als sie 13 Jahre alt war, ihre Mutter hat einen einfachen Schulabschluss. Die Familie gehört nicht zu den Reichen des Landes. Stipendien ermöglichten ihr den Besuch einer Privatschule in Nepal und das Studium an der Jacobs University. „Ohne die finanzielle Hilfe der Universität hätte ich nicht in Bremen studieren können.“
Unterstützung erhielt sie auch während ihrer Zeit an der Hochschule, etwa von Peter Zaspel, Professor für Computer Science, bei dem sie ihre mit dem Zeiss Women Award gewürdigte Bachelorarbeit schrieb. Zuvor war sie auf Vorschlag von Zaspel bereits mit dem Deans-Preis ausgezeichnet worden, mit dem die Jacobs University hervorragende Abschlussarbeiten ihrer Studierenden würdigt.
„Drishtis Arbeit hat ein Niveau, das oft nicht einmal in Masterarbeiten erreicht wird“, sagt Zaspel. „Sie öffnet die Tür in ein neues Feld für kommende Arbeiten zu datengetriebenen Methoden in der wissenschaftlichen Visualisierung.“ Dabei geht es um eine Software mit Namen „ParaView“, die Flüssigkeiten wie Blut oder Wasser visualisiert. Drishti führte neue Funktionen in ParaView ein, indem sie maschinelles Lernen in die Software integrierte.
Dass sie einmal eine ausgezeichnete Softwareentwicklerin werden würde, war in ihrer Schulzeit nicht absehbar. „Mathematische und naturwissenschaftliche Fächer haben mir immer Spaß gemacht, aber nicht ausschließlich.“ Sie hat vielseitige Interessen. Eine Besonderheit der Fächerwahl an der Jacobs University kam ihr deshalb entgegen. Um sich auszuprobieren können Studierende in ihrem ersten Jahr drei Fächer belegen. Erst im zweiten Jahr müssen sie sich auf ihr Abschlussfach festlegen. Drishti wählte Business Administration, Global Economics und Computer Science. „Mir war schnell klar: Computer Science ist das, was ich machen will.“
Was an dem Fach so spannend ist? „Nur mithilfe eines Laptops und ein paar Codes etwas Innovatives kreieren zu können, das ist wirklich faszinierend“, findet sie. An der Jacobs University entdeckte sie auch ihre Begeisterung für Hackathons. Das sind Wettbewerbe, in denen die Teilnehmenden innerhalb begrenzter Zeit eine kreative, technische Lösung für ein bestimmtes Problem finden müssen. „Da kommen oft erstaunliche Innovationen zustande“, sagt Drishti. Sie war so angetan, dass sie 2019 mit einigen Kommiliton:innen aus Nepal den ersten internationalen Hackathon ihres Landes auf die Beine stellte, den Everest-Hack. Das Event wurde ein großer Erfolg. Die Hackathon-Kultur wächst mittlerweile auch in Nepal.
Die meisten Teilnehmenden sind Männer, natürlich. „Als Kind wurde mir oft gesagt, bestimmte Fächer sind nur etwas für Jungs“, erinnert sich Drishti. Für Mädchen habe es an Unterstützung gefehlt, es gab auch keine Lehrerinnen in den entsprechenden Fächern, keine weiblichen Vorbilder. „In der Schule war ich in einigen Kursen das einzige Mädchen unter 40 Jungs. Das fühlte sich komisch an.“
Das änderte sich an der Jacobs University, zumindest ein wenig. „Ich war super glücklich als ich in meinen Kursen plötzlich Kommilitoninnen entdeckte.“ Ihre Freundinnen wiesen sie schnell darauf hin, dass auch in Deutschland Männer die mathematisch-naturwissenschaftlichen und technischen Fächer dominieren. „Es braucht einfach mehr Unterstützung für Frauen, nicht nur in Nepal, auch hier.“
Vor gut dreieinhalb Jahren, im Sommer 2018, kam Drishti nach Bremen. Sie war 18 Jahre alt, es war ihre erste Reise außerhalb ihres Landes. „Ich war wirklich sehr nervös und wusste nicht, was mich erwartet.“ Die Sprache, die Kultur, das Essen, das Wetter – alles war neu. „Ich wusste nicht einmal wie die Post funktioniert, ich hatte zuvor nie einen Brief bekommen.“
Eines der ersten Dinge, über die sie stolperte, war das deutsche Konzept der Pünktlichkeit. „Auf der Anzeigetafel für den Zug stand: Ankunft, 16:04 Uhr. Komische Zeit, dachte ich. Warum schreiben die nicht 16:00 Uhr? Zu meinem Erstaunen kam der Zug auf die Minute genau“, erinnert sie sich lachend. Sie lebte sich dann doch schnell ein, auch dank der Unterstützung der Jacobs University für Studierende. So gibt es in jeder studentischen Unterkunft auf dem Campus „Resident Mentors“ als Bezugspersonen für die Studierenden. „Dieses System ist ausgesprochen hilfreich.“
Im Mai 2021 beendete sie ihr Studium und arbeitet seitdem als Softwareentwicklerin für Polypoly, ein Start-up, das den Nutzer:innen die Hoheit über ihre Daten zurückgeben will. Derzeit ist Drishti in Nepal, zum ersten Mal seit Beginn ihres Studiums. Sie wird zurückkommen nach Deutschland, soviel ist sicher. Erst einmal möchte sie weitere Berufserfahrung sammeln und dann ihren Master machen. Ihr Weg von Nepal nach Bremen war zwar lang, aber er hat sich gelohnt.
Dieser Text ist Teil der Serie „Faces of Jacobs“, in der die Jacobs University Studierende, Alumni, Professor:innen und Mitarbeiter:innen vorstellt. Weitere Folgen sind unter www.jacobs-university.de/faces/de zu finden.
Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre mehr als 1500 Studierenden stammen aus mehr als 120 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder aus dem Rahmenprogramm für Forschung und Innovation der Europäischen Union ebenso gefördert wie von global führenden Unternehmen.
Für weitere Informationen: www.jacobs-university.de
Bundesregierung sollte Atompläne der EU nicht rundheraus ablehnen
Guido Warlimont Kommunikation
Kiel Institut für Weltwirtschaft
Dr. Wilfried Rickels (https://www.ifw-kiel.de/de/experten/ifw/wilfried-rickels/), Direktor des Forschungszentrums Global Commons und Klimapolitik am Kiel Institut für Weltwirtschaft, kommentiert die Reaktion der Bundesregierung auf die strittigen Pläne der EU-Kommission, Kernkraft in die EU-Taxonomie für nachhaltige Energien aufzunehmen:
„Es könnte klimapolitisch ein Fehler sein, dass die Bundesregierung den EU-Vorschlag zur Kernenergie rundheraus ablehnt. Vielmehr sollte sie darauf dringen, dass im Gegenzug die Fitfor55-Klimaschutzpläne der EU weitreichend anerkannt werden. Insbesondere wäre es ein Gewinn für den Klimaschutz, wenn die im Rahmen des europäischen Emissionshandels erlaubte Maximalmenge wie von der EU vorgesehen über die nächsten Jahre stärker als bisher geplant linear sinkt. Dann kann die kontroverse Einstufung der Kernkraft unterm Strich einen wichtigen Beitrag für geringere CO2-Emissionen liefern, ohne dass es am Ende zu einer Renaissance der Kernenergie kommen wird.
Dass Gaskraftwerke, die dann auf Wasserstoff umgerüstet werden können beziehungsweise Kohlenstoffabscheidung und -lagerung (CCS) einsetzen, Teil der EU-Taxonomie sein sollen, ist richtig. Denn ein beschleunigter Ausbau wetterabhängiger erneuerbarer Energien braucht flankierend die regelbare Stromerzeugung. Diese kann zwar auch die Kernenergie CO2-arm liefern, aber unter wirtschaftlichen Gesichtspunkten ist es nicht effizient, dass sie einen großen Beitrag zur CO2-neutralen Stromerzeugung beiträgt. Gleichwohl besteht ein starkes Interesse von einer Gruppe europäischer Staaten, diese Technologie aufzunehmen. Dass die Bundesregierung dies anerkennt und im Gegenzug andere Zugeständnisse erreicht, wäre für den Klimaschutz am Ende wahrscheinlich nützlicher.“
Medienansprechpartner:
Guido Warlimont
Leiter Kommunikation
T +49 431 8814-629
guido.warlimont@ifw-kiel.de
Kiel Institut für Weltwirtschaft
Kiellinie 66 | 24105 Kiel
T +49 431 8814-774
F +49 431 8814-500
www.ifw-kiel.de
Wissenschaftliche Ansprechpartner:
Dr. Wilfried Rickels
Direktor Global Commons und Klimapolitik
T +49 431 8814-408
wilfried.rickels@ifw-kiel.de
Untersuchung zur Wiederverwendbarkeit von FFP2-Masken: Hält die Schutzwirkung?
Christiane Taddigs-Hirsch Hochschulkommunikation
Hochschule München
Die Mehrfachverwendung von FFP2-Masken ist gang und gäbe. Aber schützen die als Einmalprodukte ausgelegten Masken bei mehrmaligem Gebrauch ebenso gut wie beim ersten Tragen? 15 handelsübliche FFP2-Masken testete ein HM-Forschungsteam auf Filterwirkung und Atemkomfort in einer 22-Stunden-Gebrauchssimulation.
FFP2-Masken sind eigentlich für den Einmalgebrauch vorgesehen, so steht es auch im Beipackzettel. Im Alltagsgebrauch sieht es aber meist ganz anders aus: ein Einkauf im Supermarkt, danach noch schnell zur Post, die Kinder von der Kita abholen: alles mit der gleichen Maske. Anschließend bleibt die Maske im Auto liegen, damit man sie am nächsten Tag gleich wiederverwenden kann. Das ist bequem und spart Kosten.
Aber funktioniert das eigentlich? Schützt eine mehrmals verwendete Maske ebenso gut vor einer Ansteckung mit dem Coronavirus SARS-CoV-2 wie beim ersten Tragen? Ein Forscherteam der Hochschule München (HM) ging dieser Frage auf den Grund: „Wir haben die Filterwirkung und den Atemwiderstand von 15 in Deutschland erhältlichen FFP2- Maskenmodellen vor und nach einer 22-stündigen Gebrauchssimulation untersucht,“ sagt der wissenschaftliche Projektleiter und Professor für Medizintechnik Christian Schwarzbauer.
Wirksamkeit bei mehrfachem Tragen gängiger FFP2-Masken simulieren
Für die Gebrauchssimulation hat der Ingenieur und Mechatroniker Hamid Azizi im Rahmen seiner Bachelorarbeit an der Fakultät für angewandte Naturwissenschaften und Mechatronik einen speziellen Beatmungssimulator entwickelt. Damit wurden Luftfeuchtigkeit, Temperatur, Druck und Atemzeitvolumen der menschlichen Atmung bei leichter körperlicher Belastung exakt nachgebildet.
Verfahren für Wirksamkeitstest mehrfach verwendeter FFP2-Masken
Für die Gebrauchssimulation wurde jede Maske zunächst für 12 Stunden mit dem Beatmungssimulator „beatmet“ und anschließend für 60 Minuten in einen Trockenofen bei 80°C gelegt. Die Wärmebehandlung im Backofen bei 80°C wurde als Hygienemaßnahme bei Wiederverwendung von FFP2-Masken von der FH Münster untersucht und empfohlen. Danach wurde die Maske noch einmal für zehn Stunden an den Beatmungssimulator angeschlossen und dann einer zweiten Wärmebehandlung im Trockenofen unterzogen. Die Prüfung der Masken auf Filterleistung und Atemwiderstand erfolgte in Zusammenarbeit mit der ift Rosenheim GmbH, einem international akkreditiertem und notifiziertem Prüflabor für FFP2-Masken.
Vielfach Abnahme der Filterleistung nach Gebrauchstest
Die Gebrauchssimulation führte bei 8 der 15 untersuchten FFP2-Masken-Modellen zu einer signifikanten Abnahme der Filterleistung (vgl. Abbildung 1). Die gemessen Werte lagen aber noch im vorgeschriebenen Normbereich gemäß DIN EN 149:2009-08. Ein Masken-Modell konnte weder im fabrikneuen Zustand, noch nach der Gebrauchssimulation die Norm bezüglich der Filterleistung erfüllen. „Solche Masken dürften eigentlich gar nicht erst in den Handel kommen“ kritisiert Schwarzbauer.
Atemwiderstand der FFP2-Masken verringert sich mit Mehrfachnutzung
Der Atemwiderstand der Maskenmodelle hat sich durch die Gebrauchssimulation bei den meisten Maskenmodellen tendenziell verringert. „Die Masken bieten dadurch etwas mehr Atemkomfort, ansonsten ist das aber unproblematisch, da die Schutzwirkung trotzdem gegeben ist,“ sagt Schwarzbauer. Ein Masken-Modell lag sowohl im fabrikneuen Zustand als auch nach der Gebrauchssimulation über dem maximal zulässigen Grenzwert für den Atemwiderstand. „Dieses Modell bietet zwar ausreichenden Infektionsschutz, der erhöhte Atemwiderstand beim Einatmen kann aber bei starker körperlicher Belastung oder für ältere Personen problematisch sein,“ erklärt Schwarzbauer. Bei einem weiteren Modell wurde der Grenzwert für den Atemwiderstand nach der Gebrauchssimulation überschritten.
Fast alle FFP-2 Masken bieten wirksamem Schutz auch bei mehrfachem Tragen
12 der 15 untersuchten FFP2-Masken-Modelle haben den Labortest bestanden – zwei erfüllten nicht einmal im fabrikneuen Zustand die Anforderungen der Norm (vgl. Abbildung 2). Durch die Gebrauchssimulation waren die Masken für insgesamt 22 Stunden einer Belastung ausgesetzt, die sich durch das Atmen bei leichter körperlicher Aktivität ergeben würde. „Wird eine FFP2- Maske nur für wenige Stunden am Tag bei moderater körperlicher Aktivität getragen, dann sehe ich hinsichtlich der Schutzwirkung und des Atemkomforts kein Problem, wenn diese Maske an mehreren Tagen wiederverwendet wird,“ sagt Schwarzbauer. „Aus hygienischen Gründen sollte man die Maske nach dem Tragen aber nicht einfach in die Tasche stecken, sondern zum Trocknen aufhängen.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christian Schwarzbauer
E-Mail: christian.schwarzbauer@hm.edu
Weitere Informationen:
https://zenodo.org/record/5789009#.YcCu198xldh Preprint der Studie
Herz-Kreislauf-Forschung lieferte Blaupause für universitäre COVID-19-Forschung
Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.
Das Deutsche Zentrum für Herz-Kreislauf-Forschung hat Pionierarbeit für die klinische COVID-19-Forschung geleistet, indem es 2020 seine klinische Forschungsplattform dem bundesweiten Netzwerk Universitätsmedizin (NUM) zur Verfügung stellte. Ab Anfang 2022 betreibt das NUM eine eigene Forschungsplattform, die dem DZHK-Modell nachempfunden ist. Das DZHK beendet dann wie geplant die operative Mitarbeit. Die DZHK-Forschungsplattform dient somit als Blaupause für die zukünftige Forschungsinfrastruktur im NUM.
„Ohne das DZHK hätte die universitäre Corona-Forschung nicht innerhalb weniger Monate mit bundesweit angelegten Studien an den Start gehen können. Das DZHK war im April 2020 im Angesicht der Corona-Krise umstandslos bereit, seine Strukturen und sein Knowhow dem NUM zur Verfügung zu stellen“, sagt Prof. Heyo Kroemer, Vorstandsvorsitzender der Charité – Universitätsmedizin Berlin, der das NUM ins Leben gerufen hatte. Der Leiter der NUM-Koordinierungsstelle, Ralf Heyder, ergänzt: „Von der langjährigen Erfahrung der DZHK-Partner mit der Logistik für große multizentrische Studien haben wir enorm profitiert. Wir bedanken uns für die extrem erfolgreiche Zusammenarbeit der letzten eineinhalb Jahre.“
Eine schnelle Lösung musste her
Als im März 2020 das neuartige Corona-Virus bekannt wurde, war schnell klar: Die universitäre Forschung musste sich im Kampf gegen Sars-Cov2 zusammentun. Um Daten und Bioproben von Erkrankten und Infizierten deutschlandweit zu erfassen, benötigte das vom Bundesministerium für Bildung und Forschung ins Leben gerufene NUM schnell eine leistungsfähige Daten- und Bioproben-Infrastruktur.
Die Forschungsplattform des DZHK wurde damals ausgewählt, weil sie für die Erforschung von COVID-19 alle Voraussetzungen erfüllte. Mit ihr lassen sich klinische Daten, Patientenproben und diagnostische Bilder pseudonymisiert und komplett digital erfassen. „Wir mussten unsere Plattform, mit der wir normalerweise multizentrische klinische Studie aus dem Herz-Kreislauf-Bereich betreiben, nur an die Besonderheit der COVID-19-Forschung anpassen und Datenerfassungssysteme und Prozesse adaptieren“, sagt Dr. Julia Hoffmann, Projektleiterin an der DZHK-Geschäftsstelle.
Daten mit weltweit einzigartiger Detailtiefe
Seit November 2020 hat die Plattform Daten und Proben von 4500 Personen aus drei Kohorten des Nationalen Pandemienetzwerkes (NAPKON) erfasst, einem der Projekte des NUM. Die Daten zeichnen sich durch eine besondere Detailtiefe aus. „Die in der Forschungsplattform gesammelten Daten und geplanten molekularen Untersuchungen werden uns ein einmalig detailliertes Bild der COVID-Erkrankung und ihrer Langzeitfolgen ermöglichen“, sagt Prof. Janne Vehreschild, der mit seinem Team an den Uniklinika Frankfurt und Köln NAPKON koordiniert. „Das wird uns erlauben, die Ursachen für schwere Verläufe und Folgeschäden noch genauer aufzuschlüsseln und uns Hinweise geben, wie wir unsere Patientinnen und Patienten besser schützen und behandeln können”. Über 60 Forschungsprojekte sind bereits beantragt bzw. angelaufen.
NUM betreibt Plattform nach DZHK-Vorbild weiter
In Zukunft werden die Infrastrukturpartner des DZHK die Corona-Daten nach dem Vorbild des DZHK unter Regie des NUM erfassen. „Dass wir die Blaupause für eine NUM-Forschungsplattform geliefert haben, sehen wir als Zeichen für Qualität und höchsten Standard. Mit unserer Plattform konnte die Datenerfassung schnell anlaufen. Jetzt freuen wir uns, unseren Fokus wieder ganz auf die Herz-Kreislauf-Forschung richten zu können.“, sagt DZHK-Vorstandssprecherin Prof. Stefanie Dimmeler.
Hintergrund
Die klinische Forschungsplattform des DZHK ermöglicht den deutschlandweiten Betrieb multizentrischer klinischer Studien und die nachhaltige Verwertung der Forschungsdaten und -proben. An der Plattform sind mehrere Infrastrukturpartner an unterschiedlichen DZHK-Standorten beteiligt: Die Datenhaltung- und Herausgabe erfolgt in Göttingen, das Bilddatenmanagement wird an der Charité – Universitätsmedizin Berlin und der LMU Klinikum München koordiniert, das Bioprobendokumentationssystem wird von der Universitätsmedizin Greifswald verantwortet, die Ethik-Koordination erfolgt am Helmholtz Zentrum München. Eine unabhängige Treuhandstelle in Greifswald sorgt für die Pseudonymisierung der Daten und verwaltet die Patienten-Einwilligungen.
Wissenschaftliche Ansprechpartner:
Dr. Julia Hoffmann, Leiterin Bereich Forschungsplattform, DZHK-Geschäftsstelle, julia.hoffmann@dzhk.de
Weitere Informationen:
https://NAPKON powered by DZHK
https://dzhk.de/forschung/forschungskooperationen/napkon-powered-by-dzhk/
Nano-Pralinen speichern Wasserstoff
Dr. Thomas Zoufal Presse- und Öffentlichkeitsarbeit
Deutsches Elektronen-Synchrotron DESY
Ein innovativer Ansatz kann Nanoteilchen zu einfachen Speichern für Wasserstoff machen. Das leicht flüchtige Gas gilt als vielversprechender Energieträger der Zukunft und soll unter anderem Flugzeuge, Schiffe und Lastwagen klimaneutral antreiben sowie eine emissionsfreie Produktion von Stahl und Zement erlauben. Die Speicherung von Wasserstoff ist bislang allerdings aufwendig: Entweder wird das Gas in Drucktanks bei bis zu 700 bar aufbewahrt oder aber in flüssiger Form, wobei es bis auf minus 253 Grad Celsius abgekühlt werden muss – beide Verfahren kosten zusätzlich Energie.
Ein von DESY-Forscher Andreas Stierle geleitetes Team hat die Grundlage für eine neue Methode erarbeitet – die Speicherung mit winzigen, nur 1,2 Nanometer großen Nanoteilchen aus dem Edelmetall Palladium. Zwar ist schon länger bekannt, dass Palladium Wasserstoff aufsaugen kann wie ein Schwamm. „Allerdings ist es bislang ein Problem, den Wasserstoff wieder aus dem Material herauszubekommen“, erläutert Stierle. „Deshalb versuchen wir es mit Palladium-Teilchen, die lediglich rund einen Nanometer messen.“ Ein Nanometer ist ein millionstel Millimeter.
Damit die Winzlinge hinreichend stabil sind, werden sie durch einen Kern aus dem seltenen Edelmetall Iridium stabilisiert. Zusätzlich sind sie auf Graphen fixiert, einer extrem dünnen Lage aus Kohlenstoff. „Auf Graphen können wir die Palladiumteilchen in Abständen von nur zweieinhalb Nanometern verankern“, berichtet Stierle, der das DESY-NanoLab leitet. „Das Ergebnis ist eine regelmäßige, periodische Struktur.“ Das Team, zu dem auch Forscherinnen und Forscher der Universitäten Köln und Hamburg gehören, hat seine Arbeit im Fachblatt „ACS Nano“ der Amerikanischen Chemischen Gesellschaft (ACS) veröffentlicht.
An DESYs Röntgenlichtquelle PETRA III ließ sich verfolgen, was beim Kontakt der Palladium-Teilchen mit Wasserstoff passiert: Der Wasserstoff bleibt im Wesentlichen an ihren Oberflächen haften – in das Innere der Klümpchen dringt kaum etwas ein. Bildlich gesprochen ähneln diese Nanoteilchen einer Praline: In der Mitte befindet sich eine Iridium-Nuss, umhüllt von einer Marzipanschicht aus Palladium, ganz außen folgt als Schoko-Überzug der Wasserstoff. Zur Entladung des Speichers reicht eine leichte Erwärmung: Da die Gasmoleküle sich nicht den Weg aus dem Inneren bahnen müssen, löst sich der Wasserstoff rasch von der Teilchen-Oberfläche ab.
„Als nächstes wollen wir herausfinden, welche Speicherdichten wir mit der neuen Methode erreichen könnten“, sagt Stierle. Bevor jedoch an einen praktischen Einsatz zu denken ist, gibt es noch manche Herausforderung zu meistern. So dürften andere Formen von Kohlenstoffstrukturen besser als Graphen als Trägermaterial geeignet sein – hier denken die Fachleute über Kohlenstoffschwämme mit winzigen Poren nach. In ihnen sollten sich die Palladium-Nanoteilchen in nennenswerten Mengen unterbringen lassen.
Mit diesem und anderen innovativen Konzepten für die Wasserstoffwirtschaft und eine nachhaltige Energieversorgung befasst sich auch die neue Ausgabe von DESYs Forschungsmagazin „femto“. Das Heft zeigt, wie Grundlagenforschung zu Innovationen für die Energiewende beitragen kann. Dabei geht es nicht nur um den Energieträger Wasserstoff, sondern auch um nachhaltige Solarzellen und neuartige Formen der Energiegewinnung sowie um mehr Energieeffizienz in der Forschung selbst, beim Betrieb großer Teilchenbeschleuniger: www.desy.de/femto.
Das Deutsche Elektronen-Synchrotron DESY zählt mit seinen Standorten in Hamburg und Zeuthen zu den weltweit führenden Zentren in der Forschung an und mit Teilchenbeschleunigern. Die Mission des Forschungszentrums ist die Entschlüsselung von Struktur und Funktion der Materie, als Basis zur Lösung der großen Fragen und drängenden Herausforderungen von Wissenschaft, Gesellschaft und Wirtschaft. Dafür entwickelt, baut und betreibt DESY modernste Beschleuniger- und Experimentieranlagen für die Forschung mit hochbrillantem Röntgenlicht und unterhält internationale Kooperationen in der Teilchen- und Astroteilchenphysik und in der Forschung mit Photonen. DESY ist Mitglied der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands, und wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent von den Ländern Hamburg und Brandenburg finanziert.
Wissenschaftliche Ansprechpartner:
Prof. Andreas Stierle
DESY-NanoLab
andreas.stierle@desy.de
Originalpublikation:
Hydrogen Solubility and Atomic Structure of Graphene Supported Pd Nanoclusters; D. Franz, U. Schröder, R. Shayduk, B. Arndt, H. Noei, V. Vonk, T. Michely, A. Stierle; „ACS Nano“, 2021; DOI: https://dx.doi.org10.1021/acsnano.1c01997
Weitere Informationen:
https://www.desy.de/aktuelles/news_suche/index_ger.html?openDirectAnchor=2208 – Pressemitteilung im Web